Tecnologías de BIG DATA
Summary
TLDREl video destaca cómo las bases de datos tradicionales ya no son suficientes para procesar el creciente volumen de datos en las empresas. Se plantea la necesidad de adoptar tecnologías de procesamiento distribuido y plataformas de Big Data para manejar estos datos de manera eficiente. A través de un curso de 20 horas, se ofrece una visión global sobre Big Data, su almacenamiento en la nube y el procesamiento en clústeres. Además, se explora la importancia de la analítica en la toma de decisiones empresariales. El curso también enseña a desplegar clústeres en la nube de forma sencilla y eficiente.
Takeaways
- 💽 Las bases de datos tradicionales se están volviendo menos eficientes debido al rápido crecimiento de los datos.
- 🚀 Las bases de datos actuales son más rápidas y eficientes, pero no pueden manejar el aumento exponencial de datos sin un cambio de tecnología.
- ⚙️ La solución no es agregar más recursos a las bases de datos existentes, sino cambiar a plataformas de procesamiento distribuido.
- 🌐 Las tecnologías de procesamiento distribuido permiten una escalabilidad prácticamente ilimitada para manejar grandes volúmenes de datos.
- ☁️ La nube juega un papel fundamental en este cambio, permitiendo desplegar clusters de procesamiento de manera eficiente y económica.
- 🗂️ HDFS (Hadoop Distributed File System) es clave para almacenar big data de manera eficiente, especialmente en entornos de nube.
- 🖥️ Las plataformas Hadoop y Spark son fundamentales en el ecosistema de procesamiento de big data, ofreciendo opciones tanto de procesamiento en disco como en memoria.
- 📊 La analítica es el paso final e ineludible en el manejo de big data, permitiendo a las empresas tomar decisiones basadas en datos procesados.
- 📈 Power BI es una herramienta que facilita el análisis de big data, permitiendo a los usuarios no expertos acceder a estas tecnologías.
- 🎓 El curso sobre tecnologías de big data promete una visión global en 20 horas, ayudando a los usuarios a comprender y aplicar estas tecnologías en su día a día.
Q & A
¿Por qué las bases de datos tradicionales parecen ser menos eficientes hoy en día?
-Aunque las bases de datos son cada vez más rápidas y eficientes, el crecimiento exponencial de los datos las sobrecarga. Si seguimos usando herramientas tradicionales para procesar datos masivos, no lograremos resultados óptimos.
¿Cuál es la principal causa del rendimiento lento de las bases de datos según el video?
-El problema principal no es la eficiencia de las bases de datos, sino que los datos crecen a una velocidad mayor que la capacidad de procesamiento de las herramientas tradicionales.
¿Cuál es la solución propuesta para lidiar con el crecimiento de los datos?
-La solución es cambiar a tecnologías de procesamiento distribuido, que permiten un crecimiento prácticamente ilimitado en la capacidad de procesamiento, en lugar de simplemente agregar más recursos a las bases de datos tradicionales.
¿Por qué no es suficiente añadir más recursos a una base de datos tradicional?
-Añadir más recursos no resuelve el problema porque las tecnologías tradicionales no están diseñadas para manejar grandes volúmenes de datos de manera eficiente. Es necesario adoptar nuevas tecnologías adaptadas a estas necesidades.
¿Qué se menciona como el primer paso para mejorar el procesamiento de datos?
-El primer paso es comprender y tener una visión clara de las nuevas tecnologías disponibles, especialmente las herramientas de big data, y cómo pueden ayudarnos a procesar grandes volúmenes de datos.
¿Cómo puede la nube ayudar en el procesamiento de grandes volúmenes de datos?
-La nube permite desplegar clústeres funcionales sin necesidad de aprovisionamiento físico, lo que facilita el procesamiento de miles de millones de registros con un esfuerzo mínimo y altos niveles de abstracción tecnológica.
¿Qué temas principales se cubren en el curso de big data mencionado en el video?
-El curso cubre una introducción al big data, el almacenamiento en la nube usando HDFS, plataformas de procesamiento distribuidas como Hadoop y Spark, y herramientas analíticas como Power BI.
¿Qué es HDFS y por qué es relevante en el contexto de big data?
-HDFS es el sistema de archivos distribuido de Hadoop, diseñado para almacenar y gestionar grandes volúmenes de datos de manera eficiente. Su implementación en la nube ofrece costos reducidos y alta eficacia.
¿Cómo pueden las herramientas de big data acercar el procesamiento a los usuarios de negocio?
-Existen herramientas dentro de los ecosistemas de Hadoop y Spark que permiten a los usuarios de negocio acceder y trabajar con grandes volúmenes de datos sin necesidad de ser expertos en la tecnología subyacente.
¿Cuál es la importancia de la analítica en el proceso de big data según el video?
-La analítica es el último paso del procesamiento de big data. Permite a las empresas obtener información valiosa de los datos procesados y es un componente ineludible para cualquier empresa que maneje grandes volúmenes de datos.
Outlines
🚀 Evolución de las Bases de Datos
El vídeo comienza con una reflexión sobre cómo las bases de datos tradicionales parecen estar llegando a sus límites en cuanto a velocidad y eficiencia. Se plantea la idea de que, aunque las bases de datos se han vuelto más rápidas y eficientes, el crecimiento exponencial de los datos los está superando. Fermín de la Sierra, quien se presenta a sí mismo, sugiere que la solución no es simplemente añadir más recursos a las bases de datos existentes, sino cambiar a tecnologías de procesamiento distribuido que permitan un crecimiento ilimitado en la capacidad de procesamiento de datos. Aboga por la necesidad de comprender y adoptar nuevas tecnologías de Big Data para mejorar la forma en que se procesan los datos.
Mindmap
Keywords
💡Bases de datos
💡Big Data
💡Procesamiento distribuido
💡HDFS
💡Nube
💡Cluster
💡Hadoop
💡Spark
💡Analítica de datos
💡Power BI
Highlights
Las bases de datos tradicionales se están volviendo menos eficientes debido al crecimiento rápido de los datos.
A pesar de las mejoras en las bases de datos, las herramientas tradicionales no son adecuadas para procesar grandes volúmenes de datos.
El procesamiento distribuido es la solución para manejar un crecimiento ilimitado en la capacidad de procesamiento de datos.
La tecnología debe cambiar para adaptarse al procesamiento de grandes volúmenes de datos.
Es necesario un cambio de chip para comprender y adoptar las nuevas tecnologías de Big Data.
El curso ofrece una introducción a Big Data, incluyendo sus orígenes y características.
El almacenamiento de Big Data es clave, y el concepto de HDFS es fundamental para entenderlo.
Las plataformas más comunes para Big Data incluyen los ecosistemas de Hadoop y Spark.
El procesamiento en memoria y en disco son esenciales para mejorar la eficiencia en el manejo de grandes volúmenes de datos.
El curso muestra cómo desplegar clústeres en la nube para manejar miles de millones de registros.
El uso de la nube facilita el aprovisionamiento de clústeres sin los costos y desafíos de infraestructura local.
El análisis de datos es el paso final e imprescindible para cualquier empresa que maneje Big Data.
Se utilizará Power BI como herramienta analítica para procesar y visualizar los datos.
El curso destaca la facilidad con la que las empresas pueden acercarse al procesamiento de datos sin ser expertas en la tecnología.
El enfoque del curso es brindar una percepción global de las herramientas de Big Data y su aplicabilidad en el día a día.
Transcripts
[Música]
nunca has tenido la impresión de que las
bases de datos ya no son lo que eran que
cada vez van más lentas que cada vez
satisfacen menos las necesidades que
tiene para procesar tu información
que pasan a formar parte del problema y
no de la solución que necesita con
seguridad en los equipos de desarrollo
de oracle sqlserver no van a estar de
acuerdo con esta afirmación
pero qué es lo que está ocurriendo
entonces mi nombre es fermín de la
sierra y quién me buscas me encuentra y
si tienes un par de minutos vas a
entender perfectamente lo que está
ocurriendo a pesar de lo que nos pueda
parecer las bases de datos cada día son
más eficientes más rápidas pero nuestros
datos crecen a mayor velocidad
si seguimos empeñados en procesar
nuestros datos con las herramientas que
conocemos pero que no son adecuadas no
mejoraremos nuestros resúmenes realmente
tendremos
cuando los gatos crecen y crecen y se le
atragantan a las bases de datos
la solución no va a ser añadir más
recursos a nuestra base de datos tenemos
que cambiar la tecnología tenemos que
pasar a plataformas de procesamiento
distribuidos que nos van a permitir un
crecimiento prácticamente ilimitado en
la capacidad de procesos de nuestra vida
por lo tanto toca cambiar de tecnologías
soy consciente de que es mucho más fácil
decirlo que hacerlo pero cuanto más
tardemos en dar el paso más valor
estaremos perdiendo para nuestro mente
pero sin duda el primer paso será
comprender y tener una visión clara de
estas nuevas tecnologías que pueden
ofrecernos y cómo pueden ayudarnos para
procesar nuestros datos en nuestro curso
tecnologías de big data en 20 horas
tendrás una percepción global de estas
herramientas y sobre todo serás
consciente de que no estás tan lejos de
su utilización en el día a día de turís
la nube será una gran aliada en este
cambio es difícil aprovisionar los
clusters on premise la energía eléctrica
la instalación el mantenimiento del sol
en nuestro curso verás cómo desplegar
desde cero clusters en la nube
totalmente funcionales que nos
permitirán procesar y literalmente miles
de millones de registros con muy poco
esfuerzo por nuestra parte y con una
gran abstracción sobre las tecnologías
que estamos
en primer lugar
veremos una introducción a big data sus
orígenes sus características y cómo
pueden ayudarnos intentaremos cambiar el
chip quizás lo más difícil cuando
hablamos de big data veremos a
continuación
cómo almacenar nuestro big data
entenderemos claramente el concepto de
hd fs y veremos cómo éste puede
implementarse en la nube con unos costes
muy reducidos y con una alta eficacia y
eficiencia
a continuación describiremos las
plataformas más comunes los ecosistemas
de hadoop y spam procesamiento en disco
y procesamiento en memoria que nos
permitirá no sólo conocer lo que pueden
hacer sino conocer herramientas que
permitirán a los usuarios de negocio
acercarse a este procesamiento sin tener
que ser expertos en esta tecnología y
por último hablaremos de analítica
no deja de ser la guinda del pastel todo
el procesamiento de nuestro big data
tiende a densificar de alguna forma a
nuestra información a ser capaces de no
tener menos registros sino agrupaciones
de ello pero la analítica es el último
paso todas las empresas podrán tener más
o menos big data tener que alejarse más
de las herramientas conocidas como bases
de datos para este procesamiento pero
desde luego lo que es inexcusable es la
analítica todas las empresas están
destinadas a trabajar con analítica de
sus datos y al final veremos una
herramienta analítica power by que nos
ayudará a realizar este análisis
almacenamiento en la nube hd fs clusters
operativos de spam fijados procesando
miles de millones de registros todo esto
lo podrás ver en nuestro curso de
tecnologías de vista si tienes interés
en este curso no dudes en pedir
información sin ningún compromiso al
correo que aparece en pantalla
nos veremos en el próximo vídeo con el
curso
[Música]
Ver Más Videos Relacionados
El impacto del Bigdata y el Smartdata en Gestión de Riesgos
¿Qué es la inteligencia de negocios y cuál es su importancia?
Bases de datos para Big Data | Curso de SQL y MySQL | Platzi Cursos
What is Big Data? - Computerphile
Guía definitiva para entender La Nube: ¿Qué es y cómo funciona? By Microsoft Azure y Alestra
Cómo elegir una base de datos
5.0 / 5 (0 votes)