¿Qué es el Big Data? - La mejor explicación en español

EDteam
13 Apr 201915:42

Summary

TLDREn este video, Álvaro Felipe narra la historia de Carlos, un panadero que busca mejorar su negocio a través de la gestión de datos. Comienza almacenando información de manera desorganizada, pero luego aprende sobre hojas de cálculo y bases de datos. Finalmente, se enfrenta al desafío de manejar grandes volúmenes de datos de diversas fuentes, introduciendo el concepto de Big Data. Álvaro explica términos clave del Big Data y resalta la importancia de herramientas como el cloud computing y el machine learning. También invita a un workshop en México sobre Big Data en Google, impartido por Manu Rodríguez.

Takeaways

  • 👋 Hola amigos, soy Álvaro Felipe y hoy quiero hablarles sobre Big Data.
  • 📖 Carlos, un panadero, quiere hacer crecer su negocio y comienza a leer sobre marketing y gestión.
  • 📝 Carlos guarda los datos de sus clientes en un documento de texto desordenado, lo que le causa problemas.
  • 📊 Aprende a usar hojas de cálculo para organizar mejor sus datos.
  • 💡 Alexis Losada le explica que necesita una base de datos en lugar de una hoja de cálculo.
  • 🌐 Carlos descubre que necesita centralizar toda la información que recibe de diferentes fuentes.
  • 🏢 Las grandes empresas manejan enormes cantidades de información de diversas fuentes.
  • 🔍 Los datos no estructurados, como correos electrónicos y documentos de texto, son importantes pero desordenados.
  • 💾 El almacenamiento en la nube (cloud computing) es más eficiente y menos costoso que el almacenamiento local (on premise).
  • 📈 El Big Data se caracteriza por grandes volúmenes de información, variabilidad, velocidad, veracidad y valor.
  • 🧠 El machine learning permite a las computadoras aprender patrones y hacer predicciones.
  • 📊 Big Data permite encontrar soluciones para negocios y la ciudadanía a través del análisis de grandes volúmenes de datos.
  • 📅 Invitación a un workshop sobre Big Data en Ciudad de México el 18 de mayo, con Manu Rodríguez como instructor.

Q & A

  • ¿Quién es Carlos y qué problema enfrenta al principio del video?

    -Carlos es un panadero que quiere que su negocio crezca. El problema que enfrenta es que guarda los datos de sus clientes de manera desorganizada en documentos de texto sin una estructura definida.

  • ¿Cómo intenta Carlos mejorar la organización de sus datos inicialmente?

    -Carlos intenta mejorar la organización de sus datos usando una hoja de cálculo, donde puede tener un orden con filas y columnas para diferentes tipos de información.

  • ¿Quién es Alexis Losada y qué le sugiere a Carlos?

    -Alexis Losada es una persona que Carlos conoce, y le sugiere que use una base de datos en lugar de una hoja de cálculo para organizar mejor sus datos.

  • ¿Qué tipos de información maneja Carlos que complican la organización de sus datos?

    -Carlos maneja información de correos electrónicos, mensajes de redes sociales, ventas, pagos a empleados, contabilidad, proveedores, analíticas de su sitio web, inventario, y registros del negocio.

  • ¿Qué es 'big data' según el video?

    -Big data es un gran volumen de información de diferentes fuentes y con diferentes estructuras, que se genera y cambia a una velocidad rápida, haciendo que sea difícil de procesar y analizar con sistemas tradicionales.

  • ¿Cuáles son los cinco 'Vs' del big data mencionadas en el video?

    -Las cinco 'Vs' del big data son: Volumen, Variedad, Velocidad, Veracidad y Valor.

  • ¿Qué es el 'cloud computing' y cómo se relaciona con el big data?

    -El cloud computing es un modelo que permite almacenar, procesar y extraer datos en la nube, ofrecido por empresas como Amazon, Google y Microsoft. Se relaciona con el big data porque proporciona el poder de cómputo necesario para manejar grandes volúmenes de datos a un menor costo.

  • ¿Qué es el 'machine learning' y cómo se aplica en el contexto del big data?

    -El machine learning es el aprendizaje automático donde las computadoras pueden aprender de patrones en los datos y hacer predicciones. En el contexto del big data, ayuda a encontrar patrones en grandes volúmenes de datos que los humanos podrían no detectar.

  • ¿Qué proceso se describe para centralizar y analizar los datos de diferentes fuentes?

    -El proceso descrito es el ETL: Extracción, Transformación y Carga. Se capturan los datos de diferentes fuentes, se estandarizan y limpian, y finalmente se cargan en un data warehouse para su análisis.

  • ¿Cómo pueden las empresas transformar los datos en dinero según el video?

    -Las empresas pueden transformar los datos en dinero al capturar, almacenar, procesar y analizar los datos para tomar decisiones informadas que mejoren las ventas, la eficiencia y la toma de decisiones estratégicas.

Outlines

00:00

🧁 La historia de Carlos y la gestión de datos

Carlos es un panadero exitoso que busca expandir su negocio. Aprende sobre la importancia de gestionar los datos de sus clientes pero enfrenta problemas al usar documentos de texto desordenados. Descubre la utilidad de las hojas de cálculo y posteriormente, con la ayuda de Alexis, comprende la importancia de las bases de datos para organizar y centralizar información de diferentes fuentes.

05:01

🏢 Del almacenamiento local al cloud computing

Se explican los términos relacionados con bases de datos y almacenamiento de información. La transición de sistemas on-premise a cloud computing se aborda, destacando las ventajas del almacenamiento en la nube frente a los métodos tradicionales. Se mencionan las principales empresas de cloud computing y los beneficios de la escalabilidad y poder de cómputo que ofrecen.

10:02

📈 El ciclo de vida y valor de los datos

El proceso de ETL (Extracción, Transformación y Carga) se explica como la metodología para manejar grandes volúmenes de datos de diversas fuentes. Se detalla cómo estos datos, una vez procesados, pueden ser utilizados para tomar decisiones empresariales estratégicas. Se discute el valor de los datos y cómo empresas como Google y Facebook monetizan la información recopilada.

15:02

🎓 Workshop de Big Data en Ciudad de México

Se invita a los interesados a participar en un workshop presencial sobre Big Data en Ciudad de México, dirigido por Manu Rodríguez, experto en cloud computing para Google. El evento promete una experiencia enriquecedora con acceso directo a un profesional para resolver dudas y aprender en profundidad sobre el manejo de Big Data en Google Cloud.

Mindmap

Keywords

💡Big Data

Big Data se refiere al manejo y análisis de grandes volúmenes de información provenientes de diversas fuentes. En el video, se menciona cómo Carlos, un panadero, necesita centralizar y procesar información de clientes, redes sociales, ventas, y más para mejorar su negocio. Big Data permite integrar y analizar estos datos para obtener insights valiosos.

💡Datos no estructurados

Los datos no estructurados son aquellos que no siguen una estructura predefinida, como correos electrónicos y conversaciones de texto. En el video, se menciona cómo Carlos inicialmente guarda datos de sus clientes de manera desordenada en documentos de texto, ilustrando la complejidad de manejar este tipo de datos.

💡Hoja de cálculo

Una hoja de cálculo es una herramienta para organizar datos en filas y columnas. Carlos pasa de guardar datos en documentos de texto a utilizar una hoja de cálculo para mejorar la organización. Sin embargo, se le explica que esto no es suficiente y que necesita una base de datos para manejar mejor la información.

💡Base de datos

Una base de datos es un sistema estructurado para almacenar y gestionar datos. Alexis le enseña a Carlos que una hoja de cálculo no es suficiente y diseña una base de datos que organiza la información de manera eficiente, facilitando el acceso y el análisis de los datos.

💡On premise

On premise se refiere a la infraestructura y servicios de cómputo que se encuentran físicamente en las instalaciones de una empresa. El video menciona que, aunque este método era común, es costoso y requiere mantenimiento constante, en contraste con el cloud computing.

💡Cloud computing

El cloud computing ofrece servicios de cómputo a través de internet. Se menciona que este modelo es más eficiente y económico que mantener infraestructura local. Empresas como Amazon, Google y Microsoft lideran este sector, permitiendo a las empresas escalar sus recursos según sus necesidades.

💡Machine Learning

El machine learning es una tecnología que permite a las computadoras aprender de los datos y detectar patrones. En el video, se explica cómo esta tecnología puede identificar patrones en grandes volúmenes de datos, facilitando el análisis predictivo y la toma de decisiones.

💡Data Warehouse

Un data warehouse es un gran almacén de datos que integra información de diversas fuentes para su análisis. En el video, se menciona cómo Carlos podría centralizar toda la información de su negocio en un data warehouse, permitiendo un análisis más eficiente y detallado.

💡ETL (Extract, Transform, Load)

ETL es el proceso de extracción, transformación y carga de datos en un data warehouse. En el video, se describe cómo este proceso ayuda a centralizar y limpiar datos de diversas fuentes para facilitar su análisis.

💡Visualización de datos

La visualización de datos implica representar datos de manera gráfica para facilitar su comprensión. En el video, se menciona la importancia de mostrar datos en dashboards o tableros para que los tomadores de decisiones puedan interpretar fácilmente la información y actuar en consecuencia.

Highlights

Carlos guarda los datos de sus clientes en un documento de texto sin estructura, lo que resulta ineficiente.

El uso de una hoja de cálculo mejora la organización de los datos de Carlos.

Alexis le explica a Carlos que necesita una base de datos en lugar de una hoja de cálculo para gestionar mejor su información.

La información de Carlos proviene de múltiples fuentes, como correos electrónicos, redes sociales, y ventas.

El desafío de centralizar toda la información de diferentes fuentes es clave para mejorar el análisis de datos.

Las grandes empresas manejan enormes cantidades de información que también están distribuidas en diferentes lugares.

Big Data implica manejar grandes volúmenes de información de diferentes fuentes, con estructuras diversas y a una velocidad rápida.

Datos no estructurados son aquellos que no tienen una estructura definida, como correos electrónicos y conversaciones por Slack.

Datos estructurados son aquellos que se organizan en bases de datos, como los datos de una hoja de cálculo.

On-premise se refiere a empresas que almacenan sus datos e infraestructura localmente, lo cual es costoso y requiere personal especializado.

Cloud computing permite almacenar y procesar datos en la nube, ofreciendo más poder de cómputo a menor costo.

Un data warehouse es un gran almacén de datos, capaz de manejar cantidades extremas de información.

Machine learning permite que las computadoras aprendan a través de patrones y puedan hacer predicciones.

El ciclo de vida de los datos incluye la captura, almacenamiento, procesamiento, análisis, y visualización para tomar decisiones informadas.

Big Data permite encontrar soluciones para negocios o la ciudadanía mediante el análisis de grandes volúmenes de información.

Transcripts

play00:03

hola amigos yo soy álvaro felipe y hoy

play00:05

quiero hablarles acerca de big dada para

play00:07

eso quiero contarles una pequeña

play00:09

historia el es carlos tres panaderos

play00:12

hace pan hace buen pan entonces le va

play00:14

bien tiene buenos clientes sin embargo

play00:17

él quiere que su negocio crezca así que

play00:18

como todo buen emprendedor empieza a

play00:20

leer sobre marketing sobre negocios

play00:22

sobre gestión lo que todo buen

play00:24

emprendedor debería hacer leer todos los

play00:26

días así que de esta manera él comprende

play00:29

que debería guardar los datos de sus

play00:31

clientes para poder tener mejores

play00:33

relaciones informales cuando hay

play00:35

descuentos ofertas nuevos productos

play00:37

eventos etcétera ok pero como él no sabe

play00:40

mucho de tecnología los guarda en un

play00:43

documento de texto pero no tienen una

play00:46

estructura para un cliente le pone

play00:47

primero el apellido luego el nombre al

play00:49

siguiente cliente le pone primero el

play00:51

nombre luego el apellido a otro cliente

play00:53

le pone primero el correo luego el

play00:54

apellido luego la fecha de nacimiento

play00:56

todo es un desorden mayúsculas

play00:59

minúsculas una locura pronto él mismo se

play01:02

da cuenta de que esto no es eficiente

play01:03

demora mucho en encontrar una

play01:05

información porque todo está desordenado

play01:07

así que leyendo se entera que es mejor

play01:10

todo esto en una hoja de cálculo porque

play01:12

ahí ya hay un orden hay filas y columnas

play01:14

entonces en la columna uno pone el

play01:16

nombre en la columna dos el apellido en

play01:18

la columna tres el teléfono celular

play01:20

etcétera todo está mucho mejor pero un

play01:23

día conoce a un señor llamado alexis

play01:25

losada ya le siendo sala le dice esto no

play01:29

es una base de datos esto es una hoja de

play01:30

cálculo tú necesitas una base de datos

play01:32

carlos entonces carlos le dice hoy el

play01:35

éxito yo he escuchado que access es una

play01:36

base de datos entonces nuevo mis datos

play01:38

access y alexis se enoja muchísimo peor

play01:41

y le dice access no es una base de datos

play01:43

tú necesitas una base de datos yo me

play01:46

encargo entonces alexis diseña una base

play01:48

de datos que lo pone feliz y también

play01:50

pone feliz a carlos obviamente

play01:54

mejórate alexis hay bastantes bases de

play01:57

datos esperándote

play02:01

entonces carlos ya tiene sus bases de

play02:03

datos pero pronto se da cuenta que la

play02:06

información viene de muchos lugares

play02:07

aparte de esta base de datos los correos

play02:10

electrónicos que comparte con sus

play02:11

clientes los mensajes que envía y recibe

play02:14

por las redes sociales la información de

play02:16

sus ventas la información de lo que le

play02:19

paga a sus empleados la contabilidad en

play02:21

general no los datos de sus proveedores

play02:24

que proveedores tiene qué productos le

play02:26

traen cuánto les paga en qué fechas

play02:28

vienen qué créditos tiene etcétera la

play02:31

información de analíticas de su sitio

play02:34

web cuántas visitas tiene cuánto tiempo

play02:36

se quedan de donde lo están visitando

play02:38

cómo llegan a su sitio la información de

play02:41

su inventario la información de los

play02:43

registros de su negocio una gran

play02:46

cantidad de información que hace que en

play02:48

algún momento carlos se quede así

play02:51

sin saber qué hacer con tanta

play02:53

información ahora carlos es un pequeño

play02:56

empresario y está sintiendo que hay

play02:59

mucha información pero también se da

play03:01

cuenta que si él fuera capaz de

play03:04

centralizar toda esa información que

play03:06

viene de diferentes fuentes y trabajarla

play03:09

como una sola información es decir saber

play03:11

que este cliente que me escribió por

play03:13

facebook es este con el que tuve

play03:15

conversaciones por el correo electrónico

play03:18

y es este que tengo en la base de datos

play03:21

que me ha comprado este y este producto

play03:23

de esa manera puedo definir el

play03:25

comportamiento de este cliente pero

play03:27

obviamente están todos los datos por

play03:28

diferentes lugares y es muy complejo

play03:30

ahora imagínate el reto que tiene que

play03:32

asumir una gran empresa un banco una

play03:36

cadena de supermercados una tienda por

play03:38

departamentos que tienen locales en

play03:40

varios países una empresa de software

play03:42

con clientes a nivel mundial una empresa

play03:44

de telecomunicaciones etcétera cuánta

play03:46

información ellos manejarán enormes

play03:49

cantidades de información que también

play03:50

están repartidos por distintos lugares

play03:52

esta es la esencia del big data

play03:55

antes de explicarte que es big data de

play03:56

manera técnica hablemos de la

play03:57

terminología de esas palabras que vas a

play04:00

escuchar en el mundillo del big data y

play04:01

es bueno que tú las conozcas en primer

play04:04

lugar los datos no estructurados son

play04:05

aquellos que no tienen una estructura

play04:07

definida como carlos poniendo los datos

play04:10

de sus clientes en un documento de texto

play04:12

y poniéndolos como caigan no tienen una

play04:14

estructura sin embargo igual son datos

play04:16

iguales información importante tú dirás

play04:19

sí pero tú pusiste el ejemplo de carlos

play04:21

porque l era un principiante de la

play04:23

tecnología nosotros no lo vamos a hacer

play04:24

nosotros siempre estructuramos nuestra

play04:26

información

play04:27

falso cuando envías un correo

play04:28

electrónico el cuerpo de ese correo es

play04:31

un son datos no estructurados a pesar de

play04:33

que haya información muy importante hay

play04:35

documentos de texto conversaciones por

play04:37

slack toda la información que guardas en

play04:39

tu sistema de gestión de proyectos ya

play04:41

sea sana reloj de ira wright etcétera

play04:44

todos esos datos no estructurados y son

play04:47

datos importantes de tu empresa además

play04:49

tenemos los datos estructurados que son

play04:52

los datos que ya se diseñan como el

play04:54

ejemplo de carlos pasando sus datos

play04:56

hoja de cálculo tenemos luego la base de

play04:59

datos llega alexis y dice tenemos que

play05:01

hacer una base de datos esto es un

play05:03

conjunto organizado de información de

play05:05

datos estructurados y existen los

play05:07

motores de base de datos que es software

play05:10

que permite almacenar procesar y extraer

play05:13

la información de estas bases de datos

play05:15

también tenemos el término on premise

play05:18

que se usa para referirnos a las

play05:20

empresas que guardan sus datos e

play05:21

infraestructura en local es decir en sus

play05:24

propias oficinas han comprado

play05:26

computadoras servidores racks han hecho

play05:29

el cableado tienen un lugar específico

play05:32

para guardar todos esos datos eso es un

play05:35

premio obviamente en un momento

play05:38

determinado no había otra forma de

play05:40

hacerlo si tú querías guardar

play05:42

información tenías que comprar equipos y

play05:44

ahí guardar la información y ahí

play05:45

procesar esa información sin embargo

play05:47

esto es muy costoso

play05:49

necesitas un espacio físico que es

play05:51

costoso necesitas comprar los equipos y

play05:54

saber que en determinada cantidad de

play05:55

años estos equipos se vuelven obsoletos

play05:57

y que renovarlo necesitas personal

play05:59

capacitado y especializado para

play06:01

manipular estos equipos es

play06:03

realmente el nuevo modelo es el cloud

play06:05

computing que significa que todos estos

play06:07

servicios de cómputo estén en internet

play06:10

ofrecidos por una empresa las empresas

play06:12

más importantes de cloud computing son

play06:14

amazon con la w s

play06:16

google con disipe y microsoft con asier

play06:19

entonces ya no tenemos que tener esas

play06:21

grandes cantidades de equipos y gastar

play06:24

tanto dinero sino que nuestros datos

play06:26

están almacenados en la nube en la nube

play06:28

se procesan en la nube hay mucho poder

play06:30

de cómputo un mito muy común de la nube

play06:33

es decir que es la computadora de otra

play06:35

persona y eso es absolutamente falso y

play06:37

quiero dejarlo muy en claro nunca creas

play06:39

eso el cloud computing es un conjunto de

play06:43

servicios de cómputo enormes gigantescos

play06:46

y un conjunto de servicios de cómputo

play06:48

escalables es decir que si se requiere

play06:51

más poder rápidamente puedes escalar un

play06:53

data warehouse es un gran almacén de

play06:56

datos estamos hablando de cantidades

play06:57

extremas de información de petabytes de

play07:00

información un petabyte es 1000

play07:02

terabytes es decir un millón de

play07:04

gigabytes imagínate es tremendo tenemos

play07:07

también el machine learning

play07:09

qué es el aprendizaje automático

play07:11

significa que las computadoras sean

play07:13

capaces de aprender a través de patrones

play07:15

y poder detectar nuevos patrones y hacer

play07:18

predicciones es como tener un asistente

play07:21

que está todo el día revisando la

play07:23

información para encontrar datos

play07:25

importantes te pongo un ejemplo

play07:28

imagínate que le damos un millón de

play07:30

fotos de un perro o una computadora y le

play07:33

decimos oye computadora en este millón

play07:35

de fotos hay perros entonces la

play07:38

computadora empieza a aprender con esas

play07:40

fotos de perros y se supone que al final

play07:42

pues debes saber cómo identificar a un

play07:45

perro en nuevas fotos este millón de

play07:47

fotos es un número completamente

play07:48

aleatorio que me inventado ok pero luego

play07:51

de procesar estas fotos le damos una

play07:53

foto de un gato de un caballo o de un

play07:55

león de un perro o de algunos objetos a

play07:58

ver si la computadora y entendió y ya

play08:00

puede reconocer un perro ese es el

play08:02

principio de machine learning y se puede

play08:04

aplicar a muchísimas áreas no solamente

play08:05

al big data pero que es big data no lo

play08:08

hemos explicado de manera técnica hasta

play08:10

el momento

play08:11

big data es un gran volumen de

play08:14

información de diferentes fuentes no

play08:17

cuenta una sola fuente por más grande

play08:20

que sea esta fuente tiene que venir de

play08:22

diferentes fuentes con diferentes

play08:24

estructuras ya una velocidad tan rápida

play08:27

de cambio es decir de nuevos datos que

play08:29

van llegando como una gran avalancha de

play08:31

datos que no paran de llegar y al no

play08:33

parar de llegar y de moverse estos datos

play08:35

son casi imposibles de procesar y

play08:37

analizar con los sistemas de cómputo

play08:39

tradicionales es decir necesitamos

play08:40

muchísimo poder de cómputo es decir

play08:44

cloud computing el big data también se

play08:46

puede hacer on premise con herramientas

play08:49

como hadoop pero actualmente la

play08:50

tendencia sino salas nube porque nos da

play08:52

más poder a menor costo el big data debe

play08:55

cumplir con cinco veces o cinco v es

play08:58

para los amigos de españa'

play09:00

estas cinco veces son las siguientes

play09:01

gran cantidad de información difícil de

play09:03

procesar con los medios tradicionales

play09:05

variabilidad es decir que los datos sean

play09:08

diferentes si todos los datos son de una

play09:11

misma base de datos pues no tiene mucho

play09:13

reto eso simplemente se analiza con

play09:16

de base de datos tradicional pero cuando

play09:19

viene de diversas fuentes ya hablamos de

play09:22

big data pero no solo que vengan de

play09:24

diversas fuentes la velocidad es

play09:26

importante es decir con qué velocidad

play09:27

cambian estos datos nunca dejan de

play09:29

llegar nuevos datos por ejemplo tu

play09:31

teléfono está rastreando por donde te

play09:34

mueves siempre entonces siempre está

play09:36

generando nueva información aunque tú no

play09:38

la digit es también tenemos la veracidad

play09:40

significa saber qué datos son veraces y

play09:43

qué datos no ejemplos si tenemos una

play09:45

cuenta en redes sociales con un millón

play09:47

de seguidores pero comprados esos datos

play09:49

no nos valen absolutamente de nada para

play09:52

un análisis

play09:53

y también está el valor el valor es

play09:56

saber qué tan pertinente es esta

play09:58

información para los objetivos que tú

play10:01

estás buscando por ejemplo si yo he de

play10:03

tim y quiero mejorar las ventas usando a

play10:05

big data los datos de geolocalización de

play10:07

mi teléfono no influyen absolutamente en

play10:10

nada entonces no son datos de valor para

play10:13

este análisis seguramente te estarás

play10:15

preguntando si los datos vienen de

play10:17

muchísimos lugares como podemos

play10:18

analizarlos como si fueran una sola

play10:21

fuente para eso tenemos un proceso

play10:23

llamado tele

play10:25

la primera fase es la fase de extracción

play10:28

que es cuando nosotros capturamos los

play10:31

datos de todas esas fuentes y los

play10:32

centralizamos la segunda fase es la fase

play10:35

de transformación cuando nosotros

play10:38

estandarizamos los datos como han venido

play10:41

de diferentes lugares hay que darles un

play10:43

estándar algo llamado data clean y

play10:45

limpiar los datos para que parezcan de

play10:47

una sola fuente obviamente hay que

play10:49

escribir un modelo un algoritmo para

play10:52

limpiar esos datos aunque también el

play10:53

match in learning nos podría ayudar en

play10:55

esta etapa y luego el log el lotes la

play10:58

carga de la información es decir ya

play11:00

extrajimos los datos ya los limpiamos y

play11:03

ahora hay que cargarlos o guardarlos en

play11:06

un data warehouse para su posterior

play11:08

análisis

play11:09

hasta este momento estamos hablando de

play11:11

datos muchos datos limpiar los datos

play11:13

analizarlos pero para que has escuchado

play11:17

tal vez esta frase de que los datos son

play11:19

el nuevo petróleo que empresas como

play11:21

google o como facebook hacen millones

play11:23

con nuestros datos

play11:25

si todos lo sabemos pero te has

play11:27

preguntado algún día como como google o

play11:30

como facebook transforman estos datos en

play11:32

dinero está el dato acá y está el dinero

play11:35

acá de que me estoy perdiendo para

play11:37

convertir este dato en dinero bueno

play11:41

hablemos del ciclo de vida de los datos

play11:42

y eso te va a ayudar a entender cómo los

play11:44

datos se transforman en dinero en primer

play11:46

lugar necesitamos capturar estos datos

play11:49

repito los datos que vienen de

play11:51

diferentes fuentes hay que capturarlos

play11:52

sería la primera etapa de lete el es

play11:54

cierto la extracción en segundo lugar

play11:56

está el almacenamiento se supone que ya

play11:58

se hizo lt l ya capturamos ya

play12:02

transformamos y ya guardamos en un data

play12:04

warehouse ya tenemos los datos guardados

play12:06

ahora viene la fase del procesamiento y

play12:08

el análisis ya tenemos los datos como si

play12:10

fueran una sola fuente limpios y

play12:13

estandarizados

play12:14

ahora toca encontrar patrones estos

play12:17

patrones los podemos buscar de manera

play12:19

predeterminada es decir nosotros definir

play12:23

que estamos buscando y escribir los

play12:25

modelos los algoritmos para esas

play12:27

búsquedas o podemos apoyarnos en match

play12:29

in learning la diferencia es que machine

play12:31

learning puede encontrar patrones que

play12:34

nosotros ni siquiera imaginábamos que

play12:36

necesitábamos eso es muy chévere y la

play12:38

última parte es la exploración y

play12:40

visualización ya tenemos toda la

play12:42

información hay que mostrarla en un

play12:43

dashboard hay que mostrarlo en un

play12:45

tablero para que los tomadores

play12:47

gerentes de negocios gerentes generales

play12:49

de empresas y autoridades

play12:51

gubernamentales autoridades municipales

play12:54

puedan tomar decisiones con estos datos

play12:56

viendo la información ya procesada ya en

play13:00

tableros en gráficos muy fáciles de

play13:02

entender pero hasta ahora siguen siendo

play13:05

datos dónde está el dinero ok lo que

play13:08

pasa es que con estos datos tú puedes

play13:09

tomar decisiones estos datos te muestran

play13:13

comportamientos de los usuarios o te

play13:15

muestran tendencias o te predicen el

play13:17

futuro obviamente no pueden predecir el

play13:19

futuro de manera exacta pero las

play13:22

tendencias dicen algo en estadística no

play13:24

entonces podemos saber si las ventas van

play13:26

a subir van a bajar en qué temporada

play13:29

qué tipos de usuarios van a comprar en

play13:32

cierta región geográfica se acuerdan el

play13:34

escándalo de cambridge analytics como

play13:36

ellos pudieron manipular las elecciones

play13:38

simplemente sacando patrones de

play13:40

comportamiento de los usuarios de

play13:42

facebook terrible ahí es donde está el

play13:46

dinero y las ganancias ahora no

play13:48

solamente para las empresas también para

play13:50

la ciudadanía podríamos analizar datos

play13:53

abiertos el famoso open data y encontrar

play13:55

soluciones por ejemplo soluciones de

play13:58

tráfico o soluciones de seguridad

play14:00

supongamos que podamos analizar el

play14:02

índice de delincuencia en toda la ciudad

play14:04

cruzarlo con las cámaras de vigilancia

play14:06

con las denuncias en comisarías cruzar

play14:09

todos los datos y poder definir en las

play14:11

zonas seguras y las zonas no seguras

play14:13

incluso en horarios del día me imagino

play14:15

una aplicación se me ocurre no una

play14:18

aplicación que te pueda decir según la

play14:20

hora del día qué zona es segura y qué

play14:22

zona no es segura para transitar y eso

play14:25

se puede hacer con big data

play14:26

obviamente entonces para resumir el big

play14:28

data permite encontrar soluciones para

play14:30

los negocios o para la ciudadanía a

play14:33

través del análisis de grandes volúmenes

play14:35

de informes

play14:36

usando gran capacidad de cómputo

play14:38

principalmente con cloud computing y con

play14:41

machine learning

play14:43

si quieres saber más de big data y

play14:45

métele las manos en la masa' este tema y

play14:47

no simplemente una presentación hablando

play14:50

del panadero y de ejemplos por encima

play14:52

sino meterte a las tripas del big data

play14:54

entender cómo se analizan los datos y

play14:56

ver realmente cómo se trabaja te invitó

play14:58

este 18 de mayo en ciudad de méxico al

play15:01

edecán méxico 2019 donde manu rodríguez

play15:04

nuestro profesor en cloud computing y

play15:06

customer engineer en temas de cloud para

play15:08

google va a dictar el workshop big data

play15:11

on google es un workshop de tres horas

play15:13

completamente presencial lo vas a tener

play15:14

ahí al experto en cloud para preguntarle

play15:17

todo lo que quieras preguntarle y hacer

play15:19

que tu inscripción valga cada centavo si

play15:22

estás en méxico te invito a ir a méxico

play15:26

ahora mismo para adquirir tus entradas

play15:27

antes que se agoten y si no estás en

play15:30

mexico

play15:31

te invito a ir a e de puntín diagonal

play15:33

premium para actualizar tu cuenta y

play15:34

tener acceso a las grabaciones y

play15:37

materiales de este workshop nos vemos en

play15:39

mexico

Rate This

5.0 / 5 (0 votes)

Related Tags
Big DataMarketingTecnologíaEmpresasNegociosAnálisis de datosCloud computingMachine learningBases de datosTendencias
Do you need a summary in English?