Pasado, Presente y Futuro de la IA - ¡Del Deep Learning 1.0 a Google Gemini!

Dot CSV
17 Sept 202328:43

Summary

TLDREl video discute la evolución de la Inteligencia Artificial (IA), destacando la revolución del Machine Learning y el Deep Learning. Se menciona el paso del Deep Learning 1.0, caracterizado por modelos específicos para una sola tarea, al 2.0, donde modelos como GPT-3 pueden realizar múltiples tareas. Se anticipa el Deep Learning 3.0, con IA que aprende sin datos previos, explorando y descubriendo nuevas estrategias. Los avances en robótica impulsados por el aprendizaje por refuerzo y la ciencia acelerada por IA son parte del futuro prometedor de la tecnología.

Takeaways

  • 🚀 La inteligencia artificial (IA) ha alcanzado un potencial máximo en los últimos años, llegando a más usuarios y generando expectativas sobre su impacto disruptivo.
  • 🤖 El machine learning, una rama de la IA, ha sido investigada desde casi los inicios de la computación y ha detonado la revolución de la IA en los últimos años.
  • 📈 El deep learning, que utiliza redes neuronales artificiales, comenzó su auge en 2012 y ha evolucionado considerablemente desde entonces.
  • 🌱 El aprendizaje supervisado, en el que las redes neuronales se entrenan para resolver una tarea específica, presenta la limitación de depender de conjuntos de datos etiquetados.
  • 🔄 La tendencia de utilizar modelos pre-entrenados ha permitido a las redes neuronales adaptarse a múltiples tareas, lo que se conoce como aprendizaje 2.0.
  • 📚 Los modelos de lenguaje enormes, como GPT-3, pueden manejar múltiples funciones lingüísticas, desde analizar sentimientos hasta traducir texto.
  • 🎨 Los modelos generativos han evolucionado para no solo generar una sola cosa, sino todo, como en el caso de DALL-E y Stable Diffusion.
  • 🤖 El aprendizaje auto-supervisado permite a las máquinas aprender sin la necesidad de datos etiquetados por humanos, superando el cuello de botella de la etiquetación.
  • 🌐 Los datos sintéticos generados por modelos de IA son utilizados para entrenar modelos aún más potentes, iniciando un ciclo virtuoso de mejora continua.
  • 🧠 La multimodalidad en el deep learning permite a las IA aprender de diferentes fuentes de datos, como imágenes, audio y texto, para una comprensión más rica y cohesionada del mundo.
  • 🤖 El aprendizaje por refuerzo, especialmente impulsado por DeepMind, ha demostrado su efectividad en áreas como la robótica y la optimización de algoritmos, y podría ser la pieza clave en el deep learning 3.0.

Q & A

  • ¿Cuál es el tema central del video?

    -El tema central es el futuro de la Inteligencia Artificial, específicamente la evolución de la inteligencia artificial desde la Machine Learning hasta los avances en el aprendizaje por refuerzo y la robótica impulsada por IA.

  • ¿Qué evento marcó el inicio del boom de la inteligencia artificial en 2012?

    -El boom de la inteligencia artificial en 2012 se marcó por el uso efectivo de redes neuronales artificiales para el proceso de aprendizaje automático, conocido como Deep Learning.

  • ¿Cuál es la principal limitación del aprendizaje supervisado?

    -La principal limitación del aprendizaje supervisado es la dependencia de contar con un conjunto de datos etiquetados de forma adecuada, lo que a menudo se convierte en un cuello de botella debido a la limitación del etiquetador humano.

  • ¿Qué es el aprendizaje por refuerzo y cómo se diferencia del aprendizaje supervisado?

    -El aprendizaje por refuerzo es una técnica en la que la inteligencia artificial aprende explorando sus posibilidades y descubriendo nuevas estrategias a través del ensayo y error, sin necesidad de datos previamente etiquetados, lo que lo distingue del aprendizaje supervisado.

  • ¿Cómo podrían los modelos generativos, como GPT, influir en el futuro del entrenamiento de IA?

    -Los modelos generativos podrían influir en el entrenamiento de IA al generar datos sintéticos que podrían ser utilizados para entrenar a otros modelos más potentes, iniciando un ciclo virtuoso de mejora continua en la calidad de los datos de entrenamiento.

  • ¿Qué es la multitarea en el contexto del aprendizaje profundo?

    -La multitarea en el contexto del aprendizaje profundo se refiere a la capacidad de una red neuronal o modelo de inteligencia artificial para resolver múltiples tareas diferentes, en lugar de estar limitado a una tarea específica.

  • ¿Qué es la multimodalidad en el aprendizaje profundo y cómo ayuda a la IA?

    -La multimodalidad en el aprendizaje profundo es la capacidad de una red neuronal para nutrirse de múltiples fuentes de datos de distinta naturaleza, como imágenes, audios, vídeos y textos. Esto permite a la IA aprender una representación más cohesionada y completa del mundo real.

  • ¿Qué es Deep Learning 3.0 y cómo se diferencia de sus versiones anteriores?

    -Deep Learning 3.0 se refiere a la próxima etapa en el desarrollo de la inteligencia artificial, que podría involucrar el entrenamiento de IA con datos generados por máquinas o el uso de técnicas avanzadas como el aprendizaje por refuerzo y la robótica. Se diferencia de las versiones anteriores al enfocarse en la generación de conocimiento y soluciones innovadoras sin depender exclusivamente de datos etiquetados por humanos.

  • ¿Cómo podría la IA impulsar avances científicos en el futuro?

    -La IA podría impulsar avances científicos al utilizar modelos fundacionales capaces de desarrollar teorías matemáticas, definir nuevas teorías y construir sobre las teorías anteriores de forma autónoma, lo que podría llevar a la creación de nuevas ramas de las matemáticas y nuevos problemas.

  • ¿Qué papel desempeñan las empresas como Deep Mind y OpenAI en el desarrollo de la IA?

    -Deep Mind y OpenAI son líderes en el campo de la IA, impulsando avances en áreas como el aprendizaje por refuerzo, la robótica e impulso de la ciencia con Deep Learning. OpenAI ha sido particularmente destacada en el desarrollo de modelos fundacionales en el aprendizaje profundo, mientras que Deep Mind ha sido un pionero en el aprendizaje por refuerzo y la IA general.

  • ¿Qué es la 'Bestia Géminis' y cómo podría influir en el futuro de la IA?

    -La 'Bestia Géminis' es un proyecto de Google, liderado por Deep Mind, que se espera sea una combinación de tecnologías de aprendizaje por refuerzo y capacidades lingüísticas avanzadas. Su desarrollo podría marcar una transición hacia el Deep Learning 3.0 y ser una gran apuesta en la creación de modelos de IA más potentes y versátiles.

Outlines

00:00

😀 Introducción al futuro de la Inteligencia Artificial

El primer párrafo aborda el tema del futuro de la Inteligencia Artificial (IA), destacando la importancia de la revolución en Machine Learning y Deep Learning. Se menciona el crecimiento exponencial de la IA y su potencial disruptivo, a pesar de las preocupaciones sobre una posible burbuja. Se destaca el aprendizaje supervisado y cómo se ha venido practicando desde los orígenes de la computación. Además, se introduce el concepto de 'learning 1.0', donde las redes neuronales eran utilizadas para resolver una única tarea específica, y se menciona el cambio hacia modelos pre-entrenados que permiten adaptarse a múltiples tareas.

05:00

🤖 Deep Learning 2.0 y el avance hacia la multitarea

Este párrafo explora el Deep Learning 2.0, enfocándose en el procesamiento del lenguaje natural y la capacidad de los modelos de lenguaje para manejar múltiples tareas, como analizar sentimientos, resumir texto e incluso traducir idiomas, todo mediante un único modelo. Se discute la generación de imágenes y cómo los modelos han evolucionado para ser capaces de generar una variedad de contenidos. El aprendizaje auto-supervisado se presenta como el nuevo paradigma, permitiendo a las máquinas aprender sin la necesidad de datos etiquetados por humanos, lo que abre la puerta a modelos más potentes y versátiles.

10:01

🧠 Aprendizaje por refuerzo y la era de la IA general

El tercer párrafo se centra en el aprendizaje por refuerzo como una forma pura de adquisición de conocimiento en Deep Learning, donde la IA aprende explorando y descubriendo estrategias sin datos previos. Se destaca el éxito de AlfaZero en juegos de mesa y otros avances en optimización y descubrimiento de algoritmos. Aunque el aprendizaje por refuerzo requiere una gran cantidad de datos y puede ser costoso, se destaca su potencial para llevar a la IA al mundo físico a través de la robótica, y cómo se está utilizando actualmente en simulaciones para luego transferir conocimientos al mundo real.

15:02

🚀 La transición hacia el Deep Learning 3.0

Este párrafo aborda la transición hacia el Deep Learning 3.0, donde se espera ver un uso sistemático de la IA para acelerar los avances científicos. Se mencionan proyectos aislados como Alfa Tensor, Alpha Def y Alpha Fold que han logrado hallar soluciones innovadoras en áreas específicas. Se alude a la posibilidad de un modelo fundacional que desarrolle ciencia de forma autónoma, y se destaca el papel de Deep Mind como líder en el campo del aprendizaje por refuerzo y la promoción de la ciencia con Deep Learning.

20:05

🌟 La competencia entre OpenAI y Google DeepMind

El quinto párrafo explora la competencia entre OpenAI, con su modelo GP4, y Google DeepMind, con su modelo Bart y el potencial de su nueva creación, la 'Bestia Géminis'. Se discute cómo la salida de Chat GP4 puso a Google en una posición de reacción y cómo Google ha estado reestructurando sus laboratorios para enfrentarse a esta competencia. Se sugiere que la Bestia Géminis podría ser una transición hacia el Deep Learning 3.0, combinando fortalezas de sistemas tipo Alfa Go con capacidades lingüísticas de modelos de lenguaje grandes.

25:57

📈 Anuncios y futuro del canal

El sexto y último párrafo es un anuncio sobre el inicio de una nueva temporada del canal, con la intención de explorar temas como el aprendizaje reforzado, modelos fundacionales, multimodalidad, y la competencia entre Microsoft y Google DeepMind. Además, se presenta una nueva propuesta: el lanzamiento de un nuevo canal secundario para cubrir la actualidad y nuevas herramientas de IA con mayor frecuencia y en un formato menos producido. Se anima a los espectadores a suscribirse y seguir el contenido para no perderse ninguna actualización.

Mindmap

Keywords

💡Inteligencia Artificial

La inteligencia artificial (IA) es la capacidad de una máquina para replicar funciones que normalmente requieren inteligencia humana, como la percepción, el aprendizaje, la toma de decisiones y la resolución de problemas. En el video, se discute cómo la IA ha ofrecido su mayor potencial en los últimos años, llegando a más usuarios y generando expectativas sobre su impacto disruptivo en la sociedad.

💡Machine Learning

Machine Learning es una rama de la IA que se centra en el desarrollo de algoritmos que permiten a las máquinas aprender y mejorar a través de la experiencia sin ser programadas explícitamente. En el video, se destaca cómo la revolución en Machine Learning ha sido un factor clave en el avance de la IA, permitiendo a las máquinas aprender tareas específicas a través de datos etiquetados.

💡Deep Learning

Deep Learning es una subdisciplina de Machine Learning que utiliza redes neuronales artificiales para modelar y resolver problemas de aprendizaje complejos. En el video, se menciona cómo el Deep Learning ha evolucionado en la última década, pasando de resolver una única tarea a ser capaces de realizar múltiples tareas, lo que se conoce como Deep Learning 2.0.

💡Redes Neuronales

Las redes neuronales son una estructura de computación inspirada en el cerebro humano que se utiliza en Deep Learning para procesar y analizar grandes cantidades de datos. En el video, se describe cómo se entrenan estas redes para resolver problemas específicos, como la clasificación de imágenes de hojas sanas o dañadas.

💡Aprendizaje Supervisado

El aprendizaje supervisado es un tipo de Machine Learning donde el modelo aprende a partir de un conjunto de datos etiquetados para luego generalizar y aplicar ese conocimiento a nuevos datos. En el video, se discute cómo este método requiere de datos etiquetados por expertos y cómo ha sido una limitación en el avance de la IA.

💡Aprendizaje Auto Supervisado

El aprendizaje auto supervisado es un enfoque en el que el modelo de IA genera sus propias tareas de aprendizaje a partir de datos no etiquetados, aprendiendo a partir de patrones en los datos sin la necesidad de etiquetas humanas. En el video, se sugiere que este método podría superar las limitaciones del aprendizaje supervisado y llevar a la IA a un nuevo nivel.

💡Modelos Pre-entrenados

Los modelos pre-entrenados son modelos de IA que se han entrenado previamente en una tarea específica y luego se adaptan (fine-tuned) para otras tareas relacionadas. En el video, se explica cómo esta técnica ha permitido a las redes neuronales adaptarse a múltiples tareas, en lugar de solo una, lo que ha sido un punto de inflexión en el desarrollo de la IA.

💡Multitarea

En el contexto de IA, la multitarea se refiere a la capacidad de un modelo de IA para ejecutar múltiples tareas a la vez. En el video, se menciona cómo los modelos de lenguaje enormes, como GP3, pueden manejar diferentes tareas como analizar el sentimiento de un texto, hacer resúmenes y traducir idiomas, gracias a la multitarea.

💡Generative AI

La IA generativa es una rama de la IA que se enfoca en la creación de contenidos nuevos y originales, como texto, imágenes, audio y código de programación. En el video, se discute cómo los modelos generativos han logrado crear contenidos realistas y cómo estos contenidos podrían usarse para entrenar modelos de IA aún más potentes.

💡Robótica

La robótica es la rama de la ingeniería que se dedica al diseño, construcción, programación y operación de robots. En el video, se sugiere que la robótica impulsada por el aprendizaje por refuerzo será una de las grandes protagonistas en el futuro de la IA, permitiendo a los robots aprender habilidades en el mundo físico a partir de simulaciones.

💡Aprendizaje por Refuerzo

El aprendizaje por refuerzo es un método de Machine Learning en el que un agente aprende a tomar decisiones al maximizar una función de recompensa. En el video, se destaca cómo este método ha permitido a la IA descubrir soluciones innovadoras y conocimiento original en diversos campos, desde juegos de mesa hasta la optimización de algoritmos.

Highlights

La discusión sobre el futuro de la Inteligencia Artificial (IA) y cómo ha crecido su potencial en los últimos años.

La revolución del Machine Learning y su impacto en el aprendizaje automático a través de redes neuronales.

El inicio del boom del Deep Learning en 2012 y su evolución hasta la práctica actual.

La descripción del proceso de entrenamiento de una red neuronal para una tarea específica, como la clasificación de imágenes de hojas sanas o dañadas.

El concepto de 'Learning 1.0' y cómo las redes neuronales eran utilizadas para resolver una única tarea específica.

La introducción de modelos pre-entrenados y cómo esto ha llevado a la era de las redes neuronales multitarea.

El surgimiento de la multitarea en Deep Learning 2.0 y su expansión a áreas más allá de la visión por computadora.

El uso de modelos de lenguaje enormes como gp3 para tareas variadas, como analizar sentimientos, resúmenes y traducciones.

La generación de imágenes con modelos como Meet, Journey y stable diffusion, capaces de generar una amplia variedad de contenidos.

El aprendizaje auto-supervisado y cómo permite a las máquinas aprender sin la necesidad de datos etiquetados por humanos.

La idea de utilizar datos generados por IA para entrenar modelos aún más potentes, iniciando un ciclo virtuoso.

La importancia de la multimodalidad en la IA y cómo permite a las máquinas una comprensión más cohesionada y completa del mundo real.

La transición hacia el Deep Learning 3.0 y la utilización del aprendizaje por refuerzo para el desarrollo de IA.

El potencial del aprendizaje por refuerzo en la robótica y su capacidad para que los robots aprendan habilidades en el mundo real.

La combinación de modelos fundacionales multimodales y el aprendizaje por refuerzo como el futuro prometedor de la IA.

La misión de Deep Mind y OpenAI en la promoción de la IA y su papel en la era del Deep Learning 3.0.

La expectativa de la próxima temporada del canal, que incluirá temas como aprendizaje reforzado, modelos fundacionales, multimodalidad, y la competencia entre Microsoft y Google Deep Mind.

El lanzamiento de un nuevo canal de YouTube para cubrir la actualidad y novedades en IA de manera más frecuente y interactiva.

Transcripts

play00:00

es hora de hablar del futuro del futuro

play00:02

Hablemos del futuro de la Inteligencia

play00:04

artificial

play00:06

[Música]

play00:10

estamos viviendo momentos extraños al

play00:13

mismo tiempo que los dos últimos años

play00:15

hemos vivido el periodo en el que la

play00:17

Inteligencia artificial ha ofrecido su

play00:19

mayor potencial llegando a más y más

play00:21

usuarios que nunca y donde más promesas

play00:23

en el aire hay sobre los disruptiva que

play00:25

podría llegar a ser esta tecnología

play00:30

al mismo tiempo convivimos con titulares

play00:33

y hablan de que la burbuja de la

play00:35

Inteligencia artificial Pues podría

play00:37

estar a punto de explotar

play00:41

pero en realidad como ya sabéis cuando

play00:42

hablamos de Inteligencia artificial

play00:45

realmente de lo que tenemos que hablar

play00:46

es de Machine learning la revolución

play00:48

donde las máquinas aprenden a ser cosas

play00:51

una rama del campo de la Inteligencia

play00:53

artificial que tampoco es nueva y que se

play00:56

viene investigando desde Casi casi los

play00:57

comienzos de la computación

play01:10

No si algo ha detonado la revolución de

play01:13

la Inteligencia artificial en los

play01:14

últimos años es la revolución del

play01:16

Machine learning y más concretamente del

play01:18

Deep learne el uso efectivo de redes

play01:21

neuronales artificiales para el proceso

play01:23

de aprendizaje automático y como ya

play01:25

hemos comentado muchas veces en este

play01:27

canal fue en 2012 Cuando dio comienzo el

play01:30

Boom y el resto ha sido historia

play01:34

[Música]

play01:38

ahora el Deep learning de hace 10 años

play01:41

pues no se parece tanto al Deep learning

play01:43

que se practica ahora en la última

play01:45

década la forma de practicar Deep

play01:47

learning pues era más o menos así Ella

play01:49

Tengo un problema que quiero resolver

play01:50

pues Quiero conocer si en una fotografía

play01:53

aparece una hoja sana o una hoja dañada

play01:56

un problema de clasificación muy

play01:58

específico para el que podíamos entrenar

play02:00

a una red neuronal a resolver dicha

play02:03

tarea y para hacerlo necesitábamos datos

play02:05

etiquetados un conjunto de imágenes

play02:07

donde algún experto en hojas se hubiera

play02:10

sentado a decir pues mira esta hoja de

play02:12

aquí está sana y esta no Y esta no y

play02:15

está así y bueno con todos estos datos

play02:18

se entrenaba mediante aprendizaje

play02:20

supervisado a la red neuronal desde cero

play02:22

para que resolviera dicha tarea y si el

play02:26

entrenamiento iba bien pues la red

play02:27

neuronal aprendería a generalizar su

play02:29

tarea incluso para imágenes de hojas que

play02:31

no hubiera visto previamente funcionaba

play02:33

era práctico y es un ejemplo perfecto de

play02:36

lo que a partir de ahora voy a pasar a

play02:37

denominar

play02:38

learning 1.0 aquí las redes neuronales

play02:41

se utilizaban para resolver una única

play02:44

tarea específica podría por ejemplo

play02:46

usarse esta red para clasificar flores

play02:48

sanas y flores enfermas pues no no era

play02:51

su tarea solo la habíamos entrenado para

play02:53

clasificar imágenes de hojas y por tanto

play02:56

solo podría ser única y exclusivamente

play02:58

dicha tarea si querías que clasificar a

play03:00

flores pues tenías que de nuevo sentarte

play03:03

y etiquetar un gran Data set de flores y

play03:05

entrenar la red para ello y aquí podéis

play03:07

daros cuenta de una de las grandes

play03:09

limitaciones del aprendizaje supervisado

play03:11

y es que somos dependientes de contar

play03:13

con un Data set que esté perfectamente

play03:15

etiquetado y en muchos casos etiquetar

play03:18

correctamente un Data set pues tiene

play03:20

como cuello de botella al propio

play03:21

etiquetador humano el cuello de botella

play03:24

para la Inteligencia artificial éramos

play03:27

nosotros y de ahí surgieron tendencias

play03:29

como la de deslocalizar a países como

play03:31

China o India granjas de etiquetación de

play03:34

datos todo esto ocurriendo en paralelo

play03:36

al mismo tiempo que los investigadores

play03:37

de Deep le ya estaban buscando una

play03:39

solución a este problema la idea de

play03:42

utilizar modelos pre entrenados es decir

play03:45

si tú tienes dos tareas de clasificación

play03:47

pues clasificar hojas y clasificar

play03:49

flores Por qué empezar el entrenamiento

play03:51

desde cero al final son tareas que

play03:53

tienen pues ciertas similitud lo que se

play03:55

propuso es que antes de hacer tu

play03:58

entrenamiento pues ya podíamos hacer un

play03:59

pre entrenamiento en el que a una

play04:02

red neuronal de clasificación de

play04:03

imágenes que aprender a clasificar un

play04:05

montón de imágenes de todo tipo flores

play04:08

hojas perros gatos aviones camiones de

play04:11

todo En definitiva una red neuronal que

play04:13

aprendiera a ver y luego tomando esa red

play04:16

neuronal como base pues hacer un pequeño

play04:18

entrenamiento final con menos datos para

play04:20

ajustarlo al problema que queríamos

play04:22

resolver clasificar hojas o clasificar

play04:25

flores y Esto fue un salto brutal y un

play04:28

punto de inflexión porque estamos

play04:30

pasando de redes neuronales que solo

play04:31

cumplían pues una única tarea a redes

play04:34

neuronales que ahora Se podrían adaptar

play04:36

a múltiples tareas redes

play04:38

multitarea un fenómeno que nos llevó un

play04:41

poquito más hacia el futuro hacia lo que

play04:43

para mí se consideraría el Deep learning

play04:46

2.0 la etapa actual que estamos viviendo

play04:49

nos situamos ahora entre 2018 y 2020

play04:52

periodo en el que esta idea de pre

play04:54

entrenar a modelos de Inteligencia

play04:55

artificial para cumplir múltiples tareas

play04:57

pues empezó a conquistar otras áreas de

play05:00

estudio Más allá de la visión por

play05:01

computador áreas Como por ejemplo el

play05:03

procesamiento del lenguaje natural un

play05:05

área de estudio dedicada a que la

play05:07

máquina pudiera entender nuestro

play05:09

lenguaje y bueno también pudiera

play05:10

generarlo algo que ya sabéis por qué

play05:13

camino nos ha llevado

play05:16

y aquí la multitarea entró fuerte a lo

play05:18

mejor antes tú entrenabas a una red

play05:20

neuronal para analizar el sentimiento de

play05:22

un texto otra red para que aprendiera a

play05:24

hacer un resumen y otra red para

play05:26

traducir una frase de español al inglés

play05:28

Pero ahora con la llegada de los enormes

play05:30

modelos del lenguaje un mismo modelo

play05:32

Como gp3 podía encargarse de todo

play05:36

creedme la multitaría está en el ADN del

play05:39

Deep learning 2.0 y si no fijaos otro

play05:42

ejemplo generación de imágenes si

play05:44

recordáis en 2017 era habitual ver

play05:47

modelos generativos entrenados

play05:48

específicamente para generar caras o

play05:51

para generar pájaros o para generar

play05:53

flores cada modelo estaba

play05:55

específicamente entrenado para generar

play05:57

una cosa y ahora en 2023 la norma es

play06:01

encontrarnos con modelos como Meet

play06:03

Journey stable difusión capaces de

play06:05

generarlo todo

play06:09

qué ha pasado aquí qué tecla hemos

play06:11

tocado de repente que nos ha hecho pasar

play06:13

en muy poquitos años de inteligencias

play06:15

artificiales tan específicas a

play06:17

inteligencias artificiales multitarea

play06:19

polacos está en que si antes os

play06:21

comentaba que el protagonista en el Deep

play06:23

learning 1.0 era el aprendizaje

play06:25

supervisado ahora en este periodo que

play06:28

estamos viviendo en el Deep learning 2.0

play06:30

el protagonista El rey de Kim es el

play06:33

aprendizaje auto supervisado por qué

play06:36

bueno pues porque en el aprendizaje auto

play06:39

supervisado La idea es que en vez de

play06:40

tener a humanos etiquetando datos para

play06:42

cada tarea aquí lo que se plantea es que

play06:44

sea el propio ordenador El que pueda

play06:46

generarse automáticamente la tarea de la

play06:49

que poder aprender cómo Pues mira en

play06:53

internet hay texto mucho texto

play06:57

y con ese texto el computador puede

play06:59

jugar a enmascarar una o varias palabras

play07:01

e intentar aprender a predecir qué hay

play07:04

ahí o de forma similar podemos entrenar

play07:06

con imágenes podemos todas las

play07:08

imágenes de internet enmascararlas de

play07:10

alguna forma o corromperlas con ruido y

play07:13

dejar que la guía aprenda a deshacer el

play07:15

destrozo para así poco a poco aprender

play07:18

la naturaleza y los patrones que

play07:19

conforman a una imagen Esta es la clave

play07:23

que la máquina pueda etiquetarse

play07:25

automáticamente sus propios datos

play07:26

aprendizaje auto supervisado es lo que

play07:30

ha permitido pues superar el cuello de

play07:31

botella del que hablábamos antes ya no

play07:34

necesitas etiquetadores humanos con lo

play07:36

cual podemos Pues todos los datos

play07:37

de internet y entrenar e inteligencias

play07:39

artificiales mucho más potentes y más

play07:42

generales capaces de cumplir un mayor

play07:45

Rango de tareas un concepto que a día de

play07:47

hoy se ha dado a conocer como modelos

play07:49

fundacionales

play07:51

todo esto que estamos comentando

play07:53

funciona y son Bueno pues las claves que

play07:55

están detrás de grandes modelos que

play07:57

utilizamos hoy en día como chat gpt o

play07:59

stable difusión los modelos

play08:01

fundacionales y el aprendizaje auto

play08:03

supervisado están a la orden del día y

play08:05

son los principales responsables de la

play08:07

revolución del Deep learning 2.0 que

play08:09

estamos viviendo actualmente pero en

play08:11

este vídeo no Veníamos a hablar del

play08:12

pasado ni del presente sino del futuro

play08:15

vamos a ello

play08:20

si os dais cuenta uno de los factores

play08:22

clave en el repaso histórico que hemos

play08:24

hecho han sido los datos ya sean

play08:26

etiquetados por humanos o etiquetados

play08:28

por la propia máquina Pero y si

play08:31

pudiéramos ir más allá y si pudiéramos

play08:33

entrenar una Inteligencia artificial con

play08:35

datos que no sean reales datos generados

play08:39

si lo pensáis el principal éxito del

play08:42

Deep learning 2.0 es lo que se ha

play08:44

bautizado como oía generativa lo hemos

play08:47

dicho Ahora Contamos con modelos que

play08:49

generan texto código de programación

play08:51

imágenes y audio realista qué pasaría

play08:54

Entonces si usáramos lo que estos

play08:56

modelos generan para entrenar a otros

play08:58

modelos más potentes pues parecería raro

play09:02

no que pudiéramos entrenar a una

play09:04

Inteligencia artificial con lo que otra

play09:06

Inteligencia artificial está generando

play09:08

tal y como escuché esta semana sería

play09:10

como bueno la ia comiéndose su propia

play09:12

caca aquí la intuición nos dice que como

play09:14

mucho podríamos conseguir un modelo que

play09:16

igual en rendimiento al modelo original

play09:18

pero no Que lo supere No pues depende ya

play09:22

que fijaos que cuando nosotros

play09:23

utilizamos a guías generativas como Meet

play09:26

Journey nosotros seleccionamos de las

play09:28

cuatro opciones que nos ofrece la ia

play09:29

aquella que más nos gusta o por ejemplo

play09:32

en chat gpt si la conversación no nos

play09:34

interesa la abandonamos es decir

play09:37

nosotros que hemos encontrado valor en

play09:40

estas herramientas nos hemos convertido

play09:41

de facto en etiquetadores que vamos

play09:44

seleccionando Pues de todo lo que la

play09:46

guía genera aquello que está mejor y

play09:48

descartando aquello que está peor

play09:50

estamos ayudando a filtrar los datos con

play09:53

lo cual entre más utilizamos estos

play09:55

modelos más datos filtraremos datos

play09:57

nuevos generados y filtrados que ahora

play10:00

se podrán utilizar como un nuevo dataset

play10:02

de mayor calidad para entrenar a un

play10:04

modelo incluso más potente que aportará

play10:07

más valor a los usuarios con lo cual

play10:09

atraerá a más gente que filtrará más

play10:11

datos que generarán es un ciclo virtuoso

play10:13

que ha empezado a rodar con mucha más

play10:16

fuerza y mucha más velocidad desde 2023

play10:18

cuando la mayor parte de la sociedad

play10:19

pues ha empezado a interesar en todas

play10:21

estas herramientas cada vez tenemos más

play10:24

datos sintéticos que nosotros hemos

play10:26

ayudado a financiar porque hemos pagado

play10:28

por generarlos y a filtrarlos y que

play10:31

servirán para entrenar a modelos

play10:33

generativos cada vez más potentes

play10:40

una cuestión discutida en filosofía nos

play10:43

habla de cómo por mucho que tú puedes

play10:45

estudiar de una manzana toda su teoría

play10:47

pues su composición su biología la

play10:50

química de los enlaces de las moléculas

play10:51

todo no será hasta que la veas la

play10:54

abuelas la Sabores que tendrás un

play10:57

conocimiento más completo y experiencial

play11:00

de ella y esto amigos es algo que ocurre

play11:02

hasta con las inteligencias artificiales

play11:04

más inteligentes que entrenamos a día de

play11:07

hoy Jack gpt por ejemplo todo su

play11:09

conocimiento interno de lo que es una

play11:11

manzana lo sabe porque lo ha leído

play11:12

durante su entrenamiento Y sí ha leído

play11:15

muchísimo sabe que es roja dulce redonda

play11:18

puede tener una idea de cómo es pero

play11:20

nunca la ha visto experimentado de una

play11:22

forma que no sea a través de la

play11:24

proyección de texto que nosotros le

play11:26

hemos dado y aquí la multimodalidad

play11:28

resuelve este problema Esta es una

play11:30

tendencia que también podemos englobar

play11:31

en lo que estoy denominando Deep

play11:33

learning 2.0 y que no tenemos que

play11:35

confundir con el concepto de multitarea

play11:37

que hemos visto antes la multitarea como

play11:40

hemos visto es que una guía puede

play11:41

resolver múltiples tareas lo dice su

play11:44

nombre y la multimodalidad lo que nos

play11:46

habla es de una guía que puede nutrirse

play11:47

de múltiples fuentes de datos de

play11:50

distinta naturaleza imágenes audios

play11:52

vídeos textos señales de sensores todo

play11:55

al mismo tiempo hacer esto le permiten

play11:57

no solo Leer sobre Qué es una manzana

play12:00

sino también ver visualmente como es

play12:02

inferir su dureza Al escuchar un

play12:05

mordisco u olerla entre comillas y

play12:07

Contamos con los sensores químicos

play12:09

adecuados es decir aprender una

play12:12

representación mucho más cohesionada y

play12:14

completa del mundo real lo que nos

play12:18

faltaría por ver en los próximos años

play12:19

Pues sería esta idea de modelo

play12:21

fundacional multimodal un futuro gpt 5

play12:24

que no solo se entrene con todo el texto

play12:26

de internet sino que también se puedan

play12:28

nutrir de imágenes vídeos audios de

play12:31

todas las fuentes de conocimiento que

play12:32

tenemos y que demuestran pues la rica

play12:35

naturaleza de nuestro

play12:37

Pues tienes que saber que Esto de usar

play12:39

datos sintéticos para entrenar a modelo

play12:41

fundacionales mayores o la

play12:43

multimodalidad para darle una visión más

play12:45

cohesiva del mundo real es solo mi

play12:48

apuesta a corto plazo es decir sería mi

play12:50

apuesta para la etapa actual que estamos

play12:52

viviendo la del Deep learning 2.0 Pero y

play12:55

si te dijera que otra ramificación se

play12:57

abre hacia un futuro más interesante y

play13:00

prometedor hablemos del Deep learning

play13:02

3.0 hasta ahora hemos hablado de

play13:05

inteligencias artificiales entrenadas

play13:06

con datos etiquetados por humanos con

play13:09

datos etiquetados por máquinas o con

play13:11

datos generados por máquinas Pero y si

play13:14

entrenáramos a inteligencias

play13:15

artificiales sin datos en el mundo del

play13:19

Machine learning desde los comienzos

play13:20

existe otra rama que está ahí latente

play13:24

cumpliendo grandes objetivos poco a poco

play13:26

pero sin tener un protagonismo real en

play13:28

las herramientas que usamos en nuestro

play13:30

día a día por supuesto estoy hablando

play13:32

del aprendizaje por refuerzo por

play13:34

reinforce

play13:35

el reinfor learning es quizás la forma

play13:38

más pura de adquisición de conocimiento

play13:40

en el Deep learning Y es que aquí la

play13:42

Inteligencia artificial no aprende de

play13:44

observar datos pre etiquetados para un

play13:46

problema que podrían sesgarla en su

play13:49

aprendizaje No en este esquema de

play13:51

aprendizaje la ia prende desde cero

play13:53

explorando sus posibilidades y

play13:55

descubriendo nuevas estrategias ya sea

play13:57

en un simulador o en el mundo real

play13:59

probando y aprendiendo de sus errores y

play14:02

de sus logros uno de los éxitos más

play14:04

famosos de este esquema de aprendizaje

play14:05

que seguramente recordaréis es el de

play14:08

Alfa Zero donde la hija fue capaz de

play14:10

aprender desde cero sin observar ninguna

play14:12

partida humana real a jugar a juegos de

play14:15

mesa como el Go el ajedrez y el Yogui

play14:17

pasando de jugar de forma aleatoria a

play14:20

dominar estos juegos hasta poder vencer

play14:22

a campeones del mundo Guau también hemos

play14:25

hablado en otras ocasiones de otros

play14:27

éxitos del aprendizaje por refuerzos

play14:29

principalmente impulsados por Deep Mind

play14:31

donde él haya sido capaz de encontrar

play14:33

formas más óptimas de codificar vídeos

play14:35

de YouTube para consumir menos ancho de

play14:38

banda o de controlar los imanes que dan

play14:40

forma al plasma en el interior de los

play14:41

reactores de fusión o por ejemplo

play14:43

también encontrar nuevos algoritmos

play14:45

matemáticos para la multiplicación de

play14:48

matrices es decir si en el Deep learning

play14:51

2.0 la estrategia que teníamos en la de

play14:53

entrenar a estos enormes modelos

play14:55

fundacionales como gp4 con un montón de

play14:57

datos de internet para poder generar

play14:59

conocimiento a partir de que estos

play15:01

combinan estos datos de forma novedosa

play15:03

en el aprendizaje por refuerzo la cosa

play15:06

es diferente porque aquí la ia se

play15:09

embarcará en un proceso de exploración a

play15:10

menudo sin datos previos para buscar

play15:13

soluciones en un amplio espacio de

play15:15

posibilidades lo que a veces puede

play15:17

llevarle a descubrimientos fuera de los

play15:20

paradigmas actuales alcanzando nuevo

play15:23

conocimiento y visto Así el

play15:25

reinforcement learning parece una muy

play15:27

buena idea Pero no es tan sencillo para

play15:30

funcionar bien el reinforcement learning

play15:31

necesita Bueno pues lo que necesita la

play15:33

ia un montón de datos un montón de

play15:36

iteraciones donde ya sean simulación o

play15:38

en el mundo real por ensayo y error la

play15:40

Inteligencia artificial pues pueda ir

play15:42

aprendiendo poco a poco su tarea hacer

play15:45

esto en el mundo real pues es muy

play15:46

costoso porque el tiempo va a un segundo

play15:49

por segundo y además las cosas suelen

play15:51

romperse y es por eso que vemos que

play15:53

muchos de los casos de éxito de hoy en

play15:55

día ocurren dentro de simulaciones Y es

play15:58

que cada vez son más los ejemplos de

play16:00

robótica que consiguen aprender sus

play16:01

objetivos en simulación con aprendizaje

play16:03

por refuerzo y luego los transfieren

play16:06

exitosamente al mundo real para cumplir

play16:08

su objetivo en el mundo físico que es

play16:10

donde nos interesa hemos visto robots

play16:13

que han aprendido a levantarse aunque le

play16:15

tiren una y otra vez para poder jugar

play16:16

una liguilla de fútbol tal y como os

play16:19

enseñé en este vídeo que tenéis en el

play16:20

canal recientemente también hemos visto

play16:22

drones capaces de volar en pista con un

play16:24

vuelo casi perfecto ganando contra

play16:27

campeones del mundo ojito a esto y

play16:30

estamos empezando a ver ejemplos de

play16:32

robots que en el mundo real no en

play16:34

simulación están logrando aprender

play16:37

habilidades ya no en días de

play16:38

entrenamiento que era lo habitual sino

play16:40

en cuestión de horas y para ejemplo

play16:42

tenéis el de este perrete robótico que

play16:45

tal y como estáis viendo ha aprendido a

play16:47

andar desde cero en cuestión de una hora

play16:50

consiguiendo aprender a coordinar todos

play16:53

sus controladores para alzarse en pie y

play16:55

andar

play17:01

[Música]

play17:03

para mí la robótica impulsada por el

play17:06

aprendizaje por refuerzo va a ser la

play17:08

gran protagonista del Deep learning 3.0

play17:11

Pero eso no quita que la robótica

play17:12

actualmente se esté beneficiando de los

play17:15

grandes éxitos que estamos viviendo en

play17:16

la etapa actual en la del Deep learning

play17:19

2.0 Y es que ya sabéis que los enormes

play17:21

modelos del lenguaje como gpt 4 One 2

play17:24

poseen un gran conocimiento del mundo

play17:26

que les permite planificar acciones con

play17:29

mucho sentido común para resolver una

play17:31

tarea a pesar de sólo haber interactuado

play17:33

por ahora con el mundo a través del

play17:36

texto pues lo que se está comprobando es

play17:38

que utilizará estos enormes modelos de

play17:40

lenguaje a modo de cerebro artificial

play17:41

para estos robots funciona y este

play17:44

estudio de robótica de Google Deep Mind

play17:46

titulado así lo demuestra imaginad un

play17:49

robot donde su movilidad no depende de

play17:51

que nosotros tengamos que programar su

play17:53

control con instrucciones complejas sino

play17:56

que directamente podamos utilizar

play17:57

instrucciones con lenguaje natural poder

play18:00

decirle al robot avanza un poco o camina

play18:03

espacio y que el modelo del lenguaje

play18:05

pues traduzca estas palabras en acciones

play18:07

concretas que el robot ejecutará

play18:10

funcionando como un puente entre

play18:11

nuestras palabras y los movimientos del

play18:14

robot esto aumenta enormemente la

play18:16

versatilidad a la hora de comunicarnos

play18:18

con el robot porque por ejemplo ahora le

play18:20

podríamos decir Oye actúa como si

play18:22

cojearas de la pierna izquierda y el

play18:24

robot sabrá coordinar sus controladores

play18:26

para caminar de esta forma o camina como

play18:29

si el suelo estuviera muy caliente y que

play18:31

el robot lo entienda y haga esto cosas

play18:34

como esta están empezando a funcionar o

play18:37

también tenemos otros proyectos como rt2

play18:40

también de deepmind otro caso de

play18:42

robótica que de nuevo se nutre del

play18:44

conocimiento de un enorme modelo de

play18:45

lenguaje Sí pero también de un modelo de

play18:49

visión aquí estaría apareciendo la

play18:51

multimodalidad que mencionábamos antes

play18:52

así que tendríamos un modelo de lenguaje

play18:55

para planificar un modelo de visión para

play18:57

poder observar y con esto se generarían

play19:00

instrucciones de control para un robot

play19:02

que ahora será capaz de cumplir un mayor

play19:04

Rango de instrucciones usando también

play19:06

sus ojos

play19:10

[Música]

play19:14

Así que la robótica ya sea por los

play19:16

modelos fundacionales multimodales o por

play19:18

el aprendizaje por refuerzo Pues podría

play19:21

estar entrando en su época dorada El

play19:23

Salto de la Inteligencia artificial del

play19:26

mundo digital al mundo físico real pero

play19:29

los avances del aprendizaje reforzado No

play19:31

solo están destinados al mundo de la

play19:33

robótica como hemos visto antes su valor

play19:36

se encuentra a la hora de generar

play19:37

también soluciones novedosas y

play19:39

conocimiento original ante el reto que

play19:42

le propongamos Y esto es algo que podría

play19:44

tener un impacto directo sobre la

play19:47

ciencia imaginad por un momento una

play19:48

Inteligencia artificial dedicada a 24/7

play19:51

cuya única tarea sea desarrollar teorías

play19:54

matemáticas definir nuevas teorías

play19:56

probarlas construir sobre las teorías

play19:59

anteriores desarrollar nuevas ramas de

play20:01

las Matemáticas nuevos problemas sé que

play20:04

todo esto suena a ciencia ficción y por

play20:07

ahora lo es Ya que actualmente lo que

play20:09

tenemos son ejemplos muy aislados como

play20:11

el de Alfa tensor que ha encontrado

play20:13

nuevos algoritmos para multiplicar

play20:15

matrices o alphadef que ha sido capaz de

play20:18

optimizar algoritmos de ordenación o

play20:20

Alfa fold diseñada para descubrir los

play20:23

secretos que la naturaleza esconde tras

play20:25

la estructura de las proteínas Por ahora

play20:28

todo esto son solo proyectos aislados

play20:31

proyectos aislados que requieren de

play20:33

inteligencias artificiales diseñadas

play20:35

específicamente para cada problema se

play20:37

aleja de mi sueño de un enorme modelo

play20:39

fundacional que vaya desarrollando

play20:41

nuevas ciencia de forma Autónoma Y eso

play20:43

caería más en la zona de ciencia ficción

play20:45

Pero bueno una ciencia ficción que a lo

play20:47

mejor dentro de No mucho llamaremos solo

play20:50

ciencia y Es que creo que será en esta

play20:52

etapa del Deep learning 3.0 donde

play20:54

veremos un uso sistemático de la

play20:56

utilización de la Inteligencia

play20:57

artificial para acelerar los avances

play21:00

científicos avances científicos que

play21:02

luego repercutirán en el desarrollo de

play21:05

inteligencias artificiales cada vez más

play21:07

potentes en este punto del vídeo muchos

play21:09

de vosotros

play21:10

estaréis pensando Carlos Se te está

play21:12

yendo la cabeza pero es que este

play21:14

sueño de ias que impulsen avances

play21:16

científicos no es solo una idea loca que

play21:18

exista en mi cabeza sino que es el

play21:20

objetivo principal de una de las

play21:22

compañías que no he parado de repetir en

play21:24

esta última fase del vídeo Deep Mind

play21:32

[Música]

play21:35

Y es que Deep Mind ha sido durante la

play21:38

última década el principal laboratorio

play21:39

en cuanto aprendizaje por refuerzo

play21:41

robótica e impulso de la ciencia con

play21:44

Deep learning se refiere a mi gusto si

play21:46

en la etapa actual que estamos viviendo

play21:47

del Deep learning 2.0 Si tuviera que

play21:50

destacar una empresa protagonista sin

play21:52

duda esa sería openiyay que ha sido la

play21:55

impulsora de los enormes modelos

play21:56

fundacionales en el caso del Deep

play21:58

learning 3.0 creo que Deep Mine sería la

play22:01

que tendría mucho que decir Y ojo porque

play22:04

la transición a esto Podría empezar

play22:05

mucho antes de lo que pensamos Y es que

play22:08

lo sabemos todos la salida de chat gpt

play22:11

por parte de openiyay en noviembre de

play22:12

2022 pilló a Google con el pie cambiado

play22:16

y durante el año han intentado

play22:17

recomponerse igualar la apuesta con

play22:19

alguno de sus modelos que ya estaban

play22:21

entrenando como Pan 2 que encontramos

play22:23

dentro de su sistema Bart modelo del que

play22:26

muchas personas y ahí me incluyo yo pues

play22:29

tratándose de Google esperábamos mucho

play22:32

más pero es que claro entrenar un modelo

play22:34

para intentar competir contra gpt 4 pues

play22:36

no es una tarea que puedas resolver en

play22:38

pocas semanas y tras reestructurar a sus

play22:41

distintos laboratorios de Inteligencia

play22:42

artificial bajo un mismo nombre Google

play22:45

deepmind ahora estaban dejando al equipo

play22:48

de Denis hasabis todo el poder para

play22:50

crear a la bestia géminis

play23:00

eminy será la gran apuesta de Google y

play23:04

podría ser la transición entre esta

play23:06

etapa de enormes modelos de lenguaje y

play23:08

el Deep learning 3.0 por qué Para

play23:12

empezar hay rumores de que la

play23:13

computación dedicada a entrenar a esta

play23:15

primera versión de la bestia de Google

play23:17

implica la computación dedicada al

play23:20

entrenamiento de gpt 4 y eso solo para

play23:22

una primera versión pero es que con la

play23:25

infraestructura de tpus con las que

play23:27

Google cuenta esto podría escalar

play23:29

rápidamente a unos niveles a los que

play23:31

opening y ahí no podría competir por

play23:33

otro lado se sabe que otra de la

play23:35

fortalezas de Géminis que se tratará de

play23:37

un modelo fundacional

play23:42

multimodalty Mobile highlight

play23:45

integrations

play23:48

innovations like Memory and planning

play23:51

waltzy we're already seen impression

play24:06

ahora si hay algo que ha cautivado mi

play24:09

atención respecto a lo que Géminis

play24:10

podría llegar a ser son estas

play24:12

declaraciones del ceo de Deep Mind de

play24:15

mis hasabis a nivel general puedes

play24:18

pensar en Géminis como una combinación

play24:20

de algunas de la fortalezas de sistemas

play24:22

tipo Alfa Go con las asombrosas

play24:24

capacidades lingüísticas de los enormes

play24:27

modelos del lenguaje es decir aquí nos

play24:30

estaría hablando de la combinación de

play24:32

tecnologías como la que hace funcionar a

play24:34

gpt 4 comparte de su tecnología de

play24:36

aprendizaje por refuerzo que encontramos

play24:39

en los sistemas Alfa Go y esto podría

play24:42

ser solo marketing o podría ser una

play24:45

versión un poquito más avanzada del

play24:47

rainforcement learning with human

play24:49

feedback que sabemos que hace funcionar

play24:50

a Chad gpt o algo por el estilo O podría

play24:53

ser algo en la línea de lo que Comenta

play24:55

aquí de

play24:56

[Música]

play25:57

esta declaraciones para mí son muy

play25:59

relevantes y viniendo de boca de Demis

play26:02

hassabis pues le doy a gemini el

play26:04

beneficio de la duda aun cuando Google

play26:06

ya me defraudó en el pasado con lo que

play26:08

pal2 llegó a ser pero de ser lo que

play26:11

promete Pues parecería que estaríamos

play26:12

dando un paso firme más hacia esta

play26:15

bonita idea de la Inteligencia

play26:16

artificial general y eso amigos Eso sí

play26:21

será el futuro del deeplerling fijaos

play26:23

como todas las piezas que os he ido

play26:24

presentando a lo largo de este vídeo se

play26:26

han ido conectando en una conclusión que

play26:28

Es evidente y es que el futuro de la

play26:30

Inteligencia artificial va a ser

play26:32

fascinante he querido empezar esta nueva

play26:34

temporada del Canal con esta temática

play26:35

con este vídeo con un vídeo bastante

play26:38

extenso con mucho contenido porque

play26:40

establece muy bien las bases de lo que

play26:42

vamos a estar aprendiendo Durante este

play26:44

año fundamento de aprendizaje reforzados

play26:46

modelos fundacionales multimodalidad

play26:48

robótica World models Microsoft contra

play26:51

Google Deep Mind Géminis todos estos

play26:53

temas los tendréis aquí en el canal Esta

play26:56

es la nueva temporada y es para vosotros

play26:58

aquí ahora donde vosotros tenéis que

play27:00

suscribiros y darle a la campanita para

play27:02

que no os perdáis nada del contenido que

play27:04

está por venir y apoyar en patreon todo

play27:06

este proyecto pero es que además tengo

play27:08

una sorpresa para vosotros como soy

play27:11

consciente de que el ritmo al que

play27:12

produzco estos enormes vídeos

play27:13

documentales que llevan un montón de

play27:15

horas de trabajo por detrás pues no nos

play27:18

da tiempo de cubrir toda la actualidad

play27:19

todas las novedades todas las

play27:21

herramientas que van saliendo y que me

play27:23

gustaría probar y enseñaros y traeros

play27:25

aquí a YouTube os Traigo una nueva

play27:27

propuesta

play27:29

SV la un nuevo canal de YouTube el

play27:33

Antiguo canal secundario que tenía que

play27:34

ahora voy a estar llevando en paralelo y

play27:36

donde voy a subir vídeos con mayor

play27:37

frecuencia evidentemente vídeos no tan

play27:40

producidos pero que va a servir para

play27:41

explorar experimentar probar muchas de

play27:45

todas estas herramientas que están

play27:46

saliendo contaros trucos de cómo podéis

play27:48

sacarle el máximo partido a la

play27:50

Inteligencia artificial hablar de la

play27:52

actualidad y bueno una forma de

play27:54

encontrarnos aquí en YouTube con todo lo

play27:56

nuevo que está saliendo que no es poco y

play27:58

poder pues disfrutar de forma más

play28:00

continua de todo este contenido aprender

play28:01

los fundamentos del Deep learning que

play28:03

nos están llevando a la revolución

play28:04

tecnológica más impresionante de nuestra

play28:06

historia aquí en este canal cacharrear y

play28:09

experimentar con todo lo nuevo que va

play28:10

saliendo cada día en el laboratorio allí

play28:13

podéis suscribiros ya este nuevo canal y

play28:15

a ver si llegamos a los 100.000

play28:17

seguidores solo con un vídeo publicado y

play28:19

el vídeo que tenéis es este de aquí

play28:21

donde prueba la herramienta que es una

play28:23

herramienta espectacular para ser

play28:25

justamente esto para poder doblarte a

play28:27

diferentes idiomas poder modificar y

play28:29

bueno es bastante espectacular lo podéis

play28:31

ver aquí chicos chicas Muchas gracias

play28:33

por ver este vídeo y estoy contentísimo

play28:36

de empezar ya la temporada de 12 csv

Rate This

5.0 / 5 (0 votes)

Related Tags
Inteligencia ArtificialDeep LearningAprendizaje AutomáticoRedes NeuronalesAprendizaje por RefuerzoRobóticaTecnología EmergenteInnovaciónMachine LearningAI GeneralGoogle DeepMind
Do you need a summary in English?