Pasado, Presente y Futuro de la IA - ¡Del Deep Learning 1.0 a Google Gemini!
Summary
TLDREl video discute la evolución de la Inteligencia Artificial (IA), destacando la revolución del Machine Learning y el Deep Learning. Se menciona el paso del Deep Learning 1.0, caracterizado por modelos específicos para una sola tarea, al 2.0, donde modelos como GPT-3 pueden realizar múltiples tareas. Se anticipa el Deep Learning 3.0, con IA que aprende sin datos previos, explorando y descubriendo nuevas estrategias. Los avances en robótica impulsados por el aprendizaje por refuerzo y la ciencia acelerada por IA son parte del futuro prometedor de la tecnología.
Takeaways
- 🚀 La inteligencia artificial (IA) ha alcanzado un potencial máximo en los últimos años, llegando a más usuarios y generando expectativas sobre su impacto disruptivo.
- 🤖 El machine learning, una rama de la IA, ha sido investigada desde casi los inicios de la computación y ha detonado la revolución de la IA en los últimos años.
- 📈 El deep learning, que utiliza redes neuronales artificiales, comenzó su auge en 2012 y ha evolucionado considerablemente desde entonces.
- 🌱 El aprendizaje supervisado, en el que las redes neuronales se entrenan para resolver una tarea específica, presenta la limitación de depender de conjuntos de datos etiquetados.
- 🔄 La tendencia de utilizar modelos pre-entrenados ha permitido a las redes neuronales adaptarse a múltiples tareas, lo que se conoce como aprendizaje 2.0.
- 📚 Los modelos de lenguaje enormes, como GPT-3, pueden manejar múltiples funciones lingüísticas, desde analizar sentimientos hasta traducir texto.
- 🎨 Los modelos generativos han evolucionado para no solo generar una sola cosa, sino todo, como en el caso de DALL-E y Stable Diffusion.
- 🤖 El aprendizaje auto-supervisado permite a las máquinas aprender sin la necesidad de datos etiquetados por humanos, superando el cuello de botella de la etiquetación.
- 🌐 Los datos sintéticos generados por modelos de IA son utilizados para entrenar modelos aún más potentes, iniciando un ciclo virtuoso de mejora continua.
- 🧠 La multimodalidad en el deep learning permite a las IA aprender de diferentes fuentes de datos, como imágenes, audio y texto, para una comprensión más rica y cohesionada del mundo.
- 🤖 El aprendizaje por refuerzo, especialmente impulsado por DeepMind, ha demostrado su efectividad en áreas como la robótica y la optimización de algoritmos, y podría ser la pieza clave en el deep learning 3.0.
Q & A
¿Cuál es el tema central del video?
-El tema central es el futuro de la Inteligencia Artificial, específicamente la evolución de la inteligencia artificial desde la Machine Learning hasta los avances en el aprendizaje por refuerzo y la robótica impulsada por IA.
¿Qué evento marcó el inicio del boom de la inteligencia artificial en 2012?
-El boom de la inteligencia artificial en 2012 se marcó por el uso efectivo de redes neuronales artificiales para el proceso de aprendizaje automático, conocido como Deep Learning.
¿Cuál es la principal limitación del aprendizaje supervisado?
-La principal limitación del aprendizaje supervisado es la dependencia de contar con un conjunto de datos etiquetados de forma adecuada, lo que a menudo se convierte en un cuello de botella debido a la limitación del etiquetador humano.
¿Qué es el aprendizaje por refuerzo y cómo se diferencia del aprendizaje supervisado?
-El aprendizaje por refuerzo es una técnica en la que la inteligencia artificial aprende explorando sus posibilidades y descubriendo nuevas estrategias a través del ensayo y error, sin necesidad de datos previamente etiquetados, lo que lo distingue del aprendizaje supervisado.
¿Cómo podrían los modelos generativos, como GPT, influir en el futuro del entrenamiento de IA?
-Los modelos generativos podrían influir en el entrenamiento de IA al generar datos sintéticos que podrían ser utilizados para entrenar a otros modelos más potentes, iniciando un ciclo virtuoso de mejora continua en la calidad de los datos de entrenamiento.
¿Qué es la multitarea en el contexto del aprendizaje profundo?
-La multitarea en el contexto del aprendizaje profundo se refiere a la capacidad de una red neuronal o modelo de inteligencia artificial para resolver múltiples tareas diferentes, en lugar de estar limitado a una tarea específica.
¿Qué es la multimodalidad en el aprendizaje profundo y cómo ayuda a la IA?
-La multimodalidad en el aprendizaje profundo es la capacidad de una red neuronal para nutrirse de múltiples fuentes de datos de distinta naturaleza, como imágenes, audios, vídeos y textos. Esto permite a la IA aprender una representación más cohesionada y completa del mundo real.
¿Qué es Deep Learning 3.0 y cómo se diferencia de sus versiones anteriores?
-Deep Learning 3.0 se refiere a la próxima etapa en el desarrollo de la inteligencia artificial, que podría involucrar el entrenamiento de IA con datos generados por máquinas o el uso de técnicas avanzadas como el aprendizaje por refuerzo y la robótica. Se diferencia de las versiones anteriores al enfocarse en la generación de conocimiento y soluciones innovadoras sin depender exclusivamente de datos etiquetados por humanos.
¿Cómo podría la IA impulsar avances científicos en el futuro?
-La IA podría impulsar avances científicos al utilizar modelos fundacionales capaces de desarrollar teorías matemáticas, definir nuevas teorías y construir sobre las teorías anteriores de forma autónoma, lo que podría llevar a la creación de nuevas ramas de las matemáticas y nuevos problemas.
¿Qué papel desempeñan las empresas como Deep Mind y OpenAI en el desarrollo de la IA?
-Deep Mind y OpenAI son líderes en el campo de la IA, impulsando avances en áreas como el aprendizaje por refuerzo, la robótica e impulso de la ciencia con Deep Learning. OpenAI ha sido particularmente destacada en el desarrollo de modelos fundacionales en el aprendizaje profundo, mientras que Deep Mind ha sido un pionero en el aprendizaje por refuerzo y la IA general.
¿Qué es la 'Bestia Géminis' y cómo podría influir en el futuro de la IA?
-La 'Bestia Géminis' es un proyecto de Google, liderado por Deep Mind, que se espera sea una combinación de tecnologías de aprendizaje por refuerzo y capacidades lingüísticas avanzadas. Su desarrollo podría marcar una transición hacia el Deep Learning 3.0 y ser una gran apuesta en la creación de modelos de IA más potentes y versátiles.
Outlines
😀 Introducción al futuro de la Inteligencia Artificial
El primer párrafo aborda el tema del futuro de la Inteligencia Artificial (IA), destacando la importancia de la revolución en Machine Learning y Deep Learning. Se menciona el crecimiento exponencial de la IA y su potencial disruptivo, a pesar de las preocupaciones sobre una posible burbuja. Se destaca el aprendizaje supervisado y cómo se ha venido practicando desde los orígenes de la computación. Además, se introduce el concepto de 'learning 1.0', donde las redes neuronales eran utilizadas para resolver una única tarea específica, y se menciona el cambio hacia modelos pre-entrenados que permiten adaptarse a múltiples tareas.
🤖 Deep Learning 2.0 y el avance hacia la multitarea
Este párrafo explora el Deep Learning 2.0, enfocándose en el procesamiento del lenguaje natural y la capacidad de los modelos de lenguaje para manejar múltiples tareas, como analizar sentimientos, resumir texto e incluso traducir idiomas, todo mediante un único modelo. Se discute la generación de imágenes y cómo los modelos han evolucionado para ser capaces de generar una variedad de contenidos. El aprendizaje auto-supervisado se presenta como el nuevo paradigma, permitiendo a las máquinas aprender sin la necesidad de datos etiquetados por humanos, lo que abre la puerta a modelos más potentes y versátiles.
🧠 Aprendizaje por refuerzo y la era de la IA general
El tercer párrafo se centra en el aprendizaje por refuerzo como una forma pura de adquisición de conocimiento en Deep Learning, donde la IA aprende explorando y descubriendo estrategias sin datos previos. Se destaca el éxito de AlfaZero en juegos de mesa y otros avances en optimización y descubrimiento de algoritmos. Aunque el aprendizaje por refuerzo requiere una gran cantidad de datos y puede ser costoso, se destaca su potencial para llevar a la IA al mundo físico a través de la robótica, y cómo se está utilizando actualmente en simulaciones para luego transferir conocimientos al mundo real.
🚀 La transición hacia el Deep Learning 3.0
Este párrafo aborda la transición hacia el Deep Learning 3.0, donde se espera ver un uso sistemático de la IA para acelerar los avances científicos. Se mencionan proyectos aislados como Alfa Tensor, Alpha Def y Alpha Fold que han logrado hallar soluciones innovadoras en áreas específicas. Se alude a la posibilidad de un modelo fundacional que desarrolle ciencia de forma autónoma, y se destaca el papel de Deep Mind como líder en el campo del aprendizaje por refuerzo y la promoción de la ciencia con Deep Learning.
🌟 La competencia entre OpenAI y Google DeepMind
El quinto párrafo explora la competencia entre OpenAI, con su modelo GP4, y Google DeepMind, con su modelo Bart y el potencial de su nueva creación, la 'Bestia Géminis'. Se discute cómo la salida de Chat GP4 puso a Google en una posición de reacción y cómo Google ha estado reestructurando sus laboratorios para enfrentarse a esta competencia. Se sugiere que la Bestia Géminis podría ser una transición hacia el Deep Learning 3.0, combinando fortalezas de sistemas tipo Alfa Go con capacidades lingüísticas de modelos de lenguaje grandes.
📈 Anuncios y futuro del canal
El sexto y último párrafo es un anuncio sobre el inicio de una nueva temporada del canal, con la intención de explorar temas como el aprendizaje reforzado, modelos fundacionales, multimodalidad, y la competencia entre Microsoft y Google DeepMind. Además, se presenta una nueva propuesta: el lanzamiento de un nuevo canal secundario para cubrir la actualidad y nuevas herramientas de IA con mayor frecuencia y en un formato menos producido. Se anima a los espectadores a suscribirse y seguir el contenido para no perderse ninguna actualización.
Mindmap
Keywords
💡Inteligencia Artificial
💡Machine Learning
💡Deep Learning
💡Redes Neuronales
💡Aprendizaje Supervisado
💡Aprendizaje Auto Supervisado
💡Modelos Pre-entrenados
💡Multitarea
💡Generative AI
💡Robótica
💡Aprendizaje por Refuerzo
Highlights
La discusión sobre el futuro de la Inteligencia Artificial (IA) y cómo ha crecido su potencial en los últimos años.
La revolución del Machine Learning y su impacto en el aprendizaje automático a través de redes neuronales.
El inicio del boom del Deep Learning en 2012 y su evolución hasta la práctica actual.
La descripción del proceso de entrenamiento de una red neuronal para una tarea específica, como la clasificación de imágenes de hojas sanas o dañadas.
El concepto de 'Learning 1.0' y cómo las redes neuronales eran utilizadas para resolver una única tarea específica.
La introducción de modelos pre-entrenados y cómo esto ha llevado a la era de las redes neuronales multitarea.
El surgimiento de la multitarea en Deep Learning 2.0 y su expansión a áreas más allá de la visión por computadora.
El uso de modelos de lenguaje enormes como gp3 para tareas variadas, como analizar sentimientos, resúmenes y traducciones.
La generación de imágenes con modelos como Meet, Journey y stable diffusion, capaces de generar una amplia variedad de contenidos.
El aprendizaje auto-supervisado y cómo permite a las máquinas aprender sin la necesidad de datos etiquetados por humanos.
La idea de utilizar datos generados por IA para entrenar modelos aún más potentes, iniciando un ciclo virtuoso.
La importancia de la multimodalidad en la IA y cómo permite a las máquinas una comprensión más cohesionada y completa del mundo real.
La transición hacia el Deep Learning 3.0 y la utilización del aprendizaje por refuerzo para el desarrollo de IA.
El potencial del aprendizaje por refuerzo en la robótica y su capacidad para que los robots aprendan habilidades en el mundo real.
La combinación de modelos fundacionales multimodales y el aprendizaje por refuerzo como el futuro prometedor de la IA.
La misión de Deep Mind y OpenAI en la promoción de la IA y su papel en la era del Deep Learning 3.0.
La expectativa de la próxima temporada del canal, que incluirá temas como aprendizaje reforzado, modelos fundacionales, multimodalidad, y la competencia entre Microsoft y Google Deep Mind.
El lanzamiento de un nuevo canal de YouTube para cubrir la actualidad y novedades en IA de manera más frecuente y interactiva.
Transcripts
es hora de hablar del futuro del futuro
Hablemos del futuro de la Inteligencia
artificial
[Música]
estamos viviendo momentos extraños al
mismo tiempo que los dos últimos años
hemos vivido el periodo en el que la
Inteligencia artificial ha ofrecido su
mayor potencial llegando a más y más
usuarios que nunca y donde más promesas
en el aire hay sobre los disruptiva que
podría llegar a ser esta tecnología
al mismo tiempo convivimos con titulares
y hablan de que la burbuja de la
Inteligencia artificial Pues podría
estar a punto de explotar
pero en realidad como ya sabéis cuando
hablamos de Inteligencia artificial
realmente de lo que tenemos que hablar
es de Machine learning la revolución
donde las máquinas aprenden a ser cosas
una rama del campo de la Inteligencia
artificial que tampoco es nueva y que se
viene investigando desde Casi casi los
comienzos de la computación
No si algo ha detonado la revolución de
la Inteligencia artificial en los
últimos años es la revolución del
Machine learning y más concretamente del
Deep learne el uso efectivo de redes
neuronales artificiales para el proceso
de aprendizaje automático y como ya
hemos comentado muchas veces en este
canal fue en 2012 Cuando dio comienzo el
Boom y el resto ha sido historia
[Música]
ahora el Deep learning de hace 10 años
pues no se parece tanto al Deep learning
que se practica ahora en la última
década la forma de practicar Deep
learning pues era más o menos así Ella
Tengo un problema que quiero resolver
pues Quiero conocer si en una fotografía
aparece una hoja sana o una hoja dañada
un problema de clasificación muy
específico para el que podíamos entrenar
a una red neuronal a resolver dicha
tarea y para hacerlo necesitábamos datos
etiquetados un conjunto de imágenes
donde algún experto en hojas se hubiera
sentado a decir pues mira esta hoja de
aquí está sana y esta no Y esta no y
está así y bueno con todos estos datos
se entrenaba mediante aprendizaje
supervisado a la red neuronal desde cero
para que resolviera dicha tarea y si el
entrenamiento iba bien pues la red
neuronal aprendería a generalizar su
tarea incluso para imágenes de hojas que
no hubiera visto previamente funcionaba
era práctico y es un ejemplo perfecto de
lo que a partir de ahora voy a pasar a
denominar
learning 1.0 aquí las redes neuronales
se utilizaban para resolver una única
tarea específica podría por ejemplo
usarse esta red para clasificar flores
sanas y flores enfermas pues no no era
su tarea solo la habíamos entrenado para
clasificar imágenes de hojas y por tanto
solo podría ser única y exclusivamente
dicha tarea si querías que clasificar a
flores pues tenías que de nuevo sentarte
y etiquetar un gran Data set de flores y
entrenar la red para ello y aquí podéis
daros cuenta de una de las grandes
limitaciones del aprendizaje supervisado
y es que somos dependientes de contar
con un Data set que esté perfectamente
etiquetado y en muchos casos etiquetar
correctamente un Data set pues tiene
como cuello de botella al propio
etiquetador humano el cuello de botella
para la Inteligencia artificial éramos
nosotros y de ahí surgieron tendencias
como la de deslocalizar a países como
China o India granjas de etiquetación de
datos todo esto ocurriendo en paralelo
al mismo tiempo que los investigadores
de Deep le ya estaban buscando una
solución a este problema la idea de
utilizar modelos pre entrenados es decir
si tú tienes dos tareas de clasificación
pues clasificar hojas y clasificar
flores Por qué empezar el entrenamiento
desde cero al final son tareas que
tienen pues ciertas similitud lo que se
propuso es que antes de hacer tu
entrenamiento pues ya podíamos hacer un
pre entrenamiento en el que a una
red neuronal de clasificación de
imágenes que aprender a clasificar un
montón de imágenes de todo tipo flores
hojas perros gatos aviones camiones de
todo En definitiva una red neuronal que
aprendiera a ver y luego tomando esa red
neuronal como base pues hacer un pequeño
entrenamiento final con menos datos para
ajustarlo al problema que queríamos
resolver clasificar hojas o clasificar
flores y Esto fue un salto brutal y un
punto de inflexión porque estamos
pasando de redes neuronales que solo
cumplían pues una única tarea a redes
neuronales que ahora Se podrían adaptar
a múltiples tareas redes
multitarea un fenómeno que nos llevó un
poquito más hacia el futuro hacia lo que
para mí se consideraría el Deep learning
2.0 la etapa actual que estamos viviendo
nos situamos ahora entre 2018 y 2020
periodo en el que esta idea de pre
entrenar a modelos de Inteligencia
artificial para cumplir múltiples tareas
pues empezó a conquistar otras áreas de
estudio Más allá de la visión por
computador áreas Como por ejemplo el
procesamiento del lenguaje natural un
área de estudio dedicada a que la
máquina pudiera entender nuestro
lenguaje y bueno también pudiera
generarlo algo que ya sabéis por qué
camino nos ha llevado
y aquí la multitarea entró fuerte a lo
mejor antes tú entrenabas a una red
neuronal para analizar el sentimiento de
un texto otra red para que aprendiera a
hacer un resumen y otra red para
traducir una frase de español al inglés
Pero ahora con la llegada de los enormes
modelos del lenguaje un mismo modelo
Como gp3 podía encargarse de todo
creedme la multitaría está en el ADN del
Deep learning 2.0 y si no fijaos otro
ejemplo generación de imágenes si
recordáis en 2017 era habitual ver
modelos generativos entrenados
específicamente para generar caras o
para generar pájaros o para generar
flores cada modelo estaba
específicamente entrenado para generar
una cosa y ahora en 2023 la norma es
encontrarnos con modelos como Meet
Journey stable difusión capaces de
generarlo todo
qué ha pasado aquí qué tecla hemos
tocado de repente que nos ha hecho pasar
en muy poquitos años de inteligencias
artificiales tan específicas a
inteligencias artificiales multitarea
polacos está en que si antes os
comentaba que el protagonista en el Deep
learning 1.0 era el aprendizaje
supervisado ahora en este periodo que
estamos viviendo en el Deep learning 2.0
el protagonista El rey de Kim es el
aprendizaje auto supervisado por qué
bueno pues porque en el aprendizaje auto
supervisado La idea es que en vez de
tener a humanos etiquetando datos para
cada tarea aquí lo que se plantea es que
sea el propio ordenador El que pueda
generarse automáticamente la tarea de la
que poder aprender cómo Pues mira en
internet hay texto mucho texto
y con ese texto el computador puede
jugar a enmascarar una o varias palabras
e intentar aprender a predecir qué hay
ahí o de forma similar podemos entrenar
con imágenes podemos todas las
imágenes de internet enmascararlas de
alguna forma o corromperlas con ruido y
dejar que la guía aprenda a deshacer el
destrozo para así poco a poco aprender
la naturaleza y los patrones que
conforman a una imagen Esta es la clave
que la máquina pueda etiquetarse
automáticamente sus propios datos
aprendizaje auto supervisado es lo que
ha permitido pues superar el cuello de
botella del que hablábamos antes ya no
necesitas etiquetadores humanos con lo
cual podemos Pues todos los datos
de internet y entrenar e inteligencias
artificiales mucho más potentes y más
generales capaces de cumplir un mayor
Rango de tareas un concepto que a día de
hoy se ha dado a conocer como modelos
fundacionales
todo esto que estamos comentando
funciona y son Bueno pues las claves que
están detrás de grandes modelos que
utilizamos hoy en día como chat gpt o
stable difusión los modelos
fundacionales y el aprendizaje auto
supervisado están a la orden del día y
son los principales responsables de la
revolución del Deep learning 2.0 que
estamos viviendo actualmente pero en
este vídeo no Veníamos a hablar del
pasado ni del presente sino del futuro
vamos a ello
si os dais cuenta uno de los factores
clave en el repaso histórico que hemos
hecho han sido los datos ya sean
etiquetados por humanos o etiquetados
por la propia máquina Pero y si
pudiéramos ir más allá y si pudiéramos
entrenar una Inteligencia artificial con
datos que no sean reales datos generados
si lo pensáis el principal éxito del
Deep learning 2.0 es lo que se ha
bautizado como oía generativa lo hemos
dicho Ahora Contamos con modelos que
generan texto código de programación
imágenes y audio realista qué pasaría
Entonces si usáramos lo que estos
modelos generan para entrenar a otros
modelos más potentes pues parecería raro
no que pudiéramos entrenar a una
Inteligencia artificial con lo que otra
Inteligencia artificial está generando
tal y como escuché esta semana sería
como bueno la ia comiéndose su propia
caca aquí la intuición nos dice que como
mucho podríamos conseguir un modelo que
igual en rendimiento al modelo original
pero no Que lo supere No pues depende ya
que fijaos que cuando nosotros
utilizamos a guías generativas como Meet
Journey nosotros seleccionamos de las
cuatro opciones que nos ofrece la ia
aquella que más nos gusta o por ejemplo
en chat gpt si la conversación no nos
interesa la abandonamos es decir
nosotros que hemos encontrado valor en
estas herramientas nos hemos convertido
de facto en etiquetadores que vamos
seleccionando Pues de todo lo que la
guía genera aquello que está mejor y
descartando aquello que está peor
estamos ayudando a filtrar los datos con
lo cual entre más utilizamos estos
modelos más datos filtraremos datos
nuevos generados y filtrados que ahora
se podrán utilizar como un nuevo dataset
de mayor calidad para entrenar a un
modelo incluso más potente que aportará
más valor a los usuarios con lo cual
atraerá a más gente que filtrará más
datos que generarán es un ciclo virtuoso
que ha empezado a rodar con mucha más
fuerza y mucha más velocidad desde 2023
cuando la mayor parte de la sociedad
pues ha empezado a interesar en todas
estas herramientas cada vez tenemos más
datos sintéticos que nosotros hemos
ayudado a financiar porque hemos pagado
por generarlos y a filtrarlos y que
servirán para entrenar a modelos
generativos cada vez más potentes
una cuestión discutida en filosofía nos
habla de cómo por mucho que tú puedes
estudiar de una manzana toda su teoría
pues su composición su biología la
química de los enlaces de las moléculas
todo no será hasta que la veas la
abuelas la Sabores que tendrás un
conocimiento más completo y experiencial
de ella y esto amigos es algo que ocurre
hasta con las inteligencias artificiales
más inteligentes que entrenamos a día de
hoy Jack gpt por ejemplo todo su
conocimiento interno de lo que es una
manzana lo sabe porque lo ha leído
durante su entrenamiento Y sí ha leído
muchísimo sabe que es roja dulce redonda
puede tener una idea de cómo es pero
nunca la ha visto experimentado de una
forma que no sea a través de la
proyección de texto que nosotros le
hemos dado y aquí la multimodalidad
resuelve este problema Esta es una
tendencia que también podemos englobar
en lo que estoy denominando Deep
learning 2.0 y que no tenemos que
confundir con el concepto de multitarea
que hemos visto antes la multitarea como
hemos visto es que una guía puede
resolver múltiples tareas lo dice su
nombre y la multimodalidad lo que nos
habla es de una guía que puede nutrirse
de múltiples fuentes de datos de
distinta naturaleza imágenes audios
vídeos textos señales de sensores todo
al mismo tiempo hacer esto le permiten
no solo Leer sobre Qué es una manzana
sino también ver visualmente como es
inferir su dureza Al escuchar un
mordisco u olerla entre comillas y
Contamos con los sensores químicos
adecuados es decir aprender una
representación mucho más cohesionada y
completa del mundo real lo que nos
faltaría por ver en los próximos años
Pues sería esta idea de modelo
fundacional multimodal un futuro gpt 5
que no solo se entrene con todo el texto
de internet sino que también se puedan
nutrir de imágenes vídeos audios de
todas las fuentes de conocimiento que
tenemos y que demuestran pues la rica
naturaleza de nuestro
Pues tienes que saber que Esto de usar
datos sintéticos para entrenar a modelo
fundacionales mayores o la
multimodalidad para darle una visión más
cohesiva del mundo real es solo mi
apuesta a corto plazo es decir sería mi
apuesta para la etapa actual que estamos
viviendo la del Deep learning 2.0 Pero y
si te dijera que otra ramificación se
abre hacia un futuro más interesante y
prometedor hablemos del Deep learning
3.0 hasta ahora hemos hablado de
inteligencias artificiales entrenadas
con datos etiquetados por humanos con
datos etiquetados por máquinas o con
datos generados por máquinas Pero y si
entrenáramos a inteligencias
artificiales sin datos en el mundo del
Machine learning desde los comienzos
existe otra rama que está ahí latente
cumpliendo grandes objetivos poco a poco
pero sin tener un protagonismo real en
las herramientas que usamos en nuestro
día a día por supuesto estoy hablando
del aprendizaje por refuerzo por
reinforce
el reinfor learning es quizás la forma
más pura de adquisición de conocimiento
en el Deep learning Y es que aquí la
Inteligencia artificial no aprende de
observar datos pre etiquetados para un
problema que podrían sesgarla en su
aprendizaje No en este esquema de
aprendizaje la ia prende desde cero
explorando sus posibilidades y
descubriendo nuevas estrategias ya sea
en un simulador o en el mundo real
probando y aprendiendo de sus errores y
de sus logros uno de los éxitos más
famosos de este esquema de aprendizaje
que seguramente recordaréis es el de
Alfa Zero donde la hija fue capaz de
aprender desde cero sin observar ninguna
partida humana real a jugar a juegos de
mesa como el Go el ajedrez y el Yogui
pasando de jugar de forma aleatoria a
dominar estos juegos hasta poder vencer
a campeones del mundo Guau también hemos
hablado en otras ocasiones de otros
éxitos del aprendizaje por refuerzos
principalmente impulsados por Deep Mind
donde él haya sido capaz de encontrar
formas más óptimas de codificar vídeos
de YouTube para consumir menos ancho de
banda o de controlar los imanes que dan
forma al plasma en el interior de los
reactores de fusión o por ejemplo
también encontrar nuevos algoritmos
matemáticos para la multiplicación de
matrices es decir si en el Deep learning
2.0 la estrategia que teníamos en la de
entrenar a estos enormes modelos
fundacionales como gp4 con un montón de
datos de internet para poder generar
conocimiento a partir de que estos
combinan estos datos de forma novedosa
en el aprendizaje por refuerzo la cosa
es diferente porque aquí la ia se
embarcará en un proceso de exploración a
menudo sin datos previos para buscar
soluciones en un amplio espacio de
posibilidades lo que a veces puede
llevarle a descubrimientos fuera de los
paradigmas actuales alcanzando nuevo
conocimiento y visto Así el
reinforcement learning parece una muy
buena idea Pero no es tan sencillo para
funcionar bien el reinforcement learning
necesita Bueno pues lo que necesita la
ia un montón de datos un montón de
iteraciones donde ya sean simulación o
en el mundo real por ensayo y error la
Inteligencia artificial pues pueda ir
aprendiendo poco a poco su tarea hacer
esto en el mundo real pues es muy
costoso porque el tiempo va a un segundo
por segundo y además las cosas suelen
romperse y es por eso que vemos que
muchos de los casos de éxito de hoy en
día ocurren dentro de simulaciones Y es
que cada vez son más los ejemplos de
robótica que consiguen aprender sus
objetivos en simulación con aprendizaje
por refuerzo y luego los transfieren
exitosamente al mundo real para cumplir
su objetivo en el mundo físico que es
donde nos interesa hemos visto robots
que han aprendido a levantarse aunque le
tiren una y otra vez para poder jugar
una liguilla de fútbol tal y como os
enseñé en este vídeo que tenéis en el
canal recientemente también hemos visto
drones capaces de volar en pista con un
vuelo casi perfecto ganando contra
campeones del mundo ojito a esto y
estamos empezando a ver ejemplos de
robots que en el mundo real no en
simulación están logrando aprender
habilidades ya no en días de
entrenamiento que era lo habitual sino
en cuestión de horas y para ejemplo
tenéis el de este perrete robótico que
tal y como estáis viendo ha aprendido a
andar desde cero en cuestión de una hora
consiguiendo aprender a coordinar todos
sus controladores para alzarse en pie y
andar
[Música]
para mí la robótica impulsada por el
aprendizaje por refuerzo va a ser la
gran protagonista del Deep learning 3.0
Pero eso no quita que la robótica
actualmente se esté beneficiando de los
grandes éxitos que estamos viviendo en
la etapa actual en la del Deep learning
2.0 Y es que ya sabéis que los enormes
modelos del lenguaje como gpt 4 One 2
poseen un gran conocimiento del mundo
que les permite planificar acciones con
mucho sentido común para resolver una
tarea a pesar de sólo haber interactuado
por ahora con el mundo a través del
texto pues lo que se está comprobando es
que utilizará estos enormes modelos de
lenguaje a modo de cerebro artificial
para estos robots funciona y este
estudio de robótica de Google Deep Mind
titulado así lo demuestra imaginad un
robot donde su movilidad no depende de
que nosotros tengamos que programar su
control con instrucciones complejas sino
que directamente podamos utilizar
instrucciones con lenguaje natural poder
decirle al robot avanza un poco o camina
espacio y que el modelo del lenguaje
pues traduzca estas palabras en acciones
concretas que el robot ejecutará
funcionando como un puente entre
nuestras palabras y los movimientos del
robot esto aumenta enormemente la
versatilidad a la hora de comunicarnos
con el robot porque por ejemplo ahora le
podríamos decir Oye actúa como si
cojearas de la pierna izquierda y el
robot sabrá coordinar sus controladores
para caminar de esta forma o camina como
si el suelo estuviera muy caliente y que
el robot lo entienda y haga esto cosas
como esta están empezando a funcionar o
también tenemos otros proyectos como rt2
también de deepmind otro caso de
robótica que de nuevo se nutre del
conocimiento de un enorme modelo de
lenguaje Sí pero también de un modelo de
visión aquí estaría apareciendo la
multimodalidad que mencionábamos antes
así que tendríamos un modelo de lenguaje
para planificar un modelo de visión para
poder observar y con esto se generarían
instrucciones de control para un robot
que ahora será capaz de cumplir un mayor
Rango de instrucciones usando también
sus ojos
[Música]
Así que la robótica ya sea por los
modelos fundacionales multimodales o por
el aprendizaje por refuerzo Pues podría
estar entrando en su época dorada El
Salto de la Inteligencia artificial del
mundo digital al mundo físico real pero
los avances del aprendizaje reforzado No
solo están destinados al mundo de la
robótica como hemos visto antes su valor
se encuentra a la hora de generar
también soluciones novedosas y
conocimiento original ante el reto que
le propongamos Y esto es algo que podría
tener un impacto directo sobre la
ciencia imaginad por un momento una
Inteligencia artificial dedicada a 24/7
cuya única tarea sea desarrollar teorías
matemáticas definir nuevas teorías
probarlas construir sobre las teorías
anteriores desarrollar nuevas ramas de
las Matemáticas nuevos problemas sé que
todo esto suena a ciencia ficción y por
ahora lo es Ya que actualmente lo que
tenemos son ejemplos muy aislados como
el de Alfa tensor que ha encontrado
nuevos algoritmos para multiplicar
matrices o alphadef que ha sido capaz de
optimizar algoritmos de ordenación o
Alfa fold diseñada para descubrir los
secretos que la naturaleza esconde tras
la estructura de las proteínas Por ahora
todo esto son solo proyectos aislados
proyectos aislados que requieren de
inteligencias artificiales diseñadas
específicamente para cada problema se
aleja de mi sueño de un enorme modelo
fundacional que vaya desarrollando
nuevas ciencia de forma Autónoma Y eso
caería más en la zona de ciencia ficción
Pero bueno una ciencia ficción que a lo
mejor dentro de No mucho llamaremos solo
ciencia y Es que creo que será en esta
etapa del Deep learning 3.0 donde
veremos un uso sistemático de la
utilización de la Inteligencia
artificial para acelerar los avances
científicos avances científicos que
luego repercutirán en el desarrollo de
inteligencias artificiales cada vez más
potentes en este punto del vídeo muchos
de vosotros
estaréis pensando Carlos Se te está
yendo la cabeza pero es que este
sueño de ias que impulsen avances
científicos no es solo una idea loca que
exista en mi cabeza sino que es el
objetivo principal de una de las
compañías que no he parado de repetir en
esta última fase del vídeo Deep Mind
[Música]
Y es que Deep Mind ha sido durante la
última década el principal laboratorio
en cuanto aprendizaje por refuerzo
robótica e impulso de la ciencia con
Deep learning se refiere a mi gusto si
en la etapa actual que estamos viviendo
del Deep learning 2.0 Si tuviera que
destacar una empresa protagonista sin
duda esa sería openiyay que ha sido la
impulsora de los enormes modelos
fundacionales en el caso del Deep
learning 3.0 creo que Deep Mine sería la
que tendría mucho que decir Y ojo porque
la transición a esto Podría empezar
mucho antes de lo que pensamos Y es que
lo sabemos todos la salida de chat gpt
por parte de openiyay en noviembre de
2022 pilló a Google con el pie cambiado
y durante el año han intentado
recomponerse igualar la apuesta con
alguno de sus modelos que ya estaban
entrenando como Pan 2 que encontramos
dentro de su sistema Bart modelo del que
muchas personas y ahí me incluyo yo pues
tratándose de Google esperábamos mucho
más pero es que claro entrenar un modelo
para intentar competir contra gpt 4 pues
no es una tarea que puedas resolver en
pocas semanas y tras reestructurar a sus
distintos laboratorios de Inteligencia
artificial bajo un mismo nombre Google
deepmind ahora estaban dejando al equipo
de Denis hasabis todo el poder para
crear a la bestia géminis
eminy será la gran apuesta de Google y
podría ser la transición entre esta
etapa de enormes modelos de lenguaje y
el Deep learning 3.0 por qué Para
empezar hay rumores de que la
computación dedicada a entrenar a esta
primera versión de la bestia de Google
implica la computación dedicada al
entrenamiento de gpt 4 y eso solo para
una primera versión pero es que con la
infraestructura de tpus con las que
Google cuenta esto podría escalar
rápidamente a unos niveles a los que
opening y ahí no podría competir por
otro lado se sabe que otra de la
fortalezas de Géminis que se tratará de
un modelo fundacional
multimodalty Mobile highlight
integrations
innovations like Memory and planning
waltzy we're already seen impression
ahora si hay algo que ha cautivado mi
atención respecto a lo que Géminis
podría llegar a ser son estas
declaraciones del ceo de Deep Mind de
mis hasabis a nivel general puedes
pensar en Géminis como una combinación
de algunas de la fortalezas de sistemas
tipo Alfa Go con las asombrosas
capacidades lingüísticas de los enormes
modelos del lenguaje es decir aquí nos
estaría hablando de la combinación de
tecnologías como la que hace funcionar a
gpt 4 comparte de su tecnología de
aprendizaje por refuerzo que encontramos
en los sistemas Alfa Go y esto podría
ser solo marketing o podría ser una
versión un poquito más avanzada del
rainforcement learning with human
feedback que sabemos que hace funcionar
a Chad gpt o algo por el estilo O podría
ser algo en la línea de lo que Comenta
aquí de
[Música]
esta declaraciones para mí son muy
relevantes y viniendo de boca de Demis
hassabis pues le doy a gemini el
beneficio de la duda aun cuando Google
ya me defraudó en el pasado con lo que
pal2 llegó a ser pero de ser lo que
promete Pues parecería que estaríamos
dando un paso firme más hacia esta
bonita idea de la Inteligencia
artificial general y eso amigos Eso sí
será el futuro del deeplerling fijaos
como todas las piezas que os he ido
presentando a lo largo de este vídeo se
han ido conectando en una conclusión que
Es evidente y es que el futuro de la
Inteligencia artificial va a ser
fascinante he querido empezar esta nueva
temporada del Canal con esta temática
con este vídeo con un vídeo bastante
extenso con mucho contenido porque
establece muy bien las bases de lo que
vamos a estar aprendiendo Durante este
año fundamento de aprendizaje reforzados
modelos fundacionales multimodalidad
robótica World models Microsoft contra
Google Deep Mind Géminis todos estos
temas los tendréis aquí en el canal Esta
es la nueva temporada y es para vosotros
aquí ahora donde vosotros tenéis que
suscribiros y darle a la campanita para
que no os perdáis nada del contenido que
está por venir y apoyar en patreon todo
este proyecto pero es que además tengo
una sorpresa para vosotros como soy
consciente de que el ritmo al que
produzco estos enormes vídeos
documentales que llevan un montón de
horas de trabajo por detrás pues no nos
da tiempo de cubrir toda la actualidad
todas las novedades todas las
herramientas que van saliendo y que me
gustaría probar y enseñaros y traeros
aquí a YouTube os Traigo una nueva
propuesta
SV la un nuevo canal de YouTube el
Antiguo canal secundario que tenía que
ahora voy a estar llevando en paralelo y
donde voy a subir vídeos con mayor
frecuencia evidentemente vídeos no tan
producidos pero que va a servir para
explorar experimentar probar muchas de
todas estas herramientas que están
saliendo contaros trucos de cómo podéis
sacarle el máximo partido a la
Inteligencia artificial hablar de la
actualidad y bueno una forma de
encontrarnos aquí en YouTube con todo lo
nuevo que está saliendo que no es poco y
poder pues disfrutar de forma más
continua de todo este contenido aprender
los fundamentos del Deep learning que
nos están llevando a la revolución
tecnológica más impresionante de nuestra
historia aquí en este canal cacharrear y
experimentar con todo lo nuevo que va
saliendo cada día en el laboratorio allí
podéis suscribiros ya este nuevo canal y
a ver si llegamos a los 100.000
seguidores solo con un vídeo publicado y
el vídeo que tenéis es este de aquí
donde prueba la herramienta que es una
herramienta espectacular para ser
justamente esto para poder doblarte a
diferentes idiomas poder modificar y
bueno es bastante espectacular lo podéis
ver aquí chicos chicas Muchas gracias
por ver este vídeo y estoy contentísimo
de empezar ya la temporada de 12 csv
関連動画をさらに表示
La guia definitiva para entender la Inteligencia Artificial
DIFERENCIA ENTRE INTELIGENCIA ARTIFICIAL - MACHINE LEARNING - DEEP LEARNING
¿Cómo funciona ChatGPT y toda la inteligencia artificial? (Machine Learning)
¿Qué es y cómo funciona la INTELIGENCIA ARTIFICIAL?
NVIDIA Gana la BATALLA de la Inteligencia Artificial
¿Qué es el Machine Learning?¿Y Deep Learning? Un mapa conceptual | DotCSV
5.0 / 5 (0 votes)