¡FIN DEL JUEGO! Nuevo Avance en AGENTE AGI lo Cambia Todo (Q-STAR)

IA Innova
24 Feb 202440:28

Summary

TLDRFebrero ha sido un mes revolucionario en el campo de la inteligencia artificial, marcado por un avance técnico impresionante por parte de Magic, una empresa privada que afirma haber desarrollado un modelo con capacidades de razonamiento activo similares al misterioso modelo Custar de OpenAI. Con una inversión de 100 millones de dólares de Nat Friedman y Daniel Gross, Magic promete transformar el asistente de codificación AI, superando a competidores como el GitHub Copilot de Microsoft. Este logro destaca el rápido avance tecnológico en IA, sugiriendo un futuro donde la inteligencia artificial podría alcanzar y superar las capacidades humanas de procesamiento y razonamiento, potencialmente dentro de este año, según las tendencias actuales y las inversiones masivas en el sector.

Takeaways

  • 😲 Una empresa privada llamada Magic afirma haber logrado un avance técnico similar al modelo Custard desarrollado por OpenAI, que permite capacidades de razonamiento activo.
  • 💰 Los inversores Nat Friedman y Daniel Gross invirtieron 100 millones de dólares en Magic, después de ver algo que les impresionó enormemente.
  • 🧠 El modelo de Magic dice tener una ventana de contexto de varios millones de tokens, lo que le permite procesar una gran cantidad de información, superando al modelo Gemini Pro de Google.
  • 🤖 El objetivo de Magic es desarrollar una superinteligencia artificial, al igual que lo hace OpenAI.
  • 🔄 El modelo de Magic combina elementos de los transformadores con otros tipos de modelos de aprendizaje profundo, posiblemente utilizando arquitecturas como Mamba.
  • 🚀 Los avances en Inteligencia Artificial están sucediendo a un ritmo cada vez más acelerado, y se espera que la IA general llegue en esta década.
  • ⚠️ Hay preocupaciones sobre la seguridad y las salvaguardias adecuadas para desplegar modelos de IA tan avanzados.
  • 🤝 OpenAI tiene una estrategia de compartimentalización para proteger información sensible, lo que puede explicar las filtraciones limitadas sobre Custard.
  • 🏃‍♂️ Existe el peligro de una carrera hacia el fondo entre empresas de IA, sacrificando la seguridad por la velocidad de implementación.
  • 🔒 OpenAI tiene niveles de mitigación de riesgos de seguridad, pero otras empresas podrían no seguir estas medidas, lo que podría causar problemas.

Q & A

  • ¿Qué empresa logró un avance técnico impresionante similar al modelo de Open AI Custar?

    -Una empresa privada llamada Magic afirma haber logrado un avance técnico muy similar al modelo Custar de Open AI.

  • ¿Qué características destacadas tiene el modelo desarrollado por Magic?

    -Magic afirma haber desarrollado un modelo con capacidades de razonamiento activo similares a Custar, una ventana de contexto ilimitada que permite procesar 3.5 millones de palabras (5 veces más que Google Gemini), y la posibilidad de resolver problemas sin haber sido entrenado explícitamente para ello.

  • ¿Cuál es el objetivo principal de Magic AI?

    -El objetivo principal de Magic AI es desarrollar una superinteligencia artificial segura, al igual que lo hace Google con Open AI.

  • ¿Qué desafíos implica el avance rápido de la inteligencia artificial?

    -El avance rápido de la inteligencia artificial puede llevar a una carrera insegura y descuidada por parte de las empresas, sacrificando pruebas de seguridad y desplegando sistemas peligrosos antes de que equipos más cautelosos puedan hacerlo. Esto se conoce como la 'trampa de Moloch' y puede convertirse en un problema existencial si no se aborda correctamente.

  • ¿Cuál es el nivel de inversión que recibió Magic AI y por qué?

    -Magic AI recibió una inversión de $100 millones de Nat Friedman y Daniel Gross, los cuales afirmaron que el modelo de Magic funcionaba mucho mejor que cualquier cosa que hubieran visto antes en sus evaluaciones.

  • ¿Qué arquitectura podría estar utilizando Magic AI para lograr tales avances?

    -Se especula que Magic AI podría estar utilizando la arquitectura llamada 'Mamba', una arquitectura alternativa a los transformadores que aborda algunas ineficiencias encontradas en modelos como GPT y permite un procesamiento eficiente de secuencias largas.

  • ¿Qué implica el razonamiento activo en los modelos de inteligencia artificial?

    -El razonamiento activo implica que el sistema de inteligencia artificial se involucra en una forma de razonamiento lógico o deducción para resolver problemas, aplicando principios lógicos para encontrar soluciones a problemas para los cuales no ha sido entrenado explícitamente.

  • ¿Cuál es la preocupación sobre el avance de la inteligencia artificial según el ejemplo de la charla TED?

    -La principal preocupación es que las empresas de inteligencia artificial se vean atrapadas en una trampa de Moloch, sacrificando la seguridad y pruebas adecuadas para desplegar sistemas más poderosos lo más rápido posible, lo que podría conducir a consecuencias desastrosas.

  • ¿Cuál es la diferencia entre los modelos de lenguaje grandes actuales y el razonamiento activo?

    -Los modelos de lenguaje grandes actuales operan principalmente mediante el reconocimiento de patrones en grandes cantidades de datos, generando respuestas basadas en probabilidad estadística. Por otro lado, el razonamiento activo implica la capacidad de inferir nueva información o realizar predicciones basadas en deducciones lógicas, aplicando activamente principios generales a situaciones inéditas.

  • ¿Qué afirmó Nat Friedman sobre el modelo de Magic AI?

    -Nat Friedman afirmó que el modelo de Magic AI, que ha entrenado con muchos billones de tokens de contexto, funciona mucho mejor en sus evaluaciones que cualquier cosa que hayan intentado antes.

Outlines

00:00

🚀 Avances increíbles en IA

Este párrafo introduce un avance técnico impresionante logrado por una empresa de propiedad privada llamada Magic, similar al modelo Custar desarrollado por OpenAI. Menciona que este avance es asombroso y que la tecnología de IA está evolucionando rápidamente. Adelanta que proporcionará más detalles sobre este avance en el video porque es absolutamente increíble.

05:00

🧠 Capacidades de Gemini 1.5 Pro de Google

Este párrafo describe las impresionantes capacidades del modelo Gemini 1.5 Pro de Google, que puede procesar enormes cantidades de información, como una hora de video, 11 horas de audio, 30.000 líneas de código y 700.000 palabras. Explica que Google puso a prueba la precisión de este modelo ocultando frases secretas en videos, audios y textos, y que el modelo fue capaz de encontrarlas con una precisión cercana al 99,9%. También muestra dos demostraciones que ilustran las capacidades de Gemini, como la comprensión de un contexto largo y la modificación de código.

10:01

🤖 Razonamiento activo y adaptación dinámica

Este párrafo explica el concepto de razonamiento activo, que implica que el sistema de IA se involucra en una forma de razonamiento lógico o deducción para resolver problemas, en lugar de depender únicamente de patrones estadísticos en los datos de entrenamiento. Destaca que el razonamiento activo también implica la capacidad de actualizar y adaptarse dinámicamente a nuevos problemas y situaciones, aplicando conceptos aprendidos de formas novedosas. Esto es una característica que solo los humanos han poseído hasta ahora. Además, menciona que Magic afirma haber logrado capacidades de razonamiento activo similares al modelo Custar.

15:02

🧠 Limitaciones de los modelos de lenguaje grandes (LLM)

Este párrafo aborda las limitaciones de los modelos de lenguaje grandes (LLM) actuales, como GPT-3 y otros. Explica que estos modelos operan principalmente mediante el reconocimiento de patrones en grandes cantidades de datos de texto y la generación de respuestas basadas en probabilidades estadísticas. Aunque pueden producir texto coherente y contextualmente apropiado, su comprensión está limitada a correlacionar la entrada con contextos similares que han encontrado en sus datos de entrenamiento, sin un verdadero entendimiento y con un razonamiento deductivo limitado. Por lo tanto, pueden enfrentar dificultades en tareas que requieren una comprensión genuina de la causalidad y la inferencia lógica compleja.

20:04

🏗️ Arquitectura propietaria de Magic

Este párrafo explora la arquitectura propietaria que Magic está desarrollando. Menciona que Magic afirma que los transformadores no son la arquitectura final y que tienen algo con una ventana de contexto de millones de tokens. Nat Friedman, quien invirtió 100 millones de dólares en Magic, afirmó que han entrenado un modelo revolucionario con billones de tokens de contexto que funciona mucho mejor en sus evaluaciones que cualquier cosa que hayan intentado antes. Se especula sobre si podrían estar utilizando una arquitectura llamada Mamba, recientemente publicada, que es una alternativa a los transformadores y aborda algunas de sus ineficiencias. También se menciona que el cofundador y COO de Magic, Eric Steinberg, ha trabajado anteriormente en investigar cómo el aprendizaje por refuerzo puede ayudar a los modelos de IA a encontrar soluciones óptimas a problemas. La ambición de Magic es desarrollar una superinteligencia artificial.

25:07

🏗️ Custar y la superinteligencia

Este párrafo aborda los avances de OpenAI con el modelo Custar y su objetivo de desarrollar superinteligencia artificial. Se menciona que Custar logró un avance técnico importante que le permitió empujar el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia delante. Hubo preocupaciones entre algunos empleados de OpenAI sobre las salvaguardias adecuadas para comercializar modelos de IA tan avanzados. Se menciona que OpenAI está dedicando una quinta parte de su capacidad de cómputo para abordar la superinteligencia, y que creen que la superinteligencia podría llegar en esta década. También se menciona que Magic y OpenAI podrían tropezar y superar obstáculos similares en su búsqueda de la superinteligencia.

30:08

⚠️ La trampa de Moloch y el riesgo existencial

Este párrafo aborda el problema de la trampa de Moloch, un concepto que describe una competencia poco saludable entre empresas de IA que las empuja a sacrificar importantes aspectos, como las pruebas de seguridad, en una carrera por ser las primeras en desplegar sistemas de IA cada vez más poderosos. Se explica cómo esta dinámica representa un riesgo existencial, ya que los incentivos a corto plazo empujan a las empresas a ser imprudentes y desplegar sistemas sin las debidas precauciones de seguridad. Se comparte un fragmento de una charla TED que advierte sobre este problema y la importancia de encontrar un equilibrio adecuado entre la aceleración y la seguridad en el desarrollo de la IA.

35:10

📈 Aceleración exponencial en IA

Este párrafo analiza la aceleración exponencial en los avances de la IA. Muestra un gráfico de Arc Investment Management que ilustra cómo cada año se acorta el tiempo estimado para alcanzar la IA, pasando de 50 años a 8 años con los últimos avances como GPT-4 y Custar. Se sugiere que si el error de las predicciones continúa, la IA podría llegar en 2025. También se menciona que OpenAI ha establecido cuatro niveles de riesgo de seguridad y solo desplegará modelos con un riesgo medio o inferior, pero se plantea la preocupación de que otras empresas podrían no seguir estas precauciones. Con la cantidad de inversión, avances y arquitecturas nuevas surgiendo, se expresa una mezcla de emoción, miedo y emoción por los desarrollos en este campo.

40:10

😊 Agradecimientos y cierre

Este párrafo final es un cierre del video. El presentador agradece a los espectadores por ver el video y los invita a dar un like, suscribirse y dejar un comentario si han llegado hasta el final. Menciona que ha sido un febrero increíble y anticipa otra actualización al día siguiente.

Mindmap

Keywords

💡Inteligencia Artificial

Hace referencia al desarrollo de sistemas y programas informáticos capaces de emular la inteligencia humana. En este video, la inteligencia artificial se presenta como una tecnología que está evolucionando rápidamente, con empresas como OpenAI y Magic AI logrando avances significativos. Se habla de modelos de lenguaje grande como GPT-4 y Gemini 1.5 Pro, que son capaces de procesar información a gran escala y realizar tareas con un alto nivel de razonamiento.

💡Avances técnicos

Se refiere a los logros y descubrimientos en el ámbito de la tecnología que permiten el desarrollo de sistemas y aplicaciones más potentes y sofisticados. En el contexto del video, se mencionan avances técnicos como el modelo Custard de OpenAI, que supuestamente permitió mejorar el razonamiento y la capacidad de resolver problemas de los sistemas de inteligencia artificial. También se habla de Magic AI, que presuntamente logró avances técnicos similares a Custard, permitiendo capacidades de razonamiento activo comparables.

💡Razonamiento activo

El razonamiento activo se refiere a la capacidad de un sistema de inteligencia artificial de aplicar lógica y deducción para resolver problemas, en lugar de simplemente imitar patrones estadísticos presentes en los datos de entrenamiento. Un sistema con razonamiento activo puede inferir nueva información, hacer predicciones y encontrar soluciones a problemas que no han sido entrenados explícitamente. En el video, se menciona que tanto OpenAI como Magic AI han logrado avances en el razonamiento activo, permitiendo a sus modelos pensar de una forma más similar a los humanos.

💡Ventana de contexto

La ventana de contexto se refiere a la cantidad de información (palabras, líneas de código, horas de audio, etc.) que un modelo de inteligencia artificial puede procesar y utilizar para generar una respuesta o realizar una tarea. En el video, se destaca que modelos como Gemini 1.5 Pro de Google y los desarrollados por Magic AI tienen una ventana de contexto muy grande, permitiéndoles procesar millones de palabras o líneas de código. Esto les da una ventaja significativa en tareas que requieren el procesamiento eficiente de secuencias largas de información.

💡Superinteligencia

La superinteligencia es un concepto que se refiere a un sistema de inteligencia artificial que supera ampliamente las capacidades cognitivas humanas. En el video, se menciona que tanto OpenAI como Magic AI tienen como objetivo desarrollar una superinteligencia artificial, lo que implica lograr un nivel de inteligencia y razonamiento mucho más allá de lo que los humanos son capaces de alcanzar. Se sugiere que la superinteligencia podría llegar en esta década, lo que plantea preocupaciones y la necesidad de implementar salvaguardias y medidas de seguridad adecuadas.

💡Seguridad en IA

La seguridad en IA se refiere a las medidas y precauciones que se deben tomar para garantizar que los sistemas de inteligencia artificial se desarrollen y se desplieguen de manera segura y responsable, minimizando los riesgos potenciales. En el video, se discute la preocupación de que algunas empresas estén avanzando demasiado rápido en el desarrollo de la IA, sacrificando la seguridad y las pruebas adecuadas debido a la competencia y la presión por ser los primeros en lanzar productos. Se menciona la importancia de invertir tiempo y recursos en la mitigación de riesgos y en implementar salvaguardias antes de desplegar sistemas de IA avanzados.

💡Competencia en IA

La competencia en IA se refiere a la carrera entre diferentes empresas y organizaciones por lograr avances y desarrollar los sistemas de inteligencia artificial más potentes y avanzados. En el video, se menciona que la competencia en este campo se está intensificando, con empresas compitiendo por obtener la mayor capacidad de cómputo, financiamiento y talento. Se plantea la preocupación de que esta dinámica de competencia pueda llevar a las empresas a sacrificar la seguridad y las pruebas adecuadas, con el fin de ser los primeros en desplegar sus sistemas de IA.

💡Inversión en IA

La inversión en IA se refiere a la asignación de recursos financieros y de capital para el desarrollo y la investigación en el campo de la inteligencia artificial. En el video, se menciona que empresas como Magic AI han recibido inversiones de cientos de millones de dólares de parte de inversionistas y fundadores de grandes empresas de tecnología, como GitHub. Estas inversiones masivas les permiten a las empresas acceder a más recursos computacionales, talento y capacidades para acelerar el desarrollo de sus tecnologías de IA.

💡Arquitectura de IA

La arquitectura de IA se refiere a la estructura y diseño subyacente de los modelos y sistemas de inteligencia artificial. En el video, se menciona que las arquitecturas convencionales, como los transformers, están siendo desafiadas por nuevas arquitecturas alternativas como Mamba, que ofrecen ventajas en el procesamiento eficiente de secuencias largas. Se sugiere que Magic AI podría estar utilizando una arquitectura propietaria diferente a los transformers, lo que les permitiría lograr avances como una ventana de contexto de millones de tokens.

💡Trampa de Moloch

La trampa de Moloch es un concepto que describe una situación en la que los incentivos a corto plazo llevan a los participantes a comportarse de manera destructiva, sacrificando el bienestar a largo plazo en favor de ganancias inmediatas. En el video, se menciona este concepto en relación con la competencia en el campo de la IA, donde las empresas se ven tentadas a comprometer la seguridad y las pruebas adecuadas para ser las primeras en desplegar sistemas de IA avanzados, lo que a su vez podría crear riesgos potenciales para la humanidad.

Highlights

Una empresa de propiedad privada acaba de lograr un avance técnico impresionante muy similar al modelo custar según afirman varias fuentes.

Magic también de propiedad privada afirma haber logrado un avance técnico que podría permitir capacidad de razonamiento activo similares al modelo custar desarrollado por Open AI el año pasado.

Según una persona familiarizada con su tecnología, Magic ha entrenado un modelo revolucionario con muchos billones de tokens de contexto que funcionan mucho mejor en nuestras evaluaciones que cualquier cosa que hayamos intentado antes.

Magic afirma poder usar el equivalente a 3.5 millones de palabras de entrada de texto, cinco veces más información que el último modelo Gemini LM de Google.

El modelo de Magic esencialmente tiene una ventana de contexto ilimitada, quizás acercándose más a la forma en que los humanos procesan la información.

Las capacidades actuales de los modelos de lenguaje grandes están limitadas a reconocimiento de patrones y generación de texto, sin un verdadero entendimiento y razonamiento deductivo.

La adaptación dinámica, el ir más allá del simple entrenamiento de patrones y la capacidad de inferir nueva información o hacer predicciones basadas en deducciones lógicas y aplicar activamente principios lógicos para encontrar nuevas soluciones a problemas no entrenados explícitamente, es realmente un cambio significativo en el juego.

Open AI ha logrado filtrar un modelo llamado 'costar' que era capaz de resolver problemas matemáticos que no había visto antes, lo cual es un hito técnico importante.

Existe un concepto llamado 'trampa de Maloch' donde nosotros los humanos somos obligados a hacer esfuerzos inútiles y competir entre nosotros de maneras que eventualmente nos llevan a nuestra perdición.

Estamos viviendo una carrera acelerada entre empresas de IA por conseguir más capacidad de cómputo, más financiamiento y mejor talento, lo que lleva a sacrificar cosas importantes como las pruebas de seguridad.

Si las empresas menos cautelosas despliegan sus sistemas antes que Open AI, esto empujará a Open AI a ser más imprudente.

Esto se ha convertido en una carrera corporativa de quién puede obtener la mayor cantidad de usuarios diarios activos, reduciendo un momento tan crucial a algo que merece reverencia y reflexión.

Cada año, estos avances tecnológicos en IA son como una acción que simplemente sigue bajando, acercándonos más rápido a la IA general.

Open AI dice que solo se desplegará un modelo que pueda desempeñarse a un cierto nivel, pero es incierto si otras compañías seguirán estos parámetros de seguridad.

Estoy emocionada, asustada y aterrorizada por una tecnología tan revolucionaria y su impacto en el mundo.

Transcripts

play00:00

ha sido en febrero muy loco y está a

play00:02

punto de volverse aún más loco Porque

play00:04

una empresa de propiedad privada acaba

play00:06

de lograr un avance técnico

play00:08

impresionante muy muy similar al modelo

play00:10

custar según afirman varias fuentes os

play00:13

voy a contar todos los detalles sobre

play00:15

esto porque es absolutamente increíble y

play00:17

me sorprendió lo rápido que está

play00:19

evolucionando la tecnología de

play00:20

Inteligencia artificial aquí podéis ver

play00:23

que se dice que Magic también de

play00:25

propiedad privada Afirma haber logrado

play00:27

un avance técnico que podría permitir

play00:29

capacidad de razonamiento activo

play00:31

similares al modelo custar desarrollado

play00:34

por Open Ey el año pasado según una

play00:36

persona familiarizada con su tecnología

play00:39

y eso señoras y señores es una

play00:41

afirmación absolutamente asombrosa

play00:43

porque sabemos que custar era un sistema

play00:45

de modelo de aprendizaje profundo del

play00:47

que no sabíamos mucho pero hubo muchas

play00:49

filtraciones teorías y capacidades en

play00:52

ese momento en el que custar se filtró y

play00:55

muchas cosas estaban sucediendo en Open

play00:57

eye que nos llevaron a creer que custar

play00:59

era realmente cierto Más adelante en el

play01:02

vídeo voy a profundizar un poco más en

play01:04

custar porque hay un documento que tiene

play01:06

mucha información sobre el tema y Por

play01:08

qué es tan importante con respecto a lo

play01:10

que ha hecho esta empresa Magic de

play01:12

propiedad privada algunos de los

play01:14

detalles que os voy a mostrar realmente

play01:16

os sorprenderán porque esto demuestra lo

play01:18

rápido que estamos avanzando en este

play01:20

espacio básicamente lo que sucedió es

play01:22

que el exceo de github Nat fredman y su

play01:26

socio de inversión Daniel gross llamaron

play01:28

la atención la semana pasada al escribir

play01:31

un cheque de 100 millones de dólares a

play01:33

Magic el desarrollador de un asistente

play01:35

de codificación de Inteligencia

play01:37

artificial hay muchos asistentes de

play01:39

codificación ya y el más destacado entre

play01:41

ellos es el copiloto de github de

play01:43

Microsoft Entonces qué vieron fredman y

play01:46

grossen Magic recordad que estos tipos

play01:49

escribieron un cheque de 100 millones de

play01:51

dólares a esta empresa de la nada porque

play01:53

vieron algo que les hizo pensar Bueno si

play01:56

invertimos 100 millones seguramente

play01:58

recuperaremos nuestro dinero y

play02:00

básicamente creen que esto es

play02:02

Probablemente lo mejor que ya ha

play02:04

sucedido voy a entrar en más detalles

play02:06

sobre eso solo voy a repasar esta parte

play02:08

rápidamente porque quiero mostraros Cómo

play02:11

todo esto está conectado básicamente

play02:13

afirman que la respuesta va más allá de

play02:15

la afirmación de la empresa de que

play02:17

pronto podrá proporcionar a sus clientes

play02:19

compañeros de codificación completamente

play02:21

automatizados No solo un asistente

play02:23

semiautomatizado que completa fragmentos

play02:26

de escritura de código como hace github

play02:28

copilot así que si no lo sabéis eso es

play02:31

exactamente lo que hace github copilot

play02:33

simplemente completa fragmentos de

play02:35

código y no es como un compañero de

play02:37

trabajo totalmente automatizado entonces

play02:40

Supongo que lo que están avanzando es

play02:42

hacia un marco de agente que su avance

play02:44

es claramente algo realmente realmente

play02:46

increíble esencialmente dicen que la

play02:48

startup ha creado un nuevo tipo de

play02:50

modelo de lenguaje grande que puede

play02:52

procesar enormes cantidades de datos

play02:54

conocido como una ventana de contexto

play02:57

ahora lo que quiero hablaros es sobre

play02:59

sobre esta semana increíble Creo que

play03:01

este mes probablemente será el mes más

play03:03

grande de la Inteligencia artificial

play03:05

probablemente de este año sé que la ía

play03:08

está en un crecimiento exponencial pero

play03:10

creo que con las elecciones que se

play03:11

avecinan más adelante en el año es

play03:14

posible que esas cosas ahoguen un poco

play03:16

de las cosas de la ía Pero esto es una

play03:18

locura probablemente la cosa más grande

play03:21

entonces esencialmente Y sé que algunos

play03:23

de vosotros no visteis esto porque fue

play03:25

opacado esencialmente habla sobre cómo

play03:28

Magic Afirma poder Us el equivalente a

play03:30

3.5 millones de palabras de entrada de

play03:33

texto cinco veces más información que el

play03:35

último modelo gemini lm de Google que a

play03:38

su vez fue un gran avance con respecto

play03:40

al gpt 4 de Open eye En otras palabras

play03:43

el modelo de Magic esencialmente tiene

play03:45

una ventana de contexto ilimitada quizás

play03:48

acercándose más a la forma en que los

play03:50

humanos procesan la información ahora

play03:53

por qué esto es una locura bueno por

play03:55

supuesto hay varias implicaciones más

play03:57

amplias absolutamente insanas Pero lo

play04:00

primero que creo que es absolutamente

play04:01

insano y mientras ves Este vídeo vas a

play04:04

entender lo increíble que es este avance

play04:06

es porque si no has prestado atención

play04:09

básicamente el último gemini llm de

play04:11

Google fue enorme y muchas personas se

play04:14

lo perdieron y estoy a punto de

play04:16

profundizar en eso y básicamente están

play04:18

afirmando que sabes es cinco veces vale

play04:21

cinco veces más que gemini y estoy a

play04:24

punto de mostraros lo increíble que es

play04:25

yemy y cuando veáis esto Vais a estar

play04:28

como de qué hablas pero creo que lo más

play04:31

loco aquí es por supuesto la ventana de

play04:33

contexto potencialmente ilimitada creo

play04:35

que si eso es cierto y ya sabes

play04:37

potencialmente porque cuando hablan

play04:39

sobre el tipo de avance esencialmente

play04:41

eso podría cambiar completamente el

play04:43

juego ahora una cosa más de la que

play04:45

también quiero hablar porque esto es

play04:47

algo que vosotros necesitáis saber es

play04:49

que esencialmente están diciendo que

play04:51

pudieron procesar cinco veces más

play04:53

información que el último yemini llm de

play04:55

Google y si no has visto esto porque fue

play04:57

pacado por el producto sora de penai que

play05:00

por supuesto fue algo absolutamente

play05:02

increíble vosotros solo Vais a seguir

play05:05

adelante y ver esto así que

play05:06

esencialmente el gemini 1.5 pro de

play05:09

Google fue lanzado hace un par de días y

play05:11

sé que nadie prestó atención a esto a

play05:13

menos que estuvieras muy metido en el

play05:15

espacio de la tecnología de ia porque

play05:17

fue algo que la mayoría de las personas

play05:19

Simplemente no vieron probablemente

play05:21

habría sido el titular principal en el

play05:23

espacio de ia si no fuera por la

play05:25

tecnología de texto en vídeo sora de

play05:27

Open eye que por supuesto es genial y

play05:29

asombrosa pero sora se llevó todo el

play05:32

protagonismo entonces lo que estás

play05:34

viendo en pantalla ahora es básicamente

play05:35

el gemini 1.5 pro de Google y lo

play05:38

principal de este modelo si realmente no

play05:40

lo sabías es que puede procesar una

play05:43

longitud de contexto enorme estoy

play05:45

hablando de una hora de vídeo 11 horas

play05:47

de audio 30,000 líneas de código y

play05:50

700,000 palabras no sé ni Cuántas

play05:53

novelas son pero es mucho puedes verlo

play05:55

Comparado con gemini puedes verlo

play05:57

Comparado con gpt 4 T Turbo Y también

play06:00

puedes verlo Comparado con Claude 2.1

play06:03

Este es un monstruo está fuera de serie

play06:05

en comparación con todo lo que

play06:07

conocíamos y ya sabíamos que las

play06:09

ventanas de contexto más largas estaban

play06:11

llegando porque vimos varios documentos

play06:13

de investigación diferentes que seguían

play06:15

aumentando la ventana de contexto ahora

play06:17

podrías estar preguntándote bueno tienen

play06:20

ventanas de contexto más largas pueden

play06:22

analizar una hora de vídeo pueden

play06:24

analizar 11 horas de audio pueden

play06:26

analizar 30,000 líneas de código 700000

play06:29

palabras todo eso está bien pero es

play06:32

incluso preciso porque sabemos que

play06:34

algunas de las compañías que lo hicieron

play06:36

antes lo hicieron pero no fue tan

play06:38

preciso en lo que estaban haciendo

play06:40

Entonces una cosa que hicieron para

play06:41

probar esto y porque os estoy mostrando

play06:43

sobre Google es porque si masic está

play06:45

afirmando que han hecho algo mejor que

play06:47

lo que hizo Google eso es increíble Así

play06:50

que Primero necesitan entender Cómo

play06:52

funciona el gemini pro de Google y luego

play06:54

cuando entiendan si Magic lo superó

play06:56

comprenderán Por qué las implicaciones

play06:58

son tan locas

play06:59

básicamente lo que hizo Google fue ya

play07:02

sabes Como he mencionado antes tenía una

play07:04

ventana de contexto muy larga donde

play07:06

podías poner como 11 horas de audio 22

play07:09

horas de audio 3 horas de vídeo y 7

play07:12

millones de palabras o 10 millones de

play07:14

tokens básicamente lo que hicieron para

play07:16

probar esto porque la gente se

play07:18

preguntaba si era preciso o no fue

play07:20

esconder una frase secreta en el vídeo

play07:22

para el vídeo fue solo un fotograma de

play07:24

todos ellos durante creo que alrededor

play07:26

de 2 horas ocultaron un fotograma

play07:29

pidieron a la Inteligencia artificial

play07:30

que lo encontrara y lo hizo en el audio

play07:33

ocultaron una oración como tres palabras

play07:35

y lo encontró era como Cuál es la

play07:39

palabra secreta y logró encontrarla y

play07:41

luego en el texto también fue capaz de

play07:43

hacerlo y creo que hubo algunos errores

play07:46

muy pequeños en el texto pero en general

play07:48

podéis ver que la recuperación exitosa

play07:50

versus la no exitosa lo increíblemente

play07:52

preciso que es fue algo así como un 99.9

play07:56

por algo así prácticamente perfecto

play07:59

entonces básicamente nos estamos

play08:00

moviendo hacia una era en la que estas

play08:02

ventanas de contexto super lgas van a

play08:04

ser absolutamente increíbles y la

play08:06

implicación si masica ha hecho algo

play08:08

donde básicamente ha vencido a Google

play08:10

con una ventana de contexto ilimitada ni

play08:13

siquiera sé si eso es posible creo que

play08:15

las increíbles implicaciones de esto son

play08:17

que ya sabes por supuesto sabemos que

play08:20

recordad Open eye va a tener que sacar

play08:23

algo increíble de la manga ahora lo que

play08:25

también quiero mostraros es por supuesto

play08:27

dos clips de gemini Porque si pensáis

play08:30

que esto es solo una ventana de contexto

play08:32

larga pero a quién le importa porque no

play08:34

es más inteligente que el gpt 4 no es

play08:37

más inteligente que el clae 2.1 solo

play08:40

para que lo sepáis en las pruebas el

play08:42

gemini 1.5 Pro está superando al gpt 4

play08:45

Turbo en todas las pruebas solo para

play08:47

dejar eso ahí y por supuesto si puede

play08:50

analizar una hora de vídeo 11 horas de

play08:52

audio y todas estas otras cosas lo que

play08:54

realmente puede hacer son diferentes

play08:56

tareas y ahí es donde os voy a mostrar

play08:59

estas demos y luego volveré a explicar

play09:01

exactamente cómo funciona esta es una

play09:03

demo de la comprensión de un contexto

play09:05

largo una característica experimental en

play09:08

nuestro último modelo gemini 1.5 Pro

play09:11

vamos a revisar algunos ejemplos de

play09:13

comandos utilizando el código de ejemplo

play09:15

de 3 J que suma más de 800,000 tokens

play09:19

extraemos el código de todos los

play09:20

ejemplos de 3 j y lo reunimos en este

play09:23

archivo de texto que trajimos a Google

play09:25

Ai Studio aquí pedimos al modelo que

play09:28

encontrara tres ejempos para aprender

play09:29

sobre animación de personajes el modelo

play09:32

examinó cientos de ejemplos Y seleccionó

play09:34

estos tres uno sobre mezcla de

play09:36

animaciones esqueléticas otros sobre

play09:38

poses y otros sobre objetivos de morph

play09:40

para animaciones faciales todas son

play09:43

buenas opciones según nuestra solicitud

play09:45

en esta prueba el modelo tardó alrededor

play09:47

de 60 Segundos en responder a cada uno

play09:50

de estos comandos pero tened en cuenta

play09:52

que los tiempos de latencia pueden ser

play09:54

más altos o más bajos ya que esta es una

play09:56

característica experimental que estamos

play09:58

optimizando a continuación preguntamos

play10:01

qué controla las animaciones en el demo

play10:03

de leles tokyio como podéis ver aquí el

play10:05

modelo pudo encontrar ese demo y explicó

play10:08

que las animaciones están incrustadas

play10:10

dentro del modelo gltf luego quisimos

play10:12

ver si podía personalizar este código

play10:14

para nosotros Así que preguntamos

play10:17

Muéstrame algún código para agregar un

play10:19

control deslizante para controlar la

play10:21

velocidad de la animación como los otros

play10:23

demos tienen Así es como se veía antes

play10:25

en el sitio original de TR j y aquí está

play10:28

la versión modific

play10:29

es la misma escena pero se añadió este

play10:31

pequeño control deslizante para acelerar

play10:33

frenar o incluso detener la animación

play10:36

sobre la marcha utilizó esta biblioteca

play10:38

gui que tiene los otros demos configuró

play10:41

un parámetro llamado Animation Speed y

play10:44

lo conectó al mezclador en la escena

play10:46

como todos los modelos generativos las

play10:48

respuestas no siempre son perfectas De

play10:50

hecho no hay una función de

play10:51

inicialización en este demo como en la

play10:53

mayoría de los otros sin embargo el

play10:56

código que nos dio hizo exactamente lo

play10:57

que queríamos luego intentamos una

play11:00

entrada multimodal dándole una captura

play11:02

de pantalla de uno de los demos no le

play11:04

dijimos nada sobre esta captura de

play11:06

pantalla y simplemente le preguntamos

play11:08

dónde podríamos encontrar el código para

play11:10

este demo como podéis ver aquí el modelo

play11:13

pudo revisar los cientos de demos y

play11:14

encontrar el que coincidía con la imagen

play11:17

luego le preguntamos al modelo que

play11:18

hicieron cambiar la escena preguntándole

play11:20

cómo podíamos Modificar el código para

play11:23

que el terreno fuera más plano el modelo

play11:25

pudo centrarse en la función en

play11:27

particular llamada generate height y nos

play11:29

mostró la línea exacta para ajustar

play11:31

debajo del código explicando claramente

play11:34

Cómo funciona el cambio en la versión

play11:36

actualizada se puede ver que el terreno

play11:38

es efectivamente más plano tal como

play11:40

pedimos probamos una tarea más de

play11:42

modificación de código utilizando este

play11:44

demo de texto en 3D preguntamos estoy

play11:47

viendo el demo de geometría de texto y

play11:49

quiero hacer algunos ajustes Cómo puedo

play11:51

cambiar el texto para que diga Goldfish

play11:54

Y hacer que los materiales de la malla

play11:56

se vean realmente brillantes y metálicos

play11:59

puedes ver que el modelo identificó el

play12:00

demo correcto y mostró las líneas

play12:02

precisas en el que deben ajustarse ahora

play12:05

que has visto esta parte y entiendes lo

play12:06

increíble que es puedes comprender que

play12:09

este tipo de avance lo que sea que hayan

play12:11

hecho que les permitió potencialmente

play12:13

superar a Google con una ventana de

play12:15

contexto esencialmente ilimitada o 3.5

play12:18

millones de palabras o cinco veces más

play12:20

que el último gemini de Google no estoy

play12:22

segura si fue el último gemini o el 1.5

play12:25

Pro pero Incluso si lo superaron Estos

play12:27

tipos invirtieron como 100 millones y

play12:30

eso no es una pequeña cantidad eso es

play12:32

una cantidad enorme definitivamente es

play12:35

algo increíble tenemos que analizarlo

play12:38

incluso si no es la ventana de contexto

play12:39

tenemos que analizar esto porque esta es

play12:41

la parte loca como dije afirmaron que

play12:44

habilita capacidades de razonamiento

play12:46

activo similares al modelo custar

play12:48

desarrollado por Open eye según una

play12:50

persona familiarizada con la tecnología

play12:52

y eso podría ayudar a resolver una de

play12:54

las principales quejas con Los Grandes

play12:56

modelos de lenguaje qu es que imitan lo

play12:59

que han visto en sus datos de

play13:00

entrenamiento en lugar de usar la lógica

play13:02

para resolver nuestros problemas en

play13:04

cuanto a comoo Magic desarrolla su

play13:06

modelo de lenguaje esta persona dijo que

play13:08

tomó algunos elementos de los

play13:10

transformadores un tipo de Inteligencia

play13:12

artificial que impulsa productos de

play13:13

consumo como chat gpt y asistentes de

play13:16

codificación como copilot y los fusionó

play13:19

con otros tipos de modelos de

play13:20

aprendizaje profundo Esto es algo que

play13:22

explorar más adelante ya que las

play13:24

diferentes arquitecturas son algo que la

play13:26

gente no ha comprendido como una

play13:27

realidad la arquitectura de los

play13:29

transformadores ha dominado el espacio

play13:31

desde que fueron inventados Y por

play13:33

supuesto es algo que actualmente está

play13:35

siendo desafiado por Algunos enfoques

play13:37

diferentes entonces básicamente lo que

play13:40

también tenemos aquí es el uso de la

play13:42

lógica para resolver nuestros problemas

play13:44

Por qué cambia el juego el razonamiento

play13:46

activo bueno esencialmente con la

play13:48

resolución lógica de problemas el

play13:50

razonamiento activo implica que el

play13:52

sistema de Inteligencia artificial Se

play13:53

involucra en una forma de razamiento

play13:55

lógico o deducción para resolver

play13:58

problemas esto significa que en teoría

play14:00

el sistema puede aplicar principios

play14:02

lógicos para encontrar soluciones a

play14:04

problemas para los cuales no ha sido

play14:06

entrenado explícitamente al entender las

play14:08

relaciones y reglas subyacentes y Esto

play14:10

va más allá de la simple coincidencia de

play14:12

patrones en lugar de depender únicamente

play14:15

de patrones estadísticos en los datos en

play14:17

los que fue entrenado un sistema capaz

play14:19

de razonamiento activo podría inferir

play14:21

nueva información o realizar

play14:22

predicciones basadas en deducciones

play14:24

lógicas esta capacidad le permitía

play14:27

pensar de manera más pare a un ser

play14:29

humano de términos de aplicar principios

play14:31

generales a escenarios específicos e

play14:33

inéditos ahora lo interesante es que el

play14:36

razonamiento activo también implica la

play14:37

capacidad de actualizar y adaptarse

play14:39

dinámicamente a nuevos problemas y

play14:41

situaciones aplicando conceptos

play14:43

aprendidos de formas novedosas no solo

play14:45

recordando o recombinado información de

play14:47

los datos de entrenamiento Así que

play14:50

chicos ahí tenéis esa adaptación

play14:52

dinámica el razonamiento activo y la

play14:54

adaptación a nuevos problemas y

play14:55

situaciones es un tipo de inteligencia

play14:57

que solo los humanos nos han poseído

play14:59

vale la diferencia radica en que las

play15:02

capacidades actuales de los modelos de

play15:04

lenguaje grandes llm por sus siglas en

play15:06

inglés son esencialmente de

play15:08

reconocimiento de patrones y generación

play15:10

de texto los llm operan principalmente

play15:13

mediante el reconocimiento de patrones

play15:15

en grandes cantidades de datos y datos

play15:17

de texto generando respuestas basadas en

play15:19

la probabilidad estadística sobresalen

play15:22

en la producción de texto coherente y

play15:24

contextualmente apropiado según los

play15:25

ejemplos que han visto durante el

play15:27

entrenamiento y esencial m imitan

play15:29

respuestas similares a las humanas los

play15:31

llm pueden generar respuestas que imitan

play15:34

texto similar al humano en varios

play15:35

dominios y estilos pero su comprensión

play15:38

está limitada a correlacionar la entrada

play15:40

con contextos similares que han

play15:41

encontrado en sus datos de entrenamiento

play15:43

sin un verdadero entendimiento y por

play15:46

supuesto tienen un razonamiento

play15:48

deductivo limitado en esencia aunque los

play15:51

llm a veces pueden parecer estar

play15:53

razonando su proceso se trata más de

play15:55

coincidir patrones que de deducción

play15:57

lógica real pueden enfrentar

play15:59

dificultades en ciertas tareas que

play16:01

requieren una comprensión genuina de la

play16:02

casualidad y la inferencia lógica

play16:04

compleja esencialmente si esas tareas no

play16:07

están bien representadas en sus datos de

play16:09

entrenamiento Así que la adaptación

play16:11

dinámica el ir más allá del simple

play16:13

entrenamiento de patrones y la capacidad

play16:16

de inferir Nueva información o hacer

play16:18

predicciones basadas en deducciones

play16:20

lógicas y aplicar activamente principios

play16:22

lógicos para encontrar nuevas soluciones

play16:24

a problemas no entrenados explícitamente

play16:27

es realmente un cambio significativo en

play16:29

el juego Esto es algo que hemos

play16:31

observado en internet desde el

play16:32

lanzamiento de gini 1.5 Pro porque

play16:35

esencialmente lo que las personas pueden

play16:37

hacer ahora es resolver una gran

play16:39

cantidad de problemas extensos ya sea

play16:41

que tengan 30,000 líneas de código

play16:43

frente a digamos solo 500 líneas de

play16:46

código o incluso 10 a 100 líneas de

play16:49

código pueden resolver problemas

play16:51

enormemente diferentes básicamente al

play16:53

comprender todo este texto y poder

play16:55

asimilarlo se produce un cambio completo

play16:57

en el juego acercándonos más al

play17:00

pensamiento humano debido a ese

play17:01

razonamiento activo combinado con ello

play17:03

Es por eso que Esto va a ser un cambio

play17:05

de juego completo ahora algo que quería

play17:08

explorar y que encontré fascinante es el

play17:10

hecho de que Magic realmente habla de

play17:12

una arquitectura propietaria Aquí hay

play17:14

una pequeña presentación de Magic que

play17:16

está a punto de volverse bastante

play17:17

sorprendente dice que Magic está

play17:19

trabajando en modelos de código a escala

play17:21

de frontier para construir un

play17:23

colaborador no solo un copiloto afirma

play17:26

que creen que cenation es tanto un

play17:28

producto como un camino hacia la

play17:29

Inteligencia artificial general y que la

play17:31

seguridad de la agi es importante y

play17:34

puede resolverse además menciona que

play17:36

para construir un gran producto de ia

play17:38

necesitan entrenar su propio modelo a

play17:40

escala de frontier lo que están haciendo

play17:42

básicamente y el último punto y el punto

play17:45

principal son esencialmente las razones

play17:47

por las que voy a hablar de esto el

play17:49

último punto es algo que quiero

play17:50

mencionar afirman que los

play17:52

transformadores no son la arquitectura

play17:54

final tienen algo con contexto de varios

play17:56

millones de tokens ese algo Bastante

play17:59

sorprendente ahora bien este tweet al

play18:01

principio lo leí y pensé que no

play18:03

significaba mucho pero luego lo leí de

play18:05

nuevo Y pensé Oh esto Es realmente

play18:08

importante creo Nat friedman el hombre

play18:10

que invirtió 100 millones de dólares

play18:13

afirmó que Magic dep ha entrenado un

play18:15

modelo Revolucionario con muchos

play18:16

billones de tokens de contexto que

play18:18

funcionan mucho mejor en nuestras

play18:20

evaluaciones que cualquier cosa que

play18:21

hayamos intentado antes quiero que veáis

play18:24

lo que dijo allí funcionó mucho mejor en

play18:26

nuestras evaluaciones que cualquier cosa

play18:28

que hayamos inventado Antes aunque este

play18:30

tweet fue antes del lanzamiento de

play18:32

gemini pro de Google él está diciendo

play18:34

que es mucho mejor en nuestras

play18:35

evaluaciones que cualquier cosa que ya

play18:37

hemos intentado antes y esto es algo

play18:39

impactante porque no está diciendo que

play18:41

sea ligeramente mejor está diciendo que

play18:44

es mucho mejor están utilizando esto

play18:46

para construir un programador de I

play18:48

avanzado que puede razonar sobre toda tu

play18:50

base de código y la transclusion de tu

play18:53

árbol de dependencias Y si Esto suena

play18:55

como magia lo entiendes básicamente esta

play18:58

diciendo que quedó tan impresionado que

play19:00

están invirtiendo 100 millones en la

play19:02

empresa hoy creo que es bastante

play19:03

impactante que hayan visto algo en esa

play19:05

presentación Estos tipos estaban

play19:07

trabajando en su producto y vieron algo

play19:09

que probaron y dijeron esto es tan

play19:11

increíble que vamos a invertir 100

play19:13

millones de dólares en esto tienes que

play19:15

entender que están compitiendo contra

play19:17

Microsoft github copilot respaldado

play19:19

esencialmente por Open eye y este tipo

play19:21

está invirtiendo 100 millones en ello

play19:24

básicamente está apostando a que lo que

play19:26

tienen es realmente realmente bueno Como

play19:28

he mencionado él dijo que la mejor

play19:30

manera de entender Si alguien realmente

play19:32

tiene la situación bajo control Supongo

play19:35

o si respalda su posición es el dinero

play19:38

el dinero habla Y estos chicos están

play19:40

poniendo 100 millones están respaldando

play19:42

sus palabras y están diciendo Mirad

play19:45

creemos que esto es tan bueno que vamos

play19:46

a poner 100 millones de nuestro propio

play19:48

dinero aquí no solo 10 no solo 20 no

play19:51

solo 30 100 millones es bastante dinero

play19:54

eso es bastante significativo están

play19:56

diciendo que Las evaluaciones son

play19:58

mejores que cualquier cosa que hayamos

play20:00

intentado antes y eso es bastante

play20:02

asombroso el siguiente punto por

play20:04

supuesto es aquí y me preguntaba estaba

play20:07

preguntándome durante algún tiempo y por

play20:10

supuesto esto es pura especulación y por

play20:12

supuesto No lo sé pero estoy suponiendo

play20:15

que potencialmente Podrían haber

play20:16

utilizado esta arquitectura si no sabes

play20:19

de qué se trata esto es mamba

play20:20

básicamente hace alrededor de dos meses

play20:23

se publicó un artículo llamado mamba

play20:26

linear time sequence modeling with

play20:28

selective State spaces y esencialmente

play20:30

se promocionó como un reemplazo para los

play20:33

Transformers con un rendimiento

play20:34

excepcional en ventanas de contexto

play20:36

largas no es un reemplazo directo para

play20:38

los Transformers pero es una

play20:40

arquitectura alternativa que aborda

play20:42

algunas de las ineficiencias encontradas

play20:44

en los modelos Transformer que alimentan

play20:46

a chat gpt y todos los demás llm que

play20:49

conocemos mamba utiliza modelos basados

play20:51

en estado ssm por sus siglas en inglés

play20:55

para lograr una complejidad temporal

play20:57

lineal para la computación de entrada lo

play21:00

que puede ser especialmente beneficioso

play21:02

para procesar secuencias largas de

play21:03

manera eficiente se ha demostrado que

play21:06

supera los Transformers en velocidad de

play21:07

indeferencia y eficiencia especialmente

play21:10

en tamaños de contexto más grandes es

play21:13

importante destacar que aunque mamba ha

play21:15

demostrado un rendimiento impresionante

play21:17

el modelado de lenguaje y tareas que

play21:19

involucran secuencias de audio y ADN no

play21:22

es superior en todos los aspectos es por

play21:24

eso que dije que no estoy realmente

play21:26

segura por ejemplo hubo un estudio del

play21:28

instituto Camper en la universidad de

play21:30

Harvard que mostró que los Transformers

play21:33

son mejores que mamba en tareas que

play21:34

implican copiar y recuperar información

play21:36

del contexto de entrada como el

play21:38

aprendizaje de pocos ejemplos y tareas

play21:40

de recuperación comunes en modelos de

play21:42

foundation Sin embargo los modelos de

play21:45

mamba son particularmente mejores que

play21:47

los Transformers en tareas que

play21:48

involucran el procesamiento eficiente de

play21:50

secuencias largas y en escenarios donde

play21:53

la eficiencia computacional es crucial

play21:55

la arquitectura de mamba que combina

play21:57

elementos de Mod de los de espacio

play21:58

Estatal ssm y redes neuronales

play22:01

recurrentes le permite destacarse en

play22:03

varias áreas específicas como el

play22:05

modelado de lenguaje demostrando un

play22:07

rendimiento impresionante en tareas de

play22:09

evaluación previa y posterior a la

play22:11

capacitación incluso compitiendo de

play22:13

manera paralela con transformes que

play22:15

tienen el doble de su tamaño y por

play22:17

supuesto estas largas secuencias Este

play22:19

modelo puede manejar secuencias largas

play22:21

eficientemente debido a su técnica

play22:23

eficiente de modelado de secuencias

play22:25

mamba es más adecuado para tareas que

play22:28

requieren el procesamiento de

play22:29

información en secuencias extendidas

play22:31

esto se atribuye a su capacidad para

play22:33

escalar linealmente con la longitud del

play22:35

contexto de la secuencia lo que hace

play22:37

especialmente beneficioso para

play22:39

aplicaciones donde se involucran tamaños

play22:41

de contexto largos como la programación

play22:44

además demuestra su rendimiento

play22:45

excepcional en diversos dominios como

play22:47

audio y genómica como ya discutimos

play22:50

también aborda los límites

play22:52

computacionales en escenarios con

play22:54

contextos largos superando algunas

play22:56

limitaciones de los Transformers otro

play22:58

punto interesante es su capacidad para

play23:00

el aprendizaje en contexto Aunque mana

play23:02

igual al rendimiento de los modelos

play23:04

Transformer para el aprendizaje en

play23:05

contexto se destaca por escalar bien con

play23:08

el número de ejemplos en contexto esto

play23:10

sugiere que mamba mantiene una ventaja

play23:12

considerable en situaciones donde

play23:14

aprovechar la información del contexto

play23:16

es crucial para el rendimiento de la

play23:18

tarea entonces está claro que cualquiera

play23:20

que sea la arquitectura que estos chicos

play23:22

tengan Porque dijeron que los

play23:24

transformes no son la arquitectura final

play23:26

y tienen algo con una de contexto de

play23:28

varios millones de tokens podría ser

play23:30

mamba no estoy completamente segura si

play23:33

este es el modelo particular pero no me

play23:35

sorprendería sin embargo este modelo

play23:37

Tiene algunas limitaciones como la falta

play23:40

de un ecosistema sólido pero al mismo

play23:42

tiempo encuentro un poco sorprendente

play23:44

que este artículo se haya publicado hace

play23:46

dos meses y de repente Google Presenta

play23:48

una ventana de contexto de 10 millones y

play23:51

estos chicos presentan algo con una

play23:53

ventana de contexto de varios millones

play23:55

prácticamente ilimitada me pregun

play23:57

pregunto si están utilizando mamba para

play23:59

lograr esto O si están utilizando una

play24:01

arquitectura completamente diferente que

play24:03

han desarrollado combinada con la

play24:05

esencia de los llm no estoy

play24:07

completamente segura de En qué estarán

play24:09

trabajando pero creo que una vez que la

play24:11

nueva arquitectura esté lista ya sabes

play24:14

Supongo que podría decir que se

play24:16

introducirá en la comunidad en general

play24:18

por supuesto Estos tipos son una empresa

play24:20

privada y tratarán de proteger lo que

play24:22

sea que tengan sea cual sea la

play24:24

arquitectura propietaria que estén

play24:25

utilizando Creo que será fascinante Y

play24:28

por supuesto esencialmente el tipo que

play24:30

ahora es el coo de la empresa Magic

play24:32

Magic Ai laps y básicamente afirma que

play24:35

estamos escribiendo código con la misión

play24:37

de construir una superinteligencia

play24:39

segura Así que está claro que su

play24:41

objetivo es la superinteligencia y en el

play24:43

artículo se menciona que Eric steinberg

play24:46

el cofundador I coo de Magic ha lidiado

play24:49

con el problema de hacer que los modelos

play24:50

de Inteligencia artificial razonen

play24:52

anteriormente trabajó en metap

play24:55

plataformas investigando Cómo el

play24:56

aprendizaje por refuerzo las técnicas de

play24:59

aprendizaje automático que ayudan ya

play25:02

sabes al rendimiento destacado de los

play25:04

lms de Open eye pueden ayudar a los

play25:06

modelos de Inteligencia artificial

play25:08

encuentren soluciones óptimas a

play25:10

problemas incluso con información

play25:12

imperfecta y su ambición es más grande

play25:14

que la de un compañero programador

play25:16

recordad el objetivo de esta empresa es

play25:18

de desarrollar una superinteligencia

play25:20

artificial de la misma manera que lo

play25:22

hace Google Y eso es lo que marca la

play25:24

diferencia chicos Así que el hecho de

play25:26

que hayan logrado un avance similar a

play25:28

quar y el hecho de que estén trabajando

play25:30

en la superinteligencia es bastante

play25:32

increíble Porque creo de que el hecho de

play25:35

que ambos estén dirigiéndose en la misma

play25:37

dirección significa que eventualmente

play25:40

tropezarás y eventualmente superarán

play25:43

algunos de los mismos obstáculos que

play25:45

enfrentan ahora esto tiene algunas

play25:47

ramificaciones muy importantes y una de

play25:49

las cosas que quiero saber por supuesto

play25:51

es Cuál es el producto porque

play25:53

esencialmente dicen que algunos de los

play25:55

antiguos colegas de fredman en jiu se

play25:58

han unido a él en Magic incluido Max

play26:00

running vicepresidente de diseño en

play26:03

github así como algunos otros

play26:05

diseñadores de gtube según una persona

play26:07

con conocimiento de lo más alto

play26:09

probablemente serán cruciales para

play26:11

desarrollar el primer producto

play26:12

disponible comercialmente de la empresa

play26:15

que según he escuchado Está programado

play26:17

para ser lanzado en los próximos meses

play26:19

así Que supongo que potencialmente vamos

play26:21

a tener algo que supera ya sabes a jiub

play26:24

copilot y piensa en esto si est equipos

play26:28

digamos logran esto tienen algo que

play26:30

tiene razonamiento activo similar a qar

play26:33

que Recuerda la polémica de Open Ey

play26:35

sobre qar siendo desactivado de lo que

play26:38

vamos a sumergirnos en un momento pero

play26:40

si tenéis algo que tiene razonamiento

play26:42

activo algo que tiene ya sabes una

play26:44

ventana de contexto activa limitada algo

play26:47

que digamos supera ya sabes a Google

play26:49

gemini 1.5 pro y digamos que es tan

play26:52

bueno Y estos chicos dicen que es mejor

play26:54

en nuestras evaluaciones que cualquier

play26:56

cosa que hayan probado antes creo que si

play26:58

lanzan ese producto y ese producto es

play27:00

mejor que jeub copilot que

play27:02

potencialmente creo que lo será creo que

play27:05

tenemos en situación en nuestras manos

play27:07

que si ese producto simplemente supera

play27:09

todo Recuerda que github está respaldado

play27:11

por Microsoft Supongo que está

play27:13

utilizando chat gpt vamos a tener un

play27:16

problema porque lo que sucederá es que

play27:18

estos tipos lanzarán su producto

play27:20

arrasarán con la industria y luego opene

play27:23

probablemente lanzará gpt 5 o tal vez

play27:26

una versión aún más zada porque bueno no

play27:29

quieren perder la carrera porque todos

play27:30

conocen chat gpt y si estos tipos están

play27:33

desarrollando su propio modelo de

play27:34

frontera patentado que dijeron que van a

play27:37

hacerlo Recuerda que dijeron que van a

play27:39

lanzar su propio modelo patentado su

play27:41

objetivo es Construir la

play27:43

superinteligencia no solo un compañero

play27:45

de código está diciendo Ya sabes para

play27:48

construir un gran producto necesitamos

play27:50

entrenar nuestro propio modelo de escala

play27:52

de frontera y los transformadores no son

play27:54

la arquitectura final tenemos algo con

play27:56

una ventana de contexto multimillonaria

play27:58

que ahora Aparentemente tiene

play28:00

razonamiento act lo que significa ya

play28:03

sabes que la carrera podría estar en

play28:05

marcha chicos esto podría ser una

play28:07

carrera impresionante vale Y es por eso

play28:10

que estoy diciendo que esto podría ser

play28:12

absolutamente increíble Ahora si quieres

play28:14

recordar cuar fue bastante sorprendente

play28:17

porque el día en que Sam alman fue

play28:19

despedido él insinuó un avance técnico

play28:21

que la empresa había logrado que le

play28:23

permitió empujar el velo de la

play28:24

ignorancia hacia atrás y la frontera del

play28:26

descubrimiento hacia delante hubo una

play28:29

entrevista en la que dijo eso y por

play28:31

supuesto kar esencialmente hizo un

play28:33

avance antes del despido de altman

play28:35

avivando la emoción y la preocupación sé

play28:38

que mucha gente se preguntaba si esa

play28:40

filtración era cierta pero esencialmente

play28:42

lo fue porque Sam alman realmente

play28:44

comentó al respecto al mismo y creo que

play28:47

la gente olvida que Open tiene 702

play28:49

empleados Aparentemente son 770 pero

play28:53

firmaron la carta alrededor de 740

play28:56

cuando piensas en una presa de ese

play28:57

tamaño no creo que sea imposible o

play28:59

implausible que dos personas vayan a la

play29:02

junta y digan Mirad esto es una locura

play29:04

Porque algo que quizás no sepas es que

play29:06

estoy suponiendo que ahora Open eye está

play29:09

compartimentalizado porque cuando

play29:11

lanzaron sora ni siquiera estoy segura

play29:13

de que toda la empresa lo supiera porque

play29:15

recuerdo que algunos empleados tando al

play29:17

respecto diciendo que vieron algunas de

play29:19

las demostraciones de sora hoy y que era

play29:22

absolutamente increíble Así que

play29:24

realmente y verdaderamente podría ser

play29:26

algo alguna muchas personas dicen cómo

play29:28

es que no tuvimos la filtración de qar

play29:31

de todo el equipo de Open eye chicos

play29:33

Open eye está

play29:35

compartimentalizado lo cual

play29:36

esencialmente significa que una

play29:38

organización donde las piezas de

play29:39

información se mantienen separadas para

play29:42

evitar filtraciones generalmente se

play29:44

denomina que emplea una estrategia de

play29:46

compartimentalización y básicamente Lo

play29:49

que implica este enfoque es dividir la

play29:50

organización en secciones o

play29:52

compartimentos estrechos donde la

play29:53

información se controla estrictamente y

play29:56

solo se comparte ese según la necesidad

play29:58

este método se utiliza en el ámbito

play30:00

militar agencias de inteligencia Y

play30:02

algunos entornos corporativos para

play30:04

mejorar la seguridad y proteger

play30:05

información sensible por supuesto con

play30:07

los avances actuales todas estas

play30:09

innovaciones necesitan ser protegidas

play30:11

por lo que no me sorprende que Open Ey

play30:13

tenga una estrategia así porque tiene

play30:15

sentido y como dije si están haciendo

play30:18

eso Entonces Supongo que las

play30:19

filtraciones son definitivamente

play30:21

posibles porque es una empresa gigante

play30:24

realmente no sabemos quién podría ser

play30:26

Incluso si están complet mentalizados ya

play30:28

sea con 100 personas o 50 de todos modos

play30:31

no sabrás exactamente quién hizo las

play30:33

filtraciones Así que creo que quar es

play30:36

esencialmente impactante porque es

play30:38

sorprendente que la empresa que está

play30:39

tratando de trabajar en la

play30:40

superinteligencia como es el caso de

play30:42

Open eye puede haber logrado avances

play30:44

significativos en ese sentido y

play30:46

esencialmente por supuesto Aquí hay una

play30:49

Innovación de los investigadores de la

play30:51

empresa a principios de este año que les

play30:52

permitía desarrollar modelos de

play30:54

Inteligencia artificial mucho más

play30:56

potentes Y por supuesto hubo

play30:58

preocupaciones entre algunos empleados

play31:00

de que la empresa no tenía salvaguardias

play31:02

adecuadas para comercializar tales

play31:04

modelos de Inteligencia artificial

play31:05

avanzados esta persona dijo Por supuesto

play31:08

que esta Innovación custard que fue

play31:10

capaz de resolver problemas matemáticos

play31:12

que no había visto antes lo cual es un

play31:14

Nito técnico importante es algo que

play31:17

cambiará el juego cuando finalmente se

play31:19

implemente ahora por supuesto hubo más

play31:21

detalles sobre qar y luego voy a abordar

play31:24

un tema realmente grande del que creo

play31:27

que no se está hablando lo suficiente

play31:29

Aunque estos avances son buenos por

play31:30

supuesto hay muchas cosas que

play31:32

lamentablemente son bastante malas

play31:34

básicamente Recuerda que Open dijo que

play31:37

aunque la superinteligencia parece

play31:38

lejana ahora creemos que podría llegar

play31:41

en esta década lo que significa que

play31:43

podríamos tener así para 2030 así que

play31:46

aunque Open Ey dice que la

play31:47

superinteligencia parece lejana podría

play31:50

llegar en esta década no es una sorpresa

play31:52

porque Aparentemente algunas personas

play31:54

han afirmado que una vez que obtienes la

play31:56

ía general no pasa mucho tiempo antes de

play31:58

obtener la ia superinteligente además

play32:01

también hubo esto que a principios de

play32:03

este año Sas y su equipo descubrieron

play32:06

una variación de ese método que produjo

play32:08

resultados más significativos en sus

play32:09

esfuerzos por entrenar modelos más

play32:12

sofisticados y por supuesto

play32:14

esencialmente Open eye está dedicando

play32:16

una quinta parte de su capacidad de

play32:18

cómputo para abordar la

play32:19

superinteligencia y una última cosa que

play32:22

quiero cubrir aquí es algo de lo que

play32:24

quiero hablar con vosotros porque es

play32:26

realmente ente importante y no hay

play32:28

suficiente gente hablando al respecto y

play32:30

esencialmente hay este concepto llamado

play32:32

mic y mic ha llegado a significar una

play32:35

condición en la que nosotros los humanos

play32:37

somos obligados a hacer esfuerzos

play32:39

inútiles y competir entre nosotros de

play32:41

maneras que eventualmente nos llevan a

play32:42

nuestra perdición Y esto es realmente

play32:45

cierto y si piensas que solo estoy

play32:47

agregando esto al vídeo por añadirlo

play32:49

confía en mí no lo estoy haciendo por

play32:51

eso que ran ver esto porque esto podría

play32:53

ser un desastre básicamente

play32:56

lievore estoy seguro de Cómo se

play32:57

pronuncia tu nombre Ella hizo

play32:59

recientemente una charla tet sobre el

play33:01

programa del mic y es un problema

play33:03

realmente grande que solo empeorará a

play33:05

medida que las cosas avancen porque a

play33:07

medida que los sistemas se vuelven más

play33:09

poderosos necesitamos más seguridad Pero

play33:12

por supuesto a medida que se vuelven más

play33:14

poderosos las personas los implementarán

play33:16

aún más voy a mostraros un fragmento de

play33:19

esta charla Ted porque Es realmente

play33:21

importante entender este problema porque

play33:23

si no lo haces Y sé que algunas personas

play33:25

están emocionadas por la Innovación en

play33:27

Inteligencia artificial el riesgo

play33:29

existencial está ahí literalmente

play33:31

alrededor del 40% de los investigadores

play33:33

en Inteligencia artificial dicen que

play33:36

deberíamos frenar la investigación en

play33:37

Inteligencia artificial y por supuesto

play33:40

eso se debe a la Clara amenaza que

play33:42

representa la superinteligencia Así que

play33:44

os mostraré el clip esos influencers

play33:46

están sacrificando su felicidad por

play33:48

likes esos editores de noticias están

play33:51

sacrificando su integridad por clicks y

play33:53

los contaminadores están sacrificando la

play33:55

biosfera por ganancia en todos estos

play33:58

ejemplos los incentivos a corto plazo de

play34:00

los propios juegos están empujando

play34:02

tentando a sus jugadores a sacrificar

play34:04

más y más de su futuro atrapándolo en

play34:06

una espiral de muerte donde todos

play34:08

pierden al final Esa es la trampa de

play34:10

molot el mecanismo de una competencia

play34:13

poco saludable y lo mismo está

play34:15

sucediendo ahora en la industria de la

play34:17

Inteligencia artificial todos somos

play34:19

conscientes de la carrera que se está

play34:20

intensificando entre las empresas en

play34:22

este momento sobre quién puede obtener

play34:24

la mayor cantidad de capacidad de

play34:26

cómputo quién puede conseguir la mayor

play34:28

Ronda de financiamiento o atraer al

play34:30

mejor talento a medida que más y más

play34:32

empresas se unen a esta carrera mayor es

play34:35

la presión para que todos vayan lo

play34:37

rápido posible y sacrifiquen otras cosas

play34:39

importantes como las pruebas de

play34:41

seguridad esto tiene todas las

play34:43

características de una trampa de mic

play34:45

porque imagina que eres un ceo que en lo

play34:47

más profundo de tu corazón cree que tu

play34:50

equipo es el mejor para construir de

play34:51

manera segura una Inteligencia

play34:53

artificial extremadamente poderosa Bueno

play34:56

si mueves demasiado lentamente corres el

play34:58

riesgo de que otros equipos mucho menos

play35:00

cautelosos lleguen primero y desplieguen

play35:03

sus sistemas antes de que puedas

play35:05

entonces eso a su vez te empuja a ser

play35:07

más imprudente tú mismo y dado cuantos

play35:09

expertos e investigadores tanto dentro

play35:11

de estas empresas como completamente

play35:13

independientes nos han estado

play35:15

advirtiendo sobre los riesgos extremos

play35:17

de una Inteligencia artificial

play35:18

apresurada este enfoque es absolutamente

play35:21

descabellado además casi todas las

play35:23

empresas de Inteligencia artificial

play35:25

están obligadas a satisfacer a su

play35:26

inversores un incentivo a corto plazo

play35:29

que con el tiempo inevitablemente

play35:31

entrará en conflicto con cualquier

play35:33

Misión benevolente y esto no sería tan

play35:35

grave si estuviéramos hablando solo de

play35:37

tostadoras pero la Inteligencia

play35:39

artificial especialmente la Inteligencia

play35:41

artificial general está destinada a ser

play35:43

un cambio de paradigma más grande que

play35:45

las revoluciones agrícola o Industrial

play35:48

un momento tan crucial que merece

play35:50

reverencia y reflexión no algo que se

play35:52

reduzca a una carrera corporativa de

play35:55

quién puede obtener la mayor cantidad de

play35:56

usuarios diarios activos no estoy

play35:58

diciendo que sepa Cuál es el equilibrio

play36:00

correcto entre la aceleración y la

play36:02

seguridad pero sé que nunca

play36:04

descubriremos Cuál es ese equilibrio

play36:06

correcto si dejamos que el mic lo dicte

play36:08

por nosotros con ese fragmento

play36:10

básicamente están hablando del problema

play36:12

de cómo las cosas se están desarrollando

play36:14

demasiado rápido Y creo que esto

play36:16

demuestra Por qué es un problema tan

play36:18

serio porque estas empresas más pequeñas

play36:20

esencialmente si obtenian una tecnología

play36:23

similar a couat que tenía Open Ey piensa

play36:26

en ello como Open eye tal vez a

play36:28

diferencia de gpt 4 probaron la

play36:30

seguridad de gpt 4 durante 6 meses tal

play36:33

vez con este sistema agi tendrían que

play36:35

probar su seguridad Durante un año y

play36:37

medio Pero qué pasa si este otro sistema

play36:40

de Inteligencia artificial como dijeron

play36:42

está desplegando su sistema en un par de

play36:44

meses eso llevará a que Open eye

play36:47

esencialmente olvide Las barreras de

play36:49

seguridad y despliegue su sistema vamos

play36:51

a tener graves repercusiones en el

play36:53

futuro entonces en esencia es un

play36:55

problema Supongo que podrías decir de

play36:57

una especie de carrera hacia el fondo

play36:59

este gráfico de arc investment

play37:01

management y han hablado sobre Como cada

play37:04

año estos avances son como una acción

play37:06

que simplemente sigue bajando hasta que

play37:08

lleguemos a Ai puedes ver aquí que gpt3

play37:11

pasó de 50 años Aproximadamente 40 luego

play37:15

Google lanzó su agente conversacional

play37:17

avanzado lambda 2 Boom bajamos a 18 años

play37:22

chat gpt Boom bajamos de nuevo gpt 4 se

play37:26

l Boom ahora Estamos en 8 años con este

play37:30

avance de custard vamos a bajar de nuevo

play37:32

vamos a estar a solo 4 años de distancia

play37:35

puedes ver que si el error de las

play37:36

predicciones continúa y recuerda que

play37:38

chat gpt fue más reciente Desearía poder

play37:41

mostraros cuánto más ha sucedido en

play37:43

términos de la óptica de la ia porque ha

play37:45

habido mucho más compromiso en términos

play37:47

de la óptica de la ia entonces aquí hay

play37:49

un punto de aceleración Así que

play37:51

podríamos argumentar que esto va a

play37:53

descender directamente lo que significa

play37:55

que es este año si realmente lo piensas

play37:58

chicos si este punto aquí es un

play38:00

crecimiento exponencial va a descender

play38:02

este año sabes a lo queé me refiero Así

play38:05

que eso no es sorprendente Y si su error

play38:07

en las predicciones continúa lo cual

play38:10

para ser honestos los humanos son muy

play38:12

malos para extrapolar el crecimiento

play38:13

exponencial no me sorprendería si por

play38:16

supuesto en 2025 sucederá algo

play38:19

sorprendente con todas estas compañías

play38:21

avanzando y creo que algo que vosotros

play38:23

también queréis saber algo un poco

play38:25

extraño pero que Open eye realmente

play38:27

habló al respecto dijeron que

play38:29

esencialmente no obtendremos la

play38:31

superinteligencia en un sentido y por

play38:33

supuesto que sí pero lo que dijeron

play38:36

sobre sus pruebas de seguridad

play38:38

básicamente dijeron que especificamos

play38:40

cuatro niveles de riesgo de seguridad y

play38:42

solo los modelos con una puntuación de

play38:43

mitigación de riesgos de medio o menos

play38:46

pueden ser desplegados esencialmente lo

play38:49

que quieren decir es que solo se

play38:50

desplegará un modelo que pueda

play38:52

desempeñarse a un cierto nivel Y si

play38:54

tienen un sistema que creen que es

play38:55

demasiado inteligente Simplemente no lo

play38:58

pondrán en el entorno real pero aquí

play39:00

está el problema esto es la cuadratura

play39:03

de seguridad de Open eye esto es su

play39:05

mitigación de riesgos de seguridad qué

play39:07

van a hacer otras compañías otras

play39:09

compañías van a seguir esto y si lo

play39:11

hacen quiero decir qué va a pasar en el

play39:14

mundo va a ser un lugar increíblemente

play39:16

extraño para vivir porque hasta ahora

play39:18

están diciendo que la agi llegará para

play39:19

el 2026 y ahora que estamos en el 2024

play39:23

Esto está a un año y medio de distancia

play39:26

Recuerdo cuando la gente decía que la

play39:28

agi en 18 meses era una locura Ahora

play39:31

parece que es realista Así que con la

play39:33

cantidad de inversión que entra en estas

play39:35

empresas con la cantidad de cosas que

play39:37

están sucediendo con los avances de qar

play39:39

hace solo unos meses con capacidades de

play39:42

razonamiento activo Aparentemente

play39:43

descubiertas recientemente con esta

play39:46

longitud de contexto enorme presente con

play39:48

nuevas arquitecturas surgiendo y con

play39:50

estas inversiones masivas y también

play39:53

estos chicos diciendo que esto es mejor

play39:54

que cualquier cosa que hayamos visto

play39:56

antes es no tengo idea de lo que han

play39:58

desarrollado Pero de cualquier manera

play40:00

estoy emocionada asustada aterrorizada

play40:03

quiero decir tantas palabras para

play40:05

describir una tecnología tan

play40:07

Revolucionaria estoy emocionada de ver

play40:09

cómo se desarrolla qué pensáis vosotros

play40:12

al respecto pensáis que esto es

play40:13

increíble aburrido una buena

play40:16

actualización dejadme saber qué pensáis

play40:18

ha sido un febrero increíble y nos vemos

play40:20

para otra actualización mañana si habéis

play40:22

llegado hasta este punto del vídeo dle

play40:24

like suscríbete y deja un comentario

Rate This

5.0 / 5 (0 votes)

Do you need a summary in English?