¡FIN DEL JUEGO! Nuevo Avance en AGENTE AGI lo Cambia Todo (Q-STAR)
Summary
TLDRFebrero ha sido un mes revolucionario en el campo de la inteligencia artificial, marcado por un avance técnico impresionante por parte de Magic, una empresa privada que afirma haber desarrollado un modelo con capacidades de razonamiento activo similares al misterioso modelo Custar de OpenAI. Con una inversión de 100 millones de dólares de Nat Friedman y Daniel Gross, Magic promete transformar el asistente de codificación AI, superando a competidores como el GitHub Copilot de Microsoft. Este logro destaca el rápido avance tecnológico en IA, sugiriendo un futuro donde la inteligencia artificial podría alcanzar y superar las capacidades humanas de procesamiento y razonamiento, potencialmente dentro de este año, según las tendencias actuales y las inversiones masivas en el sector.
Takeaways
- 😲 Una empresa privada llamada Magic afirma haber logrado un avance técnico similar al modelo Custard desarrollado por OpenAI, que permite capacidades de razonamiento activo.
- 💰 Los inversores Nat Friedman y Daniel Gross invirtieron 100 millones de dólares en Magic, después de ver algo que les impresionó enormemente.
- 🧠 El modelo de Magic dice tener una ventana de contexto de varios millones de tokens, lo que le permite procesar una gran cantidad de información, superando al modelo Gemini Pro de Google.
- 🤖 El objetivo de Magic es desarrollar una superinteligencia artificial, al igual que lo hace OpenAI.
- 🔄 El modelo de Magic combina elementos de los transformadores con otros tipos de modelos de aprendizaje profundo, posiblemente utilizando arquitecturas como Mamba.
- 🚀 Los avances en Inteligencia Artificial están sucediendo a un ritmo cada vez más acelerado, y se espera que la IA general llegue en esta década.
- ⚠️ Hay preocupaciones sobre la seguridad y las salvaguardias adecuadas para desplegar modelos de IA tan avanzados.
- 🤝 OpenAI tiene una estrategia de compartimentalización para proteger información sensible, lo que puede explicar las filtraciones limitadas sobre Custard.
- 🏃♂️ Existe el peligro de una carrera hacia el fondo entre empresas de IA, sacrificando la seguridad por la velocidad de implementación.
- 🔒 OpenAI tiene niveles de mitigación de riesgos de seguridad, pero otras empresas podrían no seguir estas medidas, lo que podría causar problemas.
Q & A
¿Qué empresa logró un avance técnico impresionante similar al modelo de Open AI Custar?
-Una empresa privada llamada Magic afirma haber logrado un avance técnico muy similar al modelo Custar de Open AI.
¿Qué características destacadas tiene el modelo desarrollado por Magic?
-Magic afirma haber desarrollado un modelo con capacidades de razonamiento activo similares a Custar, una ventana de contexto ilimitada que permite procesar 3.5 millones de palabras (5 veces más que Google Gemini), y la posibilidad de resolver problemas sin haber sido entrenado explícitamente para ello.
¿Cuál es el objetivo principal de Magic AI?
-El objetivo principal de Magic AI es desarrollar una superinteligencia artificial segura, al igual que lo hace Google con Open AI.
¿Qué desafíos implica el avance rápido de la inteligencia artificial?
-El avance rápido de la inteligencia artificial puede llevar a una carrera insegura y descuidada por parte de las empresas, sacrificando pruebas de seguridad y desplegando sistemas peligrosos antes de que equipos más cautelosos puedan hacerlo. Esto se conoce como la 'trampa de Moloch' y puede convertirse en un problema existencial si no se aborda correctamente.
¿Cuál es el nivel de inversión que recibió Magic AI y por qué?
-Magic AI recibió una inversión de $100 millones de Nat Friedman y Daniel Gross, los cuales afirmaron que el modelo de Magic funcionaba mucho mejor que cualquier cosa que hubieran visto antes en sus evaluaciones.
¿Qué arquitectura podría estar utilizando Magic AI para lograr tales avances?
-Se especula que Magic AI podría estar utilizando la arquitectura llamada 'Mamba', una arquitectura alternativa a los transformadores que aborda algunas ineficiencias encontradas en modelos como GPT y permite un procesamiento eficiente de secuencias largas.
¿Qué implica el razonamiento activo en los modelos de inteligencia artificial?
-El razonamiento activo implica que el sistema de inteligencia artificial se involucra en una forma de razonamiento lógico o deducción para resolver problemas, aplicando principios lógicos para encontrar soluciones a problemas para los cuales no ha sido entrenado explícitamente.
¿Cuál es la preocupación sobre el avance de la inteligencia artificial según el ejemplo de la charla TED?
-La principal preocupación es que las empresas de inteligencia artificial se vean atrapadas en una trampa de Moloch, sacrificando la seguridad y pruebas adecuadas para desplegar sistemas más poderosos lo más rápido posible, lo que podría conducir a consecuencias desastrosas.
¿Cuál es la diferencia entre los modelos de lenguaje grandes actuales y el razonamiento activo?
-Los modelos de lenguaje grandes actuales operan principalmente mediante el reconocimiento de patrones en grandes cantidades de datos, generando respuestas basadas en probabilidad estadística. Por otro lado, el razonamiento activo implica la capacidad de inferir nueva información o realizar predicciones basadas en deducciones lógicas, aplicando activamente principios generales a situaciones inéditas.
¿Qué afirmó Nat Friedman sobre el modelo de Magic AI?
-Nat Friedman afirmó que el modelo de Magic AI, que ha entrenado con muchos billones de tokens de contexto, funciona mucho mejor en sus evaluaciones que cualquier cosa que hayan intentado antes.
Outlines
🚀 Avances increíbles en IA
Este párrafo introduce un avance técnico impresionante logrado por una empresa de propiedad privada llamada Magic, similar al modelo Custar desarrollado por OpenAI. Menciona que este avance es asombroso y que la tecnología de IA está evolucionando rápidamente. Adelanta que proporcionará más detalles sobre este avance en el video porque es absolutamente increíble.
🧠 Capacidades de Gemini 1.5 Pro de Google
Este párrafo describe las impresionantes capacidades del modelo Gemini 1.5 Pro de Google, que puede procesar enormes cantidades de información, como una hora de video, 11 horas de audio, 30.000 líneas de código y 700.000 palabras. Explica que Google puso a prueba la precisión de este modelo ocultando frases secretas en videos, audios y textos, y que el modelo fue capaz de encontrarlas con una precisión cercana al 99,9%. También muestra dos demostraciones que ilustran las capacidades de Gemini, como la comprensión de un contexto largo y la modificación de código.
🤖 Razonamiento activo y adaptación dinámica
Este párrafo explica el concepto de razonamiento activo, que implica que el sistema de IA se involucra en una forma de razonamiento lógico o deducción para resolver problemas, en lugar de depender únicamente de patrones estadísticos en los datos de entrenamiento. Destaca que el razonamiento activo también implica la capacidad de actualizar y adaptarse dinámicamente a nuevos problemas y situaciones, aplicando conceptos aprendidos de formas novedosas. Esto es una característica que solo los humanos han poseído hasta ahora. Además, menciona que Magic afirma haber logrado capacidades de razonamiento activo similares al modelo Custar.
🧠 Limitaciones de los modelos de lenguaje grandes (LLM)
Este párrafo aborda las limitaciones de los modelos de lenguaje grandes (LLM) actuales, como GPT-3 y otros. Explica que estos modelos operan principalmente mediante el reconocimiento de patrones en grandes cantidades de datos de texto y la generación de respuestas basadas en probabilidades estadísticas. Aunque pueden producir texto coherente y contextualmente apropiado, su comprensión está limitada a correlacionar la entrada con contextos similares que han encontrado en sus datos de entrenamiento, sin un verdadero entendimiento y con un razonamiento deductivo limitado. Por lo tanto, pueden enfrentar dificultades en tareas que requieren una comprensión genuina de la causalidad y la inferencia lógica compleja.
🏗️ Arquitectura propietaria de Magic
Este párrafo explora la arquitectura propietaria que Magic está desarrollando. Menciona que Magic afirma que los transformadores no son la arquitectura final y que tienen algo con una ventana de contexto de millones de tokens. Nat Friedman, quien invirtió 100 millones de dólares en Magic, afirmó que han entrenado un modelo revolucionario con billones de tokens de contexto que funciona mucho mejor en sus evaluaciones que cualquier cosa que hayan intentado antes. Se especula sobre si podrían estar utilizando una arquitectura llamada Mamba, recientemente publicada, que es una alternativa a los transformadores y aborda algunas de sus ineficiencias. También se menciona que el cofundador y COO de Magic, Eric Steinberg, ha trabajado anteriormente en investigar cómo el aprendizaje por refuerzo puede ayudar a los modelos de IA a encontrar soluciones óptimas a problemas. La ambición de Magic es desarrollar una superinteligencia artificial.
🏗️ Custar y la superinteligencia
Este párrafo aborda los avances de OpenAI con el modelo Custar y su objetivo de desarrollar superinteligencia artificial. Se menciona que Custar logró un avance técnico importante que le permitió empujar el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia delante. Hubo preocupaciones entre algunos empleados de OpenAI sobre las salvaguardias adecuadas para comercializar modelos de IA tan avanzados. Se menciona que OpenAI está dedicando una quinta parte de su capacidad de cómputo para abordar la superinteligencia, y que creen que la superinteligencia podría llegar en esta década. También se menciona que Magic y OpenAI podrían tropezar y superar obstáculos similares en su búsqueda de la superinteligencia.
⚠️ La trampa de Moloch y el riesgo existencial
Este párrafo aborda el problema de la trampa de Moloch, un concepto que describe una competencia poco saludable entre empresas de IA que las empuja a sacrificar importantes aspectos, como las pruebas de seguridad, en una carrera por ser las primeras en desplegar sistemas de IA cada vez más poderosos. Se explica cómo esta dinámica representa un riesgo existencial, ya que los incentivos a corto plazo empujan a las empresas a ser imprudentes y desplegar sistemas sin las debidas precauciones de seguridad. Se comparte un fragmento de una charla TED que advierte sobre este problema y la importancia de encontrar un equilibrio adecuado entre la aceleración y la seguridad en el desarrollo de la IA.
📈 Aceleración exponencial en IA
Este párrafo analiza la aceleración exponencial en los avances de la IA. Muestra un gráfico de Arc Investment Management que ilustra cómo cada año se acorta el tiempo estimado para alcanzar la IA, pasando de 50 años a 8 años con los últimos avances como GPT-4 y Custar. Se sugiere que si el error de las predicciones continúa, la IA podría llegar en 2025. También se menciona que OpenAI ha establecido cuatro niveles de riesgo de seguridad y solo desplegará modelos con un riesgo medio o inferior, pero se plantea la preocupación de que otras empresas podrían no seguir estas precauciones. Con la cantidad de inversión, avances y arquitecturas nuevas surgiendo, se expresa una mezcla de emoción, miedo y emoción por los desarrollos en este campo.
😊 Agradecimientos y cierre
Este párrafo final es un cierre del video. El presentador agradece a los espectadores por ver el video y los invita a dar un like, suscribirse y dejar un comentario si han llegado hasta el final. Menciona que ha sido un febrero increíble y anticipa otra actualización al día siguiente.
Mindmap
Keywords
💡Inteligencia Artificial
💡Avances técnicos
💡Razonamiento activo
💡Ventana de contexto
💡Superinteligencia
💡Seguridad en IA
💡Competencia en IA
💡Inversión en IA
💡Arquitectura de IA
💡Trampa de Moloch
Highlights
Una empresa de propiedad privada acaba de lograr un avance técnico impresionante muy similar al modelo custar según afirman varias fuentes.
Magic también de propiedad privada afirma haber logrado un avance técnico que podría permitir capacidad de razonamiento activo similares al modelo custar desarrollado por Open AI el año pasado.
Según una persona familiarizada con su tecnología, Magic ha entrenado un modelo revolucionario con muchos billones de tokens de contexto que funcionan mucho mejor en nuestras evaluaciones que cualquier cosa que hayamos intentado antes.
Magic afirma poder usar el equivalente a 3.5 millones de palabras de entrada de texto, cinco veces más información que el último modelo Gemini LM de Google.
El modelo de Magic esencialmente tiene una ventana de contexto ilimitada, quizás acercándose más a la forma en que los humanos procesan la información.
Las capacidades actuales de los modelos de lenguaje grandes están limitadas a reconocimiento de patrones y generación de texto, sin un verdadero entendimiento y razonamiento deductivo.
La adaptación dinámica, el ir más allá del simple entrenamiento de patrones y la capacidad de inferir nueva información o hacer predicciones basadas en deducciones lógicas y aplicar activamente principios lógicos para encontrar nuevas soluciones a problemas no entrenados explícitamente, es realmente un cambio significativo en el juego.
Open AI ha logrado filtrar un modelo llamado 'costar' que era capaz de resolver problemas matemáticos que no había visto antes, lo cual es un hito técnico importante.
Existe un concepto llamado 'trampa de Maloch' donde nosotros los humanos somos obligados a hacer esfuerzos inútiles y competir entre nosotros de maneras que eventualmente nos llevan a nuestra perdición.
Estamos viviendo una carrera acelerada entre empresas de IA por conseguir más capacidad de cómputo, más financiamiento y mejor talento, lo que lleva a sacrificar cosas importantes como las pruebas de seguridad.
Si las empresas menos cautelosas despliegan sus sistemas antes que Open AI, esto empujará a Open AI a ser más imprudente.
Esto se ha convertido en una carrera corporativa de quién puede obtener la mayor cantidad de usuarios diarios activos, reduciendo un momento tan crucial a algo que merece reverencia y reflexión.
Cada año, estos avances tecnológicos en IA son como una acción que simplemente sigue bajando, acercándonos más rápido a la IA general.
Open AI dice que solo se desplegará un modelo que pueda desempeñarse a un cierto nivel, pero es incierto si otras compañías seguirán estos parámetros de seguridad.
Estoy emocionada, asustada y aterrorizada por una tecnología tan revolucionaria y su impacto en el mundo.
Transcripts
ha sido en febrero muy loco y está a
punto de volverse aún más loco Porque
una empresa de propiedad privada acaba
de lograr un avance técnico
impresionante muy muy similar al modelo
custar según afirman varias fuentes os
voy a contar todos los detalles sobre
esto porque es absolutamente increíble y
me sorprendió lo rápido que está
evolucionando la tecnología de
Inteligencia artificial aquí podéis ver
que se dice que Magic también de
propiedad privada Afirma haber logrado
un avance técnico que podría permitir
capacidad de razonamiento activo
similares al modelo custar desarrollado
por Open Ey el año pasado según una
persona familiarizada con su tecnología
y eso señoras y señores es una
afirmación absolutamente asombrosa
porque sabemos que custar era un sistema
de modelo de aprendizaje profundo del
que no sabíamos mucho pero hubo muchas
filtraciones teorías y capacidades en
ese momento en el que custar se filtró y
muchas cosas estaban sucediendo en Open
eye que nos llevaron a creer que custar
era realmente cierto Más adelante en el
vídeo voy a profundizar un poco más en
custar porque hay un documento que tiene
mucha información sobre el tema y Por
qué es tan importante con respecto a lo
que ha hecho esta empresa Magic de
propiedad privada algunos de los
detalles que os voy a mostrar realmente
os sorprenderán porque esto demuestra lo
rápido que estamos avanzando en este
espacio básicamente lo que sucedió es
que el exceo de github Nat fredman y su
socio de inversión Daniel gross llamaron
la atención la semana pasada al escribir
un cheque de 100 millones de dólares a
Magic el desarrollador de un asistente
de codificación de Inteligencia
artificial hay muchos asistentes de
codificación ya y el más destacado entre
ellos es el copiloto de github de
Microsoft Entonces qué vieron fredman y
grossen Magic recordad que estos tipos
escribieron un cheque de 100 millones de
dólares a esta empresa de la nada porque
vieron algo que les hizo pensar Bueno si
invertimos 100 millones seguramente
recuperaremos nuestro dinero y
básicamente creen que esto es
Probablemente lo mejor que ya ha
sucedido voy a entrar en más detalles
sobre eso solo voy a repasar esta parte
rápidamente porque quiero mostraros Cómo
todo esto está conectado básicamente
afirman que la respuesta va más allá de
la afirmación de la empresa de que
pronto podrá proporcionar a sus clientes
compañeros de codificación completamente
automatizados No solo un asistente
semiautomatizado que completa fragmentos
de escritura de código como hace github
copilot así que si no lo sabéis eso es
exactamente lo que hace github copilot
simplemente completa fragmentos de
código y no es como un compañero de
trabajo totalmente automatizado entonces
Supongo que lo que están avanzando es
hacia un marco de agente que su avance
es claramente algo realmente realmente
increíble esencialmente dicen que la
startup ha creado un nuevo tipo de
modelo de lenguaje grande que puede
procesar enormes cantidades de datos
conocido como una ventana de contexto
ahora lo que quiero hablaros es sobre
sobre esta semana increíble Creo que
este mes probablemente será el mes más
grande de la Inteligencia artificial
probablemente de este año sé que la ía
está en un crecimiento exponencial pero
creo que con las elecciones que se
avecinan más adelante en el año es
posible que esas cosas ahoguen un poco
de las cosas de la ía Pero esto es una
locura probablemente la cosa más grande
entonces esencialmente Y sé que algunos
de vosotros no visteis esto porque fue
opacado esencialmente habla sobre cómo
Magic Afirma poder Us el equivalente a
3.5 millones de palabras de entrada de
texto cinco veces más información que el
último modelo gemini lm de Google que a
su vez fue un gran avance con respecto
al gpt 4 de Open eye En otras palabras
el modelo de Magic esencialmente tiene
una ventana de contexto ilimitada quizás
acercándose más a la forma en que los
humanos procesan la información ahora
por qué esto es una locura bueno por
supuesto hay varias implicaciones más
amplias absolutamente insanas Pero lo
primero que creo que es absolutamente
insano y mientras ves Este vídeo vas a
entender lo increíble que es este avance
es porque si no has prestado atención
básicamente el último gemini llm de
Google fue enorme y muchas personas se
lo perdieron y estoy a punto de
profundizar en eso y básicamente están
afirmando que sabes es cinco veces vale
cinco veces más que gemini y estoy a
punto de mostraros lo increíble que es
yemy y cuando veáis esto Vais a estar
como de qué hablas pero creo que lo más
loco aquí es por supuesto la ventana de
contexto potencialmente ilimitada creo
que si eso es cierto y ya sabes
potencialmente porque cuando hablan
sobre el tipo de avance esencialmente
eso podría cambiar completamente el
juego ahora una cosa más de la que
también quiero hablar porque esto es
algo que vosotros necesitáis saber es
que esencialmente están diciendo que
pudieron procesar cinco veces más
información que el último yemini llm de
Google y si no has visto esto porque fue
pacado por el producto sora de penai que
por supuesto fue algo absolutamente
increíble vosotros solo Vais a seguir
adelante y ver esto así que
esencialmente el gemini 1.5 pro de
Google fue lanzado hace un par de días y
sé que nadie prestó atención a esto a
menos que estuvieras muy metido en el
espacio de la tecnología de ia porque
fue algo que la mayoría de las personas
Simplemente no vieron probablemente
habría sido el titular principal en el
espacio de ia si no fuera por la
tecnología de texto en vídeo sora de
Open eye que por supuesto es genial y
asombrosa pero sora se llevó todo el
protagonismo entonces lo que estás
viendo en pantalla ahora es básicamente
el gemini 1.5 pro de Google y lo
principal de este modelo si realmente no
lo sabías es que puede procesar una
longitud de contexto enorme estoy
hablando de una hora de vídeo 11 horas
de audio 30,000 líneas de código y
700,000 palabras no sé ni Cuántas
novelas son pero es mucho puedes verlo
Comparado con gemini puedes verlo
Comparado con gpt 4 T Turbo Y también
puedes verlo Comparado con Claude 2.1
Este es un monstruo está fuera de serie
en comparación con todo lo que
conocíamos y ya sabíamos que las
ventanas de contexto más largas estaban
llegando porque vimos varios documentos
de investigación diferentes que seguían
aumentando la ventana de contexto ahora
podrías estar preguntándote bueno tienen
ventanas de contexto más largas pueden
analizar una hora de vídeo pueden
analizar 11 horas de audio pueden
analizar 30,000 líneas de código 700000
palabras todo eso está bien pero es
incluso preciso porque sabemos que
algunas de las compañías que lo hicieron
antes lo hicieron pero no fue tan
preciso en lo que estaban haciendo
Entonces una cosa que hicieron para
probar esto y porque os estoy mostrando
sobre Google es porque si masic está
afirmando que han hecho algo mejor que
lo que hizo Google eso es increíble Así
que Primero necesitan entender Cómo
funciona el gemini pro de Google y luego
cuando entiendan si Magic lo superó
comprenderán Por qué las implicaciones
son tan locas
básicamente lo que hizo Google fue ya
sabes Como he mencionado antes tenía una
ventana de contexto muy larga donde
podías poner como 11 horas de audio 22
horas de audio 3 horas de vídeo y 7
millones de palabras o 10 millones de
tokens básicamente lo que hicieron para
probar esto porque la gente se
preguntaba si era preciso o no fue
esconder una frase secreta en el vídeo
para el vídeo fue solo un fotograma de
todos ellos durante creo que alrededor
de 2 horas ocultaron un fotograma
pidieron a la Inteligencia artificial
que lo encontrara y lo hizo en el audio
ocultaron una oración como tres palabras
y lo encontró era como Cuál es la
palabra secreta y logró encontrarla y
luego en el texto también fue capaz de
hacerlo y creo que hubo algunos errores
muy pequeños en el texto pero en general
podéis ver que la recuperación exitosa
versus la no exitosa lo increíblemente
preciso que es fue algo así como un 99.9
por algo así prácticamente perfecto
entonces básicamente nos estamos
moviendo hacia una era en la que estas
ventanas de contexto super lgas van a
ser absolutamente increíbles y la
implicación si masica ha hecho algo
donde básicamente ha vencido a Google
con una ventana de contexto ilimitada ni
siquiera sé si eso es posible creo que
las increíbles implicaciones de esto son
que ya sabes por supuesto sabemos que
recordad Open eye va a tener que sacar
algo increíble de la manga ahora lo que
también quiero mostraros es por supuesto
dos clips de gemini Porque si pensáis
que esto es solo una ventana de contexto
larga pero a quién le importa porque no
es más inteligente que el gpt 4 no es
más inteligente que el clae 2.1 solo
para que lo sepáis en las pruebas el
gemini 1.5 Pro está superando al gpt 4
Turbo en todas las pruebas solo para
dejar eso ahí y por supuesto si puede
analizar una hora de vídeo 11 horas de
audio y todas estas otras cosas lo que
realmente puede hacer son diferentes
tareas y ahí es donde os voy a mostrar
estas demos y luego volveré a explicar
exactamente cómo funciona esta es una
demo de la comprensión de un contexto
largo una característica experimental en
nuestro último modelo gemini 1.5 Pro
vamos a revisar algunos ejemplos de
comandos utilizando el código de ejemplo
de 3 J que suma más de 800,000 tokens
extraemos el código de todos los
ejemplos de 3 j y lo reunimos en este
archivo de texto que trajimos a Google
Ai Studio aquí pedimos al modelo que
encontrara tres ejempos para aprender
sobre animación de personajes el modelo
examinó cientos de ejemplos Y seleccionó
estos tres uno sobre mezcla de
animaciones esqueléticas otros sobre
poses y otros sobre objetivos de morph
para animaciones faciales todas son
buenas opciones según nuestra solicitud
en esta prueba el modelo tardó alrededor
de 60 Segundos en responder a cada uno
de estos comandos pero tened en cuenta
que los tiempos de latencia pueden ser
más altos o más bajos ya que esta es una
característica experimental que estamos
optimizando a continuación preguntamos
qué controla las animaciones en el demo
de leles tokyio como podéis ver aquí el
modelo pudo encontrar ese demo y explicó
que las animaciones están incrustadas
dentro del modelo gltf luego quisimos
ver si podía personalizar este código
para nosotros Así que preguntamos
Muéstrame algún código para agregar un
control deslizante para controlar la
velocidad de la animación como los otros
demos tienen Así es como se veía antes
en el sitio original de TR j y aquí está
la versión modific
es la misma escena pero se añadió este
pequeño control deslizante para acelerar
frenar o incluso detener la animación
sobre la marcha utilizó esta biblioteca
gui que tiene los otros demos configuró
un parámetro llamado Animation Speed y
lo conectó al mezclador en la escena
como todos los modelos generativos las
respuestas no siempre son perfectas De
hecho no hay una función de
inicialización en este demo como en la
mayoría de los otros sin embargo el
código que nos dio hizo exactamente lo
que queríamos luego intentamos una
entrada multimodal dándole una captura
de pantalla de uno de los demos no le
dijimos nada sobre esta captura de
pantalla y simplemente le preguntamos
dónde podríamos encontrar el código para
este demo como podéis ver aquí el modelo
pudo revisar los cientos de demos y
encontrar el que coincidía con la imagen
luego le preguntamos al modelo que
hicieron cambiar la escena preguntándole
cómo podíamos Modificar el código para
que el terreno fuera más plano el modelo
pudo centrarse en la función en
particular llamada generate height y nos
mostró la línea exacta para ajustar
debajo del código explicando claramente
Cómo funciona el cambio en la versión
actualizada se puede ver que el terreno
es efectivamente más plano tal como
pedimos probamos una tarea más de
modificación de código utilizando este
demo de texto en 3D preguntamos estoy
viendo el demo de geometría de texto y
quiero hacer algunos ajustes Cómo puedo
cambiar el texto para que diga Goldfish
Y hacer que los materiales de la malla
se vean realmente brillantes y metálicos
puedes ver que el modelo identificó el
demo correcto y mostró las líneas
precisas en el que deben ajustarse ahora
que has visto esta parte y entiendes lo
increíble que es puedes comprender que
este tipo de avance lo que sea que hayan
hecho que les permitió potencialmente
superar a Google con una ventana de
contexto esencialmente ilimitada o 3.5
millones de palabras o cinco veces más
que el último gemini de Google no estoy
segura si fue el último gemini o el 1.5
Pro pero Incluso si lo superaron Estos
tipos invirtieron como 100 millones y
eso no es una pequeña cantidad eso es
una cantidad enorme definitivamente es
algo increíble tenemos que analizarlo
incluso si no es la ventana de contexto
tenemos que analizar esto porque esta es
la parte loca como dije afirmaron que
habilita capacidades de razonamiento
activo similares al modelo custar
desarrollado por Open eye según una
persona familiarizada con la tecnología
y eso podría ayudar a resolver una de
las principales quejas con Los Grandes
modelos de lenguaje qu es que imitan lo
que han visto en sus datos de
entrenamiento en lugar de usar la lógica
para resolver nuestros problemas en
cuanto a comoo Magic desarrolla su
modelo de lenguaje esta persona dijo que
tomó algunos elementos de los
transformadores un tipo de Inteligencia
artificial que impulsa productos de
consumo como chat gpt y asistentes de
codificación como copilot y los fusionó
con otros tipos de modelos de
aprendizaje profundo Esto es algo que
explorar más adelante ya que las
diferentes arquitecturas son algo que la
gente no ha comprendido como una
realidad la arquitectura de los
transformadores ha dominado el espacio
desde que fueron inventados Y por
supuesto es algo que actualmente está
siendo desafiado por Algunos enfoques
diferentes entonces básicamente lo que
también tenemos aquí es el uso de la
lógica para resolver nuestros problemas
Por qué cambia el juego el razonamiento
activo bueno esencialmente con la
resolución lógica de problemas el
razonamiento activo implica que el
sistema de Inteligencia artificial Se
involucra en una forma de razamiento
lógico o deducción para resolver
problemas esto significa que en teoría
el sistema puede aplicar principios
lógicos para encontrar soluciones a
problemas para los cuales no ha sido
entrenado explícitamente al entender las
relaciones y reglas subyacentes y Esto
va más allá de la simple coincidencia de
patrones en lugar de depender únicamente
de patrones estadísticos en los datos en
los que fue entrenado un sistema capaz
de razonamiento activo podría inferir
nueva información o realizar
predicciones basadas en deducciones
lógicas esta capacidad le permitía
pensar de manera más pare a un ser
humano de términos de aplicar principios
generales a escenarios específicos e
inéditos ahora lo interesante es que el
razonamiento activo también implica la
capacidad de actualizar y adaptarse
dinámicamente a nuevos problemas y
situaciones aplicando conceptos
aprendidos de formas novedosas no solo
recordando o recombinado información de
los datos de entrenamiento Así que
chicos ahí tenéis esa adaptación
dinámica el razonamiento activo y la
adaptación a nuevos problemas y
situaciones es un tipo de inteligencia
que solo los humanos nos han poseído
vale la diferencia radica en que las
capacidades actuales de los modelos de
lenguaje grandes llm por sus siglas en
inglés son esencialmente de
reconocimiento de patrones y generación
de texto los llm operan principalmente
mediante el reconocimiento de patrones
en grandes cantidades de datos y datos
de texto generando respuestas basadas en
la probabilidad estadística sobresalen
en la producción de texto coherente y
contextualmente apropiado según los
ejemplos que han visto durante el
entrenamiento y esencial m imitan
respuestas similares a las humanas los
llm pueden generar respuestas que imitan
texto similar al humano en varios
dominios y estilos pero su comprensión
está limitada a correlacionar la entrada
con contextos similares que han
encontrado en sus datos de entrenamiento
sin un verdadero entendimiento y por
supuesto tienen un razonamiento
deductivo limitado en esencia aunque los
llm a veces pueden parecer estar
razonando su proceso se trata más de
coincidir patrones que de deducción
lógica real pueden enfrentar
dificultades en ciertas tareas que
requieren una comprensión genuina de la
casualidad y la inferencia lógica
compleja esencialmente si esas tareas no
están bien representadas en sus datos de
entrenamiento Así que la adaptación
dinámica el ir más allá del simple
entrenamiento de patrones y la capacidad
de inferir Nueva información o hacer
predicciones basadas en deducciones
lógicas y aplicar activamente principios
lógicos para encontrar nuevas soluciones
a problemas no entrenados explícitamente
es realmente un cambio significativo en
el juego Esto es algo que hemos
observado en internet desde el
lanzamiento de gini 1.5 Pro porque
esencialmente lo que las personas pueden
hacer ahora es resolver una gran
cantidad de problemas extensos ya sea
que tengan 30,000 líneas de código
frente a digamos solo 500 líneas de
código o incluso 10 a 100 líneas de
código pueden resolver problemas
enormemente diferentes básicamente al
comprender todo este texto y poder
asimilarlo se produce un cambio completo
en el juego acercándonos más al
pensamiento humano debido a ese
razonamiento activo combinado con ello
Es por eso que Esto va a ser un cambio
de juego completo ahora algo que quería
explorar y que encontré fascinante es el
hecho de que Magic realmente habla de
una arquitectura propietaria Aquí hay
una pequeña presentación de Magic que
está a punto de volverse bastante
sorprendente dice que Magic está
trabajando en modelos de código a escala
de frontier para construir un
colaborador no solo un copiloto afirma
que creen que cenation es tanto un
producto como un camino hacia la
Inteligencia artificial general y que la
seguridad de la agi es importante y
puede resolverse además menciona que
para construir un gran producto de ia
necesitan entrenar su propio modelo a
escala de frontier lo que están haciendo
básicamente y el último punto y el punto
principal son esencialmente las razones
por las que voy a hablar de esto el
último punto es algo que quiero
mencionar afirman que los
transformadores no son la arquitectura
final tienen algo con contexto de varios
millones de tokens ese algo Bastante
sorprendente ahora bien este tweet al
principio lo leí y pensé que no
significaba mucho pero luego lo leí de
nuevo Y pensé Oh esto Es realmente
importante creo Nat friedman el hombre
que invirtió 100 millones de dólares
afirmó que Magic dep ha entrenado un
modelo Revolucionario con muchos
billones de tokens de contexto que
funcionan mucho mejor en nuestras
evaluaciones que cualquier cosa que
hayamos intentado antes quiero que veáis
lo que dijo allí funcionó mucho mejor en
nuestras evaluaciones que cualquier cosa
que hayamos inventado Antes aunque este
tweet fue antes del lanzamiento de
gemini pro de Google él está diciendo
que es mucho mejor en nuestras
evaluaciones que cualquier cosa que ya
hemos intentado antes y esto es algo
impactante porque no está diciendo que
sea ligeramente mejor está diciendo que
es mucho mejor están utilizando esto
para construir un programador de I
avanzado que puede razonar sobre toda tu
base de código y la transclusion de tu
árbol de dependencias Y si Esto suena
como magia lo entiendes básicamente esta
diciendo que quedó tan impresionado que
están invirtiendo 100 millones en la
empresa hoy creo que es bastante
impactante que hayan visto algo en esa
presentación Estos tipos estaban
trabajando en su producto y vieron algo
que probaron y dijeron esto es tan
increíble que vamos a invertir 100
millones de dólares en esto tienes que
entender que están compitiendo contra
Microsoft github copilot respaldado
esencialmente por Open eye y este tipo
está invirtiendo 100 millones en ello
básicamente está apostando a que lo que
tienen es realmente realmente bueno Como
he mencionado él dijo que la mejor
manera de entender Si alguien realmente
tiene la situación bajo control Supongo
o si respalda su posición es el dinero
el dinero habla Y estos chicos están
poniendo 100 millones están respaldando
sus palabras y están diciendo Mirad
creemos que esto es tan bueno que vamos
a poner 100 millones de nuestro propio
dinero aquí no solo 10 no solo 20 no
solo 30 100 millones es bastante dinero
eso es bastante significativo están
diciendo que Las evaluaciones son
mejores que cualquier cosa que hayamos
intentado antes y eso es bastante
asombroso el siguiente punto por
supuesto es aquí y me preguntaba estaba
preguntándome durante algún tiempo y por
supuesto esto es pura especulación y por
supuesto No lo sé pero estoy suponiendo
que potencialmente Podrían haber
utilizado esta arquitectura si no sabes
de qué se trata esto es mamba
básicamente hace alrededor de dos meses
se publicó un artículo llamado mamba
linear time sequence modeling with
selective State spaces y esencialmente
se promocionó como un reemplazo para los
Transformers con un rendimiento
excepcional en ventanas de contexto
largas no es un reemplazo directo para
los Transformers pero es una
arquitectura alternativa que aborda
algunas de las ineficiencias encontradas
en los modelos Transformer que alimentan
a chat gpt y todos los demás llm que
conocemos mamba utiliza modelos basados
en estado ssm por sus siglas en inglés
para lograr una complejidad temporal
lineal para la computación de entrada lo
que puede ser especialmente beneficioso
para procesar secuencias largas de
manera eficiente se ha demostrado que
supera los Transformers en velocidad de
indeferencia y eficiencia especialmente
en tamaños de contexto más grandes es
importante destacar que aunque mamba ha
demostrado un rendimiento impresionante
el modelado de lenguaje y tareas que
involucran secuencias de audio y ADN no
es superior en todos los aspectos es por
eso que dije que no estoy realmente
segura por ejemplo hubo un estudio del
instituto Camper en la universidad de
Harvard que mostró que los Transformers
son mejores que mamba en tareas que
implican copiar y recuperar información
del contexto de entrada como el
aprendizaje de pocos ejemplos y tareas
de recuperación comunes en modelos de
foundation Sin embargo los modelos de
mamba son particularmente mejores que
los Transformers en tareas que
involucran el procesamiento eficiente de
secuencias largas y en escenarios donde
la eficiencia computacional es crucial
la arquitectura de mamba que combina
elementos de Mod de los de espacio
Estatal ssm y redes neuronales
recurrentes le permite destacarse en
varias áreas específicas como el
modelado de lenguaje demostrando un
rendimiento impresionante en tareas de
evaluación previa y posterior a la
capacitación incluso compitiendo de
manera paralela con transformes que
tienen el doble de su tamaño y por
supuesto estas largas secuencias Este
modelo puede manejar secuencias largas
eficientemente debido a su técnica
eficiente de modelado de secuencias
mamba es más adecuado para tareas que
requieren el procesamiento de
información en secuencias extendidas
esto se atribuye a su capacidad para
escalar linealmente con la longitud del
contexto de la secuencia lo que hace
especialmente beneficioso para
aplicaciones donde se involucran tamaños
de contexto largos como la programación
además demuestra su rendimiento
excepcional en diversos dominios como
audio y genómica como ya discutimos
también aborda los límites
computacionales en escenarios con
contextos largos superando algunas
limitaciones de los Transformers otro
punto interesante es su capacidad para
el aprendizaje en contexto Aunque mana
igual al rendimiento de los modelos
Transformer para el aprendizaje en
contexto se destaca por escalar bien con
el número de ejemplos en contexto esto
sugiere que mamba mantiene una ventaja
considerable en situaciones donde
aprovechar la información del contexto
es crucial para el rendimiento de la
tarea entonces está claro que cualquiera
que sea la arquitectura que estos chicos
tengan Porque dijeron que los
transformes no son la arquitectura final
y tienen algo con una de contexto de
varios millones de tokens podría ser
mamba no estoy completamente segura si
este es el modelo particular pero no me
sorprendería sin embargo este modelo
Tiene algunas limitaciones como la falta
de un ecosistema sólido pero al mismo
tiempo encuentro un poco sorprendente
que este artículo se haya publicado hace
dos meses y de repente Google Presenta
una ventana de contexto de 10 millones y
estos chicos presentan algo con una
ventana de contexto de varios millones
prácticamente ilimitada me pregun
pregunto si están utilizando mamba para
lograr esto O si están utilizando una
arquitectura completamente diferente que
han desarrollado combinada con la
esencia de los llm no estoy
completamente segura de En qué estarán
trabajando pero creo que una vez que la
nueva arquitectura esté lista ya sabes
Supongo que podría decir que se
introducirá en la comunidad en general
por supuesto Estos tipos son una empresa
privada y tratarán de proteger lo que
sea que tengan sea cual sea la
arquitectura propietaria que estén
utilizando Creo que será fascinante Y
por supuesto esencialmente el tipo que
ahora es el coo de la empresa Magic
Magic Ai laps y básicamente afirma que
estamos escribiendo código con la misión
de construir una superinteligencia
segura Así que está claro que su
objetivo es la superinteligencia y en el
artículo se menciona que Eric steinberg
el cofundador I coo de Magic ha lidiado
con el problema de hacer que los modelos
de Inteligencia artificial razonen
anteriormente trabajó en metap
plataformas investigando Cómo el
aprendizaje por refuerzo las técnicas de
aprendizaje automático que ayudan ya
sabes al rendimiento destacado de los
lms de Open eye pueden ayudar a los
modelos de Inteligencia artificial
encuentren soluciones óptimas a
problemas incluso con información
imperfecta y su ambición es más grande
que la de un compañero programador
recordad el objetivo de esta empresa es
de desarrollar una superinteligencia
artificial de la misma manera que lo
hace Google Y eso es lo que marca la
diferencia chicos Así que el hecho de
que hayan logrado un avance similar a
quar y el hecho de que estén trabajando
en la superinteligencia es bastante
increíble Porque creo de que el hecho de
que ambos estén dirigiéndose en la misma
dirección significa que eventualmente
tropezarás y eventualmente superarán
algunos de los mismos obstáculos que
enfrentan ahora esto tiene algunas
ramificaciones muy importantes y una de
las cosas que quiero saber por supuesto
es Cuál es el producto porque
esencialmente dicen que algunos de los
antiguos colegas de fredman en jiu se
han unido a él en Magic incluido Max
running vicepresidente de diseño en
github así como algunos otros
diseñadores de gtube según una persona
con conocimiento de lo más alto
probablemente serán cruciales para
desarrollar el primer producto
disponible comercialmente de la empresa
que según he escuchado Está programado
para ser lanzado en los próximos meses
así Que supongo que potencialmente vamos
a tener algo que supera ya sabes a jiub
copilot y piensa en esto si est equipos
digamos logran esto tienen algo que
tiene razonamiento activo similar a qar
que Recuerda la polémica de Open Ey
sobre qar siendo desactivado de lo que
vamos a sumergirnos en un momento pero
si tenéis algo que tiene razonamiento
activo algo que tiene ya sabes una
ventana de contexto activa limitada algo
que digamos supera ya sabes a Google
gemini 1.5 pro y digamos que es tan
bueno Y estos chicos dicen que es mejor
en nuestras evaluaciones que cualquier
cosa que hayan probado antes creo que si
lanzan ese producto y ese producto es
mejor que jeub copilot que
potencialmente creo que lo será creo que
tenemos en situación en nuestras manos
que si ese producto simplemente supera
todo Recuerda que github está respaldado
por Microsoft Supongo que está
utilizando chat gpt vamos a tener un
problema porque lo que sucederá es que
estos tipos lanzarán su producto
arrasarán con la industria y luego opene
probablemente lanzará gpt 5 o tal vez
una versión aún más zada porque bueno no
quieren perder la carrera porque todos
conocen chat gpt y si estos tipos están
desarrollando su propio modelo de
frontera patentado que dijeron que van a
hacerlo Recuerda que dijeron que van a
lanzar su propio modelo patentado su
objetivo es Construir la
superinteligencia no solo un compañero
de código está diciendo Ya sabes para
construir un gran producto necesitamos
entrenar nuestro propio modelo de escala
de frontera y los transformadores no son
la arquitectura final tenemos algo con
una ventana de contexto multimillonaria
que ahora Aparentemente tiene
razonamiento act lo que significa ya
sabes que la carrera podría estar en
marcha chicos esto podría ser una
carrera impresionante vale Y es por eso
que estoy diciendo que esto podría ser
absolutamente increíble Ahora si quieres
recordar cuar fue bastante sorprendente
porque el día en que Sam alman fue
despedido él insinuó un avance técnico
que la empresa había logrado que le
permitió empujar el velo de la
ignorancia hacia atrás y la frontera del
descubrimiento hacia delante hubo una
entrevista en la que dijo eso y por
supuesto kar esencialmente hizo un
avance antes del despido de altman
avivando la emoción y la preocupación sé
que mucha gente se preguntaba si esa
filtración era cierta pero esencialmente
lo fue porque Sam alman realmente
comentó al respecto al mismo y creo que
la gente olvida que Open tiene 702
empleados Aparentemente son 770 pero
firmaron la carta alrededor de 740
cuando piensas en una presa de ese
tamaño no creo que sea imposible o
implausible que dos personas vayan a la
junta y digan Mirad esto es una locura
Porque algo que quizás no sepas es que
estoy suponiendo que ahora Open eye está
compartimentalizado porque cuando
lanzaron sora ni siquiera estoy segura
de que toda la empresa lo supiera porque
recuerdo que algunos empleados tando al
respecto diciendo que vieron algunas de
las demostraciones de sora hoy y que era
absolutamente increíble Así que
realmente y verdaderamente podría ser
algo alguna muchas personas dicen cómo
es que no tuvimos la filtración de qar
de todo el equipo de Open eye chicos
Open eye está
compartimentalizado lo cual
esencialmente significa que una
organización donde las piezas de
información se mantienen separadas para
evitar filtraciones generalmente se
denomina que emplea una estrategia de
compartimentalización y básicamente Lo
que implica este enfoque es dividir la
organización en secciones o
compartimentos estrechos donde la
información se controla estrictamente y
solo se comparte ese según la necesidad
este método se utiliza en el ámbito
militar agencias de inteligencia Y
algunos entornos corporativos para
mejorar la seguridad y proteger
información sensible por supuesto con
los avances actuales todas estas
innovaciones necesitan ser protegidas
por lo que no me sorprende que Open Ey
tenga una estrategia así porque tiene
sentido y como dije si están haciendo
eso Entonces Supongo que las
filtraciones son definitivamente
posibles porque es una empresa gigante
realmente no sabemos quién podría ser
Incluso si están complet mentalizados ya
sea con 100 personas o 50 de todos modos
no sabrás exactamente quién hizo las
filtraciones Así que creo que quar es
esencialmente impactante porque es
sorprendente que la empresa que está
tratando de trabajar en la
superinteligencia como es el caso de
Open eye puede haber logrado avances
significativos en ese sentido y
esencialmente por supuesto Aquí hay una
Innovación de los investigadores de la
empresa a principios de este año que les
permitía desarrollar modelos de
Inteligencia artificial mucho más
potentes Y por supuesto hubo
preocupaciones entre algunos empleados
de que la empresa no tenía salvaguardias
adecuadas para comercializar tales
modelos de Inteligencia artificial
avanzados esta persona dijo Por supuesto
que esta Innovación custard que fue
capaz de resolver problemas matemáticos
que no había visto antes lo cual es un
Nito técnico importante es algo que
cambiará el juego cuando finalmente se
implemente ahora por supuesto hubo más
detalles sobre qar y luego voy a abordar
un tema realmente grande del que creo
que no se está hablando lo suficiente
Aunque estos avances son buenos por
supuesto hay muchas cosas que
lamentablemente son bastante malas
básicamente Recuerda que Open dijo que
aunque la superinteligencia parece
lejana ahora creemos que podría llegar
en esta década lo que significa que
podríamos tener así para 2030 así que
aunque Open Ey dice que la
superinteligencia parece lejana podría
llegar en esta década no es una sorpresa
porque Aparentemente algunas personas
han afirmado que una vez que obtienes la
ía general no pasa mucho tiempo antes de
obtener la ia superinteligente además
también hubo esto que a principios de
este año Sas y su equipo descubrieron
una variación de ese método que produjo
resultados más significativos en sus
esfuerzos por entrenar modelos más
sofisticados y por supuesto
esencialmente Open eye está dedicando
una quinta parte de su capacidad de
cómputo para abordar la
superinteligencia y una última cosa que
quiero cubrir aquí es algo de lo que
quiero hablar con vosotros porque es
realmente ente importante y no hay
suficiente gente hablando al respecto y
esencialmente hay este concepto llamado
mic y mic ha llegado a significar una
condición en la que nosotros los humanos
somos obligados a hacer esfuerzos
inútiles y competir entre nosotros de
maneras que eventualmente nos llevan a
nuestra perdición Y esto es realmente
cierto y si piensas que solo estoy
agregando esto al vídeo por añadirlo
confía en mí no lo estoy haciendo por
eso que ran ver esto porque esto podría
ser un desastre básicamente
lievore estoy seguro de Cómo se
pronuncia tu nombre Ella hizo
recientemente una charla tet sobre el
programa del mic y es un problema
realmente grande que solo empeorará a
medida que las cosas avancen porque a
medida que los sistemas se vuelven más
poderosos necesitamos más seguridad Pero
por supuesto a medida que se vuelven más
poderosos las personas los implementarán
aún más voy a mostraros un fragmento de
esta charla Ted porque Es realmente
importante entender este problema porque
si no lo haces Y sé que algunas personas
están emocionadas por la Innovación en
Inteligencia artificial el riesgo
existencial está ahí literalmente
alrededor del 40% de los investigadores
en Inteligencia artificial dicen que
deberíamos frenar la investigación en
Inteligencia artificial y por supuesto
eso se debe a la Clara amenaza que
representa la superinteligencia Así que
os mostraré el clip esos influencers
están sacrificando su felicidad por
likes esos editores de noticias están
sacrificando su integridad por clicks y
los contaminadores están sacrificando la
biosfera por ganancia en todos estos
ejemplos los incentivos a corto plazo de
los propios juegos están empujando
tentando a sus jugadores a sacrificar
más y más de su futuro atrapándolo en
una espiral de muerte donde todos
pierden al final Esa es la trampa de
molot el mecanismo de una competencia
poco saludable y lo mismo está
sucediendo ahora en la industria de la
Inteligencia artificial todos somos
conscientes de la carrera que se está
intensificando entre las empresas en
este momento sobre quién puede obtener
la mayor cantidad de capacidad de
cómputo quién puede conseguir la mayor
Ronda de financiamiento o atraer al
mejor talento a medida que más y más
empresas se unen a esta carrera mayor es
la presión para que todos vayan lo
rápido posible y sacrifiquen otras cosas
importantes como las pruebas de
seguridad esto tiene todas las
características de una trampa de mic
porque imagina que eres un ceo que en lo
más profundo de tu corazón cree que tu
equipo es el mejor para construir de
manera segura una Inteligencia
artificial extremadamente poderosa Bueno
si mueves demasiado lentamente corres el
riesgo de que otros equipos mucho menos
cautelosos lleguen primero y desplieguen
sus sistemas antes de que puedas
entonces eso a su vez te empuja a ser
más imprudente tú mismo y dado cuantos
expertos e investigadores tanto dentro
de estas empresas como completamente
independientes nos han estado
advirtiendo sobre los riesgos extremos
de una Inteligencia artificial
apresurada este enfoque es absolutamente
descabellado además casi todas las
empresas de Inteligencia artificial
están obligadas a satisfacer a su
inversores un incentivo a corto plazo
que con el tiempo inevitablemente
entrará en conflicto con cualquier
Misión benevolente y esto no sería tan
grave si estuviéramos hablando solo de
tostadoras pero la Inteligencia
artificial especialmente la Inteligencia
artificial general está destinada a ser
un cambio de paradigma más grande que
las revoluciones agrícola o Industrial
un momento tan crucial que merece
reverencia y reflexión no algo que se
reduzca a una carrera corporativa de
quién puede obtener la mayor cantidad de
usuarios diarios activos no estoy
diciendo que sepa Cuál es el equilibrio
correcto entre la aceleración y la
seguridad pero sé que nunca
descubriremos Cuál es ese equilibrio
correcto si dejamos que el mic lo dicte
por nosotros con ese fragmento
básicamente están hablando del problema
de cómo las cosas se están desarrollando
demasiado rápido Y creo que esto
demuestra Por qué es un problema tan
serio porque estas empresas más pequeñas
esencialmente si obtenian una tecnología
similar a couat que tenía Open Ey piensa
en ello como Open eye tal vez a
diferencia de gpt 4 probaron la
seguridad de gpt 4 durante 6 meses tal
vez con este sistema agi tendrían que
probar su seguridad Durante un año y
medio Pero qué pasa si este otro sistema
de Inteligencia artificial como dijeron
está desplegando su sistema en un par de
meses eso llevará a que Open eye
esencialmente olvide Las barreras de
seguridad y despliegue su sistema vamos
a tener graves repercusiones en el
futuro entonces en esencia es un
problema Supongo que podrías decir de
una especie de carrera hacia el fondo
este gráfico de arc investment
management y han hablado sobre Como cada
año estos avances son como una acción
que simplemente sigue bajando hasta que
lleguemos a Ai puedes ver aquí que gpt3
pasó de 50 años Aproximadamente 40 luego
Google lanzó su agente conversacional
avanzado lambda 2 Boom bajamos a 18 años
chat gpt Boom bajamos de nuevo gpt 4 se
l Boom ahora Estamos en 8 años con este
avance de custard vamos a bajar de nuevo
vamos a estar a solo 4 años de distancia
puedes ver que si el error de las
predicciones continúa y recuerda que
chat gpt fue más reciente Desearía poder
mostraros cuánto más ha sucedido en
términos de la óptica de la ia porque ha
habido mucho más compromiso en términos
de la óptica de la ia entonces aquí hay
un punto de aceleración Así que
podríamos argumentar que esto va a
descender directamente lo que significa
que es este año si realmente lo piensas
chicos si este punto aquí es un
crecimiento exponencial va a descender
este año sabes a lo queé me refiero Así
que eso no es sorprendente Y si su error
en las predicciones continúa lo cual
para ser honestos los humanos son muy
malos para extrapolar el crecimiento
exponencial no me sorprendería si por
supuesto en 2025 sucederá algo
sorprendente con todas estas compañías
avanzando y creo que algo que vosotros
también queréis saber algo un poco
extraño pero que Open eye realmente
habló al respecto dijeron que
esencialmente no obtendremos la
superinteligencia en un sentido y por
supuesto que sí pero lo que dijeron
sobre sus pruebas de seguridad
básicamente dijeron que especificamos
cuatro niveles de riesgo de seguridad y
solo los modelos con una puntuación de
mitigación de riesgos de medio o menos
pueden ser desplegados esencialmente lo
que quieren decir es que solo se
desplegará un modelo que pueda
desempeñarse a un cierto nivel Y si
tienen un sistema que creen que es
demasiado inteligente Simplemente no lo
pondrán en el entorno real pero aquí
está el problema esto es la cuadratura
de seguridad de Open eye esto es su
mitigación de riesgos de seguridad qué
van a hacer otras compañías otras
compañías van a seguir esto y si lo
hacen quiero decir qué va a pasar en el
mundo va a ser un lugar increíblemente
extraño para vivir porque hasta ahora
están diciendo que la agi llegará para
el 2026 y ahora que estamos en el 2024
Esto está a un año y medio de distancia
Recuerdo cuando la gente decía que la
agi en 18 meses era una locura Ahora
parece que es realista Así que con la
cantidad de inversión que entra en estas
empresas con la cantidad de cosas que
están sucediendo con los avances de qar
hace solo unos meses con capacidades de
razonamiento activo Aparentemente
descubiertas recientemente con esta
longitud de contexto enorme presente con
nuevas arquitecturas surgiendo y con
estas inversiones masivas y también
estos chicos diciendo que esto es mejor
que cualquier cosa que hayamos visto
antes es no tengo idea de lo que han
desarrollado Pero de cualquier manera
estoy emocionada asustada aterrorizada
quiero decir tantas palabras para
describir una tecnología tan
Revolucionaria estoy emocionada de ver
cómo se desarrolla qué pensáis vosotros
al respecto pensáis que esto es
increíble aburrido una buena
actualización dejadme saber qué pensáis
ha sido un febrero increíble y nos vemos
para otra actualización mañana si habéis
llegado hasta este punto del vídeo dle
like suscríbete y deja un comentario
Browse More Related Video
🤖🚀 Esta Semana en IA: 🕵️♂️¿Se ha filtrado un modelo secreto de OPENAI? 🚀🤖
Todo LO QUE HA PASADO en el mundo de la IA GENERATIVA desde ChatGPT
🔴 LLAMA 3 - ¡META Vuelve a REVOLUCIONAR el mundo de la IA!
La evolución de todo lo que existe – Clarity
How AI works, using very simple words
Lo que Han Inventado estos Científicos PARALIZA el Mundo y la Tecnología
5.0 / 5 (0 votes)