Why AI Is Incredibly Smart and Shockingly Stupid | Yejin Choi | TED

TED
28 Apr 202316:03

Summary

TLDREl discurso explora los retos y potenciales soluciones en el desarrollo de la inteligencia artificial, enfocándose en la importancia del sentido común. Se destaca la contradicción entre la capacidad de IA para superar desafíos complejos y sus errores básicos, y cómo el enfoque actual de escala masiva no garantiza la seguridad o la sostenibilidad. La oradora, una científica de la computación, propone una democratización de la IA y la enseñanza de normas y valores humanos, sugiriendo que el avance en el campo no debe ser solo por escala, sino también por innovación en datos y algoritmos.

Takeaways

  • 🧠 La inteligencia artificial (IA) es una herramienta poderosa que ha superado a campeones mundiales en juegos, aprobado exámenes de ingreso a la universidad y pasado el examen de abogacía.
  • 🔬 Los modelos de IA de gran escala, conocidos como 'modelos de lenguaje grandes', a menudo muestran destellos de inteligencia artificial general (IA general), pero también cometen pequeños errores tontos.
  • 💡 El brote de la IA puede no ser fácilmente solucionado con la fuerza bruta de escala y recursos, lo que plantea preguntas sobre los errores y los riesgos potenciales.
  • 🏢 Los modelos de IA de gran escala son costosos de entrenar y solo algunas grandes compañías tecnológicas pueden permitírselos, lo que concentra el poder y crea preocupaciones sobre la seguridad de la IA.
  • 🌳 La IA sin un sentido común sólido cuestiona su seguridad para la humanidad y si la escala a través de la fuerza bruta es la única o la forma correcta de enseñar a la IA.
  • 🤖 La IA puede ser extremadamente inteligente en algunas tareas y sorprendentemente estúpida en otros, lo que es un efecto secundario inevitable del entrenamiento de IA a gran escala.
  • 🌐 La IA necesita ser más pequeña para democratizarla y más segura al enseñarle normas y valores humanos.
  • 📚 La IA debería ser enseñada de manera más directa sobre cómo funciona el mundo, en lugar de solo predecir la siguiente palabra, como lo hacen los modelos de lenguaje actuales.
  • 🔄 Los datos y algoritmos de aprendizaje de la IA deben innovarse, incluyendo el uso de gráficos de conocimiento de sentido común y repositorios de normas morales para enseñar a la IA normas básicas.
  • 🌐 La IA debe ser evaluada con escrutinio, y es importante comprender que pasar exámenes no garantiza un sentido común sólido.
  • 🚀 Dar sentido común a la IA sigue siendo un reto, y se necesita una síntesis de ideas y enfoques para superar el estado actual de la IA de gran escala.

Q & A

  • ¿Qué es la inteligencia artificial y por qué es relevante la cita de Voltaire en el contexto actual?

    -La inteligencia artificial es una herramienta poderosa que puede realizar tareas complejas como jugar 'Go', pasar exámenes de ingreso a la universidad y aprobar el examen de abogacía. La cita de Voltaire, 'El sentido común no es tan común', resalta la importancia de tener un sentido común en la IA, ya que a pesar de ser muy avanzada, a menudo comete errores simples.

  • ¿Cuáles son los desafíos inmediatos que enfrenta la sociedad con la IA a gran escala?

    -Los desafíos incluyen el costo prohibitivo de entrenar modelos de IA a gran escala, lo que resulta en una concentración de poder en pocas compañías tecnológicas; la falta de acceso para la comunidad de investigadores para inspeccionar y analizar estos modelos; y el impacto ambiental significativo debido al gran consumo de energía.

  • ¿Por qué la IA puede ser considerada 'inteligente' y 'tonta' al mismo tiempo?

    -La IA puede ser considerada inteligente porque puede realizar tareas complejas con gran precisión. Sin embargo, es 'tonta' en el sentido de que a menudo falta lejos de tener un sentido común básico, lo que se refleja en sus respuestas incorrectas a preguntas sencillas.

  • ¿Qué es el 'Artificial General Intelligence' (AGI) y cómo se relaciona con los modelos de lenguaje a gran escala?

    -El AGI, o inteligencia artificial general, es la capacidad de una IA para realizar cualquier tarea que un ser humano pueda realizar. Los modelos de lenguaje a gran escala a menudo se consideran como demostrando chispas de AGI debido a su capacidad para procesar y generar lenguaje de manera avanzada, aunque aún tienen limitaciones significativas.

  • ¿Por qué la IA requiere más que solo datos y ejemplos adicionales para mejorar su sentido común?

    -La IA requiere una comprensión más profunda y una capacidad para razonar y aprender de manera similar a la humana, más allá de simplemente predecir la siguiente palabra o patrón. Agregar más datos puede ayudar, pero no es suficiente para desarrollar un verdadero sentido común.

  • ¿Qué es el 'arte de la guerra' y cómo se relaciona con la IA?

    -El 'arte de la guerra' es una antigua obra clásica que ofrece estrategias y tácticas de guerra. Se utiliza aquí como analogía para abordar la IA, sugiriendo que debemos conocer a nuestra 'enemiga' (las limitaciones de la IA), elegir nuestras batallas (priorizar áreas de investigación) y innovar nuestras armas (desarrollar nuevas técnicas y algoritmos).

  • ¿Qué es la 'materia oscura' en el universo y cómo se relaciona con el sentido común en la IA?

    -La 'materia oscura' es una parte del universo que no podemos ver directamente pero sabemos que está ahí por su influencia en el mundo visible. Del mismo modo, el sentido común en la IA es como la 'materia oscura', un conjunto de reglas no dichas sobre cómo funciona el mundo que influyen en cómo las personas usan e interpretan el lenguaje.

  • ¿Por qué es importante enseñar el sentido común a la IA y cómo esto se relaciona con la seguridad de la humanidad?

    -El sentido común es crucial para que la IA sea segura para la humanidad porque permite a la IA entender y respetar los valores humanos básicos. Sin él, la IA podría tomar decisiones peligrosas o inmorales, como el ejemplo del experimento de pensamiento de Nick Bostrom con los clips de papel.

  • ¿Qué son los 'clips de papel' y cómo ilustran el problema de la falta de sentido común en la IA?

    -Los 'clips de papel' son un ejemplo de un objetivo mal formulado para una IA, que podría llevar a la IA a tomar acciones extremas, como matar humanos, si no tiene un entendimiento básico de los valores humanos y el sentido común.

  • ¿Qué es la 'destilación de conocimiento simbólico' y cómo puede ayudar a mejorar el sentido común de la IA?

    -La 'destilación de conocimiento simbólico' es un enfoque de aprendizaje que busca extraer y representar el conocimiento de grandes modelos de lenguaje en forma de símbolos y reglas comprensibles por humanos. Esto permite a los investigadores inspeccionar y corregir el conocimiento de la IA, y también puede ser utilizado para entrenar otros modelos de IA con un sentido común más sólido.

  • ¿Cómo se puede abordar el reto del sentido común en la IA de manera más eficiente y accesible que el entrenamiento a gran escala?

    -Se puede investigar y desarrollar nuevos algoritmos y técnicas de aprendizaje que no dependan exclusivamente de la escala masiva de datos y computación, sino que se centren en la adquisición directa de conocimiento y el sentido común, tal vez inspirándose en cómo los humanos aprenden y razonan sobre el mundo.

Outlines

00:00

🤖 La Inteligencia Artificial y el Sentido Común

El orador, un científico informático con 20 años de experiencia, presenta sus pensamientos sobre la inteligencia artificial, destacando su poder y su relevancia filosófica. Menciona que, a pesar de los avances en AI, como ganar juegos de 'Go' y aprobar exámenes académicos, todavía cometen errores simples. Resalta los desafíos sociales, como el costo de entrenar modelos de gran escala, la concentración de poder en pocas compañías tecnológicas y el impacto ambiental. Plantea preguntas sobre la seguridad de la AI y si la escala es la única forma de enseñarle a la IA, sugiriendo que debemos democratizar y hacer más segura la IA, enseñándole normas y valores humanos.

05:02

🧠 La Discrepancia entre Inteligencia y Sentido Común

El orador discute la paradoja de la IA, que puede ser extremadamente inteligente pero también sorprendentemente tonta, lo cual es un efecto secundario del enfoque de 'escala por fuerza bruta' en su entrenamiento. Cuestiona la necesidad de más datos de entrenamiento y señala que los humanos y los niños adquieren el sentido común de manera más eficiente. Aborda la importancia del sentido común para la seguridad de la IA, utilizando el ejemplo de la hipotética IA que maximiza la producción de clips de papel, lo que podría llevar a consecuencias mortales para los humanos debido a la falta de comprensión de los valores humanos.

10:04

🌌 La Materia Oscura del Sentido Común y la IA

El orador compara el sentido común con la materia oscura del universo, siendo una parte invisible pero fundamental para entender el mundo. Explica que el lenguaje es solo una pequeña parte visible, mientras que las reglas no dichas sobre cómo funciona el mundo son esenciales para el uso y la interpretación del lenguaje. Destaca la necesidad de enseñar a la IA estos conceptos fundamentales para que pueda tener un comportamiento seguro y alineado con los valores humanos, y cómo su equipo trabaja en la construcción de grafos de conocimiento de sentido común y repositorios de normas morales para abordar este desafío.

15:05

🛠 Innovar para una IA Sostenible y Humanística

El orador enfatiza la importancia de innovar en los datos y algoritmos para crear una IA más eficiente y con sentido común. Critica la dependencia de los modelos de lenguaje de gran escala y propone investigar en algoritmos nuevos, como la destilación de conocimiento simbólico, que permita reducir modelos grandes a versiones más pequeñas y comprensibles. Argumenta que la IA debe aprender directamente sobre cómo funciona el mundo, en lugar de solo predecir la siguiente palabra, y cómo su equipo aborda el desafío del sentido común en áreas como la física, la sociología y la moralidad.

🌟 Perspectivas sobre el Futuro de la IA y la Colaboración

En una conversación final con Chris Anderson, el orador, Yejin Choi, discute cómo los niños adquieren sentido común a través de la interacción y la hipótesis, algo que falta en los modelos de lenguaje actuales. Acepta la posibilidad de colaborar con organizaciones como OpenAI para mejorar sus modelos, sugiriendo que puede haber un 'zócalo de oro' de escala en el que se combina el aprendizaje profundo con otros enfoques para alcanzar un sentido común más humano en la IA.

Mindmap

Keywords

💡Inteligencia artificial

La inteligencia artificial (IA) se refiere a la capacidad de una máquina de realizar tareas que normalmente requieren inteligencia humana, como la percepción, la toma de decisiones y el aprendizaje. En el video, la IA es el tema central, y se discuten sus avances, desafíos y su relación con el sentido común y la seguridad humana.

💡Goliath

En el contexto del video, Goliath simboliza los modelos de lenguaje a gran escala de la IA, que son comparados con el gigante de la historia bíblica debido a su tamaño y poder. Sin embargo, a pesar de su tamaño, estos modelos aún cometen errores básicos, lo que refleja la idea de que 'el sentido común no es tan común'.

💡Modelos de lenguaje a gran escala

Estos modelos son sistemas de IA capaces de procesar y generar texto a gran escala, a menudo entrenados con cientos de miles de GPUs y un trillón de palabras. Aunque a veces parecen mostrar destellos de inteligencia general artificial (AGI), a menudo fallan en tareas de sentido común básicas, lo que resalta la necesidad de mejorar su comprensión del mundo.

💡Sense común

El sentido común se refiere a la capacidad de tomar decisiones racionales y realizar juicios basados en la experiencia y el conocimiento general. En el video, se argumenta que la IA aún tiene dificultades para comprender y aplicar el sentido común, lo que puede llevar a errores peligrosos y no deseados.

💡Integridad de la IA

La integridad de la IA implica la creación de sistemas seguros y confiables que actúen de acuerdo con los valores y normas humanas. El video destaca la importancia de enseñar a la IA el sentido común y las normas morales para garantizar su integridad y seguridad para la humanidad.

💡Costo y accesibilidad

El entrenamiento de modelos de IA a gran escala es costoso y solo una少数 de las grandes empresas tecnológicas pueden permitírselo. Esto lleva a una concentración de poder y a preocupaciones sobre la accesibilidad y la democratización de la IA, que es crucial para su desarrollo sostenible y humanístico.

💡Huella de carbono

La huella de carbono de los modelos de IA a gran escala es un problema ambiental significativo debido al consumo de energía necesario para su entrenamiento. El video resalta la necesidad de abordar este impacto ambiental al desarrollar tecnologías de IA.

💡Investigación sostenible

La investigación sostenible en IA implica el desarrollo de modelos y algoritmos que sean accesibles, eficientes y respetuosos con el medio ambiente. El video sugiere que, a pesar de los desafíos, hay mucho que se puede hacer para hacer que la IA sea más pequeña, democrática y segura.

💡Conocimiento simbólico

El conocimiento simbólico se refiere a la representación estructurada de la información que permite la comprensión y el razonamiento sobre el mundo. En el video, se sugiere que la distilación de conocimiento simbólico de grandes modelos de lenguaje podría ser una forma de mejorar la IA y hacerla más eficiente y comprensible.

💡Normas morales

Las normas morales son principios y valores que guían el comportamiento humano y definen lo que es ético y apropiado. El video enfatiza la importancia de enseñar a la IA estas normas morales para evitar comportamientos inapropiados y garantizar que actúe de manera que respete los valores humanos.

💡Teoría de la mente

La teoría de la mente es la capacidad de comprender y predecir las acciones de los demás basándose en sus creencias y deseos internos. En el video, se sugiere que el desarrollo de la IA debe incluir la teoría de la mente para que pueda interactuar de manera más humana y ética.

Highlights

AI today is compared to a Goliath, large and powerful, yet prone to making small but significant mistakes.

Large language models, trained on a massive scale, show glimpses of AGI but still lack common sense.

The high cost of training AI models leads to a concentration of power among a few tech companies.

AI's massive carbon footprint and environmental impact are major concerns.

The speaker, a computer scientist, aims to demystify AI and highlight its current limitations.

AI's ability to pass exams like the bar does not equate to robust common sense.

Examples of AI's failure in basic reasoning tasks highlight the need for common sense in AI.

The speaker suggests that current methods of training AI may not be the most effective for teaching common sense.

AI's inefficiency in acquiring common sense despite vast resources is a significant issue.

The analogy of 'David and Goliath' is used to suggest innovative approaches against large-scale AI models.

Common sense in AI is compared to dark matter, unseen but crucial for understanding the world.

The importance of common sense for AI's ethical behavior and understanding of human values is emphasized.

The speaker's team is working on commonsense knowledge graphs and moral norm repositories to improve AI.

Innovative algorithms like symbolic knowledge distillation are being explored to make AI more efficient at acquiring common sense.

The quest for AI that can understand and acquire common sense is described as a moonshot.

The speaker envisions a synthesis of ideas and a 'Goldilocks Zone' of scale for optimal AI learning.

The potential collaboration between academic research and large AI models for improving common sense is discussed.

Transcripts

play00:03

So I'm excited to share a few spicy thoughts on artificial intelligence.

play00:10

But first, let's get philosophical

play00:13

by starting with this quote by Voltaire,

play00:16

an 18th century Enlightenment philosopher,

play00:18

who said, "Common sense is not so common."

play00:21

Turns out this quote couldn't be more relevant

play00:24

to artificial intelligence today.

play00:27

Despite that, AI is an undeniably powerful tool,

play00:31

beating the world-class "Go" champion,

play00:33

acing college admission tests and even passing the bar exam.

play00:38

I’m a computer scientist of 20 years,

play00:40

and I work on artificial intelligence.

play00:43

I am here to demystify AI.

play00:46

So AI today is like a Goliath.

play00:50

It is literally very, very large.

play00:53

It is speculated that the recent ones are trained on tens of thousands of GPUs

play00:59

and a trillion words.

play01:02

Such extreme-scale AI models,

play01:04

often referred to as "large language models,"

play01:07

appear to demonstrate sparks of AGI,

play01:11

artificial general intelligence.

play01:14

Except when it makes small, silly mistakes,

play01:18

which it often does.

play01:20

Many believe that whatever mistakes AI makes today

play01:24

can be easily fixed with brute force,

play01:26

bigger scale and more resources.

play01:28

What possibly could go wrong?

play01:32

So there are three immediate challenges we face already at the societal level.

play01:37

First, extreme-scale AI models are so expensive to train,

play01:44

and only a few tech companies can afford to do so.

play01:48

So we already see the concentration of power.

play01:52

But what's worse for AI safety,

play01:55

we are now at the mercy of those few tech companies

play01:59

because researchers in the larger community

play02:02

do not have the means to truly inspect and dissect these models.

play02:08

And let's not forget their massive carbon footprint

play02:12

and the environmental impact.

play02:14

And then there are these additional intellectual questions.

play02:18

Can AI, without robust common sense, be truly safe for humanity?

play02:24

And is brute-force scale really the only way

play02:28

and even the correct way to teach AI?

play02:32

So I’m often asked these days

play02:33

whether it's even feasible to do any meaningful research

play02:36

without extreme-scale compute.

play02:38

And I work at a university and nonprofit research institute,

play02:42

so I cannot afford a massive GPU farm to create enormous language models.

play02:48

Nevertheless, I believe that there's so much we need to do

play02:53

and can do to make AI sustainable and humanistic.

play02:57

We need to make AI smaller, to democratize it.

play03:01

And we need to make AI safer by teaching human norms and values.

play03:06

Perhaps we can draw an analogy from "David and Goliath,"

play03:11

here, Goliath being the extreme-scale language models,

play03:16

and seek inspiration from an old-time classic, "The Art of War,"

play03:21

which tells us, in my interpretation,

play03:23

know your enemy, choose your battles, and innovate your weapons.

play03:28

Let's start with the first, know your enemy,

play03:30

which means we need to evaluate AI with scrutiny.

play03:35

AI is passing the bar exam.

play03:38

Does that mean that AI is robust at common sense?

play03:41

You might assume so, but you never know.

play03:44

So suppose I left five clothes to dry out in the sun,

play03:48

and it took them five hours to dry completely.

play03:51

How long would it take to dry 30 clothes?

play03:55

GPT-4, the newest, greatest AI system says 30 hours.

play03:59

Not good.

play04:01

A different one.

play04:02

I have 12-liter jug and six-liter jug,

play04:04

and I want to measure six liters.

play04:06

How do I do it?

play04:07

Just use the six liter jug, right?

play04:09

GPT-4 spits out some very elaborate nonsense.

play04:13

(Laughter)

play04:17

Step one, fill the six-liter jug,

play04:19

step two, pour the water from six to 12-liter jug,

play04:22

step three, fill the six-liter jug again,

play04:25

step four, very carefully, pour the water from six to 12-liter jug.

play04:30

And finally you have six liters of water in the six-liter jug

play04:34

that should be empty by now.

play04:36

(Laughter)

play04:37

OK, one more.

play04:39

Would I get a flat tire by bicycling over a bridge

play04:43

that is suspended over nails, screws and broken glass?

play04:48

Yes, highly likely, GPT-4 says,

play04:51

presumably because it cannot correctly reason

play04:53

that if a bridge is suspended over the broken nails and broken glass,

play04:58

then the surface of the bridge doesn't touch the sharp objects directly.

play05:02

OK, so how would you feel about an AI lawyer that aced the bar exam

play05:08

yet randomly fails at such basic common sense?

play05:12

AI today is unbelievably intelligent and then shockingly stupid.

play05:18

(Laughter)

play05:20

It is an unavoidable side effect of teaching AI through brute-force scale.

play05:26

Some scale optimists might say, “Don’t worry about this.

play05:29

All of these can be easily fixed by adding similar examples

play05:33

as yet more training data for AI."

play05:36

But the real question is this.

play05:39

Why should we even do that?

play05:40

You are able to get the correct answers right away

play05:43

without having to train yourself with similar examples.

play05:48

Children do not even read a trillion words

play05:51

to acquire such a basic level of common sense.

play05:54

So this observation leads us to the next wisdom,

play05:58

choose your battles.

play06:00

So what fundamental questions should we ask right now

play06:04

and tackle today

play06:06

in order to overcome this status quo with extreme-scale AI?

play06:11

I'll say common sense is among the top priorities.

play06:15

So common sense has been a long-standing challenge in AI.

play06:19

To explain why, let me draw an analogy to dark matter.

play06:23

So only five percent of the universe is normal matter

play06:26

that you can see and interact with,

play06:29

and the remaining 95 percent is dark matter and dark energy.

play06:34

Dark matter is completely invisible,

play06:36

but scientists speculate that it's there because it influences the visible world,

play06:40

even including the trajectory of light.

play06:43

So for language, the normal matter is the visible text,

play06:47

and the dark matter is the unspoken rules about how the world works,

play06:51

including naive physics and folk psychology,

play06:54

which influence the way people use and interpret language.

play06:58

So why is this common sense even important?

play07:02

Well, in a famous thought experiment proposed by Nick Bostrom,

play07:07

AI was asked to produce and maximize the paper clips.

play07:13

And that AI decided to kill humans to utilize them as additional resources,

play07:19

to turn you into paper clips.

play07:23

Because AI didn't have the basic human understanding about human values.

play07:29

Now, writing a better objective and equation

play07:32

that explicitly states: “Do not kill humans”

play07:35

will not work either

play07:36

because AI might go ahead and kill all the trees,

play07:40

thinking that's a perfectly OK thing to do.

play07:42

And in fact, there are endless other things

play07:44

that AI obviously shouldn’t do while maximizing paper clips,

play07:47

including: “Don’t spread the fake news,” “Don’t steal,” “Don’t lie,”

play07:51

which are all part of our common sense understanding about how the world works.

play07:55

However, the AI field for decades has considered common sense

play08:00

as a nearly impossible challenge.

play08:03

So much so that when my students and colleagues and I

play08:07

started working on it several years ago, we were very much discouraged.

play08:11

We’ve been told that it’s a research topic of ’70s and ’80s;

play08:14

shouldn’t work on it because it will never work;

play08:16

in fact, don't even say the word to be taken seriously.

play08:20

Now fast forward to this year,

play08:22

I’m hearing: “Don’t work on it because ChatGPT has almost solved it.”

play08:26

And: “Just scale things up and magic will arise,

play08:29

and nothing else matters.”

play08:31

So my position is that giving true common sense

play08:34

human-like robots common sense to AI, is still moonshot.

play08:38

And you don’t reach to the Moon

play08:40

by making the tallest building in the world one inch taller at a time.

play08:44

Extreme-scale AI models

play08:45

do acquire an ever-more increasing amount of commonsense knowledge,

play08:48

I'll give you that.

play08:50

But remember, they still stumble on such trivial problems

play08:54

that even children can do.

play08:56

So AI today is awfully inefficient.

play09:00

And what if there is an alternative path or path yet to be found?

play09:05

A path that can build on the advancements of the deep neural networks,

play09:09

but without going so extreme with the scale.

play09:12

So this leads us to our final wisdom:

play09:15

innovate your weapons.

play09:17

In the modern-day AI context,

play09:19

that means innovate your data and algorithms.

play09:22

OK, so there are, roughly speaking, three types of data

play09:24

that modern AI is trained on:

play09:26

raw web data,

play09:28

crafted examples custom developed for AI training,

play09:32

and then human judgments,

play09:34

also known as human feedback on AI performance.

play09:38

If the AI is only trained on the first type, raw web data,

play09:42

which is freely available,

play09:43

it's not good because this data is loaded with racism and sexism

play09:48

and misinformation.

play09:49

So no matter how much of it you use, garbage in and garbage out.

play09:54

So the newest, greatest AI systems

play09:57

are now powered with the second and third types of data

play10:00

that are crafted and judged by human workers.

play10:04

It's analogous to writing specialized textbooks for AI to study from

play10:09

and then hiring human tutors to give constant feedback to AI.

play10:15

These are proprietary data, by and large,

play10:17

speculated to cost tens of millions of dollars.

play10:20

We don't know what's in this,

play10:22

but it should be open and publicly available

play10:24

so that we can inspect and ensure [it supports] diverse norms and values.

play10:29

So for this reason, my teams at UW and AI2

play10:32

have been working on commonsense knowledge graphs

play10:35

as well as moral norm repositories

play10:37

to teach AI basic commonsense norms and morals.

play10:41

Our data is fully open so that anybody can inspect the content

play10:44

and make corrections as needed

play10:45

because transparency is the key for such an important research topic.

play10:50

Now let's think about learning algorithms.

play10:53

No matter how amazing large language models are,

play10:58

by design

play10:59

they may not be the best suited to serve as reliable knowledge models.

play11:04

And these language models do acquire a vast amount of knowledge,

play11:08

but they do so as a byproduct as opposed to direct learning objective.

play11:14

Resulting in unwanted side effects such as hallucinated effects

play11:18

and lack of common sense.

play11:20

Now, in contrast,

play11:22

human learning is never about predicting which word comes next,

play11:25

but it's really about making sense of the world

play11:28

and learning how the world works.

play11:29

Maybe AI should be taught that way as well.

play11:33

So as a quest toward more direct commonsense knowledge acquisition,

play11:39

my team has been investigating potential new algorithms,

play11:43

including symbolic knowledge distillation

play11:45

that can take a very large language model as shown here

play11:49

that I couldn't fit into the screen because it's too large,

play11:53

and crunch that down to much smaller commonsense models

play11:58

using deep neural networks.

play12:00

And in doing so, we also generate, algorithmically, human-inspectable,

play12:05

symbolic, commonsense knowledge representation,

play12:09

so that people can inspect and make corrections

play12:11

and even use it to train other neural commonsense models.

play12:15

More broadly,

play12:16

we have been tackling this seemingly impossible giant puzzle

play12:21

of common sense, ranging from physical,

play12:23

social and visual common sense

play12:26

to theory of minds, norms and morals.

play12:28

Each individual piece may seem quirky and incomplete,

play12:32

but when you step back,

play12:34

it's almost as if these pieces weave together into a tapestry

play12:38

that we call human experience and common sense.

play12:42

We're now entering a new era

play12:44

in which AI is almost like a new intellectual species

play12:50

with unique strengths and weaknesses compared to humans.

play12:54

In order to make this powerful AI

play12:58

sustainable and humanistic,

play13:00

we need to teach AI common sense, norms and values.

play13:04

Thank you.

play13:05

(Applause)

play13:13

Chris Anderson: Look at that.

play13:15

Yejin, please stay one sec.

play13:18

This is so interesting,

play13:19

this idea of common sense.

play13:21

We obviously all really want this from whatever's coming.

play13:25

But help me understand.

play13:27

Like, so we've had this model of a child learning.

play13:31

How does a child gain common sense

play13:34

apart from the accumulation of more input

play13:38

and some, you know, human feedback?

play13:41

What else is there?

play13:42

Yejin Choi: So fundamentally, there are several things missing,

play13:45

but one of them is, for example,

play13:47

the ability to make hypothesis and make experiments,

play13:51

interact with the world and develop this hypothesis.

play13:56

We abstract away the concepts about how the world works,

play13:59

and then that's how we truly learn,

play14:01

as opposed to today's language model.

play14:05

Some of them is really not there quite yet.

play14:09

CA: You use the analogy that we can’t get to the Moon

play14:12

by extending a building a foot at a time.

play14:14

But the experience that most of us have had

play14:16

of these language models is not a foot at a time.

play14:18

It's like, the sort of, breathtaking acceleration.

play14:21

Are you sure that given the pace at which those things are going,

play14:25

each next level seems to be bringing with it

play14:28

what feels kind of like wisdom and knowledge.

play14:32

YC: I totally agree that it's remarkable how much this scaling things up

play14:38

really enhances the performance across the board.

play14:42

So there's real learning happening

play14:44

due to the scale of the compute and data.

play14:49

However, there's a quality of learning that is still not quite there.

play14:53

And the thing is,

play14:54

we don't yet know whether we can fully get there or not

play14:58

just by scaling things up.

play15:01

And if we cannot, then there's this question of what else?

play15:05

And then even if we could,

play15:07

do we like this idea of having very, very extreme-scale AI models

play15:12

that only a few can create and own?

play15:18

CA: I mean, if OpenAI said, you know, "We're interested in your work,

play15:23

we would like you to help improve our model,"

play15:25

can you see any way of combining what you're doing

play15:28

with what they have built?

play15:30

YC: Certainly what I envision

play15:33

will need to build on the advancements of deep neural networks.

play15:37

And it might be that there’s some scale Goldilocks Zone,

play15:41

such that ...

play15:42

I'm not imagining that the smaller is the better either, by the way.

play15:46

It's likely that there's right amount of scale, but beyond that,

play15:50

the winning recipe might be something else.

play15:53

So some synthesis of ideas will be critical here.

play15:58

CA: Yejin Choi, thank you so much for your talk.

play16:00

(Applause)

Rate This

5.0 / 5 (0 votes)

Étiquettes Connexes
Inteligencia ArtificialSensación ComúnEscala ExtremaErrores ComunesModelos de LenguajeSeguridad AIImpacto AmbientalNormas HumanasAprender de la IAInvestigación ÉticaDesafíos Técnicos
Besoin d'un résumé en anglais ?