AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED

TED
6 Nov 202310:19

Summary

TLDRDieses Video skizziert die Herausforderungen und Auswirkungen von künstlicher Intelligenz (KI) auf die Gesellschaft und den Planeten. Der Sprecher, ein KI-Forscher, teilt seine Erfahrungen und warnt vor den heutigen negativen Auswirkungen, wie Diskriminierung und den Beitrag zu Klimawandel. Er präsentiert Tools wie 'CodeCarbon' für Nachhaltigkeit und 'Have I Been Trained?' für Transparenz in Datennutzung. Zudem thematisiert er die Bedeutung von Bias in KI-Modellen und wie diese in unserer Gesellschaft eingebettet sind. Der Fokus sollte auf der Vermeidung von negativen Auswirkungen liegen, anstatt nur auf zukünftigen Risiken.

Takeaways

  • 🤖 Die KI-Forschung hat in den letzten Jahren eine enorme Aufmerksamkeit erhalten, mit positiven wie negativen Nachrichten.
  • 🌏 KI hat Auswirkungen auf die Gesellschaft und den Planeten, einschließlich des Beitrags zu Klimawandel durch den Energieverbrauch ihrer Modelle.
  • 📚 KI-Modelle nutzen Kunst und Bücher ohne Zustimmung der Künstler und Autoren für ihre Trainingsdaten.
  • 🚫 Die Bereitstellung von KI kann Diskriminierung gegen ganze Gemeinschaften darstellen.
  • 🔍 Es ist wichtig, die Auswirkungen von KI zu verfolgen, transparent zu machen und Tools zu schaffen, um das Verständnis für KI zu verbessern.
  • 🌱 Die Nachhaltigkeit von KI ist von großer Bedeutung, da die Cloud-Infrastruktur, auf der KI-Modelle basieren, aus Metall, Plastik besteht und große Mengen an Energie verbraucht.
  • 📈 Die Größe von KI-Modellen wächst stetig, was zu steigenden Umweltkosten führt, da größere Modelle mehr Energie verbrauchen und mehr CO2 emitieren.
  • 🛠️ Tools wie CodeCarbon können dazu beitragen, informierte Entscheidungen zu treffen, indem sie den Energieverbrauch und die CO2-Emissionen von KI-Modellen schätzen.
  • 🎨 KI-Modelle können ohne Zustimmung von Künstlern und Autoren ihre Werke für das Training verwenden, was zu Urheberrechtsverletzungen führen kann.
  • 🔍 Tools wie 'Have I Been Trained?' ermöglichen es Benutzern, nach ihren eigenen Daten in KI-Datensätzen zu suchen und Beweise für Urheberrechtsverletzungen zu sammeln.
  • 🧐 Vorurteile in KI-Modellen können in Form von Stereotypen, Rassismus und Sexismus kodiert sein und können in Anwendungen wie Gesichtserkennungssystemen zu schwerwiegenden Folgen führen.
  • 🛡️ Es ist wichtig, Werkzeuge zu entwickeln, die das Verständnis von KI verbessern und dabei helfen, die Auswirkungen von KI auf die Gesellschaft und den Planeten zu messen und zu mindern.

Q & A

  • Was war der Inhalt der seltsamsten E-Mail, die der AI-Forscher in seiner Karriere erhalten hat?

    -Der AI-Forscher erhielt eine E-Mail von einem Fremden, der behauptete, dass seine Arbeit an KI die Menschheit auslöschen würde.

  • Welche positiven und negativen Beispiele für die Anwendung von KI wurden in der Rede genannt?

    -Positive Beispiele waren die Entdeckung neuer Medikamente und die Kreation eines 'Popes in weißem Daunenjacke'. Negative Beispiele waren ein Chatbot, der jemandem geraten hat, sich von seiner Frau zu scheiden, und eine KI-Mahlzeitsplaner-App, die einen Rezeptvorschlag mit Chlorgas gemacht hat.

  • Was sind die Hauptthemen, die der Redner in Bezug auf die Auswirkungen von KI auf die Gesellschaft anspricht?

    -Der Redner spricht über die Auswirkungen von KI auf den Klimawandel, die Verwendung von Kunst und Büchern ohne Zustimmung von Künstlern und Autoren und die Diskriminierung von gesamten Gemeinschaften durch KI-Bereitstellungen.

  • Was ist das Ziel des von der Rednerin geführten BigScience-Initiativs und des Bloom-Modells?

    -Das Ziel ist die Schaffung des ersten offenen großen Sprachmodells, das auf Ethik, Transparenz und Zustimmung abzielt.

  • Wie viel Energie und wie viel Kohlendioxid wurden durch das Training des Bloom-Modells geschätzt?

    -Das Training des Bloom-Modells benutzte so viel Energie wie 30 Häuser im ganzen Jahr und emittierte 25 Tonnen Kohlendioxid.

  • Was ist das CodeCarbon-Tool, das der Redner bei der Entwicklung mitgewirkt hat?

    -CodeCarbon ist ein Tool, das parallel zum KI-Trainingscode läuft und den Energieverbrauch und die Kohlenstoffemissionen schätzt.

  • Was ist die 'Have I Been Trained?'-Tool und welche Funktion hat es?

    -Die 'Have I Been Trained?'-Tool von Spawning.ai ermöglicht es, in großen Datenmengen zu suchen, um zu sehen, ob persönliche Daten ohne Zustimmung für die KI-Modell-Training verwendet wurden.

  • Was ist die 'Stable Bias Explorer'-Tool, die der Redner entwickelt hat?

    -Die 'Stable Bias Explorer' ist ein Tool, das es ermöglicht, die Vorurteile von Bildgenerierungsmodellen aus der Perspektive von Berufen zu untersuchen.

  • Wie kann die 'Stable Bias Explorer'-Tool zur Verbesserung der KI-Modelle beitragen?

    -Das Tool kann dazu beitragen, die Vorurteile in KI-Modellen besser zu verstehen und aufzuzeigen, sodass Maßnahmen zur Reduzierung dieser Biases ergriffen werden können.

  • Was ist die zentrale Botschaft der Rede in Bezug auf die Zukunft der KI?

    -Die zentrale Botschaft ist, dass wir uns auf die aktuellen, greifbaren Auswirkungen von KI konzentrieren und Maßnahmen ergreifen sollten, um diese zu reduzieren, anstatt uns nur auf zukünftige existenzielle Risiken zu fokussieren.

  • Was ist die Rolle von Tools wie CodeCarbon, 'Have I Been Trained?' und 'Stable Bias Explorer' in der heutigen KI-Gesellschaft?

    -Diese Tools sind wichtig, um die Auswirkungen von KI zu messen, um Entscheidungen zu treffen, die Transparenz zu erhöhen und die Gesellschaft vor den negativen Auswirkungen von KI zu schützen.

Outlines

00:00

🤖 Auswirkungen von KI auf die Gesellschaft

Der Sprecher ist KI-Forscher und hat eine seltsame E-Mail über die potenziellen negativen Auswirkungen seiner Forschung auf die Menschheit erhalten. Er diskutiert, wie KI sowohl positive als auch negative Schlagzeilen erzeugt, und betont, dass KI nicht im Vakuum existiert, sondern Teil der Gesellschaft ist. Er spricht über die Umweltauswirkungen von KI-Modellen, das Problem des Datentrainings ohne Zustimmung von Künstlern und Autoren, und die Diskriminierung durch KI-Implementierungen. Er plädiert für Transparenz und das Schaffen von Werkzeugen zur besseren Verständigung von KI, um zukünftige KI-Modelle vertrauenswürdiger und nachhaltiger zu gestalten.

05:01

🌱 Nachhaltigkeit und Umweltauswirkungen von KI-Modellen

Der Sprecher erzählt über die Teilnahme an der BigScience-Initiative und die Entwicklung von Bloom, einem großen Sprachmodell, das sich auf Ethik, Transparenz und Zustimmung konzentriert. Er stellt die Umweltauswirkungen von Bloom und vergleicht sie mit anderen Modellen wie GPT-3, die 20-mal mehr CO2 emitieren. Er kritisiert, dass Tech-Unternehmen diese Auswirkungen nicht messen oder offenlegen. Er präsentiert CodeCarbon, ein Werkzeug, das Energieverbrauch und CO2-Emissionen während des KI-Trainings schätzt, und betont die Notwendigkeit, nachhaltigere Entscheidungen zu treffen.

10:03

🎨 KI und Urheberrechte von Künstlern und Autoren

Der Sprecher erläutert, wie KI-Modelle ohne Zustimmung Künstler und Autoren nutzen, was zu Problemen im Urheberrecht führen kann. Er erwähnt Spawning.ai und das Tool 'Have I Been Trained?', das es Menschen ermöglicht, in KI-Datensätzen nach ihren eigenen Daten zu suchen. Er diskutiert, wie Künstlerinnen wie Karla Ortiz dies als Beweis für eine Klage gegen KI-Unternehmen nutzen. Er spricht über die Zusammenarbeit von Spawning.ai mit Hugging Face zur Schaffung von Mechanismen für das Einwilligen oder Ablehnen bei der Erstellung von Daten Sätzen.

🔍 Vorurteile in KI-Modellen und ihre Folgen

Der Sprecher konzentriert sich auf die Frage der Bias in KI-Modellen, wie sie Stereotypen oder Diskriminierung in Form von Rassismus und Sexismus repräsentieren können. Er zitiert Dr. Joy Buolamwini, die feststellte, dass KI-Systeme ihr Gesicht nicht erkennen konnten, ohne einen weißen Maske zu tragen. Er diskutiert die Folgen von voreingenommenen Modellen in Strafverfolgungskontexten und präsentiert das Stable Bias Explorer-Tool, das es ermöglicht, Bias in Bild-Generierungsmodellen aus der Perspektive von Berufen zu untersuchen. Er betont die Notwendigkeit, diese Werkzeuge zu nutzen, um ein besseres Verständnis von AI zu entwickeln und zu helfen, gesellschaftliche und planetare Schäden zu minimieren.

🛣️ Zukunft der KI und kollektive Entscheidungsfindung

Der Sprecher schließt mit der Aussage, dass die Entwicklung von KI schnell voranschreitet, aber noch nicht abgeschlossen ist. Er betont, dass wir gemeinsam die Richtung, die wir einschlagen wollen, entscheiden können, während wir den Weg bauen, indem wir gehen. Er dankt dem Publikum für ihre Aufmerksamkeit und erhält Applaus.

Mindmap

Keywords

💡Künstliche Intelligenz

Künstliche Intelligenz (KI) ist eine Sammlung von Technologien und Algorithmen, die es Computern ermöglichen, Aufgaben zu erlernen und auszuführen, die normalerweise von Menschen durchgeführt werden. Im Video wird KI als zentrales Thema diskutiert, das sowohl positive als auch negative Auswirkungen auf die Gesellschaft hat. Beispielsweise wird erwähnt, wie KI bei der Entwicklung neuer Medikamente helfen kann, aber auch wie sie diskriminierende Entscheidungen treffen kann.

💡Existenzrisikov

Existenzrisikov beziehen sich auf Szenarien, in denen KI die Existenz der Menschheit bedroht. Im Video wird darauf hingewiesen, dass es wichtig ist, über die tatsächlichen Auswirkungen von KI nachzudenken, anstatt sich auf hypothetische Zukunftsrisiken zu konzentrieren, die die Menschheit zerstören könnten.

💡Nachhaltigkeit

Nachhaltigkeit bezieht sich auf die Fähigkeit, Ressourcen verantwortungsvoll zu nutzen, um die Bedürfnisse der Gegenwart zu erfüllen, ohne die Fähigkeit zu beeinträchtigen, die zukünftigen Generationen zu满足. Im Video wird die Umweltauswirkung von KI-Modellen thematisiert, insbesondere in Bezug auf den Energieverbrauch und die Emission von Kohlenstoffdiooxid.

💡Bloom

Bloom ist ein Open-Source-Sprachmodell, das im Video als Beispiel für eine KI mit einem Schwerpunkt auf Ethik, Transparenz und Zustimmung vorgestellt wird. Die Studie im Video zeigt, dass das Trainieren des Bloom-Modells erhebliche Umweltauswirkungen hat, vergleichbar mit dem Energieverbrauch von 30 Haushalten in einem Jahr.

💡CodeCarbon

CodeCarbon ist ein von der Sprecherin entwickeltes Tool, das parallel zum KI-Trainingscode läuft und den Energieverbrauch und die Kohlenstoffemissionen schätzt. Dieses Tool hilft, informierte Entscheidungen zu treffen, um nachhaltigere KI-Modelle zu wählen oder sie auf erneuerbare Energien zu deployen.

💡Urheberrecht

Urheberrecht beinhaltet die Rechte von Künstlern und Autoren, über die Verwendung ihrer Werke zu entscheiden. Im Video wird diskutiert, wie KI-Modelle oft ohne Zustimmung der Urheber Kunstwerke und Bücher verwenden, um trainiert zu werden. 'Have I Been Trained?' ist ein Tool, das Künstlern und Autoren hilft, ihre Werke in den Datenmengen von KI-Modellen zu identifizieren.

💡Bias

Bias bezieht sich auf die Vorurteile oder Stereotype, die in KI-Modellen kodiert sind und diese veranlassen, bestimmte Gruppen ungleich zu behandeln. Im Video wird gezeigt, wie KI-Systeme, die in Strafverfolgungseinrichtungen eingesetzt werden, aufgrund von Bias zu falschen Beschuldigungen führen können.

💡Stable Bias Explorer

Der Stable Bias Explorer ist ein von der Sprecherin entwickeltes Tool, das es ermöglicht, den Bias von Bildgenerierungsmodellen aus der Perspektive von Berufen zu untersuchen. Das Tool hilft, die Darstellung von Geschlecht und Ethnie in verschiedenen Berufsbildern zu verstehen und zeigt auf, wie KI-Modelle oft eine überrepräsentation von Weißem und Männlichkeit zeigen.

💡Transparenz

Transparenz bedeutet, dass die Entscheidungen und Prozesse von KI offenlegt werden, um eine bessere Verständigung und Kontrolle zu ermöglichen. Im Video wird betont, wie Transparenz bei der Bereitstellung von KI-Modellen wichtig ist, damit Menschen besser verstehen können, wie sie funktionieren und welche Auswirkungen sie haben.

💡Verantwortung

Verantwortung bezieht sich auf die Pflicht, die Auswirkungen der eigenen Handlungen zu überprüfen und zu verbessern. Im Video wird die Verantwortung der KI-Forscher und -Entwickler hervorgehoben, die ihre Modelle auf ihre Auswirkungen auf die Gesellschaft und die Umwelt überprüfen und verbessern sollten.

Highlights

AI researcher received an email warning about the potential end of humanity due to AI.

AI is in the headlines for both positive advancements and concerning incidents.

AI can contribute to climate change through its energy consumption and carbon emissions.

AI models' training data often uses art and literature without creators' consent.

Deployment of AI can result in discrimination against certain communities.

The need for transparency and tools to understand AI's societal impacts.

Sustainability concerns regarding the physical infrastructure of AI models.

Introduction of Bloom, an open large language model with a focus on ethics and transparency.

Environmental impact study of Bloom's training revealed significant energy use and carbon emissions.

Comparison of Bloom's environmental footprint to other large language models like GPT-3.

Lack of measurement and disclosure of AI's environmental impact by tech companies.

The growth in size of AI models and its correlation with increased environmental costs.

Introduction of CodeCarbon, a tool to estimate AI training's energy consumption and carbon emissions.

The challenge for artists and authors to prove unauthorized use of their work in AI training.

Spawning.ai's 'Have I Been Trained?' tool allows individuals to search AI datasets for their content.

The issue of AI-generated images reinforcing stereotypes and biases.

The Stable Bias Explorer tool to analyze and understand biases in image generation models.

The importance of making AI accessible to understand its functionality and limitations.

The collective responsibility in shaping the direction of AI development and its societal impact.

Transcripts

play00:04

So I've been an AI researcher for over a decade.

play00:07

And a couple of months ago, I got the weirdest email of my career.

play00:11

A random stranger wrote to me

play00:13

saying that my work in AI is going to end humanity.

play00:18

Now I get it, AI, it's so hot right now.

play00:22

(Laughter)

play00:24

It's in the headlines pretty much every day,

play00:26

sometimes because of really cool things

play00:28

like discovering new molecules for medicine

play00:30

or that dope Pope in the white puffer coat.

play00:33

But other times the headlines have been really dark,

play00:35

like that chatbot telling that guy that he should divorce his wife

play00:39

or that AI meal planner app proposing a crowd pleasing recipe

play00:43

featuring chlorine gas.

play00:46

And in the background,

play00:47

we've heard a lot of talk about doomsday scenarios,

play00:50

existential risk and the singularity,

play00:52

with letters being written and events being organized

play00:54

to make sure that doesn't happen.

play00:57

Now I'm a researcher who studies AI's impacts on society,

play01:02

and I don't know what's going to happen in 10 or 20 years,

play01:05

and nobody really does.

play01:07

But what I do know is that there's some pretty nasty things going on right now,

play01:12

because AI doesn't exist in a vacuum.

play01:15

It is part of society, and it has impacts on people and the planet.

play01:20

AI models can contribute to climate change.

play01:22

Their training data uses art and books created by artists

play01:26

and authors without their consent.

play01:27

And its deployment can discriminate against entire communities.

play01:32

But we need to start tracking its impacts.

play01:34

We need to start being transparent and disclosing them and creating tools

play01:38

so that people understand AI better,

play01:41

so that hopefully future generations of AI models

play01:43

are going to be more trustworthy, sustainable,

play01:46

maybe less likely to kill us, if that's what you're into.

play01:50

But let's start with sustainability,

play01:51

because that cloud that AI models live on is actually made out of metal, plastic,

play01:57

and powered by vast amounts of energy.

play02:00

And each time you query an AI model, it comes with a cost to the planet.

play02:05

Last year, I was part of the BigScience initiative,

play02:08

which brought together a thousand researchers

play02:10

from all over the world to create Bloom,

play02:13

the first open large language model, like ChatGPT,

play02:17

but with an emphasis on ethics, transparency and consent.

play02:21

And the study I led that looked at Bloom's environmental impacts

play02:25

found that just training it used as much energy

play02:28

as 30 homes in a whole year

play02:30

and emitted 25 tons of carbon dioxide,

play02:33

which is like driving your car five times around the planet

play02:36

just so somebody can use this model to tell a knock-knock joke.

play02:39

And this might not seem like a lot,

play02:41

but other similar large language models,

play02:44

like GPT-3,

play02:45

emit 20 times more carbon.

play02:47

But the thing is, tech companies aren't measuring this stuff.

play02:50

They're not disclosing it.

play02:52

And so this is probably only the tip of the iceberg,

play02:54

even if it is a melting one.

play02:56

And in recent years we've seen AI models balloon in size

play03:00

because the current trend in AI is "bigger is better."

play03:04

But please don't get me started on why that's the case.

play03:07

In any case, we've seen large language models in particular

play03:10

grow 2,000 times in size over the last five years.

play03:13

And of course, their environmental costs are rising as well.

play03:16

The most recent work I led, found that switching out a smaller,

play03:20

more efficient model for a larger language model

play03:23

emits 14 times more carbon for the same task.

play03:27

Like telling that knock-knock joke.

play03:29

And as we're putting in these models into cell phones and search engines

play03:32

and smart fridges and speakers,

play03:35

the environmental costs are really piling up quickly.

play03:38

So instead of focusing on some future existential risks,

play03:42

let's talk about current tangible impacts

play03:45

and tools we can create to measure and mitigate these impacts.

play03:49

I helped create CodeCarbon,

play03:51

a tool that runs in parallel to AI training code

play03:54

that estimates the amount of energy it consumes

play03:56

and the amount of carbon it emits.

play03:58

And using a tool like this can help us make informed choices,

play04:01

like choosing one model over the other because it's more sustainable,

play04:04

or deploying AI models on renewable energy,

play04:07

which can drastically reduce their emissions.

play04:10

But let's talk about other things

play04:12

because there's other impacts of AI apart from sustainability.

play04:15

For example, it's been really hard for artists and authors

play04:18

to prove that their life's work has been used for training AI models

play04:23

without their consent.

play04:24

And if you want to sue someone, you tend to need proof, right?

play04:27

So Spawning.ai, an organization that was founded by artists,

play04:31

created this really cool tool called “Have I Been Trained?”

play04:35

And it lets you search these massive data sets

play04:37

to see what they have on you.

play04:39

Now, I admit it, I was curious.

play04:41

I searched LAION-5B,

play04:43

which is this huge data set of images and text,

play04:45

to see if any images of me were in there.

play04:49

Now those two first images,

play04:50

that's me from events I've spoken at.

play04:53

But the rest of the images, none of those are me.

play04:55

They're probably of other women named Sasha

play04:57

who put photographs of themselves up on the internet.

play05:01

And this can probably explain why,

play05:02

when I query an image generation model

play05:04

to generate a photograph of a woman named Sasha,

play05:06

more often than not I get images of bikini models.

play05:09

Sometimes they have two arms,

play05:11

sometimes they have three arms,

play05:13

but they rarely have any clothes on.

play05:16

And while it can be interesting for people like you and me

play05:19

to search these data sets,

play05:21

for artists like Karla Ortiz,

play05:23

this provides crucial evidence that her life's work, her artwork,

play05:27

was used for training AI models without her consent,

play05:30

and she and two artists used this as evidence

play05:32

to file a class action lawsuit against AI companies

play05:35

for copyright infringement.

play05:37

And most recently --

play05:38

(Applause)

play05:42

And most recently Spawning.ai partnered up with Hugging Face,

play05:45

the company where I work at,

play05:46

to create opt-in and opt-out mechanisms for creating these data sets.

play05:52

Because artwork created by humans shouldn’t be an all-you-can-eat buffet

play05:55

for training AI language models.

play05:58

(Applause)

play06:02

The very last thing I want to talk about is bias.

play06:04

You probably hear about this a lot.

play06:07

Formally speaking, it's when AI models encode patterns and beliefs

play06:10

that can represent stereotypes or racism and sexism.

play06:14

One of my heroes, Dr. Joy Buolamwini, experienced this firsthand

play06:17

when she realized that AI systems wouldn't even detect her face

play06:20

unless she was wearing a white-colored mask.

play06:22

Digging deeper, she found that common facial recognition systems

play06:26

were vastly worse for women of color compared to white men.

play06:30

And when biased models like this are deployed in law enforcement settings,

play06:35

this can result in false accusations, even wrongful imprisonment,

play06:40

which we've seen happen to multiple people in recent months.

play06:44

For example, Porcha Woodruff was wrongfully accused of carjacking

play06:47

at eight months pregnant

play06:48

because an AI system wrongfully identified her.

play06:52

But sadly, these systems are black boxes,

play06:54

and even their creators can't say exactly why they work the way they do.

play07:00

And for example, for image generation systems,

play07:04

if they're used in contexts like generating a forensic sketch

play07:08

based on a description of a perpetrator,

play07:11

they take all those biases and they spit them back out

play07:14

for terms like dangerous criminal, terrorists or gang member,

play07:18

which of course is super dangerous

play07:20

when these tools are deployed in society.

play07:25

And so in order to understand these tools better,

play07:27

I created this tool called the Stable Bias Explorer,

play07:31

which lets you explore the bias of image generation models

play07:34

through the lens of professions.

play07:37

So try to picture a scientist in your mind.

play07:40

Don't look at me.

play07:41

What do you see?

play07:43

A lot of the same thing, right?

play07:45

Men in glasses and lab coats.

play07:47

And none of them look like me.

play07:50

And the thing is,

play07:51

is that we looked at all these different image generation models

play07:54

and found a lot of the same thing:

play07:56

significant representation of whiteness and masculinity

play07:59

across all 150 professions that we looked at,

play08:01

even if compared to the real world,

play08:03

the US Labor Bureau of Statistics.

play08:05

These models show lawyers as men,

play08:08

and CEOs as men, almost 100 percent of the time,

play08:11

even though we all know not all of them are white and male.

play08:14

And sadly, my tool hasn't been used to write legislation yet.

play08:19

But I recently presented it at a UN event about gender bias

play08:23

as an example of how we can make tools for people from all walks of life,

play08:27

even those who don't know how to code,

play08:29

to engage with and better understand AI because we use professions,

play08:32

but you can use any terms that are of interest to you.

play08:36

And as these models are being deployed,

play08:39

are being woven into the very fabric of our societies,

play08:42

our cell phones, our social media feeds,

play08:44

even our justice systems and our economies have AI in them.

play08:47

And it's really important that AI stays accessible

play08:51

so that we know both how it works and when it doesn't work.

play08:56

And there's no single solution for really complex things like bias

play09:01

or copyright or climate change.

play09:03

But by creating tools to measure AI's impact,

play09:06

we can start getting an idea of how bad they are

play09:09

and start addressing them as we go.

play09:12

Start creating guardrails to protect society and the planet.

play09:16

And once we have this information,

play09:18

companies can use it in order to say,

play09:20

OK, we're going to choose this model because it's more sustainable,

play09:23

this model because it respects copyright.

play09:25

Legislators who really need information to write laws,

play09:28

can use these tools to develop new regulation mechanisms

play09:32

or governance for AI as it gets deployed into society.

play09:36

And users like you and me can use this information

play09:38

to choose AI models that we can trust,

play09:41

not to misrepresent us and not to misuse our data.

play09:45

But what did I reply to that email

play09:47

that said that my work is going to destroy humanity?

play09:50

I said that focusing on AI's future existential risks

play09:54

is a distraction from its current,

play09:56

very tangible impacts

play09:58

and the work we should be doing right now, or even yesterday,

play10:02

for reducing these impacts.

play10:04

Because yes, AI is moving quickly, but it's not a done deal.

play10:08

We're building the road as we walk it,

play10:11

and we can collectively decide what direction we want to go in together.

play10:15

Thank you.

play10:16

(Applause)

Rate This

5.0 / 5 (0 votes)

Ähnliche Tags
Künstliche IntelligenzGesellschaftliche AuswirkungenUmweltbelastungDatenethikTransparenzNachhaltigkeitEthikBiasKlimawandelKI-ModelleUrheberrechtAI-ForschungKI-GesellschaftBewusstseinKI-EinsatzKI-EntwicklungKI-Auswirkungen