Your Right to Repair AI Systems | Rumman Chowdhury | TED

TED
5 Jun 202409:49

Summary

TLDRこのスクリプトでは、人工知能(AI)が農業に導入され、技術が農民の生活を変える一方で、修理権の問題が生じていることを描いています。AIは作物収量予測や害虫除去に使われていますが、修理権の制限により、農民は自分の農業機械を修理することが難しくなりました。これに対して、農民がプログラミングを学び、ハッカーと協力して自己修理を行っています。修理権の議論は、AIを含むすべての技術分野に拡大するべきだと主張しています。AIの信頼性向上には、人々がシステムにフィードバックを与え、改善に貢献できる「レッドチーム」の手法が有効で、AIの開発者とユーザーの間のフィードバックループを強化する必要があると述べています。

Takeaways

  • 🤖 農業と人工知能の組み合わせが意外な共同体を形成している。
  • 🌾 現代の農業はコンピュータビジョンや人工知能を用いて作物の収穫予測や害虫の除去を行う。
  • ⚠️ 技術の進歩が農民に不都合をもたらしており、特にジョンディーアのスマートトラクターがその例。
  • 🛠️ 農民が自らの機械を修理することが法律で禁止され、修理にはライセンスを持つ技術者が必要とされた。
  • 💻 農民の中にはプログラミングを学び、ハッカーと協力して自らのシステムを修復する者たちが現れた。
  • 🔓 DEFCONで行われたハッキングデモンストレーションは技術の脆弱性と所有権の重要性を示した。
  • 🛠️ 「修理の権利」運動は、所有する技術品の修理権を主張する社会運動であり、人工知能にもその権利が必要である。
  • 📊 人工知能への不信感が世界的に広がっていると示される最新の調査結果。
  • 🔍 人々は、自分のデータが許可なく収集され、システムの構築に用いられることに気づいている。
  • 🔄 フィードバックループの改善が、AIシステムの開発者とユーザーの間に必要である。
  • 🎯 レッドチームングは、AIシステムの欠陥を見つけるための手法であり、世界最大のテック企業と協力して行われている。
  • 🏥 AIエージェントの例として、医療エージェントが家族の健康を管理する可能性があるが、修理権がなければ信頼は築けない。
  • 🛡️ 人工知能の利点を最大限に引き出すためには、人々の参加を開発プロセスに取り入れることが不可欠である。

Q & A

  • 現代の農業にはどのような技術が使われていますか?

    -現代の農業ではコンピュータビジョンが作物の収量を予測するのに使われ、人工知能が害虫の特定と排除に使われ、予測分析が極端な天候条件を予測するのに役立ちます。

  • ジョンディーアが導入したスマートトラクターはどのような問題を引き起こしましたか?

    -ジョンディーアがスマートトラクターを導入したことで、農民が自分のトラクターを修理することが法的に禁止され、ライセンスされた技術者が必要なため、修理のために数週間待つ必要があり、作物が腐敗し、害虫が蔓延するリスクがありました。

  • 「修理の権利」とはどのような運動ですか?

    -「修理の権利」運動は、技術品を所有している人々が、それが故障した場合でも修理する権利を持つべきだと主張するものです。これは、トラクターからスマート歯ブラシ、洗濯機まで、所有している技術品に適用されます。

  • AIにおける「修理の権利」の重要性は何ですか?

    -AIにおける「修理の権利」は、人々がAIシステムを信頼し、自分の生活に役立てるために、システムが故障した場合に問題を特定し、修正することができるようにすることに重要です。

  • AI技術に対する公衆の信頼が低下する理由は何ですか?

    -公衆の信頼が低下する理由としては、自分のデータが許可を得ずに収集され、彼らがシステムの構築に関与していないことが挙げられます。また、システムが故障した場合にどこに問い合わせるかも不明瞭です。

  • レッドチームングとはどのようなプロセスですか?

    -レッドチームングは、軍事やサイバーセキュリティ分野で使用されるプロセスで、外部の専門家がシステムへの侵入を試みることで、防御をテストし、問題が発生する場所を特定し、修正する方法を見つけることができます。

  • AIシステムが故障した場合、どのような問題が発生する可能性がありますか?

    -AIシステムが故障した場合、モデルが誤作動したり現実を誤表したりする可能性があり、歴史的に正確でない写真を表示するなど、意図しない結果をもたらす場合があります。

  • レッドチームングはどのようにしてAIモデルを改善するのに役立つか?

    -レッドチームングは、専門家の意見を集め、AIモデルの欠陥や誤りを見つけ、修正することで、モデルを改善するのに役立ちます。これにより、モデルがより多くの人々にとって適切で有用なものになるように調整できます。

  • 建築家の視点からAIが建物の設計にどのように影響を与えるかについて、レッドチームングはどのような結果を得ましたか?

    -建築家のレッドチームングの結果、AIが現代美術館の仕様を設計する能力を持っているとは言えず、建築家は物理や材料科学、建築コードを理解し、感情を呼び起こすデザインを作成する必要があることが明らかになりました。

  • AIの信頼性に関する建築家の最大の懸念は何ですか?

    -建築家の最大の懸念は、AIシステムが彼らの仕事や自由に影響を与える可能性がある場合、システムの失敗を修正できないという信頼性の問題です。彼らは建築物の失敗によって免許を取り消されるか、罰金を受けるか、甚だしきには刑務所に入ることがあるためです。

  • 「修理の権利」がAIシステムにどのように適用される可能性があるか説明してください。

    -「修理の権利」は、基本的なテストを実行する診断ボードを持っている場合や、第三者と協力してシステムのパッチを作成し、改善する方法を提供する場合に適用される可能性があります。また、農民のようにプログラミングを学んで自分のシステムを微調整することも可能です。

  • 人工知能の利点を最大限に引き出すためには、どのようなことが必要ですか?

    -人工知能の利点を最大限に引き出すためには、開発プロセスに人々を参加させ、彼らがAIを自分にとって有益なものにするためのツールを提供することが必要です。技術者は一人ではできないため、皆さんと協力して実現する必要があります。

Outlines

00:00

🤖 AIと農業の奇妙な組み合わせ

この段落では、人工知能(AI)と農業という、一見異なる2つのテーマがどのように絡み合って現代の農業に貢献しているかが語られています。コンピュータビジョンや予測分析が農作物の収量予測や害虫除去、極端な天候条件の予測に使われている一方で、農民たちはこの技術に遠ざけられています。特に、2017年にジョンディーアがスマートトラクターを導入したことで、農民が自分の機械を修理することが法的に禁止され、修理のために何週間も待つ必要があったと話題に。それに対して、農民の中には自分でプログラミングを学び、ハッカーと協力して自分のシステムを修理するパッチを作成する者たちが現れました。これは違法であるが、「修理の権利」という運動が始まりました。この運動は、所有する技術機器を自分で修理する権利を持つべきだと主張しており、AIにもその権利が拡大されるべきだと述べています。

05:00

🔍 AIの「修理の権利」とフィードバックループの重要性

2つ目の段落では、AIの「修理の権利」を拡大することの重要性が強調されています。AIの進歩にも関わらず、公衆の信頼は低下傾向にあると、最近の調査結果が示しています。著者は、AI開発者として技術的最適化と人々のフィードバックループの必要性を提唱しています。レッドチームングという手法が紹介され、これは軍事やサイバーセキュリティ分野で使われてきた手法で、システムの脆弱性を探り出し改善するのに役立ちます。著者は、この手法を用いてAIモデルの誤りを発見し、修正することで、より多くの人々にとって機能するAIモデルを開発しています。また、建築家や病原学者と協力して、AIシステムの信頼性に関する問題も検出し、解決しています。しかし、建築家たちがAIシステムに信頼を寄せるためには、システムの誤りを見つけて修正できる「修理の権利」が必要であると述べています。最後に、人工知能の次の波であるアジェンティックAIが人間の代理者のように働くことができるかどうかについて語り、修理の権利がAIの信頼性にとって不可欠であると結び付けています。

Mindmap

Keywords

💡人工知能

人工知能とは、人間のように思考し、判断を行う能力を持つコンピュータシステムのことを指します。このビデオでは、人工知能が農業分野にどのように適用され、作物の収量予測や害虫の除去など、多様な技術的な役割を果たしていることが強調されています。

💡農民

農民とは、農業を職業とする人々を指し、ビデオでは彼らが現代の技術、特に人工知能を通じて農業を行っている例が紹介されています。しかし、技術の進歩が農民にとっても隔離感をもたらしている問題も触れられています。

💡コンピュータビジョン

コンピュータビジョンは、コンピュータが画像を解釈し、認識する技術であり、ビデオでは作物の収量予測に利用されていると説明されています。これは、人工知能が現実世界の問題解決にどのように役立つかを示す重要な概念です。

💡予測分析

予測分析とは、過去のデータをもとに未来の出来事を予測する技術です。ビデオでは、農業における極端な天候条件の予測に使われていると説明されています。これは、人工知能が農業におけるリスク管理にどのように貢献するかを物語る重要なポイントです。

💡ジョンディーア

ジョンディーアは、ビデオで紹介されているトラクターの製造会社であり、スマートトラクターの導入により農民が自らの機械を修理できなくなった問題が提起されています。これは、技術と農業の間の紛争を象徴する事例です。

💡修理権

修理権は、所有者が所有する技術製品を壊れても自分で修理できる権利を指し、ビデオではこの概念が人工知能にも適用されるべきだと主張されています。これは、技術に対する個人の所有感とコントロールの重要性を強調するキーワードです。

💡レッドチーム

レッドチームとは、軍事やサイバーセキュリティ分野で使用される手法で、外部の専門家をシステムへの攻撃を模擬するテストに持ち込むことを意味します。ビデオでは、人工知能システムの欠陥を見つけるためにこの手法が提唱されています。

💡アジャイルAI

アジャイルAIは、ビデオで言及されている人工知能の次のステップであり、個人アシスタントのように人間の意思決定を支援するシステムを指します。この概念は、人工知能が人間の生活にどのように深く関与するかにかかわる重要な議論です。

💡信頼性

信頼性は、ビデオの中心的なテーマの一つであり、人々が人工知能システムを信頼するためには、そのシステムが問題を抱えている場合に修正できる権利を持っていることが必要だと述べています。これは、人工知能の責任と倫理に関する重要な問題を提起します。

💡フィードバックループ

フィードバックループは、ビデオで提唱されている概念で、人工知能システムの開発者がシステムを使用する人々からの意見を取り入れることで、システムを改善できるサイクルを形成するプロセスです。これは、技術開発とエンドユーザーの間のコミュニケーションの重要性を強調します。

Highlights

现代农业实际上涉及许多技术,包括使用计算机视觉预测作物产量和人工智能识别并消除害虫。

预测分析帮助预测极端天气条件,如干旱或飓风。

2017年,约翰迪尔公司推出的智能拖拉机使得农民无法自行修理,必须使用授权技术员。

农民通过学习编程并与黑客合作,创建补丁修复自己的系统。

在DEFCON大会上,Sick Codes展示了如何入侵约翰迪尔拖拉机,显示技术的脆弱性。

“维修权”运动主张如果拥有技术产品,如拖拉机或智能牙刷,应有权在损坏时进行维修。

公众对人工智能的信心正在下降,许多人担心AI技术对他们的生活产生负面影响。

人们感觉在AI系统的开发中被忽视,他们对系统如何构建没有发言权。

需要在AI系统开发者和用户之间建立更好的反馈循环。

红队演练是一种测试系统防御的方法,可以发现并修复问题。

与伦敦皇家学会合作,通过红队演练发现并修复了AI模型在COVID错误信息防护上的漏洞。

建筑师通过红队演练表达了对AI系统的信任问题,他们担心无法修复AI系统的错误。

建筑师希望AI系统能够与他们互动,提供反馈和设计建议。

信任是建筑师和其他专业人士在采用AI系统时面临的最大问题。

代理型AI系统是人工智能的一个真正转折点,关系到我们是否保留人类代理权。

为了实现人工智能的承诺好处,我们需要将人们纳入开发过程。

红队演练和与用户的对话使我们意识到,我们应该构建工具,使人们能够使AI对他们有益。

Transcripts

play00:04

I want to tell you a story

play00:06

about artificial intelligence and farmers.

play00:10

Now, what a strange combination, right?

play00:14

Two topics could not sound more different from each other.

play00:18

But did you know that modern farming actually involves a lot of technology?

play00:23

So computer vision is used to predict crop yields.

play00:27

And artificial intelligence is used to find,

play00:30

identify and get rid of insects.

play00:33

Predictive analytics helps figure out extreme weather conditions

play00:37

like drought or hurricanes.

play00:39

But this technology is also alienating to farmers.

play00:44

And this all came to a head in 2017

play00:47

with the tractor company John Deere when they introduced smart tractors.

play00:52

So before then, if a farmer's tractor broke,

play00:55

they could just repair it themselves or take it to a mechanic.

play00:59

Well, the company actually made it illegal

play01:02

for farmers to fix their own equipment.

play01:04

You had to use a licensed technician

play01:07

and farmers would have to wait for weeks

play01:10

while their crops rot and pests took over.

play01:14

So they took matters into their own hands.

play01:17

Some of them learned to program,

play01:19

and they worked with hackers to create patches to repair their own systems.

play01:23

In 2022,

play01:25

at one of the largest hacker conferences in the world, DEFCON,

play01:29

a hacker named Sick Codes and his team

play01:31

showed everybody how to break into a John Deere tractor,

play01:35

showing that, first of all, the technology was vulnerable,

play01:38

but also that you can and should own your own equipment.

play01:43

To be clear, this is illegal,

play01:46

but there are people trying to change that.

play01:49

Now that movement is called the “right to repair.”

play01:53

The right to repair goes something like this.

play01:55

If you own a piece of technology,

play01:57

it could be a tractor, a smart toothbrush,

play01:59

a washing machine,

play02:01

you should have the right to repair it if it breaks.

play02:05

So why am I telling you this story?

play02:08

The right to repair needs to extend to artificial intelligence.

play02:14

Now it seems like every week

play02:16

there is a new and mind-blowing innovation in AI.

play02:19

But did you know that public confidence is actually declining?

play02:24

A recent Pew poll showed that more Americans are concerned

play02:29

than they are excited about the technology.

play02:32

This is echoed throughout the world.

play02:34

The World Risk Poll shows

play02:35

that respondents from Central and South America and Africa

play02:39

all said that they felt AI would lead to more harm than good for their people.

play02:46

As a social scientist and an AI developer,

play02:48

this frustrates me.

play02:50

I'm a tech optimist

play02:51

because I truly believe this technology can lead to good.

play02:56

So what's the disconnect?

play02:58

Well, I've talked to hundreds of people over the last few years.

play03:02

Architects and scientists, journalists and photographers,

play03:06

ride-share drivers and doctors,

play03:07

and they all say the same thing.

play03:12

People feel like an afterthought.

play03:17

They all know that their data is harvested often without their permission

play03:21

to create these sophisticated systems.

play03:24

They know that these systems are determining their life opportunities.

play03:28

They also know that nobody ever bothered to ask them

play03:32

how the system should be built,

play03:33

and they certainly have no idea where to go if something goes wrong.

play03:40

We may not own AI systems,

play03:42

but they are slowly dominating our lives.

play03:45

We need a better feedback loop

play03:47

between the people who are making these systems,

play03:50

and the people who are best determined to tell us

play03:53

how these AI systems should interact in their world.

play03:57

One step towards this is a process called red teaming.

play04:01

Now, red teaming is a practice that was started in the military,

play04:04

and it's used in cybersecurity.

play04:06

In a traditional red-teaming exercise,

play04:09

external experts are brought in to break into a system,

play04:13

sort of like what Sick Codes did with tractors, but legal.

play04:17

So red teaming acts as a way of testing your defenses

play04:21

and when you can figure out where something will go wrong,

play04:25

you can figure out how to fix it.

play04:28

But when AI systems go rogue,

play04:30

it's more than just a hacker breaking in.

play04:33

The model could malfunction or misrepresent reality.

play04:37

So, for example, not too long ago,

play04:39

we saw an AI system attempting diversity

play04:41

by showing historically inaccurate photos.

play04:45

Anybody with a basic understanding of Western history

play04:48

could have told you that neither the Founding Fathers

play04:50

nor Nazi-era soldiers would have been Black.

play04:54

In that case, who qualifies as an expert?

play04:58

You.

play05:00

I'm working with thousands of people all around the world

play05:03

on large and small red-teaming exercises,

play05:05

and through them we found and fixed mistakes in AI models.

play05:10

We also work with some of the biggest tech companies in the world:

play05:13

OpenAI, Meta, Anthropic, Google.

play05:16

And through this, we've made models work better for more people.

play05:22

Here's a bit of what we've learned.

play05:24

We partnered with the Royal Society in London to do a scientific,

play05:28

mis- and disinformation event with disease scientists.

play05:32

What these scientists found

play05:33

is that AI models actually had a lot of protections

play05:36

against COVID misinformation.

play05:38

But for other diseases like measles, mumps and the flu,

play05:42

the same protections didn't apply.

play05:44

We reported these changes,

play05:46

they’re fixed and now we are all better protected

play05:49

against scientific mis- and disinformation.

play05:52

We did a really similar exercise with architects at Autodesk University,

play05:57

and we asked them a simple question:

play05:59

Will AI put them out of a job?

play06:02

Or more specifically,

play06:04

could they imagine a modern AI system

play06:06

that would be able to design the specs of a modern art museum?

play06:10

The answer, resoundingly, was no.

play06:14

Here's why, architects do more than just draw buildings.

play06:18

They have to understand physics and material science.

play06:21

They have to know building codes,

play06:23

and they have to do that

play06:24

while making something that evokes emotion.

play06:28

What the architects wanted was an AI system

play06:30

that interacted with them, that would give them feedback,

play06:33

maybe proactively offer design recommendations.

play06:36

And today's AI systems, not quite there yet.

play06:39

But those are technical problems.

play06:41

People building AI are incredibly smart,

play06:43

and maybe they could solve all that in a few years.

play06:46

But that wasn't their biggest concern.

play06:48

Their biggest concern was trust.

play06:51

Now architects are liable if something goes wrong with their buildings.

play06:56

They could lose their license,

play06:58

they could be fined, they could even go to prison.

play07:01

And failures can happen in a million different ways.

play07:04

For example, exit doors that open the wrong way,

play07:07

leading to people being crushed in an evacuation crisis,

play07:11

or broken glass raining down onto pedestrians in the street

play07:16

because the wind blows too hard and shatters windows.

play07:20

So why would an architect trust an AI system with their job,

play07:24

with their literal freedom,

play07:26

if they couldn't go in and fix a mistake if they found it?

play07:31

So we need to figure out these problems today, and I'll tell you why.

play07:35

The next wave of artificial intelligence systems, called agentic AI,

play07:40

is a true tipping point

play07:41

between whether or not we retain human agency,

play07:45

or whether or not AI systems make our decisions for us.

play07:50

Imagine an AI agent as kind of like a personal assistant.

play07:53

So, for example, a medical agent might determine

play07:57

whether or not your family needs doctor's appointments,

play07:59

it might refill prescription medications, or in case of an emergency,

play08:03

send medical records to the hospital.

play08:05

But AI agents can't and won't exist

play08:08

unless we have a true right to repair.

play08:10

What parent would trust their child's health to an AI system

play08:15

unless you could run some basic diagnostics?

play08:18

What professional would trust an AI system with job decisions,

play08:22

unless you could retrain it the way you might a junior employee?

play08:28

Now, a right to repair might look something like this.

play08:31

You could have a diagnostics board

play08:33

where you run basic tests that you design,

play08:36

and if something's wrong, you could report it to the company

play08:39

and hear back when it's fixed.

play08:40

Or you could work with third parties like ethical hackers

play08:43

who make patches for systems like we do today.

play08:46

You can download them and use them to improve your system

play08:49

the way you want it to be improved.

play08:51

Or you could be like these intrepid farmers and learn to program

play08:54

and fine-tune your own systems.

play08:58

We won't achieve the promised benefits of artificial intelligence

play09:02

unless we figure out how to bring people into the development process.

play09:08

I've dedicated my career to responsible AI,

play09:11

and in that field we ask the question,

play09:15

what can companies build to ensure that people trust AI?

play09:20

Now, through these red-teaming exercises, and by talking to you,

play09:24

I've come to realize that we've been asking the wrong question all along.

play09:30

What we should have been asking is what tools can we build

play09:34

so people can make AI beneficial for them?

play09:39

Technologists can't do it alone.

play09:41

We can only do it with you.

play09:44

Thank you.

play09:45

(Applause)

Rate This

5.0 / 5 (0 votes)

Etiquetas Relacionadas
人工知能農業技術修理権信頼技術最適化AI開発フィードバックループレッドチーム社会科學テクノロジー個人アシスタント
¿Necesitas un resumen en inglés?