“Coded Bias”: New Film Looks at Fight Against Racial Bias in Facial Recognition & AI Technology

Democracy Now!
30 Jan 202016:58

Summary

TLDR「coded bias」という新しい映画は、人工知能技術における人種や性別による偏りが問題視されています。MITメディアラボの研究者であるジョイア・ボナムが、顔認識ソフトウェアが暗い肌や女性の顔を認識しないことを発見し、人工知能が社会の偏りを反映していることを明らかにします。映画では、AIの欠陥が日々増す中での使用に関する危険性と、中国での社会信用システムの使用など、AI技術のグローバルな広がりとそれに伴う問題について触れています。

Takeaways

  • 🎥 このスクリプトは「coded bias」という新しい映画を紹介しており、人工知能技術における人種や性別に対する偏りについて探求しています。
  • 🔍 「coded bias」は、MITメディアラボの研究者であるジョイヤ・ボニーが、顔認識ソフトウェアが暗い肌や女性の顔を認識しないことを発見した経緯を描いています。
  • 🈲️ 米国のいくつかの都市では、顔認識技術の不正確性や悪用を理由にAIソフトウェアの使用を禁止しています。
  • 📈 国立標準技術研究所の研究によると、顔認識がアフリカ系アメリカ人やアジア人の顔を誤認識する割合は、白人の10~100倍に上ります。
  • 👤 ジョイヤ・ボニーは、米議会での証言で、IBM、Microsoft、Amazonなどの企業が販売するAIシステムにおける人種や肌色の偏りを指摘しています。
  • 🤖 AIは、コンピュータビジョン、音声認識、チャットボットなど、さまざまな形で人々の生活に影響を与えています。
  • 🧐 AIの偏りは、人間社会の偏見や不平等を反映しており、中立な科学ツールではありません。
  • 📹 映画では、ロンドンの警察が顔認識技術を誤って使用し、無辜の若者を誤認する様子が描かれています。
  • 🇨🇳 中国では、顔認識技術と社会信用システムが組み合わされ、市民の行動を追跡し、スコア付けしています。
  • 🌐 「coded bias」映画では、AI技術のグローバルな広がりとそれに伴うデータ植民地化の問題も触れられています。
  • 📋 最後に、AIアルゴリズムに対する規制や説明の重要性が強調されており、アルゴリズムによる判断が人々の権利に影響を与えることを念頭に置いています。

Q & A

  • 「coded bias」という映画は何について述べていますか?

    -「coded bias」は、人工知能技術における人種や性別の偏りが組み込まれている問題に焦点を当てた映画です。特に、顔認識技術における人種や性別の誤認識について触れています。

  • 映画の中で触れられている顔認識技術の偏りとはどのようなものでしょうか?

    -映画では、顔認識技術がアフリカ系アメリカ人やアジア人の顔を白人の顔よりも誤認識する傾向があると述べています。また、アメリカ原住民の顔も誤認識される傾向が高いと報告されています。

  • ジョヤ・ブールメナがMITメディアラボで何を発見しましたか?

    -ジョヤ・ブールメナは、顔認識ソフトウェアが暗い肌色や女性の顔を認識しないことに気づきました。彼女自身が白いマスクをかぶることで、ロボットによって認識されるようになったという体験から、人工知能の偏りについて研究を始めました。

  • 映画「coded bias」の監督シャリニ・カンタヤはどのようにして映画のアイデアを思いつきましたか?

    -シャリニ・カンタヤは、サイエンスフィクションを好む一方で、人工知能が現在、誰が採用されるか、誰が医療を受けるか、誰が大学に入学するかといった自動化された決定を下すゲートキーパーとして機能していることに気づき、そのアイデアを映画化しました。

  • 映画の中で触れられている中国の社会信用システムとは何ですか?

    -中国の社会信用システムは、個人の行動を追跡、観察、スコア付けするシステムで、そのスコアが個人の信用に影響を与えます。友人の行動もスコアに影響を与えるという特徴があります。

  • 中国の顔認識技術はどのようにして開発されたのですか?

    -中国の顔認識技術は、中国の顔に対する認識能力を高めるために開発されました。しかし、中国の技術も同様に人種や性別の偏りを持っていることが研究から示されています。

  • 映画で触れられているデータ植民地主義とは何を指しますか?

    -データ植民地主義は、中国の企業がアフリカ諸国などに顔認識や監視技術を提供することで、その国の市民の生体認証データを得ることを指しています。これはデジタルな身体的データの抽出に相当します。

  • 映画「coded bias」で述べられているように、顔認識技術の誤認識はどのようなリスクがありますか?

    -誤認識は、誤った逮捕や告発、そしてそれによって生じる深刻な結果につながる可能性があります。映画では、無辜の14歳の子供が顔認識技術の誤認識によって警察に止められた例が紹介されています。

  • 映画「coded bias」で提唱されているアルゴリズムに対する規制とは何を意味しますか?

    -アルゴリズムに対する規制は、人工知能システムが行う決定が人们的生活に影響を与えるため、その公正性や透明性を確保するための法的枠組みの必要性を指しています。

  • 映画の制作において、監督シャリニ・カンタヤはどのようにして中国での取材を可能にしましたか?

    -監督シャリニ・カンタヤは、中国の現地制作会社を通じて中国での取材を可能にしました。彼女は、中国の社会信用システムについて語る女性のインサイトを得ることができました。

  • 映画「coded bias」のメッセージは何ですか?

    -映画のメッセージは、人工知能技術が中立な科学ツールではなく、広く存在する偏りや不平等を反映していることを人々に認識し、その問題に対処する重要性を訴えることです。

Outlines

plate

このセクションは有料ユーザー限定です。 アクセスするには、アップグレードをお願いします。

今すぐアップグレード

Mindmap

plate

このセクションは有料ユーザー限定です。 アクセスするには、アップグレードをお願いします。

今すぐアップグレード

Keywords

plate

このセクションは有料ユーザー限定です。 アクセスするには、アップグレードをお願いします。

今すぐアップグレード

Highlights

plate

このセクションは有料ユーザー限定です。 アクセスするには、アップグレードをお願いします。

今すぐアップグレード

Transcripts

plate

このセクションは有料ユーザー限定です。 アクセスするには、アップグレードをお願いします。

今すぐアップグレード
Rate This

5.0 / 5 (0 votes)

関連タグ
AI偏りドキュメンタリー社会問題顔認識MIT研究アルゴリズム人権中国データプライバシー技術批判Sundance映画祭