トロッコ問題+自動運転|功利主義?義務論?見れば分かります!【未来予測 シンギュラリティ】人工知能 AI
Summary
TLDRThis script delves into the ethical dilemma known as the Trolley Problem in the context of AI and autonomous driving. It explores the philosophical quandary of sacrificing one to save many and its implications for AI's moral decision-making. The video discusses the evolution of AI, the levels of autonomous driving, and how AI might handle such ethical challenges. It also touches on the potential of AI to reduce accidents and the broader impact of the Trolley Problem on the development of AI and future cities.
Takeaways
- 🤖 The Trolley Problem is an ethical dilemma that has gained renewed attention due to the rapid development of AI and its implications for autonomous driving decisions.
- 🚂 Originated by philosopher Philippa Foot in 1967, the Trolley Problem presents a scenario where a choice must be made between sacrificing one person to save five, raising questions about the ethical behavior of AI.
- 📈 The script discusses the third wave of AI boom, driven by the invention of deep learning in 2006 and the environment for big data collection in the 2010s, leading to exponential growth in AI capabilities.
- 🔮 Future predictions suggest that by 2045, AI could achieve an exponential performance increase, potentially leading to a technological singularity where AI surpasses human intelligence.
- 🛑 The Trolley Problem is a critical consideration for AI in autonomous vehicles, where the AI must make a decision in a controlled failure scenario, such as choosing between two routes with different human consequences.
- 🚗 The script outlines the six levels of autonomous driving, from Level 0 (no automation) to Level 5 (full automation), with current developments focusing on Levels 3 and above.
- 🌐 Autonomous vehicles rely on a combination of cameras, radars, ultrasonic sensors, GPS, and LIDAR to perceive their surroundings, which is then analyzed by AI to control the vehicle's movements.
- 🚦 The potential of AI in reducing accidents is highlighted, with studies showing a significant decrease in collision and serious accidents in autonomous vehicles compared to human-driven ones.
- 🛑 The script explores the ethical considerations for AI in the event of a controlled failure, such as maintaining the quality and reliability of AI software and hardware to prevent such scenarios.
- 🔄 The importance of redundancy in AI systems, such as dual computation and remote operation capabilities, is emphasized to ensure safety in case of emergencies.
- 🏙️ The script concludes by reflecting on the broader implications of the Trolley Problem for future urban planning and the potential for AI to contribute to the creation of smart cities that could mitigate such ethical dilemmas.
Q & A
What is the Trolley Problem and why is it relevant to AI ethics?
-The Trolley Problem is a hypothetical scenario in ethics that presents a dilemma where a decision must be made to either sacrifice one person to save five or do nothing and let five people die. It is relevant to AI ethics because it poses the question of how AI, particularly in autonomous vehicles, should make decisions in life-or-death situations.
What is the historical context of the Trolley Problem?
-The Trolley Problem was first introduced by philosopher Philippa Foot in 1967. It has gained renewed attention with the rapid development of AI, especially since the advent of deep learning in 2006 and the growth of big data in the 2010s.
What are the two main ethical theories that the Trolley Problem brings into conflict?
-The two main ethical theories in conflict are utilitarianism and deontological ethics. Utilitarianism suggests maximizing happiness and might choose to sacrifice one to save five, while deontological ethics might argue that one should not take direct action that results in harm to others, even if it means saving more lives.
What is the current state of autonomous driving technology?
-Autonomous driving technology is categorized into six levels, from Level 0 (no automation) to Level 5 (full automation). As of the script's knowledge cutoff, Level 4 and Level 5 autonomous vehicles for general consumers have not been released worldwide, but there are examples of Level 4 autonomous shuttle buses and Level 3 vehicles like Honda's Legend.
How do autonomous vehicles perceive their environment?
-Autonomous vehicles use a combination of cameras, radars, ultrasonic sensors, GPS, and LIDAR to perceive their surroundings. This allows them to have a 360-degree view without obstructions, unlike human drivers.
What are the potential benefits of AI in reducing accidents in autonomous driving?
-AI in autonomous driving can potentially reduce accidents by eliminating human errors such as distracted or drunk driving. It can also provide a unified driving approach, which is not influenced by individual characteristics or emotions.
How might AI address the Trolley Problem in the context of autonomous driving?
-AI in autonomous driving could address the Trolley Problem by making decisions based on programmed ethical guidelines, taking into account factors like the number of people at risk, the severity of potential collisions, and the overall minimization of harm.
What is the 'Sidewalk Push' problem, and how does it relate to the Trolley Problem?
-The 'Sidewalk Push' problem is a variation of the Trolley Problem where the action to save five people involves pushing one person. It relates to the Trolley Problem by examining the ethical implications of direct versus indirect harm in decision-making.
What is the potential negative impact of the Trolley Problem on the development of AI technology?
-The Trolley Problem could potentially hinder the development of AI technology if it leads to a perception that AI cannot be trusted to make ethical decisions, resulting in a reluctance to adopt AI in critical applications like autonomous driving.
What are some positive aspects or benefits of discussing the Trolley Problem in relation to AI?
-Discussing the Trolley Problem can lead to a deeper understanding of AI's ethical decision-making capabilities, prompting the development of more sophisticated algorithms and potentially leading to safer and more reliable AI systems.
How might future developments in urban planning and technology complement AI in addressing ethical dilemmas like the Trolley Problem?
-Future developments such as smart city concepts, underground transportation systems, and flying cars could reduce the likelihood of ethical dilemmas like the Trolley Problem by creating environments where AI can operate with fewer risks of accidents and collisions.
Outlines
🤖 The Trolley Problem and AI Ethical Dilemmas
This paragraph introduces the Trolley Problem, a classic ethical dilemma that has gained renewed attention due to the rapid development of artificial intelligence. The script discusses the ethical implications of AI, particularly in the context of self-driving cars, and how this problem might affect the progression of AI technology. It explains the Trolley Problem's origin by philosopher Philippa Foot in 1967 and its resurgence due to advancements in deep learning and big data, leading to the third wave of AI. The dilemma is presented as a choice between sacrificing one person to save five, highlighting the conflict between utilitarianism and deontological ethics.
🚗 Exploring Self-Driving Cars and AI Safety
The second paragraph delves into the specifics of self-driving technology, outlining the six levels of autonomous driving, from complete human control to full automation. It mentions examples of self-driving vehicles in operation, such as a Level 4 shuttle bus service in Japan and Level 3 self-driving cars from Honda. The script also discusses the equipment used in autonomous vehicles, like cameras, radars, and LIDAR, and how AI processes this information to control the vehicle. The focus then shifts to the potential of AI in reducing accidents, comparing human and AI driving capabilities and suggesting that AI could lead to fewer accidents due to its consistent and error-free operation.
🛑 Addressing the Trolley Problem in Autonomous Vehicles
This paragraph examines how the Trolley Problem might be addressed by AI in autonomous vehicles. It suggests that ensuring the quality and reliability of AI software and hardware is crucial to prevent uncontrollable situations. The script also touches on the possibility of remote operation in emergencies and the importance of reducing speed in areas with pedestrian traffic. It discusses how AI's network connectivity allows for overall traffic control, potentially reducing the likelihood of accidents and the Trolley Problem scenario. The paragraph ponders the AI's ability to make accurate judgments in such dilemmas and the frequency of such situations, questioning whether the Trolley Problem is about improving AI's ability to detect and process information accurately.
🔮 The Future of AI and Ethical Decision-Making
The final paragraph contemplates the future implications of the Trolley Problem for AI and self-driving technology. It raises questions about whether AI should make ethical judgments and whether there is a 'right' answer to the Trolley Problem. The script explores the potential of AI to evolve and solve such dilemmas as it advances, referencing the concept of singularity by 2045. It also discusses the negative and positive impacts of the Trolley Problem on AI development, suggesting that while it may hinder progress, it could also lead to more refined AI technology and the creation of future cities with integrated solutions to mitigate accidents and ethical dilemmas.
Mindmap
Keywords
💡Trolley Problem
💡Artificial Intelligence (AI)
💡Ethical Dilemma
💡Self-driving Cars
💡Utilitarianism
💡Deontology
💡AI Development
💡Autonomous Vehicles Levels
💡Ethical Algorithms
💡Singularity
💡Smart Cities
Highlights
The Trolley Problem, a philosophical dilemma, is being discussed in the context of rapidly evolving AI ethics.
AI's ethical dilemmas are becoming relevant due to its rapid development in deep learning and big data collection.
The Trolley Problem, first proposed by Philippa Foot in 1967, is gaining renewed attention due to AI advancements.
The Trolley Problem presents a moral choice between sacrificing one person to save five.
Utilitarianism and deontology are two opposing ethical theories relevant to the Trolley Problem.
Utilitarianism suggests sacrificing one to save many is the action that leads to greater happiness.
Deontology argues that actions should not be justified by their outcomes, and one should not sacrifice any individual.
The modern Trolley Problem questions whether AI in autonomous driving can properly address such ethical dilemmas.
Autonomous driving is categorized into six levels, from no automation to full automation.
Level 4 autonomous driving is operational under certain conditions, while Level 5 is fully autonomous.
Examples of Level 4 autonomous driving include a shuttle bus service in Echizen-cho, Fukui Prefecture, Japan.
Honda released a Level 3 autonomous vehicle, the Legend, in a limited lease sale in 2021.
Waymo, a Google subsidiary, offers Level 4 autonomous taxi services in the U.S.
Autonomous vehicles use a combination of cameras, radars, ultrasonic sensors, GPS, and LIDAR for environmental perception.
AI in autonomous driving could potentially reduce accidents by eliminating human error and providing a unified driving method.
The Trolley Problem's ethical considerations are being explored in the context of AI's decision-making in autonomous driving.
AI's role in future smart cities could extend beyond autonomous driving to include underground transportation and drone delivery, contributing to accident reduction.
The Trolley Problem raises questions about whether AI should make ethical judgments or if such responsibilities should remain with humans.
The discussion around the Trolley Problem could lead to advancements in AI algorithms and contribute to a safer future.
Transcripts
皆さんはトロッコ問題というのを聞いた
ことがありますか人工知能AIが急速に
進化発展している昨今その倫理的あり方を
問う問題が提起されています果たしてその
問題に対してAIはどのような答えを出せ
ば良いのでしょうかそしてトロッコ問題に
よってAIの技術発展はストップして
しまうのでしょうか今回の動画ではAIの
最新技術である自動運転とそれに対する
倫理的な究極の問トロッコ問題について
取り上げますとてもワクワクする内容に
なっていますので是非最後までお付き合い
くださいトロッコ問題は哲学者フィリッパ
フット氏によって1967年に提起され
ました50年以上も前に提起されそして
すでに本人は2010年に亡くなっている
現在なぜ改めて注目されるようになったの
でしょうかそれはAIの急激な発展が原因
です2006年のディープラーニングの
発明そして2010年代のビッグデータ
収集環境が整ったことにより現在に至る
まで第3次AIブームが起きていると言わ
れていますそして未来学者
レイカーツワイル氏によると2045年に
はAIが指数関数的にその性能を伸ばし
汎用人口知能agiが実現してシンラが来
するというの
ですそういった状況化でAIの急激な発展
に継承を鳴らすかのごとくこのトロッコ
問題が注目されるようになってきました
それは5人の人の命を救うために1人を
犠牲にしても良いかという究極の選択と
なっていますが少し詳しく見ていき
ましょうこの問題においてトロッコとは
路面電車のことですその路面電車が制御
不能となりこのまでは前方の線路で作業し
ていた5人を確実に引いてしまいます線路
は途中で枝別れしており線路を切り替えれ
ば5人は助かりますしかしもう一方の線路
では1人が作業しており線路を切り替えれ
ば必ずその1人が犠牲になります切り替え
店に立っているあなたは5人を助けるため
に線路を切り替えるべきなのかそれとも何
もしないでいるべきなのかというのが
トロッコ問題ですこの問題の条件は必ず5
人か1人が犠牲になるということであり
どちらかを必ず選択しなければなりません
ここで理主義と義務論という2つの考え方
が出てきます行主義の立場からは5人を
助けて1人を犠牲にした方がより多くの
幸福を得られると考え線路を切り替えます
しかし義務論の立場からは誰かを犠牲に
するような行動は起こすべきではないと
考えて線路を切り替えませんたえどんな
結果が待っていようとも誰も犠牲にする
べきでなくまた行動を行わなければその後
のどんな結果に対しても責任を負う必要は
ないという考え方です皆さんならどちらを
選択しますかそして現代におけるトロッコ
問題は自動運転に利用されるAIがこの
問題に正しく対処できるのかという
問いかけをしているのですではこの問題を
さらに探求していく前に自動運転とは何か
を次の賞で見ていき
ましょう様々な乗り物に対して自動運転
技術がありますがここでは自動車の自動
運転に注目していきます自動運転を行う
自動車つまり自動運転者には6段階の
レベルが定義されていますまずレベル0が
完全な人間による運転ですレベル1が運転
支援レベル2が部分的自動運転でハンドル
制御付きのクルーズコントロールなどが
該当しますレベル3が条件付自動運転で
ある特定の条件が揃えば自動運転が可能な
状態ですそしてこのレベル3以上が自動
運転と定義されていますレベル4は高度
自動運転で悪天候などある限られた条件
以外は自動運転が可能な状態ですそして
レベル5が完全自動運転となります世界
各国で自動運転の開発や試験走行が行われ
ていますが日本においてもすでに実例が
あります福井県永平事長では全ドライブと
いう名称でレベル4の自動運転のシャトル
バス営業が行われていますこれはヤマハ
発動記者のゴルフカートをベースにした
車両を使い2kmの区間を最高時速
20kmで自動運転走行します
2021年にはホンダ車からレベル3の
自動運転走行が可能な常用者レジェンドが
限定100台のリース販売ながらも
リリースされレベル3の形式認定としては
世界初となりました海外の例も1つあげて
みましょうGoogle系列のウェイモ社
は米国アリゾナ州フェニックス
カリフォルニア州サンフランシスコと
ロサンゼルスにおいて自動運転レベル4の
タクシーサービスを行っていますこれは
通称ロボットタクシーと呼ばれ他にも様々
な先端企業が研究開発を進めていますこの
ようにシャトルバスやタクシーはすでに
開始していますが現在時点でレベル4また
はレベル5の一般常用者としての自動運転
者はまだ世界的にもリリースされていませ
んここから自動運転者の装備を見ていき
ましょうレベル4またはレベル5の自動
運転者はカメラレーダー超音波センサー
GPSそしてライダーと呼ばれるレーザー
距離測定の装置を用い周囲の環境を認識し
ます例えばWO社の自動運転者は装備から
得られた情報をAIのGoogle
シファーが解析し実際のハンドルや
アクセルブレーキなどの制御を行います
トロッコ問題とはまさにこの情報解析を
行う際のAIの判断に焦点が当てられてい
ますではAIによる自動運転で事故は
減らせるのかを次に見ていき
ますAIによる自動運転を導入することで
事故は減るのでしょうかそれとも増えるの
でしょうかまず人間が運転するケースから
考えていき
ましょう自動車免許を取得する際にも勉強
する内容に運転時の資格というものがあり
ますこれは運転手から見て左右の斜め後方
部分そして前後の下方部分が一般的に見え
づらくなることです運転手は車の中にい
ますのでどうしても車体が邪魔になって
見えない部分ができますまた人間の目には
視野がありますのでその視野の範囲内しか
確認できません一方で自動運転者はどう
でしょうか例えば先ほどのウェイモ車の
ロボットタクシーであれば車体の周囲各部
にカメラが設置されており人間が確認でき
ないような複数の視野も同時に得ることが
でき車体に邪魔されることもありません
運転の仕方はどうでしょうか人間の場合
運転の仕方は個個人の性格に依存してい
ます運転免許資格を取得する際基本的な
運転作法を学ぶのである程度は運転の仕方
が統一されますがそれでも人間には限界が
あります自動運転の場合AIが運転を行う
ので各社によってAIは異なるかもしれ
ませんがそれぞれのAIはソフトウェアと
して同様に振る舞いますそして基本的に
ネットワークに接続され不具合などがあれ
ば随時更新もされますAIの場合は運転の
仕方が統一され性格によってバラバラで
あるということがなくなりまた人間がして
しまう失敗例えば飲酒運転などもなくなり
ます実際のロボットタクシーも人間の場合
と比較して衝突事故で
57重大事故で87%も減少したという
調査が出ていますこれはロボットタクシー
をリリースする側の調査結果なので中身を
十分に吟味する必要はありますしかし結局
のところ一般的にもAIの方が運転による
事故を減らせると考えられていますこれは
トロッコ問題の解決に関係なく事故を
減らせるということでありAIはまだまだ
進化しますので今後のAIはさらに事故を
減らせるでしょうではAIがどういった
対応ができるかを次に見ていきましょう
トロッコ問題は具体的にどのように対策さ
れるのでしょうかまずトロッコ問題におい
ては路面電車が制御不能となります自動
運転の場合制御不能を避けるために
ソフトウェアとしてのAIの品質と信頼性
を確保していくということが必要になって
きますまたAIが動作するコンピュータを
常に二重化する緊急の場合はネットワーク
による遠隔操作も可能とするなどにより
ハードウェアの品質向上も必要です速度に
ついても人が歩行している可能性のある
区域においては速度を下げるという処理が
必要になってきます自動運転者は基本的に
ネットワークに接続されるのでどの自動
運転者がどの道を選択するか完成システム
が渋滞情報を得ながら全体をコントロール
できるようになりますそのため自動運転の
場合は仮に速度をかなり抑えていたとして
も全体が統制されてスムーズに運行でき
ますこれによりそもそも衝突せず重大事故
に至る確率も大きく下がることになります
しってトロッコ問題の対策は何らかの不
具合で自動運転者の速度だけが制御不能に
なりAIの判断や方向の制御はできる時
どう対処するかという課題になりますそこ
でまず自動車は路面電車と異なり線路が
ないため回避方向の選択肢が増えますしっ
て回避方向は複数あるが限定されており
かつどの方向にも人がいる場合を想定する
ことになりますこのケースにおいて
それぞれの方向の人数各へ向かった場合の
速度衝突の衝撃度合そして結果的な損害
度合などを計算することになりますこの
ようなケースに対してAIが正確な判断を
下せるのかというのがトロッコ問題という
ことになりますではこの場合に何が正解に
なるのでしょうかまたこのようなケースが
一体どれくらいの頻度で起きるのでしょう
かさらにはトロッコ問題が投げかけている
のはより制御不能を
より正確に情報を探知しそして正確に処理
をするべきということなのでしょうかそれ
ともどの方向にも人がいる場合は判断する
処理を入れるべきでないと言っているの
でしょうかそれともそもそもそういった
倫理的判断をAIにさせるべきではないの
でAIによる自動運転技術そのものを
諦めるべきと言っているのでしょうか
トロッコ問題に正解があるのかを考えて
いく上で先ほど登場した理主義と義務論と
いう対立する2つの考え方についてさらに
詳しく見ていきましょう路面電車が制御
不能になりそのまま行くと5人が犠牲に
なるしかしあなたが線路を切り替えると別
の線路の1人が犠牲になり5人は助かる行
主義の方は比較的分かりやすく結果として
犠牲者が少なくなるような選択をする
つまり線路を切り替えて5人の方を助けと
いう考え方ですでは義務論の方はどう
でしょうか義務論では結果に関係なくその
行為をする時点での意思が正当化つまり
同機の義足を判定します理性から来る最も
理想的な前行が存在しそれを選択する場合
は結果の良し足に左右されず同期そのもの
を良しとすべきという考え方ですつまり理
主義ではどのような行為をしても結果が
ければ評価されませんが義務論であれば
結果に関係なく同機が正しければそれで
よしと評価されるということですそして
その行主義と義務論をトロッコ問題に
当てはめると答えが真つに分かれます義務
論では行為によって1人が犠牲になるため
同機としては良くないという判断になり
線路の切り替えは行いませんその時結果的
に5人が犠牲になったとしても同機の良く
ない行為を選択しなかったことで結果に
関係なく判断は正しかったという判定に
なるのですではその2つの考え方を踏まえ
た上であなたはどちらを選択しますか統計
調査ではトロッコ問題に対しては線路を
切り替えるつまり行主義的選択の方が多い
ようですここでトロッコ問題と類似した
問題に歩道強問題というのがありますこの
問題の場合は1人を突き落とすばが助かる
という条件になっています歩道教問題の
統計では5人を助けるためだとしてもその
1人を突き落とさないという選択肢が多く
選ばれるようですつまり歩道教問題の場合
5人が犠牲になったとしても1人を
突き落とすという直接的な行為はしたく
ない一方でトロッコ問題における線路の
切り替えという間接的行為なら行えると
いう心理が現れているようですそして論と
してこれらの問題には正解がありません
これはそれらが個人の思想心情に依存する
自レマを抱えた問題でもあるからですでは
改めてこれらの問題にAIは答えを出せる
のでしょうかあるいは出すべきなの
でしょうか2045年シンギュラリティが
到来した未来ではAIが指数関数的に進化
発展し人間と同等の能力あるいはそれを
はかに超える知能に到達すると考えられて
いますそんな未来のAIであればこの問題
にも正解を与えてくれるかもしれませんが
現代の私たちはどう対応すれば良い
でしょう
かここからはトロッコ問題についてどの
ような意義と影響があるのかを見ていき
ますまずトロッコ問題の定期による
ネガティブな側面から見ていきましょう
例えば最もあり得るケースとしてこの問題
が多くの人々に表面的にのみ捉えられ
そしてAIに関する技術発展が阻害される
ことですつまりトロッコ問題という何か
知名的な血管をAIが抱えておりそして
それが解決できないうちは自動運転にAI
を使うべきでないという方向に進んで
しまうことですそうなると表面的な情報に
よって悲観が増幅され自動運転だけでなく
AIという技術そのものを否定されて
しまうことにもなりかねませんもちろん
どの方向を望むのかは個個人の考え方次第
ですがAIが発達する未来としない未来皆
さんならどちらを望みますかではここから
トロッコ問題のポジティブな側面を見て
いきましょうつまりこの問題が提起された
ことによりよりAIに関する技術が注目さ
れそして洗練されてより良い未来が得
られるという捉え方です例えばこの問題が
されたことによりAIの技術者はより深く
アルゴリズムを作り込む必要が生まれます
開発する際は大変ですが利用する側にとっ
てはAIの判断が正確になって事故が
さらに減少しメリットが増大するでしょう
正解のないトロッコ問題が提起される意義
の1つがまさにここにあるのではない
でしょうかそしてまたもしもAIだけでは
解決できない部分がある場合にはどうすれ
ば良いでしょうか
その場合にはAI以外の部分でも対処する
必要が生まれますがそれによって未来都市
と呼べるものが生まれるかもしれません
企業家イーロンマスク氏は2017年地下
トンネルを掘削するためのボーリング
カンパニー者を設立しましたマスク氏は
将来的に地下交通システムを構想している
ようですが自動運転でこのような地下を
利用するようになれば歩行者との接触で
起きる事故も減らせます
今後空飛ぶ自動車というのも実用化されて
くるでしょうしドローンも輸送に利用され
ていきそれらも事故減少に貢献する
でしょうまたスマートシティ構想という
ものがありこれによって地域も活性化して
いきますそこでは地域で必要なものはその
地域で作って利用するようになるつまり遠
距離輸送が必要なくなっていくためさらに
自動運転の事故が減りますこういった形で
未来においてはAIによる対策だけでなく
都市そのものが対応していくことも考え
られ
ますそのような理想の未来都市が生まれる
のであれば難しい地連マを抱えた哲学的
問題定期も非常に意義があると考えること
ができるのではないでしょう
か最後までご視聴いただきありがとう
ございましたトロッコ問題を深く考察して
いくことで自動運転とAiの技術そして
未来都市の姿についてさらに興味を抱いて
もらえたのではないでしょうか皆さんの
意見や知りたい情報など是非コメントで
教えてくださいそれでは次回の動画でお
会いし
ましょう
Browse More Related Video
Das wird in den nächsten 10 Jahren alles passieren
Anonymous Charity: Artificial Intelligence and The Planned Destruction of Humanity. May 6th, 2019
AI Unveiled beyond the buzz episode 1
Silicon Scholars: AI and The Muslim Ummah with Riaz Hassan
Intelligenza Artificiale: cos'e' e perche' e' importante che (anche) le donne se ne occupino
Tasha: "This Tesla FSD Development Will DESTROY the Industry"
5.0 / 5 (0 votes)