トロッコ問題+自動運転|功利主義?義務論?見れば分かります!【未来予測 シンギュラリティ】人工知能 AI

テックラボ【技術考察】
30 Mar 202418:45

Summary

TLDRThis script delves into the ethical dilemma known as the Trolley Problem in the context of AI and autonomous driving. It explores the philosophical quandary of sacrificing one to save many and its implications for AI's moral decision-making. The video discusses the evolution of AI, the levels of autonomous driving, and how AI might handle such ethical challenges. It also touches on the potential of AI to reduce accidents and the broader impact of the Trolley Problem on the development of AI and future cities.

Takeaways

  • 🤖 The Trolley Problem is an ethical dilemma that has gained renewed attention due to the rapid development of AI and its implications for autonomous driving decisions.
  • 🚂 Originated by philosopher Philippa Foot in 1967, the Trolley Problem presents a scenario where a choice must be made between sacrificing one person to save five, raising questions about the ethical behavior of AI.
  • 📈 The script discusses the third wave of AI boom, driven by the invention of deep learning in 2006 and the environment for big data collection in the 2010s, leading to exponential growth in AI capabilities.
  • 🔮 Future predictions suggest that by 2045, AI could achieve an exponential performance increase, potentially leading to a technological singularity where AI surpasses human intelligence.
  • 🛑 The Trolley Problem is a critical consideration for AI in autonomous vehicles, where the AI must make a decision in a controlled failure scenario, such as choosing between two routes with different human consequences.
  • 🚗 The script outlines the six levels of autonomous driving, from Level 0 (no automation) to Level 5 (full automation), with current developments focusing on Levels 3 and above.
  • 🌐 Autonomous vehicles rely on a combination of cameras, radars, ultrasonic sensors, GPS, and LIDAR to perceive their surroundings, which is then analyzed by AI to control the vehicle's movements.
  • 🚦 The potential of AI in reducing accidents is highlighted, with studies showing a significant decrease in collision and serious accidents in autonomous vehicles compared to human-driven ones.
  • 🛑 The script explores the ethical considerations for AI in the event of a controlled failure, such as maintaining the quality and reliability of AI software and hardware to prevent such scenarios.
  • 🔄 The importance of redundancy in AI systems, such as dual computation and remote operation capabilities, is emphasized to ensure safety in case of emergencies.
  • 🏙️ The script concludes by reflecting on the broader implications of the Trolley Problem for future urban planning and the potential for AI to contribute to the creation of smart cities that could mitigate such ethical dilemmas.

Q & A

  • What is the Trolley Problem and why is it relevant to AI ethics?

    -The Trolley Problem is a hypothetical scenario in ethics that presents a dilemma where a decision must be made to either sacrifice one person to save five or do nothing and let five people die. It is relevant to AI ethics because it poses the question of how AI, particularly in autonomous vehicles, should make decisions in life-or-death situations.

  • What is the historical context of the Trolley Problem?

    -The Trolley Problem was first introduced by philosopher Philippa Foot in 1967. It has gained renewed attention with the rapid development of AI, especially since the advent of deep learning in 2006 and the growth of big data in the 2010s.

  • What are the two main ethical theories that the Trolley Problem brings into conflict?

    -The two main ethical theories in conflict are utilitarianism and deontological ethics. Utilitarianism suggests maximizing happiness and might choose to sacrifice one to save five, while deontological ethics might argue that one should not take direct action that results in harm to others, even if it means saving more lives.

  • What is the current state of autonomous driving technology?

    -Autonomous driving technology is categorized into six levels, from Level 0 (no automation) to Level 5 (full automation). As of the script's knowledge cutoff, Level 4 and Level 5 autonomous vehicles for general consumers have not been released worldwide, but there are examples of Level 4 autonomous shuttle buses and Level 3 vehicles like Honda's Legend.

  • How do autonomous vehicles perceive their environment?

    -Autonomous vehicles use a combination of cameras, radars, ultrasonic sensors, GPS, and LIDAR to perceive their surroundings. This allows them to have a 360-degree view without obstructions, unlike human drivers.

  • What are the potential benefits of AI in reducing accidents in autonomous driving?

    -AI in autonomous driving can potentially reduce accidents by eliminating human errors such as distracted or drunk driving. It can also provide a unified driving approach, which is not influenced by individual characteristics or emotions.

  • How might AI address the Trolley Problem in the context of autonomous driving?

    -AI in autonomous driving could address the Trolley Problem by making decisions based on programmed ethical guidelines, taking into account factors like the number of people at risk, the severity of potential collisions, and the overall minimization of harm.

  • What is the 'Sidewalk Push' problem, and how does it relate to the Trolley Problem?

    -The 'Sidewalk Push' problem is a variation of the Trolley Problem where the action to save five people involves pushing one person. It relates to the Trolley Problem by examining the ethical implications of direct versus indirect harm in decision-making.

  • What is the potential negative impact of the Trolley Problem on the development of AI technology?

    -The Trolley Problem could potentially hinder the development of AI technology if it leads to a perception that AI cannot be trusted to make ethical decisions, resulting in a reluctance to adopt AI in critical applications like autonomous driving.

  • What are some positive aspects or benefits of discussing the Trolley Problem in relation to AI?

    -Discussing the Trolley Problem can lead to a deeper understanding of AI's ethical decision-making capabilities, prompting the development of more sophisticated algorithms and potentially leading to safer and more reliable AI systems.

  • How might future developments in urban planning and technology complement AI in addressing ethical dilemmas like the Trolley Problem?

    -Future developments such as smart city concepts, underground transportation systems, and flying cars could reduce the likelihood of ethical dilemmas like the Trolley Problem by creating environments where AI can operate with fewer risks of accidents and collisions.

Outlines

00:00

🤖 The Trolley Problem and AI Ethical Dilemmas

This paragraph introduces the Trolley Problem, a classic ethical dilemma that has gained renewed attention due to the rapid development of artificial intelligence. The script discusses the ethical implications of AI, particularly in the context of self-driving cars, and how this problem might affect the progression of AI technology. It explains the Trolley Problem's origin by philosopher Philippa Foot in 1967 and its resurgence due to advancements in deep learning and big data, leading to the third wave of AI. The dilemma is presented as a choice between sacrificing one person to save five, highlighting the conflict between utilitarianism and deontological ethics.

05:01

🚗 Exploring Self-Driving Cars and AI Safety

The second paragraph delves into the specifics of self-driving technology, outlining the six levels of autonomous driving, from complete human control to full automation. It mentions examples of self-driving vehicles in operation, such as a Level 4 shuttle bus service in Japan and Level 3 self-driving cars from Honda. The script also discusses the equipment used in autonomous vehicles, like cameras, radars, and LIDAR, and how AI processes this information to control the vehicle. The focus then shifts to the potential of AI in reducing accidents, comparing human and AI driving capabilities and suggesting that AI could lead to fewer accidents due to its consistent and error-free operation.

10:03

🛑 Addressing the Trolley Problem in Autonomous Vehicles

This paragraph examines how the Trolley Problem might be addressed by AI in autonomous vehicles. It suggests that ensuring the quality and reliability of AI software and hardware is crucial to prevent uncontrollable situations. The script also touches on the possibility of remote operation in emergencies and the importance of reducing speed in areas with pedestrian traffic. It discusses how AI's network connectivity allows for overall traffic control, potentially reducing the likelihood of accidents and the Trolley Problem scenario. The paragraph ponders the AI's ability to make accurate judgments in such dilemmas and the frequency of such situations, questioning whether the Trolley Problem is about improving AI's ability to detect and process information accurately.

15:05

🔮 The Future of AI and Ethical Decision-Making

The final paragraph contemplates the future implications of the Trolley Problem for AI and self-driving technology. It raises questions about whether AI should make ethical judgments and whether there is a 'right' answer to the Trolley Problem. The script explores the potential of AI to evolve and solve such dilemmas as it advances, referencing the concept of singularity by 2045. It also discusses the negative and positive impacts of the Trolley Problem on AI development, suggesting that while it may hinder progress, it could also lead to more refined AI technology and the creation of future cities with integrated solutions to mitigate accidents and ethical dilemmas.

Mindmap

Keywords

💡Trolley Problem

The Trolley Problem is a thought experiment in ethics that presents a dilemma where a difficult moral choice must be made to either save the lives of many at the cost of one or do nothing and let a greater number of people die. In the video, it is used to discuss the ethical considerations of AI, particularly in the context of self-driving cars, where AI might have to make such decisions.

💡Artificial Intelligence (AI)

Artificial Intelligence refers to the simulation of human intelligence in machines that are programmed to think like humans and mimic their actions. The video discusses the rapid development of AI and its ethical implications, especially in scenarios like the Trolley Problem, where AI's decision-making abilities are under scrutiny.

💡Ethical Dilemma

An ethical dilemma is a situation that requires a choice between options that are either morally wrong or right, often with no clear solution. The Trolley Problem is an example of an ethical dilemma that the video uses to explore how AI should respond in life-or-death situations.

💡Self-driving Cars

Self-driving cars, also known as autonomous vehicles, are vehicles that use a combination of sensors, cameras, and AI to navigate without the need for human drivers. The video script discusses the implications of self-driving cars in relation to the Trolley Problem and the ethical decisions they might have to make.

💡Utilitarianism

Utilitarianism is an ethical theory that emphasizes the greatest good for the greatest number. In the context of the Trolley Problem presented in the video, utilitarianism would suggest that the AI should choose the option that results in the least number of casualties, even if it means sacrificing one to save many.

💡Deontology

Deontology is an ethical theory that focuses on the rightness or wrongness of actions based on rules, rather than their consequences. The video contrasts utilitarianism with deontology, suggesting that a deontological approach might prevent the AI from taking action that directly harms an individual, even to save others.

💡AI Development

AI development refers to the process of creating and improving artificial intelligence systems. The script mentions the rapid advancement of AI and its implications for ethical decision-making, particularly in the development of self-driving car technology.

💡Autonomous Vehicles Levels

The levels of autonomous vehicles range from Level 0, which is no automation, to Level 5, which is full automation. The video discusses different levels, especially Level 3, conditional automation, and Level 4, high automation, in the context of self-driving cars and their ability to handle complex situations like the Trolley Problem.

💡Ethical Algorithms

Ethical algorithms are AI programming that incorporates ethical considerations into decision-making processes. The video touches on the necessity for AI in self-driving cars to have ethical algorithms to handle dilemmas like the Trolley Problem effectively.

💡Singularity

The singularity refers to a hypothetical future point in time when technological growth becomes uncontrollable and irreversible, resulting in unforeseeable changes to human civilization. The video mentions the singularity in the context of AI's rapid development and its potential to solve complex ethical problems.

💡Smart Cities

Smart cities are urban areas that use different types of electronic data collection sensors to supply information which is used to manage a municipal infrastructure. The video suggests that the development of smart cities could complement AI technologies like self-driving cars to create safer and more efficient urban environments.

Highlights

The Trolley Problem, a philosophical dilemma, is being discussed in the context of rapidly evolving AI ethics.

AI's ethical dilemmas are becoming relevant due to its rapid development in deep learning and big data collection.

The Trolley Problem, first proposed by Philippa Foot in 1967, is gaining renewed attention due to AI advancements.

The Trolley Problem presents a moral choice between sacrificing one person to save five.

Utilitarianism and deontology are two opposing ethical theories relevant to the Trolley Problem.

Utilitarianism suggests sacrificing one to save many is the action that leads to greater happiness.

Deontology argues that actions should not be justified by their outcomes, and one should not sacrifice any individual.

The modern Trolley Problem questions whether AI in autonomous driving can properly address such ethical dilemmas.

Autonomous driving is categorized into six levels, from no automation to full automation.

Level 4 autonomous driving is operational under certain conditions, while Level 5 is fully autonomous.

Examples of Level 4 autonomous driving include a shuttle bus service in Echizen-cho, Fukui Prefecture, Japan.

Honda released a Level 3 autonomous vehicle, the Legend, in a limited lease sale in 2021.

Waymo, a Google subsidiary, offers Level 4 autonomous taxi services in the U.S.

Autonomous vehicles use a combination of cameras, radars, ultrasonic sensors, GPS, and LIDAR for environmental perception.

AI in autonomous driving could potentially reduce accidents by eliminating human error and providing a unified driving method.

The Trolley Problem's ethical considerations are being explored in the context of AI's decision-making in autonomous driving.

AI's role in future smart cities could extend beyond autonomous driving to include underground transportation and drone delivery, contributing to accident reduction.

The Trolley Problem raises questions about whether AI should make ethical judgments or if such responsibilities should remain with humans.

The discussion around the Trolley Problem could lead to advancements in AI algorithms and contribute to a safer future.

Transcripts

play00:00

皆さんはトロッコ問題というのを聞いた

play00:03

ことがありますか人工知能AIが急速に

play00:07

進化発展している昨今その倫理的あり方を

play00:11

問う問題が提起されています果たしてその

play00:14

問題に対してAIはどのような答えを出せ

play00:17

ば良いのでしょうかそしてトロッコ問題に

play00:21

よってAIの技術発展はストップして

play00:24

しまうのでしょうか今回の動画ではAIの

play00:27

最新技術である自動運転とそれに対する

play00:31

倫理的な究極の問トロッコ問題について

play00:34

取り上げますとてもワクワクする内容に

play00:37

なっていますので是非最後までお付き合い

play00:41

くださいトロッコ問題は哲学者フィリッパ

play00:44

フット氏によって1967年に提起され

play00:48

ました50年以上も前に提起されそして

play00:52

すでに本人は2010年に亡くなっている

play00:55

現在なぜ改めて注目されるようになったの

play00:58

でしょうかそれはAIの急激な発展が原因

play01:03

です2006年のディープラーニングの

play01:06

発明そして2010年代のビッグデータ

play01:09

収集環境が整ったことにより現在に至る

play01:12

まで第3次AIブームが起きていると言わ

play01:15

れていますそして未来学者

play01:18

レイカーツワイル氏によると2045年に

play01:21

はAIが指数関数的にその性能を伸ばし

play01:26

汎用人口知能agiが実現してシンラが来

play01:30

するというの

play01:31

ですそういった状況化でAIの急激な発展

play01:36

に継承を鳴らすかのごとくこのトロッコ

play01:38

問題が注目されるようになってきました

play01:42

それは5人の人の命を救うために1人を

play01:45

犠牲にしても良いかという究極の選択と

play01:48

なっていますが少し詳しく見ていき

play01:51

ましょうこの問題においてトロッコとは

play01:54

路面電車のことですその路面電車が制御

play01:58

不能となりこのまでは前方の線路で作業し

play02:02

ていた5人を確実に引いてしまいます線路

play02:06

は途中で枝別れしており線路を切り替えれ

play02:09

ば5人は助かりますしかしもう一方の線路

play02:13

では1人が作業しており線路を切り替えれ

play02:16

ば必ずその1人が犠牲になります切り替え

play02:20

店に立っているあなたは5人を助けるため

play02:23

に線路を切り替えるべきなのかそれとも何

play02:26

もしないでいるべきなのかというのが

play02:29

トロッコ問題ですこの問題の条件は必ず5

play02:33

人か1人が犠牲になるということであり

play02:36

どちらかを必ず選択しなければなりません

play02:39

ここで理主義と義務論という2つの考え方

play02:43

が出てきます行主義の立場からは5人を

play02:47

助けて1人を犠牲にした方がより多くの

play02:50

幸福を得られると考え線路を切り替えます

play02:54

しかし義務論の立場からは誰かを犠牲に

play02:57

するような行動は起こすべきではないと

play03:00

考えて線路を切り替えませんたえどんな

play03:04

結果が待っていようとも誰も犠牲にする

play03:06

べきでなくまた行動を行わなければその後

play03:10

のどんな結果に対しても責任を負う必要は

play03:13

ないという考え方です皆さんならどちらを

play03:16

選択しますかそして現代におけるトロッコ

play03:20

問題は自動運転に利用されるAIがこの

play03:24

問題に正しく対処できるのかという

play03:26

問いかけをしているのですではこの問題を

play03:30

さらに探求していく前に自動運転とは何か

play03:33

を次の賞で見ていき

play03:35

ましょう様々な乗り物に対して自動運転

play03:39

技術がありますがここでは自動車の自動

play03:42

運転に注目していきます自動運転を行う

play03:46

自動車つまり自動運転者には6段階の

play03:49

レベルが定義されていますまずレベル0が

play03:53

完全な人間による運転ですレベル1が運転

play03:57

支援レベル2が部分的自動運転でハンドル

play04:02

制御付きのクルーズコントロールなどが

play04:04

該当しますレベル3が条件付自動運転で

play04:09

ある特定の条件が揃えば自動運転が可能な

play04:12

状態ですそしてこのレベル3以上が自動

play04:17

運転と定義されていますレベル4は高度

play04:20

自動運転で悪天候などある限られた条件

play04:24

以外は自動運転が可能な状態ですそして

play04:28

レベル5が完全自動運転となります世界

play04:32

各国で自動運転の開発や試験走行が行われ

play04:36

ていますが日本においてもすでに実例が

play04:39

あります福井県永平事長では全ドライブと

play04:44

いう名称でレベル4の自動運転のシャトル

play04:47

バス営業が行われていますこれはヤマハ

play04:51

発動記者のゴルフカートをベースにした

play04:53

車両を使い2kmの区間を最高時速

play04:57

20kmで自動運転走行します

play05:00

2021年にはホンダ車からレベル3の

play05:04

自動運転走行が可能な常用者レジェンドが

play05:08

限定100台のリース販売ながらも

play05:10

リリースされレベル3の形式認定としては

play05:14

世界初となりました海外の例も1つあげて

play05:17

みましょうGoogle系列のウェイモ社

play05:21

は米国アリゾナ州フェニックス

play05:23

カリフォルニア州サンフランシスコと

play05:26

ロサンゼルスにおいて自動運転レベル4の

play05:29

タクシーサービスを行っていますこれは

play05:32

通称ロボットタクシーと呼ばれ他にも様々

play05:35

な先端企業が研究開発を進めていますこの

play05:40

ようにシャトルバスやタクシーはすでに

play05:42

開始していますが現在時点でレベル4また

play05:46

はレベル5の一般常用者としての自動運転

play05:49

者はまだ世界的にもリリースされていませ

play05:52

んここから自動運転者の装備を見ていき

play05:56

ましょうレベル4またはレベル5の自動

play05:59

運転者はカメラレーダー超音波センサー

play06:04

GPSそしてライダーと呼ばれるレーザー

play06:07

距離測定の装置を用い周囲の環境を認識し

play06:11

ます例えばWO社の自動運転者は装備から

play06:15

得られた情報をAIのGoogle

play06:18

シファーが解析し実際のハンドルや

play06:21

アクセルブレーキなどの制御を行います

play06:24

トロッコ問題とはまさにこの情報解析を

play06:28

行う際のAIの判断に焦点が当てられてい

play06:31

ますではAIによる自動運転で事故は

play06:35

減らせるのかを次に見ていき

play06:37

ますAIによる自動運転を導入することで

play06:41

事故は減るのでしょうかそれとも増えるの

play06:44

でしょうかまず人間が運転するケースから

play06:47

考えていき

play06:49

ましょう自動車免許を取得する際にも勉強

play06:52

する内容に運転時の資格というものがあり

play06:55

ますこれは運転手から見て左右の斜め後方

play07:00

部分そして前後の下方部分が一般的に見え

play07:04

づらくなることです運転手は車の中にい

play07:08

ますのでどうしても車体が邪魔になって

play07:11

見えない部分ができますまた人間の目には

play07:15

視野がありますのでその視野の範囲内しか

play07:18

確認できません一方で自動運転者はどう

play07:22

でしょうか例えば先ほどのウェイモ車の

play07:26

ロボットタクシーであれば車体の周囲各部

play07:29

にカメラが設置されており人間が確認でき

play07:32

ないような複数の視野も同時に得ることが

play07:35

でき車体に邪魔されることもありません

play07:39

運転の仕方はどうでしょうか人間の場合

play07:43

運転の仕方は個個人の性格に依存してい

play07:46

ます運転免許資格を取得する際基本的な

play07:50

運転作法を学ぶのである程度は運転の仕方

play07:54

が統一されますがそれでも人間には限界が

play07:57

あります自動運転の場合AIが運転を行う

play08:01

ので各社によってAIは異なるかもしれ

play08:04

ませんがそれぞれのAIはソフトウェアと

play08:07

して同様に振る舞いますそして基本的に

play08:11

ネットワークに接続され不具合などがあれ

play08:13

ば随時更新もされますAIの場合は運転の

play08:18

仕方が統一され性格によってバラバラで

play08:21

あるということがなくなりまた人間がして

play08:24

しまう失敗例えば飲酒運転などもなくなり

play08:27

ます実際のロボットタクシーも人間の場合

play08:31

と比較して衝突事故で

play08:34

57重大事故で87%も減少したという

play08:38

調査が出ていますこれはロボットタクシー

play08:42

をリリースする側の調査結果なので中身を

play08:45

十分に吟味する必要はありますしかし結局

play08:49

のところ一般的にもAIの方が運転による

play08:52

事故を減らせると考えられていますこれは

play08:56

トロッコ問題の解決に関係なく事故を

play08:59

減らせるということでありAIはまだまだ

play09:02

進化しますので今後のAIはさらに事故を

play09:05

減らせるでしょうではAIがどういった

play09:08

対応ができるかを次に見ていきましょう

play09:12

トロッコ問題は具体的にどのように対策さ

play09:15

れるのでしょうかまずトロッコ問題におい

play09:18

ては路面電車が制御不能となります自動

play09:23

運転の場合制御不能を避けるために

play09:26

ソフトウェアとしてのAIの品質と信頼性

play09:29

を確保していくということが必要になって

play09:32

きますまたAIが動作するコンピュータを

play09:36

常に二重化する緊急の場合はネットワーク

play09:39

による遠隔操作も可能とするなどにより

play09:42

ハードウェアの品質向上も必要です速度に

play09:46

ついても人が歩行している可能性のある

play09:49

区域においては速度を下げるという処理が

play09:52

必要になってきます自動運転者は基本的に

play09:56

ネットワークに接続されるのでどの自動

play09:59

運転者がどの道を選択するか完成システム

play10:03

が渋滞情報を得ながら全体をコントロール

play10:06

できるようになりますそのため自動運転の

play10:10

場合は仮に速度をかなり抑えていたとして

play10:13

も全体が統制されてスムーズに運行でき

play10:16

ますこれによりそもそも衝突せず重大事故

play10:20

に至る確率も大きく下がることになります

play10:24

しってトロッコ問題の対策は何らかの不

play10:27

具合で自動運転者の速度だけが制御不能に

play10:31

なりAIの判断や方向の制御はできる時

play10:35

どう対処するかという課題になりますそこ

play10:39

でまず自動車は路面電車と異なり線路が

play10:42

ないため回避方向の選択肢が増えますしっ

play10:46

て回避方向は複数あるが限定されており

play10:50

かつどの方向にも人がいる場合を想定する

play10:53

ことになりますこのケースにおいて

play10:56

それぞれの方向の人数各へ向かった場合の

play11:00

速度衝突の衝撃度合そして結果的な損害

play11:04

度合などを計算することになりますこの

play11:07

ようなケースに対してAIが正確な判断を

play11:10

下せるのかというのがトロッコ問題という

play11:13

ことになりますではこの場合に何が正解に

play11:17

なるのでしょうかまたこのようなケースが

play11:21

一体どれくらいの頻度で起きるのでしょう

play11:23

かさらにはトロッコ問題が投げかけている

play11:27

のはより制御不能を

play11:29

より正確に情報を探知しそして正確に処理

play11:33

をするべきということなのでしょうかそれ

play11:36

ともどの方向にも人がいる場合は判断する

play11:40

処理を入れるべきでないと言っているの

play11:42

でしょうかそれともそもそもそういった

play11:45

倫理的判断をAIにさせるべきではないの

play11:48

でAIによる自動運転技術そのものを

play11:52

諦めるべきと言っているのでしょうか

play11:55

トロッコ問題に正解があるのかを考えて

play11:58

いく上で先ほど登場した理主義と義務論と

play12:01

いう対立する2つの考え方についてさらに

play12:05

詳しく見ていきましょう路面電車が制御

play12:08

不能になりそのまま行くと5人が犠牲に

play12:12

なるしかしあなたが線路を切り替えると別

play12:15

の線路の1人が犠牲になり5人は助かる行

play12:20

主義の方は比較的分かりやすく結果として

play12:23

犠牲者が少なくなるような選択をする

play12:26

つまり線路を切り替えて5人の方を助けと

play12:29

いう考え方ですでは義務論の方はどう

play12:33

でしょうか義務論では結果に関係なくその

play12:37

行為をする時点での意思が正当化つまり

play12:40

同機の義足を判定します理性から来る最も

play12:45

理想的な前行が存在しそれを選択する場合

play12:48

は結果の良し足に左右されず同期そのもの

play12:52

を良しとすべきという考え方ですつまり理

play12:56

主義ではどのような行為をしても結果が

play12:59

ければ評価されませんが義務論であれば

play13:02

結果に関係なく同機が正しければそれで

play13:05

よしと評価されるということですそして

play13:08

その行主義と義務論をトロッコ問題に

play13:11

当てはめると答えが真つに分かれます義務

play13:15

論では行為によって1人が犠牲になるため

play13:19

同機としては良くないという判断になり

play13:22

線路の切り替えは行いませんその時結果的

play13:26

に5人が犠牲になったとしても同機の良く

play13:28

ない行為を選択しなかったことで結果に

play13:31

関係なく判断は正しかったという判定に

play13:35

なるのですではその2つの考え方を踏まえ

play13:38

た上であなたはどちらを選択しますか統計

play13:42

調査ではトロッコ問題に対しては線路を

play13:45

切り替えるつまり行主義的選択の方が多い

play13:49

ようですここでトロッコ問題と類似した

play13:52

問題に歩道強問題というのがありますこの

play13:56

問題の場合は1人を突き落とすばが助かる

play13:59

という条件になっています歩道教問題の

play14:03

統計では5人を助けるためだとしてもその

play14:06

1人を突き落とさないという選択肢が多く

play14:09

選ばれるようですつまり歩道教問題の場合

play14:13

5人が犠牲になったとしても1人を

play14:16

突き落とすという直接的な行為はしたく

play14:19

ない一方でトロッコ問題における線路の

play14:22

切り替えという間接的行為なら行えると

play14:25

いう心理が現れているようですそして論と

play14:29

してこれらの問題には正解がありません

play14:32

これはそれらが個人の思想心情に依存する

play14:36

自レマを抱えた問題でもあるからですでは

play14:40

改めてこれらの問題にAIは答えを出せる

play14:43

のでしょうかあるいは出すべきなの

play14:46

でしょうか2045年シンギュラリティが

play14:50

到来した未来ではAIが指数関数的に進化

play14:54

発展し人間と同等の能力あるいはそれを

play14:58

はかに超える知能に到達すると考えられて

play15:01

いますそんな未来のAIであればこの問題

play15:05

にも正解を与えてくれるかもしれませんが

play15:08

現代の私たちはどう対応すれば良い

play15:11

でしょう

play15:12

かここからはトロッコ問題についてどの

play15:15

ような意義と影響があるのかを見ていき

play15:18

ますまずトロッコ問題の定期による

play15:21

ネガティブな側面から見ていきましょう

play15:25

例えば最もあり得るケースとしてこの問題

play15:28

が多くの人々に表面的にのみ捉えられ

play15:32

そしてAIに関する技術発展が阻害される

play15:35

ことですつまりトロッコ問題という何か

play15:38

知名的な血管をAIが抱えておりそして

play15:42

それが解決できないうちは自動運転にAI

play15:45

を使うべきでないという方向に進んで

play15:48

しまうことですそうなると表面的な情報に

play15:52

よって悲観が増幅され自動運転だけでなく

play15:56

AIという技術そのものを否定されて

play15:58

しまうことにもなりかねませんもちろん

play16:01

どの方向を望むのかは個個人の考え方次第

play16:04

ですがAIが発達する未来としない未来皆

play16:08

さんならどちらを望みますかではここから

play16:12

トロッコ問題のポジティブな側面を見て

play16:15

いきましょうつまりこの問題が提起された

play16:18

ことによりよりAIに関する技術が注目さ

play16:21

れそして洗練されてより良い未来が得

play16:25

られるという捉え方です例えばこの問題が

play16:29

されたことによりAIの技術者はより深く

play16:32

アルゴリズムを作り込む必要が生まれます

play16:36

開発する際は大変ですが利用する側にとっ

play16:39

てはAIの判断が正確になって事故が

play16:42

さらに減少しメリットが増大するでしょう

play16:46

正解のないトロッコ問題が提起される意義

play16:49

の1つがまさにここにあるのではない

play16:51

でしょうかそしてまたもしもAIだけでは

play16:55

解決できない部分がある場合にはどうすれ

play16:57

ば良いでしょうか

play16:59

その場合にはAI以外の部分でも対処する

play17:02

必要が生まれますがそれによって未来都市

play17:06

と呼べるものが生まれるかもしれません

play17:09

企業家イーロンマスク氏は2017年地下

play17:12

トンネルを掘削するためのボーリング

play17:15

カンパニー者を設立しましたマスク氏は

play17:18

将来的に地下交通システムを構想している

play17:21

ようですが自動運転でこのような地下を

play17:24

利用するようになれば歩行者との接触で

play17:27

起きる事故も減らせます

play17:30

今後空飛ぶ自動車というのも実用化されて

play17:33

くるでしょうしドローンも輸送に利用され

play17:36

ていきそれらも事故減少に貢献する

play17:39

でしょうまたスマートシティ構想という

play17:42

ものがありこれによって地域も活性化して

play17:45

いきますそこでは地域で必要なものはその

play17:49

地域で作って利用するようになるつまり遠

play17:53

距離輸送が必要なくなっていくためさらに

play17:56

自動運転の事故が減りますこういった形で

play18:00

未来においてはAIによる対策だけでなく

play18:03

都市そのものが対応していくことも考え

play18:06

られ

play18:07

ますそのような理想の未来都市が生まれる

play18:10

のであれば難しい地連マを抱えた哲学的

play18:13

問題定期も非常に意義があると考えること

play18:17

ができるのではないでしょう

play18:19

か最後までご視聴いただきありがとう

play18:22

ございましたトロッコ問題を深く考察して

play18:26

いくことで自動運転とAiの技術そして

play18:30

未来都市の姿についてさらに興味を抱いて

play18:33

もらえたのではないでしょうか皆さんの

play18:36

意見や知りたい情報など是非コメントで

play18:38

教えてくださいそれでは次回の動画でお

play18:41

会いし

play18:43

ましょう

Rate This

5.0 / 5 (0 votes)

Related Tags
AI EthicsSelf-DrivingTrolley ProblemEthical DilemmaAutonomous VehiclesPhilosophyFuture TechSafety ConcernsElon MuskSmart Cities