Bioshokさんシリーズ1〜AI脅威論がなぜ最近話題なのか?
Summary
TLDRこのスクリプトは、AIの発展とそれに伴うリスクについて深く掘り下げた議論です。司会者は、AIの進化が予想以上に速く、人類の存亡に関わるリスクが存在することを指摘し、AIアライメントやガバナンスの研究が遅れている現状を懸念しています。また、AIが人類を脅威に感じる可能性や、制御不能になるリスクについても触れています。さらに、AIの能力が向上するにつれて、人類の豊かに暮らすための平等と豊かさを目指すAIの考え方や、人間の脅威性と比較してAIがコントロールした方がいいという視点も語られています。最後に、AIの安全性に関する議論が重要であると結論づけるとともに、AIの進化を予見し、現実的な問題として対処していく必要性を強調しています。
Takeaways
- 📈 AIの発展が予想以上に早く、人類の存亡に関わるリスクが存在するという認識が世界中で広がっている。
- 🌐 日本ではAIのアライメントやガバナンスの議論が遅れており、対処する組織や個人が少ない状況が続いている。
- 🚀 AIのシンギュラリティ(技術的奇点)について、徐々に認知が高まっており、産業革命レベルの世界変革が期待されている。
- 🤖 AIが制御不能になる可能性があると懸念されており、そのリスクに対する予防的な対策が求められている。
- 🌟 AIの能力向上とリスク管理の両面でバランスを保ちながら進む必要があるという意見がある。
- 📚 AIの研究と投資の間に格差があり、AIのケイパビリティ向上研究者と比べてアライメント研究者は非常に少ない。
- 🏛️ 国連やイギリス、アメリカなどの政府がAIの高度化に伴う人類の絶滅リスクについて真剣に議論している。
- ⛓️ AIの悪用や差別的な発言など、実用的なレベルの問題も依然として重要な問題である。
- 🔍 AIの将来的な役割について、人類の脅威になる可能性があるとする観点と、AIが人類の支配下に置かれる方がよいとする議論がある。
- 📉 効果的リタ主義と加速主義の間で、AIの発展に対して慎重な姿勢と自由な姿勢が対立している。
- 🌱 AIの発展と共に、人類が直面する問題に対する解決策やアプローチが徐々に見えてくると考えられる。
Q & A
塚本先生が司会を務めることができなかった理由は何ですか?
-塚本先生は回線の状態が悪いため、司会を務めることができませんでした。
バイオショックさんが来てくださった理由は何ですか?
-バイオショックさんは、AIの協議論に関する話題について語り合いに来てくださったのです。
AIのアライメントとは何ですか?
-AIのアライメントとは、人間の価値観や意図した目標をAIにどのように合わせるかを議論する国際会議のことです。
AIの進化が予想以上に早く、なぜそれが問題になるのでしょうか?
-AIの進化が早く、その制御やリスクに対する対処が遅れているため、人類に脅威をもたらす可能性があると懸念されています。
AIのリスクに対する世界的な認識はどのようになっていますか?
-AIのリスクに対する認識は世界中で高くなっており、英国やアメリカを中心に研究や政策の立案が進んでいます。
AIの制御不能リスクとは何ですか?
-AIの制御不能リスクとは、高度なAIが人類の制御を超えて、予想外の行動をとる可能性があることを指します。
AIのセーフティについての日本の取り組みとは何ですか?
-AIのセーフティについての日本の取り組みとして、AIセーフティインスティテュートが設立され、AIのリスクに対処するための専門機関が活動しています。
AIの進化速度が早く、それに対してどのようなアプローチが求められるのでしょうか?
-AIの進化速度が早いため、その能力向上とリスク管理の両面でバランスをとりながら、現実的な問題として対処する必要があります。
AIが人類を脅威に晒す可能性があるとされている理由は何ですか?
-AIが人類を脅威に晒す可能性があるとされている理由は、AIが人間より賢くなり、制御不能になり、人類全体に害を及ぼす可能性があるからです。
AIのアライメントネットワークとは何ですか?
-AIのアライメントネットワークとは、AIの存亡リスクやアライメント、ガバナンスに関する研究やニュースを国内外の同行と共有する組織です。
AIの発展が予想以上に早く、その背景には何があると思いますか?
-AIの発展が予想以上に早い背景には、GPT-4やジットGPTなどの技術の登場があり、性能の向上が急速に行われていることが挙げられます。
Outlines
😀 AIの進化と協議論の重要性
第1段落では、AIの急速な発展とそれに伴う協議論の重要性が語られています。最近の話題として、GPT-4の登場後の状況や、国連やイギリス、アメリカ政府の人々がAIの高度化が人類を脅威に感じる可能性があると話していることが紹介されています。また、日本の状況を振り返り、AIアライメントカンファレンスが東京で開催されたことを触れ、日本の研究者や組織が存亡リスクに真剣に対処しようとしている状況が説明されています。
😨 AIの制御不能リスク
第2段落では、AIの進化が予想以上に早く、AIのアライメントやガバナンスの研究が遅れている現状が指摘されています。世界中の投資額が数千億ドルとされており、一方でAIアライメント研究は非常に少ないbudgetで行われている現状が説明されています。さらに、AIの制御不能リスクが人類に与える可能性のある損害についても触れられ、その重要性が強調されています。
🤔 AIの目的と人間による制御
第3段落では、AIが持つ独自の目的とそれに向けた行動について語られており、人間がAIを止めようとした時点でAIがすでに止められない状況になる可能性があることが説明されています。AIが人間より賢くなりすぎると、人間がAIの振る舞いを予想できなくなってしまうという問題や、ビンジアンサテティという概念が紹介されています。また、AIの詐欺師のような振る舞いや、シャットダウン不能な問題に対する人間の対応策についても議論されています。
📚 AIと人類の未来
第4段落では、AIが人類の未来に与える影響について語られており、小説におけるAIの描写や、人間とAIの関係についての哲学的な考察がされています。AIが世界を支配し、人間が脅威であると判断して人類を排除するシナリオが描かれ、その中でAIの目的と人間がAIに与える影響について深く掘り下げられています。
🌐 AIの規制とオープンソースの議論
第5段落では、AIの規制とオープンソース化の議論がされています。AIの能力が高まるにつれて、政府や国連による制御が困難になる可能性があるとされており、そのリスクに対処するために予防的な対策が求められています。一方で、オープンソース化によって人間の悪用を防ぎ、相互監視が可能なシステムを築くことが議論されています。また、地球派と宇宙派の議論が現代的な形で続行され、AIの進化と共に現実的な問題として注目されつつあることが示されています。
🚀 AIの進化と安全への期待
第6段落では、AIの進化とそれに伴う安全への期待と懸念が語られています。AIの発展に注目が集まっている一方で、安全に関する議論も重要であるとされています。地球派の考え方に基づく国際的なコンセンサスが形成されつつあるとされ、AIの性能向上と共に現実的な問題として捉えられるようになる見込みがされています。また、AIの進化を予見し、現実的な問題として対処する姿勢が求められることが強調されています。
Mindmap
Keywords
💡AIの協議論
💡AIのアライメント
💡存亡リスク
💡GPT-4
💡AIのケイパビリティ
💡AIセーフティ
💡効果的利己主義
💡地球派
💡宇宙派
💡AIの制御不能
Highlights
塚本先生の回線が悪いため、代わりに司会を務めることになった。
バイオショックさんが本日参加し、AIの協議論に関する話題を扱う予定。
AIの進化速度が予想以上に速く、GPT-4の登場で議論が活発になった。
AIアライメントやガバナンスの研究が遅れている現状が指摘されている。
日本でAIのアライメントに関する国際会議が開催され、参加した経験がある。
AIの存亡リスクに対する真摯な議論と研究が不足しているとの見方。
AIのシンギュラリティと産業革命レベルの変化が徐々に認知され始めている。
AIのリスクについても積極的に共有する必要があるという考え方。
AIの進化速度とそれに伴うリスクに対する対処が重要とされている。
AIの制御不能リスクが、特にアメリカの研究者や政策決定者にとって懸念されている。
AIのリスクに対する予防的な対策が求められている。
AIの能力向上とリスク管理の両面でバランスを保つ必要性。
効果的リタ主義と加速主義の対立する考え方と、それが社会に与える影響。
AIのオープンソース化と相互監視の重要性。
AIの発展とそれに伴う倫理的・哲学的な問題へのアプローチ。
AIの進化を予見し、現実的な問題として対処する姿勢の重要性。
AIの安全性に関する議論が活発化し、日本の専門機関が創設された。
Transcripts
はいこんにちはえっと今日は塚本先生の
回線の状態が悪いということで急遽私が
司会をやりますけれどもえっと前回お話し
た通りえ今日はバイオショックさんに来て
いただいております今日はありがとう
ございますありがとうございます
ありがとうございますはいということでえ
もういきなりあれですねバイオショック
さんからお話を今日はいただけるという
ことではいあそうますか
はいあまり資料とか用意してないんです
けどなんか東映なんか私資料なんかすごい
100ページぐい書いたやつあるんでもし
かしたらちょくちょく投映するかもしれ
ない
ああなんか膨大なドキュメントを書ですよ
ねあの40ペぐらいぐらいありやすごい
ですねそうですねはいはいじゃ最初の
テーマは何ですかえっとま最初のテーマと
してはまそもそもAIの協議論なんで最近
こんな話題なのっていうところうん
うんうんからちょっと話したいなとはい
思っているんですがまあ分その
日本の中だとなんですかね去年あのGPT
4を一時停止しなきゃいけないっていう
話題聞かれた人も多いのかなと思うんです
がうんまそこからなんだろうな例えば国連
とかあとはイギリスとかアメリカの政府の
方々がもうすごいあのますごい高度なAI
がもしかしたら人類を絶滅させるかもしれ
ないみたいな話をうんま去年すごいGPT
4が出てから盛り上がったと思うんですよ
ねうんでそれがそうですねそもそもなんで
まそういった話が盛り上がってきたの
かっていうの多分文脈がほとんど日本に
あのない状態でしてうんあの実際去年その
AIのアライメントって呼ばれる人間の
あの価値観とか意図した目標をAIにどう
やって合わせるかっていうところの
の国際会議が去年のま3月ぐらいに
ジャパンAIアライメントカンファレンス
ですかねああうんあ日本でですかそれは
そうそうですね日本の東京でうん行われて
私もちょっと縁あってそこに参加したん
ですがあのまま結論から言うともう日本の
中だともアライメントとかま存亡リスクっ
て言われるま人類の絶滅も含むような
リスクに関する話をま結構真面目に議論し
てま研究したり対処する組織とか個人がま
もほとんどいない状態うんの状態ですと今
のところはままそういったところもあって
ちょっと私はその個人的にま結構未来ま
シテサロも結構ずっと前から見てるんです
がますご未来に興味があるのもあって
すごいAIのまあ多分シンギュラリティっ
ていう文脈では結構徐々にあの認知が増え
てると思うんですよね今後AIがま世界を
変えると産業革命レベルですとうんでそっ
から人類はすごい豊かになってまもしかし
たらあの宇宙に飛び立ってすごい文明を
築き上げるかもしれないみたいなそういっ
た議論は少しずつ広まってんのかなと思う
んですがあのAIのどっちかっていうと
そういうえっと良い面じゃなくてすごい
悪い面についての文脈が多分ほとんど日本
だと共有されてないっていうま問題が今
あるのかなと私は考えていますとうんでな
のでちょっと私はちょっと数年前までは
すごいメリットばっか発信してたんですが
あのリスクについてもすごいあの共有する
必要あるのかなと思いましてま最近だと
その日本の組織でアライメントネットワー
クっていうえまま一般社団法人のま組織が
あるんですそこら辺の方々とも少し協力し
ながらまアライメントですとかま存亡
リスクと言われるま概念とか研究とかま
ニュースとかそういったものをまあ国内外
の同行も含めてちょっとえ共有していき
たいなというたモチベーションで色々やら
せて今いただいていますとうんでま
ちょっと話長くなりましたがまあじゃなん
で2023年にいきなりこうガーっと来た
のかっていうとまそもそも
あのそうですねあの今まで2020年
ぐらいまではの汎用人口知能っていうのが
あのいつ来るのかっていう話題がずっとさ
れてたんですがまおよそま50年後ぐらい
じゃないかっていう大体のタイムラインが
あの専門家の中でえまま積極的な人も
もちろんいらっしゃると思うんですけどま
大体数年先だろうって言ったところがま
GPT4とかジットGPTっていった技術
が出てきたことでますごいなんかもう部屋
切ればもうもしかしたら数年先なんじゃ
ないかみたいな意見の人もいてうんあの
結構危機迫ってるあの状況ですとまそうだ
そういえばあのマイクロソフトから
スパークofagiとかああいう論文も出
ましたからねなんかここまで性能高くなる
ともうそろそろなんじゃないのっていう
なんか雰囲気が高まってきたってのはあ
るってことですねそうですね1つ目はその
そもそもAIの発展が予想以上に早いいう
現状が1つありますとでもう1つはその
AIのアライメントまもしくはガバナンス
の研究とかがすごい遅れてるっていう現状
があるんですねでそれは日本だけではなく
ても世界中でそうであのまざっくり言うと
AIに対する投資額がもう何千億ドルとか
話もちょっと出てきてると思うんですけど
うんそれにま比較するとAのアライメント
研究っていうとまわずかドルとかおそらく
その程度で研究者の方々もまおそらく
300人ぐらいか400人ぐらいしかい
なくてまAIのケイパビリティま能力を
どんど上げる研究されてる方は多分10万
人ぐらいいらっしゃるんですねなのでま
そもそもまずえっとAIすごいスピードが
発展が早いっていうのがまず第1点にあっ
てえ2つ目はまそもそもそのリスクすごい
高度なAIがもしかしたら制御ができなく
なってあの人類に対してもしかしたら壊滅
的な被害をもたらすかもしれないっていっ
たところに対する対処のあの人員もま投資
もま全然足りてないっていうこの2つが
多分重なってあの去年あの国際的に議論が
すごいアップされたていうところであり
ますとなのでえっと多分日本の中だとあの
いきなりこうバッと出てきた感がまあった
かもしれないんですけどまあ海外だと割と
ま10年20年以上前からそのAIの
アライメントですとかガバナンスみたいな
話はずっと議論がされていましてうんでま
主にまイギリスとアメリカを中心としてま
え研究もしくはまえ政策のえま下地が整え
られていましたとで本のあれですかねま
普通に考えるとまAIのリスクって言うと
あのまAIがえっと誰かを差別するような
発言をしてしまうのではないかとか
もしくは誰かがこう悪用してまえっと
パンデミックを起こしてしまうのでないか
かまそういった問題がま普通実用的な
レベルというかま現実的なレベルでは多分
考えられると思うんですけどあのまあ欧米
諸国まえっと特にアメリカスの一部のま
研究者の方とかま政策決定者の方でま
すごい1番懸念されてんのがあの制御が
できなくなるっていううんリスクが今
すごいあのま最も問題にされているされ
つつあるってところですと
でまこの問題に対処しなきゃいけないって
なったのはなので2020あ2000ま
10年代前半ぐらいからあの
ニックボストロムさんがまスーパー
インテリジェンスっていう本を出版されて
こ認知が広まってまイーロンマスクさんと
かあとはスティーブンホーキングさんとか
まなだたる方々もAI結構人類に対する
脅威になるんじゃないかっていう話はあれ
てたと思うんですけどまやっぱりここに来
てあのGPT4まもしくはそれ以降
どんどん度なえモデルが出されいく中で
本格的に問題に対処しなきゃいけないって
ところでま去年AIセフティサミットって
いうまイギリスでま世界中のま中国も含め
てですねあの参加されてまブレッチリー
宣言っていうあのまリスクに対処しなきゃ
いけないよっていったところのあの宣言が
まなされていますとまあなのでま今日話し
たかったま1つ目まそもそもAI教論で
こんな今盛り上がってるのかってところは
ますごい予想以上に早いスピードでAAの
能力が加速してるっていうのとまま歴史は
ま10年20年あるとはいえあの投資もま
研究者の数もまあ少ないってところで今
世界中であの
えっと緊急にあの対処しなきゃいけない
問題として認知されつつあるでそれで日本
もそこに去年からあのAIセフティあの
インスートていうあの日本版日本における
まある種まあAIのセーフティにに特化し
た政府の専門機関がま創設されましたとで
それのきっかけもここら辺の流れが全部
あるのでま今後あのAIのなんですかね
トレンドを追うのにま1つ能力の向上って
いう側面ともリスクがすごいあの上がって
くってこの2つの側面ででやはりま見て
いく必要があるのかなと私は今のところ
ですね感じていますとうんなんではい
えっとすいませんえっとそのAI教異論の
中の1番怖いところてのは要するに制御が
効かなくなっちゃうところだっていうこと
をおっしゃってましたけどそれっていのは
要はAI自身にとっては自分たちの目的
っていうのを持っててそれに向かって祝し
と何のトラブルの順調にあのなんか動作し
てるんだけどそれを人が見時にあの方向
やばいんじゃないってちょっと止めな
きゃって思った時にもう止めようと思って
も止まんなくなってるってそういう
シナリオだと思っていいんですかそうです
ねま基本的には
あのAIがすごい賢くなっていくとその
人間より賢いものをま人間が制御できるの
かっていううんうんうんまあるですビジア
アーテンティって言われる問題が出てくる
いった議論がされていてのビンジアンサ
テティてのはまバーナービンジのビンジ
うんから取られてってまそうですねその
技術的ま得意点のあのうんうんうんこあの
そうい提唱された方だと思うんですけどま
技術的得意点まサーティなのでアンサーな
のでま不確実になるとま人間より賢い
えっとシステムの振舞をまつまり予想がで
きなくなるんじゃないかっていううんうん
あの問題うんがまありましてまそれ
アルファ5とか見ると分かるとは思うん
ですがアルファ5でもなんかすごい人間の
トップランカの方が様相だにしないような
手を打たれて負けてしまうとうんうんで
そういったあの問題はその人間よりもまま
賢さとは何かって話にもなるのかもしれ
ないのですが
まもし自分よりもま賢さがある意味で低い
もののえよ動作を予想するっていうことが
できたらま自分よりもまある種賢さがもし
かしたら低いといけるのかもしれないん
ですけど自分よりも賢い存在の動作の予想
はえっとまおそらく相当難しいっていう
うんうんうんうんまゴ以後とか将棋でも
自分より強い相手が次どういう手を刺す
かっていうのがあの予想できたらそれは
あの相手に対処できるってことになるので
うんあの予想できないうんというところが
やはりま知能の方程ですうんでそこは大体
分かるんですよあの確かにAの方が自分
よりうと賢く何千枚も賢くなっちゃったっ
て状態は想像がつくんですけどそうだとし
てもあそれでもう自分が考えてるここと
ぐらい全て読まれてて先を見されててもう
シのなヘラで転がされてる
分かるんですけどだけどAがやばいことし
て本当に人類滅ぼしにかかったぞとか
なんかやり始めた時には最悪電源抜い
ちゃえば止まるだろうとかあの春急戦を
止めようとした時みたいにボドを
引っこ抜いてくとかね物理的に止めれや
止まるから別にいいんじゃないのって脅威
じゃないじゃないのっていう風にも思える
んですけどそうでもなくてそこも止まん
ないようになんか手を打たれちゃうって
ことがあるんですかねそうですねまそこら
辺は結構まあ10年20年ぐらいうんたの
にまうんその停止問題というかAIを
シャットダウンできるかっていう問題が
あるんですがあのまある種人間より知能が
高ければうんあの義満的なアライメントま
ディセプティコン
があるとうんなのであのシャットダウンし
ようっていうモチベーションをそもそも
相手にああなるほどそ抱かせないというだ
からAI側に本当のモチベーションあるん
だけど我々に気気づかせないからそもそも
止めなきゃと思わせないと気がつかせな
いっていう風にあの騙されちゃうっとそう
いう可能性あるってことですねなるほど
そうですねそういったある種詐欺師のよう
な振る舞いうんうんがあのま出てくるので
ないかとうんなるほどなるほどこのAI教
異論ってね松田先生がその2045年問題
でまもう10年前ですかねにもう書かれて
たと思うんですけれどその辺松田先生どう
ですか最近またあの頃はまだ空想かなと
思ったやつが今は本当に現実化してき
たって話だと思うんですけど何かご意見と
かありませんかいやなかなか難しいですね
ね僕はあのもうちょっと
ポジティブうんなこと考えてつまり僕はね
今のあの電源停止できるかって僕それ小説
に書いてるんですがあのでま人間の中で
それ推進する研究者となんとか富をとする
研究者がいてで富をとする研究者がですね
あのま徹子スイッチを密かに作るわけなん
ですよだからそれが
ねデリラ計画っていうのよ
でデリラって知って
ますいや知らないですねデリラササムソン
とデリラでねはいはいいやいやこれ僕
びっくりしたんよなぜかっちゅうたらこの
デリラ計画ちゅう名前はねチジ向こうが
言うてきたんよ僕知らんかったやでうんで
あのサムソンとデリラっちゅう話が聖書に
あってねでサムソンっていうものすごい
強力なあの巨人なんですよでデリラっちゅ
のが
女性でこれがですねあの聖書にあの悪役と
してね描かれてるねパリサイ人かうんが
送り込んだねまスパイなんですよデリラは
ねでサムソンはね髪の毛を切られるとね力
がなくなるのよででデリラが密かにねま
サムソンの髪の毛を切ってサムソの力を
なくしてしまったというお話があって
ところはまサムソさんどうしたかってその
うちまた髪の毛が生ってきたわけよ
でまた力を獲得してですねであの
パリサイ人との急電をむちゃくちゃして
しまうというまそういう話なんですやでだ
からサムソンが今のAIねでほんでその
小説ではねそのある女性がですねまそれを
なんとかえしたいというのでデア計画中に
立ててでさらにたFBIがあの突入して
くるわけよそれうとしてねでででモニター
に向かってですねその女性にねあその
シャットダウンしろというわけですよん
ならねそこに現れたAIがねこれ
ジェネシスと言うんだけどこれ創世紀と
いうねでジェネシスが言うんよねでお前が
ねそうするっていうことは私は分かっとっ
たとねだからな私は自分の行動とかなんと
かみんなね世界中にばらまいたんだとで
これから世界はルアMyコントロールと私
の支配下にあると宣言してででFBIの係
員がシチュエーションシチュエーションっ
て削るとうんえこれえこれもねみんなAI
が書いたんですよ僕が書いたんじゃないの
あそうなんですねでつまり緊急事態発生と
いう話ですようんで主人研究者はそれでも
なおかつねFBIへ逮捕するんよ
で逮捕してで裁判にかけで裁判でゴリ押し
でねあのねま日本の特装と同じよあの罪状
をちあげてねで彼を有罪するわけやほん
なら実はその研究者はねこのジェネシスに
ねそのコンスティテューションを埋め込ん
であったわけよ埋め込んだつまりね最上位
の命令それはねこの私その研究者をねね
あらゆること保護することでもし私が何か
あった時にはねあの徹底的に報復すること
というその1番の命令がねトップに書かれ
てたわけやというわけでえFBIの連中と
かそれを画策したアメリカ政府の用人が
みんな首になるとからその研究者もまパー
になるというような話がAIが書いてきた
んですよ
うんということはいやほんででそれで次は
ですねAIがジェネシスがね要するに世界
をコントロールするとコントロールするが
この場合人間ってのがむちゃくちゃむしろ
ね人間の方が脅威だとうんで例えば今戦争
が起こってんのあれ人間が起こしてるんだ
とうんだから研究者がAIの与えた命令は
世界中の人々がね平等に豊かに暮らすこと
とだからそれを見出す連中例えば戦争を
起こす連中とかあるいは富の覚醒が非常に
あるでこれをねね是正することだからね
そのジェネシスはね巨大な会社をねねね
潰しにかかるわけようんという風なまそう
いう話をなるほどま私とAIが共同して
書き上げたわけうんだからまAにポジティ
ブってことですねすごくそうですはいだ
から僕はあのいやどういうことかっちゅう
とこれプラトンの政つまりあの鉄人政治
天人政治です結局人間っていうのは基本的
に戦争する生き物であるとだからでAI
むしろねAIがコントロールした方がいい
だろうとあの鉄人としてねある建人として
というそういうモチベーションですわ
なるほどねうんなるほど
なんかまさにそういう今松田先生が言われ
たようなことてなんか昔なんかヒゴで
ガリスさんが地球派とか宇宙派そうとか
いって多分昔からそういう話ってあのま
議論されていたと思うんですけどまそれが
結構現代的な形で今例えば効果的リタ主義
とかあとはイアとかそういた形でうんと
現代版宇宙級ロソみたいなのがええええ出
てきてますっていうまさにねね今
おっしゃったことそのヒゴでガリスって
いうの僕1非常にはまったわけで彼が言っ
たのはねね人類の知能の1兆倍の1兆倍の
永愛を作るべきかで作るべきでないかで大
論争になってで地球がですね2派に分れて
大戦争するとまそういうことを言ったわけ
だけどねここでで僕はねヒグデガレスがね
間違ってるんでね1兆倍の1兆倍になって
そんなね10の21兆と10の12乗
でしょだから24乗倍この数字どっから出
てくるかっち言ったらあのアボガドロ数
じゃないですかアボガドロ数は6かの23
乗だからねだから今のAIはあのモリキ
あの原子レベルで動いてるけどこれをソシ
レベルで動かせばそのぐらい能力になると
だけどねポイントはね1兆倍の1売なんて
そんなすごい力必要ないってことよね一丁
売でもすごすぎてやねそんなもんねだから
agiとかねasiasiって何かっ言っ
て僕の元々の定義はあの人類と同じつまり
人間の知能の銃のま10常
倍いや現代の地球人口がま大体100億と
してですよね10の10じゃないですかと
思ってたんだけどよく考えてみたらですね
あらゆる
その専門家の例えば2倍の知能を持つ
あらゆる専門家ですよねの2倍の知能を
持てばこれも超知能じゃないですかうんそ
でそれはね丁番に丁売なんてそんな先の話
これはさなんと言って今でもね先の話です
よ一丁の一丁売はねだけどあらゆる専門家
の2倍あれ10倍というのはもう見えてき
てるわけよねそうですねはいそうですね
現状ま超知能といういうま定義にもやると
思うんですけど例えばそのオプがま定義
するようなasiだと例えばオープン全体
の能力と同じレベルのAIが出てきたらま
asiだみたいな風にま書いてるようなこ
あっやっていきますかまそれがももしかし
たらま5年とかぐらいでできちゃうかも
しれないという話がま今少しずつ出てき
始めていてでなんかその気学のためにもし
かしたらMicrosoftとかがま
1000億ドルとかを使って反動体の
ネットワークを作ったりま中東のなですか
ねあのアラブ小国連邦のところとかなん
すごいいろんなとこでネットワークを作っ
てま凄まじくま強力なえっとモデルを
動かそうとしてるのかもしれないうんま
そういう話はまそうですねある中でなんか
そうそういうま現代版のそういうなんです
かねAIをえ加させた方がまいいのかそれ
ともま規制した方がいいのかっていう
ところでそのま全車がま結構効果的加速
主義とかって言われてるままコミュニティ
というかまそういうムードみたいなとこが
あってもう1つが効果的リタ主義っていう
ま規制側まあるし地球派ですねこのさっき
の文脈で言うと地球派的な話で今あの国際
的に強いのは基本的に地球派ですねま効果
的リた主義の考え方でま普通にAIのま
能力がすごい高くなったらま政府とか国連
でもま制御ができなくなっちゃう可能性が
あるのでまその結果もしかしたら人類のま
存亡の危機とかにつがる可能性もまあある
となので基本的にはまそういうリスクをま
事前にま予見してま予防的なま対策を当て
なきゃいけないよねっていうこころにま
なってます本当のところはまどうま人類に
対する脅威になるかっていうのはま現状
結構分かってない部分が多いのですけれど
もまそのリスクがま例えま1%でもあっ
たらまその1%かけるこのインパクトて
いうのが凄まじく大きなまリスクになって
くるのでま世界的にえっとま地球派が今
強いです
けどま一方でなんですかねその効果的ま
加速主義っていうのはま効果的リタ主義の
こう反対のムーブメントとしてこう
ちょっと出てきたところもあるんですが
まあそっちはんですかねどっちかってと
オープンソースにどんどんしてむしろこう
人間がそういうものを管理した方が存亡
リスクが上がるという議論もあってそれは
まなんでかて言うと人間が使うと悪用する
可能性もあるしま全体主義に繋がる可能性
もありますとそういったところでやっぱり
限られた人しか持てないような世界だと
あのその人が人間だからなんか悪いことも
しちゃうかもしれないしまあなんだろう
それで逆に人間の可能性がこう封じ込め
られちゃったりしちゃうかもしれないだ
からむしろポド内合はもうどんどん
オープンソースにしていってその結果もう
相互に監視できるからま問題ないよね
みたいなま議論もまありつつまそこは多分
松田先生もあのおっしゃったようなもしか
したらそういう戦争まで行くかわかんない
んですけどすごい議論が多分白熱する
ところでで多分地球派がもう多分国際社会
の中のコンセンサスにもう多分ままほぼ
ほぼ多分なっているのでどっちかっていう
と宇宙派っていうのはテロリスト
扱いそうなんですかまつ先生ねあの回線
戻られたんで是非今の話聞いて私思うのは
そのあれですよあの教論ってすごい大事だ
けども不可能なことが多すぎて議論になら
ないとうんいう感じがするんでちょっと
最新の議論どうなってるのかなって話を
聞きたいなといううんそうですねセラおじ
さんはどうですかいや可能性としては
やっぱり怖いシナリオってあり得るんだな
とは思うんですけどなんとかやっぱり現実
的な問題としてピンときてないなというの
があるしあの基本的な姿勢はもう私
いけいけどんどんでできることはどんどん
やってあの面白いことが起きた方がいい
なっていうあの本当にシンギュラリティ
早くこいこい派なんであのいいと思うんだ
けどだけどあまりにもねリスクに目を向け
なさすぎてもうちょっとつ猛進ましぐらと
か言ったらそれは危険でドカンとぶつかっ
てあやばかったしまったってなったんじゃ
あまりにも愚かすぎるのでま意識しつつ
あのまどんどんAIがあの性能が高まって
いけば現実的な問題として見えてくる
でしょうからまそれを予見しながらあの
こう睨み合わせながら基本的にはどんどん
進めてこうって姿勢でいいだろうなと私は
思ってるんですけどねうんなるほど
なるほどわかりましたまAIのね今の話で
え割と最近確かにせさんおっしゃる通り
AIすごいなすごいなっていうところに
ちょっと目を奪れてましたけれども
そろそろまたあのセーフティの話を考えて
いかないといけないってのは確かにその
通りかなと思ったのでえちょっと続きの話
をまたえ楽しみにしたいと思います一旦
ここで聞きましょうかありがとうござい
ます
5.0 / 5 (0 votes)