【徹底討論】AIは単語の意味を理解しているのか?#132
Summary
TLDRこの動画スクリプトは、大規模言語モデルの専門家であるゲストを招いての雑談会を描いています。ゲストは台本の監修を担当し、言語処理のトピックについて深く掘り下げた会話を行いました。雑談の中で単語ベクトルや自然言語処理の概念が取り上げられ、専門知識を持ちより幅広い視点で議論が進む様子が興味深い。また、言語モデルの限界や可能性についても触れられ、参加者の間のユーモアたっぷりなやり取りが楽しんでいました。
Takeaways
- 😀 スクリプトは、大規模言語モデルに関する雑談会の内容を記述しており、ゲストにこのりさんを招いてのディスカッションを展開している。
- 📚 このりさんは大規模言語モデルの専門家で、台本の監修を担当し、初期のネタ出しから打ち合わせに参加してくれた。
- 🤖 雑談会では、言語モデルの学習データや単語ベクトルについて議論し、モデルがどのように動作し、解釈するのかを考察している。
- 🔍 このりさんは、単語ベクトルが意味を捉える上で重要な役割を果たし、学習データの質がモデルの出力に大きな影響を与えることを指摘した。
- 🎧 ポッドキャスト形式で行われたこの雑談会では、ゲストとの会話を通じて、言語処理のトピックを幅広く探求している。
- 📝 ゲストは、自然言語処理の分野で幅広い視点を持っており、専門的な知識を持ちながらも、分かりやすい説明を提供している。
- 😅 会話の中で、説明の難しさや専門用語の曖昧さについても触れており、専門家でも時には混乱する部分があることを示唆している。
- 🌐 インターネット上の議論やツイッターでの反応も参照し、言語モデルが社会に与える影響や、専門家と一般の人々とのギャップについても触れている。
- 📉 スクリプトからは、専門用語の混乱や、科学技術の進歩とそれに伴うコミュニケーションの難しさに対するユーモアと批判も感じ取れる。
- 🔗 ゲストとのコラボレーションを通じて、ポッドキャストは言語モデルの専門知識をより広い層に伝える効果を持ち、教育的な価値がある。
- 🎉 最後に、ゲストからの感謝の言葉と、リスナーからのフィードバックを呼びかけ、コミュニティとの繋がりを強調している。
Q & A
このスクリプトで議論されている主なトピックは何ですか?
-スクリプトでは、大規模言語モデル、特にチャットGPTの機能と限界、単語ベクトルの意味とその適用範囲、自然言語処理におけるアライメントの概念などが議論されています。
スクリプトで「アライメント」とは何を指していますか?
-スクリプト内の「アライメント」とは、自然言語処理の能力を人間の価値観や問題解決能力に適応させることを目指す改善の過程を指しています。
スクリプトで「単語ベクトル」について何が述べられていますか?
-スクリプトでは単語ベクトルが意味を表すものであるか、単語がどのような状況で使われるか、その周辺に出てくる単語の情報を表現するものであるかについて議論されています。
スクリプトで「ホス」と「乾かす」の使い分けについてどう説明されていますか?
-スクリプトでは「ホス」と「乾かす」の使い分けについて、表面の水分を取り除く「乾かす」と、内部の水分を取り除く「ホス」という違いが説明されています。
スクリプト内で「おせべ」と「お焦げ」の例えは何を表していますか?
-スクリプト内の「おせべ」と「お焦げ」の例えは、学習データの質がAIの出力に与える影響を表しています。特殊な方法で作られたおせべと、自然にできたお焦げの違いに例えています。
スクリプトで「古典的な単語ベクトル」とは何を指していますか?
-「古典的な単語ベクトル」とは、チャットGPTが持つ単語ベクトルの前時代の技術を指しており、副産物として作られたものではなく、意図的に作られたベクトルを指しています。
スクリプトで議論されている「人間とAIの学習の違い」は何ですか?
-スクリプトでは、人間が限られたデータから無限の言語を生成する力を持っている一方、AIは大量のデータを必要とすること、そしてその違いが学習メカニズムの違いによるものである可能性について議論されています。
スクリプト内で「分布仮説」とは何を指していますか?
-「分布仮説」とは、単語の意味がその単語がどのような状況で、どのような周辺単語と共に使われるかによって決まるという考え方を指しています。
スクリプトで「言語モデル」についてどう説明されていますか?
-スクリプトでは言語モデルが、人間が言語化して提供した大量のデータに基づいて自然な文を生成し、人間の言語の意味をある程度理解していると説明されています。
スクリプトで「言語化」の重要性はどのように強調されていますか?
-スクリプトでは「言語化」が人間の言語世界をAIが理解するための重要な手段であり、言語モデルの成功には人間の言語化が大きく寄与していると強調されています。
Outlines
😀 大規模言語モデルとゲストの雑談
この段落では、大規模言語モデルに関する雑談イベントの開催が計画されています。ゲストにちこやっぱねさんが招待され、共に雑談を行います。台本の監修を担当してくれたこのりさんから、専門的なアドバイスを受けたことが語られています。また、雑談の中では、コンピューター科学ラジオに向けた話や、単語ベクトルについて議論しています。
😡 アライメントという概念と命名の誤り
段落2では、自然言語処理におけるアライメントという概念について議論されています。アライメントは、機械翻訳の単語の対応関係から来た言葉であり、最近はAIの開発において人間価値観に合わせるという意味で使われています。しかし、命名の誤りや用語の衝突が問題視されています。
😅 用語の混乱と性的刷口の誤解
この段落では、用語の誤解や混乱が語られています。特に、「性的刷口」という表現が誤解され、性的処理方法や欲望に関連するものと勘違いされた例が示されています。また、言語学やコンピューター科学ラジオでのゲスト出演時の下ネタの話題についても触れられています。
😁 単語の意味とベクトルの関係の議論
段落4では、単語の意味と単語ベクトルの関係について深く掘り下げられています。ホストと乾かすの違いについて、単語の使用状況や文脈から意味を推測する人間の言語理解能力に触れています。
😉 ホスと乾かすの使用法の考察
この段落では、ホスと乾かすの使用法について考察がされています。ホスは主に日光や風を使用して物を乾かすことを指し、乾かすは表面の水分を取り除くことを指すことが議論されています。
😌 大規模言語モデルの学習と理解
段落6では、大規模言語モデルがどのように学習し、理解を深めるかについて議論されています。テキストデータから得られる情報の豊富さと、AIが言葉の意味を捉える方法について述べられています。
😓 言語モデルの開発と社会への影響
この段落では、言語モデルの開発とそれが社会に与える影響について語られています。自動翻訳や企業での応用、研究者と開発者の違いなど、さまざまな観点からの議論がされています。
😖 言語モデルの限界と課題
段落8では、言語モデルの限界や課題について触れられています。人間とAIの学習メカニズムの違いや、言語モデルの開発における資金や注目度の不足についても言及されています。
🎵 雑談会の締めくくりと感謝の気持ち
最後の段落では、雑談会の締めくくりが行われています。ゲストの協力に感謝の気持ちを表し、視聴者に対してチャンネル登録やコメントの呼びかけがされています。
Mindmap
Keywords
💡大規模言語モデル
💡単語ベクトル
💡雑談会
💡専門家
💡台本
💡コンピューター科学ラジオ
💡アライメント
💡パリパリフード
💡ホスと乾かす
💡アラインメントの混乱
Highlights
大規模言語モデル専門家のこのりさんがゲスト出演し、雑談会を通じて専門知識を共有。
このりさんが台本の監修を担当し、2時間以上の打ち合わせを通じて創造的なアイデアを提供。
専門家による解説が理解を深める上で有効であることが示唆される。
学習データの質がAIの性能に大きな影響を与えることについて触れられた。
専門用語の混乱が実践で問題となること、特にアライメントという言葉の二重意味が議論された。
言語モデルの進化と自然言語処理技術の進歩が議論された。
人間とAIの言語理解の差異が、雑談会の中で比較的に分析された。
単語ベクトルの意味とその在り方が議論され、専門家の視点が示された。
AIによる自然言語生成の限界と可能性が、実例を交えながら討論された。
専門家とエンターテイナーのコラボレーションが、新しい視点を提供する可能性があることが示された。
言語モデルのトレーニングと最適化に関する専門知識が共有された。
専門家と一般聴衆の間の知識のギャップが、コミュニケーションを通じて埋められることが示された。
言語モデルの応用が、様々な分野でインパクトを与える可能性について触れられた。
専門家とエンターテイナーの相互作用が、新しいアイデアを生み出すプロセスを示した。
雑談会を通じて、言語モデルの専門知識が一般的な観点から理解される方法が模索された。
言語モデルの限界と、それに対する専門家の批判的視点が議論された。
専門知識とエンターテイメントの融合が、教育とコミュニケーションの新しい形を示唆した。
言語モデルの進化過程と、それに伴う技術的課題が詳述された。
Transcripts
[音楽]
大規模言語モデル取り終わり雑談会イイ
イイこのりさんをゲストに招いて雑談会を
やっていきたいと思いますよろしくお願い
ありがとうございましたありござました
素晴らしいうちの森元が振りましてしまっ
てすいません本にちこやっぱねやっとみ
さんがちゃんとりさんと喋れる機会です直
であのねちょいちょい直で喋っせに途中
からへえってやってたもんちゃんとねそう
ま一旦乾杯しますかじゃあせっ取り終わっ
たんでいやありがとうございましたござい
ましたありがとうございましたいや今回ね
このりさん大規模言語モデル専門家として
台本の監修を結構がっつりやってくれたん
ですようんうん最初のネタ出しのところ
から打ち合わせからしっかり喋らせて
いただいて2時間ぐらいやってました
めちゃめちゃ稼働してもらってるやんで
その後にも台本見せて僕の理解が浅い
ところに対してこれ違いますよっていう
こと言ってくれたんすけどあのりさんが
ですねゆコンピューター科学ラジオに向け
てうんうんそういうノりになるように綺麗
に説明してくれてましたよね僕にま
ちょっと意識しましたねそうですよねて
いうのをとり頑張った結果そうあの僕に
合わせて説明をした結果りさんが意味不明
な例えを言い始め
るっていうええじゃんそうそう学習データ
としてゆコンピューター学ラジオを食わせ
た結果変なものが出力されてくなりどんな
きたんですいあのね単語ベクトルの僕の
理解がなんか微妙だなてあそうなんだなっ
た時にちゃんと説明しますとうん説明し
ますねって言って送ってくれたのが古典的
単語ベクトルはお選べでチャットgpdが
持つ単語ベクトルはおコ
ですあ変な手癖がついてるこれね変な学習
データ入れるとダメなんすよ優秀な人でも
おかしくなっちゃう確だぶっコトラボの時
そんな感じないですよねね言ってるの見た
ことないですよねコトラボでいやでも割と
まとえてるんじゃないですかああ確かに
そうその心がわかんないからてえ来てるや
その読とどちらも米でできたパリパリ
フードですが
うん怪しい怪しいはいどちらも米でできた
パリパリフードですがおせべはおせべを
作ろうと思って特殊な方法で作られている
のに対しお焦げはご飯を炊く過程で勝手に
できるものですということでしたあれそれ
以上の何かはなく以上ですそうそうそう
そういう違いですえおべ言いたかっただけ
じゃなくていやいやいやいやいやいやだ
から単語ベクトル最初に堀本さん解説して
た古典的単語ベクトルベクトルだけ作りま
すっていう時はベクトルを作ろうと思っ
てい作ってるんでおせべなんすようんおせ
べ作ろうって思ってこう生地こねておせべ
あげる分かる分かるわかるチャットGPT
が持ってる単語ベクトルっていうのはそれ
は単語ベクトル作ろうと思ってるんじゃ
なくてなんか副産物にできちゃったって
ことなんでうんあそうなんだコメたこうと
してできたお焦げニューラルネットワーク
の中に自然にできてるってことですねうん
というわけですねうんいやあのすごい
ありがたいんすけどすごいありがたいんす
けど説明からおべとお焦げ引いた方が多分
そうすっごい緩んでる大学ラジオ騎士感が
すごい毎回こうなってるこんな腕なかった
て思いましたもんね今そうなんですより
さんを無理やりこれやらせるとねちょっと
おかしくなってしまうすごいですねりさ
んってちょっと接するだけでこんなりさん
大なしできるもなんすよあだからおかしく
なりたい人おすめなんですよ僕僕と友達だ
とおかしくなりだて俺トラボでそんなに
行動したことないもんね変な例え見たこと
ないから例えて言うなら古典的な単語
ベクトルはおせべの当たりますてないもん
ね見たことないいっすねそんなほを見た
ことないもんねっていうのがやっぱね
打ち合わせしてて1番思ったことなんす
けどどうですかりさんは出演してみて
なんか思ったことありますまやっぱ好きな
ことについて喋るの面白いっすねいや結構
視点言語処理好きなトピックなんでこれが
このゆコンピューター科学ラジオに
取り上げられたこと大変光栄に思います
うん嬉しいほんまですかなんか模範的な
回答してましたその心から取り上げて
良かったじゃなくて魔解放されたなの方が
大きくないですか
いやでもこうやってねなんか幅広い人たち
に広めていただくっていうのがまこの
コンピューターラジオのいいところだと
思うんでなんすかなんすか分かっ
てらっしゃるさすがよく分かっ
てらっしゃるお前台本のぐ書いてもたんだ
どうせそんなことないっすよ何言ってん
ですかあのここだけの話ですけど同じ意味
の言葉あの空と殻コップがカだと青い空
っていうあのいいレブはりさんがくれた
やつをイゴ1そのまま使ってたりはしない
すよしないすよしないよ分自分の
クリエイティビティですよねまりさんから
送られてきたやつをコピーアンドペースト
とした記憶はありますけど記憶あります
けどおそらく僕その後頑張って色々工夫は
してると思いますやるりさんうんあれ俺
いらもしかていらないか最初はやばいでし
たよねそうやばいってさいい時にも悪い時
にも使えるじゃんあちょっとそれはねそう
でもりさんに言われたのはいやでもそれ
程度が華々しいという意味で共通してる
からこの例えとしてはあまり良くないので
コップが辛と空が青いではどうでしょうか
うん言わてコピー&ペストしまし
たであとりさんが結構面白いトピック
いっぱい持ってきてくれたんですけど台本
の都合上をカットしたものがかなりあって
はいはいはいどうですかりさんなんか喋り
たいことありますあそれで言うとアライン
メントっていう概念ですかね
アラインメントはいはいなこれちょっと
新しい概念だと思うんですけどなんか
チャットGPTとかが出てくる前の自然
言語処理ってまその役に立つことというか
問題解決能力を向上させることを目指して
いろんな改善が重ねられていってたんです
ようんうんうん翻訳うまくなろうとか
ようやくうまくなろうとかうんうんで最近
チャッGPTが出てきてからチットGPT
って結構汎用的すぎるんではいなんかいら
んこと答えちゃうことってよくあるんです
よねそのまま使っちゃうと爆弾の作り方
教えてっていうとこう作りますとかそれ
教えたら倫理的にあかんよみたいなやつね
そうでなんか役に立ちすぎちゃうからじゃ
そういうなんか人間にとってあんまり教え
ちゃいけないことこういうことは問題解決
しちゃいけないよねっていうことを教える
ために逆に能力を抑えるみたいなことが
最近必要になっていてなんかそれ面白い
なって思いますねでそれ名前アラインメン
トって呼んだりしてますうんこれ聞いた
ことありますねありますかなんか自治系の
最近のワードを抑えようみたいなもので僕
はアラインメントってことは知ったんで
そのイメージですねはいうんうんうんうん
うんうんそう割と新しい概念で人間の価値
観に合わせる沿わせるっていうアラインっ
てそういう意味なんですけどうんうんうん
適させるみたいな意味あれアライン
アラインなんだ揃える揃えですか俺も
アラインの意味わかんないわ人間の価値観
に揃えるあそうか文字揃えする時のあれ
アラインメントかあ確かに確かに文字揃え
中央揃えとかセンターアラインメントかも
しれないそうていうのがあるんですけど
ちょっとこのアラインメントっていう
名付け僕ちょっと怒ってまして怒ってる
うん怒りがりさん怒ることあんのなんか
適当すぎじゃねって思ってソえっていう
命名がそうなんですよていうか自然言語
処理の既存のよく使われる単語とかぶっ
てるんですよこのアラインメントてあああ
出た用語の衝突だだやこっちの意味にも
取れるしこっちの意味にも取れるなみたい
なやつかそうなんでそんなややこしいこと
するのって思うんですけどそのアライメン
トって元どういう意味だったかかって言う
と機械翻訳とかで大役翻訳関係にある分の
単語の対応のことをアラインメントって
呼んでたんですよはあうん例えば私は犬で
すっていう日本語文とアイアムアドッグて
いううんうん分があったとしてじゃあ犬と
ドッグってアラインしてるよね対応してる
よね私とアてアラインしてるよね
アライメントよく言ってんですよ全然違う
じゃないそうまでも一応対応とか揃える
みたいなところで多分ニュアンスが通じ
てるんだと思うんですけどその機械翻訳の
単語のアラインメントってアラインメント
とAIを人間の価値観に揃えるっていう
アラインメントがなんか用語かぶってて
うん困りますねどにだから論文読んでても
なんかアラインメントの改善とか言ってあ
じゃ機械翻訳かなって思って読むとあその
間のその人間にわせる方でしたとかそ普通
に混乱起こるんでなんでそんな名付けにし
たって立思んよはいはいはい困りますよね
だから親方とかにお前それアラインメント
しとけやって言われた時に
そはいもう1回いや親方とかにさ言われる
じゃんおいみのお前そこちゃんと
アラインメントしとけやて言われるじゃ
ないですか現場
でレの現場でそんなことやってんだへえり
さんとかそういうことやってんだはいはい
親方に言われた時にどっちかわかんない
ですよ単語の対応関係しっかりしとけよっ
ていう意味なのかやっちゃいけない道徳的
にやっちゃいけないことをやらせないよう
にしてるのか困りますよね現レベルでも語
枠でもめっちゃあるんですよそううん
なんかユニバーサルグラマーって聞法はい
はいで普遍文房といえばチョムスキーはい
チョムスキーっていうね言語役者がま人間
の生徒的に持ってる言語的な知識うんとか
脳力のことはま普遍文法と呼んだんです
けどこのユニバーサルグラマーって
チョムスキーがうん前にモンタ牛ていう
論理学者も論文でユニバーサルグラマーっ
て言っててそうで全然サハ違うのへえその
中身も全然違うから混乱しますね
ユニバーサルグラマーって言とそれモンタ
キのなのかチョムスキーなのま大体
チョムスキーのことなんですけどモンタも
ユニバーサルグラマーっていう論文かなを
書いてるからていうこと知困りますねそ
こんなんばっかなんすよはまそモンタて意
論で出てくる人ででは論で出てくる人
じゃんで意論でも論でもうん縛っていう語
が出てくるんだけど束縛がその論の束縛と
論の即違うのそう違ううわどうしようもな
いすねそうなんかラムダ演算士でなんかを
束縛するっていう時はイロだし逆にある
ものがえっとこの位置にあるものは束縛
するというみたいな時は東の束縛だしで
束縛が両方に出てきて困るなそう語てくる
よすご思いましたねなるほどね僕とりさん
そういうこう用語がねかぶっちゃって悩む
なありましたけど堀さんあります僕ね
めっちゃありますよすごい強い困るなって
やつあってはいはいやっぱあんだね昔のね
生科学の論文とか読んでるとあのね
めっちゃ出てくんすよの確定性的はけ口
ってことめっちゃ出てくんすよ性的刷口
って聞いたらどんなイメージ持ちますだ
からなんかダッジワイフとかみたいなね
なんかすごいこう欲望をぶつけられるもの
みたいな感じじゃないですか性欲の処理
方法っって意味で出てくるんですよ性的
吐口はははそのまんまじゃないですかいや
なんかさニュアンスがさ的口はさもう
ぶつけたろうみたいなこれにぶつけたろう
みたいな感じじゃないですかもっと
ニュートラルな意味で使われじゃなくて
そう成功をすることも性的破口の1普通に
愛のある性行為をすることも性的破口の1
つとして数えられててだからこういう人は
性的破口として妻との性行為をすると書い
てあって性的口かなそれ確かにちょっと
価値判断含んじゃみたいな感じするねて
いうのがねめちゃくちゃ困ってますね
なんかもしかして色違いました今あのそう
全然違いましたねそのアラインメントに
困ってる人とバインド束縛に困ってる人的
口に困ってる人なんかねすごい懐かしいな
と思ったらそういえばゆ学ラジオにりさん
初めて出てくれた時にあの僕らが下ネタの
話をずっとりさんに振り続けてたっていう
の思い出しましたねあああったかもしれ
ないねなんとかそのりさんのパブリック
イメージを下さこちら側に言わせたいなっ
て思っ
たありましたよね懐しな思ったでもりさん
ゲスト出する時なぜかゆ国ラジオに毎回
下ネタ持ってきてましたからねあれさんが
悪いよいやあれま本もうと
持ってってああそうかゲスト出演するから
どういうチャンネルかなって分析した結果
があれだった寄りましたなるほどあにして
も確かにそのだからゆゲアクラジオに出る
時は下ネタの話してゆコンピューターガグ
ラジオに出る時は間違った例続けてあ確か
にちゃんとやってますねちゃんとりさん
なりの新接神なんだなあ深海ですけどね
違いますよねでもさ我々ゆ言語学ラジオに
ゲスト出演してくれるゲストとかさ結構な
確率で下ネタ持ってくはいですようんあの
前にこだま雨子さんサッカー作詞家に出て
もらった時もなんかめちゃくちゃ下ネタ
喋ってましたよねはいそうですねちゃんと
セックスしてますとか言ってまし言って
ましたねひ様のチャンネルだからて言って
ねこの文学作品ってどういう特徴なんです
かそううっすねちゃんとセックスしますっ
て言ってましたあの人うん侵害ですよね
本当にねでだからなんでですかて聞いたら
こういうチャンネルだろうなと思って言っ
てあのさ我々のチャンネルさ性的はけ口だ
と思われてる可能性ありますようんうん
性的はけ口チャンネルだと思われてる気が
するね言語学やコンピューター学ラジオの
本質心髄にたどり着くていう知的チャンネ
ですやってるんでちょっと気をつけて
くださいますそもう持ってこないようにし
てくださいうん現注意です今後も破口とし
て使わせていただきますやだ
な最近Twitterでさ単語ベクトルの
発明によって自然な文が作れるになったの
だから意味の問題解決したみたいなことを
多分言ってる論文かなんかに対してね言語
学系の人がちょっとこう批判してたんです
ようん単語ベクトルで記述が終わった
ところでそれは別に意味の問題の解決には
なってないよねっていう批判をしていて
そのだりさんに俺聞いてみたいんですよね
その単語ベクトルっていい問いだね単語の
意味を表していますかそうそうそうそう
そう全回ですかねそのホスと乾かすとかっ
てあの単語ベクトルで数値が違うだから
意味が違うんだってのってそれ説明になん
のかっていう話ちょっとしましたけど
それって量産的にはどう考えてるわけなん
ですか意味かなんかすんごい重いテマね
そうでも専門家として語なくて大丈夫です
個人的な実感としてでもいいんですけど
うんその分布絶っていうのがさっき出てき
たと思うんですけどつまりそういった単語
ベクトルで捉えられてる意味っていうのは
その単語がどういう状況で出てくるのか
周りにどういう単語が出てくるのかって
いう情報を表現したものだっていううん
うんえ単語ベクトルがですよね単語
ベクトルというものの定義をした時に出て
くる数値とかていうのが周りに出てくるの
がどういうものかっていうので定義され
てるわけですよねそうですはいはいでそう
いう話があったと思うんですけどま割と
いい戦は言ってるんじゃないかなっていう
のが個人的な実感ですうんうんそれは意味
を表現する上でそうですそうですああそう
考えてんだでもね俺もそんな気したの
ちょっと勉強したらそうかもって思えてき
ただ人間も結局さ周辺に出てくる単語から
意味を推測してるじゃない初めての単語
って周りに出てくる単語がこれなんだから
大体こういう意味だろうなって思ってその
うちに5位習得してくわけで辞書4で習得
してないじゃんあらゆる5位って考えると
うん仮説だけで意味分かるんじゃねって
いうのはなんとなく思いましたねそうです
ねあとなんかその分布仮説って周りにどう
いう単語が出てくるのかってつまり人間が
その単語をどう使ってるかじゃないですか
はい運用面の話ですよねでそのどう使っ
てるかっていうのはまそれすなわち意味だ
なとは思うんすよねへえどう使っているか
に意味が宿るこれですよねそうへえまあね
もちろん確かに単語ってのは使われて
なんぼですから使われて初めて意味が
決まるていううん考方ももちろん頷ける
部分あるんですけど僕反対派なんですよね
そうなはいということでえゆ源学ラジオで
いこやろうと思っていたネタをここで
ちょろちょろ話ししちゃうシみさんの
お漏らしシリーズです大好評お漏らし
シリーズそんなあのおしっこはけ口にして
ないんで口ってなんだ
よ似た単語まじゃあホスト乾かすにし
ましょうかこれの意味の違いが何なの
かってのを考え抜いた書籍がありましてほ
その本をこう読んでまちょっと内容が今
手元にあるんでお2人にせっかくなので
やってもらいたいのとつまりホスと乾かす
どう違うのか単語ベクトルみたいな記述の
仕方じゃなくて言葉に言語化してホスは
こう乾かすはこうだっていうものを手元に
僕用意してますんでちょっとお2人で協力
してホストかカスどう違うのか
ディスカッションしながらにりついてみて
もらませんかやりましょうまでもねやっぱ
コモンクロールでね持ってきたデタをね
全部学習させたらねそうなんかわか意味的
なものは出てきますからねそこのねいや出
てこないでしょXのコモンクロールした
とこで例が出てくるだけでしょそれを結局
一般化してさホスはこういう時に使えて
乾かはこういう時に使えるそれはね確かに
できないけどホスと乾かすのディフサブも
取ることはできるからベクトルのだから
差分を取ってその差分のベクトルを抽出
できるからだからそれと同じ関係にある
ものは出せるんですようんだから干すと
乾かすと同じ関係にあるものはカメラと
ビデオカメラみたいなうんうんものが出せ
ますうんそれだからなんなのそれああこれ
確かに意味説明したことにならないっす
もんね説明は出せないですよね多分単語
ベクトル的なアプローチだと君よく分かっ
てるねいいじゃないいいじゃないちょお前
が偉そうに回すんのけ本当やめてうん学
不足の人間に回されるの本当やだからやめ
てあそうなんだ視界ってやっぱ収支号
ぐらい持ってないとだもちろんですよ
手がかりがないようだったらどう手ない
さん仮説を教えてくださいどう思いどう
だろうこれ例見ないとわかんないいすよね
だから例えば乾かすはうんホだと言えない
とかを探してそうそうそうそっから分析を
始めることになるけど洗濯物ホスは言える
けど洗濯も乾かすちょっと違和感あります
よねえうあれでもいける気がする乾かフロ
上がりに紙は絶対ホスじゃなくて乾かいい
髪を乾かドライヤー使ってる感じする
洗濯物を乾かす言われるとドライヤー使っ
ドライヤの単ことさんの中でそんなこと
ないけどでもその洗濯物を乾かすて言われ
たてなんか体的になやってないといけない
感じがするうんうん干してあと待ってる
だけな人は乾かしてない感じするんです
そうですね同じ感じがありますだからT
シャツを乾かしてる人ってドライヤーとか
でなんか乾くための努力をしてる感じが
するうんうんうんそうですねかな1個それ
ね合ってますおしよしはいホスと乾かすは
ですね例えば日向でだったら日向でって
ホスも乾かすもいけませんそうですねホス
で乾か乾か言ますよねでもこれがアイロン
でとかバチでとかになるとうん急に乾かす
しか無理になると火でホスは変ですね確か
にうんということで乾かすってね実は乾燥
の手段に制限がないんですけどうんホスの
場合は日光が日陰に限られるってい面白い
へえていうことも単語ベクトルじゃ言って
くれないでしょ多分あでもどうだ狂気確率
日陰と日光だけだっていうことは示して
くれるんすか単語ベクトルってどうかな
なんか古典的な単語ベクトルだけだったら
ホスの方が日向とかそういうやつと一緒に
出てきやすいなっていうのは出てくるとは
思いますベクトルの中にその情報があ
るってことですねそうですなんかルジ度と
か取るとホスの方が高いなみたいな一緒に
出てくるなみたいなあでもそれはだから
自分で発見しなきゃいけないっすよね多分
ねそんなことないま計算すれば例えばその
ホスとルジ高い単語一覧バーって出して
そん中にあなんか日向とかそういうの多い
なとかそうでなんとなか気づけるかもしれ
ないですねあと多分今の古典的な単語
ベクトルの話でなんかあんまり最近っぽく
ないですよ多分ねそうね最近のやつだと
どうなんだろうな最近のじゃあそのチャト
gbdが日向だなホスってて気づいてる
部分がニューラルネットワークのどこかに
あるかって言われると微妙そういやどこか
にはあるんですよていうのは例えばなんか
チャットGPTにこにゃならホスホスを
含む単語をたくさん生成させてくださいて
言う
とん日でホスは言える正しい使い方しか出
てこないはずでそれはある意味分かって
るってことですよねうんうん確かにうんだ
アイロンで干すみたいなは生成しないです
もんね多分そうですねそうですねなるほど
ああこれはま見つけられるかもしんない
ですねでもねあごめんなさいこれだから
やっぱさゆ元国ラジオでみさんがよく
面白かってることでさはい理屈は説明でき
ないけど運用は正しくできるって人間の
言語の運用も一緒じゃそれをだから大規模
言語モデルもやってるわけだよ正しい分は
生成できるけど意味の違う性格に説明でき
ないわけでめちゃくちゃ人間ぽいよね大規
語モルえ将来的にさ大規模言語モデルを
用いた何かそのじゃAIとかがある5と
ある5の意味ってどう違うんですか例じゃ
うんをかかしたにま実はホストすて今言及
されてないもう1個重大な違いがあるん
ですけどそういう一見運用上ではわかん
なくて一般法則みたいに導かないと出せ
ないのこととかも説明できるようになる
可能性ありますかね面白いいやどうんです
かできるかも知れないっすねただ僕はそう
いう実験データとか知らないからオープン
クエスチョンですなるほどこれ面白いね
論文になるかもしれないそうおいいいい
問い出すじゃさすが
あるねさすがですねだで言っとるかよな
なんでゴリゴリの名古屋になったんだでも
確かね自書のね誤尺AIに欠かせてうまく
いかなかったっていう話国語時点ナイトっ
ていうね皆さん大好きイベントこれでやっ
てましたね確かねあ面白い面白いはい5
欠かしたけどやっぱうまくいかなかっ
たってた左かかせてやっぱなんどんだけ
こう修正指示出しても今の時点にあるよう
な無駄なない誤尺は出なかったなるほど1
発じゃ難しそうすよねあでもねいっぱいね
あのダメ出ししてましたこれだと説明に
なってませんあの左の誤射書かせるとあの
右じゃない方みたいなこと言うから右の
定義がなければ右左が定義できないので
そうじゃない形にしてくださいって言って
も右じゃない方って言ってくるとかそそれ
でもやっぱさ人間もそうじゃんそう僕らっ
て右と左で意味分かってるけど多分自称変
者としてのトレーニングを受けてない人
って全く上手に説明できないよねそうか
前回ファインチューニングの話したけど
結局事情の誤尺とはこういうものだって
いうのをめちゃめちゃこういう語釈を書い
てくださいっていうのいっぱい与えられ
たら学習してできるようなる可能性あれる
んじゃないですそうすねそれっぽいものは
出してくれるようになりそうチャット
GPTにありえないような文脈例えば
ちょっと僕が今回そのホス乾かすで用意し
てたのはブドってさ星ブドとは言えるけど
さ乾かし武道て言えないじゃん言えないね
乾かしブドって言えますかてチャットで
GPTとかに聞いたらちゃんと言えないっ
て返してくれるかなそれは返してくれそう
すねれそう返してくれるかうんうん言う
なら星武道ですっていうことをちゃんと
教えてくれんのかなチャットGPTってて
ればいこれそう星武道とは言えますがそう
ですね星道という言葉がありますが乾かし
武道は自然ですかとか言えますという言葉
がありますが乾かしブドうんは自然な表現
ですかああ気になる気になるこれどうなる
んだろうなかなおいい答え帰ってきてるわ
星武道は一般的で自然な表現ですが乾かし
ブドは少し不自然に聞こえますおいいです
よあでもねその後ちょっと変かも通常
乾かしは同士として使用され星は形紙とし
て使用されますそのため川道のいの代わり
に乾燥させた武道や乾燥武道などの表現の
方がより自然ですあ最後はいいですねなん
か最後はいいね中間がちょっと変だね
乾かしが同士って言った川は同士として
使用され星は師うん嘘じゃそこは嘘ですね
やぱこういうこと言いますよねこいつらね
こうことそれぽいことそうそうそうそう
そうだよねああなんかいいタスク与えるね
みさんAIのAIっぽいところ出したね
うんえでなんでそのボコ者の2人は川かし
武道とは言えないと感かこれいけんじゃ
ない今まで聞いたことなかったからって
いうのはまあまあまさんA答しますよなん
A代表として呼んでないんで別にそうなん
ですよ人間として答えてくれいいA反いら
ない今まで与えられなかったからじゃない
んすえでもやっぱあれじゃない食い物は
ホスだよね干物とか言うじゃんアジの干物
みたいなホスと食い物はかなり相性いい気
がするけどあ違違う甘物っていうわアワビ
乾かしてやつとか正法じゃないですか
なんか缶物とかはもう積極的に音符とか
当てて乾かしてるけど星ブドとかほっとい
てるからそうかも乾かして言えないとでも
あれですよね最近の魚の干物とかって全部
その音符を当てて乾かしていて挙句の果て
になんか人口的に干物にするための駅に
つけて食わせているこんな干物は本物の
干物じゃない急にあの山岡さんみたいな
美しいやめてやめて急にいやさんの話は
特にに関係ないです関係えちょっとじゃあ
さお2人とチャットGPTにも聞いてみ
たいですけど星武道がさ例えば通時の部屋
に置いててちょっと閉めたとしますんそし
たらその時ってさもう1回星武道に戻す時
てさ乾かすって言わない星武道を星武道が
湿ってそれを元に戻しきは乾かて言でしょ
確星道を干すじゃなさそうこれなんでなん
すかあじゃあ乾かすは元々あるべき状態に
戻すみたいなことが外因されてるとかああ
濡れちゃったものを乾かす1度濡れて
しまったパソコンを乾かすは濡れてしまっ
たパソコンをホストはあまり言わない
うん濡れてしまったパソコンホスホストは
あまり言わないですよねやつだから一度
濡れちゃったものを元の状態に戻すは
乾かすてなんじゃないですかえっとね
もっとね本質的な括り方ができますねでき
そうなんかできそうな気する例えばさ天気
を日陰ではどっちかかすそうホすって言わ
ないねわ確かにそれから濡れた手をは
乾かすじゃないそうですよね干すって言わ
ないですよねこの辺りとかもヒントっすね
えでもやっぱじゃ元の状態とかじゃなくて
うんあるべき姿にとかってことですかえで
はないですね例えばですけど洗ったシャツ
をだったらホスでも乾かでもいけるじゃん
うんうんうんうん1回そのシャツが洗った
状態になった後にその元に戻す時は別に
乾かすでもホスでもいけるじゃんでも
やっぱさホスさ洗濯物っぽい動作な
イメージがあって何かを吊り下げて置いて
おくみたいなのが必要なんじゃないあはい
はいはい竿にとかつつけると確かに布団を
竿にホスとはいるんだけど布団を竿に
乾かすは変で竿をどうしても使いたいん
だったら竿にかけて乾かすとかっていう風
に言わなきゃいけないっていうようなうん
ぶら下げる的な意味合いがホスにちょっと
あるそうていう目的地点みたいなものを
指す語意竿みたいなものと同時にホスは
用いること干し物みたいなのと同時に用い
られるよっっていう特徴はもちろんある
あるんだけどでもそれじゃない答えを今
求められてるわけですねそうそうそうで今
ここまでの聞いてる皆さんもこの材料だけ
であれこに注目したらこれって全部統一的
に説明できるんじゃないのっていうものが
あるんですはいこれで今ね学ラジオの
テーマ1個潰れましたやってしまった
漏らしちゃうからね色んなとこ
テンション上がってさんにしたどうだろ
つってさどんどんネタなくなってネタの
レシンしてるですシジジじじってやって
ますねえちなみにさごめん前段階確認して
ないけどチャットGPTにさホスと乾かす
の違いを説明してくださいってどうなる
んょそうじゃんそうじゃんこれまずやって
みたいよねあへええなんかいいこと言って
るっぽいぞお教えてください多分元々言っ
てた話の路線で言うとホスは主に日光や風
など自然の力を利用してもを乾かす使い
ますていう話はたねうんでそれじゃない
やつとしてホスは物を外部の空気にさらし
て水分を取り除くことをさします乾かも
そうだよねで乾かは物の表面の水分を
取り除くことをさします出ましたねおえ
そうなんあって嘘答えあってる乾かすって
物の表面の水分の話をしていてホスは物の
内部の水分の話をしてるんですよ当てるえ
当ててるじゃブドとかどうですかだって
確かに星星どって言けど乾かしブドって
言えないのは内部の水分を取るからで星
ブドの表面が湿った後に元に戻しき乾かす
になるじゃん本だつまり水分を取り除くの
でも表面の水分と内部の水分で同士が違う
んすよ本当だえそれ面白いぞ知らんかった
すごでそれを僕今単語ベクトルじゃ説明
できないでしょうって言したのにちゃった
こいつ腹立つマジでこのガキDVD3.5
うぜえちゃんと適切に解しましカはえホス
は内部の水分だって話はしている乾かが
外部の水分だってこと言って表面表面だっ
言ってますねホスは言ってないうん元気は
してないんだうんはあなるほどまでも物
から水分を取り除くていう言い方だからな
なんとなく内部っぽいような気もする
うんうん分かってる感ありますよね確かに
まこの誤尺を例えば持ってきたら少なく
とも仮に学生さんがホスと乾かすの意味
書いてくださいっていうテスト出した時に
もうこれで十分点を与えられそうですだ
からシャツがなんでホスと乾かせ言えるか
わかりますま表面イコールそのものだから
みたいな表面しかないからの体積がないん
だしってそう厚さがないから内部の水分と
外部の水の区別がつかないのでホスも乾か
てもいええ面白いこれそうかじゃあ熱い
ものは言えないんだホ分厚いも布団とかは
布団布団乾かすってったらばおしっこした
部分だけどさドライヤー当てるみたいな
イメージしない布団を乾かすそうすね布団
はそうすね布団はかなりホスだねだから
水浸しになった布団を乾かしたって言っ
たらさ中ぐじぐじの可能性ないうんうん
うんうんうんうんうんうん正面だけ取りた
感じそんな感じするそんな感じがする
でしょ確でもそれはあなたは言葉では言
ないへえあいい話これうんめっちゃ面白い
ホス深いんすよホス深いねへえ手を乾かす
手を干すっって言うとなんか手を
切り落とした切り落とした手とかをどっか
にかけているみたいなイメージをしちゃう
からやっぱり不自然なわけでだ我々はその
ホストを乾かすて言葉を表面にある水分な
のか内部にある水分なのかで区別して使っ
ていたんですようんうんでそれは今言われ
たらあのそりそうだなっていうぐらい
当たり前なんだけれども実際にいくらうん
用例をいっぱい集めたところで新しい
例えば単語を聞いた時とかにその反応が
できるっていうこと今までのデータを
いっぱい学んで傾向があるって言ってる
ことってちょっと違うんじゃないかだって
GPTは究極的には物の厚みとかに注目
って視野資格がないとできなくないって
いううんう気がするんですけどうんうん
でしそれどうですかりさんいやできないと
思いますテキストからしかテキストから得
られる情報しか得てないんでそうだよねだ
思けどでも思ったよりなんかテキストから
得られる情報多いっていうところもあって
なんか厚みとか表面とか概念を理解してる
ように見えるってのはあると思いますそう
だから僕多分りさんが勝手に言いそうな
ことを想像してたんですけどええっと今何
を聞かされるんですかえっと僕が仮定する
りさんの回答です何えだ改造度が低いり
さんをさんがい目の前にさんの今の回答は
もう出揃ったんではいえ僕の中にいる仮想
の改造が低い両さの回答を今から発表の後
にそうはい聞いたことないコンテンツだ
からそれは改造度を落とすていうそうです
けどTシャツがさ薄いっていう情報もさ
テキストの中にあるわけじゃないですか
うんうんからシ薄とかも言うしTシャツと
いう扁平な薄い形状のものにしか使わない
同士っていっぱいあるわけじゃないですか
ああはあははTシャツを広げるとかさ畳む
とかねうんうんはいはいはいていう言葉と
いっぱい使うなっていう情報を書きあめて
いけばTシャツが薄いっていう情報は資格
情報なんていらないんですよそこに入っ
てるわけだからそれだけでり
さんは言いますよねたどり着けそうですね
よしよしよよよってましたってましたって
ましたなるほどねていう反論できそうだよ
ねでもじゃ究極的には別に資格とか触覚が
なくても問題ないとそそうなんかさある
程度までま実際できてるからねこねこいつ
答えられてるからねそうそれが嫌なの俺話
の流れがねおられましたね正解したこと
いやなんかさその話昔から議論としてあっ
て身体性がないAIってあんまり本質的な
知性を獲得できないんじゃないかっていう
議論大昔からあってうんうんうんうんうん
学が入ったぐらいの時時にもうやっぱ無理
だよ言語だけでテキストだけでちゃんとし
たこと喋れるようになるのって言われてた
んだけどクを開けてみたら結構できた
じゃんうん今大規模言語モデルが結構でき
ちゃってたからはいなんかある種のその
がっかり感というかあ身体性ないと無理
って言われたけどそれ間違いだったのかも
しれないみたいなムードが僕はなんか外
から見ててあるような気がしてるんです
けどうんそんな感じありますいや僕として
も似たような感じで多分ね思ったよりでき
てるってのあると思うんですよそれ何言っ
てるかっいうと人のね言語がてか人間なん
でもかんでも言語にしてくれたおかげだ
なっていうところがあってあそう捉えるん
自分の目で見た景色とか耳で聞いた感じと
かを全部言語で表現してくれてるから言語
モデルはその言語を通して人間の見てる
世界をある程度理解できてる面白い例え
ですそうことだ思だから極端に言うと語が
めちゃくちゃ少なくて風景とかも全然表現
できない言葉だったとしたらおそらく
あんまり大したこと言えないそう人間の
言語の世界を映しとる力がかなり強いって
ことの詳でもあるなって思いますあそう
これいい話じゃないなるほどパンチラに出
ましたねいいね大規模言語モデルの成功は
人間が言語化をいっぱいしてくれたおかげ
だていう話だうんうんそうあのビジュアル
進化の脳っていう本の話をした時に感想で
きたのが生生AってかまチャットGPTと
かって言語で入力をして出力を出すとで
例えばミッジャーニーとかダリ2とかああ
いう画像生成AIとかも言語で伝えて絵に
変えるっていうインタフェースですよね
うんうんうんだから多分人がその言語化を
いっぱいした蓄積があるからそれに
乗っかって余計にその言語化うまいやつが
強いようなインターフェイスになってる
みたいな感想送ってくれた人がいて画像で
こんな感じでっていうのをさ渡してそれを
文字に変えてくれるAIとかってあんまり
さ聞かないまあるかもしんないけどなんか
だからインターフェイスが言語であ
るってことが優れてるっていうのをま逆説
的にこのチャットGPTとかの流星って
示してるのかなって僕もそれやって思い
ましたねうんうんうんあ俺
1人1人で番組やってるこれいやなんか
特にそれに対して言うことないなと思って
そうかもなってうんてやっちゃったって
くるわてらねえわ黙ってるすいちゃっ番組
として最悪ですよ本当にごめんごめん自分
でさあの席に座ってる意識もなくさぼーと
聞いて本当にねうじゃねえよ確かに言葉の
意味とかっていうのを大量のデータを元に
それをこう処理して意味として捉え
るっていうやり方1つありなかなと思った
んですけどなんかそれと人間が言語の意味
をどう理解してるのかとかってのはなんか
別の話かなと思ってあ出たよくある議論
これどうすかりさんいやそう思いますよ
違うと思います違うと思うそもそも大規模
言語モデルが見てるデータの量って人間が
一生かけても読み切れないぐらいの量を見
て初めてあのレベルですよでも赤ちゃん
全然少ない量でまいいとこまで行ったり
するわけじゃないですか違う学習だと思い
ますあやっぱそうだよねなんかそれ動して
議論されてるケース結構あるなと思って
なんかその論者の人もでも結構いません
根本的には別にニューラルネットワークと
一緒だろっていう人間もうんどうかな研究
者はいないですかあんまりいるんじゃない
えコショじゃね言ってる人見たことある気
がするけどうん僕はその辺あんま追ってな
いっていうのあると思うんすけどまあだ
どこまで同じでどこまで違うのかっていう
のはうん議論の余地がありすよねまそう
ですよねだから丸っきり同じなんだけど
少ないデータでできるなのかえっと
そもそもそういう得たデータを元にして
いる処理が全く違う可能性までありますよ
ねだからそうんなのかはもちろんわかん
ないだけど特にさ生成文法とかって有限の
インプットで自然な文を生み出すためには
どのような言語知識があるかっていう学問
ジャンルが生成文法なんですけど自然な分
を生み出すっていう点がフォーカスされ
すぎてチャットGPTが自然な分を
いっぱい生み出してんだから言語枠がやっ
てたことって意味なかったよねみたいな
悲観論がすごい増えてるですよそうでも
それって実際そのりさんが言ってくれた
ようにメカニズムが違うからとはいえ人間
が言語うん限のインプットで無限の言語を
生成する力は考えた方がいいんだけどうん
なんかね言語枠の旗色悪いんすよやっぱ
最近なんかだから結果出してたらええやろ
はみたいなことよね結果としていい感じの
分作れてんだからこれでいいじゃんで言語
はねその無限の分を生み出すシステムも
開発できなければ自動翻訳だってDEEP
Lとかのレベルほどのものて多分生み出せ
てないと言っていいと思うからそれもあっ
て旗色悪いんですよね生活物出してないん
だからお前つべこべ難しいことやってた
あれて何の意味あんのていう逆にさらされ
てて辛いあ辛いって話だったんですか今の
うんよしよし辛かったね大変だね辛かった
もうさなんかちょ自分がやったことさ
なんかこうやってさむちゃくちゃさ思って
もないこと言ってさわかるよその気持ち
めっちゃわかるよめっちゃわかる
かわいそうなんかプレイヤーの数の違いっ
てのあるのかなって思っててつまりその
性能が良ければいいみたいな世界観で動く
人って多そうじゃないですか分かりやすい
からにも作ろでそれが成功したのLMなん
ですけどその言語枠うんLMって大規模
言語モデルのことですそうですねなその
言語枠の方面でこれが人間の学習の
メカニズムだっっていうのは彼も役に立た
ないじゃないですかはいあれどっちかと
いうとなん限られたデータでいいとこまで
行けるみたいな問題設定かと思っててうん
うんまあなんか興味ある人しかやんない
うんうんうん方で大規模言語モデルみたい
なやつは役に立つもの作ろうぜって分かり
やすい目標があってどんな手段取っても
いいっていうだあれだよだから役に立つ
作ろうぜの人と役に立たなくてもいいから
興味あるの両方が入ってきてるもんねそう
ですねだから競技写真行全然違いますよね
そうだなんか分かりやすい方の役に立てば
何でもいいからそっち作ろうぜっていう方
がそっちの方が分かりやすいからなん
そっちの方が住み早いっていうのはしょう
がないのかなって今聞いて思いました資本
主義も駆動しますもんねそっちはね役に
立つものじゃ大規模言語モデルでうちの
カスタマーサポート全部自動化しようぜ
そうだそうそう落ちますし羨ましいなって
思うのは企に務めながら研究者やるって
いうケーがうんAとかだと結構できると
思うんですね大規模言語モデルの入門書
書いてたさ岡原大輔先生とかもプリファ
ネットワークスっていうまユニコーン企業
の会社に務めてらっしゃるますけど言語枠
でねベンチャーのユニコ企業に務めながら
言語枠の論文書いてます見ことないじゃ
ないですかそこもちょっとやっぱね競技者
ちの違いとして出てきますよねうあらゆる
面でやっぱ大希望言語モデル側が人数も
多いし金も流れるしでちょっと有利で逆に
だからそ人間が語ねようになるメカニズム
きかしましょうはお金も人もあんまり流れ
てこない構造になってるから多数で負け
るっていう欠解されたまま批判されたり
誤解されたまま価値がないって言われたり
してで反論する声も届かないまま予算を
縮小されるみたいなことが起きて辛いね
辛いの気持ちわかるよ今日朝まで付き合う
から辛い
ねこういう状態ありますからねたまにね
辛いね持ち上がる
よこセ
的にしてるお前すぐてから言うやんお前
本当
にそんなわけで大希望言語モデル終雑談会
やってまいりましたあ1個ねこの雑談の
流れで訂正できるかなと思ったんですけど
しそこねたことあるんで最後に1言っとき
ますそんななんか大事なミスしたかそうな
んですよ重大なミスが発覚しましてあの
ベクトルは数字がいっぱい集まったやつ
だっていう話の組みってほりますさんまし
えしたんですけどすごく詳しいあの物理を
やっている編集スタッフがそいるんです
けどはい指摘が入りましてまあまあなんか
そう認識してもそこまで外れてはないん
ですけど厳密に言うとベ定義違いますよて
言われたんで正しいベクトルの定義を皆
さんにお伝えしておきますベクトルは
ベクトル空間の現ですはいはいベクトルは
ベクトル空間の現です定義ベクトルが入っ
ちゃってるから循環5これこれ帰ってき
たら俺怒りAIが出力したみたいな回答だ
よねあえそいつあいつAあいつあいつ
もんね
そんな人がねAはA空間のなんとかて言わ
ないもんね言わないもんねすごいなって
いうことなんですけどあのすいません皆
さん間違ってましたベクトルはベクトル
空間の現だったそうですえうちの映ました
んそんな名のえ別にそんな多分うちの映が
うちの部が言てたんで気をけた方がいいか
なって思いましたねあそうですか多分
みんな興ったと思います大丈夫ですよはい
引き続き面白かった方はチャンネル登録高
評価感想のコメントとかどしどしお寄せ
いただければと思いますあとまたりさんも
ねなんかどっかの機会で来ていたするかも
しれないで来て聞きたいこととかこやこや
あれば是非どしどしお寄せいただければさ
でございますはい4回にわって我々の
チャンネルに協力してくださったんでり
さんに対する温かいコメントとかね応援の
声とかあそうだあとコトラボのねあの
リンクとかも概要欄に貼ってありますんで
皆さんよければそちらもご覧いただけあね
急に思い出したわそうですね単語ベクトル
に関する無駄のない解説の書ありますよね
そうなんですよあのさ単語ベクトルの話さ
ずっとなやかんや俺らさ40分ぐら喋って
たじゃんあれねコトラもの動画と7分
ぐらいなってすい
ない古典的な単語ベクトルはおせべに似
てそれあのゆコンピューター学ラジオの
学習データを食わせた後ですね普段は
もっとまなの変な学習ラボAにねノイズ
入れてしまったそっかそっかその結果の
出力であ分かりましたわかりましたという
わけで今回も終しましょうありがとう
ございましたありがとうございましたあり
ございまし
[音楽]
たで
[音楽]
5.0 / 5 (0 votes)