GPT-4o|ChatGPT最新モデルは何が凄いのか?
Summary
TLDRこの動画スクリプトでは、OpenAIが発表した最新の言語モデルGPT-4Oについて詳しく解説しています。GPT-4Oは、自然言語だけでなく音声や画像も扱える多機能なモデルで、GPT-4ターボに匹敵する性能を持ちながら、より高速にテキストを生成できると報告されています。また、マルチモーダルタスクにおいても優れた性能を発揮し、音声認識や翻訳タスクにおいても既存のモデルを超える精度を示しています。しかし、音声会話機能はまだ提供されておらず、今後の開発に期待が高まっています。スクリプトは技術的な詳細と評価方法を交えて、AI技術の進歩とその社会的影響について考えさせられる内容となっています。
Takeaways
- 😲 GPT-4が発表されたと話題に!これはOpenAIが開発した新しいモデルで、自然言語データだけでなく音声や画像も扱える機能を持つ。
- 📈 GPT-4はGPT-4 Turboに匹敵する性能を持ち、さらに英語以外の言語ではその性能を超えていると報告されている。
- 🚀 GPT-4はテキスト生成が2倍高速に改善されており、GPT-4 Turboの半分の費用で利用できるというコストパフォーマンスの向上がある。
- 🔍 GPT-4はマルチモーダルタスクに対応しており、テキストと画像を組み合わせた問題にも対応できる能力を持っている。
- 📊 M3EXデータセットでの評価では、GPT-4は全ての言語でGPT-4以前のモデルを超える性能を発揮していることが示されている。
- 👂 音声認識タスクにおいても、GPT-4は最新の音声認識モデルを超える性能を持ち、低いエラー率を記録している。
- 🗣️ 音声翻訳タスクにおいてもGPT-4は優れた性能を発揮しており、他の企業のモデルと比較しても最も良い結果を出している。
- 💬 チャットGPTではテキストと画像の処理機能が提供されており、今後はボイスモードの提供も予定されている。
- 🔌 APIではテキストと画像、あるいは両方を入力としてテキストを出力する機能が提供されており、今後さらに機能が拡張される可能性がある。
- 🧠 GPT-4は単一のニューラルネットワークで全ての入力と出力を処理するという革新的な構成を取っているとされている。
Q & A
GPT4のアップデート版が発表されたのはいつですか?
-GPT4のアップデート版であるGPT4Oは5月14日の午前2時に発表されました。
GPT4Oの主な特徴は何ですか?
-GPT4Oは自然言語データ、音声、画像などを一つのモデルで扱えることが特徴です。また、性能が向上し、テキスト生成の速度がGPT4ターボの2倍となり、費用も半分です。
GPT4Oが優れている点はどのように評価されていますか?
-GPT4Oは様々なデータセットで評価されており、GPT4よりも全ての言語で優れた性能を示しています。具体的には、マルチモーダルタスクや音声認識、音声翻訳などで他のモデルを上回っています。
GPT4Oのテキスト生成速度はどれくらいですか?
-GPT4Oのテキスト生成速度はGPT4ターボの2倍速く、またその費用は半分です。
GPT4Oの音声生成速度はどれくらいですか?
-GPT4Oは0.32秒で音声生成ができ、人間の反応時間に匹敵する速度で会話が可能です。
GPT4OのAPIが提供している機能は何ですか?
-現在提供されているAPIでは、テキストと画像を入力としてテキストを出力する機能があり、今後は音声や映像の処理機能も提供予定です。
GPT4Oの技術的な新規性は何ですか?
-GPT4Oでは、テキスト、画像、音声を一つのニューラルネットワークで処理する構成になっており、従来の複数のモデルを組み合わせたパイプラインから進化しています。
従来の音声モードの処理方法とGPT4Oの違いは何ですか?
-従来の音声モードは音声認識モデル、テキスト生成モデル、音声合成モデルのパイプラインで構成されていましたが、GPT4Oでは単一のニューラルネットワークで全ての処理を行います。
GPT4Oが既存のモデルを超える性能を示している具体例は何ですか?
-GPT4OはM3EXデータセットや音声認識タスクなどで既存のモデルを超える性能を示しており、全ての言語でGPT4を超える正解率を記録しています。
GPT4Oの提供予定の新機能は何ですか?
-GPT4Oは今後、ボイスモードを提供予定で、音声を入力・出力する機能が追加される予定です。また、APIにおいても音声や映像の処理機能が提供予定です。
Outlines
😲 GPT-4Oの登場とその特徴
GPT-4Oが発表されたと話題に!これはオープンAIが開発した多様なデータタイプを一つのモデルで扱える「オムニ」モデル。5月14日に発表され、自然言語データだけでなく音声や画像も処理できるという点で非常に興味深い。性能面ではGPT-4ターボと同等かそれ以上の性能が出ていると報告されており、英語以外の言語ではGPT-4ターボを超える能力を持っている。さらに、テキスト生成が2倍高速に改善されているとのこと。料金面でもGPT-4ターボの半分のコストで提供されると話題です。
📈 GPT-4Oの性能評価と比較
GPT-4Oの性能は様々なデータセットを通じて評価されている。M3EXデータセットでの評価では、GPT-4を超える正解率を示しており、言語だけでなく画像を含むマルチモーダルな問題にも対応している。音声認識においても、最新のウィスパーモデルを超える性能を発揮していると報告されている。音声翻訳においても他の企業のモデルと比較して最も優れた性能を示しており、GPT-4Oは非常に高精度な結果を出すと評価されている。
🔊 GPT-4Oの技術的構成と機能の展望
GPT-4Oはこれまでの音声モードとは異なる技術的構成を持っている。従来は音声認識モデル、チャットボット、音声合成モデルがパイプライン的に処理を行っていたが、GPT-4Oでは全ての入力と出力が同じニューラルネットワークで処理されるというシンプルかつ強力な構成を採用している。今後、テキストだけでなく画像や音声も入力し、テキストや音声、映像を出力できる機能が提供される予定で、その際の料金もGPT-4ターボの半分以下になるという利便性がある。
🤖 GPT-4Oの技術革新と多様性
GPT-4Oは技術的な革新をもたらしている。これまでのマルチモーダルモデルでは、それぞれのメディアに特化したニューラルネットワークが特徴量に変換されていたが、GPT-4Oでは全てのメディアタイプを同じニューラルネットワークで処理することができる。これは非常に大きな技術的飛躍であり、これまでの考え方を刷新している。また、この技術は言語獲得能力など人間の特有の能力にも影響を与える可能性があると議論されている。
🚀 GPT-4Oの未来性と社会的影響
GPT-4Oは技術的な進歩だけでなく、社会にも大きな影響を与える可能性がある。人間の反応速度を超える処理速度を持つことから、ビジネスのあり方やマーケティング、営業などの分野におけるAIの活用が進むことが予想される。AIによる効率化と自動化が進むことで、企業の競争力向上や新しいビジネスモデルの創出が期待されている。
Mindmap
Keywords
💡GPT4O
💡オムニモデル
💡言語モデル(LLM)
💡性能評価
💡テキスト生成
💡マルチモーダルタスク
💡音声認識
💡API
💡ボイスモード
💡ニューラルネットワーク
Highlights
GPT4Oという新しいモデルが発表された。これは自然言語データ、音声、画像などを一つのシステムで扱うことができる。
GPT4OはGPT4ターボに匹敵する性能を持ち、英語以外の言語ではその性能を超えている。
GPT4Oはテキスト生成が2倍高速で、正確性と速度の両面で改善されている。
GPT4OはAPIを通じて利用可能で、GPT4ターボの半分の費用で提供される。
GPT4Oはテキストだけでなく、画像や音声も扱うことができるが、音声会話はまだ利用できない。
GPT4Oは人間と同等の反応速度で音声生成が可能な0.32秒の速さを誇る。
GPT4Oはマルチモーダルタスクに対応しており、画像とテキストを組み合わせた問題にも対応可能。
GPT4Oは音声認識タスクでも既存のモデルを超える性能を発揮している。
GPT4Oは音声翻訳タスクにおいても優れた性能を持ち、他の企業のモデルと比較して最も良い結果を出している。
GPT4Oは現在提供されている機能はテキストと画像の処理に限られ、今後ボイスモードが提供される予定。
GPT4OはAPIを介してアプリケーションに組み込まれる機能も提供されており、テキストと画像を入力にテキストを出力する機能が利用可能。
GPT4Oは今後音声や映像の処理を行う機能も提供予定とされている。
GPT4Oは単一のニューラルネットワークで全ての入力と出力を処理する構造となっている。
GPT4Oは従来の音声モードと比較して、より効率的でシンプルな構造を採用している。
GPT4Oはマルチモーダルモデルとして、これまでのモデルと比べて全ての入力と出力が可能となっている点で革新的。
GPT4OはAI技術の進歩において重要な一歩を表していると期待されている。
GPT4Oの発表は技術者や利用者双方にとって非常に重要な意味を持つ。
Transcripts
出たね
うん出ましたね何です
かGPT4出ましたね
ほん何ですかそれはそれは一体何です
かいやオープAIがまチャットGPT出し
てるじゃないですかああいやこれのね
アップデート版が昨日の未名に出たんです
けど
へえなんかあるからアップデート出ました
とか新しいの出ましたとかうんから別何の
気なしにそのリリースページみたいなの見
てたんですようんだなんかえ結構とんでも
ないことをへって書いてないと思って
へえうんなんかシンプルにこれまでのやつ
よりすごくなりましたっていう話にとまら
ずうんなんていうかその研究っていう目線
から見てもなかなかすごいことが起きてん
じゃないかという気がしていますそうなん
だはいなんでこの動画をきっかけにGPT
4Oのことを知ってくれた方もいると思う
のでず概要的なところは話しつつあ
ちょっと技術面によった話をしていきたい
なと思ってますはいはいでま今回の内容は
えオーAが新たなモデルGPT4OOって
いうのはオニのOなんですけどえを発表し
ましたまオムニっていうのはあれですね
いろんなタイプのデータ自然言語データと
か音声とか画像とかうんいうのをまあ1本
で扱えますよっていうような意味合いなん
ですけどうんうんこれが発表されましたと
でま公式ホームページ詳しくは見て
いただければと思うんですがえっと5月
14日の午前2時に発表されてでま
リリースページというかこういうものです
よっていう紹介のページもあるんですけど
ま結構情報がいっぱいあってで英語で基本
書かれてるんでまちょっと特筆し体点って
いうのをピックアップしてちょっと砕いて
話していこうかなと思いますお願いします
はいでえこの動画を見ていただくことで何
が分かるかっていうところなんですけどま
大希望言語モデルllmの性能がま良く
なりましたみたいな発表ってよくあると
思うんですけど俺その良いとか悪いとかっ
て何を持って判断してるのかっていう
ところがクリアになるかなっていうのが1
つうんうんでまこれは技術者っていうか
エンジニアに限らずま利用者っていう目線
でもどういった面で良くなっのかっていう
のを自分で見極められるっていうのはえ
非常に重要なところかなと思い
ますでもう1つこのGPT4Oで使われて
いるま技術についても簡単にだけど書いて
あってまそこがねま発表されてない情報が
かなり多いのでまだ分かりきらないとこは
あるんですけどこの研究目線で見ても
めちゃくちゃ大きなことをやってるんじゃ
ないかという気がしていてちょっとそこを
後半に話していこうと思いますうんうん
はいはいじゃまず1点目この性能がいいと
か悪いとかって何を持って判断してるの
かって話でま結論から言うとそ評価用の
データっていうのがいっぱいあるんですよ
うんまそのデータを作ること自体も結構
研究として成立するぐらいの話なんです
けどま主にどういった点で良くなってる
かっていうのをちょっと見ていこうと思い
ますはいでま他方面で性能が上がりました
と報告されてる限りではなんていうか
いかなる面でもGPT4Oが優れてる
みたいな感じ
語あとプログラミングうんのところでは
GPT4ターボこれは1個前のモデルです
ねGPT4の高速版うんあるところの
GPT4ターボに匹敵する性能が出ていて
で英語以外の言語ではポターボを超えて
いるへえいうように報告されていますうん
のでシンプルに性能良くなってるんだけど
さらにねあの僕勝手にままたすっげえ
でっかいモデルが出てきたんだろうなと
うん思っていてえま結構動作的にはラグが
大きかったりするんだろうなと思ってたん
ですよねうんまていうのはGPT3から
GPT4に新しくなった時にま結構
レスポンスとしては遅くなった印象があっ
たので
うーんなんですけどま引きの要件なので
シンプルな正確さというか出力が正確であ
るっていう面以外にま以下の点でえ改善が
見られているというのででこの3つ上げ
てるんですがGPT4ターボの2倍高速に
テキスト生成ができるへえなので性能良く
なりながらめちゃ早くなってるうんうん
うんうんでしかもまこれAPIっていうの
を書いてるんですがこれはプログラムを
使って大規模言語モデルに命令を投げてえ
答えをもらってみたいなことをするなんで
アプリ開発とかで使うものなんですがこれ
がですね使う使えば使うほど料金がかかる
ものなんですけどGPT4ターボの半分の
費用でふんうんなんで半分の値段で倍早い
やつを使えるしかも性能がより良いって
いうへえようなもうなんか全部のセセット
みたいになってますでさらにまオムニって
言っているぐらいなのでまテキストだけで
なく画像とか音声も扱うことができてま
これまた後で話しますけどまだ音声会話が
できる状態にはなってないつまり機能とし
ては用意できてるけどまだ僕らが使える
状態じゃないっていうことですねうーまな
のでちょっとまだ待の状態なんですが人間
の反応時間に匹敵する速度なんで0.32
秒で音声生成ができるとだからごく自然な
レスポンス速度で会話ができるめっちゃ
すごいやんめっちゃすごいあのこれなんか
ちょっとしたことをググりたいみたいなの
がなんか仕事の中で多発してそれがなんか
めどくさいみたいなの結構あると思うんだ
けどうんまこのGPT4これを片に置い
といてなんかララ喋りながら仕事する
みたいなことができるようになるんじゃ
ないかっていうへえ何でも知ってる人間が
隣にいるみたいな感覚よねそうそうそう
しかもねげあれなんだよなんか
デモンストレーションの動画みたいなのが
公式ページには出てるんですけどうんあの
スマホでうん今ここにこういうのが映って
んだけどなんとかかんとかみたいな喋って
動画撮りながら喋ってでそれに対して返事
が来るみたいなだから映像と音声の
掛け合わせみたいなこともできてるうん
へえすげえな激ヤバなんです
がでこのこれですね匹敵するとか超えてる
とかうんえこの部分をどうやって評価し
てるかっていうところでえっとホーム
ページ見ていただくといくつかのデータ
セットで評価をしていますでちょっといく
つかピックアップしてみようかなっていう
のでまずこれM3EXムっていうデータ
セットなんですけどもこれはま問題の例が
これとかこれと
かな感じでえっとここが空しになってて
そこに当てはまるものをABBCDから
選べみたいなうんうんうんそういう問題が
いっぱい入ってるデータセットなんです
けどまここのの言語で書かれていてで選択
式でかつず表が含まれているので文章読ん
で答えるだけじゃなくてそこに置いてある
図を理解しなきゃいけないっていうまこう
いうテキストとか画像とかってそれぞれ
別個ではなくって掛け合わせで理解し
なきゃいけないようなタスクっていうのを
マルチモーダルタスクって言んですけどま
マルチモーダルの能力を測るっていうよう
なデータセットになっていてでこれが実際
の結果ですねえ横軸が
言語で縦軸がま正解
率になっていますでこれを見ていただくと
青いバーがGPT4なので全身のモデルで
で緑色のバーがGPT4Oおおですけども
全ての言語でGPT4を超えていると
うーんいうような形になってます
うんまなので少なくともこの報告されてる
範囲ではこういった問題でえ既存のモデ
ルっていうのを超える性能になってるんだ
なとかっていうそういった判断ができるか
なと
へえで他にもま何種類かあのあってここに
書かれてる限りではないんですけどもあと
は音声認識なので音声を入力としてそれを
文字起こしするっていうタスクでもえ
同じく既存のモデルを超える性能を出して
いてうんでこのオレンジのバーがこれが
ウィスパーの3なんでこれオーAが出して
いる音声文字起こしのモデルで現行最新版
なんですけどあのテキストも
扱えるし画像も扱えるし音声も扱え
るっていうその色々やれるモデルであり
ながらこのま音声音声認識のモデルを
超える性能を出しているとなんでこれ
エラー率なんで小さい方が良いんですけど
もおおなるほど
うんでま横軸はこれは地域ですねどこの
地域の言語かっていういううんうんこれを
書いていてま言語っていうかえ話者かな
話者がどこの地域の人かっていうことかな
と思うんです
がま全ての面でウィスパーを超えていると
[音楽]
ふはいでさらにここは他社のモデルとも
比較をしていて音声翻訳ですね音声
受け取ってそれを別の言語で音声として
返すというタスクについてもこれここが
GPT4Oなんですけど
もあのミにこれGoogleが出してる
モデルですねとか他のえ会社が出してる
ものもえ比較に入れてるんですがそん中で
最も良い性能を出している
へえという感じで非常に高い精度を出して
ますとであのホームページではあのGPT
4OがGPT4とかに負けているところが
今んとこ見つかってないから教えてくれ
たら助かるみたいなことが書いてありまし
たへえ全てで上回ってるうんこんな感じ
ですごいなでこれがめっちゃ高かったら
悩むんだけどより安いってなるともうなん
かこれに完全に代替されるって感じがする
よねそうだねうん買えない理由がないよね
そうなんだよね何かあっかなで
もマジでないなうんマジでこれ見る限りだ
とないですねはいというところでま技術あ
すいません性能面の工場っていうとこで
言うとここまでなんですけどえっと
とりあえず今提供されているものと今後
提供予定のもっていうのがあるので
ちょっとここについて話しておくとえっと
チャットGPTなのでWeブラザー開いて
あのチャットするあのあれに関しては今
テキストと画像の処理機能ってのが提供さ
れてますはいなのでテキストでチャット
するとか画像生成するとかま画像と
テキスト入れてなんか変換してもらうとか
いったことはできるとで今後ボイスモード
なんで音声を入力したり音声を出力たり
するっていところが数週間のうちに提供
する予定だという風に書いてありますふ
うんであとはAPIこれはなんで
アプリケーションにこのチャットボットを
組み込むための機能なんですけどもこれに
ついてはテキストとま画像どっちかま
あるいは両方かなを入力としてテキストを
出力する機能が今提供されていてで多分
個人でさらにそれ以外の機能が使えるよう
になるってのはかなり先なのかもしれない
ですねあののパートナー向けになので
パートナー企業とかそういうレベルでえ
支援をしている企業とか向けにえ音声とか
映像の処理っていうのを行う機能提供予定
だという風に書かれて
ますうんという感じですねなので続報を
待ちたいなという感じでいますうんはいで
ここまででまこっち性能の吉足っていうの
は問題集みたいなでデータの集まりに対し
てまかせ解かせて性能をっているんだと
いうところを見てきたんですけどもまこっ
からが特にちょっとびっくりしたとこで
あのGPT4Oで使れて技術ながま研究と
いう目線で見てもかなり新しいことをやっ
てるように見えていますうんていう話をし
ていき
ますはいでGPT4の技術的な新規制って
とこなんですけどえっとこれホームページ
からえ引っ張ってきたので元の部分みたい
方はこちら行っていただければと思うん
ですがなんか22パラグラフぐらいで
さらっと書いてあることをなんかうーんと
か思いながら他のとこ読んでそのまま
読み進んでいったらえ今なん吊ったみたい
な気持ちになったんでちょっと引っ張って
きているんですがあのこれま日本語に直す
とえっとGPT4までの音声モードなんで
音声を入力したりとか出力させた
りっていうところのえ機能っていうのは3
つの別々のモデルのパイプラインですと
従来的にはこうなっていたっていう話なん
ですがえっとまパイプラインっていうのは
複数のモデルを組み合わせてま1本の
データ処理の流れを作ったようものなん
ですけど
もままずは1つシンプルなモデルがえ音声
をテキストに
書き起こすで音声が入力されたらそれを
テキストに直してでチャットボットGPT
3.5とかGPT4とかがテキストをえ
入力してテキストを出力するうんでその
テキストを音声化するモデルが最後音声
変換してえ出力が出てくるとうんいう形を
取っていたんですけどもまちょっと本当な
のかって思うんですけどGPT4Oでは
テキストとま映像と音声を通じてエンツ
エンドなんで1個のシステム情報処理の
システムで入力から出力までを担当するて
いう形を取っている
おおまつまり全ての入力と出力が同じ
ニューラルネットワークによって処理され
ますと
へえ書かれていてまこれ以上の記述はない
んですけどマジ文字通り受け取ったら
ちょっとどうやってんのかマジでわかん
ないおおおおうんですよねでまちょっと
もうちょっと見ていくとまGPT3.5と
4のボイスモードドっていうのはどういう
形になってたかというところでま人が音声
を入力しますでそうすると音声認識モデル
が入力された音声をテキスト化しますと
うんでまGPT3.5とか4とかっていう
のはまテキストからテキスト出力すること
ができるのでえ入力のテキストに対してえ
返答のテキストを返すまチャットテキスト
によるチャットを行っている
うんでこの返答として得られたテキスト
これを入力として音声合成のモデルこれが
ま最終的に発話としてえ音を出力すると
うんいう形で複数モデルを組み合わせて
実現するような体勢を取っていたんですが
これに対してGPT4がどうやってるかと
言うとまテキストも画像もうん音声もこれ
もどれでも入力してオッケーでで出力とし
てテキストもま映像もえ音声も出力する
ことができるっていう全ての情報処理を
単一のニラネットで行うという構成になっ
ているとま読めるわ
ねうん可能なのそんなことがいやいや
なんかここ書いてあることそんまま
受け取ったらああこうなると思うんだよね
まそうだねそう読めるねうんで同じ
ニューラルネットでていうのがどこまでの
ことを意味してるのかっていうのがうん
結構ポイントなのかなと思っていて
ちょっとまその辺りの背景を話すとこれは
あの1個前の動画で詳しく話してるので
またこのページについてはそちら見て
いただきたいんですけど例えばその
テキストを受け取ってなんか次の単語を
予測していくでチャットをするみたいな
うんモデルってま基本的にベクトル列
つまり入力された文章をちょっと細かく
単語みたいなもので区切っていってうんで
それをベクトルとして表現してそうすると
まベクトルの列になるじゃないですかうん
でこれを処理していくっていう形で設計さ
れてるんですよねテキスト列を処理する
前提で設計されているうんうんという感じ
で画像を処理するネットワークとか音声を
処理するネットワークとかっていうのも
あのどういう形の入力が来るかっていうの
を想定してネットワークそのものの構成が
決まってるの
であのこれを全部1本化するって一体どう
いうことっていううーことなんですよね
うんよくあるてかこのマルチモーダルの
モデル自体は別に今回のこのGPT4Oが
初めてではなくって色々な技術が提案され
ているんですけども一般的にはまず
テキストとかをあの画像とか音声とかって
いうそれぞれに対してそれを
まずその特徴を表すベクトルとかに変換
する個別のニューラルネットワークを
それぞれに用意しておく
うんで出力されたここの部分うんここで
出力されるなんかベクトルとかま行列とか
何なのかは一旦置いといてここの形を揃え
ておくことでうん中核のモデルっていうの
が同じ形の入力を受け取れるようにする
うんで中核モデルが出してきたベクトル
なりなんなりベクトルの列とかかもしれ
ないですけど対して個別の処理
ネットワークを書いてまテキスト画像音声
の出力に対応するっていううんうんうん
こういう形であればこれまでもあったん
ですよねうんうんなのでまこれのことを
言ってるならまそんなに大きなことでは
ないまあ分かるうんまあ分かるうんまとは
いえねテキストと画像を扱えますとかうん
画像と音声を扱えますとかうんっていう
ものはこれまでも
あったんですけど全部受付可能で全部出力
可能っていうのは確かにすごいねへーうん
これはかなりあのいろんな思考錯誤が必要
なところなはずでうんで思考錯誤をするに
は金がないと無理なんですよねうんうん
うんなのでまオープンAならではあの
ところなのかなと思ってるんですがま本当
に文字通り受け取ってこういう構成を取っ
てるならめちゃくちゃ確信的な技術なので
うん早く論文出して欲しいなと思ってます
へえですね結構これ面白いよねそうだねあ
すごいことやってそうだねもしこうだっ
たらそうなんだよねでもうGPT4あたり
から詳細にどういう技術使ってるのかと
かってもう公開されてないのでそうなのか
マジでちょっと頼むオープAIって感じで
いや気になるね俺は座って待ってるだけ
ですけど
知りたいね全貌をいやマジで知りたい
ちょっと会いたいですねオプの人
とはいありがとうございますというところ
でまずllmの性能評価っていうのをどう
いう風に行ってるかでま自分が見たい性能
ま性能って言ってもいろんな側面がある
はずなので自分が見たいところを見るには
どういうデータで評価してるかってのを
まず知る必要がありますよという話が1つ
とまあとはえ報告されてる内容そのまま
受け取ればですけどAI研究としても
かなりインパクトの大きいことをやってる
んじゃないかという期待を込めてこの動画
終わろうと思いますありがとうございまし
たありがとうございまし
たそのもうニューラルネットノが全く別の
気候になってきているうんもうま逆手に
とって逆にこう人間固有とか人に正徳的に
身についてるみたいな風に言われてはい
はいこれをニューラルネットに学習させて
みたらもう学習で対とできるじゃんて
おおなるほどかま言えたりするとあの人間
固有だっていうのを他の動物にはできない
みたいな根拠で言っていたものがうん1つ
反射されたりとかするってこはあり得るよ
ねあああ確かになうんま言語を獲得する
能力とかって人固有だっていう風に言われ
てること結構あるしうんそうだねうんま
ちょっとこの辺はいろんな議論があって
難しいとこだけど
まチャットボットで身につけられ
るっていうことがその辺りに対してね1本
光を差し込むみたいなことになったら
面白い
ああ
難しい難しい話し
てるそうだ
ね確かに
なまあとはあれかそのフレームレートって
あるじゃんああでなんか人間のフレーム
レート超える資格処理みたいなと思う技術
的には多分いつかできるんじゃないかと
思っいやできるんじゃないこのままだとだ
もうすでに
もう人間の反応速度と同じくらいの
スピードでうんできるようにはなってるん
でしょその音声に対して音声に対してね
うん
そうだ超えるのなんてもうすぐなんじゃ
ない
いやあり
[音楽]
えるマジで使いこなせなてやばいかもしん
ない会社員とかいや
マジうん本当にもう全ての業務で代わりに
AIとかがやってくれるような時代がもう
すぐそこまで来てる気がするねうん
うん
からま部署ごとにそのマーケティングと
かま営業とか核部署ごとにノーハウがある
じゃんうんそれ
をAI化する技術みたいな
うんのを持ってる
人材が生き残っていくみたいなこともあり
るかなあ確かになうん
[音楽]
5.0 / 5 (0 votes)