松田語録:BitNet〜1.58ビットのLLMで従来LLMより性能が勝る?

シンギュラリティサロン・オンライン
5 Mar 202418:53

Summary

TLDRこのスクリプトは、YouTubeで見られる様々な動画の中で、今後のLLM(Language Model)のビット数に関する議論を紹介しています。特に、1ビットで十分な場合や1.58ビットでより良い精度が得られるという最新の研究結果について語られています。この技術の進歩により、計算性能が向上し、メモリーの消費量が減少する一方で、精度の変化がどのような影響を与えるかが焦点とされています。

Takeaways

  • 🧠 YouTubeで様々な動画を視聴しているが、最近注目されている1ビットや1.58ビットのLM(Language Model)について理解を深める。
  • 🔢 従来のLMは16ビットから32ビットの精度で動作していたが、新しい研究ではより低いビットで動作するLMが提案されている。
  • 📉 1ビットで動作するLMの研究では、1と-1のみで表現し、必要な場合は10-1のスケールで計算を行う。
  • 🌐 1.58ビットの精度で計算を行うことで、より効率的な計算が可能となり、GPUの必要性が低下する。
  • 💡 低精度なLMが使用されることで、メモリの消費量が少なくなり、計算速度が向上することが期待される。
  • 🔄 人間の脳は非常に効率的な計算を行っているが、そのメカニズムを完全に理解しているわけではないため、AIでも同じように動作させることは難しい。
  • 📚 清水涼さんが2016年に出版した書籍で、ビット数を減らしても精度が維持される可能性について触れていた。
  • 🚀 過去数年間でAIの進歩は非常に迅速で、新しいアイデアや技術が次々と提案されている。
  • 🌟 将来的には、必要に応じて動的なビット数切り替えを可能とするチップが望ましいと述べている。
  • 🔧 専門的なチップを製作することで、より高性能なAIが実現され、一般的な計算機とは異なる特性を持つことが期待されている。
  • 🔮 AI技術の発展はまだ始まったばかりであり、将来的にはさらに驚くべき進歩が期待されていると感じている。

Q & A

  • YouTubeで見ている動画の内容は何ですか?

    -動画はLLM(Language Model)に関する内容で、ビット数が減少しても精度を保つ方法について説明しています。

  • 1.58ビットでよいとされている背景は何ですか?

    -1.58ビットで表現することで、計算速度が向上し、メモリの使用量が減少し、パフォーマンスが向上することが期待できます。

  • 従来のLMはどのビット数で動作していましたか?

    -従来のLMは16ビットから64ビットの異なる精度で動作していました。

  • 少数点数値シミュレーションにおいてどのような精度が必要か?

    -少数点数値シミュレーションでは、倍精度(64ビット)で動作することが一般的です。

  • 1ビットで表現するとどうなりますか?

    -1ビットで表現すると、1と-1しか表現できなくなり、非常に限られた情報しか扱えなくなります。

  • 3値(1, 0, -1)を用いた演算の利点は何ですか?

    -3値を用いることで、2点のログを取って1.58に近づけるため、より効率的な計算が可能になります。

  • 新しいチップが提案された理由は何ですか?

    -新しいチップは、より少ないメモリ使用量と高速な計算により、より効率的な性能を提供することを目的としています。

  • 1.8ビットの精度でどのような結果が得られる可能性がありますか?

    -1.8ビットの精度では、計算速度が劇的に向上し、メモリ使用量が減少する一方で、精度も十分に保持される可能性があります。

  • このペーパーが示す未来の可能性は何ですか?

    -このペーパーは、ビット数を減少させることで計算リソースを節約しつつ、精度を維持することができるという未来の可能性を示しています。

  • 人間の脳はどのビット数で動作していると考えられていますか?

    -人間の脳は非常に複雑であり、正確なビット数は定義されていませんが、このペーパーでは1ビットから1.8ビット程度の範囲で動作している可能性があると提案されています。

  • 今後の研究や開発にどのような影響が期待されますか?

    -今後の研究や開発では、より効率的な計算方法を探ることが重要となり、新しいチップの開発やAIの性能向上に大きな影響を与える可能性があります。

Outlines

00:00

🤖 AIとビット数の進化

この段落では、YouTubeで見た様々なAI関連の動画と論文について話し、特にビット数と精度の関係に焦点を当てています。過去のLM(Language Model)は16ビットだったが、新しい研究では1ビットで十分であることが示されています。この進化がもたらす可能性や課題について詳細に説明しています。

05:02

🚀 計算リソースの最適化とパフォーマンス

この段落では、新しいAI技術が計算リソースをどのように最適化し、パフォーマンスを向上させるかに焦点を当てています。特に、メモリーの節約と計算速度の向上が強調されています。また、ビット数が減少しても精度が向上するという興味深い現象に触れ、その背後にある理論についても触れています。

10:04

🧠 神経シナプスとAIの関連性

この段落では、人間の脳の神経シナプスの発火状態とAIのニューロンの関係について探求しています。0と1だけでなく、マイナス1も重要な役割を果たす可能性についても言及されています。また、AIの発展が神経科学とどのように関連しているかについても議論しており、新しい発見が未来のAI技術にどのように影響を与えるかについても触れています。

15:05

🌐 AI技術の応用とインフラストラクチャの変革

最後の段落では、AI技術の進化がインフラストラクチャと計算リソースの管理にどのように影響を与えるかについて話しています。特に、トレーニングとインファラのリソースの最適化、そして専用チップの開発が注目されています。AI技術の発展がもたらす新たな可能性や、それを支える技術インフラストラクチャの進化について詳細に説明しています。

Mindmap

Keywords

💡YouTube

YouTubeは動画共有プラットフォームで、様々なコンテンツが投稿されています。このスクリプトでは、YouTubeで学びや情報収集を行っていることが提及されています。

💡LLM (Large Language Model)

LLMは大規模な言語モデルの略で、大量のデータを学習し、自然言語処理タスクを遂行するAI技術の一種です。このスクリプトでは、LLMのビット数が変化し、精度や計算速度に影響を与えることについて話されています。

💡ビット (bit)

ビットは情報理論において、二つの状態(例:0と1)のいずれかを表す最小単位です。コンピュータサイエンスでは、ビット数によってデータの精度や表現能力が決まります。このスクリプトでは、ビット数がAIの性能にどのように影響するかが議論されています。

💡精度 (precision)

精度とは、計算や測定の正確さを表す概念です。コンピュータサイエンスでは、特に数値計算において精度は重要であり、ビット数や浮動小数点数の実装によって決まります。このスクリプトでは、ビット数を減少させることで精度がどのように変わるかがテーマとなっています。

💡ニューロン (neuron)

ニューロンは、脳の基本的な情報処理単位であり、AIのニューラルネットワークにおいても重要な役割を果たしています。このスクリプトでは、ニューロンの重みやその発火状態がAIの性能に影響を与えることについて言及されています。

💡GPU (Graphics Processing Unit)

GPUは、主にグラフィック処理を担当するハードウェアであり、並列処理能力が強力であるため、AIの訓練や計算にも活用されています。このスクリプトでは、GPUの必要性が変更される可能性について話されています。

💡演算 (computation)

演算とは、数学的計算やコンピュータによる処理を指します。AI分野では、特に大規模なデータセットを扱う際に高速な演算能力が必要です。このスクリプトでは、ビット数を減らすことで演算速度が向上することが議論されています。

💡メモリ (memory)

コンピュータのメモリは、一時的にデータを保存するための記憶装置です。AIの処理においては、メモリの容量や速度が演算性能に大きな影響を与えます。このスクリプトでは、ビット数を減らすことでメモリの消費が少なくなることが期待されています。

💡パフォーマンス (performance)

パフォーマンスは、コンピュータやAIシステムの処理能力や効率性を表す概念です。このスクリプトでは、ビット数を減らすことでパフォーマンスが向上することが期待されており、特にGPUの使用を減らすことでパフォーマンス向上が見込まれています。

💡パラメーター (parameter)

パラメーターは、システムやモデルの設定値や機能を決定する変数です。AIのニューラルネットワークでは、パラメーターの値が学習や予測の精度に直接影响を与えます。このスクリプトでは、ビット数を減らすことでパラメーターの数を減らすことができ、それでも精度を保持できる可能性があることが示唆されています。

Highlights

YouTubeで様々な動画を視聴しているが、推奨される内容が来ないことに触れる

今後のLM(Language Model)が1ビットで正確に計算できるという話があることを指摘

従来のLMは16ビットだったが、新しい研究では1.58ビットで十分だという論文があると述べる

ニューロンの重みや精度に関する議論があるが、これはコンピューターの精度の話であって、ニューロンと関係ない

1つの少数を表すのに何ビットで表すかという問題を考察

普通の少数演算では32ビットが使われていると説明

倍精度(64ビット)が必要とされる場面について触れる

1ビットで計算する理論が存在することを示す

1ビットで表現する場合、1と-1しか表現できないという問題

3値(1, 0, -1)で全ての情報を表す理論とその計算方法

1.58ビットで計算することで、よりメモリを節約し計算速度が向上するという研究成果

新しいチップがこの理論を応用して高性能な計算が可能になると提案

GPUのような高性能な計算装置が不要になる可能性について論じる

パラメーター数が同じでも、メモリが少なくて済むという利点

精度が気になるが、場合によっては精度が良くなることもあると述べる

人間の脳がどんな種類の計算を行っているかを考察し、その構造をコンピューターに適用する可能性

1ビットバイナリの演算でいいんじゃないかという話が存在し、その理論の応用が進んでいる

2016年の本でビットネトの解説があり、その影響を受けた研究が進んでいる

新しいチップの動きが出てくるかもしれないと予測

マイクロソフトが関連する論文を出していると報告

神経科学的発見がAIの理論に影響を与える可能性があると述べる

AIの発展が非常に速く、新しいアイデアが次々現れていると感じる

Transcripts

play00:00

あ僕いつもYouTubeを色々見てんだ

play00:03

けどおすめっちゅうのが来るわけよね中で

play00:07

まあ1あの今後のLLM1ビットでま正確

play00:11

に1.58ビットでよいとかいうなんか話

play00:15

があって一体何のことなんだってうんてま

play00:18

僕動画YouTube動画日本見てですね

play00:21

ま解説見てから論文をま論文は読んではい

play00:25

ないのよあもうもっぺ言ってくださいも

play00:28

今後のLMはですって1ビットで良いと

play00:32

いううんどういうことかな従来のLMMは

play00:35

何ビットだったいやそれ16ビットいや

play00:38

本来ねあのいやまず本来あの

play00:42

普通あの少数と整数は話が別で普通はあの

play00:48

あの少数の場合はですね平均はま32ビッ

play00:52

じゃないですかここれが話でしょうねそれ

play00:54

は数字がね32ビットいるわけよでで精度

play01:00

ちゅうのが64ビトそあれですか

play01:03

ニューロンの重みとかそんなんですか

play01:05

ニューロンとは関係なくてコンピューター

play01:07

の精度の話じゃないですかあ1つのあの

play01:11

少数を表すのに何ビッで表すかというんで

play01:16

普通はですねえ途中の計算ということです

play01:18

ねうん途中の計算っていうことですね

play01:21

まあまあ要すうん計算のための数数字数字

play01:25

のはいはいはいをあの表現するのに何

play01:28

ビットいるかとでこれは少数と整数で話別

play01:32

なんだけど普通はま少数を使うわけでその

play01:35

場合は普通制度が32ビッなんですええ

play01:38

ええそうですねで倍精度っていうのは64

play01:41

ビットそうええはいはいはいで僕らはです

play01:44

ね僕らはち僕とかあの安田さんはですね

play01:48

あの流体の数値シミュレーションやるわけ

play01:50

でその時は倍精度64ビットでやるわけ

play01:53

ですあはいはいはいところがあのllm

play01:57

みたいな計算はねそこまでの精度いらの

play01:59

じゃないかという話になっておってええ

play02:01

ええええんで32ビッは16ビットこれ反

play02:04

制度と言うんだけどそれでいいんじゃない

play02:07

かとかさらには8ビットさらには4ビット

play02:11

うんでいいって話になってきてるわけよ

play02:14

はいはいでで今回のがねそれが1ビットと

play02:18

かいう話でああんで1ビットち言うたらね

play02:22

1と-1しか表現できないわけよええええ

play02:26

で今回はねさらにねさらにねてうんだけど

play02:31

何のことかね1と0と-1なのね1と0と

play02:37

-1うんこの3つの数字だけで全て表すと

play02:41

うん33値っていうことですねで2点の

play02:45

ログを取れば1.58にな

play02:47

るってことですねうんそううんだから

play02:48

1.8でログ取ったらうんうんそっから来

play02:52

てだから1やったら1-1やけど1ビット

play02:56

ではちょっと不足するんで10-1にする

play02:59

と非常にいいよというペーパーがですね

play03:03

ごく最近その1ビットでいいよっていうの

play03:06

はだいぶ前に出てたんだけど1.8ビット

play03:09

ちうのがごく最近出てきたわけですねうん

play03:11

おおでそんなんねそんなんでいいんかと

play03:16

思うでしょで結局ねあのこうするわけよ

play03:19

あのウェイトねwちゅうウェイトねでこれ

play03:23

があの普通整数で0.1なんとかかんとか

play03:26

で表すわけですやんはいはいはいそプラス

play03:29

マイナスでねでそれをですね1と0と-1

play03:33

だけにするとうんおおやっぱりウェイトな

play03:36

んですねうんウェイトが例えば0.2

play03:38

みたいなやったらもうこれはねこれはもう

play03:42

1にしてしまうとで-0.5だったら-1

play03:46

にしまっとで0なら0にするとかいうほな

play03:49

ことでそんなことしてええのかってでね

play03:54

そこでですねまそのペーパによるとですよ

play03:57

でそうやるとねあのねウトはね普通ね

play04:01

例えばなんとかあの結局WIIJかxi

play04:06

みたいな格になってるからええでこのWi

play04:10

が普通あの少数なわけですや0.23とか

play04:13

ねでXも少数なわけですやんところがね

play04:16

ここのWiが1か0か-1でいいとなれば

play04:20

ねね

play04:21

WiIIJはそうなればXiがですねXi

play04:27

か-Xiか0かでいわけですよええええ

play04:30

ええええそうなるとね掛け算がいらないと

play04:34

いうわけ掛け算だけになるとおうんおお

play04:37

引きもいますねこの主張としてはだから

play04:41

もうね今のGPUみたいなものはいらない

play04:44

とままそのペーパによればですよあでだ

play04:48

から足し算掛け算がいらなくて足し算だけ

play04:51

で良いということになると新しいあの

play04:55

チップでやったら方がいいんじゃないか

play04:57

みたいなねこれれは提案なんだけどまずね

play05:01

そういう風にやるとね何がいだって制度が

play05:04

出るのかって思うじゃないですかそんな

play05:06

ことやってええのかとでそれをですね実際

play05:09

あのやってみたとで具体的にはあのラマを

play05:14

使ってんだけどええというのはそれが公開

play05:18

されてるからねえええええでそれを使うと

play05:20

ですねなんとねままずねメモリーが少なく

play05:25

て済むっていうのこれは当然のことねはい

play05:28

はいで計算が早くな当然のことええ劇的に

play05:31

はあだけどいや劇的って数倍ですよ数倍

play05:34

ああうんなんでいい場合はね4倍とか

play05:38

そんなんなんですよああでいやそれよりも

play05:41

ね画期的にはこんなこと信じられないんだ

play05:43

けど制度がねえこれパプレシティ言ってん

play05:47

だけどパプレシティは低いほどいいのよね

play05:50

ではあはあはあはあそのね1.5ビットを

play05:55

使うとねパープレシが下がるとつまり精度

play05:58

が良いとなるそんなこと考えられないよね

play06:02

うおいやいやそ必ずじゃないのよそういう

play06:06

ケースがあるということふえパラメーター

play06:09

数的にはどうなんですかパラメーターはの

play06:12

数は同じだ同じだでも増やさなくていいん

play06:15

ですねパラその次元をうんパラメーター数

play06:18

は同じなんだけどけどあのメモリーが

play06:22

少なくて済むのと計算速度が早いという

play06:25

ますねで精度が心配なんだけど精度は心配

play06:29

じゃないどころかむしろ良い場合もあると

play06:32

いうこんなこと信じがいけどというわけで

play06:36

やね僕はねそれであの新しいチップの動き

play06:40

が出てくんじゃないかと思ったんやけどま

play06:42

これ辺関しては斉藤さんが一加減あるわけ

play06:45

でああはあははははいというほどのない

play06:50

ですえっと今の論文はどっから出てきたん

play06:52

ですかマイクロソフマイクロソフトああ

play06:56

そうですかマイクロソフトどこですか

play06:58

アジア中国っぽいですね中国ですねああ

play07:02

そうなんですねはいあのいやすごいのが出

play07:04

てきたなという風に思ってるんですがあの

play07:08

2016年に本をあの清水涼さんという

play07:12

割と今のあのこのビットネトなんかの解説

play07:14

も記事でなされてるで彼も同じ長岡の出身

play07:18

で後輩にあたるんですがそうですあの

play07:20

マクフにめ回あのビットネットの件も清水

play07:24

りさんがのノートに記事をあげててなんか

play07:27

野良実装したやをもってきて動かしてみた

play07:30

ぞみたいなこと書いてらっしゃいますよね

play07:32

まだ現在も色やってらっしゃいますですね

play07:34

はいで彼の書かれたあの2016年のあの

play07:38

本なんですがそこの最後で対談をさせて

play07:41

いただいておりましてうんはいこの街頭

play07:45

歌書がちょっとこんなことを当時語らせて

play07:48

いただいてたんですねうんであのこの対談

play07:52

で語ってることていうのはあのスーパー

play07:54

コンピューターの方ではその破長え倍制度

play07:58

の644ビットのみならず宇宙物理とか

play08:01

ですね流体とか本当にやってきますと

play08:03

128ビット256ビットとかも必要に

play08:05

なるのでタバ演算にも対応できるような

play08:08

ハイパフォーマンスコンピューティング用

play08:10

のまプロセッサーをかや作りながらま

play08:13

ディープイサイという実は法人も立ち上げ

play08:16

ていたんですがそこではむしろ制度を逆に

play08:19

落としていくということでま当時から割と

play08:22

1ビットバイナリのなあの演算でいいん

play08:25

じゃないかっていう話はありましてログも

play08:28

あのいくつか出ていたえわけなんです

play08:30

けれども

play08:32

えま反精度16ビットから1/4制度8

play08:35

ビットさらに4ビット2ビットも本当に

play08:38

最後は1ビットでもいけるのかなっていう

play08:40

のは当時から思ってましてただあの肝心な

play08:43

ことにはやっぱりあのこれがダイナミック

play08:46

に切り替えられるといいなとえ人間の脳の

play08:49

構造をま脳自体も大神秘質のみならずま

play08:54

変形変形があったり中納があったりま

play08:56

いろんな性能があったりいろんな役割を

play08:57

分担しているものを同じアーキテクチャー

play08:59

であの一元的にこれは捉えるのが難しいと

play09:02

すればあの要所要所でビット制度切り替え

play09:06

ながら演算ができるようなで特にあの性能

play09:10

が1番欲しいところというのはその

play09:11

バイナリーなのか今の62の3のな1.8

play09:14

みたいなものかちょっと分かりません

play09:16

けれどもあのそういう演算期ま今回の

play09:20

ケースで言うと加算議だけでもいけて

play09:22

しまうわけですけれどももうそれに特化し

play09:24

たハードウェアをあのユニットとしては

play09:27

たくさん並べて積んでおいてあとはそれを

play09:29

えプログラマにえ組み替えて使えるような

play09:32

構造というのをあの2016年当時から

play09:35

ちょっと目指してあのやっていたことを

play09:38

ちょっと思い出してですねあのいよいよ

play09:40

あのそういう実例もあるいアルゴリズムが

play09:42

ブラッシュアップしたものが出てきたなと

play09:44

いうあのそんな風に感じておりました

play09:46

えっとさっきの今の本っていつ出たやつ本

play09:49

なんですかあの2016年の確か10月

play09:52

だったと思うんですけどもああじゃあ10

play09:55

年近く前から7年はいぐらい前えええはい

play10:00

うんえじゃあそそのビット数減らしてって

play10:04

も精度は出るということまだ確定的なこと

play10:08

はなかなか当時は分からなかったんですが

play10:10

可能性十分あると思っておりましたし

play10:12

突き詰めるとま人間の脳のま神経のあの

play10:16

発火まシナプスの発火の状態っていうのは

play10:20

えまシングルコンパートメント持っ

play10:23

なるほどバイにそうじあれですねまだ

play10:26

トランスフォーマーも出てないそうです

play10:29

ですけどあのディープラーニングは割と

play10:32

流行ってた頃なんですよねそうですね

play10:35

ディープラーニング認識ですごい制度が出

play10:37

てきた頃にまあ今みたいなお話をされて

play10:40

たっていうことですねそうか今おっしゃっ

play10:43

たねニューロンっていうのはね白化するか

play10:46

しないかですよねええええだ

play10:50

からいやそれやったら0と1ですよね

play10:53

マイナス1もあり

play10:55

ますまそこ本当に必要なるかどうかって

play10:57

いうのがあの今後になってくるんだと思う

play10:59

んが逆に今回のよな新しい発見があると実

play11:03

は我々がニューロンのシナプスの発火の

play11:05

状態ってのは01だと思ってたのがですね

play11:07

実はマイナ1みたいな要素も隠されていて

play11:10

逆にあの神経科学的にこういったあああ発

play11:15

につがるかもしれないですかねうんうん

play11:17

いやそれはね神経伝達物資でギャバって

play11:20

あるじゃないですかギあれは抑える方よね

play11:24

うん薬系にもはいこれも清水さんそんな

play11:26

記事もあの書いてましてですねかていう

play11:30

ことでは今回のかそれそうかそうかそれ

play11:33

だったらマイナス1もあるってことですよ

play11:35

ね抑えるってことははいなんか非常にその

play11:39

素人的考えですけどもしウェイトの精度を

play11:42

落としていったらその分能動を増やさない

play11:44

と同じ制度にならないんじゃないかと思っ

play11:46

てしまうんですけどその辺は違うんですか

play11:49

そのだから今のペーパーではだからそこは

play11:51

調べてうんパプレ調べてでそう簡単にした

play11:56

方がパプレが下がったケースがつまり精度

play12:00

が上がったケースがあるって濃度も変え

play12:02

ずきいやまだそうは増した方がいいかも

play12:05

しれないんですよねはいだからその辺は

play12:07

ええいや場合によっては能動増やした方が

play12:10

いいかもしれないですよねまあまあ最そこ

play12:12

はまたこれからいや今のペーパーはね普通

play12:16

の計算をうんあのいろんなんでやってみた

play12:20

とうんならその今インタ1.8ビット

play12:24

つまり10-1にやってもねうんやったら

play12:28

計算速度が早くなるとかメモリが少なくて

play12:30

すこれは当たり前のことなねそれはすごい

play12:33

無で問題はねそんなことして精度がいいの

play12:36

かってことが1番問題じゃないですかうん

play12:38

でそれが場合によってはむしろその方が

play12:41

良いこれは信じがいんだけどうんええうん

play12:45

まただ僕らもその言語モデルとか使ってて

play12:48

ま元々32ビットのウェイトがやるのをね

play12:50

その16ビットで使うっていうこともよく

play12:53

やるんですけどそれは単にGPUのメモリ

play12:55

を減らしたいからそういう風にしたいでも

play12:57

それが8ビ4うんとかもあるんですよね

play12:59

確かにで別にそれで動かしてもまあなんと

play13:03

なくちゃんとした答えが出てたんでうん

play13:05

なんかそういう意味では信じられるなって

play13:07

いう気がしますね感覚的にもうん減らした

play13:10

から悪くなるっていいやいやただそうすれ

play13:13

ば普通の常識でいけばねねあの反精度から

play13:18

えっと1/4精度1/8精度にすればそん

play13:21

だけ精度が落ちると思うわけじゃないです

play13:24

か常識的にはでそれがそう落ちないってと

play13:29

がね面白いところうんすごいですねで究極

play13:34

はねやっぱりね1.58ビットですよねま

play13:38

1ビットまで行くのはちょっと行きすぎだ

play13:40

ということ1-1は行きすぎで10-1が

play13:44

いい1.8でちょうどうんあのいい性能が

play13:47

出たっていうことでしょうねうんうん今

play13:50

あれですね松田先生最初の方におっしゃっ

play13:53

てましたけども掛け算いらなくなるという

play13:56

ことは今GPU不足でですねえ人口地の

play14:01

開発偉いGPUの取り合いになってます

play14:03

けども実はそんなGPUいらんていう話な

play14:07

んですあそれはどうなんです斎藤さんあ

play14:10

あのインファス側はそういう方向に行くん

play14:13

じゃないかなという風に思いますト

play14:15

インファスの方ね

play14:17

うん別なお話かなとうんだから

play14:27

インフランディング今のインフラントね

play14:30

うんその学習え学習と水論っていう意味で

play14:34

両あるわけ学習ね世間でねちゅうか

play14:37

オープンエとかなんとかものすごい金が

play14:39

かかるっちゅうのは学習で金がかかるわけ

play14:41

えええうんででだけど今チャトGPT使っ

play14:45

た時にパッと出てくるのあれはね水論やっ

play14:47

てるわけですよええもう学習は終わってる

play14:49

わけよええだからその水論が早くな

play14:52

るってことですよねほんでで軽くなるから

play14:56

あの手前の自分とこの例えばは

play14:58

iPhoneでできるとかいうことになる

play15:00

うんことですあるあのエッジデバイスで

play15:04

こういうものが使えるようになるのが1つ

play15:06

メリットともう1つはあのオーA社もです

play15:08

ねトレーニング用の計算機資源

play15:11

コンピューティングリソースと開発した今

play15:13

のGPT4とかあの3.5をサービスとし

play15:17

て展開する時にもGPUを使わなくていけ

play15:19

ないところでま取り合いにこれもなって

play15:21

しまっているところがインファラス用が

play15:23

どんどんこういうものに置き換わっていく

play15:25

とトレーニング用により検査資源をうんえ

play15:28

集中させることができるメリットとまある

play15:31

だろうなと思いましたうんうんなるほど

play15:33

なるほど学習の話ではなかったわけですね

play15:36

今の話は今の時点ではということですね

play15:39

なるただどうかな僕まだペーパー読んで

play15:42

ないからあれやけど学習の方にも使える

play15:44

みたいなことちょっと書いてあったような

play15:45

気がするんだけどどうでしょうああそう

play15:49

あの原的には人間の脳がそのその神経の

play15:59

えトレーニングをやってる可能性があるの

play16:01

でまそこはあの否定はできないというか

play16:04

そういう方向に向かっていける可能性も

play16:07

うんうんうんうんいやだから可能性ある

play16:10

わけでま分かりますただ僕ね思にねあの今

play16:15

までまこれだけようねいろんなこと考える

play16:18

なと思いますねで進歩がものすごく早い

play16:22

じゃないですかいや短いですねどんどん

play16:25

どんどんね短期間で新しい話が出てくるん

play16:28

でついていくの大変ですねねえねいや今の

play16:31

はね1.5ビットとこれもね画期的な話や

play16:34

けど前やったねあのリングうんアテンショ

play16:37

ンって話もねあの普通ね4Kとか8Kとか

play16:42

なんかねこれがえ100万トークンとえ

play16:46

いうのが簡単に簡単にできるとうんそれも

play16:51

ちょっとしたアイデアだと僕は思うんだ

play16:53

けどうんいやだから

play16:55

ね今ものすごくこれあのもうほわしたとか

play17:00

いう人もいるんやけどなかなかほしてない

play17:03

よねえAIのアイデアええいやだけど今の

play17:09

話はまだまだ発展する感じがしますね専の

play17:13

チップ出てきたらちょっとすごいことに

play17:16

なっていくんじゃないですか1.8ビット

play17:18

の専用のその辺なんか専用のチップって

play17:21

作れるんですか最さあの作るべきかどうか

play17:24

という作れる作れないもちろんあの非常に

play17:27

簡単に作れてしまいます

play17:31

はいてるそれだけでことが足りると思わ

play17:36

ないのでやっぱりあの他の演技もできる

play17:38

ように作っといてあの可能であればそれを

play17:40

ダイナミックに切り替えて使えるようにえ

play17:43

できるような性のハやチップを作ればいい

play17:46

かなという風に思あなるほどだから普通の

play17:49

あの不動少数点の普通制度もできるとま

play17:54

最低限BF16です

play17:56

ねあのえられていてあとはそこから制度を

play18:00

あの落としていってえ性能を上げていきで

play18:04

必要に応じて制度また戻すとかですねこと

play18:07

ができるような構成が必要ではないかなと

play18:08

思なるほどなるほどまあね他の計算もでき

play18:11

なきゃ具合あるもねうんだけどま必要な

play18:14

計算をちゃんと洗い出してねそれに特化し

play18:18

てチューンすれば非常に高性能なチップが

play18:21

作れるとあ専用チップならいい専用チップ

play18:26

え例えば普通のね普通のね計算すんのに

play18:29

電卓的計算するのにやっぱりそれは普通

play18:31

制度がいるでしょうようんうんうんそれを

play18:35

1.58ビットではできないからね多分ね

play18:38

いやで多分っって言うけどこんなのわから

play18:40

んよねいやあの人間の頭もそれで結局計算

play18:43

機でやってるようなこと計算できうん確か

play18:46

に確かに確かにでるかもしれませんはい

play18:48

うんうんこれはじゃそんなとこでしょうか

play18:51

うん

play18:52

はい

Rate This

5.0 / 5 (0 votes)

関連タグ
AI技術ビット数計算精度ハードウェアGPUインフラストラクチャメモリー計算速度神经科学变压器