クリエイティブAI講座:小規模言語モデル(SLM)

シンギュラリティサロン・オンライン
12 Jul 202413:58

Summary

TLDR最近の言語モデルの動向として、小規模言語モデル(SLM)の注目度が高まっている。大規模言語モデルがどんどん拡大する一方で、小規模モデルはカスタマイズ性やローカルでの運用が可能で魅力的。AppleやMicrosoftが小規模モデルを発表し、高い性能を発揮する例がある。質の高いデータセットで学習することで、パラメーター数が少なくとも同等の性能が出せるとされる。研究では、人間のように限られたデータで効率的に学習するSLMの開発が進む。

Takeaways

  • 🌐 最近、小規模言語モデルの話題が注目されています。これは、より小規模な言語モデルを指しており、大規模言語モデルに比べて性能は劣りますが、使いやすさが強調されています。
  • 📈 大規模言語モデルはこれまで拡大を続けてきましたが、AppleやMicrosoftなどは小規模言語モデルを開発しています。これは、小規模でも高性能なモデルを目指す新しいトレンドを示しています。
  • 🔍 IEEE Spectrum誌によると、小規模言語モデルは高品質のデータセットを用いて学習することで、パラメーター数が少なくとも同等の性能を発揮できるとされています。
  • 📚 Appleの開発者カンファレンスで発表されたAppleのインテリジェンスは30億パラメーターで、ローカルで動作することが特徴です。
  • 🤖 Microsoftが開発した53 miniは38億パラメーターで、その性能は150億パラメーターのGPT3.5とほぼ同等とされています。
  • 📈 Googleのジェンマは70億パラメーターで、53 miniと比較してパラメーター数が倍近くあるにもかかわらず、同等の性能を発揮できると報告されています。
  • 🧠 小規模言語モデルの開発は、学習データの質を高めることで、より効率的な学習が可能になるという考え方に基づいています。
  • 👶 ベイビーLMは、子供たちが言語をどのように獲得するかを研究するためのAIであり、限られた言語セットで学習することで知能を高めるチャレンジを行っています。
  • 🔑 小規模言語モデルの利点は、ローカルでの動作やカスタマイズの可能性、そして個々のデバイスに特徴のあるAIを提供することです。
  • 🔮 将来のAIの方向性として、小規模で効率的な学習を模倣し、AIにフィードバックすることを目指す研究が進んでおり、これは新しい学習方法の可能性を示しています。
  • 🌟 小規模言語モデルは、学習データセットの質を重視し、コンパクトで高性能なAIを目指す新しいアプローチを示しており、これはAI開発の重要なトレンドです。

Q & A

  • 小規模言語モデル(SLM)とは何ですか?

    -小規模言語モデル(SLM)は、パラメーター数が少ないが、高い性能を持つ言語モデルのことを指します。大規模言語モデル(LLM)と比べて、小さなデータセットや限定されたデータセットで学習し、効率的に動作することを目指しています。

  • 最近のトレンドとして小規模言語モデルが注目される理由は何ですか?

    -最近のトレンドとして、小規模言語モデルが注目される理由は、大規模言語モデルが持つ巨大な計算資源を必要としないで、高い性能を発揮できるからです。特に、AppleやMicrosoftが小規模言語モデルの開発を進めており、質の高いデータセットで学習させることで、パラメーターが少なくても高い性能を出せるようになっています。

  • Appleが開発した新しい小規模言語モデルについて教えてください。

    -Appleが開発した新しい小規模言語モデルは、Appleインテリジェンスと呼ばれ、30億パラメーターを持つモデルです。このモデルは、ローカルで動作し、スマートフォンやラップトップ、PCなどで利用することができます。

  • Microsoftが開発した小規模言語モデルについての詳細を教えてください。

    -Microsoftが開発した小規模言語モデルは、Phi-3と呼ばれ、最も小さいものは38億パラメーター、最も大きいものは140億パラメーターを持ちます。特に注目されるのは、Phi-3 Miniで、38億パラメーターながら、性能評価でGPT-3.5(150億パラメーター)とほぼ匹敵する成績を出しています。

  • データセットの質が小規模言語モデルの性能に与える影響は何ですか?

    -データセットの質は小規模言語モデルの性能に大きな影響を与えます。高品質なデータセットを使用することで、パラメーター数が少なくても高い性能を実現できます。例えば、教科書レベルの質の高いデータを学習データとして使用することで、無駄のない効率的な学習が可能になります。

  • BabyLMプロジェクトについて教えてください。

    -BabyLMプロジェクトは、チリ大学の研究者が、子供が言語を獲得する過程を研究するために開発した小規模言語モデルです。このプロジェクトでは、子供が学ぶ言語量に近い限定されたデータセットを使用し、AIに学習させることで、どのように知能を高めるかを研究しています。

  • SLMがLLMと比べて優れている点は何ですか?

    -SLMがLLMと比べて優れている点は、コンパクトでローカル環境で動作するため、クラウドに依存せずに利用できることです。また、パラメーター数が少ないため、計算リソースやエネルギー消費が抑えられ、効率的に運用できる点も挙げられます。

  • サム・アルトマンが言う「巨大モデルの時代は終わった」とはどういう意味ですか?

    -サム・アルトマンが言う「巨大モデルの時代は終わった」とは、LLMのようにパラメーターをどんどん増やすだけではなく、データの質を向上させることで性能を上げるという新しい方向性を示しています。これにより、SLMのような小規模なモデルでも高い性能を発揮できるようになります。

  • LLMとSLMの違いは何ですか?

    -LLMとSLMの違いは主にパラメーター数とデータセットの扱いにあります。LLMは非常に多くのパラメーターを持ち、巨大なデータセットで学習しますが、SLMはパラメーター数が少なく、質の高い限定されたデータセットで学習します。これにより、SLMは効率的かつローカルでの利用が可能です。

  • 今後のAI研究の方向性について、SLMの役割はどのように考えられていますか?

    -今後のAI研究の方向性において、SLMは効率的でカスタマイズ可能なAIの実現に重要な役割を果たすと考えられています。SLMはローカルで動作するため、個別のニーズに応じたカスタマイズが可能であり、特定の用途に特化したAIの開発が進むと期待されています。

Outlines

00:00

🤖 小規模言語モデルの注目とトレンド

最近注目されている小規模言語モデルについて。小規模モデルは大規模モデルと比べて性能が劣りますが、独自にカスタマイズしやすいという利点があります。アメリカの電気電子学会のスペクトラ誌の記事では、AppleやMicrosoftが小規模言語モデルを開発し、高パフォーマンスを発揮させるという最新トレンドが報道されています。また、メタが発表したラマ3は4000億パラメーターの大規模モデルで、オープンソースのモデルも同様に大きなパラメーター数を持ちつつも、小規模モデルと比較して性能が向上しています。

05:01

📚 高品質データセットによる小規模言語モデルの性能向上

小規模言語モデルが高品質なデータセットを用いて学習することで、パラメーター数が少ないにもかかわらず同等の性能を発揮できるという点が強調されています。具体的には、Microsoftの53やAppleのインテリジェンスなど、小規模モデルは教科書レベルのデータを用いて学習し、その結果、大きなパラメーターを持つモデルと比較してもほぼ同等の性能を示すことができます。このアプローチは、学習データの質を重視し、効率的なモデル開発につながると示唆しています。

10:03

🧠 学習データセットの量と質の重要性

学習データセットの量と質がAIの性能に与える影響について議論されています。小規模言語モデルは限られたデータセットで高い性能を発揮する研究が進んでおり、例えばBabyLMは5歳〜6歳までの子供が学ぶ言語レベルのデータセットのみで学習されています。このアプローチは、人間のように効率的に学習することができることを示しており、学習データセットの選択と利用方法がAIの性能に大きく影響すると示唆しています。また、データセットのビジネス価値についても触れられており、高品質なデータセットは企業の競争力につながる重要な要素であるとされています。

Mindmap

Keywords

💡小規模言語モデル

小規模言語モデル(SLM)は、従来の大規模言語モデル(LLM)よりも少ないパラメータを持つ言語モデルです。動画では、AppleやMicrosoftがSLMを開発し、高性能を維持しつつ小型化を実現していると述べられています。具体例として、Appleの30億パラメータのモデルやMicrosoftの53億パラメータのモデルが挙げられています。

💡大規模言語モデル

大規模言語モデル(LLM)は、膨大な数のパラメータを持つ言語モデルであり、高度な自然言語処理能力を持っています。動画では、OpenAIのGPT-4やMetaのLlama 3が例として挙げられ、それぞれ1兆8000億や4000億パラメータを持つとされています。

💡パラメータ

パラメータは、機械学習モデルがデータから学習する調整可能な要素です。モデルのパラメータ数が多いほど、一般的にはモデルの表現力が高くなります。動画では、GPT-3が1500億パラメータ、GPT-4が1兆8000億パラメータを持つと説明されています。

💡Apple

Appleは、SLMの開発に取り組んでいる企業の一つです。動画では、Appleが30億パラメータのモデルを開発し、それをローカルデバイスで動作させることができると述べられています。これにより、個々のユーザーが自分のデバイスで高性能なAIを利用できるようになります。

💡Microsoft

Microsoftは、SLMの開発に取り組んでいるもう一つの企業です。動画では、Microsoftが53億パラメータのモデルを開発し、これがGoogleの70億パラメータのモデルと同等の性能を持つとされています。

💡学習データセット

学習データセットは、機械学習モデルを訓練するために使用されるデータの集合です。動画では、SLMが高性能を達成するためには、質の高いデータセットが重要であると述べられています。具体的には、インターネット上の無秩序なデータよりも教科書レベルの質の高いデータを使用することが推奨されています。

💡OpenAI

OpenAIは、GPTシリーズの開発で知られるAI研究機関です。動画では、OpenAIのGPT-3やGPT-4が例として挙げられ、それぞれが高性能なLLMとして言及されています。

💡Llama 3

Llama 3は、Metaが開発した大規模言語モデルで、4000億パラメータを持つとされています。動画では、GPT-3よりもパラメータが多く、性能が向上していると述べられています。

💡BabyLM

BabyLMは、子供が言語を学習するプロセスを研究するためのAIプロジェクトです。動画では、チリ費効果大学のアレックスワシタットが主導するこのプロジェクトが、小規模なデータセットでどの程度AIの知能を高められるかを探求していると述べられています。

💡質の高いデータ

質の高いデータは、機械学習モデルの性能を向上させるために重要な要素です。動画では、SLMが高性能を達成するために質の高いデータを使用することが強調されています。具体的には、教科書レベルのデータが例として挙げられています。

Highlights

最近小規模言語モデルの話題が目立っている。

小規模言語モデルは大規模モデルと比べて性能が劣るが、使いやすいという利点がある。

IEEE Spectrum誌に、小規模モデルで性能を上げるトレンドが報道されている。

AppleとMicrosoftが小規模言語モデルを開発しているという記事がある。

メタが4000億パラメーターのモデル「ラマ3」を発表し、オープンソース化している。

GPT4のパラメーター数は1兆8000億と噂されている。

Appleの「Appleインテリジェンス」は30億パラメーターでローカルで動作可能。

Microsoftの「53」は38億パラメーターで、小規模ながら高性能。

小規模言語モデルはデータの質を向上させることで高性能を実現している。

学習データセットの質の向上が小規模モデルの性能向上に寄与している。

Googleの「ジェンマ」は70億パラメーターで、53 miniと同等の性能を発揮。

小規模言語モデルはローカルで動かすことが魅力的で、カスタマイズが可能。

ベイビLMは子供の言語習得を模したAIで、限られたデータセットで学習させている。

学習データセットの量と質が小規模言語モデルの性能に大きな影響を与える。

学習データセットの選択とスクリーンが小規模言語モデルの開発の鍵となる。

小規模言語モデルはエッジAIニーズに適しており、進歩が期待されている。

学習データセットの研究が広まっており、ビジネスのコア部分になる可能性がある。

小規模言語モデルはコンパクトで高速に動作し、多様なアプローチが存在する。

小規模言語モデルは学習方法の改善により、より良い性能が期待される。

Transcripts

play00:00

小規模言語モデルっていう話が最近

play00:02

ちらほらと出てきてますよ最ていうかま前

play00:05

からあのあれですよねラマのちっちゃい

play00:08

モデルって言ったら小規模なやつですよね

play00:10

ああまそうですねこれからあるといあり

play00:12

ますけどうんうんただ今まではどっちかと

play00:14

いうと大規模言語モデルがあってそれがま

play00:17

どんどんどんどんさらに大きくなっていっ

play00:19

てえでまその小期現モデルどっちかって

play00:22

いうとそのそれに対してはちょっと性能を

play00:25

劣るけどもま自分たちで好きに使えるから

play00:28

使おうかぐらいのうんうんそうですねじゃ

play00:31

ないですかただ今あのiEというですね

play00:35

あのえこれなんですか米国電気電子学会

play00:38

っていうんですか日本えアメリカの電気の

play00:40

学会最大世界最大規模の学会世界最大の

play00:44

エンジニアの所属するやつのまスペクトラ

play00:48

ムっていうあの雑誌まウェブマガジン記事

play00:51

にえっとむしろそのちっちゃなモデルで

play00:55

性能をむしろ上げるとああいう方向性がま

play00:59

最近とそういうトレンドが出てきてるよっ

play01:01

て話の記事がありました短い記事ですけど

play01:04

もま特にそのAppleと

play01:05

Microsoftはいがそういうことを

play01:07

やっているという記事ですああそうですか

play01:11

はいでまちょっとそのllmの話をまご

play01:14

存知と思いますけどするとえっとま最近で

play01:17

言うとメタがですねラマ3というのを出し

play01:19

たはいはいわけですねまこれも4000億

play01:21

パラメーターなんでどっちかと大きなはい

play01:24

ですねこれはまオープンソースとはいえで

play01:28

2022年まオーンAIはGPTを出して

play01:31

チャットGPTを出してまこうそのその時

play01:34

の2022年のチットGPTの

play01:37

パラメーター数より最近出たそのメタの

play01:40

ラマ3はパラメタ倍あるはいだから当時

play01:44

ちゃ自2000億パラメーターで最近出た

play01:47

そのオープンソースのラマ3でさえもう

play01:49

4000億

play01:50

パラメーターなんですねだからどんどん

play01:52

大きくなっていってるということですで

play01:54

GPT4に至ってはあのはっきりとは

play01:57

分からないわけですけどもまよ1兆

play02:00

8000億とかまそんな感じで言われてる

play02:02

と言われてるとまとにかくどんどんでかく

play02:04

なっていってるっていうのが1つの

play02:06

トレンドとしてまあったわけですねえ

play02:08

ところがまこの数ヶ月ま最近この

play02:11

AppleやMicrosoftがえ

play02:14

もっとちっちゃいモデルを出してるでこれ

play02:17

小規模言語モデルと英語でも

play02:20

えっとなんだスモールラングモデルと

play02:24

モデルというらしいですね

play02:27

あええ小規模言語モデルってまあ我々

play02:30

だいぶ前から言ってましたけどもそれは

play02:33

なんか俗称みたいな感じでうんうんね思っ

play02:36

てましたけどそうちゃんとはそういう言い

play02:38

方してなかったんでしょうねきっと最近え

play02:41

そういう言い方が定着してきたっていう

play02:43

感じなんでしょうかねなんでしょうね私も

play02:45

このiEの英語のタイトル見てそう思い

play02:47

ましたあ正しくslmはいはいと言そう

play02:52

ですはいえまSと言っても大きいんです

play02:55

けどねかなり

play02:56

ねでえまそういうことですよでですねま

play02:59

これのま最近の流れで言うとえ新型サロン

play03:03

でもあのご紹介したま6月10日のあの

play03:05

Appleの発表デベロッパーズ

play03:07

カンファレンスでえApple

play03:10

インテリジェンスを出しま出したっていう

play03:11

のもねついこの間ランキングで10位で

play03:14

紹介してますけどまこれ30億

play03:16

パラメーターなんそうですねああはははは

play03:18

30億だからまあまあ今の流れでいくと

play03:20

ちっちゃいわけですよすごくでローカルで

play03:22

動くということですよねでもう1つの53

play03:26

っていうのも出ましたね

play03:27

Microsoftからでこれがえ4月

play03:30

下旬ですけど1番ちっちゃいのは38億

play03:33

パラメータあ上が140なんですねそう

play03:36

そうAppleインテション同じぐらいな

play03:37

んですよちょっと大きいぐらいということ

play03:39

でえ今のトレンドから言うとかなり

play03:41

ちっちゃいわけですこの2つでまこれを

play03:43

一応こういうのはslmという感いうこと

play03:47

ですねでですねじゃあまちっちゃいから

play03:49

性能が劣るのかと言うとまそうでもなく

play03:53

最近のそのslmはかなり性能が高いと

play03:55

いうことでえ例えばえ53のMinニって

play03:58

やつがまさっき億ってやつですけど30億

play04:01

パラメーターですがこれはあのオAの

play04:04

ちょっと1つ前のGPT3.5ええこれ3

play04:08

GP3は150億パラメーターですよだ

play04:11

から50倍ら違うんですねパ数で言うとだ

play04:14

けどはい性能の評価でほぼ匹敵するとはい

play04:18

いうことらしいですパラメーター数は50

play04:20

倍も違うのにえ性能もほぼ同じになってき

play04:24

てるとうんでGoogleのえっと

play04:26

オープンソースでえっとジェンマというの

play04:29

があるんですけどまこれ70億

play04:32

パラメーターですこれはまさえっと53

play04:35

miniの倍ぐらいあるんですけどえ53

play04:38

miniはそのジェマとも同じぐらいの

play04:40

成績出してるってことでえちっちゃいけど

play04:43

いいんですよ比較的いいというのが今の

play04:46

新しいslmのえ特徴であるということ

play04:50

ですでこれがですねえっとまなんでそう

play04:54

いい成績出せるかっていうことなんです

play04:56

けど

play04:58

えっとデータを学習するデータというもの

play05:01

がの質を上げてるということなんだそう

play05:03

ですねあはいはいだからいわゆるlmと

play05:07

いうともインターネットでもいろんなもの

play05:09

を入れて学習するってのが1つの方向なん

play05:13

ですけど今のこの53とか

play05:15

Microsoftのファイ3なんかは

play05:17

いわゆる教科書レベルの質っていうものに

play05:19

データセットを学習データをこうある程度

play05:22

スクリーニングしてそれだけ学習させてる

play05:25

ということなんですですだから質の高い

play05:27

データでトレーニングすることでえ

play05:29

ちっちゃなパラメーターでもえ同等の性能

play05:32

ま大きなものと同じような性能が出せてる

play05:35

ということなんだそうですうんなので

play05:39

なんか以前ねえっとllmに学習して

play05:43

もらうという話出てませんでしたLM

play05:47

モデルは

play05:48

llmでが縮するっていうのがあllmが

play05:52

出した答えをがまたあそうそうそうそれ

play05:56

結構効率いいとかいうようなあうんテ

play06:00

データなるほどそこですそれ違いますうん

play06:04

このデねどうやって作ったるかちょっとは

play06:06

書いてなかったですけどねえ確うん

play06:09

インターネットのね多くのデータってくず

play06:11

よねああ良くないデータが多いっていう

play06:14

ことですかうん僕はねあのコピーとかね

play06:16

ああうんああはあだからいっぱい集めたら

play06:20

いいってもんじゃないわけよねじゃないっ

play06:22

てことなんでしょうねうんはいままどう

play06:26

やってスクリーンするかっていうとこかね

play06:27

やっぱ問題にはなると思いますけどま1つ

play06:30

の方向性としてそれは面白いなと思いまし

play06:32

たえでとま大規模言語モデルの事態は

play06:36

終わったとこれサムアルトマンが言って

play06:37

ますよねああはあは言ってましたよね

play06:39

ちょっと前にだからまgbt4から5は

play06:43

どうなのかわかんないんですけどもしかし

play06:44

たらパラメータースを増やすていう方向

play06:46

じゃなくえいわゆるこういう考え方データ

play06:49

の質を上げるという考え方かもしれないと

play06:52

いう風にえ推測されているということだ

play06:56

そうですあ4月のイベントですね4月の

play06:58

イベントでの使用であるサルトがえ巨大

play07:01

モデルの時代を終わりつつあるという風に

play07:04

述べているということだそうですで私たち

play07:06

は別の方法でそれをよくしているあよくし

play07:09

ていくという風に言ってるんであなんか

play07:11

ちょっと方向性が変わってるのかなという

play07:13

ことをま推測してるということだそうです

play07:16

はいえっとでま私としてもそのスモール

play07:21

slmっていうのはまローカルで動かせる

play07:24

とま塚本先生のねウェアラブルとかもそう

play07:26

ですけどええええクラウではなくスマート

play07:29

フォンとかラップトップとかまここのPC

play07:32

とかそういうも動かせるっていうところが

play07:33

ま非常に魅力的でえそのもカスタマイズと

play07:36

かできますしまそれぞれが違うAIを持っ

play07:40

てそれ特徴のあるAを持つっていう時代

play07:42

っていう風になっていくのかなと期待はし

play07:44

ているとうんいうことですでえっとまこれ

play07:48

の1つのえっと例としてですねあのまこう

play07:52

いうのを使ってる例としてあのあれベイビ

play07:55

LMってのはご存知ですかねこれはあの

play07:57

チリ費効果大学のえっとアレックスワシ

play08:00

タットというええ研究者があのこの人の

play08:04

問題意識はですね子供たちがどのようにえ

play08:07

言語を獲得するのかっていうそれを研究

play08:10

するためのAIを作ってるとああそうです

play08:13

かいう研究があるんですよでベイビーLM

play08:15

ってのまさにその子供が学習するっていう

play08:18

意味のベイビーでもあるしまちっちゃいっ

play08:20

て意味のベビーっていうのもかけてんのか

play08:21

なと思いますねでこれでですねあの参加者

play08:25

いろんな普通の人が参加するえっと

play08:28

チャレンジっていうのをやっていてこれは

play08:30

ねあのデータセットを非常に絞ってつまり

play08:34

本当に子供がですね学ぶ言語の数ぐらい

play08:37

その5歳とか6歳とかぐらいまで学ぶ言語

play08:40

だけに絞ってAIに学習させるとそれで

play08:44

AIがどこまで知能を高められるかって

play08:47

いうのはえまチャレンジ型のイベントを

play08:50

やってるんですよね参加誰でも参加できる

play08:52

でことそれ前やって今年またその2回目を

play08:55

やるってことでえまそういうところでです

play08:58

ねこのslmっていうのを使ってえ今の

play09:02

この人間がどうやって学習するかってこと

play09:04

をま研究してるとまこういう研究にも使わ

play09:06

れてるそうですでだから小規模で効率的な

play09:09

人間らしい学習をリバース

play09:11

エンジニアリングしてえそれをさらにこう

play09:13

AIにフィードバックしようというような

play09:15

ことをやっているということがこの記事に

play09:18

書いてましたはいまあ大規模でね成功した

play09:21

から次のステップとしてはま同じ大規模で

play09:24

性能を良くするっていうのとさらに大規模

play09:27

にしてもっと良くするっていうのと

play09:29

ちっちゃいやつで同じぐらいの性能を

play09:31

目指すといういろんな研究出てきてま成功

play09:34

例があると次のステップ踏みやすいとうん

play09:37

いうのはあね小規模っていうのはもちろん

play09:39

エジエAIでですねニーズが高いわけです

play09:42

からね進歩してくるっていうのはま予想

play09:46

通りな感じしますけどま学習データセット

play09:49

でよくするっていうのはあれですね

play09:51

なかなか1つの方法だという気がしますね

play09:53

あの実際国内でllm開発するって話あの

play09:59

割と進んでるみたいですけども学習データ

play10:02

セットでとにかく当たり外れが大きいと

play10:04

うんうんうんうんいうような話聞きますね

play10:07

もう本当にやってみないとわからないと

play10:10

なるほどうんいうことでだからそれでいい

play10:13

学習セット用意するっていうのはうん僕

play10:15

いいアプローチなのかなねデータセット

play10:18

自体の研究をされてる方ともいらっしゃる

play10:19

んですかねどんなデータセットがいい

play10:21

かっていうの研究ってのもああ多分ね研究

play10:25

がすごい広まってますからねいろんな研究

play10:28

あるという感じ

play10:30

そうそうそうださっきのそのBabyLM

play10:32

で言うとあここに書いてありましたけど

play10:34

その13歳後になるまでにえ大体1億5

play10:37

らしいんですよこうああ触れる言語う量

play10:41

ですね1億5ってのは多いように思います

play10:43

けど今のllmでのやってることに比べ

play10:47

たらむちゃ少ないらしいんですよねああ

play10:49

そうですね落手させてる量に比べるとだ

play10:51

からこれ非常にこれの限られたデータ

play10:54

セットでどこまで行けるかっていうのをや

play10:56

るっていう研究がま今こうやって

play10:58

るってことそうですよまあねそのデータ

play11:01

セットの量が少ないっていうのとデータ

play11:04

セットの質がその子供でるっていうのと

play11:07

あと結語モデルのパラメーター数が少な

play11:09

いっていうのとはうんうんま関連性はある

play11:12

でしょうけどもま別基本別の話ですからね

play11:16

まあまあそれはそうですねま脳脳の事体の

play11:18

ね構造はあのllmよりも大きいかもしれ

play11:22

ないですね今のええええええデータセット

play11:26

に着目するっていうとこが新しいんですか

play11:28

ね研究としてはねえあ思い出しましたその

play11:30

日本のねLM開発してるところのあの話で

play11:34

言うとそのデーターセットこそがこ

play11:36

ビジネスの角であってに出したくないと

play11:41

社会一番大事なものなんだみたいなそう

play11:44

いう動してたことがあ聞いた覚えがあり

play11:46

ますねからえなかなかそれをオープンにし

play11:49

ていくっていうのは世の中の進展にはいい

play11:52

でしょうけども逆にそれをもういいデータ

play11:55

セットに関してはクローズドにしてそれを

play11:57

ビジネスの種にしていくてっていうのは

play11:59

考え方かもしれませんねなるほどでこの

play12:02

すごくいいデータセットですごいこの

play12:04

コンパクトなllmでも性能がいいって

play12:07

いうのはこれは勝負の1つだとうんうん

play12:10

思いますねうんねその辺でこう勝負できれ

play12:14

ばいいですねえじゃどういうデータセット

play12:16

がいいのかっていうのも多分研究のテーマ

play12:18

であり実は商売のこの種の1番コアな部分

play12:22

でありっていうところあるかもしれねだ

play12:24

からうんうん研究としてオープにしてい

play12:26

くって話と失敗のとしてクローズうんして

play12:29

いくっていう話とありそうな感じが

play12:31

うんうんうんねまなんとなくこう純粋バオ

play12:34

的なAIの作り方かなと思ってまいろんな

play12:38

ことをいいことも悪いことも含めて知っ

play12:40

てるAIの方がまあちょっと打たれ強い気

play12:42

はしますけどいろんなことそれはそうです

play12:44

ねまあるものに特化するま目的がある程度

play12:48

絞られているんだったらまそれに向かって

play12:50

純粋倍をするみたいなAIの学習の仕方も

play12:53

あるんでしょうねきっとねま人間でもね

play12:55

いいことも悪いことも知ってる人の方がね

play12:58

強いですからねま最終的には最終的には

play13:01

いろんなもの対応できますけどどうなん

play13:03

でしょうエリートAIとかいろんなものが

play13:05

できるかもしれないですねやっぱりね人間

play13:08

は赤子供は非常に少ない声でね学習できる

play13:12

うんやっぱりどっかアルゴリズムになんか

play13:15

やっぱり違いがあるんじゃないかって気が

play13:17

しますけどねああ今のllmではあslm

play13:21

では限界があるかもしれないいって話です

play13:23

から違うんうんええまだ確かにLL今の

play13:29

例えばGPT4とか5でのぐらいの

play13:32

スケールで学習の仕方がさらに良くなれば

play13:36

うんすごいものができるかもしれないです

play13:38

ねそうかそういう意味ではあれじゃない

play13:40

ですか1.5ビットっていう方向性もあっ

play13:44

てそのコンパクトで早く動かすというのに

play13:47

関してはちょっといくつかアプローチは

play13:49

あるうんあそうですねうんいくつか

play13:51

それぞれ違うちょっと違うんだけどもこれ

play13:54

からいろんなもの出てきそうですねえはい

play13:56

そういうことですねはいはいそういうこと

play13:58

Rate This

5.0 / 5 (0 votes)

Связанные теги
小規模モデル言語モデルAI技術AppleMicrosoftパラメーター性能向上学習データデータセット研究開発未来予測
Вам нужно краткое изложение на английском?