松田語録:Jamba〜Mamba+Transformer

シンギュラリティサロン・オンライン
8 Apr 202412:25

Summary

TLDRこのスクリプトは、新しい言語モデル「ジャンバ」について述べています。ジャンバは、マンバとトランスフォーマーの進化版で、AI21というイスラエルの会社が開発しました。オープンソースとして公開され、Apache 2.0ライセンスで利用できます。ジャンバの特徴は、非常に長いテキストを扱えることと、計算が速いことです。一方、マンバは長いコンテキストを覚えられるが、要約性が弱く、トランスフォーマーは完璧にデータを覚えるが、パターン忘れが起こります。ジャンバはその良い点を組み合わせたもので、ミクストラルや他のモデルと比較して、性能が優れていることが示されています。また、小さなマシンでも動くことから、研究者が簡単に実験できるようになっています。

Takeaways

  • 📄 ジャンバはマンバの進化版であり、言語モデルの改善に役立つとされています。
  • 🧠 アルバートグとツリダオによって書かれたペーパーでは、ジャンバが変革的なアーキテクチャであると評価されています。
  • 🐟 ジャンバはAI21というイスラエルの会社が開発し、オープンソースとしてApache 2.0の下で公開されました。
  • 🔍 ジャンバの特徴は、非常に長いテキストを扱くことができ、過去のことを覚えて保持する能力に長けています。
  • 🔧 トランスフォーマーとの違いは、より過去のデータまで完璧に覚えることができる点にあります。
  • 💡 ジャンバはマンバとトランスフォーマーの特徴を組み合わせ、7対1の比率で混ぜ合わせています。
  • 🚀 性能比較では、ジャンバはミクストラルと呼ばれるオープンソースのエクスパートモデルと比較されています。
  • 🌐 ジャンバは比較的小規模なマシンでも高い性能を発揮することができ、高メモリと計算速度が特徴です。
  • 💻 ジャンバはA101 GPU 1台で128Kのタスクを、256Kまで行うことができ、複数のGPUを使用することでさらに高い性能が期待されます。
  • 📈 ジャンバの論文は、過去3ヶ月で99編の引用数を獲得し、学術界での関心が高いことを示しています。
  • 🌟 ジャンバは新しい研究テーマとして注目され、様々な分野で応用が期待されています。

Q & A

  • ジャンバとは何ですか?

    -ジャンバは、マンバとトランスフォーマーのハイブリッドモデルで、AI21というイスラエルの会社が開発したものです。マンバの特徴(長いテキストを扱えること、過去の情報を保持する能力)とトランスフォーマーの特徴(パターンを忘れずに扱えるデータを持つ)を組み合わせています。

  • ジャンバがオープンソースとして公開される理由は何ですか?

    -ジャンバはApache 2.0ライセンスで公開されており、誰でも自由に使用することができます。これはAI技術の発展を促進し、より多くの人々に恩恵をもたらすことを目的としています。

  • ジャンバの性能はどのように評価されていますか?

    -ジャンバは、ミクストラルというオープンソースモデルと比較されることがあり、特定の問題に対しては優れた性能を示すことがあります。しかし、他のタスクでは異なる結果が出る場合もあります。ジャンバはメモリや計算速度においても優れているとされています。

  • ジャンバが使用されるハードウェアの規模はどのくらいですか?

    -ジャンバは比較的小さなマシンで動作することができ、A100というGPUを使って128Kまで動作するように調整されています。また、より大きなモデル(256K)も公開されており、2台から3台のA100で動作することが可能です。

  • ジャンバの開発に関連する論文はどのように評価されていますか?

    -ジャンバに関する論文は、非常に高い引用数を獲得しており、研究者の間で広く注目されています。これは、ジャンバが新しいAIアーキテクチャとして注目されることを意味しています。

  • マンバとトランスフォーマーの違いは何ですか?

    -マンバは長いテキストを扱うことができ、過去の情報を保持する能力があります。一方、トランスフォーマーはパターンを覚えることができるが、そのデータはパターンが変化すると忘れてしまうことがあります。ジャンバはこれらの特性を組み合わせたものです。

  • ジャンバはどのようにマンバとトランスフォーマーの特徴を活用しています?

    -ジャンバは、7対1の比率でマンバとトランスフォーマーを混ぜ合わせています。これにより、マンバの長所(長いテキストを扱えること、過去の情報を保持する能力)とトランスフォーマーの長所(パターンを覚えることができるデータを持つ)を同時に活用できます。

  • ジャンバの開発企業、AI21の目的は何ですか?

    -AI21の目的は、AI技術をオープンソースとして公開し、より多くの人々に恩恵をもたらすことです。これにより、技術の発展を促進し、様々な分野での応用を促進することを目指しています。

  • ジャンバが解決できる問題の例は何ですか?

    -スクリプトからは具体的な問題の例は明確ではありませんが、ジャンバは言語モデルとして役立つ可能性があることが示されています。また、翻訳や文章生成などのタスクに適用される可能性があります。

  • ジャンバの今後の展望は何ですか?

    -ジャンバはオープンソースとして公開されており、研究者や開発者が自由に使用できます。これにより、様々な分野での応用が期待され、AI技術の進化を促進する可能性があります。また、より大きなデータセットやより複雑な問題に取り組むことが期待されています。

Outlines

00:00

🌐 ジャンバの紹介とその特徴

ジャンバは、マンバの進化版で、AI21社によって開発された新しいアーキテクチャです。マンバは小規模なモデルで限られた試験のみに用いられていたが、ジャンバはより大規模なモデルとして提供されています。ジャンバは、マンバとトランスフォーマーの長所を組み合わせたもので、その比率は7対1です。マンバの長所としては、長いテキストやコンテキストを記憶する能力がありますが、一方で、その長所は完璧ではなく、長いテキストの処理においていくつかの限界があります。これに対し、ジャンバはトランスフォーマーの要素を取り入れることで、これらの欠点を補っています。

05:00

🔍 ジャンバの性能と可能性

ジャンバの性能は、ミストラルという他のモデルと比較して様々な場面で異なる結果を示します。ある問題においてはジャンバが優れている一方で、他の場合ではミストラルの方が良い結果を出すこともあります。特にメモリや計算速度の面でジャンバは優れており、少ないGPUでも大規模なウィンドウサイズの処理が可能です。ジャンバのソフトウェアは公開されており、Apache 2.0ライセンスの下で利用可能ですが、使用には注意が必要であり、特にアライメントがされていないため、悪意のある出力や偏見のある内容に対しては注意が必要です。

10:01

🔬 ジャンバの応用と今後の展望

ジャンバは、マンバとトランスフォーマーのハイブリッドとして開発され、多くの研究者によって異なる応用がなされています。マンバの引用数は140以上に達しており、その人気は高いです。ジャンバは、主にマンバの基本構造をベースにしており、トランスフォーマーの要素を加えることで、遅延や欠点を克服しています。また、将来的にはビジョンマンバやVマンバなどのバリエーションが登場する可能性があり、研究者達はガウシアンスプラッシュといった技術と組み合わせることで新しいモデルを生み出すことに期待しています。ジャンバはオープンソースであり、軽量なため、広範な研究や開発が可能です。

Mindmap

Keywords

💡ジャンバ

ジャンバはAI21によって開発された大規模な言語モデルであり、トランスフォーマーとマンバの技術を組み合わせた進化版である。このモデルは、言語理解の精度を向上させるために設計され、従来のモデルよりも長いテキストやコンテクストを扱う能力があります。スクリプト内で、ジャンバはオープンソースとして公開され、アパッチ2.0ライセンスの下で利用可能であることが説明されている。

💡マンバ

マンバは、長いテキストやコンテクストを記憶し、それを利用して情報を処理する能力が特徴のモデルである。このモデルは、過去の情報を要約形式で保持しつつ、その情報を基に新たな出力を生成する。スクリプトでは、マンバのこの特徴がジャンバの開発に役立ったことが語られています。

💡トランスフォーマー

トランスフォーマーは、現在の自然言語処理技術の中心的なアーキテクチャで、特定のウィンドウ内でのデータの完璧な記憶と処理に優れている。しかし、ウィンドウ外の情報は忘れがちである。ジャンバでは、このトランスフォーマーの能力をマンバの長期記憶能力と組み合わせて、よりバランスの取れたモデルを目指している。

💡オープンソース

ジャンバはオープンソースとして公開されており、アパッチ2.0ライセンスのもとで自由に使用、改変、配布することができる。これにより、広い範囲の研究者や開発者がジャンバを利用して新しい研究やアプリケーションの開発に役立てることが期待される。

💡AI21

AI21はイスラエルの会社で、ジャンバを開発した組織として紹介されている。AI21はAI技術の研究と開発に取り組んでおり、特に言語モデルの進化に貢献していることがこのスクリプトからわかる。

💡計算速度

ジャンバは計算速度の面でも優れており、少ないリソースで高速に処理を行うことができる。これは特に、大規模なパラメータを持つモデルを効率良く運用する際に重要な特徴であり、リソースの限られた環境でも使用可能であることを示している。

💡ミクスチャーオブエクスパート

ミクスチャーオブエクスパートは、異なる専門性を持つ複数のモデルが協力して問題を解決するアプローチである。ジャンバでは、このアプローチが取り入れられており、マンバとトランスフォーマーの「エクスパート」が最適な組み合わせで問題解決にあたる。

💡インフラ

スクリプトでは、ジャンバを動作させるためのインフラに関しても言及されている。特に、少ないGPUリソースで高い性能を発揮できる点が強調されており、これは研究者や開発者にとってコスト効率良くモデルを運用できる意味合いがある。

💡パラメーター

ジャンバは巨大なパラメーター数を持つことが可能で、それによって複雑な言語処理タスクに対応できる。パラメーターの多さはモデルの理解能力や予測精度に直結するため、この点がジャンバの強力な特徴となっている。

💡学習能力

ジャンバの開発において、学習能力の向上が一つの重要な目標であった。マンバとトランスフォーマーの技術を組み合わせることで、モデルがより幅広い文脈を理解し、それに基づいて正確な出力を生成する能力が期待される。

Highlights

ジャンバの紹介、マンバとトランスフォーマーのベストを組み合わせた進化的なアーキテクチャ。

アルバートとツリダオによるこの変革的なアーキテクチャに関する論文の言及。

ジャンバがトランスフォーマーアーキテクチャの風景を変える重要性。

ジャンバの作成者としてのイスラエルの会社AI21。

アパッチ2.0の下でのジャンバのオープンソース性。

ジャンバはマンバとトランスフォーマーのハイブリッドで、7:1の比率。

マンバは長いコンテキストとテキストを記憶する能力を持つ。

トランスフォーマーはあるウィンドウまでのデータを完璧に記憶する。

マンバの長期記憶とトランスフォーマーの即時回想のバランス。

マンバとトランスフォーマーにMoE(専門家の混合)を導入。

ジャンバはミストラルや他のモデルと比較して、性能とリソース効率で優位性がある。

他のモデルに比べてジャンバのメモリーと計算速度の利点。

さまざまなAI分野でのジャンバの潜在的な応用と小規模ハードウェアでの効率性。

モデルのアライメントがないため、偏見や攻撃的な出力を防ぐためのユーザーの注意が必要。

研究者や開発者にとってのジャンバのアクセシビリティは、控えめなハードウェアでもAIの進歩を促進する。

Transcripts

play00:00

かはいジャンバの話ですジャンバジャンバ

play00:04

とは何かっち言ったらマンバんのまね改良

play00:10

版というかあのま進化版ですよねでマンバ

play00:14

の話を前しましたがこれアルバートグと

play00:18

ツリダオといううん人がうんま書いた

play00:22

ペーパーでま結構ねトランスフォーマーに

play00:25

変わるとって変わる画期的な

play00:27

アーキテクチャーであるとま言われてでま

play00:31

いっぱい魚にペーパーが出てるまそれに

play00:34

関するねが出てるわけよとこね万波の論文

play00:38

見たら分かるよう

play00:39

にこれがあの本当にあの役に立つのかと

play00:45

つまり言語モデルとしてねん役に立つの

play00:49

かていうのはまだ疑問だっったわけなぜっ

play00:52

て小さなモデルでしかやってないからで

play00:54

なんで小さなモデルやってないかっうたら

play00:56

ま金がないからですよねでで今回出たま

play01:01

ジャンバちゅうのはねまそれのあの大きな

play01:04

モデルなんですよでこれを出したのがね

play01:07

AI21というイスラエルの会社なんです

play01:11

わでうんここがね色々まAI関係の

play01:15

いろんなことうんやってるんででそれがま

play01:19

ジャンバというものを出してでこれがま

play01:23

これオープンソースにしたわけでアパッチ

play01:26

2.0ちうのでだからウトを公開したわけ

play01:29

ですよだから10に使ってくださいという

play01:31

わけですよででどんなもんなのかと言うと

play01:35

ですねこれがねなかなかね面白いというか

play01:39

ねちょっとよくわけわかんないんだけど

play01:41

マンバとトランスフォーマーを足し合わせ

play01:45

たようなもんなんですよああそうなんです

play01:47

か別物って言ってるに出せるんですかねっ

play01:50

て思っちゃいますうんでねこうなってあの

play01:53

ねマンバレアちいうのがあってねでねその

play01:57

うちにマンバプラスミクスチャーオブX

play01:59

パートレアでマンバレアミクスチャーオブ

play02:03

エクスパートレアみたいで

play02:05

トランスフォーマーレアていうのがあって

play02:07

またマンバレアていうのがあってですねで

play02:10

ねこれがね7対1の割合で混じってんのよ

play02:13

つまり7がマンバで1が

play02:16

トランスフォーマーへえ

play02:19

うでね

play02:21

マンバとトランスフォーマーの理外特質

play02:24

ちゅうのがあるんですよでマンバねのいい

play02:28

ところはま非常に長いテクストあと

play02:30

コンテクストはま

play02:32

あの昔のことをね覚えてられるという特徴

play02:36

がでえトランスフォーマーですねある

play02:40

ウインドウがあってそこまでは完璧に

play02:42

データを持っとるわけだけどそれより以前

play02:46

になるとパタンと忘れるとまそんな感じ

play02:49

ですねでジャあのマンバはそれはダラダラ

play02:53

と昔まで覚えてるけど昔はになればなる

play02:56

ほど要約的なことになってくるとまそう

play03:00

いうんですでマンバの特徴はですねまそう

play03:03

いうわけで基本的に非常に長いあのうん

play03:06

あのことまで覚えてられるというのとそれ

play03:10

から計算が早いとでから軽いということが

play03:13

あるんですよところがねやっぱり欠点も

play03:15

あってですねあのトランスフォーマーある

play03:18

ところまで完璧に覚えてるわけだから

play03:20

取りこぼしができあのないようにできる

play03:22

けどあのマンバ悲しもそうはならないと

play03:25

いうことがあってですねで長い場合にかし

play03:31

もねマンバ成績がいいとは限ないんですよ

play03:34

でそこではねマンバのいいところとあの

play03:37

トランスフォーマーのいいところを

play03:39

足し合わせたのがそのジャンバだという

play03:41

わけよでで実際あの何と比較知ってるかて

play03:46

ミストラルというのがあってうんこれは

play03:48

オープンソースねででミクストというのが

play03:52

あってミクストラルちいうのはミストラル

play03:55

をの

play03:57

あのmoeえ

play04:00

え要するにエクスパートモデルうんう今後

play04:04

エクスパートモデルなんですよでそれがね

play04:07

8x7bとか言ったかなつまり7b7

play04:11

ビリオンのものを8個でこのミクチャオ

play04:14

エクスパートが何がいいかというとですね

play04:17

あのトータルのあのパラメーター数は

play04:20

大きくできるわけよねだから学習した時に

play04:24

賢くできるわけところがですね

play04:27

インフラントはそのエクスパートが

play04:30

たくさんおってその中ので具体的には

play04:33

ジャンバの場合はあのエクスパートが16

play04:37

あってそん中からあのエンフランスの時2

play04:40

個だけ使うとだから実際使う時のウェイト

play04:43

はガンと小さいもの使うだから計算が早い

play04:46

わけですよだけど適切なエクスパートを

play04:49

使うことによってその巨大大きなあの

play04:52

パラメーターをま効果的に使えるというま

play04:56

それがミクスチャーオブエクスパートの

play04:58

特徴なわけ

play05:00

でそのミクストラルと比較してですねで

play05:04

性能はねまどっちがどっちってまこんな

play05:08

感じなんですよある問題ではまあの

play05:10

ジャンバの方がいいけど別のんでは

play05:12

ミストラルの方がいいとまそんな感じ

play05:15

ところはですねメモリーとか計算速度が

play05:18

圧倒的に違うんですよですごいのはねあの

play05:21

1GPUA101台ででこのインフレの時

play05:26

ですよそれからWindowsが128

play05:29

まで行けるっちゅうわけうんでこれこの

play05:31

ウンドサイズは前から言ってねチャット

play05:33

ジテみたの初期は4kねそれから8Kに

play05:37

なってですねで金払えば32系とでところ

play05:41

はこれに対してクロードがね100系いう

play05:43

の出してきたわけですねでそれに対抗上

play05:46

オープンAIは去年の11月に128系

play05:49

ちゅうのを出したわけですねそれに対して

play05:51

クロードがね対抗して200系ちうの出し

play05:53

てきたわけですねでさらにた最近の話は

play05:57

あのえっとジミの1.5があの1000K

play06:02

ねうん1ミリン出してきてんでクロード3

play06:07

も1ミリオン出したわけだけどそれはね

play06:09

みんな巨大なマシン使ってるわけですよね

play06:12

ところが今にったジャンバはあのA101

play06:15

台ねむちゃままそういう規模でいうのは

play06:18

むちゃくちゃ小さなマシンで128Kまで

play06:21

行くとでその公開してるソフトは256K

play06:25

まで行くとこれはA101台じゃダメてま

play06:27

2台か3台かえいるんでしょうがまそれで

play06:30

も比較的ねそんなね何千台何万台とかいう

play06:34

ようなもんじゃないわけですよそれでま

play06:36

256系まで行くとでじゃあね小場さんが

play06:40

前おっしゃったようにそのニードルヘイ

play06:43

スタックっていうのあっうんそれすごい気

play06:44

になってたんですよねとにマンバてrnn

play06:48

なんでrnの悪いとかは古いことどんどん

play06:50

忘れてっちゃうんできっとニルイザヘス

play06:53

タックやると過去のことが結構ボロボロ

play06:56

抜け落ちるんじゃないかなって思ってたん

play06:58

でそれはうんそれあのジャンバーの論文で

play07:02

やっててで256系でやっててうんうんま

play07:06

ほぼ100%ねただ256まで行くと長く

play07:11

なるとあの先頭の方がちょっと取りこぼし

play07:15

があると戦闘の方ちゅうのは呼んだ時に

play07:17

過去1番昔のことでしょだその辺は多少

play07:21

取りこぼしがあるとうんうんだけどまあ

play07:24

要するに円がま数台で25628系の

play07:30

ところだとほぼ完璧なんやねさっきね

play07:33

クロードがね最初クロード2が100系と

play07:35

か言ってたからそれが128系がね円1台

play07:39

でできるっちゅうんだまこれ書きてそれで

play07:42

取りこぼしがないっちゅうんだからねうん

play07:44

だからそれはねなぜかと言うと

play07:46

トランスフォーマーをそう入れたからだと

play07:48

いうんですよへえだからそのいい特徴ね

play07:52

あのででかつこれがオープンに公開され

play07:56

てるからでただねこう注意ですよここれは

play08:00

ねアライメントしてないからねあの使う時

play08:02

は注意して使ってくれるま例えば悪口が出

play08:05

てくるとか偏見が出てくるとかいうような

play08:07

ことがそれをね止めるようにしてないから

play08:10

あとは自分でよろしくねってただ自分の

play08:12

会社でね使うとかいうことができるわけ

play08:15

ですやでそれもね大きなマシンがなく

play08:17

たってあの小さなマシンでできますよって

play08:20

そういう話ですわ動くシステムが使える

play08:23

状態になってるわけじゃないですねじゃ

play08:25

なくて自分で作れってことですよね自分で

play08:27

もあのオープンソースので環境持ってる人

play08:30

は自分とこインストールして勝手に走らせ

play08:32

られますよって話ですか公開されてるん

play08:34

ですそモデルも公開されてるということ

play08:36

ですねうんそれぐらいだとあれですね

play08:38

Googleコラボとか使えば動くレベル

play08:41

ですよねA101台で動くってことはうん

play08:44

ならばうんいや使ってみたいですよその

play08:49

あのあんまりrlfであの教育してないっ

play08:52

てとこが結構魅力で絶対あのそうそこか

play08:55

そこかいや意識あるとか聞くとねもちろん

play08:57

ありますよとかきっと言ってくるんですよ

play08:59

よそれちょっとあの楽しそうだなと思っ

play09:02

ちゃいましたうんそうかA101台って

play09:05

10万円では持たなくたって使えるわけか

play09:07

うんうんうんあのそれAmazonでも

play09:10

いけんのかなAmazonはどうなのかな

play09:11

でもGoogleコラボは結構みんな使っ

play09:14

てるみたいでうんうんうんうん私もたまに

play09:16

使いますようんふんふんはい40gあかな

play09:20

A100あ80g80でしたっけあうん

play09:24

うんあごめんなさいちょっと今忘れました

play09:26

けどA100A180gだって書いてあ

play09:29

自かまちょっとわかんないですけどうん

play09:32

あのマンバとトランスフォーマーのこの

play09:35

レハをねこうスタックするっていのは

play09:37

ちょっと意外でそう意外ことどちらかと

play09:40

いうとそのミクスチャーの話みたいに

play09:43

パラレルにね持っててねうんでそれを

play09:46

ミクスチャーするとかの方が自然な感じは

play09:49

したんですけどねシリアルに積んじゃった

play09:52

わうんうんうんこれでうまくいくのかな逆

play09:55

に悪いとこがってしまいそうなイメそう

play09:57

そうなんかうん父親と母親の悪いとこ取り

play10:01

してなんか悪いとこばっかり遺伝しちゃい

play10:03

そうな気もしただから今の話はいいとこ

play10:05

取りいいとこ取りになってうんえええその

play10:09

7対1でしたっけなんかおっしゃってさ

play10:11

それはなんか理由があるんですかうんうん

play10:12

いや別に3対1でもいいってふうん要する

play10:16

にトランスフォーム遅いからあんまり多く

play10:18

したくないってことでしょうねいや基本的

play10:19

にはマンバなんですよねただ純粋のマンバ

play10:22

はやっぱりね具合が悪いところがあ

play10:24

るっちゅうわけですようんだからそこで

play10:27

トランスフォーマーの味をちょっとまあね

play10:30

わさびですよ

play10:31

わさびええまいろんなんがありますねうん

play10:36

いやだからねこれを見てるとね

play10:39

トランスフォーマーかねマンバかチンじゃ

play10:41

ないようだねうんいいとりをしていくと

play10:44

いうああ

play10:46

うーんハイブリッドにできると装備して

play10:50

詰めるとうんなんかそのマンバていうのは

play10:53

そうやっていろんな人がこうミックス

play10:55

アップするというかなんかそんな結構使わ

play10:58

れてるみたいですねいろんなそうことです

play11:01

よねあ今はねすいですねのペーパーがね

play11:05

うんこの前ね3ヶ月で99編ちたんやけど

play11:08

ねとこはマンバの論文の引用数がね140

play11:11

何ぼなってんおおおおすごいねこのすごい

play11:15

ようんあいやあの論文書く人今本当にかき

play11:20

書きthinkというかですよねだって

play11:21

ちょっと工夫してちょっと良くなりまして

play11:23

だったらもう1本かけちゃうんであの

play11:25

トランスフォーマーだともう何でも研究さ

play11:27

れてるからちょっともう今更新しいことて

play11:29

な出てこないかもしれないですねうんだ

play11:30

から多分ね新しいことが出てきたから

play11:33

みんな飛びついたやそうですよねでね

play11:35

ビジョンマンバとか

play11:37

ねVマンバとかね2地下とか3地下とか出

play11:40

てきそうですよねありますよね私の分野で

play11:43

もなんかあのガウシアンスプラッィグって

play11:45

あの3次元の貸化のやつを最近触ってたん

play11:49

ですけどそれにマンバを組み合わせて

play11:52

ガンバっていうの使っ

play11:55

てるそんなのがなんかいっぱい出てきそう

play11:58

だなすごいですよガバ面白い名前名前の

play12:01

取り合いですねこれ

play12:02

はほんまやはいしかもあれでしょその商事

play12:07

ソースで割とできるんでしょうんうん

play12:09

トランスフォーマーと比べてねそう軽いっ

play12:11

ていうところが特徴なんですよま研究は

play12:14

やりやすいはずですねうん頑張ってやって

play12:17

みようかななんかうん

play12:20

がばはいそういうことでしょうかはいはい

Rate This

5.0 / 5 (0 votes)

Related Tags
AI進化オープンソース言語モデル技術革新AI21会社エクスパートモデルミクストラルハイブリッドアプローチ研究開発未来予測
Do you need a summary in English?