Mixture of AgentsでGPT4oを超えられるらしいので解説してみた

にゃんたのAI実践チャンネル
7 Aug 202417:48

Summary

TLDRこの動画では、言語モデルの性能を高める技術「ミックスチャーオブエイジェンツ」について紹介しています。複数の言語モデルを組み合わせることで生成された文章の質を向上させるというこの技術は、TOGAI社によって開発されました。実際に使った際の感想や、オープンソースのモデルを利用した結果が紹介されています。また、高速で高精度の文章生成が可能とされたグロックサービスとの相性が良かったり、言語モデルの未来についても触れています。

Takeaways

  • 😀 ミクスチャーオブエイジェンツ(MOA)は、複数の言語モデルを組み合わせることで生成される文章の質を向上させる技術です。
  • 🤖 MOAは、TOGAIという会社が開発し、オープンソースの言語モデルを利用してクラウドサービスを提供しています。
  • 📈 MOAの技術は、言語モデルの性能を超える精度を出すことができ、弱いモデルでも協力して強いモデルに勝てる可能性があると示唆しています。
  • 🔁 MOAのプロセスは、複数の言語モデルを使って回答を生成し、それらを統合し、繰り返し処理を行うことで文章の質を向上させています。
  • ⏱️ MOAのデメリットとして、繰り返し処理が必要で時間がかかることと、多くの言語モデルを使用することでコストがかかることが挙げられます。
  • 🚀 グロックというサービスは、MOAと組み合わせることで高速に文章を生成できると示されています。
  • 📊 実験結果によると、MOAはオープンソースのモデルを組み合わせることでGPT4オムニを超える精度を持つことが明らかになりました。
  • 🌐 MOAの有効性は、モデルの多様性や繰り返し処理の回数、最後の統合に使用するモデルの性能などの要因に影響されます。
  • 🔑 最後の統合に使用するモデルの性能は、MOAの結果に大きな影響を与える重要な要素であることが実験から分かります。
  • 🛠️ MOAの実装例として、Pythonで書かれたWebアプリを使用して、実際にMOAの機能を体験することができます。
  • 🔮 オープンソースの言語モデルの発展に伴い、MOAのような技術が今後の言語モデルの利用方法に大きな役割を果たす可能性があると予想されます。

Q & A

  • ミクスチャーオブエイジェンツとはどのような技術ですか?

    -ミクスチャーオブエイジェンツは、複数の言語モデルを組み合わせることで生成される文章の質を向上させる技術です。異なる言語モデルがそれぞれ回答を生成し、それらの回答を統合することで、より高精度の回答を得ることができます。

  • TOGAIという会社は何を提供していますか?

    -TOGAIはオープンソースの言語モデルをクラウドサービスとして提供しており、これらのモデルを安く利用できるようにしています。

  • 言語モデルの性能を上げるためにはどのようなアプローチがありますか?

    -言語モデルの性能を上げるためには、単一の高精度モデルを使用することもできますが、ミクスチャーオブエイジェンツのように複数のモデルを組み合わせることで性能を上げるアプローチもあります。

  • グロックとはどのようなサービスですか?

    -グロックは独自のAIチップを開発し、言語モデルを高速に動かすことができるサービスです。このサービスを使うことで、繰り返し処理による回答生成のスピードが向上し、ユーザー体験が向上することが期待できます。

  • ミクスチャーオブエイジェンツのデメリットは何ですか?

    -ミクスチャーオブエイジェンツのデメリットとして、繰り返し言語モデルを実行する必要があるため、処理に時間がかかることが挙げられます。また、多くの言語モデルを使用するため、コストがかかることもデメリットの一つです。

  • ミクスチャーオブエイジェンツの有効性はどの程度ですか?

    -実験結果によると、オープンソースの言語モデルを組み合わせた場合、GPT4オムニを超える精度を示す結果が出ており、ミクスチャーオブエイジェンツの有効性が高く評価されています。

  • 言語モデルの多様性とは何を指しますか?

    -言語モデルの多様性とは、異なる特性や性能を持つ言語モデルを組み合わせることで、生成される文章の多様性や柔軟性を高めることを指します。

  • ミクスチャーオブエイジェンツの最後の集約に使用されるモデルはどれですか?

    -ミクスチャーオブエイジェンツの最後の集約に使用されるモデルは、その性能が非常に重要で、実験ではGPT4オムニや110ビリオンパラメーターを持つモデルなどが使用されています。

  • 言語モデルのレイヤー構造とは何を意味していますか?

    -言語モデルのレイヤー構造とは、複数の言語モデルを複数レイヤーにわたって使用し、各レイヤーで回答を生成し、それを次のレイヤーに渡して洗練された回答を得るプロセスを指します。

  • ミクスチャーオブエイジェンツを使用した際のユーザー体験はどのようになりますか?

    -ユーザー体験は、生成される回答の質と生成にかかる時間の両方によって影響を受けます。ミクスチャーオブエイジェンツは高品質の回答を提供できる一方で、繰り返し処理が必要なため、回答生成に時間がかかることがあります。

Outlines

00:00

😺 ミクスチャーオブエイジェンツの紹介とその概要

この段落では、ミクスチャーオブエイジェンツ(MOA)という技術について紹介しています。MOAは、複数の言語モデルを組み合わせることで生成される文章の質を向上させる技術であり、TOGAIという会社が開発したものです。この技術は、単一の言語モデルよりも高い精度を持つ可能性があるとされており、実際にはオープンソースのモデルを組み合わせることでGPT4オムニを超える精度を達成しています。

05:02

🔧 ミクスチャーオブエイジェンツの実装とそのデメリット

第2段落では、ミクスチャーオブエイジェンツの実装方法とそのデメリットについて説明しています。繰り返し処理が多く必要であるため、実行に時間がかかることがデメリットと指摘されています。また、多くの言語モデルを利用することでコストが高くなることも提到的缺点も触れられています。ただし、グロックというサービスと組み合わせることで、高速な文章生成が可能になるという利点も紹介されています。

10:02

📊 ミクスチャーオブエイジェンツの性能比較と実験結果

この段落では、ミクスチャーオブエイジェンツの性能を他の言語モデルと比較した結果が紹介されています。実験結果によると、オープンソースのモデルを組み合わせることでGPT4オムニを超える精度を達成することができ、低い性能のモデルでも良い回答を生成する傾向があることがわかります。また、最後の集約段階で使用するモデルの性能が重要であることが強調されています。

15:03

💻 実際にミクスチャーオブエイジェンツを使ってみた感想

最後の段落では、実際にグロックを利用してミクスチャーオブエイジェンツを試してみた感想が共有されています。高速な応答生成に驚きを感じた一方で、生成された文章の品質についても評価しています。ただし、使用したモデルの性能が高くないため、文章に不自然な部分があることも認められています。この技術が今後の言語モデルの利用にどのように影響を与えるかについても考察しています。

Mindmap

Keywords

💡ミクスチャーオブエイジェンツ(Mixture of Agents)

「ミクスチャーオブエイジェンツ」とは、複数の言語モデルを組み合わせることで生成される文章の質を向上させる技術を指します。この技術は、TOGAIという会社によって開発されており、ビデオの中心となるトピックです。ビデオでは、この技術がどのように言語モデルの性能を高めるかについて説明され、実際にその効果を示す実験結果も紹介されています。

💡言語モデル

言語モデルとは、自然言語のパターンを学習し、文章を生成または理解するためのアルゴリズムのことです。ビデオでは、言語モデルの性能向上が求められる中で、ミクスチャーオブエイジェンツ技術がそれをどのように実現するかが議論されています。特に、OpenAIのGPTやGoogleのモデルなど、異なる言語モデルがこの技術によって組み合わさることで、より高精度の応答が生成される可能性があると示されています。

💡TOGAI

TOGAIは、オープンソースの言語モデルをクラウドサービスとして提供している会社です。ビデオでは、TOGAIが開発したミクスチャーオブエイジェンツ技術について紹介しており、その技術が言語モデルの性能をどのように高めるかについて説明しています。TOGAIの技術は、ビデオのテーマに密接に関連しており、その役割と貢献が強調されています。

💡GPT4オムニ

GPT4オムニは、ビデオ内で言及されている高精度の言語モデルの一つです。ビデオでは、GPT4オムニとミクスチャーオブエイジェンツ技術を比較し、後者が特定の条件下で前者を超えることが可能であることを示しています。GPT4オムニは、言語モデルの性能比較において重要な参照点として用いられています。

💡ラマ3.1

ラマ3.1は、ビデオ内で実際に使用された言語モデルの一つで、70Bという大きなモデルと比較されています。ビデオでは、ラマ3.1を使用したミクスチャーオブエイジェンツ技術の実験結果が紹介されており、その性能と応用が議論されています。ラマ3.1は、ビデオの主題における言語モデルの進化とその可能性を象徴しています。

💡グロック

グロックは、ビデオ内で紹介されている高速で高精度な文章生成サービスです。このサービスは、独自のAIチップを開発しており、言語モデルを高速に動かすことができるとされています。ビデオでは、グロックとミクスチャーオブエイジェンツ技術を組み合わせた場合の効果が強調されており、その高速な応答生成能力が特に注目されています。

💡AIエージェント

AIエージェントとは、自立的に行動することができるAIのことを指しますが、ビデオでは特に、言語モデルを指す場合もあります。ビデオでは、AIエージェントが繰り返し処理を行ったり、複数の言語モデルを組み合わせて文章を生成する役割を果たしていることが強調されています。AIエージェントは、ビデオのテーマにおける技術の応用性と柔軟性を象徴しています。

💡レイヤー

レイヤーは、ビデオ内でミクスチャーオブエイジェンツ技術の構造を説明する際に用いられた言葉で、言語モデルを複数層にわたって処理することで文章の質を向上させることを意味しています。ビデオでは、レイヤー1からレイヤー4までの各レイヤーで行われる処理が紹介されており、その各レイヤーでの言語モデルの役割と貢献が議論されています。

💡オープンソース

オープンソースとは、ソフトウェアのソースコードが公開されており、誰でも自由に使用・改変できることを指します。ビデオでは、オープンソースの言語モデルがミクスチャーオブエイジェンツ技術でどのように使用され、その結果がGPT4オムニを超えるほどの高精度を発揮することができるかが説明されています。オープンソースは、ビデオのテーマにおける技術の普及と進歩を促す要因として強調されています。

💡MTベンチ

MTベンチとは、機械翻訳の性能を評価するためのテストのことです。ビデオでは、MTベンチを使用してミクスチャーオブエイジェンツ技術の効果を検証しており、そのスコアがGPT4オムニを超えるほどの高精度を示したことが強調されています。MTベンチは、ビデオのテーマにおける言語モデルの性能比較の指標として用いられています。

Highlights

ミクスチャーオブエイジェンツ(MOA)という技術を紹介し、複数の言語モデルを組み合わせることで生成する文章の質を向上させる方法について解説。

MOAはTOGAIという会社が開発し、オープンソースの言語モデルをクラウドサービスで安く使えるように提供している。

言語モデルの性能向上を目指す人々にとって、MOAの事実を知ることは重要であると述べている。

現在、単体の言語モデルの中で最も精度が高いとされているものはOpenAIのGPT4オムニやCudo3.5のSonaute。

MOA技術は、性能が低いモデルでも協力すれば強いモデルに勝てるという夢を叶える可能性を示している。

MOAの過程は単純で、複数の言語モデルを使って回答を生成し、それらを統合する繰り返しを行う。

MOAのデメリットとして、繰り返し処理が多く必要で時間がかかること、コストがかかることが挙げられる。

グロックというサービスは、MOAと組み合わせることで高速に文章生成することができる。

MOAの構造は、複数の言語モデルを使って繰り返し文章を生成し、最終的に1つのモデルで統合するというもの。

実験結果では、オープンソースの言語モデルを使ったMOAがGPT4オムニを超えるスコアを出していることが示された。

MOAの有効性は、性能が低いモデルでも精度を上げるための使い道があると示唆している。

最後に統合するモデルの性能が重要で、GPT4オムニを使った場合に高い勝率が報告されている。

MOAの繰り返し処理の回数とレイヤーの多様性が精度に与える影響についても実験が行われている。

実装例として、グロックを使ったMOAの実装が公開されており、実際に触ってみることで精度がどれくらい上がるかを確認できる。

実際のMOAを使ったデモンストレーションでは、基本的には80億パラメーター以下のモデルを使ってもクオリティの高い文章が生成されることが示された。

今後、オープンソースのモデルの発展に伴い、MOA技術を活用して言語モデルをさらに効果的に利用する可能性があると予想している。

公式LINEやユミプラットフォームで提供されている関連資料や講座も参考になるため、興味のある人は確認をおすすめしている。

最後に、この動画の評価やコメント、チャンネル登録を呼びかけ、次回の動画でお会いする約束を交える。

Transcripts

play00:00

はい皆さんこんにちはニャンタですえ本日

play00:02

はミクスチャーオブエイジェンツについて

play00:04

話していこうと思いますえミクスチャー

play00:06

オブエージェンツってですね聞いたことな

play00:08

でしょうかほとんどの人はないと思うん

play00:10

ですけどもミチャオエンは複数の言語

play00:13

モデルを組み合わせることで生成する文章

play00:15

の質を上げるとえそういった技術になって

play00:17

いますなのでえ言語モデルの性能を上げて

play00:20

いきたいという人はですねえこの

play00:22

ミクスチャーオブエイジェンツという事実

play00:23

を知っておくと良いと思いますえ現状です

play00:26

ねえ単体の言語モデルの中でえ最も精度

play00:29

高いモデルといえばえOpenAIの

play00:32

GPT4オムニとかえクド3.5の

play00:34

ソネットというのが上がるかと思います

play00:37

普段から言語モデルたくさん使ってるよと

play00:39

いう人はこのどちらかのモデルをメインと

play00:41

して使ってるという人が多いかと思います

play00:43

でちなみに私はですね今クド3.5の

play00:46

ソネットですねこちらを毎日フル活用して

play00:48

いますでCIの分野は変化が激しいので

play00:52

新しくて強いモデルというのが続々と出て

play00:55

きます大体月1回ぐらいでどこかの会社が

play00:58

世界一性能が高いもをリリースしてゲーム

play01:01

チェンジが起きてたりしますでただそう

play01:03

なってくるとま結局1番性能が高いモデル

play01:06

しか使わないという人がえ多いかと思い

play01:08

ます先日もえメタ車からえラマ3.1と

play01:12

いう新しいモデルが登場したんですけども

play01:14

結局そういったモデルもえGPT4オムニ

play01:17

とかと比べると精度が低かったりするので

play01:19

特殊なケースを除いては普段使いはしない

play01:22

かと思いますなので現状え世界位精度が

play01:25

高いモデルとかコスパがいいモデルとかえ

play01:27

そういったモデル以外はあまり使い道がが

play01:30

ないという状態ですよねでそこで今回紹介

play01:33

するミクスチャーオブエイジェンツという

play01:35

技術になっていますでこれは冒頭話した

play01:38

ように複数の言語モデルを組み合わせる

play01:40

ことでえ精度を向上させるとえそういった

play01:42

技術になっていますでこの技術のすごい

play01:44

ところとしては組み合わせるモデルの性能

play01:47

が低かったりしてもGPT4オムニとか

play01:49

ですねえ精度が高いモデルを超えることが

play01:52

できるとまつまり弱いモデルたちでも協力

play01:54

すれば強いモデルに勝てるとそんな夢の

play01:57

ある技術になっていますで本日はこの

play01:59

ミクスオブエイジェンツがどんな技術なの

play02:01

かということとま実際に使ってみてですね

play02:03

どんな感じなのかというのを誰でも分かる

play02:06

ように解説していきたいと思います最新の

play02:08

生生AIの動向について知りたいという人

play02:10

は是非見ていってもらえばと思いますそれ

play02:12

では早速やっていき

play02:16

ましょうはい最初にえミクスチャーオブ

play02:18

エイジェンツですねえ略してMOAという

play02:21

風に呼ぶみたいなんですけどもこれは何な

play02:23

のかという話ですでミクチャオブエンツは

play02:26

toAIという会社が開発した技術になっ

play02:29

ています皆さんTOGAIという会社知っ

play02:32

てたでしょうかで私は今回初めて知ったん

play02:34

ですけどもこのTOGAIは主にオープン

play02:37

ソースで公開されている言語モデルとかを

play02:40

安く使えるようにクラウドサービスを提供

play02:42

しているという会社になっていますで

play02:45

そんなTOGAIからリリースされたのが

play02:47

えmixchオブエンツという技術になっ

play02:49

ていてえこちらの論文でですね詳しく解説

play02:52

されていますえミクスチャーオエンインハ

play02:55

ラージランジモデルケイパビリティてこと

play02:57

でミクスチャーオブエンツで言語モデルの

play02:59

性能を向上させるという技術になってい

play03:02

ますでこのミクスチャーオブエイジェンツ

play03:04

なのでこのエージェントがえ混ざってると

play03:06

いうのはどういうことなのかという風な

play03:08

感じかもしれませんでエージェントについ

play03:10

てはえ以前のこちらの動画で紹介してるん

play03:12

ですけどもこの動画ではえ自立的に行動

play03:15

するAIのことをまエージェントですよと

play03:17

いう風な説明をしていましたただこの

play03:20

ミクスチャーオブエージェンツの中での

play03:22

このエージェントの機能っていうのは何か

play03:24

自立的に行うというわけじゃなくて単純に

play03:27

え言語モデルのことをエージェントという

play03:29

風に呼んでように思いますまなのでえ

play03:31

いろんな言語モデルを組み合わせる技術が

play03:34

このミクスチャーオブエイジェンツだと

play03:35

いう風に思ってもらうといいと思います

play03:38

はいそうするとですね次はま言語モデルを

play03:41

組み合わせるってんだという風に思います

play03:43

よねでミクスチャーオブエージェンツって

play03:45

いう風に聞くとまなんかすごそうだなって

play03:46

いう風に感じると思うんですけどもやっ

play03:48

てることはですねえすごく単純で複数の

play03:51

言語モデルを使って回答を生成した後にえ

play03:54

全ての回答を統合するということを

play03:56

繰り返しをかっていますでよく分からない

play03:58

と思いますので例を使って説明すると

play04:01

例えばですねえユーザーがえ何か入力した

play04:04

としますでそうするとえ今3つの異なる

play04:07

言語モデルが定義されてるのでこの言語

play04:09

モデルたちがですねえそれぞれ回答を生成

play04:11

します今みんなですねペラペラペラという

play04:14

風に回答してるんですけどもこの3つは

play04:16

ですね違う言語モデルを使ってるのでこの

play04:18

回答される文章もえ3つとも違う文章が

play04:21

生成されるとえそんなイメージですで次に

play04:24

この3つの異なる文章をえ1つの文章に

play04:27

結合しますこれ単純にですねこの3つの

play04:30

文章を結合してその上にですねえ何かしら

play04:33

のプロンプトを書きますそうするとま1つ

play04:35

の文章がえ出来上がるので次はこの文章を

play04:39

またですね複数の言語モデルに入力すると

play04:41

えそういった流れになりますでそうすると

play04:45

先ほどと同じようにえ3つの異なる文章が

play04:47

生成されますでこういう風に生成されたら

play04:50

えまた同じようにですね1つのプロンプト

play04:52

に結合してえそれをまた違う言語モデルに

play04:55

入れてくとこういったプロセスをですねえ

play04:57

何回か繰り返すことで文章の質を向上させ

play04:59

てくというのがミクスチャーオブ

play05:01

エイジェンツでやってることの中身になっ

play05:03

ていますで何回か繰り返した後に最後に

play05:06

出力する前に1つの言語モデルを使ってえ

play05:08

文章を統合するということが中で行われて

play05:11

いますで論文とかで見ると難しそうに

play05:13

感じるんですけども実際やってることとし

play05:15

てはですね結構単純かなという風に思い

play05:17

ますはい簡単にえミクスチャーオブ

play05:20

エイジェンツを紹介してきたんですけども

play05:22

皆さんどういう風に感じたでしょうか

play05:24

いろんな言語モデルを使ってえ文章を生成

play05:27

した後にまその文章を結合してまた

play05:29

いろんな言語モデルに入れるということを

play05:31

繰り返すことによってま精度が上がると

play05:33

いうのがこのミクスチャーオブ

play05:34

エイジェンツなんですけども弱点は何だと

play05:37

思います

play05:38

かはいそうですねえスピードになりますで

play05:42

これ何回もですね繰り返し言語モデルを

play05:44

実行する必要があるのでその回数分ですね

play05:47

え時間がかかってしまうというところが

play05:49

デメリットとして上げられるかと思います

play05:52

あとはたくさん言語モデルを使っていくの

play05:54

でまコストが上がってしまうとかそういっ

play05:56

たデメリットがあるかと思いますはいで

play05:59

コストにに関してはまどうしようもない

play06:00

ところもあるんですけどもはいスピードが

play06:02

欲しいという時にですね私たちが頼れる

play06:05

サービスとは何でしょう

play06:07

かはいそうですえグロックというサービス

play06:10

になりますグロックって初めて聞いたと

play06:13

いう人はですね以前のこちらの動画で紹介

play06:15

してるので是非見てもらえればと思うん

play06:17

ですけどもグロックはですねえ簡単に言う

play06:19

と恐ろしく早いスピードでえ文章を生成

play06:22

することができるサービスになっています

play06:24

でこの会社はですねえ独自のAIのチップ

play06:27

を開発していてえ言語モデルを高速に

play06:30

動かすことができますまなのでこの

play06:33

グロックのサービスとAIエージェントの

play06:35

組み合わせっていうのはかなり相性がいい

play06:37

ですミクスチャーオブエージェンツに限ら

play06:39

ず基本的にAIを使ったエージェントって

play06:42

いうのは繰り返し処理を行うことが多いん

play06:44

ですよね繰り返し処理を行うってことは

play06:47

回答を生成するまでのえ時間がかかって

play06:49

しまうとつまりユーザーの体験が悪くなっ

play06:52

てしまうんですけどもこのグロックを使う

play06:54

ことでかなり解消できますでここら辺の

play06:57

使用価に関してはこの後実際に

play06:59

ミクスチャーオブエンツ使ってみるので

play07:01

その時に見ていきたいと思いますこの

play07:03

ミクスチャーオブエージェンツを使うこと

play07:04

でえどれぐらい精度が上がるのかというの

play07:06

は気になると思いますので続いてそちらを

play07:09

見ていこうと思いますはいこちらですね

play07:12

TOGAIの公式のページになっています

play07:14

TOGMOAというところでえ論文の中身

play07:18

のえ要点がまとめられていますえこちらが

play07:21

ですねえミクスチャーオブエイジェンツの

play07:23

え構造になっていますえスライドの中では

play07:25

え3つの言語モデルいたと思うんですけど

play07:27

もそれがこの水色と赤とと黄色のモデルと

play07:30

いうことですね左からえユーザーの入力が

play07:33

入ってきたらえそれぞれのモデルの入力と

play07:35

して使われてま文章が生成されるとえその

play07:38

文章とえユーザーの入力文を結合して次の

play07:42

言語モデルに入れるということをやって

play07:43

ますこれ今ですねえレイヤーが4つあるん

play07:46

ですけどもレイヤー1から3まではえ3つ

play07:49

の言語モデルを使って繰り返し文章を生成

play07:52

しています最後のえレイヤー4の部分で

play07:55

言語モデルが使われてえ文章を統合して

play07:57

アウトプットするとえ流れになっています

play08:00

で論文とかでですねこういった図を見ると

play08:03

なんか難しそうだなという風に思うんです

play08:05

けども先ほどスライドで説明したように

play08:07

このなる言語モデルを使ってま文章を

play08:09

繰り返し生成してるというところで理解

play08:12

できるかなという風に思いますでこれを

play08:14

やるとですねえどうなるのかというところ

play08:16

なんですけどもオープンソースのえ言語

play08:18

モデルを使った時に65.1というスコア

play08:22

が出てそれがですねGPT4オムニの

play08:25

57.5を超えてるというので注目されて

play08:28

いますはいで下の方ですね見ていきますと

play08:32

細かい実験結果がこちらに書かれていて

play08:34

いろんなオープンソースのモデルでえ

play08:36

シングルモデルの場合と複数の言語モデル

play08:39

を組み合わせた場合で比較されていてえ

play08:41

全ての言語モデルでですねいろんなモデル

play08:43

を組み合わせるとえ精度が上がってると

play08:45

いうのが分かるかと思いますえさらに

play08:47

ポイントとしてはですね組み合わせる文章

play08:50

をえ生成するモデルのえ性能がですね低い

play08:53

としてもまより良い回答を生成する傾向が

play08:55

あるということが書かれていてつまりえ

play08:58

性能が低いモデルが生成した文章でも

play09:01

いろんな文章を使うとですねえ性能が良く

play09:03

なるよということを言っていますまなので

play09:06

これまでですね性能が1番じゃないモデル

play09:08

はえ使い道がないなという風に思ってたん

play09:11

ですけどもそういったモデルの出力でも

play09:13

このミクスチャーオブエイジェンツの構造

play09:14

を使うことで精度を上げるのに使えるかも

play09:17

しれないということが言えるかと思います

play09:19

はいでもうちょっとですね下の方行って

play09:22

細かい実験結果を見ていきますはいこちら

play09:25

ですねえミクスチャーオブエイジェンツで

play09:27

使うモデルを色々書いた場合にえ性能が

play09:29

どうなってくのかというのを見ていますで

play09:32

どういうことかと言うとですねこの

play09:35

ミクスチャーオブエイジェンツの構造でえ

play09:37

どこが1番大事かというところなんです

play09:38

けども当然ですねえこの1番最後に統合

play09:41

する部分ですねこのモデルの性能がま

play09:44

かなり重要そうというのがなんとなく

play09:46

イメージできるかと思いますえ例えば

play09:48

GPT4オニとかそういった強いモデルを

play09:50

使ってみた場合とかまあとはオープン

play09:52

ソースのモデルを使ってみた場合とかそう

play09:54

いった場合でまどれくらい性能が変わるの

play09:56

かというのを実験していますはいで1番上

play10:00

がですねこのqenというんですかねこれ

play10:02

の1.5のえ110ビリオンの

play10:04

パラメーターを持つモデルをですね最後の

play10:06

集約のモデルとして使うとえこの

play10:09

Lightの方だと72ビリオンのモデル

play10:11

をえ最後の集約として使うとでこのGPT

play10:14

4オムニだとま最後にGPT4オムニを

play10:17

使ってくとそういった条件で比較をしてい

play10:19

ますで評価としてはえGPT4ターボと

play10:23

比較してどちらが良い回答をできるのかと

play10:25

いうのを比較した時のえ勝率が載ってい

play10:28

ますこれを見見るとですね2つスコアが

play10:30

あってこのLCっていうのが文章の長さに

play10:33

よるえバイアスを取り除いたというものに

play10:35

なっていますえ言語モデルの性能を評価

play10:38

する時にですね文章が長いと有利なスコア

play10:40

をつけてしまうというバイアスがあるん

play10:42

ですけどもえその影響を取り除いたスコア

play10:45

になっていますつまりまより信憑性が高い

play10:48

ということですねでこれ見るとえ最後に

play10:51

GPT4オムニを使ってえ集約した場合

play10:54

ですねミクスチャーオブエイジェンツでは

play10:56

え65.7%の勝率で勝てますよと一方

play11:00

ですねこのGPT4オニの場合は57.5

play11:03

なので明確にえこのミクスチャーオブ

play11:06

エイジェンツの方が性能が高いというのが

play11:08

分かりますでGPT4オムニを使わずに

play11:11

オープンソースのモデルだけを使ったとし

play11:13

ても勝率が65.1ということでえこれも

play11:17

ですねGPT4オムニを超えています

play11:20

オープンソースのモデルを組み合わせる

play11:22

ことでこのGPT4オムニを超えられると

play11:24

いうのはえ結構夢がある話かなという風に

play11:27

思うんですけども皆さんどういう風に思い

play11:28

ますか

play11:29

で下の方見てくとですねオープンソースの

play11:32

モデル単体を使ったとしても全然GPT4

play11:34

ターボには勝てないというところが出てる

play11:36

のでこのミクスチャーオブエージェンツの

play11:38

有効性というのが分かるかと思いますはい

play11:41

その他ですねま別のテストとしてMT

play11:44

ベンチと言われるえ評価方法でもスコアが

play11:47

算出されていますまただこっちはですね

play11:49

GPT4OMの方がターボとかよりもま

play11:52

精度が低かったりしてま若干ですねえ信頼

play11:55

できないところはあったりするんですけど

play11:56

もえこちらのテストでもですね最後に

play11:59

GPT4オニを使ったミクスチャーオブ

play12:01

エイジェンツがま1番高いスコアを出し

play12:03

てるという感じになっていますでこのMT

play12:06

ベンチはですね問題がですね簡単すぎて

play12:08

ですね正しくスコアがつけにくいという

play12:10

状態になってきてるみたいですはいその他

play12:14

ですねえこのフラスクというものですかね

play12:17

こちらでもですねこのミクスチャーオブ

play12:18

エイジェンツのスコアとGPT4オムニと

play12:21

かとの比較がされていますでこれレイヤー

play12:24

ごとのえスコアの違いを表してるんです

play12:26

けどもこの繰り返し処理を行う時のえ回数

play12:28

をですですねえどれぐらいに設定すれば

play12:31

精度が良くなるのかというのを実験してい

play12:34

ますでこれを見るとですねえこのレイヤー

play12:37

3ぐらいでまさってきてるので3回くらい

play12:40

の繰り返しで十分だということが分かり

play12:42

ますはいあとはですねえモデルの多様性を

play12:45

増やした時にスコアがどうなるのかという

play12:48

のを見ていたりとかえコスパが良くなる

play12:51

レイヤーとかは何個なのかとかえそういっ

play12:53

たところがまとめられていますえここら辺

play12:55

ですね詳しく知りたい方は論文の方にも

play12:57

載ってますので是非見てみてください

play12:59

はいそれではですねまお待たせしましたと

play13:01

いう感じなんですけども実際にですねこの

play13:04

ミクスチャーオブエージェンツを触ってみ

play13:05

たいと思い

play13:08

ますはい今回ですねえグロックを使ったえ

play13:11

ミクスチャーオブエイジェントですねえ

play13:13

実装したいんですけどもえすでに実装され

play13:15

たものが公開されてるのでえこちらを使っ

play13:18

ていきたいと思いますこちらですね

play13:20

ローカル環境でセットアップする方法が

play13:22

書かれてるのでえこちらの手順ドールに

play13:24

設定してえアプリを立ち上げますえ全て

play13:27

Pythonで書かれてるので

play13:29

Python経験ある人はですねえ簡単に

play13:31

セットアップができるかと思いますえ

play13:33

グロックを使うのでグロックのAPIキの

play13:35

設定が必要になってきますはいアプリを

play13:38

立ち上げるとえこんな感じでまstam

play13:41

リッと言ってPythonで書ける

play13:42

フレームワークを使ったWebアプリが

play13:44

立ち上がりますはいmixchオエンツの

play13:47

構造が書かれていて下の方にチャットの

play13:49

入力欄があるのでえまずはですねこちら

play13:52

入力してみましょうはいPythonの

play13:54

勉強方法についてえ日本語でまとめて

play13:56

くださいという風に入力してみます

play13:59

はいそうすると今ですねえグロックの

play14:01

サービスが使われてえ回答が生成されてい

play14:05

ますはいこんな感じでですねグロックだ

play14:07

からすごい早いですねはい今ですね回答が

play14:11

生成し終わりましたでこれ見てくとですね

play14:15

えこんな感じでレイヤー1レイヤー2

play14:17

レイヤー3とで最後に回答が生成されてる

play14:20

という感じですねで今回このエージェント

play14:22

1と2と3ですねえそれぞれ言語モデルを

play14:25

使ってるんですけどもえそれはですねえ

play14:27

どの言語モデルを使ってるかというとえ

play14:30

レイヤー1に関してはRAM3の8Bでえ

play14:33

レイヤー2に関してはGoogleのこの

play14:36

GMA7bというモデルで3つ目がですね

play14:38

このラマ3の8Bのモデルエージェントの

play14:41

位置と同じなんですけどもこのプロンプト

play14:43

の設定がえ微妙に変わっています各

play14:46

レイヤーでですねえこの3つの言語モデル

play14:48

を使ってえ回答を生成しています各

play14:51

レイヤーでのえ言語モデルの出力というの

play14:54

も確認することができてこのエージェント

play14:56

1の出力とエージェント2エージェント3

play14:58

ですねえそれぞれ見ることができます

play15:00

こんな感じでえそれぞれの言語モデルが

play15:02

使われてえ文章が生成されてますねで

play15:05

レイヤー1が終わるとですね続いて

play15:07

レイヤー2にえ文章が渡されてえこれらの

play15:10

文章がまさらに洗練されますはいちょっと

play15:13

これだけ見てもですね洗練具合はえ分かり

play15:15

にくかったりするんですけども文章の質が

play15:17

改善されてるとでまたレイヤー3が使われ

play15:21

てえ文章が生成されていく

play15:24

とで最後にえこの3つの文章を統合してえ

play15:28

生成された章がこちらということになって

play15:30

いますはいこれですね基本的には80億

play15:33

パラメーターのモデル以下しか使ってない

play15:35

のでえそれでもですねこのクオリティで

play15:37

文章を生成できるというところでえ結構

play15:40

すごいのかなという風に思うんですけども

play15:41

皆さんどうでしょうかまよく見てみると

play15:44

このorioの実践とかですねまちょっと

play15:46

分からない単語が出てきてしまったりして

play15:48

てうまくいってないところてのはあるん

play15:50

ですけれども今回8Bのモデルという

play15:53

ところでえそこまで性能が高くないモデル

play15:55

を使ってるのでここら辺はちょっとしょう

play15:57

がないのかなという風に思いますはいただ

play15:59

えグロックのサービスを使うとこんだけ

play16:02

ですねえ文章を生成してるのにかなり高速

play16:04

にえ結果を出力できるのでラマ3.1のえ

play16:07

70Bとかえそういったモデルを使って

play16:09

いけば結構使えるようになってくるんじゃ

play16:11

ないかと思いますえもうちょっと使ってみ

play16:14

ます

play16:15

かはいプログラムを勉強する方法を分かり

play16:19

やすく日本語でまとめてくださいという風

play16:20

に言ってみる

play16:22

とちょっと時間はかかるんですけど

play16:24

もはいこんな感じですねえっと合計で

play16:29

えっと10個のえ出力が行われてるんです

play16:31

けどもえこの速度でできるっていうのはえ

play16:33

グロックならではかなと思いますはい

play16:36

こんな感じでですねえっと文章生成できて

play16:40

ますえ今後ですねこのオープンソースの

play16:43

モデルってのはまどんどん発展してくと

play16:45

思いますのでそうなった時にこういった

play16:47

ミクスチャーオブエージェンツの技術を

play16:48

使って言語モデルを利用していくように

play16:50

なるという可能性は結構あるのかなという

play16:53

風に個人的には感じます皆さんはどういう

play16:55

風に感じたでしょうか是非コメントの方で

play16:58

ですね想とかあれば教えてくださいはい

play17:00

ミクスチャーオブエイジェンツの紹介は

play17:02

以上になりますはいで最後にですねえ宣伝

play17:05

なんですけども私ですねえ今公式LINE

play17:07

の方やってましてえ概要欄から友達登録の

play17:10

方してもらってプレゼントという風に入力

play17:13

してもらえるとdfiとかチャットGPT

play17:15

についてまとめた資料を配布してるので

play17:17

興味がある人は是非見てみてくださいあと

play17:19

はえユミっていうプラットフォームでえ

play17:22

生生エアに関する講座を販売してますので

play17:24

そちらも勉強になると思いますのでもっと

play17:26

生成アについて知りたいという人は是非見

play17:29

てもらえばと思いますはいそれでは本日の

play17:31

動画を終了したいと思いますこの動画が

play17:33

良かったなってに思う人は高評価コメント

play17:35

チャンネル登録の方よろしくお願いします

play17:36

えそれではまた次回の動画でお会いし

play17:38

ましょうバイバイ

Rate This

5.0 / 5 (0 votes)

الوسوم ذات الصلة
AI技術言語モデル性能向上ミックスチャーGPT4オープンソースクラウドサービスTOGAI文章生成繰り返し処理グロック
هل تحتاج إلى تلخيص باللغة الإنجليزية؟