Mixture of AgentsでGPT4oを超えられるらしいので解説してみた
Summary
TLDRこの動画では、言語モデルの性能を高める技術「ミックスチャーオブエイジェンツ」について紹介しています。複数の言語モデルを組み合わせることで生成された文章の質を向上させるというこの技術は、TOGAI社によって開発されました。実際に使った際の感想や、オープンソースのモデルを利用した結果が紹介されています。また、高速で高精度の文章生成が可能とされたグロックサービスとの相性が良かったり、言語モデルの未来についても触れています。
Takeaways
- 😀 ミクスチャーオブエイジェンツ(MOA)は、複数の言語モデルを組み合わせることで生成される文章の質を向上させる技術です。
- 🤖 MOAは、TOGAIという会社が開発し、オープンソースの言語モデルを利用してクラウドサービスを提供しています。
- 📈 MOAの技術は、言語モデルの性能を超える精度を出すことができ、弱いモデルでも協力して強いモデルに勝てる可能性があると示唆しています。
- 🔁 MOAのプロセスは、複数の言語モデルを使って回答を生成し、それらを統合し、繰り返し処理を行うことで文章の質を向上させています。
- ⏱️ MOAのデメリットとして、繰り返し処理が必要で時間がかかることと、多くの言語モデルを使用することでコストがかかることが挙げられます。
- 🚀 グロックというサービスは、MOAと組み合わせることで高速に文章を生成できると示されています。
- 📊 実験結果によると、MOAはオープンソースのモデルを組み合わせることでGPT4オムニを超える精度を持つことが明らかになりました。
- 🌐 MOAの有効性は、モデルの多様性や繰り返し処理の回数、最後の統合に使用するモデルの性能などの要因に影響されます。
- 🔑 最後の統合に使用するモデルの性能は、MOAの結果に大きな影響を与える重要な要素であることが実験から分かります。
- 🛠️ MOAの実装例として、Pythonで書かれたWebアプリを使用して、実際にMOAの機能を体験することができます。
- 🔮 オープンソースの言語モデルの発展に伴い、MOAのような技術が今後の言語モデルの利用方法に大きな役割を果たす可能性があると予想されます。
Q & A
ミクスチャーオブエイジェンツとはどのような技術ですか?
-ミクスチャーオブエイジェンツは、複数の言語モデルを組み合わせることで生成される文章の質を向上させる技術です。異なる言語モデルがそれぞれ回答を生成し、それらの回答を統合することで、より高精度の回答を得ることができます。
TOGAIという会社は何を提供していますか?
-TOGAIはオープンソースの言語モデルをクラウドサービスとして提供しており、これらのモデルを安く利用できるようにしています。
言語モデルの性能を上げるためにはどのようなアプローチがありますか?
-言語モデルの性能を上げるためには、単一の高精度モデルを使用することもできますが、ミクスチャーオブエイジェンツのように複数のモデルを組み合わせることで性能を上げるアプローチもあります。
グロックとはどのようなサービスですか?
-グロックは独自のAIチップを開発し、言語モデルを高速に動かすことができるサービスです。このサービスを使うことで、繰り返し処理による回答生成のスピードが向上し、ユーザー体験が向上することが期待できます。
ミクスチャーオブエイジェンツのデメリットは何ですか?
-ミクスチャーオブエイジェンツのデメリットとして、繰り返し言語モデルを実行する必要があるため、処理に時間がかかることが挙げられます。また、多くの言語モデルを使用するため、コストがかかることもデメリットの一つです。
ミクスチャーオブエイジェンツの有効性はどの程度ですか?
-実験結果によると、オープンソースの言語モデルを組み合わせた場合、GPT4オムニを超える精度を示す結果が出ており、ミクスチャーオブエイジェンツの有効性が高く評価されています。
言語モデルの多様性とは何を指しますか?
-言語モデルの多様性とは、異なる特性や性能を持つ言語モデルを組み合わせることで、生成される文章の多様性や柔軟性を高めることを指します。
ミクスチャーオブエイジェンツの最後の集約に使用されるモデルはどれですか?
-ミクスチャーオブエイジェンツの最後の集約に使用されるモデルは、その性能が非常に重要で、実験ではGPT4オムニや110ビリオンパラメーターを持つモデルなどが使用されています。
言語モデルのレイヤー構造とは何を意味していますか?
-言語モデルのレイヤー構造とは、複数の言語モデルを複数レイヤーにわたって使用し、各レイヤーで回答を生成し、それを次のレイヤーに渡して洗練された回答を得るプロセスを指します。
ミクスチャーオブエイジェンツを使用した際のユーザー体験はどのようになりますか?
-ユーザー体験は、生成される回答の質と生成にかかる時間の両方によって影響を受けます。ミクスチャーオブエイジェンツは高品質の回答を提供できる一方で、繰り返し処理が必要なため、回答生成に時間がかかることがあります。
Outlines
😺 ミクスチャーオブエイジェンツの紹介とその概要
この段落では、ミクスチャーオブエイジェンツ(MOA)という技術について紹介しています。MOAは、複数の言語モデルを組み合わせることで生成される文章の質を向上させる技術であり、TOGAIという会社が開発したものです。この技術は、単一の言語モデルよりも高い精度を持つ可能性があるとされており、実際にはオープンソースのモデルを組み合わせることでGPT4オムニを超える精度を達成しています。
🔧 ミクスチャーオブエイジェンツの実装とそのデメリット
第2段落では、ミクスチャーオブエイジェンツの実装方法とそのデメリットについて説明しています。繰り返し処理が多く必要であるため、実行に時間がかかることがデメリットと指摘されています。また、多くの言語モデルを利用することでコストが高くなることも提到的缺点も触れられています。ただし、グロックというサービスと組み合わせることで、高速な文章生成が可能になるという利点も紹介されています。
📊 ミクスチャーオブエイジェンツの性能比較と実験結果
この段落では、ミクスチャーオブエイジェンツの性能を他の言語モデルと比較した結果が紹介されています。実験結果によると、オープンソースのモデルを組み合わせることでGPT4オムニを超える精度を達成することができ、低い性能のモデルでも良い回答を生成する傾向があることがわかります。また、最後の集約段階で使用するモデルの性能が重要であることが強調されています。
💻 実際にミクスチャーオブエイジェンツを使ってみた感想
最後の段落では、実際にグロックを利用してミクスチャーオブエイジェンツを試してみた感想が共有されています。高速な応答生成に驚きを感じた一方で、生成された文章の品質についても評価しています。ただし、使用したモデルの性能が高くないため、文章に不自然な部分があることも認められています。この技術が今後の言語モデルの利用にどのように影響を与えるかについても考察しています。
Mindmap
Keywords
💡ミクスチャーオブエイジェンツ(Mixture of Agents)
💡言語モデル
💡TOGAI
💡GPT4オムニ
💡ラマ3.1
💡グロック
💡AIエージェント
💡レイヤー
💡オープンソース
💡MTベンチ
Highlights
ミクスチャーオブエイジェンツ(MOA)という技術を紹介し、複数の言語モデルを組み合わせることで生成する文章の質を向上させる方法について解説。
MOAはTOGAIという会社が開発し、オープンソースの言語モデルをクラウドサービスで安く使えるように提供している。
言語モデルの性能向上を目指す人々にとって、MOAの事実を知ることは重要であると述べている。
現在、単体の言語モデルの中で最も精度が高いとされているものはOpenAIのGPT4オムニやCudo3.5のSonaute。
MOA技術は、性能が低いモデルでも協力すれば強いモデルに勝てるという夢を叶える可能性を示している。
MOAの過程は単純で、複数の言語モデルを使って回答を生成し、それらを統合する繰り返しを行う。
MOAのデメリットとして、繰り返し処理が多く必要で時間がかかること、コストがかかることが挙げられる。
グロックというサービスは、MOAと組み合わせることで高速に文章生成することができる。
MOAの構造は、複数の言語モデルを使って繰り返し文章を生成し、最終的に1つのモデルで統合するというもの。
実験結果では、オープンソースの言語モデルを使ったMOAがGPT4オムニを超えるスコアを出していることが示された。
MOAの有効性は、性能が低いモデルでも精度を上げるための使い道があると示唆している。
最後に統合するモデルの性能が重要で、GPT4オムニを使った場合に高い勝率が報告されている。
MOAの繰り返し処理の回数とレイヤーの多様性が精度に与える影響についても実験が行われている。
実装例として、グロックを使ったMOAの実装が公開されており、実際に触ってみることで精度がどれくらい上がるかを確認できる。
実際のMOAを使ったデモンストレーションでは、基本的には80億パラメーター以下のモデルを使ってもクオリティの高い文章が生成されることが示された。
今後、オープンソースのモデルの発展に伴い、MOA技術を活用して言語モデルをさらに効果的に利用する可能性があると予想している。
公式LINEやユミプラットフォームで提供されている関連資料や講座も参考になるため、興味のある人は確認をおすすめしている。
最後に、この動画の評価やコメント、チャンネル登録を呼びかけ、次回の動画でお会いする約束を交える。
Transcripts
はい皆さんこんにちはニャンタですえ本日
はミクスチャーオブエイジェンツについて
話していこうと思いますえミクスチャー
オブエージェンツってですね聞いたことな
でしょうかほとんどの人はないと思うん
ですけどもミチャオエンは複数の言語
モデルを組み合わせることで生成する文章
の質を上げるとえそういった技術になって
いますなのでえ言語モデルの性能を上げて
いきたいという人はですねえこの
ミクスチャーオブエイジェンツという事実
を知っておくと良いと思いますえ現状です
ねえ単体の言語モデルの中でえ最も精度
高いモデルといえばえOpenAIの
GPT4オムニとかえクド3.5の
ソネットというのが上がるかと思います
普段から言語モデルたくさん使ってるよと
いう人はこのどちらかのモデルをメインと
して使ってるという人が多いかと思います
でちなみに私はですね今クド3.5の
ソネットですねこちらを毎日フル活用して
いますでCIの分野は変化が激しいので
新しくて強いモデルというのが続々と出て
きます大体月1回ぐらいでどこかの会社が
世界一性能が高いもをリリースしてゲーム
チェンジが起きてたりしますでただそう
なってくるとま結局1番性能が高いモデル
しか使わないという人がえ多いかと思い
ます先日もえメタ車からえラマ3.1と
いう新しいモデルが登場したんですけども
結局そういったモデルもえGPT4オムニ
とかと比べると精度が低かったりするので
特殊なケースを除いては普段使いはしない
かと思いますなので現状え世界位精度が
高いモデルとかコスパがいいモデルとかえ
そういったモデル以外はあまり使い道がが
ないという状態ですよねでそこで今回紹介
するミクスチャーオブエイジェンツという
技術になっていますでこれは冒頭話した
ように複数の言語モデルを組み合わせる
ことでえ精度を向上させるとえそういった
技術になっていますでこの技術のすごい
ところとしては組み合わせるモデルの性能
が低かったりしてもGPT4オムニとか
ですねえ精度が高いモデルを超えることが
できるとまつまり弱いモデルたちでも協力
すれば強いモデルに勝てるとそんな夢の
ある技術になっていますで本日はこの
ミクスオブエイジェンツがどんな技術なの
かということとま実際に使ってみてですね
どんな感じなのかというのを誰でも分かる
ように解説していきたいと思います最新の
生生AIの動向について知りたいという人
は是非見ていってもらえばと思いますそれ
では早速やっていき
ましょうはい最初にえミクスチャーオブ
エイジェンツですねえ略してMOAという
風に呼ぶみたいなんですけどもこれは何な
のかという話ですでミクチャオブエンツは
toAIという会社が開発した技術になっ
ています皆さんTOGAIという会社知っ
てたでしょうかで私は今回初めて知ったん
ですけどもこのTOGAIは主にオープン
ソースで公開されている言語モデルとかを
安く使えるようにクラウドサービスを提供
しているという会社になっていますで
そんなTOGAIからリリースされたのが
えmixchオブエンツという技術になっ
ていてえこちらの論文でですね詳しく解説
されていますえミクスチャーオエンインハ
ラージランジモデルケイパビリティてこと
でミクスチャーオブエンツで言語モデルの
性能を向上させるという技術になってい
ますでこのミクスチャーオブエイジェンツ
なのでこのエージェントがえ混ざってると
いうのはどういうことなのかという風な
感じかもしれませんでエージェントについ
てはえ以前のこちらの動画で紹介してるん
ですけどもこの動画ではえ自立的に行動
するAIのことをまエージェントですよと
いう風な説明をしていましたただこの
ミクスチャーオブエージェンツの中での
このエージェントの機能っていうのは何か
自立的に行うというわけじゃなくて単純に
え言語モデルのことをエージェントという
風に呼んでように思いますまなのでえ
いろんな言語モデルを組み合わせる技術が
このミクスチャーオブエイジェンツだと
いう風に思ってもらうといいと思います
はいそうするとですね次はま言語モデルを
組み合わせるってんだという風に思います
よねでミクスチャーオブエージェンツって
いう風に聞くとまなんかすごそうだなって
いう風に感じると思うんですけどもやっ
てることはですねえすごく単純で複数の
言語モデルを使って回答を生成した後にえ
全ての回答を統合するということを
繰り返しをかっていますでよく分からない
と思いますので例を使って説明すると
例えばですねえユーザーがえ何か入力した
としますでそうするとえ今3つの異なる
言語モデルが定義されてるのでこの言語
モデルたちがですねえそれぞれ回答を生成
します今みんなですねペラペラペラという
風に回答してるんですけどもこの3つは
ですね違う言語モデルを使ってるのでこの
回答される文章もえ3つとも違う文章が
生成されるとえそんなイメージですで次に
この3つの異なる文章をえ1つの文章に
結合しますこれ単純にですねこの3つの
文章を結合してその上にですねえ何かしら
のプロンプトを書きますそうするとま1つ
の文章がえ出来上がるので次はこの文章を
またですね複数の言語モデルに入力すると
えそういった流れになりますでそうすると
先ほどと同じようにえ3つの異なる文章が
生成されますでこういう風に生成されたら
えまた同じようにですね1つのプロンプト
に結合してえそれをまた違う言語モデルに
入れてくとこういったプロセスをですねえ
何回か繰り返すことで文章の質を向上させ
てくというのがミクスチャーオブ
エイジェンツでやってることの中身になっ
ていますで何回か繰り返した後に最後に
出力する前に1つの言語モデルを使ってえ
文章を統合するということが中で行われて
いますで論文とかで見ると難しそうに
感じるんですけども実際やってることとし
てはですね結構単純かなという風に思い
ますはい簡単にえミクスチャーオブ
エイジェンツを紹介してきたんですけども
皆さんどういう風に感じたでしょうか
いろんな言語モデルを使ってえ文章を生成
した後にまその文章を結合してまた
いろんな言語モデルに入れるということを
繰り返すことによってま精度が上がると
いうのがこのミクスチャーオブ
エイジェンツなんですけども弱点は何だと
思います
かはいそうですねえスピードになりますで
これ何回もですね繰り返し言語モデルを
実行する必要があるのでその回数分ですね
え時間がかかってしまうというところが
デメリットとして上げられるかと思います
あとはたくさん言語モデルを使っていくの
でまコストが上がってしまうとかそういっ
たデメリットがあるかと思いますはいで
コストにに関してはまどうしようもない
ところもあるんですけどもはいスピードが
欲しいという時にですね私たちが頼れる
サービスとは何でしょう
かはいそうですえグロックというサービス
になりますグロックって初めて聞いたと
いう人はですね以前のこちらの動画で紹介
してるので是非見てもらえればと思うん
ですけどもグロックはですねえ簡単に言う
と恐ろしく早いスピードでえ文章を生成
することができるサービスになっています
でこの会社はですねえ独自のAIのチップ
を開発していてえ言語モデルを高速に
動かすことができますまなのでこの
グロックのサービスとAIエージェントの
組み合わせっていうのはかなり相性がいい
ですミクスチャーオブエージェンツに限ら
ず基本的にAIを使ったエージェントって
いうのは繰り返し処理を行うことが多いん
ですよね繰り返し処理を行うってことは
回答を生成するまでのえ時間がかかって
しまうとつまりユーザーの体験が悪くなっ
てしまうんですけどもこのグロックを使う
ことでかなり解消できますでここら辺の
使用価に関してはこの後実際に
ミクスチャーオブエンツ使ってみるので
その時に見ていきたいと思いますこの
ミクスチャーオブエージェンツを使うこと
でえどれぐらい精度が上がるのかというの
は気になると思いますので続いてそちらを
見ていこうと思いますはいこちらですね
TOGAIの公式のページになっています
TOGMOAというところでえ論文の中身
のえ要点がまとめられていますえこちらが
ですねえミクスチャーオブエイジェンツの
え構造になっていますえスライドの中では
え3つの言語モデルいたと思うんですけど
もそれがこの水色と赤とと黄色のモデルと
いうことですね左からえユーザーの入力が
入ってきたらえそれぞれのモデルの入力と
して使われてま文章が生成されるとえその
文章とえユーザーの入力文を結合して次の
言語モデルに入れるということをやって
ますこれ今ですねえレイヤーが4つあるん
ですけどもレイヤー1から3まではえ3つ
の言語モデルを使って繰り返し文章を生成
しています最後のえレイヤー4の部分で
言語モデルが使われてえ文章を統合して
アウトプットするとえ流れになっています
で論文とかでですねこういった図を見ると
なんか難しそうだなという風に思うんです
けども先ほどスライドで説明したように
このなる言語モデルを使ってま文章を
繰り返し生成してるというところで理解
できるかなという風に思いますでこれを
やるとですねえどうなるのかというところ
なんですけどもオープンソースのえ言語
モデルを使った時に65.1というスコア
が出てそれがですねGPT4オムニの
57.5を超えてるというので注目されて
いますはいで下の方ですね見ていきますと
細かい実験結果がこちらに書かれていて
いろんなオープンソースのモデルでえ
シングルモデルの場合と複数の言語モデル
を組み合わせた場合で比較されていてえ
全ての言語モデルでですねいろんなモデル
を組み合わせるとえ精度が上がってると
いうのが分かるかと思いますえさらに
ポイントとしてはですね組み合わせる文章
をえ生成するモデルのえ性能がですね低い
としてもまより良い回答を生成する傾向が
あるということが書かれていてつまりえ
性能が低いモデルが生成した文章でも
いろんな文章を使うとですねえ性能が良く
なるよということを言っていますまなので
これまでですね性能が1番じゃないモデル
はえ使い道がないなという風に思ってたん
ですけどもそういったモデルの出力でも
このミクスチャーオブエイジェンツの構造
を使うことで精度を上げるのに使えるかも
しれないということが言えるかと思います
はいでもうちょっとですね下の方行って
細かい実験結果を見ていきますはいこちら
ですねえミクスチャーオブエイジェンツで
使うモデルを色々書いた場合にえ性能が
どうなってくのかというのを見ていますで
どういうことかと言うとですねこの
ミクスチャーオブエイジェンツの構造でえ
どこが1番大事かというところなんです
けども当然ですねえこの1番最後に統合
する部分ですねこのモデルの性能がま
かなり重要そうというのがなんとなく
イメージできるかと思いますえ例えば
GPT4オニとかそういった強いモデルを
使ってみた場合とかまあとはオープン
ソースのモデルを使ってみた場合とかそう
いった場合でまどれくらい性能が変わるの
かというのを実験していますはいで1番上
がですねこのqenというんですかねこれ
の1.5のえ110ビリオンの
パラメーターを持つモデルをですね最後の
集約のモデルとして使うとえこの
Lightの方だと72ビリオンのモデル
をえ最後の集約として使うとでこのGPT
4オムニだとま最後にGPT4オムニを
使ってくとそういった条件で比較をしてい
ますで評価としてはえGPT4ターボと
比較してどちらが良い回答をできるのかと
いうのを比較した時のえ勝率が載ってい
ますこれを見見るとですね2つスコアが
あってこのLCっていうのが文章の長さに
よるえバイアスを取り除いたというものに
なっていますえ言語モデルの性能を評価
する時にですね文章が長いと有利なスコア
をつけてしまうというバイアスがあるん
ですけどもえその影響を取り除いたスコア
になっていますつまりまより信憑性が高い
ということですねでこれ見るとえ最後に
GPT4オムニを使ってえ集約した場合
ですねミクスチャーオブエイジェンツでは
え65.7%の勝率で勝てますよと一方
ですねこのGPT4オニの場合は57.5
なので明確にえこのミクスチャーオブ
エイジェンツの方が性能が高いというのが
分かりますでGPT4オムニを使わずに
オープンソースのモデルだけを使ったとし
ても勝率が65.1ということでえこれも
ですねGPT4オムニを超えています
オープンソースのモデルを組み合わせる
ことでこのGPT4オムニを超えられると
いうのはえ結構夢がある話かなという風に
思うんですけども皆さんどういう風に思い
ますか
で下の方見てくとですねオープンソースの
モデル単体を使ったとしても全然GPT4
ターボには勝てないというところが出てる
のでこのミクスチャーオブエージェンツの
有効性というのが分かるかと思いますはい
その他ですねま別のテストとしてMT
ベンチと言われるえ評価方法でもスコアが
算出されていますまただこっちはですね
GPT4OMの方がターボとかよりもま
精度が低かったりしてま若干ですねえ信頼
できないところはあったりするんですけど
もえこちらのテストでもですね最後に
GPT4オニを使ったミクスチャーオブ
エイジェンツがま1番高いスコアを出し
てるという感じになっていますでこのMT
ベンチはですね問題がですね簡単すぎて
ですね正しくスコアがつけにくいという
状態になってきてるみたいですはいその他
ですねえこのフラスクというものですかね
こちらでもですねこのミクスチャーオブ
エイジェンツのスコアとGPT4オムニと
かとの比較がされていますでこれレイヤー
ごとのえスコアの違いを表してるんです
けどもこの繰り返し処理を行う時のえ回数
をですですねえどれぐらいに設定すれば
精度が良くなるのかというのを実験してい
ますでこれを見るとですねえこのレイヤー
3ぐらいでまさってきてるので3回くらい
の繰り返しで十分だということが分かり
ますはいあとはですねえモデルの多様性を
増やした時にスコアがどうなるのかという
のを見ていたりとかえコスパが良くなる
レイヤーとかは何個なのかとかえそういっ
たところがまとめられていますえここら辺
ですね詳しく知りたい方は論文の方にも
載ってますので是非見てみてください
はいそれではですねまお待たせしましたと
いう感じなんですけども実際にですねこの
ミクスチャーオブエージェンツを触ってみ
たいと思い
ますはい今回ですねえグロックを使ったえ
ミクスチャーオブエイジェントですねえ
実装したいんですけどもえすでに実装され
たものが公開されてるのでえこちらを使っ
ていきたいと思いますこちらですね
ローカル環境でセットアップする方法が
書かれてるのでえこちらの手順ドールに
設定してえアプリを立ち上げますえ全て
Pythonで書かれてるので
Python経験ある人はですねえ簡単に
セットアップができるかと思いますえ
グロックを使うのでグロックのAPIキの
設定が必要になってきますはいアプリを
立ち上げるとえこんな感じでまstam
リッと言ってPythonで書ける
フレームワークを使ったWebアプリが
立ち上がりますはいmixchオエンツの
構造が書かれていて下の方にチャットの
入力欄があるのでえまずはですねこちら
入力してみましょうはいPythonの
勉強方法についてえ日本語でまとめて
くださいという風に入力してみます
はいそうすると今ですねえグロックの
サービスが使われてえ回答が生成されてい
ますはいこんな感じでですねグロックだ
からすごい早いですねはい今ですね回答が
生成し終わりましたでこれ見てくとですね
えこんな感じでレイヤー1レイヤー2
レイヤー3とで最後に回答が生成されてる
という感じですねで今回このエージェント
1と2と3ですねえそれぞれ言語モデルを
使ってるんですけどもえそれはですねえ
どの言語モデルを使ってるかというとえ
レイヤー1に関してはRAM3の8Bでえ
レイヤー2に関してはGoogleのこの
GMA7bというモデルで3つ目がですね
このラマ3の8Bのモデルエージェントの
位置と同じなんですけどもこのプロンプト
の設定がえ微妙に変わっています各
レイヤーでですねえこの3つの言語モデル
を使ってえ回答を生成しています各
レイヤーでのえ言語モデルの出力というの
も確認することができてこのエージェント
1の出力とエージェント2エージェント3
ですねえそれぞれ見ることができます
こんな感じでえそれぞれの言語モデルが
使われてえ文章が生成されてますねで
レイヤー1が終わるとですね続いて
レイヤー2にえ文章が渡されてえこれらの
文章がまさらに洗練されますはいちょっと
これだけ見てもですね洗練具合はえ分かり
にくかったりするんですけども文章の質が
改善されてるとでまたレイヤー3が使われ
てえ文章が生成されていく
とで最後にえこの3つの文章を統合してえ
生成された章がこちらということになって
いますはいこれですね基本的には80億
パラメーターのモデル以下しか使ってない
のでえそれでもですねこのクオリティで
文章を生成できるというところでえ結構
すごいのかなという風に思うんですけども
皆さんどうでしょうかまよく見てみると
このorioの実践とかですねまちょっと
分からない単語が出てきてしまったりして
てうまくいってないところてのはあるん
ですけれども今回8Bのモデルという
ところでえそこまで性能が高くないモデル
を使ってるのでここら辺はちょっとしょう
がないのかなという風に思いますはいただ
えグロックのサービスを使うとこんだけ
ですねえ文章を生成してるのにかなり高速
にえ結果を出力できるのでラマ3.1のえ
70Bとかえそういったモデルを使って
いけば結構使えるようになってくるんじゃ
ないかと思いますえもうちょっと使ってみ
ます
かはいプログラムを勉強する方法を分かり
やすく日本語でまとめてくださいという風
に言ってみる
とちょっと時間はかかるんですけど
もはいこんな感じですねえっと合計で
えっと10個のえ出力が行われてるんです
けどもえこの速度でできるっていうのはえ
グロックならではかなと思いますはい
こんな感じでですねえっと文章生成できて
ますえ今後ですねこのオープンソースの
モデルってのはまどんどん発展してくと
思いますのでそうなった時にこういった
ミクスチャーオブエージェンツの技術を
使って言語モデルを利用していくように
なるという可能性は結構あるのかなという
風に個人的には感じます皆さんはどういう
風に感じたでしょうか是非コメントの方で
ですね想とかあれば教えてくださいはい
ミクスチャーオブエイジェンツの紹介は
以上になりますはいで最後にですねえ宣伝
なんですけども私ですねえ今公式LINE
の方やってましてえ概要欄から友達登録の
方してもらってプレゼントという風に入力
してもらえるとdfiとかチャットGPT
についてまとめた資料を配布してるので
興味がある人は是非見てみてくださいあと
はえユミっていうプラットフォームでえ
生生エアに関する講座を販売してますので
そちらも勉強になると思いますのでもっと
生成アについて知りたいという人は是非見
てもらえばと思いますはいそれでは本日の
動画を終了したいと思いますこの動画が
良かったなってに思う人は高評価コメント
チャンネル登録の方よろしくお願いします
えそれではまた次回の動画でお会いし
ましょうバイバイ
5.0 / 5 (0 votes)