groqとLlama3を合わせて爆速チャットボットを作ってみた

にゃんたのAI実践チャンネル
26 Apr 202414:56

Summary

TLDRこの動画では、最近話題のRAM3という言語モデルと、グロックというサービスを使用して簡易的なチャットボットを作成し、その使い方と特徴を解説しています。RAM3はオープンで公開されたモデルで、外部情報漏洩のリスクがなく、GPUが必要なため自力で動かすのは大変ですが、グロックを使うと無料で簡単にRAM3のモデルを利用できます。グロックは言語モデルを動かすためのAIチップを開発しており、RAM3の70Bモデルを動かした時の速度と価格の関係を示した図を紹介。また、RAM3の400Bモデルが今後登場すると予想されており、その性能が高くなりそうだと言っています。最後に、グロックのAPIを使って作成したチャットボットのデモンストレーションも行われ、実際に使った際の高速な応答生成と自然な文章生成が紹介されています。

Takeaways

  • 🌟 RAM3という新しい言語モデルがリリースされており、8Bモデルと70Bモデルの2つのバージョンが存在します。
  • 📈 RAM3の70Bモデルは、GoogleのJemiPro1.5やCerebrasのSOMNETと比較して同等の性能を持っています。
  • 🚫 RAM3はオープンで公開されているものの、使用には制限があり、独自のAIモデルを提供する場合は「RAM3」という接頭辞をつける必要があります。
  • 🔒 RAM3のモデルを使用する際には、情報漏洩のリスクがなくなります。これは企業で情報漏洩を避けたい場合に非常に有用です。
  • 💻 RAM3のモデルを自前で動かすには、多くのGPUリソースが必要とされますが、Groqというサービスを使うと簡単にRAM3のモデルを使用できるとのことです。
  • ⏱️ Groqは、言語モデルを高速で動かすためのAIチップを開発しており、RAM3の70Bモデルを動かす際の速度と価格のバランスが優れています。
  • 📊 RAM3の70Bモデルを使用する際には、レートリミットと文字数の制限があるため、サービスとして提供する際には注意が必要です。
  • 🔍 RAM3の400Bモデルも学習が進んでおり、今後のリリースでさらに性能が向上すると期待されています。
  • 📝 RAM3のモデルは日本語の性能についてはまだ評価されていないため、今後のアップデートで期待できるとのことです。
  • 🤖 GroqのAPIを使ってRAM3を搭載した無料のチャットボットを作成することができ、その使用方法が簡単に説明されています。
  • 📚 RAM3の登場により、オープンソースの言語モデルのファインチューニングが今後のトレンドになりそうであり、その方法についても解説したいとの意気込みが示されています。

Q & A

  • RAM3とはどのような言語モデルですか?

    -RAM3は、メタ車からリリースされた言語モデルで、非常に高性能であり、海外で大きな注目を集めています。オープンで公開されているため、自分のパソコンにダウンロードして自由に使用することが可能です。

  • RAM3の8Bモデルと70Bモデルの違いは何ですか?

    -RAM3の8Bモデルは80億のパラメーターを持ち、70Bモデルは700億のパラメーターを持つ、それぞれ異なるサイズのモデルです。8Bモデルはパラメーター数が少なく、70Bモデルよりも生成速度が早くなります。

  • グロックとは何ですか?

    -グロックは、言語モデルを動かすためのAIチップを開発している会社です。グロックのサービスを使うことで、非常に高速に言語モデルを動かすことができ、RAM3のモデルを無料で簡単に使用することができます。

  • RAM3のオープンソース性に関して疑問がある場合はどうすればよいですか?

    -RAM3はオープンソースと呼ばれていますが、使用には様々な制限があります。詳しい情報はRAM3の規約を確認するか、オープンソースに詳しい方に相談することが推奨されます。

  • グロックのAPIを使ってチャットボットを作成する際の注意点は何ですか?

    -グロックのAPIを使ってチャットボットを作成する際には、レートリミット、利用回数の制限、処理できる文字数の制限があることに注意する必要があります。これらの制限により、サービスとして提供する際には制約がかかることがあります。

  • RAM3の400Bモデルとは何ですか?

    -RAM3の400Bモデルは、70Bモデルよりもさらに大きなサイズのモデルで、現在学習中です。4月15日のチェックポイントの結果を見ると、非常に高精度の結果が得られているため、今後の開発に期待が寄せられています。

  • RAM3の70Bモデルが他のモデルと比較してどのような性能を持っていますか?

    -RAM3の70Bモデルは、GoogleのJemiPro1.5やCerebrasのSOMNETというモデルと比較して、ほぼ同じレベルの性能を持っています。これらのモデルは現在、非常に強力な言語モデルであり、RAM3が同じレベルの性能を持つことが示唆されています。

  • RAM3の日本語での性能はどうですか?

    -RAM3は主に英語で学習されたモデルであり、日本語での性能は英語と比べて変わってくる可能性があります。ただし、RAM3の開発者によると、今後のアップデートでマルチモーダルや多言語対応のモデルが登場すると予想されており、日本語を含む他の言語での性能向上が期待されています。

  • グロックのAPIを使って作成したチャットボットはどのように動作しますか?

    -グロックのAPIを使って作成したチャットボットは、ユーザーの入力に対してリアルタイムで応答を生成します。ストリーミング処理によって、文章が少しずつ生成されるとすぐに表示されるため、ユーザーは即座に応答を受け取ることができます。

  • RAM3の8Bモデルと70Bモデルを比較して、どちらが優れていますか?

    -RAM3の8Bモデルはパラメーター数が少なく、生成速度が早い反面、70Bモデルよりも文章の生成が単調になる可能性があります。70Bモデルはパラメーター数が多く、より自然な文章を生成できる反面、生成速度が遅くなる可能性があります。どちらを選ぶかは、用途によって異なるため、ユーザーの要件によって選ぶべきです。

  • RAM3の400Bモデルがリリースされた場合、どのような影響を与えるでしょうか?

    -RAM3の400Bモデルがリリースされた場合、より高精度で自然な文章を生成できるため、言語モデルの標準がさらに向上すると予想されます。また、チャットボットや自動文章生成アプリケーションの質が向上し、より多くの人々がグロックのようなサービスを利用するようになる可能性があります。

Outlines

00:00

🤖 RAM3とGrooveのAPIを使ったチャットボット開発

この段落では、RAM3という言語モデルを使用して開発された簡単なチャットボットについて説明されています。RAM3はオープンで公開されているモデルであり、GPUを必要とせずにGrooveというサービスを使って簡単に利用できるとされています。Grooveは文章生成が非常に高速なサービスで、APIを通じてプログラムから実行できるとされています。また、RAM3の8Bモデルと70Bモデルの性能についても触れられており、GoogleのJemiPro1.5やCL3のソネットと比較してほぼ同等の性能を持っているとされています。ただし、RAM3はまだ英語で学習されたモデルであり、日本語での性能は変わる可能性があるとされています。

05:00

📈 RAM3のオープンソース性とGrooveのサービス紹介

RAM3のオープンソース性とGrooveのサービスについて詳しく説明されています。RAM3はオープンソースでありながら、使用する際にはRAM3という名前をつけるなどの規約があります。また、商用利用の場合もメタ社からのライセンスが必要とされています。GrooveはAIチップを開発している会社で、言語モデルを高速で動かすことができるサービスを提供しています。RAM3の70Bモデルを動かした時の速度と価格の関係についても触れられており、他のサービスよりも高速で安価であることが示されています。

10:01

🚀 RAM3の400BモデルとGroove APIを使ったチャットボットの実例

最後の段落では、RAM3の400Bモデルがリリースされた場合の期待と、GrooveのAPIを使って作成された簡単なチャットボットの実例が紹介されています。RAM3の8Bモデルと70Bモデルを使って、ユーザー入力に対して迅速に返答ができる様子が説明されています。また、コードの一部も紹介されており、100行程度のコードでチャットボットを作成することができるとされています。最後に、RAM3のインパクトとオープンソースのモデルをファインチューニングしていく可能性についても触れられています。

Mindmap

Keywords

💡RAM3

RAM3は、最近発表された言語モデルで、8Bと70Bの2つのモデルがあります。8Bは80億のパラメーターを持ち、70Bは700億のパラメーターを持つ大規模なモデルです。このモデルはオープンで公開されており、外部の情報漏洩リスクがなく、自由にダウンロードして使用することができます。RAM3は非常に高性能であり、海外では高い評価を受けていますが、日本語の性能についてはまだ英語モデルと比較して評価されていません。

💡グロック

グロックは、言語モデルを動かすためのAIチップを開発している会社です。グロックのサービスを使うことで、RAM3などの言語モデルを効果的に使用することができ、特にRAM3の70Bモデルを動かす際の速度と価格のバランスが優れています。グロックは現在、RAM3のAPIを無料で提供しており、簡単にチャットボットを作成することができます。

💡オープンソース

オープンソースとは、自由に使用し、改変、再配布ができるソフトウェアのことです。RAM3はオープンソースモデルと呼ばれていますが、RAM3の規約ではいくつかの制限が設けられています。たとえば、RAM3をベースにした新たなAIモデルを提供する場合は、その名前にRAM3という単語をつける必要があります。また、商用利用についてはメタ社からのライセンスが必要な場合があるなど、オープンソースという呼称には疑問が残ります。

💡API

APIとは、アプリケーションプログラミングインターフェースの略で、プログラムから利用できる機能を提供するインターフェースのことです。グロックのAPIを使えば、プログラムからRAM3モデルを実行することができます。これにより、簡単にチャットボットなどのアプリケーションを開発することが可能になります。

💡チャットボット

チャットボットとは、人間と会話ができるように作られた自動化されたシステムです。この视频中では、グロックのAPIを使ってRAM3モデルを搭載した簡単なチャットボットを作成しています。チャットボットは、ユーザーの入力に対して自然な文章を生成し、対話することができます。

💡パラメーター

パラメーターとは、モデルが学習する際に調整する値のことで、言語モデルの性能には大きな影響を与えます。RAM3の8Bモデルは80億、70Bモデルは700億のパラメーターを持ち、それぞれ異なる性能を発揮します。パラメーターが多いほど、モデルは複雑な学習が可能ですが、計算コストも高くなります。

💡情報漏洩

情報漏洩とは、意図しない情報の漏れを指します。企業などで言語モデルを使用する際には、企業の機密情報や顧客情報などが漏洩するリスクがあります。RAM3モデルはオープンで公開されており、外部に情報漏洩しないという利点があります。

💡GPU

GPUとは、グラフィックプロセッシングユニットの略で、画像や動画の処理に特化したコンピュータチップです。言語モデルを動かすためには、大量の計算が必要であり、GPUがその計算を効率的に行うために使用されます。RAM3モデルを自前で動かす場合は、多くのGPUが必要なため、手間やコストがかかります。

💡ファインチューニング

ファインチューニングとは、既存の学習済みモデルに対して、さらに細かく調整することで特定のタスクに適したモデルを作成する手法です。オープンソースのRAM3モデルをファインチューニングすることで、より専門的なタスクや言語に適したモデルを開発することができます。

💡ストリーミング

ストリーミングとは、データや情報を一度に全て提供するのではなく、徐々に提供することで、リアルタイムでの処理や表示が可能になる手法です。チャットボットの応答生成で使用され、文章を少しずつ生成しながら表示することで、ユーザーへの即時のフィードバックが可能になります。

💡プロンプト

プロンプトとは、プログラムやシステムに対して入力を求める指示や、入力欄のデフォルトのテキストのことです。この视频中では、プロンプトとしてユーザーの入力を求め、それを基にチャットボットが応答を生成します。プロンプトの質は、生成される文章の質に大きく影響します。

Highlights

RAM3という原語モデルがリリースされ、海外で高い評価を得ている。

RAM3はオープンで公開されており、個人でダウンロードして自由に使える。

RAM3の使用により、外部への情報漏洩リスクがなくなることが特徴。

RAM3の8Bモデルと70Bモデルの2つのモデルが存在し、それぞれ異なる性能を持っています。

RAM3の70Bモデルは、GoogleのJemi Pro1.5やCL3のソネットと比較して同等の性能を持っている。

RAM3は英語で学習されたモデルであり、日本語の性能については変わってくる可能性がある。

今後、RAM3が提供する多言語対応モデルが登場すると期待されている。

RAM3の400Bモデルも学習が進んでおり、今後のリリースが注目されている。

RAM3のモデルはオープンソースと呼ばれているが、商用利用には制限があり、メタ社のライセンスが必要。

グロックは言語モデルを動かすためのAIチップを開発し、RAM3のモデルを無料で提供している。

グロックのサービスは高速で安価であり、RAM3の70Bモデルを動かす際の速度と価格の関係が優位性を持つ。

グロックのAPIを使えば、RAM3を搭載した無料のチャットボットを作成できる。

RAM3の8Bモデルはパラメーターが小さいため、生成速度が早いが、文章の質は70Bモデルに比べて劣る可能性がある。

RAM3の400Bモデルがリリースされた場合、サービス体験が大きく変わる可能性がある。

簡易的なチャットボットの作成方法が紹介されており、100行程度のコードで実現可能となっている。

ストリーミング処理が行われることで、文章が生成されるごとにすぐに表示されるという特徴がある。

RAM3のリリースは大きなインパクトを持ち、オープンソースのモデルに対するファインチューニングが今後のトレンドになる可能性がある。

公式ラインでGPTとCloud3のプロンプトをまとめた資料が無料で提供されている。

Transcripts

play00:00

えグロックのAPIを使って私が作った

play00:03

簡易的なチャットボットになっています

play00:05

日本について1000文字程度でまとめて

play00:07

くださいという風に入力してみ

play00:10

ますはい皆さんこんにちはニャンタですえ

play00:13

本日はラマ3とグロックでチャットボット

play00:15

開発というところで話していきたいと思い

play00:17

ますえ先日メタ車からえRAM3という

play00:20

原語モデルがリリースされたんですけども

play00:22

え皆さん使ってみたでしょうかでこの

play00:24

RAM3がまかなり性能が高いということ

play00:26

で海外ではかなり盛り上がっていますで

play00:28

性能は高いというに言ってもえOpen

play00:31

AIのGPT4は超えてないというところ

play00:33

なんですけどもえRAM3のモデルはえ

play00:36

オープンで公開されてるモデルになってい

play00:37

ますでオープンで公開されてるって何って

play00:40

ことなんですけどもこれはえ自分の

play00:42

パソコンにラマのモデルをダウウンロード

play00:43

してきて自由に使うことができるという

play00:46

わけですねはいそうすると何が嬉しいのか

play00:48

というとこなんですけどもえ言語モデルを

play00:50

使う時の外部への情報漏洩のリスクが

play00:53

なくなってきます例えばえ会社の中で

play00:56

チットGPT使いたいという風に思ってて

play00:58

も車内の情入れてしまうとえ情報漏洩に

play01:01

なってしまうのでChatGPTの使用が

play01:04

禁止されてるという会社も多いんじゃない

play01:06

かと思います皆さんの会社はどうでしょう

play01:07

か他にもえ言語モデルのサービスを提供し

play01:10

たいなという風に思っててもお客さんの

play01:12

情報を勝手にチャットGPTに入れれる

play01:14

わけにいかないというところでGPT4と

play01:17

かえクド3は使えないとそういった企業も

play01:20

あるかと思いますでそういった場合でもま

play01:22

こういった公開されてるモデルを

play01:24

ダウンロードしてきて使うことができれば

play01:26

外部に情報は漏洩しないので気にせず

play01:28

使えるというわけですねえただえRAM3

play01:31

のモデルをえ自前で動かそうとするとま

play01:33

GPUという効果な機会がたくさん必要に

play01:36

なってきますまなので自力でやろうとする

play01:38

と結構大変なんですけども現在えグロック

play01:41

と呼ばれるサービスを使えば無料で簡単に

play01:44

ラマ3のモデルを使うことができますで

play01:46

このグロックっていうサービスは世界一

play01:48

早く文章を生成することができるサービス

play01:51

になっていて少し前から話題になってい

play01:53

ますで結局グロックを使ってしまうとえ

play01:56

グロックの会社に情報を漏洩してしまう

play01:58

じゃないかというところもあるんですけど

play02:00

もRAM3をえお試しで使ってみて実際に

play02:03

仕事でも使えそうだなっていう風に思っ

play02:05

たら自分でマシンを用意してえRAM3を

play02:07

使うという流れにするといいかもしれませ

play02:09

んでこのグロックのサービスはまAPIと

play02:12

言ってプログラムから実行できるように

play02:14

なってるので本日はえこちらのAPIを

play02:17

使って簡単なチャットボットの方を作って

play02:19

いきたいと思いますでグロックとかラマ3

play02:21

とかそもそも何なのって人もいると思うの

play02:23

で本日はそこら辺も含めてえ誰でもついて

play02:26

いけるように解説していきたいと思います

play02:28

えそれでは早速やっていきましょう

play02:32

はい最初にえ先日発表されたラマ3の

play02:35

モデルについて大事な点をまとめていき

play02:37

ますでここら辺はまちょっと時間が経って

play02:39

しまっていてもう知ってるよって人も多い

play02:41

と思うのでさらっと紹介していきますはい

play02:44

まずえ今回リリースされたのはえRAM3

play02:47

の8Bのモデルとえ70Bのモデル2つの

play02:50

モデルになっていますで8B70Bって何

play02:52

なのってことなんですけどもま8Bって

play02:54

いうのがえ80億のパラメーターを持つ

play02:56

モデルでえ70Bというのがえ700億の

play02:59

パパラメーター持つモデルになっています

play03:01

まつまり小さいモデルと大きいモデルと

play03:03

いうことですねでそれぞれえ左側がえ8B

play03:06

のモデルのテスト結果になっていてで右側

play03:09

が70Bの大きなモデルのテスト結果に

play03:12

なっていますで制度のところが皆さん気に

play03:14

なると思うので右側の70Bのモデルの

play03:16

制度を見てみるとGoogleのjemi

play03:18

PRO1.5とかCL3のソネットという

play03:21

モデルと大体同じくらいの性能になってい

play03:24

ますでjemiPro1.5に関してはえ

play03:26

前回の動画で紹介したんですけども現在

play03:29

Googleが公表してる中で最も強い

play03:31

モデルになっていますでそのレベルの

play03:33

モデルがま今回無料で公開されてるという

play03:36

ところでかなりすごいのかなという風に

play03:38

思いますえただ注意点としてはえ先ほどの

play03:41

結果は英語で評価したスコアになってい

play03:43

ますなので日本語の性能に関してはまた

play03:46

変わってくるということですねで言語

play03:48

モデルはインターネット上のテキスト

play03:51

データを学習に使ってるんですけども今回

play03:53

リリースされたrama3のモデルに関し

play03:55

てはここにもあるように5%程度が英語

play03:58

以外の言語を使ってるということですねま

play04:01

なので大部分が英語で学習されたモデルと

play04:04

いう風になってるので英語での

play04:05

パフォーマンスのレベルとえ同じレベルは

play04:08

期待しないでねという風に書かれています

play04:09

でここら辺は日本人の我々にとってはま

play04:12

ちょっと辛いなってところかもしれない

play04:13

ですねえただえ公表されたブログにはえ

play04:17

今後の予定についても書かれていますこれ

play04:19

を見るとえここに書いてあるんですけども

play04:21

この数ヶ月間の間でマルチモーダルな

play04:23

モデルとか多言語対応したモデルが登場

play04:26

するという風に書かれていますねなので

play04:28

今後おそらくえ日本語でも相当強いモデル

play04:31

というのが登場してくるんじゃないかと

play04:33

いうことが期待できますで今回リリースさ

play04:35

れたモデルをえ日本語に特化してえ追加で

play04:38

学習しようかなっていう風に悩んでる人も

play04:39

結構いると思うんですけどもまた数ヶ月後

play04:42

に多言語対応したすごいモデルが出てくる

play04:44

というところなのでもうちょっと待った方

play04:46

がいいのかなってところで悩ましいところ

play04:48

かもしれませんはいそしてえそれとは別で

play04:51

え今回リリースされた70Bのモデルより

play04:54

もえ数倍大きい400Bのモデルというの

play04:57

も学習してるというのが発表されましたで

play05:00

このモデルはここにも書いてあるように4

play05:02

月15日時点のえチェックポイントの結果

play05:05

という風に書かれていますでチェック

play05:06

ポイントって何だってことなんですけども

play05:08

ニューラルネットワークで何か学習させる

play05:10

時って学習の所々で学習した後の重みって

play05:14

いうのを保存しておきますとど保存する時

play05:16

のタイミングをチェックポイントっていう

play05:18

風に言ったりするんですけども4月15日

play05:20

時点の制度評価ということになりますで

play05:23

見るべき点としてはえ右側のイン

play05:25

ストラクトというところになりますでこの

play05:27

インストラクトっていうのは

play05:28

インストラクタ中にと言って会話に特化さ

play05:31

せて学習させたモデルの結果になってい

play05:33

ますでこのインスタントチューニングした

play05:35

モデルの精度がま非常に高くてこちらは

play05:38

クロード3のオーパスのテスト結果になっ

play05:40

てるんですけどもま上から見てくとラマ3

play05:43

とクロード3のオーパスですね数字を比較

play05:45

してみるとかなり精度が近いというのが

play05:47

分かるかと思いますで先ほども言ったよう

play05:50

にえこれはまだ学習の途中なので完成する

play05:52

とこのクロド3のオーパスとかを超えて

play05:54

くるのかというのはかなり注目度が高く

play05:57

なっていますでこれでもしこのラマ3の

play05:59

モデルがクロード3のオーパスを上回って

play06:01

きたら結構インパクト大きいのかなと思っ

play06:04

ててチャットGPTとかえクロード3を

play06:06

使ってるという人はRAM3の400Bの

play06:09

モデルを使うようになるという風な感じに

play06:10

なるかもしれませんはいそしてえ大事な

play06:13

ポイントとしてRAM3のモデルは

play06:15

オープンソースですよっていう風によく

play06:17

言われてるんですけどもえこれはオープン

play06:19

ソースなのかっていうのは結構疑問に思い

play06:21

ますでオープンソースっていう風に言うと

play06:24

ま自由に使ったりとか自分で改造してえ

play06:27

それを再配布したりとかそういったことが

play06:29

できるとものなんですけどもラマ3の規約

play06:31

を見てみるといろんな縛りが設けられてい

play06:33

ますえ例えばこちらラマ3の規約の1つな

play06:36

んですけどもえRAM3のモデルを使って

play06:39

新しくAIのモデルを作って提供する場合

play06:41

はそのAIのモデルの名前の先頭にえ

play06:44

RAM3という単語をつけてくださいねと

play06:47

いう風に書かれていますまなので今後え

play06:49

このRAM3をベースとしてえいろんな

play06:51

会社が独自のモデルを開発してリリースし

play06:54

てくと思うんですけどもそれらのモデルの

play06:56

名前の戦闘には必ずラマスリートをつけ

play06:58

なきゃいけないというところでラマ3何々

play07:01

というモデルが今後どんどん登場してくと

play07:04

いうことになるかと思いますでこら辺も

play07:06

オープンソースと言っていいのかなって

play07:07

ところもありますし他にも商用利用に関し

play07:10

て月間7億人以上ユーザーがいる場合は

play07:13

メタ社からライセンスを取らないといけ

play07:15

ないという風な条件があったりしますで

play07:17

一般ユーザーからするとまどっちでもいい

play07:19

じゃんっていう風な感じかもしれないん

play07:20

ですけどもこれオープンソースって呼ばれ

play07:22

てるのんでなんだろうという風に疑問を

play07:23

持ってる人もいるかもしれませんでもし

play07:25

オープンソースに詳しいという融資者の方

play07:28

がいらっしゃったらこれってオープンソー

play07:29

スっていう風に言っていいのかとか是非

play07:31

コメントの方で教えていただければ

play07:32

ありがたい

play07:34

ですはい続いてえグロックのサービスに

play07:36

ついても簡単に紹介しておきますで

play07:38

グロックはえ言語モデルを動かすための

play07:41

AIのチップを開発してるという会社に

play07:43

なっていますなので言語モデルを開発し

play07:46

てるというわけじゃなくて言語モデルを

play07:48

動かすための機械を開発してるというわけ

play07:51

ですねでグロックについて詳しく知りたい

play07:53

という人はこちらの動画で色々紹介してる

play07:56

ので是非見てみてくださいでポイントだけ

play07:58

お伝えするとグロックのサービスを使うと

play08:01

世界一早くえ言語モデルを動かすことが

play08:03

できますでこちらはえいろんな会社で今回

play08:06

公表されたえRAM3の70Bのモデルを

play08:09

動かした時の速度と価格の関係を表した図

play08:13

になっています縦軸がえ文章を生成する

play08:16

速度になっていて横軸が値段になってい

play08:19

ますまなので左上に行けば行くほどえ安く

play08:22

て早いとえ右下に行けば行くほど高くて

play08:25

遅いということになりますでいろんな

play08:27

サービスがこの右下の方に位置中で

play08:30

ブロックのサービスはえここに位置してい

play08:32

ますつまり価格的にはこのDEEP

play08:35

インフラというサービスと同じくらい安い

play08:37

とで速度に関しては他の会社のサービスを

play08:40

比較してえ倍くらい早いというのが分かる

play08:43

かと思いますなのでlam3のモデルを

play08:45

使おうとした時に外部のクラウドサービス

play08:47

を使いたいなって場合はこのグロック一択

play08:49

になってくるのかなという風に思います

play08:51

しかもえ今ならなんとえ無料でえrama

play08:54

3のAPIを使うことができますでAPI

play08:57

っていうのはプログラムから言語モを実行

play08:59

することができるというものになってるん

play09:01

ですけども先ほど言ったようにえグロック

play09:03

のモデルを使うと他の会社のAPIと比較

play09:06

してより実用的なのかなという風に思い

play09:08

ますただ注意点としてえレイトリミットと

play09:11

言って利用の回数の制限と処理できる文字

play09:15

数の制限というのがあったりします例えば

play09:17

RAM3の70Bのモデルを使おうとし

play09:20

たら現在だと1分間で30回までしかえ

play09:23

チャットができないとであとはえ処理

play09:25

できる文字数も1分間で9000トークと

play09:28

いう風になっています

play09:29

ここら辺が若干サービスとして提供しよう

play09:32

とするとえネックになってくるんですけど

play09:33

もお試しで使ってみたいという場合であれ

play09:36

ば十分なのかなという風に思いますで今後

play09:39

RAM3の400Bのモデルがリリースさ

play09:41

れてブロックのサービスで使えるように

play09:43

なったら多分多くの人がこちらのサービス

play09:46

を使うようになるんじゃないかなという風

play09:48

に思いますはいということでざっポイント

play09:50

に絞って紹介してきたんですけども皆さん

play09:52

どういう風に思いましたかでさすがに

play09:54

GPT4とかクド3は超えてこない

play09:56

でしょっていう風に思ってたんですけども

play09:58

今回のリリース内容を見てみるとま割と

play10:00

近いうちにメタ車がこれらのモデルを超え

play10:03

て派遣を握るという可能性もあるのかなっ

play10:05

ていう風な感じがしますで個人的には

play10:08

チャットGPTとかクロドとかえ毎月課金

play10:11

していてえ結構出費が重んでるのでメタ車

play10:14

が頑張ってくれたら助かるなという風な

play10:15

感じもしていますはいということで現在

play10:18

グロックのAPIを使えばえこのRAM3

play10:21

を搭載したえ無料のチャットボットっての

play10:23

を作れるので本日はそちらについても紹介

play10:25

していこうと思い

play10:27

ますはいこちらがえグロックのAPIを

play10:30

使って私が作った簡易的なチャットボット

play10:33

になっていますでま使い方は非常に簡単で

play10:36

この左側からモデルを選択します今RAM

play10:39

3のえ8Bのモデルが選択されてるんです

play10:41

けどもえ70Bの方にしてみますかこれの

play10:44

選択した状態でここでチャットを打ちます

play10:47

例えばですねこんにちはていう風に打って

play10:49

みるとこんな感じでめちゃくちゃ早く帰っ

play10:52

てきますグロックのAPIを使ってるので

play10:55

返答がめちゃくちゃ早いですちょっと

play10:57

分かりにくいと思うので日本について

play10:59

1000文字程度でまとめてくださいと

play11:01

いう風に入力してみ

play11:03

ますはいそうするとこんな感じの速度でま

play11:06

今特に早送りはしてないんですけどもえ

play11:09

グロックのAPI使ってるので非常に早く

play11:12

文章が生成できるというのが分かるかと

play11:13

思いますでラマ3のモデルはかなり賢いの

play11:16

で文章としてもえかなり自然なのかなと

play11:19

いう風な感じがしますもう少し何か打って

play11:21

みる

play11:22

とはいPythonの勉強方法を教えて

play11:25

くださいという風に聞いてみるとまこんな

play11:27

感じでかなり早く回答生成してくれます

play11:30

基礎を学ぶ実践する深く学ぶとかですね

play11:33

なかなか回答の質としてもいいんじゃない

play11:35

かなっていう風な感じがしますねはい

play11:36

こんな感じで簡単にチャットができますえ

play11:39

ちょっと8Bの方も見ていきましょうか

play11:41

はいこちらについて

play11:44

も日本について1000文字程度でまとめ

play11:47

てくださいと指示しますはいそうすると

play11:50

70Bのモデルよりもパラメーターが

play11:52

小さいのでさらに生成速度が早くなって

play11:54

ますまちょっと文章としては途中で

play11:56

おかしくなったりとかえ2本はっていうの

play11:59

がが続いたりとか少し単調にはなってるん

play12:01

ですけどもそこそこ自然な文章が生成

play12:03

できると思いますでこの速度でま今後

play12:06

400Bのモデルが提供されるになったら

play12:08

かなり体験として変わってきそうですよね

play12:10

はいこんな感じで使えるのでコードの方も

play12:12

共有しておくのでま興味がある人は是非

play12:14

使ってみてくださいでコードに関してもま

play12:17

本当に簡単に紹介していくんですけども

play12:19

大体100行ぐらいのコードで先ほどの

play12:22

チャットボッを作ることができていますで

play12:24

動作としてはこのメイン関数がえ実行され

play12:27

ていてユーザーの入力をつけていますで

play12:30

その後モデルセレクターということで今回

play12:32

で使用できるモデルを設定しています今2

play12:35

つのモデルを設定してるというわけですね

play12:37

でどちらかのモデルが選ばれたらえそれが

play12:39

セレクティモデルの方に入ってきてえその

play12:42

後メッセージというインスタンスを作成し

play12:44

ていますまこちらに関してはここの実装で

play12:47

システムプロンプトとかユーザーとかAI

play12:49

が生成する文章を保持するためのクラスに

play12:52

なっていますはいでその後ユーザーの

play12:56

インプットがある場合はえこのブロックの

play12:59

APIを使ってメッセージのインスタンス

play13:02

にえユーザーのメッセージを追加してま

play13:04

表示するとえそのメッセージを

play13:06

ディスプレイストリーというメソッドを

play13:08

使ってグロックのAPIでえ文章を生成さ

play13:11

せていますえ若干ここがえ癖があるところ

play13:14

なんですけどもえ回答を生成させる時に

play13:17

先ほども見たようにストリーミングの処理

play13:19

がえ行われていますでストリーミングって

play13:21

のはその一括で返答が全て表示されるん

play13:24

じゃなくてえ少しずつ文章を生成したらえ

play13:27

前から順番にすぐに表示していくという

play13:30

ものになっていますストリーミングがあっ

play13:32

た方が体験としてはいいのかなという風に

play13:34

思うのでレスポンスストリームという

play13:36

ところでえそのストリーミングができる

play13:38

ような関数を作成していますここですねで

play13:41

このメソッドをえディスプレイストリーム

play13:43

の方に渡して先ほど見たような

play13:45

ストリーミング処理ができてるというわけ

play13:47

ですはいちょっとプログラミングやって

play13:48

ない人にとっては何言ってるか分からない

play13:50

という風に思うのでえこの辺にしたいと

play13:52

思うんですけどももし何やってるか分から

play13:54

ないという風になればこのコードを

play13:56

貼り付けてえチャットGPTに聞いて

play13:58

もらえると教えてくれるんじゃないかなと

play14:00

いう風に思います会社とかで技術検証とか

play14:02

やってて使いたいなって人は是非使ってみ

play14:04

てくださいはいでRAM3はま結構

play14:07

インパクト大きいのかなっていう風に思い

play14:08

ますし今後オープンソースのモデルを

play14:10

ファインチューニングしていくっていう

play14:12

ことも結構出てくるんじゃないかなって

play14:14

いう風に感じたのでファインチューニング

play14:15

のやり方とかそういったところも含めて

play14:17

動画にしたいなっていう風に思ってます

play14:19

最後にですね最近え公式ラインの方始めて

play14:23

今ならえ無料でえチッGPTとclod3

play14:26

のプロンプトをまとめた資料をお渡しし

play14:28

てるので是非友達登録の方お願いします

play14:31

プロンプトっていう風に入力してもらえる

play14:32

と自動でプレゼントが送られるように実装

play14:35

していますはい以上で本日の動画を終了し

play14:38

たいと思いますえこの動画良かったなてう

play14:39

人は高評価コメントチャンネル登録の方

play14:41

よろしくお願いしますデミもやってますの

play14:43

で概要欄から見てみてくださいえそれでは

play14:45

また次回の動画でお会いしましょうバイ

play14:46

バイ

play14:48

[音楽]

play14:54

[音楽]

Rate This

5.0 / 5 (0 votes)

Related Tags
RAM3Groqチャットボット言語モデル自然言語API高速生成文章生成オープンソースAI技術
Do you need a summary in English?