groqとLlama3を合わせて爆速チャットボットを作ってみた
Summary
TLDRこの動画では、最近話題のRAM3という言語モデルと、グロックというサービスを使用して簡易的なチャットボットを作成し、その使い方と特徴を解説しています。RAM3はオープンで公開されたモデルで、外部情報漏洩のリスクがなく、GPUが必要なため自力で動かすのは大変ですが、グロックを使うと無料で簡単にRAM3のモデルを利用できます。グロックは言語モデルを動かすためのAIチップを開発しており、RAM3の70Bモデルを動かした時の速度と価格の関係を示した図を紹介。また、RAM3の400Bモデルが今後登場すると予想されており、その性能が高くなりそうだと言っています。最後に、グロックのAPIを使って作成したチャットボットのデモンストレーションも行われ、実際に使った際の高速な応答生成と自然な文章生成が紹介されています。
Takeaways
- 🌟 RAM3という新しい言語モデルがリリースされており、8Bモデルと70Bモデルの2つのバージョンが存在します。
- 📈 RAM3の70Bモデルは、GoogleのJemiPro1.5やCerebrasのSOMNETと比較して同等の性能を持っています。
- 🚫 RAM3はオープンで公開されているものの、使用には制限があり、独自のAIモデルを提供する場合は「RAM3」という接頭辞をつける必要があります。
- 🔒 RAM3のモデルを使用する際には、情報漏洩のリスクがなくなります。これは企業で情報漏洩を避けたい場合に非常に有用です。
- 💻 RAM3のモデルを自前で動かすには、多くのGPUリソースが必要とされますが、Groqというサービスを使うと簡単にRAM3のモデルを使用できるとのことです。
- ⏱️ Groqは、言語モデルを高速で動かすためのAIチップを開発しており、RAM3の70Bモデルを動かす際の速度と価格のバランスが優れています。
- 📊 RAM3の70Bモデルを使用する際には、レートリミットと文字数の制限があるため、サービスとして提供する際には注意が必要です。
- 🔍 RAM3の400Bモデルも学習が進んでおり、今後のリリースでさらに性能が向上すると期待されています。
- 📝 RAM3のモデルは日本語の性能についてはまだ評価されていないため、今後のアップデートで期待できるとのことです。
- 🤖 GroqのAPIを使ってRAM3を搭載した無料のチャットボットを作成することができ、その使用方法が簡単に説明されています。
- 📚 RAM3の登場により、オープンソースの言語モデルのファインチューニングが今後のトレンドになりそうであり、その方法についても解説したいとの意気込みが示されています。
Q & A
RAM3とはどのような言語モデルですか?
-RAM3は、メタ車からリリースされた言語モデルで、非常に高性能であり、海外で大きな注目を集めています。オープンで公開されているため、自分のパソコンにダウンロードして自由に使用することが可能です。
RAM3の8Bモデルと70Bモデルの違いは何ですか?
-RAM3の8Bモデルは80億のパラメーターを持ち、70Bモデルは700億のパラメーターを持つ、それぞれ異なるサイズのモデルです。8Bモデルはパラメーター数が少なく、70Bモデルよりも生成速度が早くなります。
グロックとは何ですか?
-グロックは、言語モデルを動かすためのAIチップを開発している会社です。グロックのサービスを使うことで、非常に高速に言語モデルを動かすことができ、RAM3のモデルを無料で簡単に使用することができます。
RAM3のオープンソース性に関して疑問がある場合はどうすればよいですか?
-RAM3はオープンソースと呼ばれていますが、使用には様々な制限があります。詳しい情報はRAM3の規約を確認するか、オープンソースに詳しい方に相談することが推奨されます。
グロックのAPIを使ってチャットボットを作成する際の注意点は何ですか?
-グロックのAPIを使ってチャットボットを作成する際には、レートリミット、利用回数の制限、処理できる文字数の制限があることに注意する必要があります。これらの制限により、サービスとして提供する際には制約がかかることがあります。
RAM3の400Bモデルとは何ですか?
-RAM3の400Bモデルは、70Bモデルよりもさらに大きなサイズのモデルで、現在学習中です。4月15日のチェックポイントの結果を見ると、非常に高精度の結果が得られているため、今後の開発に期待が寄せられています。
RAM3の70Bモデルが他のモデルと比較してどのような性能を持っていますか?
-RAM3の70Bモデルは、GoogleのJemiPro1.5やCerebrasのSOMNETというモデルと比較して、ほぼ同じレベルの性能を持っています。これらのモデルは現在、非常に強力な言語モデルであり、RAM3が同じレベルの性能を持つことが示唆されています。
RAM3の日本語での性能はどうですか?
-RAM3は主に英語で学習されたモデルであり、日本語での性能は英語と比べて変わってくる可能性があります。ただし、RAM3の開発者によると、今後のアップデートでマルチモーダルや多言語対応のモデルが登場すると予想されており、日本語を含む他の言語での性能向上が期待されています。
グロックのAPIを使って作成したチャットボットはどのように動作しますか?
-グロックのAPIを使って作成したチャットボットは、ユーザーの入力に対してリアルタイムで応答を生成します。ストリーミング処理によって、文章が少しずつ生成されるとすぐに表示されるため、ユーザーは即座に応答を受け取ることができます。
RAM3の8Bモデルと70Bモデルを比較して、どちらが優れていますか?
-RAM3の8Bモデルはパラメーター数が少なく、生成速度が早い反面、70Bモデルよりも文章の生成が単調になる可能性があります。70Bモデルはパラメーター数が多く、より自然な文章を生成できる反面、生成速度が遅くなる可能性があります。どちらを選ぶかは、用途によって異なるため、ユーザーの要件によって選ぶべきです。
RAM3の400Bモデルがリリースされた場合、どのような影響を与えるでしょうか?
-RAM3の400Bモデルがリリースされた場合、より高精度で自然な文章を生成できるため、言語モデルの標準がさらに向上すると予想されます。また、チャットボットや自動文章生成アプリケーションの質が向上し、より多くの人々がグロックのようなサービスを利用するようになる可能性があります。
Outlines
🤖 RAM3とGrooveのAPIを使ったチャットボット開発
この段落では、RAM3という言語モデルを使用して開発された簡単なチャットボットについて説明されています。RAM3はオープンで公開されているモデルであり、GPUを必要とせずにGrooveというサービスを使って簡単に利用できるとされています。Grooveは文章生成が非常に高速なサービスで、APIを通じてプログラムから実行できるとされています。また、RAM3の8Bモデルと70Bモデルの性能についても触れられており、GoogleのJemiPro1.5やCL3のソネットと比較してほぼ同等の性能を持っているとされています。ただし、RAM3はまだ英語で学習されたモデルであり、日本語での性能は変わる可能性があるとされています。
📈 RAM3のオープンソース性とGrooveのサービス紹介
RAM3のオープンソース性とGrooveのサービスについて詳しく説明されています。RAM3はオープンソースでありながら、使用する際にはRAM3という名前をつけるなどの規約があります。また、商用利用の場合もメタ社からのライセンスが必要とされています。GrooveはAIチップを開発している会社で、言語モデルを高速で動かすことができるサービスを提供しています。RAM3の70Bモデルを動かした時の速度と価格の関係についても触れられており、他のサービスよりも高速で安価であることが示されています。
🚀 RAM3の400BモデルとGroove APIを使ったチャットボットの実例
最後の段落では、RAM3の400Bモデルがリリースされた場合の期待と、GrooveのAPIを使って作成された簡単なチャットボットの実例が紹介されています。RAM3の8Bモデルと70Bモデルを使って、ユーザー入力に対して迅速に返答ができる様子が説明されています。また、コードの一部も紹介されており、100行程度のコードでチャットボットを作成することができるとされています。最後に、RAM3のインパクトとオープンソースのモデルをファインチューニングしていく可能性についても触れられています。
Mindmap
Keywords
💡RAM3
💡グロック
💡オープンソース
💡API
💡チャットボット
💡パラメーター
💡情報漏洩
💡GPU
💡ファインチューニング
💡ストリーミング
💡プロンプト
Highlights
RAM3という原語モデルがリリースされ、海外で高い評価を得ている。
RAM3はオープンで公開されており、個人でダウンロードして自由に使える。
RAM3の使用により、外部への情報漏洩リスクがなくなることが特徴。
RAM3の8Bモデルと70Bモデルの2つのモデルが存在し、それぞれ異なる性能を持っています。
RAM3の70Bモデルは、GoogleのJemi Pro1.5やCL3のソネットと比較して同等の性能を持っている。
RAM3は英語で学習されたモデルであり、日本語の性能については変わってくる可能性がある。
今後、RAM3が提供する多言語対応モデルが登場すると期待されている。
RAM3の400Bモデルも学習が進んでおり、今後のリリースが注目されている。
RAM3のモデルはオープンソースと呼ばれているが、商用利用には制限があり、メタ社のライセンスが必要。
グロックは言語モデルを動かすためのAIチップを開発し、RAM3のモデルを無料で提供している。
グロックのサービスは高速で安価であり、RAM3の70Bモデルを動かす際の速度と価格の関係が優位性を持つ。
グロックのAPIを使えば、RAM3を搭載した無料のチャットボットを作成できる。
RAM3の8Bモデルはパラメーターが小さいため、生成速度が早いが、文章の質は70Bモデルに比べて劣る可能性がある。
RAM3の400Bモデルがリリースされた場合、サービス体験が大きく変わる可能性がある。
簡易的なチャットボットの作成方法が紹介されており、100行程度のコードで実現可能となっている。
ストリーミング処理が行われることで、文章が生成されるごとにすぐに表示されるという特徴がある。
RAM3のリリースは大きなインパクトを持ち、オープンソースのモデルに対するファインチューニングが今後のトレンドになる可能性がある。
公式ラインでGPTとCloud3のプロンプトをまとめた資料が無料で提供されている。
Transcripts
えグロックのAPIを使って私が作った
簡易的なチャットボットになっています
日本について1000文字程度でまとめて
くださいという風に入力してみ
ますはい皆さんこんにちはニャンタですえ
本日はラマ3とグロックでチャットボット
開発というところで話していきたいと思い
ますえ先日メタ車からえRAM3という
原語モデルがリリースされたんですけども
え皆さん使ってみたでしょうかでこの
RAM3がまかなり性能が高いということ
で海外ではかなり盛り上がっていますで
性能は高いというに言ってもえOpen
AIのGPT4は超えてないというところ
なんですけどもえRAM3のモデルはえ
オープンで公開されてるモデルになってい
ますでオープンで公開されてるって何って
ことなんですけどもこれはえ自分の
パソコンにラマのモデルをダウウンロード
してきて自由に使うことができるという
わけですねはいそうすると何が嬉しいのか
というとこなんですけどもえ言語モデルを
使う時の外部への情報漏洩のリスクが
なくなってきます例えばえ会社の中で
チットGPT使いたいという風に思ってて
も車内の情入れてしまうとえ情報漏洩に
なってしまうのでChatGPTの使用が
禁止されてるという会社も多いんじゃない
かと思います皆さんの会社はどうでしょう
か他にもえ言語モデルのサービスを提供し
たいなという風に思っててもお客さんの
情報を勝手にチャットGPTに入れれる
わけにいかないというところでGPT4と
かえクド3は使えないとそういった企業も
あるかと思いますでそういった場合でもま
こういった公開されてるモデルを
ダウンロードしてきて使うことができれば
外部に情報は漏洩しないので気にせず
使えるというわけですねえただえRAM3
のモデルをえ自前で動かそうとするとま
GPUという効果な機会がたくさん必要に
なってきますまなので自力でやろうとする
と結構大変なんですけども現在えグロック
と呼ばれるサービスを使えば無料で簡単に
ラマ3のモデルを使うことができますで
このグロックっていうサービスは世界一
早く文章を生成することができるサービス
になっていて少し前から話題になってい
ますで結局グロックを使ってしまうとえ
グロックの会社に情報を漏洩してしまう
じゃないかというところもあるんですけど
もRAM3をえお試しで使ってみて実際に
仕事でも使えそうだなっていう風に思っ
たら自分でマシンを用意してえRAM3を
使うという流れにするといいかもしれませ
んでこのグロックのサービスはまAPIと
言ってプログラムから実行できるように
なってるので本日はえこちらのAPIを
使って簡単なチャットボットの方を作って
いきたいと思いますでグロックとかラマ3
とかそもそも何なのって人もいると思うの
で本日はそこら辺も含めてえ誰でもついて
いけるように解説していきたいと思います
えそれでは早速やっていきましょう
はい最初にえ先日発表されたラマ3の
モデルについて大事な点をまとめていき
ますでここら辺はまちょっと時間が経って
しまっていてもう知ってるよって人も多い
と思うのでさらっと紹介していきますはい
まずえ今回リリースされたのはえRAM3
の8Bのモデルとえ70Bのモデル2つの
モデルになっていますで8B70Bって何
なのってことなんですけどもま8Bって
いうのがえ80億のパラメーターを持つ
モデルでえ70Bというのがえ700億の
パパラメーター持つモデルになっています
まつまり小さいモデルと大きいモデルと
いうことですねでそれぞれえ左側がえ8B
のモデルのテスト結果になっていてで右側
が70Bの大きなモデルのテスト結果に
なっていますで制度のところが皆さん気に
なると思うので右側の70Bのモデルの
制度を見てみるとGoogleのjemi
PRO1.5とかCL3のソネットという
モデルと大体同じくらいの性能になってい
ますでjemiPro1.5に関してはえ
前回の動画で紹介したんですけども現在
Googleが公表してる中で最も強い
モデルになっていますでそのレベルの
モデルがま今回無料で公開されてるという
ところでかなりすごいのかなという風に
思いますえただ注意点としてはえ先ほどの
結果は英語で評価したスコアになってい
ますなので日本語の性能に関してはまた
変わってくるということですねで言語
モデルはインターネット上のテキスト
データを学習に使ってるんですけども今回
リリースされたrama3のモデルに関し
てはここにもあるように5%程度が英語
以外の言語を使ってるということですねま
なので大部分が英語で学習されたモデルと
いう風になってるので英語での
パフォーマンスのレベルとえ同じレベルは
期待しないでねという風に書かれています
でここら辺は日本人の我々にとってはま
ちょっと辛いなってところかもしれない
ですねえただえ公表されたブログにはえ
今後の予定についても書かれていますこれ
を見るとえここに書いてあるんですけども
この数ヶ月間の間でマルチモーダルな
モデルとか多言語対応したモデルが登場
するという風に書かれていますねなので
今後おそらくえ日本語でも相当強いモデル
というのが登場してくるんじゃないかと
いうことが期待できますで今回リリースさ
れたモデルをえ日本語に特化してえ追加で
学習しようかなっていう風に悩んでる人も
結構いると思うんですけどもまた数ヶ月後
に多言語対応したすごいモデルが出てくる
というところなのでもうちょっと待った方
がいいのかなってところで悩ましいところ
かもしれませんはいそしてえそれとは別で
え今回リリースされた70Bのモデルより
もえ数倍大きい400Bのモデルというの
も学習してるというのが発表されましたで
このモデルはここにも書いてあるように4
月15日時点のえチェックポイントの結果
という風に書かれていますでチェック
ポイントって何だってことなんですけども
ニューラルネットワークで何か学習させる
時って学習の所々で学習した後の重みって
いうのを保存しておきますとど保存する時
のタイミングをチェックポイントっていう
風に言ったりするんですけども4月15日
時点の制度評価ということになりますで
見るべき点としてはえ右側のイン
ストラクトというところになりますでこの
インストラクトっていうのは
インストラクタ中にと言って会話に特化さ
せて学習させたモデルの結果になってい
ますでこのインスタントチューニングした
モデルの精度がま非常に高くてこちらは
クロード3のオーパスのテスト結果になっ
てるんですけどもま上から見てくとラマ3
とクロード3のオーパスですね数字を比較
してみるとかなり精度が近いというのが
分かるかと思いますで先ほども言ったよう
にえこれはまだ学習の途中なので完成する
とこのクロド3のオーパスとかを超えて
くるのかというのはかなり注目度が高く
なっていますでこれでもしこのラマ3の
モデルがクロード3のオーパスを上回って
きたら結構インパクト大きいのかなと思っ
ててチャットGPTとかえクロード3を
使ってるという人はRAM3の400Bの
モデルを使うようになるという風な感じに
なるかもしれませんはいそしてえ大事な
ポイントとしてRAM3のモデルは
オープンソースですよっていう風によく
言われてるんですけどもえこれはオープン
ソースなのかっていうのは結構疑問に思い
ますでオープンソースっていう風に言うと
ま自由に使ったりとか自分で改造してえ
それを再配布したりとかそういったことが
できるとものなんですけどもラマ3の規約
を見てみるといろんな縛りが設けられてい
ますえ例えばこちらラマ3の規約の1つな
んですけどもえRAM3のモデルを使って
新しくAIのモデルを作って提供する場合
はそのAIのモデルの名前の先頭にえ
RAM3という単語をつけてくださいねと
いう風に書かれていますまなので今後え
このRAM3をベースとしてえいろんな
会社が独自のモデルを開発してリリースし
てくと思うんですけどもそれらのモデルの
名前の戦闘には必ずラマスリートをつけ
なきゃいけないというところでラマ3何々
というモデルが今後どんどん登場してくと
いうことになるかと思いますでこら辺も
オープンソースと言っていいのかなって
ところもありますし他にも商用利用に関し
て月間7億人以上ユーザーがいる場合は
メタ社からライセンスを取らないといけ
ないという風な条件があったりしますで
一般ユーザーからするとまどっちでもいい
じゃんっていう風な感じかもしれないん
ですけどもこれオープンソースって呼ばれ
てるのんでなんだろうという風に疑問を
持ってる人もいるかもしれませんでもし
オープンソースに詳しいという融資者の方
がいらっしゃったらこれってオープンソー
スっていう風に言っていいのかとか是非
コメントの方で教えていただければ
ありがたい
ですはい続いてえグロックのサービスに
ついても簡単に紹介しておきますで
グロックはえ言語モデルを動かすための
AIのチップを開発してるという会社に
なっていますなので言語モデルを開発し
てるというわけじゃなくて言語モデルを
動かすための機械を開発してるというわけ
ですねでグロックについて詳しく知りたい
という人はこちらの動画で色々紹介してる
ので是非見てみてくださいでポイントだけ
お伝えするとグロックのサービスを使うと
世界一早くえ言語モデルを動かすことが
できますでこちらはえいろんな会社で今回
公表されたえRAM3の70Bのモデルを
動かした時の速度と価格の関係を表した図
になっています縦軸がえ文章を生成する
速度になっていて横軸が値段になってい
ますまなので左上に行けば行くほどえ安く
て早いとえ右下に行けば行くほど高くて
遅いということになりますでいろんな
サービスがこの右下の方に位置中で
ブロックのサービスはえここに位置してい
ますつまり価格的にはこのDEEP
インフラというサービスと同じくらい安い
とで速度に関しては他の会社のサービスを
比較してえ倍くらい早いというのが分かる
かと思いますなのでlam3のモデルを
使おうとした時に外部のクラウドサービス
を使いたいなって場合はこのグロック一択
になってくるのかなという風に思います
しかもえ今ならなんとえ無料でえrama
3のAPIを使うことができますでAPI
っていうのはプログラムから言語モを実行
することができるというものになってるん
ですけども先ほど言ったようにえグロック
のモデルを使うと他の会社のAPIと比較
してより実用的なのかなという風に思い
ますただ注意点としてえレイトリミットと
言って利用の回数の制限と処理できる文字
数の制限というのがあったりします例えば
RAM3の70Bのモデルを使おうとし
たら現在だと1分間で30回までしかえ
チャットができないとであとはえ処理
できる文字数も1分間で9000トークと
いう風になっています
ここら辺が若干サービスとして提供しよう
とするとえネックになってくるんですけど
もお試しで使ってみたいという場合であれ
ば十分なのかなという風に思いますで今後
RAM3の400Bのモデルがリリースさ
れてブロックのサービスで使えるように
なったら多分多くの人がこちらのサービス
を使うようになるんじゃないかなという風
に思いますはいということでざっポイント
に絞って紹介してきたんですけども皆さん
どういう風に思いましたかでさすがに
GPT4とかクド3は超えてこない
でしょっていう風に思ってたんですけども
今回のリリース内容を見てみるとま割と
近いうちにメタ車がこれらのモデルを超え
て派遣を握るという可能性もあるのかなっ
ていう風な感じがしますで個人的には
チャットGPTとかクロドとかえ毎月課金
していてえ結構出費が重んでるのでメタ車
が頑張ってくれたら助かるなという風な
感じもしていますはいということで現在
グロックのAPIを使えばえこのRAM3
を搭載したえ無料のチャットボットっての
を作れるので本日はそちらについても紹介
していこうと思い
ますはいこちらがえグロックのAPIを
使って私が作った簡易的なチャットボット
になっていますでま使い方は非常に簡単で
この左側からモデルを選択します今RAM
3のえ8Bのモデルが選択されてるんです
けどもえ70Bの方にしてみますかこれの
選択した状態でここでチャットを打ちます
例えばですねこんにちはていう風に打って
みるとこんな感じでめちゃくちゃ早く帰っ
てきますグロックのAPIを使ってるので
返答がめちゃくちゃ早いですちょっと
分かりにくいと思うので日本について
1000文字程度でまとめてくださいと
いう風に入力してみ
ますはいそうするとこんな感じの速度でま
今特に早送りはしてないんですけどもえ
グロックのAPI使ってるので非常に早く
文章が生成できるというのが分かるかと
思いますでラマ3のモデルはかなり賢いの
で文章としてもえかなり自然なのかなと
いう風な感じがしますもう少し何か打って
みる
とはいPythonの勉強方法を教えて
くださいという風に聞いてみるとまこんな
感じでかなり早く回答生成してくれます
基礎を学ぶ実践する深く学ぶとかですね
なかなか回答の質としてもいいんじゃない
かなっていう風な感じがしますねはい
こんな感じで簡単にチャットができますえ
ちょっと8Bの方も見ていきましょうか
はいこちらについて
も日本について1000文字程度でまとめ
てくださいと指示しますはいそうすると
70Bのモデルよりもパラメーターが
小さいのでさらに生成速度が早くなって
ますまちょっと文章としては途中で
おかしくなったりとかえ2本はっていうの
がが続いたりとか少し単調にはなってるん
ですけどもそこそこ自然な文章が生成
できると思いますでこの速度でま今後
400Bのモデルが提供されるになったら
かなり体験として変わってきそうですよね
はいこんな感じで使えるのでコードの方も
共有しておくのでま興味がある人は是非
使ってみてくださいでコードに関してもま
本当に簡単に紹介していくんですけども
大体100行ぐらいのコードで先ほどの
チャットボッを作ることができていますで
動作としてはこのメイン関数がえ実行され
ていてユーザーの入力をつけていますで
その後モデルセレクターということで今回
で使用できるモデルを設定しています今2
つのモデルを設定してるというわけですね
でどちらかのモデルが選ばれたらえそれが
セレクティモデルの方に入ってきてえその
後メッセージというインスタンスを作成し
ていますまこちらに関してはここの実装で
システムプロンプトとかユーザーとかAI
が生成する文章を保持するためのクラスに
なっていますはいでその後ユーザーの
インプットがある場合はえこのブロックの
APIを使ってメッセージのインスタンス
にえユーザーのメッセージを追加してま
表示するとえそのメッセージを
ディスプレイストリーというメソッドを
使ってグロックのAPIでえ文章を生成さ
せていますえ若干ここがえ癖があるところ
なんですけどもえ回答を生成させる時に
先ほども見たようにストリーミングの処理
がえ行われていますでストリーミングって
のはその一括で返答が全て表示されるん
じゃなくてえ少しずつ文章を生成したらえ
前から順番にすぐに表示していくという
ものになっていますストリーミングがあっ
た方が体験としてはいいのかなという風に
思うのでレスポンスストリームという
ところでえそのストリーミングができる
ような関数を作成していますここですねで
このメソッドをえディスプレイストリーム
の方に渡して先ほど見たような
ストリーミング処理ができてるというわけ
ですはいちょっとプログラミングやって
ない人にとっては何言ってるか分からない
という風に思うのでえこの辺にしたいと
思うんですけどももし何やってるか分から
ないという風になればこのコードを
貼り付けてえチャットGPTに聞いて
もらえると教えてくれるんじゃないかなと
いう風に思います会社とかで技術検証とか
やってて使いたいなって人は是非使ってみ
てくださいはいでRAM3はま結構
インパクト大きいのかなっていう風に思い
ますし今後オープンソースのモデルを
ファインチューニングしていくっていう
ことも結構出てくるんじゃないかなって
いう風に感じたのでファインチューニング
のやり方とかそういったところも含めて
動画にしたいなっていう風に思ってます
最後にですね最近え公式ラインの方始めて
今ならえ無料でえチッGPTとclod3
のプロンプトをまとめた資料をお渡しし
てるので是非友達登録の方お願いします
プロンプトっていう風に入力してもらえる
と自動でプレゼントが送られるように実装
していますはい以上で本日の動画を終了し
たいと思いますえこの動画良かったなてう
人は高評価コメントチャンネル登録の方
よろしくお願いしますデミもやってますの
で概要欄から見てみてくださいえそれでは
また次回の動画でお会いしましょうバイ
バイ
[音楽]
[音楽]
5.0 / 5 (0 votes)