OpenAIのGPT4oは本当に圧倒的に強いのか?解説してみた
Summary
TLDR本日はAI言語モデルの比較をテーマに、特にGPT4オムニとGoogleのジェミニ系列の性能を検証しました。GPT4オムニは言語モデル性能で圧倒的に強いとされており、0ショットcotというテクニックを用いて88.7%の高精度を記録していますが、実際にはクロード3のオーパスと僅差とのことです。一方、画像認識ではジェミニ1.5ProがGPT4オムニを上回る性能を示しており、価格面でもジェミニ1.5フラッシュはコストパフォーマンスが高いと評価されています。この動画では、最新のAI言語モデルの動向を解説し、生成AIを活用したい視聴者に有益な情報を提供しています。
Takeaways
- 😀 GPT4Omniverse(GPT4オムニ)が無料ユーザーにもリリースされた後、多くの人が興味を持ち始めている。
- 🤖 オープンAI以外にも多くの企業がAIモデルを開発しており、画像処理やコスト効率の良いモデルを探求する人もいる。
- 🆕 Googleが新しいモデル「ジェミニ」を発表し、GPT4Omniverseと比較されることが増えた。
- 📊 GPT4オムニとクロード3(Cerebras3)の性能比較では、GPT4オムニが圧倒的に強いとされているが、実際は僅差であると感じる人もいる。
- 📈 0ショットcotという評価指標ではGPT4オムニが88.7%、クロード3が86.8%と、GPT4オムニがわずかに優れているが、大きな差ではない。
- 🔍 画像認識のモデル比較では、GPT4オムニが圧倒的に強いとされているが、Googleのジェミニ1.5Proも非常に高性能であると評価されている。
- 💰 コスパの良いモデルとしてGoogleのジェミニ1.5フラッシュが勧められており、価格も比較的リーズナブルである。
- 📈 ジェミニ1.5Proは画像認識において非常に高精度であり、GPT4オムニと比較しても優れているとされている。
- 🔧 言語モデルを組み込む際には、精度だけでなくコストも考慮する必要があると示唆されている。
- 🌐 Googleは独自の計算チップTPUを持っており、今後の言語モデル市場での競争力は高まっていくと予想されている。
Q & A
GPT4オムニとGoogleのジェミニモデル、どちらが強いのでしょうか?
-言語モデルの性能に関してはGPT4オムニが圧倒的に強いとされていますが、実際の差はかなり僅差です。一方、画像認識に関してはジェミニ1.5Proの方が強いとされています。
0ショットcotとはどのような評価手法ですか?
-0ショットcotは、言語モデルの評価手法の一つで、プロンプティングを行わずにモデルの精度を測る方法です。
言語モデルの精度を上げるためのテクニックとしてフューショットプロンプティングとは何ですか?
-フューショットプロンプティングは、言語モデルに質問と回答の例を多く与えることで、モデルの精度を上げるテクニックです。
ジェミニ1.5Proのアップデートでどのような性能向上が見込まれていますか?
-ジェミニ1.5Proのアップデートでは、入力できる文章の長さが2倍に増加し、様々な評価指標での精度も大幅に向上することが見込まれています。
言語モデルを組み込む際のコストパフォーマンスを考慮すると、どのモデルがおすすめですか?
-コストパフォーマンスを考えるとGoogleのジェミニ1.5フラッシュがおすすめです。高い精度と比較的低い価格のバランスが良く、初手として試してみるのも良いでしょう。
言語モデルの精度を評価する際に使用されるmmlUとは何ですか?
-mmlUは、言語モデルを広く評価する際に使われる手法の一つで、様々なタスクに対してモデルの性能を比較するための指標です。
ジェミニ1.5フラッシュの価格設定にはどのような特徴がありますか?
-ジェミニ1.5フラッシュの価格は、入力するトークン数によって変動します。128トークン以下であれば0.35ドルですが、それ以上になると価格が倍増するという特徴があります。
GPT4オムニとクロード3のオーパス、どちらのモデルがプログラミング関連の質問に適していますか?
-個人的な経験ではクロード3の方が正しい答えを出力するケースが多く、プログラミング関連の質問にはクロード3の方が適していると感じています。
ジェミニ1.5ProとGPT4オムニを比較した際の画像認識の性能はどのようになっていますか?
-ジェミニ1.5Proは画像認識の能力においてはGPT4オムニよりも強く、多くの評価指標で精度が上がっている結果となっています。
言語モデルの精度を評価する際に使用されるcot技法とは何ですか?
-cot技法は言語モデルの精度を上げるためのテクニックの一つで、モデルに段階的に思考させることで回答の精度を上げます。
Outlines
🤖 GPT4Omniの強さと比較
ビデオではGPT4Omniが他のAIモデルと比較してどれくらい強力なのかをテーマに展開しています。GPT4Omniがリリースされてからの話題として、Googleのジェミニやその他のAIモデルが開発されている状況を紹介し、どのモデルが本当に強いのかを比較検討しています。特にGPT4OmniとGoogleの新しいモデルジェミニフラッシュについて、最新の情報をもとに評価と比較を行い、どちらが効果的でコストパフォーマンスが良いかを分析しています。
📊 GPT4OmniとClaude3の性能比較
GPT4OmniとClaude3の言語モデル性能を比較しています。公式の評価制度に基づいてGPT4Omniが圧倒的に強いとされている一方で、実際の比較では僅差しかないと主張。0ショットcotという評価指標について説明し、GPT4Omniが88.7%、Claude3が86.8%というスコアを出し、その評価方法について疑問を呈します。また、5ショットcotでの比較も取り上げ、どちらが優れているかを考察しています。
🖼️ 画像認識モデルの比較
言語モデルだけでなく、画像認識能力を持つマルチモーダルなモデルについても議論しています。OpenAIが公開した画像認識の評価結果をもとに、GPT4Omniが圧勝しているとされている状況を紹介。一方で、Googleのジェミニ1.5Proの性能も大きく向上し、新しいバージョンでは多くの評価指標で精度が向上していると報告。GPT4Omniとジェミニ1.5Proの比較を通じて、どちらが画像認識において優れているかを検討しています。
💰 コスパの良いモデルの選択
言語モデルをサービスに組み込む際のコストパフォーマンスについて話しており、Googleの新しいモデルたちが非常に良い状況にあると評価しています。モデルの強さと価格のトレードオフを考慮し、特にジェミニ1.5フラッシュが価格と性能のバランスが良く、良い選択肢になると紹介。ただ、入力トークン数に応じて価格が変動する点には注意を喚起。GPT4Omni、Claude3、ジェミニ1.5Proの価格帯と比較を通じて、どのモデルが適切かを判断する指針を提供しています。
📚 総括と今後の展望
ビデオの総括として、GPT4Omniはスペック的には強力だが、Claude3のオーパスと比べて性能差は小さいと結論づけています。画像認識に関してはジェミニ1.5Proが強いと評価。コスパの観点からはジェミニ1.5フラッシュが優れていると紹介。Googleの言語モデルが最近の発表で状況が変わってきていると感じ、今後の盛り返すことも期待していると語ります。最後に、公式LINEアカウントの紹介と、今後も情報を共有していく旨を述べています。
Mindmap
Keywords
💡GPT4オムニ
💡ジェミニ
💡0ショットcot
💡マルチモーダルモデル
💡言語モデルの評価
💡プロンプティング
💡チェインオブソート
💡コスパ
💡mmlU
💡画像認識
Highlights
GPT4Oの無料リリースと他社モデルとの比較
Googleのジェミニ新モデルの発表
各社の言語モデルの性能評価とその問題点
GPT4Oの言語モデル性能に関する詳細
ゼロショットCOTとフューショットプロンプティングの説明
言語モデルの精度向上テクニック:チェインオブソート(COT)
GPT4OとClaude 3の比較と評価方法の問題点
GPT4OのゼロショットCOTスコアとフューショットプロンプティングの影響
画像認識モデルの性能比較とジェミニ1.5 Proの強さ
Googleのジェミニ1.5 Proのアップデートとその影響
ジェミニ1.5 Proの性能向上とその結果
MMMUスコアとGPT4Oの評価結果の詳細
ジェミニ1.5 Proのコストパフォーマンスの良さ
Googleモデルの料金体系とその利用方法
サービスに組み込む場合の最適なモデル選択肢
ジェミニ1.5フラッシュの初手としての利便性
CL3のオーパスと他のモデルのコスト比較
GPT4Oとクロード3のオーパスのコストと精度の差
Googleの言語モデルの精度向上と将来性
最後にLINE公式アカウントと講座の紹介
Transcripts
はい皆さんこんにちはにんとですえ本日は
本当にGPT4Oが最強なのかという
テーマで話していこうと思いますえ先日
GPT4Oが無料ユーザーにもリリースさ
れたのでまこれを気に生成AI使って
みようかなという人も多いんじゃない
でしょうかでそうした時にオープンA以外
にもいろんな会社がモデルを開発してたり
するので例えばえ画像を扱いたい場合は
どうすればいいんだろうとかもう少し安い
モデルを使いたい場合はどうすればいいん
だろうとかえそういうに思って人もいるか
もしれませんで先日GPT4オニが発表さ
れた翌日にGoogleからはえジェミニ
の新しいモデルというのが発表されました
まなのでこれも含めて結局どれが強いん
だろうというところは結構分かりにくいか
なと思います特にGoogleからはえ
新しいジェミニフラッシュというモデルも
公開されたりしてたのでこちらについても
気になってるという人もいるかもしれませ
んそこで今回はGPT4オムニが本当に強
のかというところだったりとかえコスパが
いいモデルはどれなのかというところに
ついて最新の状況をまとめていきます特に
新しいモデルが出たら各社え自分たちの
開発したモデルが強いですよっていう風に
宣伝するんですけれど実はちゃんとどう
いう風に評価したのかというのを見てみ
ないと本当にいいものなのかというのが
分からなかったりしますまなのでどういう
風に結果を見ていけば正しくモデルの性能
を理解できるのかというところも含めて
解説していきます仕事とかで生成Aを活用
したいなという人は是非見ていって
もらえればと思いますえそれでは早速て
いき
[音楽]
ましょうはい最初にえGPT4OMのえ
言語モデルの性能に関しての話です言語
モデルの性能に関してはま人によって原語
モデルを使う用途が違ったりするのでCL
3の方がいいと思うとかえGoogleの
ジェミニの方がいいと思うとか色々皆さん
あるかと思いますで公式の制度の評価上は
えGPT4オムニが圧倒的に強いとされて
いますで私もこちらの動画でえGPT4
オムニが圧倒的に強いというところで話し
てしまったんですけども実は公式から発表
されてるグラフに関してはえ少しおかしい
ところがあったりしますで結論としては
GPT4オムニがま1番強そうではあるん
ですけれども正直えクド3のオーパスとえ
GPT4OMには圧倒的に差が開いてるん
じゃなくてかなり僅差だという風に考えて
いますはいこちらがえGPT4OMが
リリースされた時にOpenAIから公開
されたえいろんな会社のモデルを比較した
結果になっていますで1番左がえmmlU
といってえ広く原語モデル評価する時にえ
使われてる仕法になっていますでこれを
見るとえGPT4オムニがピンク色でえ
クド3のオーパスが緑色なので少し小さい
んですけどもGPT4オムニがえ88.7
でえクロード3が86.8mhz
cotという条件でえ88.7という記録
を出してるという風に書かれていますね
じゃあこの0ショットcotって何だと
いうところなんですけどもまずえ0ショッ
トっていうのはQショットプロンティと
いうものを行ってないよという話になって
いますじゃあこのフューショットプロンプ
ティンググって何だというところなんです
けどもこれはえ言語モデルの性能を上げる
ためのテクニックの1つになっています
具体的にはえ言語モデルに何かを解かせる
前にレとえその答えを与えることによって
精度を上げるというテクニックになってい
ますで例えばえ普通にチャットGPTを
使ってる場合っってまこんな感じでえ単発
で質問して使ってるかと思いますえ
コンピューターサイエンスは何ですかて
いう質問ですねプロンプトとして作成して
えそれを言語モデルに入れるとえそういっ
たイメージですねで普段の使い方としては
まこんな感じで使っても実用上問題ない
ケースが多かったりするので多くの人はえ
こんな感じで使ってるかと思いますますで
これに対してえフューショットプロンティ
グというものはえプロンプトの中に質問と
回答の例をたくさん入れてから最後に本当
に聞きたい質問を入力しますでこの例だと
え先ほどと最後の質問に関しては同じでえ
コンピューターサイエンスと何ですかと
いう風に聞くんですけどもでその前にえ
プロンプトとしていくつかの質問とえ回答
のペアを入力しておきます機械学習とは何
ですかとかえ人工知能とは何ですかとか
ですねそういった関連した質問とえ回答の
ペアをプロンプトとして入れていますこれ
今3つの質問と回答のペアを入れてるので
3ショットという風に言ったりするんです
けどもこういった感じでえ質問と回答の
ペアをえプロンプトに入れてから本当に
聞きたいことを最後に入れるとそういった
手法をえフューショットプランティングと
いう風に言っていますでこういう風にえ
質問と回答のペアを入れてあげると言語
モデルの精度が上がるというのが分かっ
てるので大体精度の評価をする時はこの
クニックがよく使われていますはいそして
え先ほどの記載の方に戻ってみるとえ
88.7のスコアはえゼロショットで達成
してますという風に書かれてますねでこの
ゼロショットっていうのは先ほどのえ
フューショットプロンプティングを行って
ませんよということを表していますなので
えプロンプトの中に質問と回答のペアをえ
1つも入れてませんよということですねで
ゼロショットはえ言語モデルを評価する時
はま精度が比較的出にくいという設定に
なっていますでそう思うとまそれで
88.7もスコアが出ていてまやっぱ
GPT4オに強いなという風に思うと思う
んですけどもえ問題はですねえその次のえ
cotという設定になっていますでこの
cotというのもえ言語モデルの制度を
上げるためのテクニックの1つになってい
ますでcotっていうのはチェインオブ
ソートの略で簡単に言うとえ言語モデルに
回答を生成させる時にえ一気に回答を生成
させるんじゃなくて1歩ずつえ論理的に
回答を生成させることで精度を上げるとえ
そういったテクニックになっていますで
初めて聞く人はま信じられないという風に
感じるかもしれないですけども言語モデル
にえ入力する時にレツthinkステップ
バイステップとえそういった文章を入れる
だけでモデルの回答の必が上がるとえそう
いった研究結果が出ていますこちらですね
え東大の方が発表された論文になってるん
ですけどもここにも書いてあるようにま
レッツthinkステップバイステップ
ですねこの場合に制度が最も良くなってる
とえそういった研究結果になっています
日本語ではえ段階的に考えてくださいとか
そういった言葉になると思うので言語
モデルを使いこなしてるという人は結構
このプロンプトを入力してるという人も
多いかと思いますでcotのテクニックは
これが1つのやり方でで他にもえ精度を
上げるためのcotの書き方とかえそう
いうのもあるんですけども長くなって
しまうのでえここでは割愛しますポイント
としてはえcotというテクニックで
モデルにえ段階的に考えさせることで精度
がかなり向上するということですねはいで
ここまでのえ評価の背景が理解できてると
先ほどの記載の意味が理解できるかと思い
ますまず88.7はえ0ショットですよと
でcotというのがありますつまりえ
フューショットプロンプティングが使って
ないけどもえチェインオブソートという
プロンプトテクニックを使って88.7の
制度が出ましたよとえそういった結果に
なってるという風に言ってますでなるほど
なというところでこれ下の方見てくとで
さらにえよく行われている5ショットで
Nocotの場合はえGPT4オムニの
スコアは87.2%ですよとそういった
結果が記載されていますえつまりえ0
ショットのcotの場合は88.7だけど
5ショットでcotやらないとえ87.
2%だよということを言っていますはい
じゃあこれまで最も精度が高かったクロド
3のオーパスはまどういう風に評価してる
のかというところなんですけどもこちら
ロド3のオーパスがリリースされた時の
制度の表になってるんですけども5
ショットで
86.8mhz18.7%の精度で比較し
た時のえグラフを公表していますつまりえ
条件が違うものを同じグラフで比較して
圧勝してるように見せてるということです
ねま同じ5ショットっていう条件でも
0.4GPT4オムニが勝ってるので
わずかにGPT4オニの方がいいのかなと
いう風な感じがするんですけどもちょっと
やり方がせこいのかなというな感じもし
ますよねはいなのでま精度としては微妙に
GPT4オムニが勝ってそうだなという
ところなんですけども正直えバラつきの
範囲ぐらいの性能の差かなという風に思う
のでスペック上はまどっこいどっこいかな
という風な感じがしていますで個人的な
感覚で言うとえプログラミング関連に関し
てはよく両方のモデルに聞いたりするん
ですけどもクド3の方が正しい答えを出力
するとかえそういったことも多かったり
するので個人的にはクロド3の方がいいの
かなっていう風な感じが少ししていますと
はいえま精度を見ても分かるようにかなり
僅差なのでまなかなか気持ちよい決着は
つかなそうだなと風な感じがしますね皆
さんはどちらの方がいいなとかあったりし
ますか是非コメントの方で教えてもらえれ
ばと思いますはい続いてえ画像認識の
モデルはえどのモデルが強いのかという話
になりますえ最近はえ言語モデルだけじゃ
なくてま画像とか音声とかいろんなデータ
を入れられるえマルチモーダルなモデルと
いうのが流行ってきていますまなので仕事
とかで画像をよく扱うとかそういった時に
どのモデルを使おうかなという風に悩ん
でる人もいるかもしれませんこちらは
OpenAIが公表した画像認識の制度を
比較した表になっていますでこれを見ると
え各テストえGPT4オムニがえ圧勝し
てるというのが分かります例えば1番上の
テストだったらえGPT4オムニが
69.16.175.10
のjemi1.5Proが1番強いという
風に考えられますでこの表に載っているえ
jemi1.5Proの性能に関しては1
つ古いバージョンのえjemi1.5
Proの制度の結果になっていますでこれ
はえOpenAIがえずるしてえ
Googleの古いモデルの制度を持って
きたとえそういったわけじゃなくて先ほど
のえ画像認識の制度の表を発表した後に
Googleがjemi1.5のPROの
アップデートを発表したんですねこちらは
えGoogleの公式が出しているえ記事
になっていますで要約するとえjemi
1.5のプロですねめっちゃパワーアップ
しましたよということが書かれていますで
先日の発表ではえjemi1.5のプロは
入力できる文章の長さが200万トクに
なって2倍になったのでそちらが非常に
注目されてるんですけども実は性能自体も
大幅にパワーアップしていますでこちらは
えjemi1.5のプロが新しくなって
どれぐらい性能が上がったのかというのを
またまとめたグラフになっていますで薄い
青がえこれまでのjemi1.5のプロの
え精度になってるんですけども濃い青が
新しいjemi1.Proの制度になって
いますでこれを見ても分かるようにえ
ほとんど全ての評価指標で精度が上がっ
てるという結果になっていますちなみにえ
言語モデルのところで見ていたえmmlと
いうスコアはえこちらになっているので
これを見るとえ新しいジニ1.5のプロは
え85.%というところでえクド3と
GPT4オムニには1%ぐらい及んでい
ないようですで言語モデルに関してはえ
jemi1.5のPROもまだまだトップ
レベルでないんですけども画像認識の能力
に関してはえジェミニのモデルは全般的に
かなり強くなっていますでこちらは
ジェミニの論文に載っていた画像認識に
関する各種テストの結果になっています
これを先ほどのGPT4と比較してどちら
が強いのかというのを見ていきますでもう
一度載せるんですけどもえOpenAの
公表結果ではまGPT4OMがま圧倒的に
強いとえそういった結果だったんですけど
もこれがどうなるかと言うとえこんな感じ
になりますちょっと見にくかったので論文
の表の結果はま少し整理してみましたまず
上から見ていくとmmMUUですねこれに
関してはGPT4オムニがえ
69.16.175.10
いうものだったらjemi1.5Proの
方が
[音楽]
63.99ドル
ダイアグラムに関してはえGPT4オム2
の方でテストしてないようですとチャート
QAに関してはえこちらですね
85.7mhz
92.%なのでこれもジェミニ1.5
Proのが強いというところは分かります
はいなのでえ全般的にえジェミニ1.5
Proの方が強くなってるとただこの
mmuだけ異常にGPT4オムニが強いと
いう結果になっています7%が高いという
ところでま結構違うんじゃないかという風
に思った人もいるかもしれませんえただ
ですねまこれもちょっと辛くがあって
こんな感じでえ中期がありますこれを見る
とまもう予想できてる人もいると思うん
ですけども先ほどと同じでMMMUとマ
ビスタとチャートQAに関してはえ0
ショットcotを使ってますよという風に
書かれてますねつまりえGPT4OMに
関してはえこのMMMUとえマスビスタと
えチャートQAに関しては0ショットで
cotのテクニックを使ってるというわけ
ですねで一方でjemi1.5Proの方
は全て0ショットで評価をしてるという
ところなので不利なプロンプトの設定で
性能として勝ってるということになります
つまりえ画像認識の性能に関しては現状
世界で最も精度が高いのはえGPT4オニ
じゃなくてjemi1.5Proなんじゃ
ないかという風に考えられますここら辺に
関してはま色々ともっと検証してみないと
分からないと思うんですけども皆さんの中
でここら辺について何か思うことがあっ
たら是非コメントの方で教えてもらえると
ありがたいですはいそして次にえコスパが
最も良いモデルはどれなのかという話に
なります自分だけで言語モデルを使ってる
という場合はもちろんえ最高に精度がいい
モデルを使いたいという風に思うと思うん
ですけどもサービスとしてえ言語モデルを
え何かのAppleに組み込みたいなって
時はですねあんまり高いモデルだと使い
にくかったりするかと思いますまなのでえ
コスパがいいモデルはどれなのかとかえ
どれから試して使っていけばいいのかとか
そういったことが気になってきますよねで
実はえコスパ的にはえGoogleの
新しいモデルたちはかなり良さそうという
状況になっています当然えモデルを使う
時時の価格と強さっていうのはトレード
オフの関係になってるんですけどもそれを
踏まえた上で並べてみるとえこんな感じに
なっていますこれまでえ安い価格帯の
モデルでそこそこ強いモデルといえばCL
3のえハイクと言われるモデルが候補でし
たで今回発表されたえjemi1.5のえ
フラッシュというモデルですねこちらは
モデルの強さがえクロド3のハクとかえ
OpenAIのGPT3.5とかよりも
かなり高くて料金としてもえ同じぐらい
安いので上位互換になったなという風な
感じがしていますまなのでえ何かを作って
みる時にえジェミニ1.5のフラッシュ
から始めるというのは良い選択肢かなと
いう風に思いますえただ注意点が1つあっ
てえGoogleのモデルはえ入力する
トク数によって価格が変わってくると少し
変わった料金体験になっていますえちなみ
に先ほどから価格と言ってるのはWeb
ブラウザで言語モデルを使う場合じゃなく
てAPIと言ってえプログラミングから
言語モデルを使う時の価格の話をしてい
ますでこちらがえjemi1.5
フラッシュの価格になっていますここにも
あるようにえ入力が128系トークン以下
の場合は0.35なんですけどもえそれ
以上の場合はま0.7ということでえ倍に
なるということですね出力も同様にえ倍に
なっていますま13万文字も入れることっ
てあんまないのかなという風に思うんです
けども長い文章を入れる用途で使いたい
なって場合はえジェミニのモデルは少し
コスパが悪くなってしまうというところは
抑えておくといいと思いますそれでも俳句
よりも強くてま少し高いというだけなので
初手にジェミニ1.5フラッシュを使うと
いうのは個人的にはいいんじゃないかなと
いう風に思いますはいそしてえ中華角帯の
競争としてはえジェミニ1.5のPROが
今回パワーアップされたのでクロド3の
ソネットよりも強くてえ価格が安くなって
いますま最初にジェミニ1.5の
フラッシュで試してみて精度がもっと
欲しいなという場合はまjemi1.5の
Proを試すとそういう流れがいいんじゃ
ないかと思いますで最後にえそれでも
難しいという場合は少し高くなってしまう
んですけどもOpenAIのGPT4OM
が選択肢になるとえそういう流れかなと
思いますちなみにCL3のオーパスに関し
てはGPT4オニの3倍以上高いので
サービスに入れようとするとそこら辺が
ネックになってきそうですねはいこれまで
まGoogleの言語モデルってま精度が
あまり高くなくでちょっと選択肢には
上がりにくかったかなという風に思うん
ですけども最近の発表でまちょっと状況が
変わってきてる感じがしますで
GoogleはえTPUというえ独自の
計算チップを持っていたり価格競争をし
たらめちゃくちゃ強いと思うので今後
盛り返してくるという可能性は十分あるな
という風な感じがしますで10mのモデル
ですね簡単にプログラムで使えるので興味
がある人は是非使ってみてくださいはい
最後にえ本日のまとめをしてみるとえ言語
モデルとしてはえ現状GPT4オム2がえ
スペックとしては強そうとただその性能の
差に関してはえクロド3のオーパスと
かなり僅差ですよと画像認識に関してはえ
jemi1.5Proが強いというので
制度の比較を見ても分かるように大体どの
タスクでもjemi1.5Proの方が
強かったですそしてえAppleにモデル
を組み込む場合のえコスパを考えるんだっ
たらえジェミニ1.5フラッシュがま
かなり強いということになってきます特に
私はこれまでままGoogleのジェミに
ですねまあまり良くないなという風に思っ
たんですけども少なくともスペック上はま
状況が変わってきてるなという風な感じが
していますまだ出たばかりで私も十分に触
れてないのでここら辺も自分で色々試して
みてえまた感想とかがあったらえシェアし
ていきたいと思います皆さんも何かあっ
たらコメントの方でお願いしますはい最後
になりましたがえ最近公式LINEを始め
ました概要欄の方から友達登録をして
もらってえプレゼントというキーワードを
入力してもらえるとえ最近話題のえDFの
ツールをまとめた資料とかチットGPTと
かclod3のえプロンプトをまとめた
資料を送ってるので興味があったら友達
登録の方お願いしますはいあとはえユミの
方でえ講座は販売していて概要欄の方から
割引きクーポンの方発行してるのでもっと
精々愛学びたいという人はえぜひ見てみて
くださいはい以上で本日の動画を終了し
たいと思いますこの動画が良かったなって
思人は高評価コメントチャンネル登録の方
よろしくお願いしますはいそれではまた
次回の動画でお会いしましょうバイバイ
し
Weitere ähnliche Videos ansehen
5.0 / 5 (0 votes)