【速報】Microsoftが最新生成AI「Phi3」を発表!最強の小規模言語モデルの実力を徹底レビュー

mikimiki web スクール
28 Apr 202418:41

Summary

TLDR今回紹介されたのは、Microsoftがリリースした新しい小規模言語モデル「53」です。大規模言語モデルと比較して、計算リソースを少なくとも単純なタスクで高いパフォーマンスを発揮することが特徴で、モバイルデバイスなどローカルで使用することも可能です。また、53のMiniモデルは日本語でも高精度な応答を提供し、他のオープンソースモデルと比較しても優れた性能を示しました。しかし、複雑な計算や論理的な問題にはまだ向いていないとされています。53は、オフラインでのAI活用が容易になり、今後のAIツールの選択肢として注目されています。

Takeaways

  • 📚 こんにちはめきめきさんがリリースしている講座は、GPTの使い方から始め、ビジネスで活かす方法まで学べる内容です。
  • 📈 mikmikスクールのLINE友達登録で、GPT集やプロンプト集などの特典がもらえます。
  • 🔍 Microsoftが新たにリリースしたスモールランゲージモデル「53」は、最小で最強のモデルであり、注目されています。
  • 🌟 53はオープンソースで、パラメーター数が少なく、計算リソースを少なくとも高性能を発揮する小規模言語モデル(SML)です。
  • ⚙️ 53は3つの展開モデルがあり、それぞれが異なるコンテキストウンドウを持ちます。
  • 📈 53は他のオープンソースモデルよりも優れており、GPT3.5と同じレベルのクオリティを提供しています。
  • 📱 SMLはローカルデバイスで簡単に動かすことができるため、オフラインでも使用可能です。
  • 📊 53のMiniモデルは、他のモデルと比較しても高い点数を獲得しており、パフォーマンスが高いことがわかります。
  • 💬 53は日本語も使用可能で、精度が高く、速い応答が期待できます。
  • 🚀 53は文章生成や要約、まとめなどのタスクで優れた結果を出し、GPT3.5と比較して同等のクオリティを発揮します。
  • 🌐 53はHanging Chat内で無料で簡単に使用できるため、幅広い用途で活用が可能とされています。

Q & A

  • Microsoftがリリースしたスモールランゲージモデルの名前は何ですか?

    -Microsoftがリリースしたスモールランゲージモデルの名前は53です。

  • 53のスモールランゲージモデルにはいくつの展開がありますか?

    -53のスモールランゲージモデルには3つの展開があり、それらは53ミディアム、53スモール、そして53ミニです。

  • 53ミニのコンテキストウンドウはいくつですか?

    -53ミニのコンテキストウンドウは4K版と128K版の2つがあります。

  • 53のモデル展開の中で、どのモデルが最も高機能でコスト効率が高くなっていますか?

    -53のモデル展開の中で、最も高機能でコスト効率が高いとなっているのは小規模言語モデルSMLです。

  • 53のスモールランゲージモデルはなぜ注目されていますか?

    -53のスモールランゲージモデルは、小規模ながらも高性能であり、オープンソースで利用可能で、他の同様のモデルよりもクオリティが高く、今後のAIアプリケーションで重要な役割を果たす可能性があるとされています。

  • 53のスモールランゲージモデルは日本語の文章生成においてどのようなクオリティを持っていますか?

    -53のスモールランゲージモデルは日本語の文章生成においても高クオリティを発揮しており、他のモデルと比較しても優れた結果を出すことができるとされています。

  • 53のスモールランゲージモデルは、どのようなタスクに向いていますか?

    -53のスモールランゲージモデルは、複雑なタスクではなく、より単純なタスクに対して高いパフォーマンスを発揮することが期待されます。例えば、文章の生成や要約、翻訳などのタスクに向いています。

  • 53のスモールランゲージモデルとGPT3.5の比較で、どのような結果が出ていますか?

    -53のスモールランゲージモデルは、GPT3.5と比較しても同様のクオリティで文章生成ができるとされています。また、53は日本語の精度も高く、日本市場で歓迎される可能性が高いとされています。

  • 53のスモールランゲージモデルはなぜオフラインでの使用が可能です?

    -53のスモールランゲージモデルは、計算リソースを少なくともつながらも高いパフォーマンスを発揮できるため、クラウドに依存しないローカルデバイスでの実行が可能であり、オフラインでの使用が可能です。

  • 53のスモールランゲージモデルが提供する3つのモデルの中で、どのモデルが現在利用可能ですか?

    -53のスモールランゲージモデルの3つのモデル中では、53ミニが現在利用可能で、コンテキストウンドウが4K版と128K版の2つがあります。

  • 53のスモールランゲージモデルは、どのような場面で有効なのでしょうか?

    -53のスモールランゲージモデルは、モバイルデバイスやオフライン環境でのAIアプリケーションなど、計算リソースが限られた場で有効です。また、文章生成や要約、翻訳などのタスクにも適しています。

  • 53のスモールランゲージモデルとラーマ3の70Bモデルを比較した場合、どのような結果が得られましたか?

    -53のスモールランゲージモデルとラーマ3の70Bモデルを比較した場合、ラーマ3は速度は早く、プロンプトに忠実なアウトプットを提供しましたが、日本語のサポートが弱く、ニュアンスに違和感がある部分がありました。一方、53は日本語の精度が高く、柔軟性と移動性などの利点を細かく説明することができました。

Outlines

00:00

🌟 Microsoftの小型言語モデル「53」の徹底レビュー

この段落では、Microsoftがリリースした小型言語モデル「53」について紹介しています。53はオープンソースで、パラメーター数が少なく、高機能でコスト効率が良いとされています。また、53は3つの展開モデルがあり、それぞれが異なるサイズで、比較的コンパクトながらもクオリティが高いとされています。さらに、53は他のオープンソースモデルよりも優れたパフォーマンスを示しており、日本語の精度も高く、日本で使用する際には嬉しいとされています。

05:00

🚀 小型言語モデルの利点と53の性能比較

この段落では、小型言語モデル(SML)の利点を解説し、53が他の言語モデルと比較してどのような性能を発揮しているかについて述べています。SMLは計算リソースを少なくとも簡易なタスクで高いパフォーマンスを発揮できるとされており、53はその中でも特に優れた性能を持ち合わせているとされています。また、53のminiモデルは、他の言語モデルよりもスコアが高いとされています。

10:01

📈 53の応用例と比較実験

この段落では、53が実際にどのような応用が考えられるのか、また53と他の言語モデルを比較した実験結果について説明しています。53は文章の生成や要約、まとめなどを行う際に優れており、GPT3.5と同じようなクオリティで応答を返すことが可能です。また、53とGPT3.5、ラーマ3の70Bを比較した結果、53はプロンプトに忠実に応答し、柔軟性や初期費用の低さなどの利点を細かく説明することができたとされています。

15:04

🎓 53の今後の展望と使用方法

最後の段落では、53の今後の展望と使用方法について語っています。53はオフラインでの使用も可能であり、大規模言語モデルと比較して複雑なタスクではまだ劣りますが、文章生成などの基本的な機能では優れた結果を出せるとされています。また、53はハギングチャット内で無料で簡単に使用できるとされており、今後はAIツールの選択肢として注目される可能性があると予想されています。

Mindmap

Keywords

💡スモールランゲージモデル

スモールランゲージモデルとは、大規模言語モデル(LLM)とは対照的に、パラメータ数が少なく、計算リソースを少なくともつながらも高いパフォーマンスを発揮できる言語モデルです。このビデオでは、Microsoftがリリースした最小で最強のスモールランゲージモデル「53」について紹介しており、その特徴や性能について解説されています。

💡オープンソース

オープンソースとは、ソフトウェアのソースコードが公開されており、誰もが自由に使用し、改変できることを指します。ビデオでは、Microsoftがリリースしたスモールランゲージモデル「53」がオープンソースであり、他の開発者が自由に利用できることが強調されています。

💡パラメーター

パラメーターとは、モデルが学習する際に調整可能な要素のことを指します。パラメータ数が小さいほど、計算リソースを少なくともつことができますが、ビデオではスモールランゲージモデル「53」がパラメータ数が少なくとも高性能な結果を出すことができると説明されています。

💡コンテキストウンドウ

コンテキストウンドウとは、言語モデルが文脈を理解する範囲を指します。ビデオでは、「53」モデルが4K版と128K版のコンテキストウンドウがあることが触れられており、これはモデルがどれだけ長い文脈を考慮に入れるかを決定する要素です。

💡コスト効率

コスト効率とは、獲得する性能や結果にかかるコストの比率を意味します。ビデオでは、スモールランゲージモデル「53」が、少ない計算リソースで高性能なタスクを実行できるため、コスト効率が高く特にモバイルやオフライン環境で優位性を持つと紹介されています。

💡ローカルデバイス

ローカルデバイスとは、ユーザーの近くに存在し、インターネットに直接接続されていないコンピュータやスマートフォンなどのデバイスを指します。ビデオでは、スモールランゲージモデルがローカルデバイス上で動作し、オフラインでも使用できる利点を強調しています。

💡モバイル

モバイルとは、携帯性のあるデバイスを指し、特にスマートフォンやタブレットコンピュータなどが該当します。ビデオでは、スモールランゲージモデルがモバイルデバイス上で動作することで、インターネット接続がない環境下でもAIの活用が可能になるという利点を説明しています。

💡AIツール

AIツールとは、人工知能技術を利用して様々なタスクを自動化したり、支援するソフトウェアアプリケーションを指します。ビデオでは、スモールランゲージモデル「53」がAIツールとして、文章生成や要約、翻訳などのタスクをこなすことが可能なと触れられています。

💡オンライン/オフライン

オンラインとは、インターネットに接続された状態を指し、オフラインはインターネットに接続されていない状態です。ビデオでは、「53」モデルがオフラインでも使用できる点が強調されており、インターネット接続が不安定な場所でもAIの恩恵を受けられると紹介されています。

💡生成AI

生成AIとは、文章や画像などの媒体を生成する人工知能のアプリケーションを指します。ビデオでは、スモールランゲージモデル「53」が生成AIとして、文章生成タスクにおいて優れた性能を発揮することができると説明されています。

💡比較

比較とは、2つ以上のものを対比して、その特徴や性能などを評価する行為を意味します。ビデオでは、「53」スモールランゲージモデルと他の言語モデル(GPT3.5やラーマ3など)を比較し、性能や使用状況を評価する場面があります。

Highlights

Microsoftが最小で最強のスモールランゲージモデルをリリースしました。

スモールランゲージモデルはオープンソースで、GPT3.5と同じレベルのモデルが提供されています。

53の3つのモデル展開:53ミディアム、53スモール、53miniが紹介されました。

53miniはコンテキストウンドウが4k版と128K版の2つのバージョンで利用可能です。

パラメーターの大きさと生成クオリティの比較で、53は他のモデルと比較して優位性があります。

53は小規模言語モデル(SML)として、計算リソースが少なくも高いパフォーマンスを発揮できるとされています。

SMLはモバイルデバイスなどローカル環境で簡単に動かすことができると紹介されました。

53は主要ベンチマークテストでGPT3.5やラーマ3を上回る性能を示しました。

53のミディアムモデルは、大規模言語モデルに迫る、あるいは超えるような性能を持ち合わせているとされています。

SLMはクラウドでなくても使える独自のポジションを有しているとMicrosoftの担当者が述べています。

53のminiモデルは日本語も使用可能で、精度が高く、速いレスポンス時間を誇ります。

53は記事の要約や生成などのタスクでスムーズに質の高い出力を生成できると評価されました。

53とGPT3.5の比較で、53はGPT3.5と同等、あるいはそれ以上のクオリティを提供しているとされています。

53のminiモデルは、計算タスクには苦手で、複雑な問題にはまだ向いていないと示唆されています。

53とラーマ3の70Bを比較し、ラーマ3は高速な応答で英語での出力を行いましたが、53も優れたパフォーマンスを示しました。

ラーマ3は日本語のサポートが弱く、ニュアンスに違和感があるが、内容的には優れているとされています。

53の紹介で、AIツールの切り替えがデフォルトになりつつあると予想されており、今後の活用が期待されます。

Transcripts

play00:00

こんにちはめきめきです私については

play00:02

こちらをご覧くださいリリアには0から

play00:05

始めるjatGPTダリ3マスター講座を

play00:07

リリースしています0からチGPTの使い

play00:11

方を体型的に学びたい方お仕事で活用し

play00:14

たい方にぴったりの講座になっています気

play00:17

になる方は概要欄をチェックしてみて

play00:18

くださいまたmikmikスクールの

play00:21

LINEお友達登録をしていただくと厳選

play00:24

GPT集やダリ3で使えるプロンプト集

play00:26

など配布中ですLINE限定の勉強会も

play00:29

やってますので是非ご参加ください

play00:32

mikmikWebスクールチャンネル

play00:33

登録してねチャンネル登録後通知を全てに

play00:37

すると新作動画のお知らせが届きます本日

play00:40

は速報ですMicrosoftの最新生成

play00:43

AI最小で最強のスモールランゲージ

play00:46

モデル53を徹底レビューしていきます大

play00:49

規模言語モデルを表すllmという言葉

play00:52

聞いたことありますよねこれはGPT4で

play00:55

あったりジェミニークロードなど有名な

play00:57

モデルが色々あります規模言語モデルに

play01:00

対して小規模言語モデルを表すスモール

play01:03

ランゲージモデルって言葉聞いたことあり

play01:05

ますかこちら詳細は後ほどご紹介していき

play01:09

ますがMicrosoftが最小で最強の

play01:12

スモールランゲージモデルをリリースした

play01:14

んですこれ今後かなり注目なのと今後

play01:17

さらにこのslmのモデルが色々出てき

play01:20

ますのでこちらについて今日は徹底解説し

play01:23

ていきます本日の目次こちらになります5

play01:26

3の特徴とポイントそして53の半音をお

play01:30

見せしていきます53はオープンソースで

play01:33

あるラーマ3とあとはチャッGPTの無料

play01:36

バージョンにあるGPT3.5と同じ

play01:39

ぐらいのモデルになってきますのでそちら

play01:41

と比較をしながらハンゾーでご紹介して

play01:43

いき

play01:46

ますはいそれではまず53の特徴と

play01:49

ポイントを押えていきましょう53の

play01:52

ポイントは3つありますまず1つ目が3つ

play01:55

のモデル展開があるという点ですそして

play01:57

最も高機能でコスト効率が高い小規模言語

play02:01

モデルSMLですまたGPT3.5だっ

play02:05

たり他のオープンソースのモデルを上回る

play02:08

こちらがですね53の特徴なっています1

play02:11

つずつ詳しく解説をしていきますまず3つ

play02:14

のモデル展開というところですが緑のもの

play02:17

が53のモデルになっています大きく3つ

play02:20

で1番大きいモデルが53ミディアム

play02:23

そして真ん中のモデルが53スモール

play02:26

そして53miniです53のスルと

play02:30

ミディアムはまだプレビュー版でmini

play02:32

が現在もう使えてコンテキストウンドウが

play02:35

4k版と128K版があります他の同じ

play02:39

ようなモデルと比較があります横軸が大き

play02:43

さですね要はパラメーターの大きさです

play02:46

パラメーターが大きいほど計算リソースが

play02:49

必要で一般的に精度が高いと言われてい

play02:52

ますそして縦軸が生成のクオリティですま

play02:56

この図で言うとですね1番いいのはサイズ

play02:59

が小さくてクオリティが高いまこれが一番

play03:02

効率がいいとされていますでパラメーター

play03:05

の小ささで言うと53のMINIが1番

play03:08

小さいですねそして肝心なクオリティです

play03:11

サイズだけコンパクトでもクオリティが

play03:13

低ければ意味ありませんよね他のモデルと

play03:16

比較してみるとラーマ3の8Bと53の

play03:20

MINIが同じぐらいですかねミラの方が

play03:23

ちょっと高いですがまあ近いぐらいですか

play03:25

ねまだ使えませんがスモールとミディアム

play03:28

は他のモデルよもかなりクオリティが高い

play03:31

ことが分かりますこちらの3つがモデル

play03:33

展開

play03:35

ですそして次が最も高機能でコスト効率が

play03:39

高い小規模言語モデルという点です大規模

play03:42

言語モデルという言葉は聞いたことあると

play03:44

思いますがその逆が小規模言語モデル

play03:47

SMLですもうそのの通りモデルを動かす

play03:51

ための計算リソースが少なくてもより単純

play03:55

なタスクに対して高いパフォーマンスを

play03:57

発揮するモデルですで大規模語モデル

play04:00

llmは高度な水論であったりデータ分析

play04:04

コンテキストの理解を含む複雑なタスクの

play04:07

組み合わせが必要なアプリケーションに適

play04:10

していますクラウド上Web上で動きます

play04:13

なのでここをまとめていくとSMLは計算

play04:16

リソースが少なくていいイコール皆さんの

play04:19

デバイスでオフラインでも動かすことが

play04:22

できるということですなので単純なタスク

play04:24

に関してはパフォーマンスが高いですです

play04:27

がllmのようにまコード水論であったり

play04:30

とかま分析してとか難しいことをしてと

play04:33

いうのはの小規模言語モデルでは難しいと

play04:36

いうかちょっと物足りないかなという感じ

play04:39

ですで例えばですね小規模言語モデルは

play04:42

モバイルを含むローカルデバイスで簡単に

play04:45

動かすことができるのでこういったスマホ

play04:48

なんかで使用することができるんですね

play04:50

オンラインに繋がっていなくてもオフ

play04:52

ラインで使用することができますで全ての

play04:55

ユーザーが大きな計算リソースが必要な大

play04:58

規模言語モデルが必要というわではあり

play05:00

ませんよね実際に生成AIは何かまとめて

play05:04

とかまちょっと出してとかまそれぐらいの

play05:06

途で使っている方が意外とほとんどなので

play05:09

はないでしょうかそういった人はより高度

play05:12

なタスクだったり水論を必要としないので

play05:15

スモールサイズの生成で十分なわけですま

play05:18

そういった人にすごくぴったりなのがこの

play05:20

小規模言語モデルなんですオフラインで

play05:23

作業することができるのでこれまでは不

play05:26

可能だった方法でAIを活用できる人が

play05:28

増えるということでま例えば飛行機の上で

play05:31

文章をまとめてもらったりとかあとは

play05:33

ネットが繋がらないところなんかでもAI

play05:36

を使って仕事をしたりとかまそういうこと

play05:38

も可能なるわけですでslmはまそのの

play05:41

通りモデルを動かすための計算リソースが

play05:44

少なくてもより単純なタスクに対して高い

play05:47

パフォーマンスを発揮するモデルですで

play05:50

どのぐらいのパラメーターなのかというの

play05:52

を他のモデルと比較してみますで小規模

play05:55

言語モデルslmの5はミニスモール

play05:58

ミディアムで大体でこれぐらいの

play06:00

パラメーターで動いていますまたですね

play06:03

パラメーター数が同じように低いと言わ

play06:05

れるオープンソースの大規模言語モデル

play06:08

例えばラーマ3の70のモデルでは

play06:12

700億パラメータぐらいなんですねで8

play06:15

Bのものでも80億パラメーターですなの

play06:18

でslmはオープンソースのllmよりも

play06:21

ま少しパラメーターが少ないそれくらいの

play06:24

大きさのイメージですでクローズドの

play06:26

llmGPT3.5とか4とかジェミニー

play06:30

とかまこういったもののパラメーター数と

play06:32

いうのは非公開にはなっていますが桁違い

play06:34

に多いと言われていますまGPT3.5°

play06:38

slmのミディアム1番大きいモデルが

play06:41

同じぐらいですかねまいずれにしようこの

play06:43

クローズのモデルはパラメーターが非行解

play06:45

なのでま推測にはなりますがGPT4だっ

play06:48

たりとかジェミニに関してはパラメーター

play06:51

が桁違いということですなので高度なこと

play06:54

ができるというわけです

play06:57

ね次のポイントがGPT3.5や他の

play07:00

オープンソースのモデルを上回るという点

play07:03

ですでこちらがですね主要ベンチマーク

play07:05

テストの比較です左の4つが5です1番右

play07:09

がクード3ソネット真ん中のモデルですね

play07:12

そしてGPT3.5とラマ3になってい

play07:16

ますこのベンチマークの中でも主要なもの

play07:18

見ていきましょう今使えるのが53の

play07:21

miniのモデルなのでこちらと他の

play07:23

モデルを比較していきますまず1番上の

play07:25

ポピュラーアリゲートベイタウン

play07:29

中のmmlUというのが一般的なテストで

play07:32

包括的なものですが53のminiの4k

play07:36

のモデルでラーマ3の8Bのモデルより

play07:39

若干点数が高いですねビッグベンチハード

play07:43

というのもフカテストの1つなんですが5

play07:46

3miniでラマ3だったりとかGPT

play07:49

3.5よりも点数が高いですまた言語の

play07:52

テストでもラーマ3とGPT3.5の間の

play07:56

数値ですね結構大規模現行モデルと貼っ

play07:59

てるぐらいの点数を出していますで水論の

play08:02

中のコモンセンスQAというテストでは

play08:05

GPT3.5よりも高い数字でソネットに

play08:08

迫る点数ですこのようにかなり53の

play08:12

パフォーマンスは高いのが分かります53

play08:15

のミディアムのモデルはクロード3

play08:17

ソネットよりも点数が高いものもいくつも

play08:20

ありますねまこれぐらい53のミディアム

play08:23

1番大きいモデルは大規模言語モデルに

play08:25

迫るかまそれを超えるような数字も

play08:28

叩き出しているんですなので最上級の

play08:30

slmとミディアムサイズのllmだと

play08:34

もう差がないこれぐらいのレベルまで

play08:36

slmのレベルが上がってきてるという

play08:39

ことですこれはオープンソースのllmと

play08:42

全く同じ流れでクローズのllmオープの

play08:45

LMSMLの最上級この辺がですねほぼ

play08:49

同角にもう最終的にはなっていくのでは

play08:51

ないかと予想していますこれはですね

play08:54

Microsoftのslmの担当の人が

play08:56

言っていたんですがslmがLLにとって

play09:00

変わるということではありませんslmは

play09:03

クラウドに行かなくても使えるという独自

play09:05

のポジションを気づいていますなのでこの

play09:07

ポートフォリオの中でそれぞれのモデルの

play09:10

長所と短所を理解して使い分けていくこと

play09:13

が大切という風に述べられていましたなの

play09:16

でslmがllmにとって変わるという

play09:18

ことではなく自分の用途あなたが何をし

play09:21

たいかによって言語モデルを使い分ける

play09:23

ことが必要になるということ

play09:27

ですマイクソフトのslmは使える場所が

play09:31

限られていますハギングチャット内で無料

play09:34

で簡単に使用することができますので私は

play09:36

今回こちらを使ってご紹介をしていきます

play09:39

でこちらですねモデルを選択することが

play09:41

できます今回は53のminiの4k

play09:44

モデルを使用していきますまずは日本語は

play09:47

使えますかと入れていきますはい日本語が

play09:49

使えますと返答が来ました日本語はオーな

play09:52

ようですで色々使ってみたんですがこの5

play09:55

3は日本語の精度かなり高いですなので

play09:58

結構日本には嬉しいですね結構この

play10:01

アウトプットもいいのでどんな感じで

play10:03

できるのか見ていきましょう例えば犬を

play10:05

買う際に用意した方がいいものを詳しく

play10:07

教えてと入れていき

play10:10

ますそうすると犬を買う際にはということ

play10:13

でま一般の生成AIと同じように

play10:16

アウトプットを出してくれましたお

play10:19

スピードとかも結構早いですよねこれ

play10:21

なんかgbt3.5とかgbt4とかより

play10:25

も早い気がしますねはいまアウトプットと

play10:28

してはま食事だったりとか運動場所とかま

play10:32

病院だったりとかという風にま一般的な

play10:34

アウトプットの内容ですねを出してくれ

play10:37

ましたでそこでですねまフォローアップ

play10:40

質問ということでまこんな質問もあなた

play10:43

求めてるのではないでしょうかという質問

play10:46

も出してくれましたすごくいいですね結構

play10:48

スピードも早いというのもポイントが高い

play10:51

ですねじゃいつまでの情報でアウトプット

play10:53

を出してくれてるのか聞こうと思いますえ

play10:56

情報は2023年までの最新の情報という

play10:59

ことなので2023年12月までですかね

play11:03

となると今のチャットGPTのGPT4と

play11:06

同じぐらいの情報ですねパワポのプレゼン

play11:09

作成どちらが仕事にお勧めですかと聞いて

play11:11

いきますキャンバはまこんなプレゼンだよ

play11:15

というところとパワポの特徴を出してくれ

play11:17

ていますでまデザインの複雑さだったりと

play11:20

かユーザーの技術力というところとか機能

play11:23

の充実度ということでま比較ポイントを

play11:26

出してくれていてまその比較ポイントで

play11:28

こっちおすめというのを出してくれてい

play11:31

ますねお結構なんかアウトプットもいいし

play11:34

スピードもあっていいですねはい次はです

play11:37

ね計算をしてもらおうと思いますこういう

play11:39

計算も得意な生成AIと不得意な生成AI

play11:44

がありますがこちらはどうでしょうか答え

play11:47

は185.85.16

play11:59

まちょっと違いますねやっぱ生生AIま

play12:02

計算が苦手なものも多かったりするのでま

play12:05

なんかちょっと誤差ですが惜しい感じでし

play12:08

たはい次は太郎は花子より早いです花子は

play12:12

次郎より早いです太郎と次郎どちらが早い

play12:14

ですかという質問ですこれ答えは太郎が

play12:18

正解ですあ太郎と次郎の時間帯を比較する

play12:23

ためには具体的な情報が必要です太郎と

play12:26

次郎の時間帯を特定する必要がありますと

play12:28

いうことでま答えは出してくれませんでし

play12:30

たねまこういうちょっと複雑なタスクは

play12:33

苦手なようですねちょっと計算も怪しいの

play12:36

でま計算だったり複雑なものここはまだ今

play12:39

のところこのslmでは向いていないよう

play12:41

ですただ文章を生成してくれたりとか要約

play12:45

してくれたりとかまとめたりというのは

play12:47

問題なくすることができましたなんか

play12:50

アウトプットのクオリティ的にもGPT

play12:52

3.5と同じような感じで出してくれて

play12:55

いるのでやはりGPT3.5と同じぐらい

play12:58

のクオリティだなという印象

play13:01

ですま結構GPT3.5に近いところが

play13:05

あったので実際にGPT3.5と比較して

play13:08

いこうと思います賃貸と文章をどちらが

play13:11

いいのか3000文字で出して結論もと

play13:13

入れていきますではこちらで生成していき

play13:18

ましょうはいまスピードを見ていくとあ

play13:21

結構3.5も早いですね同じぐらいかな

play13:24

本当に同じぐらいのスピードで出してくれ

play13:28

ていますねおいいですねどうでしょうか

play13:33

うんどっちも同じぐらいで終わりましたで

play13:36

はちょっと文字数を比較していきましょう

play13:39

か3000文字っていう風に入れましたが

play13:42

ま大体3000文字ぐらいで生成してくれ

play13:45

ましたねはいじゃあ全部文字をなしにする

play13:49

と800文字ぐらいでま総合でも2100

play13:52

文字ぐらいでしたねプロンプトの正確さを

play13:55

比較するとGPT3.5の方がより

play13:57

プロンプトに忠実にアウトプットを出して

play14:00

くれましたで内容としてはま賃貸と利点と

play14:04

しては柔軟性と移動性初期費用が低い

play14:07

メンテナンス費用の負担が軽い地域の多様

play14:10

性というところを細かくアウトプット出し

play14:13

てくれていますで対してslmの賃貸の

play14:16

メリットはま収入の確保だったりとか経済

play14:19

的な利便性税務上の利点なんかがあります

play14:23

収入の確保これどういうことでしょうかね

play14:26

借り手は物件を使用し収入を得ることが

play14:28

できますということであ賃貸物件を貸す

play14:31

メリットというアウトプットですかねまた

play14:34

経済的な利便性ということで物件を使用

play14:36

することで借手は物件の利用に対する

play14:39

コストを削減できます伝えたい内容と違っ

play14:42

ていますねあとは欠点としては発想により

play14:45

収入が失われる可能性がありますとかま

play14:48

分場のメリットもなんか言ってくれてるん

play14:50

ですがまちょっとこの質問に関してはこの

play14:53

slmのアウトプットはうんいまいですね

play14:57

内容がよく分からない感感じですねこの

play15:01

質問に関してはGPT3.5の圧勝では

play15:04

ないでしょうかもうかなりいい

play15:06

アウトプットを出してくれました結構です

play15:08

ねslmもすごくいいアウトプットを出し

play15:11

てくれるなと思ったんですが本件の3.5

play15:13

と比較するとま質問にはよると思うんです

play15:16

がま今回の質問に関しては3.5の方が

play15:18

良かった

play15:21

です次は同じハギングチャット上で53の

play15:25

miniとラマの70Bを比較していき

play15:28

ますはいまたですね賃貸と分場を比較して

play15:32

いこうと思いますはいお願いし

play15:36

ますラーマ3は結構ねスピードが早いと

play15:40

いうことなんですがおっとっとラーマ3の

play15:43

70Bは英語でアウトプットが出てきまし

play15:45

たねまただスピードはめちゃくちゃ早い

play15:48

ですねもうすごい英語なので日本語にして

play15:53

もらえますおでもslmも終わりましたね

play15:55

slmの文字数としては全部含めてま

play15:59

2000ぐらいですかね約対してラーマ3

play16:02

ですま全部で2700ぐらいなのでラーマ

play16:07

の方がプロンプトにより忠実ですね確かに

play16:10

文章量もラーマの方が多そうです内容に

play16:13

関してはslmは先ほどと同様にちょっと

play16:16

よく分からない内容なんですがラーマ3の

play16:20

方はま低い初期費用だったりとか

play16:22

フレキシビリティま少ないメンテナンス

play16:24

だったりとかアメニティそういった内容

play16:27

だったりとかまタシなんかも出してくれて

play16:30

いますラム3ですねちょっと日本語の

play16:33

サポートがまだ弱いのでちょっと日本語の

play16:36

なんか感覚って言うんですかねニュアンス

play16:38

が少し違和感があるところはありますねま

play16:41

内容的にはすごくいいですね目の付け所と

play16:45

かお知りたいところとかをポイントは抑え

play16:47

てくれていますまちょっと日本語の文章が

play16:50

というところですねで最後はなんかこう

play16:52

ちょっとね英語を喋れる人風で英語だっ

play16:55

たりとか日本語だったりこう混ぜた感じで

play16:57

アウトプットを出してくれました

play16:59

ナ3とslmを比較した場合もラマ3の方

play17:03

がまだまだアウトプットいいかなと思い

play17:04

ますはい皆さんいかがでしたでしょうか

play17:07

本日はMicrosoftがリリースした

play17:10

小規模言語モデルという新しいモデルの5

play17:13

3をご紹介していきました大規模言語

play17:16

モデルと比較するとまだまだの点だったり

play17:18

とか物足りない点できない点なんかもあっ

play17:21

たりするんですが文章の要約だったりとか

play17:24

文章の生成こういった点に関しては

play17:27

スムーズにいい内容を出しくれましたこれ

play17:30

がオフラインで使用できるというのも

play17:32

新しいですよねまなので大規模言語モデル

play17:35

を使用する時はちょっと複雑なタスクで

play17:38

もう簡単な文章生成だったりようやくは

play17:40

ファイ3でと言ったように今後このAI

play17:42

ツールの切り替えというのもデフォルトに

play17:45

なってきそうですね皆さんも是非53

play17:47

Minに使ってみてくださいこちらの動画

play17:50

参考になったらいいねボタンとチャンネル

play17:51

登録お願いしますミキWebスクールに

play17:54

入学をしていただき一緒にスキルアップを

play17:56

していきましょうまた次の動画でおし

play18:00

ましょう動画を最後までご覧いただき

play18:02

ありがとうございますメキキウブスクール

play18:05

のLINEお友達登録で今豪華5大特典を

play18:08

プレゼント中ですInstagram完全

play18:11

保存版おすすめワズワードシやChat

play18:14

GPT本当に役立つ厳選GPT10戦完全

play18:18

攻略ダリ3おすすめのプロンプトシそして

play18:22

ミッジャーニーの保存版プロンプト全一覧

play18:24

のPDFやキャンバのおすめフォント集も

play18:28

プレゼントして

play18:29

LINEメンバー限定の勉強会やセミナー

play18:32

も開催中です是非チェックしてみて

play18:34

くださいね

Rate This

5.0 / 5 (0 votes)

Related Tags
スモールランゲージモデルMicrosoftAI53言語モデルパフォーマンスオフラインタスク比較解説
Do you need a summary in English?