【必見】ファインチューニング入門~コスト98%削減も!ビジネスマンは知っておきたいファインチューニングの基本&活用事例&活用パターン

リモートワーク研究所【リモ研】
5 Jun 202431:59

Summary

TLDRリモートアク研究所はファインチューニングの入門と活用方法を紹介します。GPTモデルや生成AIモデルを特定のタスクに合わせて最適化する手法で、処理コストがGPT-4活用に比べて98%削減された事例もあります。ファインチューニングの基本、具体的な活用方法、コスト削減の詳細について説明し、実際のビジネスでの利用例を示します。AI活用の最新情報を提供し、ビジネスマンにとって重要な知識をお届けします。

Takeaways

  • 😀 ファインチューニングは、既存のAIモデルを特定のタスクに合わせてさらに学習させる技術です。
  • 🔧 ファインチューニングの活用はビジネスで大きなメリットがあり、例えば処理コストを大幅に削減することが可能です。
  • 💡 ファインチューニングの基本は、データを与えAIモデルをカスタマイズすることです。
  • 📈 ファインチューニングの例として、通訳パターンの分類タスクにおいて98%のコスト削減を実現した事例が紹介されています。
  • 🛠️ ファインチューニングは、独自のAIモデルを作り始めからトレーニングするというよりは、少ないデータで既存モデルを調整する手法です。
  • 📚 学習データは最低でも10サンプル必要とされ、そのデータはJSON形式に変換してOpenAIに提供します。
  • 🎯 ファインチューニングは、分類タスクや変換タスク、スタイルやトーンの設定、特定のフォーマットへの変換など、多様なビジネスニーズに応じて活用できます。
  • 📉 ファインチューニングを通じて、プロンプトでのルール化が難しい場合やエッジケースが多い場合にも対処できます。
  • 📈 学習過程はOpenAIの管理画面上で確認でき、トレーニングロスが0に近づくにつれて理想的なアウトプットに近づくことがわかります。
  • 🚀 ファインチューニングは、ビジネスでルールベースの方法や人間による処理と組み合わせることで、効率化とコスト削減に大きな貢献をします。
  • 🌐 リモートワーク研究所では、AIの活用事例や最新情報を提供し、ビジネスでのファインチューニングの重要性とその効果を強調しています。

Q & A

  • ファインチューニングとはどのような技術ですか?

    -ファインチューニングは、既存の学習済みのAIモデルに対して特定のタスクに合わせて追加学習させる技術です。これにより、モデル自体を少しカスタマイズすることができます。

  • ファインチューニングのメリットは何ですか?

    -ファインチューニングの主なメリットは3つあります。1つ目は出力結果が安定すること、2つ目はプロンプトに含められない大量の例を学習できること、3つ目はプロンプトを短縮することでトークンの節約や低遅延リクエストが可能になることです。

  • ファインチューニングはどのビジネスシーンで有効ですか?

    -ファインチューニングは分類タスクや変換タスクなど、特定のパターンに合わせたAIのカスタマイズが必要なビジネスシーンで有効です。また、ルールベースで難しい場合やエッジケースが多い場合にも適しています。

  • ファインチューニングによって処理コストを98%削減した事例について教えてください。

    -ある事例では、通訳パターンの分類タスクにおいて、GPT3.5のファインチューニングを行った結果、処理コストが大幅に削減され、精度も90%以上に向上しました。

  • ファインチューニングを実施するためにはどのような手順が必要ですか?

    -ファインチューニングを実施するためには、まず学習データの準備が必要です。次に、学習データをJSON化し、OpenAIの管理画面で学習を実行します。そして、新しく作られたモデルを利用して、期待される結果を得ることができます。

  • 学習データはどのように準備すれば良いですか?

    -学習データは、システム、ユーザー、アシスタントの3つの列を持つスプレッドシートなどで整理し、必要なパターンが十分に網羅されていることを確認して準備します。

  • ファインチューニング後のモデルはどのようにして利用できますか?

    -ファインチューニング後のモデルは、OpenAIの管理画面上のプレイグラウンドから直接利用することもできますし、APIを通じてプログラムから読み出して大量に使用することも可能です。

  • ファインチューニングのトレーニングコストはどのくらいになりますか?

    -ファインチューニングのトレーニングコストはデータセットの規模によって異なりますが、一般的には数百円から数千円程度と比較的低く抑えられます。

  • ファインチューニングはどのような種類のAIモデルに適用できますか?

    -ファインチューニングはGPT3.5やGPT4などの大型言語モデルに適用できますが、GPT4はテスト版であり、コストが高くなりやすいためGPT3.5が一般的に選択される傾向があります。

  • ファインチューニングはどのような場面でおすすめされますか?

    -ファインチューニングは、特定のビジネスタスクに合わせたAIのカスタマイズが必要な場面や、人間がやるよりもスピーディでスケーラブルな結果が必要な場合におすすめされます。

Outlines

00:00

😀 ファインチューニングのビジネス活用とメリット

この段落では、ビジネスマンにとってファインチューニングの重要性とその活用方法について紹介しています。GPTモデルを特定のタスクに合わせてファインチューニングし、ビジネスでの活用とそれに伴うメリットについて解説しています。具体的な技術詳細よりもビジネスでの活用方法にフォーカスし、処理コストの大幅な削減など、ビジネスシーンでの有効活用例を紹介しています。

05:00

😉 ファインチューニングの基礎知識と価値

ファインチューニングとは、既存の学習済みAIモデルに対して特定のタスクに合わせて追加学習させる技術であると説明されています。その基礎知識から始まり、具体的な活用方法とコスト削減の例を交えて話が進みます。また、ファインチューニングの3つの価値として、出力結果の安定化、プロンプトに含められない大量の例を学習できること、プロンプトの短縮によるトークン節約や低遅延リクエストの実現について触れています。

10:03

😃 ファインチューニングの具体例とコスト削減

具体的な事例として、通訳パターンの分類タスクにおいてファインチューニングを行った結果、高精度での大きな成果が得られたと紹介されています。人間による作業からAIへの移行が検討され、その過程でプロンプト方式とファインチューニング方式のコストと精度を比較分析しています。最終的に、ファインチューニングによって98%のコスト削減を実現し、高精度でのビジネス適用が可能になったと強調されています。

15:06

😁 モデルごとのコスト比較とファインチューニングのコスト效益

GPT3.5ターボとGPT4O、GPT4ターボのモデルごとのコスト比較が行われており、それぞれのモデルにおけるインプットとアウトプットのコストについて説明されています。ファインチューニングによって、モデルのトレーニングコストが比較的低い金額で済み、かつ効果的な結果が得られることが示されています。トレーニングコストは人件費と比較して圧倒的に低いため、ビジネスでの活用が非常に有利であると主張しています。

20:07

😄 ファインチューニングの実施方法と手順

実際にファインチューニングを行う手順が紹介されています。学習データの準備、JSON化、OpenAIの管理画面での学習実行、新モデルの利用方法について説明が進んでいます。データの準備からJSON形式への変換、OpenAIのAPIを利用したデータのアップロードとモデルの学習実行、そして新モデルの利用方法について、手順通りに説明されています。

25:07

😉 学習プロセスの紹介とファインチューニングの効果

ファインチューニングの学習プロセスがグラフで可視化されており、トレーニングロスがどのように減少し理想的なアウトプットに近づいていっているかが解説されています。学習前後のモデルの比較を行い、ファインチューニングによって精度の向上が示された例を紹介しています。また、学習したモデルをプレイグラウンドでテストし、その効果を実際に確認することができると説明しています。

30:08

😀 ファインチューニングのビジネス適用と今後の展望

ビジネス現場でのファインチューニングの適用について話が進んでおり、分類や変換タスクにおいての活用が具体的に紹介されています。ファインチューニングがビジネスフローの特定の部分で大きな成果を出すと主張しています。また、今後の展望として、ファインチューニングの適用を増やし、ビジネスでの活用を拡大していきたいと述べています。最後に、チャンネル登録や各種イベントへのご参加を呼びかけています。

Mindmap

Keywords

💡ファインチューニング

ファインチューニングとは、既存の学習済みのAIモデルに対して、特定のタスクに合わせて追加学習させる技術です。このプロセスにより、モデルはより特定の業務に適応し、パフォーマンスを向上させることが出来ます。ビデオでは、ビジネスでの活用とそのメリットに焦点を当て、具体的な技術的なアプローチに加えて、ビジネスシーンでの有効性について解説しています。

💡生成AI

生成AIとは、新しいデータを作成することができる人工知能の一种です。ビデオでは、生成AIモデルのファインチューニングについて語り、その応用とビジネスでの利点を強調しています。生成AIはビジネスにおける自動化や効率化において重要な役割を果たしています。

💡GPT

GPTは、生成予測モデルの略で、自然言語処理の分野で広く使われています。ビデオではGPT3.5ターボやGPT4Oなど、特定のGPTモデルをファインチューニングしてビジネスタスクに適合させる方法について説明しています。GPTモデルは、言語の生成や理解において非常に強力なツールです。

💡プロンプト

プロンプトは、AIに入力を与えるためのテキストまたは信号です。ビデオでは、プロンプトを最適化することで、AIの応答を改善する一般的な方法として触れています。また、プロンプトを短くすることでトークンの節約や低遅延のリクエストが可能になるというファインチューニングの利点も紹介されています。

💡分類タスク

分類タスクとは、データを特定のカテゴリーに分類する作業です。ビデオでは、ファインチューニングを用いて分類タスクを自動化し、人間の介入を減らす方法について説明しています。特定の分類パターンに基づいて、大量のデータを効率的に処理することが出来ます。

💡コスト削減

ビデオではファインチューニングによって処理コストが大幅に削減された事例を紹介しています。GPT4の活用に比べて98%のコスト削減を実現する成功例があると語られており、ファインチューニングはビジネスにおいてコスト効率的なソリューションになる可能性を示しています。

💡モデル

モデルは、AIが学習や推論を行うためのアルゴリズムやデータのセットです。ビデオでは、ファインチューニングによって既存のモデルをカスタマイズし、特定のビジネスタスクに適した新しいモデルを作成する方法について説明しています。モデルのファインチューニングは、ビジネスにおけるAIの柔軟性と応用性を高めるために重要なステップです。

💡AIの応用

AIの応用とは、人工知能技術をビジネスや日常生活に取り入れることです。ビデオでは、ファインチューニングを通じてAIをビジネスに応用し、効率化や自動化を促進する様々な方法について詳述しています。AIの応用は、ビジネスプロセスの改善と革新をもたらす鍵です。

💡データセット

データセットは、学習やテストのために用いるデータの集まりです。ビデオでは、ファインチューニングに必要なデータセットを準備し、それを用いてAIモデルをトレーニングするプロセスについて触れています。適切なデータセットは、モデルの学習効率と精度に直結するため、ファインチューニングにおいて不可欠です。

💡ビジネスシーン

ビジネスシーンとは、ビジネス活動が行われる環境や場面を指します。ビデオでは、ファインチューニングがビジネスシーンでどのように活用され、特に分類タスクや変換タスクにおいての利点を強調しています。ビジネスシーンにおけるAIの活用は、競争力を高める上で重要な要素です。

Highlights

ファインチューニングとは、既存の学習済みAIモデルを特定のタスクに合わせて追加学習させる技術

ビジネスでファインチューニングを活用することで、処理コストを大幅に削減できる

GPTモデルファインチューニングの成功例として、98%のコスト削減を実現

ファインチューニングの基本知識はビジネスマンに知っておくべき必須知識

独自のllmラージランゲージモデルを作る方法とファインチューニングの比較

ファインチューニングは少数のデータを与えることでAIモデルをカスタマイズ

ラグと呼ばれる検索拡張生成方法とファインチューニングの相違点

プロンプトの最適化を通じて一般的な方法でAIを活用することができる

ファインチューニングの3つの価値:結果の安定化、大量の例を含む学習、プロンプトの短縮による利便性の向上

実際のビジネス事例でファインチューニングがどのように役立つかの解説

ファインチューニングにより、通訳パターンの分類タスクでの精度向上とコスト削減

GPT3.5ターボとGPT4O、GPT4ターボのコスト比較とその意味

ファインチューニングのトレーニングコストは比較的低い

ファインチューニングが向いているケース:分類系タスク、見せる系のタスク、スタイルやフォーマットの設定

具体的なファインチューニングの実施方法と手順の紹介

学習データの準備とその重要性、多様なパターンを持つデータの活用

OpenAIの管理画面でのファインチューニングの実行と新モデルの利用方法

ファインチューニング後のモデルは特定のタスクで精度が向上し、トークン数も減らすことができる

7月17日に開催される生成AIサミットVol2の告知と参加のお誘い

リモートワーク研究所のチャンネル登録と各種サービスの案内

Transcripts

play00:00

リモートアク研究所えとです今回は生成

play00:03

活用の必須知識ビジネスマンは知っておき

play00:05

たいファインチューニング入門と題しまし

play00:07

ておそらく皆さん名前は聞いたことあると

play00:10

思うんですけれどもGPTのモデルであっ

play00:12

たりとか生成AIのモデルをより自分の

play00:15

タスクにフィットした形にするファイン

play00:18

チューニングという手法に関して具体的な

play00:21

技術面というよりは実際ビジネスでどんな

play00:24

風に活用できるのかどんなメリットがある

play00:26

のかどんなケスは有効なのかということに

play00:28

フォーカスをしてご紹介できればと思い

play00:30

ます実は最近私ある案件でファイン

play00:32

チューニングやったんですけどもなんと

play00:34

処理コストがGPT4活用に比べて98%

play00:39

削減というのを成功した事例もありまして

play00:42

あるシーンではファインチューニング知ら

play00:45

ないとめちゃくちゃ損する話にならないと

play00:47

いうケースもビジネスシーンで出てきて

play00:50

おりますので是非今回の動画でこの

play00:52

ポイントをお伝えできればと思います内容

play00:55

としましてはまずファインチューニングと

play00:56

は何なのかそして2つ目ファイン

play00:58

チューニングの具体的な活用と共にどう

play01:01

やってコスト98%も削減したのかどんな

play01:03

シーンで活用できるのかをご紹介しますえ

play01:06

続けて3つ目はちょっと具体的な

play01:08

テクニックになるのでま興味がある方だけ

play01:10

ご覧いただければなと思うんですがオー

play01:12

AI上でいかにファインチューニングを

play01:14

実施するのか実際画面を見ながらご紹介し

play01:16

たいと思いますえこのチャンネルではAI

play01:19

リモート時代に必要なツールやノウハウ

play01:21

最新情報をビジネス視点でお届けしてるの

play01:23

でチャンネル登録をよろしくお願いします

play01:25

間もなく10万人突破予定ですではまずは

play01:28

ファインチューニングとは何なのか基礎

play01:30

知識からご紹介していきますファイン

play01:32

チューニングとは簡単に言うと既存の学習

play01:35

済みのAIモデル例えばGPT3.5

play01:37

ターボとかGPT4Oとかですねを特定の

play01:41

タスクに合わせて追加学習させる技術で

play01:44

あるというのがファインチューニングに

play01:46

なりますモデルにデータを与えて学習さ

play01:50

せることによってモデル自体を少し

play01:53

カスタマイズするという方法になるんです

play01:55

ねでこれと近い技術でいくつかありまして

play01:58

これアクセンチュアさんの資料を拝借し

play02:00

てるんですけども自分たちのデータを使っ

play02:03

てうまくそれに合わせた形でやるために

play02:05

どういう手法があるのか1つは1番ま

play02:08

ハードルが高くて大変な方法である独自の

play02:11

llmラージランゲージモデルを作ると

play02:14

いう方法ですねこれはデータを大量にえ

play02:17

与えた上で実際も自分たち独自のAIを0

play02:20

から作ってしまうという発想でしてま

play02:22

NTTさんとかですねそういう規模の会社

play02:24

は今トライしてますけれどもまほとんどの

play02:26

会社には関係ないというレイヤになります

play02:29

でに来るのがファインチューニングでして

play02:32

これは元々あるモデルに対して少数の

play02:35

データを与えてそこに最低化した形でAI

play02:38

のモデルを変えるということですねで3つ

play02:41

目がラグと呼ばれるえ仕組みで日本語で

play02:44

言うと検索拡張生成という風に言われます

play02:48

がデータベースからデータを毎回検索して

play02:51

それをプロンプトの中に入れて回答を作る

play02:54

という方法で実はラグではAIのモデル

play02:57

自体全く変えてなくてAIのモデルに回答

play03:00

を作ってもらう前に別で検索してデータ

play03:03

持ってくるという方法になるんですねで

play03:05

大きくはこの2つがま実際にビジネス

play03:08

シーンで考える時には選択肢に入る方法に

play03:11

なりますで特定タスクに最適化しようと

play03:14

思うと今の3つに加えてもう1個方法が

play03:17

ありましてそれが1番ですねプロンプトを

play03:20

作成して頑張るとつまり別にラグもせず

play03:22

ファインチューニングもせず独自Lもやら

play03:25

ずプロンプトを最適化してそのプロンプト

play03:28

の文言の中にいろんな定義をしたり例を

play03:30

入れたりして何とかするまこれが1番一般

play03:33

的な方法でして簡単にできますし費用体

play03:36

効果も高いと言われていますただ

play03:38

プロンプトだと毎回当然データを変える

play03:40

ことはできないので基本的に固定のある

play03:43

処理しか使えないとでラグというのは

play03:46

例えばQ&Aのように回答するべきテーマ

play03:49

が大量にあって毎回使うべき回答データが

play03:52

違うとこういう場合にはフロントを全部

play03:55

作ることはできないのでユーザーの質問に

play03:57

対して1回検索してデータスから必要な

play04:00

情報を引っ張ってきて回答するまこれが

play04:02

ラグなるわけですね立方ファインチュー

play04:04

ニングっていうのはラグのように毎回

play04:07

データを持ってくるのではなくてもう事前

play04:09

にデータをセットを与えた上でAIに学習

play04:12

させておいて新しいAI作っておいて実際

play04:15

使う時にはこの新しいチューニングした

play04:18

AIモデルを使うというのがファイン

play04:20

チューニングになりますで1番難しい方法

play04:23

で6LMがありますがこれが実際の

play04:25

ビジネスで選択肢に上がることはほとんど

play04:28

ないかなと思うので我々で一般的なその

play04:30

ビジネスをやっていてビジネスシーンで

play04:32

考えていくとまずプロンプトで頑張るが第

play04:35

1候補で私もこれまではほとんどこれをし

play04:37

ていましたで続いてラグ検索データと

play04:41

組み合わせることによって結果を活用して

play04:43

いくで次にファインチューニングという

play04:45

ことになっていますでファイン

play04:47

チューニングに関しては私も正直自分で

play04:49

あるまでは言葉は知ってるしなんとなく

play04:51

概念は分かるんだけれども結構難しくて

play04:54

ハードルが高いなとそしてファイン

play04:56

チューニングしてもそんなに成果出ないし

play04:58

生徒も出ないでしょうとやっぱり

play05:00

プロンプトを頑張るかもしデータが

play05:02

たくさんある場合はラグの仕組みで合わし

play05:04

てデータ持ってきて回答するまこの2つが

play05:07

主であってファインチューニングってなん

play05:09

か概念はあるけどそんなに有効じゃないん

play05:11

じゃないかなと思っていたんですけども

play05:14

そんなことはないというのが今日の次第

play05:16

でして使えるシーンでめちゃくちゃ使えて

play05:18

絶対使った方がいいなという風に最近は

play05:21

確信を得ていますさて具体例に行く前に

play05:24

ちょっと一般論でファインチューニング

play05:26

することの3つの価値って何なのかという

play05:29

話をしますこれOpenAIのファイン

play05:32

チューニングの記事がありましてそっから

play05:33

抜粋してちょっと要約をしてるわけなん

play05:35

ですけども大きく3つあると1つは出力の

play05:39

結果が安定するファインチューニングを

play05:41

する際にはこういうインプットだったら

play05:43

こういうアウトプットにしてねまこの学習

play05:45

セットを作るんですねこのパート3で実際

play05:48

学習セットを渡出したりとか実際学習する

play05:50

様子をお見せできればなと思うんですが

play05:53

それによってアウトプットの例をたくさん

play05:55

出すのでそこに出したようなアウトプット

play05:57

に非常になりやすいんですねで2つ目

play06:00

プロンプトには含められない大量の例を

play06:02

学習できるとこれプロンプトの中に例を

play06:05

たくさん入れるっていう方法もあるんです

play06:07

例えばまこれからご紹介するのは分類

play06:09

タスクになるんですけど20パターンの

play06:11

分類がある場合に20個の定義をした上で

play06:14

このインプットであるデータがどれに該当

play06:16

するかを考えてというのをプロンプトで

play06:18

あると20個の例をプロンプトの中に

play06:20

含める必要があるわけですねで20個程度

play06:23

であれば今のプロンプトって頑張れば

play06:25

10万文字くらい入るので全然余裕で入る

play06:28

んですけどもっともっと大量なケースが

play06:30

あって何百とかあるとさすがに定義を

play06:32

つつけるのも大変またその例もただ定義

play06:37

するだけではなくて01の場合にはこう

play06:39

いう定義で過去のデータではAとBとCと

play06:42

いうパターンの場合にはこれに該当しまし

play06:44

たみたいなことを何百パターンもしようと

play06:47

思うとプロンプトの中に入れるのは非常に

play06:49

難しくなってくるケースがあるんですね

play06:52

もちろん今プロンプトの量は増える方向に

play06:54

あるので何百パターンで参考例入れても

play06:57

プロンプトに入れることができないかと

play06:59

いうとできるケースも出てきてるわけなん

play07:01

ですけどさらに3つ目プロンプトを

play07:04

たくさん作らなくてもいいとプロンプトの

play07:05

短縮によるトークン節約や低遅延

play07:08

リクエストができるということでGPT4

play07:11

Oとかもしくは全然関係ないジェミニとか

play07:14

で大量のデータをプロンプトに含めて分類

play07:17

をすることはトクの制限的にはできるとし

play07:20

てもこれをすることによって毎回指示の旅

play07:23

に大量の定義表を送り付ける必要があって

play07:26

トークンがめちゃくちゃ増えちゃうこれに

play07:28

よってコストが上がっで処理も遅くなるん

play07:31

ですねこういったことに対してファイン

play07:33

チューニングで底の賄えておければ学習さ

play07:36

せる大量のデータっていうのはもうAIの

play07:38

モデルの中に組み込まれていてプロンプト

play07:40

に入れる必要はないのでプロンプトを短く

play07:42

できるその結果トークンも減りえスピード

play07:45

も早くなるまこれが3つ目の価値でして

play07:48

この2つ目3つ目が特に大きいかなと思っ

play07:50

ていて今回実際の自衛でご紹介したいと

play07:52

思いますではファインチューニングの活用

play07:55

事例でこれ実際最近私が案件入らせて

play07:58

いただいて一緒にコサれてで議論しながら

play08:00

やっていた例になり

play08:01

ますまずどんな事例かと言うと通訳

play08:05

パターンの分類タスクがあるとまいろんな

play08:07

文字列とか加情報があるとま文字列があっ

play08:10

た上で追加情報でこれはタイプAですよと

play08:13

かカテゴリーBですよみたいなものがある

play08:15

上でこの情報を元にして何百パターンか

play08:18

ある定義に基づいて分類をしていきたいと

play08:21

いうような要望がありこれって生成AI

play08:23

使ってできるんじゃないかなというご相談

play08:25

があったのでまこれに対して結論としては

play08:28

GPT3.5のファインチューニングを

play08:30

することによって非常に大きな成果が出た

play08:32

ということになるんですけどまず入り口

play08:35

前提はどうだったかて言うと元々は当然

play08:38

人間がやっていたわけですねでこのコスト

play08:40

に関しては資産なんですけれども例えば

play08:42

時給1000円で1分あたり1件できると

play08:45

するとま大体18元とかぐらいこれが30

play08:49

秒で1件できると10円ぐらいという感じ

play08:51

になるんですけれどもま定義表見ながら

play08:54

文字列を見てこれは何百種類のうちのこの

play08:56

パターンだこのパターンだていう風にやっ

play08:58

ていくのでまさすがに1分ぐらいかかるか

play09:00

なと見るとま20円ぐらいは人間対応で

play09:03

少なくともかかっているとでこれは単純に

play09:06

時給でずっと働き続けてもらう前提になる

play09:08

ので実際には採用コストであったりとか

play09:11

育成コスト管理コストも入ってるわけです

play09:13

しま人間なんで疲れてサボるみたいなこと

play09:16

でペースが下がるとかですねまた人間の

play09:18

頭数にこの処理量が比例するのである時に

play09:21

はスポットで増やさなくちゃいけなくて

play09:22

そういう部分の臨時コストかかるみたいな

play09:24

感じでこの処理コストにかからない

play09:27

いろんな管理コストであったりとか様々の

play09:29

があるミニマムに見て少なくともこの

play09:31

ぐらい処に勝っていたんですねで最初この

play09:34

案件を聞いた時に私が頭の中でこれで

play09:37

いけるかなと思ったのはプロンプトで何百

play09:39

パターンか定義してこれを処理するという

play09:42

パターンでいけるんじゃないかなという

play09:43

ことだったんですねプロンプトに入れる

play09:46

ことによって多少コストがかかるけれども

play09:48

人間がやるよりは多分低コストで何百

play09:51

パターンな何百何千も処理ができるので

play09:54

スピード感やスケーラビリティは人間より

play09:56

も高いとなので制度が出さすればコストが

play10:00

劇的に改善しなかったとて結構有用性が

play10:03

あるかなと思って最初はプロンプトの中に

play10:06

分類パターンを含めていくということで

play10:08

トライをしてましたその結果どうだったか

play10:11

と言と1件あたりのコストは23000と

play10:13

かまこのぐらいでいけるかなというのが

play10:15

目安でしたまトク数とかですねそういうの

play10:18

を計算した上でこのぐらいのコストかなと

play10:20

いうところだったんですけれどもい残念

play10:23

ながら精度が非常に低かったんですね一致

play10:26

率が本当10%とかそのぐらいしかなくて

play10:28

で理由として分類元データがあって分類表

play10:32

の定義に基づいて分類をするんですけど実

play10:35

は結構過去から培ってきた定義表では

play10:38

分からないこの場合にはこの分類にする

play10:40

みたいなこういう過去データがま10年

play10:43

20年と蓄積されていてそっち側を見ない

play10:46

と単なる文字面と定義だけでは判断でき

play10:49

ないみたいなケースが結構たくさんあった

play10:51

んですねなのでその瞬間だけ定義表に

play10:54

基づいて見ていけばこれという風には

play10:56

言えるとしても過去からの知見とか例を

play10:59

踏まえるとそれはちょっと難しいよねと

play11:01

いうことで元データーに対し定義法だけを

play11:04

使った分類ってのは相当残念な感じでして

play11:08

コストをさておき精度が低すぎてこれ全然

play11:10

ダメだねとでプロンプトの中に過去の例を

play11:14

たくさん入れ込むかということも考えたん

play11:16

ですけれども実はこれ数百パターンの分類

play11:19

タスクがさらに数十あるという結構

play11:21

ちょっと複雑な事業体になってましてそれ

play11:24

やってくるともうプロンプと作るのは大変

play11:26

すぎて現実的には難しいなってことで

play11:29

ちょっと一瞬止まったというか厳しいなっ

play11:31

て空気になったんですねここでファイン

play11:34

チューニング的なアプローチつまり

play11:37

いろんなパターンをモデルに学習させた上

play11:39

でこのパターンだったらこうというやつを

play11:42

過去の事例が大量にあるということは学習

play11:44

する過去データをまちゃんとデータを整備

play11:47

してあげれば簡単に使えるんじゃないかと

play11:49

作れるんじゃないかということがあったの

play11:51

でファインチューニングでやってみようと

play11:53

いうことを実際にやってみたんですねその

play11:55

結果どうなったかファインチューニングで

play11:58

の一見当たりコストは0.05となぜかと

play12:01

言うとトクをめちゃくちゃ減らすことが

play12:03

できましてプロンプトの場合は分類の定義

play12:06

を毎回のプロンプトに入れて依頼する必要

play12:09

があるんですけどファインチューンした

play12:11

AIモデルに対しては定義はすでに過去の

play12:14

データで学習データとして入れてるので

play12:17

そっちを全部はってインプットデータ元

play12:19

データだけ入れると過去のに合わして

play12:22

アウトプットの分類が返ってくるという

play12:24

ことができることにが分かったんですね

play12:27

確認ができたとそして精度結構高いと

play12:30

90%を超えて95%ぐらいこのトライの

play12:34

段階では何百種類かのデータを読み込まし

play12:37

て実際やってみた上で同じく何百件かのえ

play12:40

データに含めていないテストデータで検証

play12:43

したという感じになるんですけど十分

play12:45

すぎる高さで元々90%を超えていれば

play12:48

結構現実的に使えるねいう話ではあったの

play12:50

で95%超でこれはいけるねという感じに

play12:53

なりましたこのコストなんですけれどもで

play12:57

98%コスト避という感じですねま2円

play12:59

から0.05になってるのでこのプロンプ

play13:03

とかファインチューンかで言うと98%

play13:05

削減できたとま具体的なGPT4Oで

play13:08

プロンプトで行くかGPT3.5ターボ

play13:11

ファインチーンで行くかでこんだけの

play13:13

コストが変わりしかも精度が圧倒的に違う

play13:15

のでもう正直GPT4のプロトで話になん

play13:18

なかというのが今回の事例ですねかつ人間

play13:21

対応から考えるともっと劇的に99.何%

play13:25

のコスト削減にこれ成功するという感じに

play13:28

なっていて今ここまでは分かっていてこの

play13:31

後実際の取り組みていうのはこれから動い

play13:33

ていくわけなのでまこのファインチンの

play13:35

仕組みを作る仕組みを作ったりとか初

play13:37

コストはかかるわけなんですけれどもこれ

play13:38

を踏まえても十分に事業として使えるよう

play13:41

な実績がファインチーンを使うできると

play13:44

いうことが分かった事例でこれ非常に

play13:46

熱かったなという風に思っていますまそま

play13:48

にこういう事例どんどん作っていきたいな

play13:50

と1回やって思ってまして是非なんか

play13:52

ファインチューニング的なものでこんな風

play13:54

なことができるんじゃないかこれできそう

play13:56

かなと思った際にはご相談いただければま

play13:59

ちょっと議論した上でいけそうだなと思っ

play14:01

たらご提案しますしちょっと僕が聞いた

play14:03

感じ難しいかなと思ったらまできるかも

play14:05

しんないけど分かりませんって回答するか

play14:07

もしれないんですけど是非ご相談ください

play14:09

さてコストなんですけれどもなぜこんなに

play14:11

安くなるのかというところなんですがまず

play14:13

これがですね各モデルごとのコストの比較

play14:16

になりますGPT3.5ターボっていうの

play14:19

は今インプットプロンプトて入れるものと

play14:22

出てきたアウトプットいくらぐらいかと

play14:23

言うと1000頭君あたりのエベースの

play14:26

カウントになるんですけどインプットは

play14:28

1000頭君ま大体1000文字あたり

play14:30

0.0718000ぐらいアウトプットは

play14:33

0.23gぐらいというのが1000文字

play14:36

あたりのコストなんですねこれがGPT4

play14:39

Oになると実は10倍ですで実はGPT4

play14:43

ターボはOのさらに2倍になるのでGPT

play14:46

3.5ターボとGPT4ターボは20倍差

play14:50

があったんですねまこれが10倍まで

play14:52

狭まったというところになるんですけれど

play14:53

もでこれだけでも正直十分めちゃくちゃ

play14:56

高くないというか安い金額かなと思うん

play14:58

ですけれどもまとはいえ1000文字

play15:00

あたりインプットで0.8Nぐらい

play15:02

アウトプットで2.3ということで3.5

play15:05

ターボ比較すると結構かかりますし1処理

play15:08

で考えたらま0.08Nだろうが0.8

play15:11

NHだろうがほとんど変わんないわけです

play15:13

けどこれが何万何10万とか行くと当然

play15:15

結構な差なるわけですね10倍の差が出て

play15:17

くるとここでGPT3.5ターボの

play15:20

ファインチューニングはいくらなんですか

play15:22

と話なんですけどざっくりGPT4の半額

play15:25

ぐらいって感じですねえフチ済みのGPT

play15:29

3.5ターボをオーAのAPIで使おうと

play15:32

思うとGPT3.5ターボに比べるとえ8

play15:35

倍ぐらいかな金額がかかるんですね7倍か

play15:38

な約うっすね67倍ぐらいの金額がかかっ

play15:42

てくるとアウトプットは4倍ぐらいですか

play15:44

ねっていう感じになっていましてかつこの

play15:47

ファインチューニングを作るトレーニング

play15:48

のコストがベット発生しますただ

play15:51

トレーニングのコストは多分そんなに高く

play15:53

なくこの前私が試したのはま300ぐらい

play15:55

のデータセットを入れて学習をさせたわけ

play15:58

なんですけど大体コストが本当数100円

play16:00

ぐらいでしたね数10円から数100円

play16:02

ぐらいというのがちょっとあのいくつかの

play16:04

プロンプトでファインチューン試したんで

play16:06

物によって違ったんですけどその程度なの

play16:08

で本当ビビたるさっていうか本当ちょっと

play16:10

試す人件費の方が圧倒的に高いぐらいで

play16:13

トレーニングコストはよっぽど何千とか

play16:15

学習しない限りは無視してもいいというか

play16:18

そこまで大したことないあのコストなんで

play16:20

そんなに考えなくてもいいケースが多いん

play16:22

じゃないかなと思っていますさてまこう

play16:25

いった非常にこそ優位性もあって実際使う

play16:28

価値があるといういうファイン

play16:29

チューニングなんですけどファイン

play16:30

チューニングができるケース向いてるケー

play16:33

スっていうのはどういうケースになるのか

play16:35

ということでま今回は分類系のタスクは

play16:37

もう絶対できるなという風に思ってるわけ

play16:39

なんですけどこれもOpenAIの公式

play16:41

ブログの内容を持ってきて一部私がまず合

play16:44

したものになるんですけど話すよりも

play16:47

見せる系のタスクに向いてるとどういう

play16:49

意味かって言うとプロンプトの中で細かく

play16:51

定義したりとか分類したりマニュアル作っ

play16:54

て説明するよりも見せた上でこれはこう

play16:57

これはこうこれはこうっていう風にやった

play16:59

方がうまくいくようなタスクさっきの案件

play17:02

の分類タスクは実はこういう感じだったん

play17:04

ですね話すつまりしっかり定義を作るより

play17:07

も過去の具体例をバンバン見してそっちで

play17:10

学ばせる方が結果良かったとまつまり定義

play17:13

が完璧ではなかったり元データーからは

play17:15

足りないような情報も含めて判断しなく

play17:17

ちゃいけないんで定義して説明するよりは

play17:20

具体例を見して過去に学ばせる方が圧倒的

play17:23

に成果れたという感じになりましてでかく

play17:26

言うとこれが向いてるケースだという感じ

play17:28

になります

play17:29

もうちょっと具体的に書いてあったのは

play17:31

スタイルとかトーンとかま要はその

play17:33

コメントとかの内容の語尾とかですねそう

play17:35

いうものを設定したい場合はファイン

play17:37

チーン向いてるあとアウトプットを特定の

play17:39

フォーマットにしたい場合まJSON形式

play17:42

とか何か形式にしたい場合はファンチーン

play17:44

向いてるあとは多くのエッジケースがある

play17:47

場合エッジケースって言葉は難しいです

play17:48

けど要はたくさんの細かい例ですねロング

play17:51

テールの例というか今回の分類で言うと3

play17:54

つとか4つであれば定義しっかり作り込ん

play17:56

だらいいわけですけど何百もあると

play17:58

いろんなケースがあるのでプロンプトの中

play18:00

には入んないわけですよねこういうケース

play18:02

がある場合はファインチンでそれを全部

play18:04

学習させちゃってAIのモデルの頭の中に

play18:07

もそこを置いてあげるでわざわざ

play18:09

プロンプトで言わなくても学習されてる

play18:11

こういうケースがいいとで4つ目

play18:13

プロンプトでのルール化が難しい場合今回

play18:16

で言うとま分類定義はあったんですけど

play18:19

分類定義にはないような過去の投資する

play18:21

ようなこともありましたしルールができ

play18:24

ないことはないけどもうすんのがめど

play18:25

くさいとまこういうケースの場合には

play18:28

ファインチンが向いていて成果出るんじゃ

play18:30

ないかなという話がありました実際もう

play18:33

ちょっとビジネスのシーンで具体的に言う

play18:35

と私が思ってるのはまず分類系ですねま

play18:38

これは間違いなく結構成果であるケースが

play18:40

多いかなとあとは変換系特定の文字列を

play18:43

特定に変えるとか特定のえ内容を特定の形

play18:47

に変換していくこういう変換として生成愛

play18:50

使うっていうのはこれから増えると思うん

play18:52

ですけどこの変換がえそんなにこうなんて

play18:54

言うんですかねその難しくないというか

play18:56

パターンは多いけどパターンは多くて

play18:59

プロンプト定義は難しいけれども過去

play19:01

データは一定あってたくさんやったら

play19:04

分かるような系こういう変換に関しても

play19:06

多分いけるんじゃないかなと思っていて

play19:08

分類系か変換系かで今結構コスト勝ったり

play19:11

とかプロンプトでうまくいかないこういう

play19:13

方はご相談いただければ多分結構成果せる

play19:16

んじゃないかなと思ってい

play19:17

ますさてこっからちょっと具体的な話に

play19:20

なるんですけどじゃこのファインチュー

play19:21

ニングってどうやってやるんですかという

play19:23

ことで流れが実際分かった方がイメージが

play19:25

開くんじゃないかなと思うので実際にオ

play19:28

AIの画面でデータ例を出しながらこんな

play19:30

風にデータを揃えて実際操作してやって

play19:33

いくのよということをご紹介したいと思い

play19:35

ますさて手はは結構簡単でしてこの4つ

play19:39

ですまずは学習データを準備するとでこの

play19:42

学習データは最低10サプル必要という風

play19:45

に書いてありましてもちろんまその実際

play19:46

やりたいことに対してパターンが多い場合

play19:49

はもっとあった方がいいわけですし要する

play19:51

にこの必要十分な学習させるパターン学習

play19:54

例があるのが重要という話ですねで2つ目

play19:56

学習データをjon化するまちょっと

play19:59

難しい言葉なんですけどOpenAが

play20:01

読み込ませる形式に変換するとまこれでも

play20:03

普通にあのスプレッドシートとか

play20:05

Excelから変換することができるので

play20:06

簡単ですで3つ目学習を実行するとこれ超

play20:10

簡単でOpenAIの場合にはOpen

play20:12

AIの管理画面に行ってこのJSON

play20:14

アップロードして名前つけるだけですで4

play20:17

つ目作られた新モデルを利用するでこの新

play20:20

モデルの利用はOpenAの管理画面上

play20:22

からプレイグラウンドと言ってもうその

play20:24

画面上からすることもできますしあとは

play20:27

プログラムを通じて大量に使いたい場合は

play20:29

APIAPIアプリケーション

play20:32

プログラミングインターフェイスを使って

play20:33

プログラムから読み出すことも簡単にでき

play20:35

ますまこの流れになりまして実際画面見

play20:38

ながらまたデータを見ながら確認すると

play20:39

分かりやすいかなと思うのでこれを見て

play20:41

いきたいと思いますさてまず元データです

play20:43

ねこれはまサンプルデータになるんです

play20:45

けれどもこれはですねま例としてはデータ

play20:47

の変換系でしてこういう文字列がある場合

play20:50

にここから特徴的なキーワードだけを

play20:52

抜き出して欲しいというようなタスクを

play20:55

ファインチューンした上で学習させたいと

play20:57

いうニーズがある場合にやっておりまして

play20:59

システムユーザーアシスタントと書いて

play21:01

あるんですけどこの2つがプロンプトの

play21:03

インプットでシステムというのは前提設定

play21:05

って感じですねでユーザーというのは実際

play21:08

そのユーザーが送るコメントでアシスタン

play21:10

トっていうのはAIが回答してくれる回答

play21:13

データを挿していましてこの3業が基本的

play21:16

なセットになりますえ実際にはこのマルチ

play21:19

ターンでユーザーとAIが何回も回答する

play21:23

ような感じを学習することもできるんです

play21:24

けどまシンプルなものはこれなのでまこれ

play21:27

が基本的なセットになってでExelまた

play21:29

はこういったスプレッドシートで整理をし

play21:31

ていくというのが元データの準備になり

play21:33

ましてめちゃくちゃ簡単ですよねま皆さん

play21:35

が分類とか変換とかでファインチューンし

play21:37

たい場合はこの3列にデータを盛り込んで

play21:40

やるだけです続いてこれをjonという

play21:43

形式に変えていきますで今回ですねこの

play21:46

実際このJSONファイルをま作成すると

play21:49

いうですねちょっとGoogleア

play21:50

スクリプトを作ってあるんですけれども

play21:51

こちら皆さんでも使えるようにあの公開し

play21:54

ておきますのでその公開したスプレッド

play21:56

シートのやつを使っていただいてえこちら

play21:58

の公開用ですねあのファイル自分でコピー

play22:00

してもらって使っていただいたらまこの

play22:02

拡張機能を使う作るだ使うだけでJSON

play22:04

ファイルを作成することができるのでそれ

play22:06

を使ってくださいで今のやつを押しますと

play22:09

こんな感じでえこうですねこれ最新データ

play22:13

ですけどデータアウトプットJSONLと

play22:15

いうファイルが落とされますのでこれを

play22:18

開いてもらうとこれがですねOpenAI

play22:20

に読み込ませるためのデータになりますで

play22:24

これがどういうデータかというとこんな

play22:25

感じですねまJSONという形式になって

play22:27

ましてさっき書いた3列のデータっていう

play22:30

のがまAIが学習しやすいような形式で

play22:33

こんな風になってるとまこんだけですねま

play22:35

指導でこれを作ることもできるんですけど

play22:37

もちろんすごい面倒くさいと思うので

play22:39

さっきのツールをま作ったり使って

play22:41

いただいてやるのが楽かなと思いますさて

play22:44

戻りまして続けてOpenAIの管理画面

play22:47

でこのデータアップロードしますさっきの

play22:49

手順3ですねOpenOpenAIのAP

play22:52

かなに行きましてサインアップと押しまし

play22:55

てログイン画面に行きますでログインをし

play22:57

ますまご自身のアカウントでログインをし

play22:59

play23:00

くださいでログインしましたらこういう

play23:02

画面になりまし

play23:04

てえダッシュボードと行くとま左側が

play23:07

シンプルになるかなと思うのでここから左

play23:10

のファインチューニングというメニューに

play23:12

行っていただいてここでファイン

play23:13

チューニングをすることができます私の

play23:16

会社のアカウントのテスト用だとこんな

play23:17

感じでいくつかパターンがあって学習済み

play23:19

になってるわけなんですけど新規で作る

play23:21

場合になクリエイトですねクリエイトをし

play23:23

ましてここでえ作っていきますえ学習の

play23:26

モデルをやっていきますで選べるのがいく

play23:28

つかてまずベースモデル実はあのGPT4

play23:32

もできますしあとは下で元々ファイン

play23:34

チューンしたやつをさらにベースに選んで

play23:36

やることもできるわけなんですけどまず

play23:37

ベースになるのは多分このGPT3.5

play23:39

ターボ0125がGPT3.5ターボで

play23:43

1番新しいモデルでまGPT4はテスト版

play23:45

なのとコストが多分すごい高くなっちゃう

play23:47

と思うのでまGPT3.5やるケースが

play23:49

多いんじゃないかなと思いますでファイル

play23:51

を選びまして入れますでこれ名前を入れ

play23:55

ますテストえ

play23:58

変換みたいな感じで名前を入れますで

play24:02

シートというのはこれはえ入れなくても

play24:04

大丈夫です

play24:05

あのシードを入れるとえ同じシードを指定

play24:09

することでアウトプットの結果が固定さ

play24:11

れるみたいな機能っぽいんですけどま基本

play24:14

的には使わないケースこいんじゃないかな

play24:15

と思いますまた下側学習をどうするかって

play24:18

ことでどのぐらいのサイズで学習するかで

play24:20

あったりとかどのぐらい学習量を反映さ

play24:23

せるのか何回やるのかみたいなことも設定

play24:26

できるんですけど基本的にはオートでいい

play24:28

んじゃないかなと思いますちょっとこの

play24:29

細かいのを作り込んでるわけではないので

play24:31

この辺はあんまりちょっと事件ないですね

play24:33

さてクリエイトをしますと今アップロード

play24:35

したデータを使って学習がスタートします

play24:38

ませっかくなので実際見ますとまずこれ

play24:40

テスト変換と書いてあるこれが学習中に

play24:42

なってまして今データをチックしますよと

play24:45

いう感じになっていますでここからですね

play24:47

データが進んでいくと今入れたインプット

play24:50

アウトプットに対してこのインプットが

play24:52

どのぐらいちゃんとアウトプットうまく

play24:54

できるかってことをまその辺のこうなんて

play24:56

言うんですかね制度みたいなことをグラフ

play24:58

で図してくれながらこのチェックが進み

play25:00

ます学習が進みます実際これせっかくなん

play25:03

でちょっと見ながらやってあのどういう

play25:05

過程になるかをご紹介したいと思います

play25:07

大体多分このぐらいの量だったら今回の量

play25:09

の場合はえ30行ぐらいの短いデータに

play25:12

なるので多分5分ぐらいで終わると思うん

play25:14

ですがちょっと動画では止めていきながら

play25:16

適宜学習の過程を共有したいと思います今

play25:20

ちなみに13時49分13秒に作りました

play25:23

という感じですねあと今51分なんですが

play25:27

こんな感じでで学習がスタートしました

play25:29

これ縦軸がトレーニングロスというものに

play25:32

なりましてこの縦軸が0に近いと要は

play25:35

こっちが想定しているインプットを入れ

play25:38

たら適切なアウトプットになるというのを

play25:40

ま学習しながらこう調整してくれてるん

play25:42

ですね初期の頃はインプット入れても全然

play25:45

想定でないアウトプットが出ると例えば

play25:48

今回の場合はこのえシステムとユーザーの

play25:51

インプットを入れたらアシスタント2に

play25:53

出して欲しいんだけれどもなかなかこの

play25:55

想定通りは出ないという状況が初期は続い

play25:58

ていましてこれがどんどん学習が進めば

play26:00

進むほどどんどん0に近づいていきま損失

play26:03

が少なくなるまつまり理想的な

play26:05

アウトプットになりやすいという感じに

play26:07

なるんですねで今回多分この学習でだと

play26:09

90回ぐらいまで回しておしまになるかな

play26:11

と思うんですけどまこんな感じでだんだん

play26:13

進んでいき

play26:15

ますで今1時53分でま34分経った状況

play26:20

ですけどこんな感じで順調に学習進んでい

play26:21

ますこんな感じですねで徐々にこの

play26:23

トレーニングロスが0に近づいてましてま

play26:26

つまり学習がうまく進んであるインプを

play26:28

与えた場合に理想的なアウトプットに近い

play26:30

という風にまこのAI的な認識してるって

play26:33

感じですねまこんな感じで学習が住んでい

play26:36

ますさて終わりましたねまほと5分ぐらい

play26:39

ですねえ49分から始まって53分に終了

play26:42

とで最終見るとちょっと一瞬トレーニング

play26:45

のロスがあるケースもあるんですけど

play26:46

こんな感じでま順調に学習進んだという

play26:49

ログがありましてで今回作られたデータと

play26:51

いうのはこの3つですねチェックポイン

play26:53

トっていうのは途中過程のモデルが確認

play26:56

できるようになってましてこれを実際

play26:57

テストで使うこともできますさて今作った

play27:00

モデルまこの

play27:02

えテスト変換というものになるわけなん

play27:05

ですけどもこれを使うのにはどうしたら

play27:07

いいのかということなんですがえこれ

play27:10

え押しましてこのモデルプレイグラウンド

play27:13

と押すと実際この管理画面上で使うことが

play27:16

できます左がえ学習してないGPT3.5

play27:19

ターボ右が今学習した新しいモデル変換と

play27:24

やったところのモデルですねちょっとこ

play27:26

たくさん並んでくるんでょ分りづいんです

play27:28

けどまテスト変換と書いてあるバージョン

play27:30

えステップ6030って書いてあるのは

play27:32

途中過程なんで違うという感じですねさて

play27:35

じゃこれどうやってすかと言とさっきの

play27:37

システムですねシステムにさっきのものを

play27:39

入れましてで次この文字列を入れるとで

play27:43

これ比較ができまして送ると2つのえ

play27:47

モデルでそれぞれ実行されるわけなんです

play27:49

けどこんな感じでえ左側というのは学習し

play27:52

ていないAIになりましてまこっちも

play27:54

頑張ってやってくれてますけどこっちが

play27:56

想定するようないらない持続可能なとか

play27:59

確信的といったこう収束値が入っちゃっ

play28:01

てると一方で右側はそれを除いたデータで

play28:05

学習しているのでそれが入らないま綺麗な

play28:07

単語というか欲しい単語は抽出できてるま

play28:10

これによって学習前と学習後のモデルが

play28:14

全然違うということが分かりますさてこの

play28:17

モデルですが今のようにプレイグラウンド

play28:19

管理画面上からも使えますしプロからも

play28:22

使うことができるので実際こう仕事でする

play28:24

際にはあれで作って試してみた上でうまく

play28:26

いったモデルがあったらささきのAIの

play28:28

モデルを指定するとプログラムから

play28:30

読み出すことができるので何百何千と大量

play28:33

に回してもすぐに実行できるという感じに

play28:35

なるわけですねということでこのような

play28:37

感じで非常に簡単です実はやることとして

play28:39

もあの実際にやり方を知っていて私は最初

play28:41

ハードルあったんですけどやって試せる

play28:43

試す状況でハードル下がるとめちゃくちゃ

play28:46

現実的ですごくいい手法になるんじゃない

play28:48

かなと思うので是非適時どんな風に活用

play28:51

できるのかを検討いただけるといいかなと

play28:53

思いますえということで簡単に告知をさせ

play28:56

てくださいまず7月の17し生成AI

play28:59

サミットVol2を行いますVOL2では

play29:01

様々なインフルエンサーであったりとか

play29:03

企業の方また海外のAI詳しい方にご登壇

play29:07

いただいて最新のAI活用事例なんかお

play29:09

話しするので是非応募よろしくお願いし

play29:11

ます無料ですのでお楽しみにまた会社の方

play29:14

では様々な制裁活用しをやっていますま

play29:16

登壇であったり研修であったりしてるん

play29:18

ですけれも実は今回のように結構がっつり

play29:21

ファインチーンやってみたりとか最初の

play29:23

POC的なトライをアドバイザリーで

play29:25

入らしてもらってこちらも一定手を動かし

play29:28

ながらま前回の場合もこういうデータの

play29:30

モデルとかやることはこちらで提案させて

play29:32

もらってじゃあその元データをこういう風

play29:34

に1回修正というか用意してくださいとで

play29:36

もらったらこっちでファインチーン試して

play29:38

みて結果を検証してて渡すみたいなことも

play29:41

実はこの枠組の中でやっていまして変に

play29:43

こうなんかその開発とかでがっつりやる

play29:45

よりは非常にローコストで実際ビジネスで

play29:48

使えるかどうかっていうレイヤーから議論

play29:49

してご一緒ができるかなと思うのでそう

play29:51

いうニーズがある方は是非お相いただけれ

play29:53

ば幸いですあの会社のホームページも

play29:55

大丈夫ですしYouTubeの概要欄に

play29:56

問い合わせのフォームも会社のURLも

play29:58

ありますのでそちらからご覧いだけ幸い

play30:00

ですまたLINEの公式アカウントでは

play30:02

毎週のAIニュースやイベントのご案内し

play30:05

ているので登録をよろしくお願いします

play30:06

YouTube動画日々発信しておりまし

play30:08

て様々なプレイリストも作ってまテーマ

play30:10

ごとにまとめておりますので特に初めて

play30:12

知りたい方とかっていうのはチャット

play30:14

GPT活用最初に見て欲しい動画群とま

play30:17

これだけでも10時間ぐらいあるんです

play30:18

けどバーっと見てもらうと体型的に

play30:20

ノウハウとかビジネスの活用方法が分かる

play30:23

んじゃないかなと思いますえということで

play30:25

本日の内容以上になりましてありがとう

play30:27

ございましたえファインチューニングと

play30:29

いうちょっとマニアックなテーマになるん

play30:31

ですけれどもそ私自身も自分で試す前まで

play30:34

は言葉は知ってるんだけどそんなうまく

play30:37

いかないんじゃないのて正直思ったんです

play30:39

よねところがやってみてめちゃくちゃせか

play30:41

だとこれやばいなとファインチューニング

play30:44

が適用できる箇所でやらない手はないなと

play30:46

トークン数も減らせるし精度も出るしいい

play30:49

ことづくしとことでま特に分類とか変換に

play30:53

関しては多分使わないではないかなとで

play30:55

実際ビジネスの現場で言うとまある業務

play30:58

フローがあった場合に特定の分類とか変換

play31:00

とか都修正みたいなところだけファイン

play31:03

チン済みのAIを使っていきもうちょっと

play31:06

こう複雑なやつに関してはGPT4Oとか

play31:09

のモデルで処理していきまたルールベース

play31:11

でできるものはルールベースでしていく

play31:12

もしくは人間がするとまこれをうまく

play31:14

組み合わせながら特に数が大きい大変な

play31:17

ところに関して今回のファイン

play31:19

チューニングのやり方を適用できると

play31:21

かなり大きな成果出るところがたくさん

play31:23

あるんじゃないかなと思うので是非まこう

play31:25

いう案件増やしていければなと思いますし

play31:26

まご相談も関係ですましっかり情報提供し

play31:29

てやる方が増えていくのがいいんじゃない

play31:31

かなと思ってるので今回の動画参考になれ

play31:33

ば幸いですいいねコメントもよろしくお

play31:35

願いしますそれではまたお会いし

play31:39

ましょうリモートワーク研究所では

play31:42

リモート時代に活躍して稼ぐためのツール

play31:46

の使い方やノウハウをどんどんご紹介して

play31:49

いきます是非チャンネル登録していただい

play31:51

て私と一緒に学んでいき

play31:56

ましょうJA

Rate This

5.0 / 5 (0 votes)

Etiquetas Relacionadas
AIファインチューニングビジネス活用コスト削減事例紹介技術解説AIモデルデータ学習プロンプト最適化AI活用事例
¿Necesitas un resumen en inglés?