「RAGは本当に必要か?」コンテキストウィンドウ拡大がRAGに与える影響とは(2024/3/20)

SHIFT AI イベント運営事務局
20 Mar 202459:38

Summary

TLDRこのセミナーでは、検索拡張生成(Retrieving and Generating, 略してRAG)と呼ばれる手法と、それが持つ可能性について語り合われた。RAGは、AIが外部から情報を検索し、生成することで、より質の高い回答を提供する仕組みである。昨年末にジェミニやクロードなどの注目のモデルが発表され、RAGの必要性が議論されるようになった。RAGを用いたサービスは、企業での導入やタスクに特化した回答の向上に注目されており、長文のプロンプトを扱えるようになり、入力文字数の制限を解消する手段として期待されている。一方で、RAG不要論も根強いが、情報の精度やコスト面での利点から、RAGはまだ重要な手法とされており、今後の発展が期待されている。

Takeaways

  • 📚 ラグ(Retrieval-Augmented Generation)は、外部の知識ベースから情報を検索し、生成することで、AIの回答質を向上させる手法です。
  • 🔍 ラグの進化とコンテキストウィンドウの拡大は、AIが扱えるテキストの長さを増加させ、より長い文書を処理できるように進化しています。
  • 🚀 GoogleのジェミニやAI2のクロードなど、最近のAIモデルは、非常に長いテキストを扱うことができる能力を獲得しています。
  • 🤖 AIサービスのリリースが増えるにつれ、検索拡張生成ラグの必要性が議論されるようになりました。
  • 💡 ラグの主な利点は、AIの回答質の向上、最新情報へのアクセス、ユーザーへの情報提供、そして再学習コストの削減にあります。
  • 📈 入力文字数の増加により、ラグ不要論が登場しましたが、ラグはまだ重要な役割を果たしています。
  • 🔗 ラグは検索と生成を組み合わせた手法で、ユーザーの質問に応じて最適な情報源を検索し、回答を生成します。
  • 📉 長文の入力が増えると、AIの回答精度が下がる「抜け落ち問題」がありますが、ラグはこれを改善する手助けをしています。
  • 💬 ラグの適用状況は、用途や目的によって異なり、サービス構築時や業務でAIを活用する際には効果的に利用できます。
  • 📝 プロンプトの最適化とナレッジデータの整理は、チャットボットやAIサービスの精度向上に大きく寄与します。
  • 💻 ラグを使用する際には、検索手法やデータの投入方法、プロンプトの作り方など、テクニックが必要とされます。

Q & A

  • セミナーのタイトルについて教えてください。

    -セミナーのタイトルは「検索拡張生成ラグ:コンテキストウンドウの拡大がラグに与える影響」というものです。

  • ラグとは何ですか?

    -ラグとは、レトリーバオグメテッドジェネレーションの頭文字をとって名付けられたもので、外部の知識ベースから情報を検索し、それを生成するという仕組みを指します。

  • ラグの進化について説明してください。

    -ラグは、検索と生成を組み合わせた新しいAIのフレームワークであり、外部から情報を得ることができるため、LLM(Large Language Model)の回答の質を向上させることができます。

  • ラグの利用における主な利点は何ですか?

    -ラグの利用により、LLMの回答の質が向上し、常に新しい情報を追加できるだけでなく、学習されていない範囲外のデータも回答に組み込むことができるという利点があります。

  • 最近のLLMの進化の中で、入力文字数の制限がどのように変わってきましたか?

    -最近のLLMの進化の中で、入力文字数の制限が緩和されており、GPT4のターボモデルでは最大12万8000文字、Googleのジェミニ1.5プロでは最大100万文字までの対応が可能となっています。

  • ラグ不要論とは何ですか?

    -ラグ不要論とは、入力文字数の上限が拡大されることで、ラグを用いて情報を切り取って与える必要がなくなるという意見であり、その逆にラグを活用することで精度を向上させることができるとの議論があります。

  • 検索拡張生成ラグが注目されるようになった理由は何ですか?

    -検索拡張生成ラグが注目されるようになった理由は、昨年頃から注目された背景に、長文のプロンプトが入れられるようになり、ラグの必要性が少し下がっているとの見方があるからです。

  • AIのウェビナー支援で使われている生成AIのサービスとは何ですか?

    -AIのウェビナー支援で使われている生成AIのサービスは、メディアリンクという会社の製品で、ラグを用いたサービスを提供しています。

  • ジェミニやクロードなどの他のサービスが提供する機能と比べて、ラグの特性とは何ですか?

    -ラグの特性は、外部から適切な情報を与えることができるという点で、ジェミニやクロードなどの他のサービスとは異なります。これにより、最新の情報を常に追加し、学習されていない範囲外のデータも回答に組み込むことができます。

  • セミナーで話される内容の流れについて教えてください。

    -セミナーの流れは、セミナーの目的と流れの紹介から始まり、ラグとは何かという基本的な概念の説明に移ります。その後、ラグの進化とコンテキストウィンドウの拡大について議論し、最後に質疑応答を行う予定です。

  • 検索拡張生成ラグが注目されるようになった時期はいつですか?

    -検索拡張生成ラグが注目されるようになったのは昨年頃からで、特に昨年末のジェミニの発表以来です。

Outlines

00:00

😀 セミナーの目的とLAGの必要性について

セミナーのタイトルは「で今日のセミナーのタイトルなんです,けれどもまラグは本当に必要かということ」であり、LAG(検索拡張生成)の必要性とその影響について解説する予定です。昨年末に注目を集めたジェミニやクロードなどの発表以来、ラグは注目を浴びていますが、不要になる可能性も指摘されています。今日は、AIウェビナー支援の担当者が、プロダクトで使用しているラグについて語ります。

05:02

😉 ラグの基本的な説明と進化

ラグとは、レトロスペクティブとジェネレーションを組み合わせたもので、外部の知識ベースから情報を検索し、生成を行うことができます。IBMの論文で初めて提唱されたとされており、最近はAIのフレームワークとして注目されています。ラグは、LLM(大規模言語モデル)の能力を拡大させる仕組みで、最新の情報にアクセス可能であり、ユーザーが情報を確認しやすいという利点があります。

10:03

😃 コンテキストウィンドウの拡大とラグ

GPTなどのLLMの入力文字数の制限があり、長文の扱いが困難でしたが、ラグの登場によりこの問題が解決されています。昨年は多くのサービスがラグを活用してリリースされ、特にGoogleのジェミニが大きな文字数の扱いを可能にしました。ラグは、入力文字数の拡大の流れと共に注目されています。

15:05

😁 ラグ不要論の議論

文字数の上限が拡大するにつれて、ラグが不要になるという意見が登場しました。ラグ不要論は、文字数を増やすことで必要な情報の全てを含めることができるため、ラグでのピンポイントでの情報提供は不要になると主張しています。一方で、ラグが必要なという意見も持ち続き、情報の精度やコスト面での利点が指摘されています。

20:06

😄 ラグの適用とサービス構築

ラグは、サービス構築において重要な役割を果たしています。文字数の上限が拡大された場合でも、ラグは情報の精度を保証し、コスト効率を向上させることができます。ラグを使用することで、AIサービスはより高度な機能を提供し、ユーザーのニーズに応えることができます。

25:08

😅 ラグの運用と課題

ラグの運用には、検索精度と生成精度の2つの変数のコントロールが求められます。ナレッジデータの作り方やプロンプトの作成方法など、ラグを効果的に使用するためには技術的なスキルが必要です。また、ラグが完璧ではないことが認められており、最適な活用方法を見つける必要があります。

30:11

😆 ラグの活用事例と今後の展望

ラグは、AIサービスの中で重要な手法として位置づけられており、今後も必要不可欠であると見ています。具体的な活用事例として、ナレッジデータの整備や、検索手法の見直しが挙げられます。また、ラグの仕組みを自社で構築することで、チャットボットなどのサービスをより効率的に構築することが可能となります。

35:12

😍 ラグの適用とサービス構築の詳細

ラグを用いたサービス構築では、ナレッジデータの投入方法やチャンクの切り方、そして検索手法の最適化が重要です。QA形式のデータがチャットボットに適しており、検索キーワード的にデータを整えることで精度が向上します。また、プロンプトの最適化もサービスの質向上に大きく寄与します。

40:13

😉 ラグの適用範囲と注意点

ラグは、インストラクションに入れるものと入れないものとの境目が曖昧な場合があります。サービス構築においては、プロンプトやナレッジデータの活用方法が重要で、検索手法の見直しが必要です。また、セキュリティとプライバシーの観点からもラグの管理が求められます。

Mindmap

Keywords

💡ラグ

「ラグ」とは、Retrieval-Augmented Generationの略で、外部の知識ベースから情報を検索し、その情報を利用して文章を生成するAIの仕組みを指します。この手法は、AIが持っている情報だけでは答えられない質問に対して、最新の情報を組み合わせて答えることができます。ビデオでは、ラグがAIの応答質を向上させる上で重要な役割を果たすと説明されています。

💡コンテキストウィンドウ

「コンテキストウィンドウ」とは、AIが一度に扱える入力の文字数制限を指します。これは、AIが理解し、応答できる情報量に直接関係しています。ビデオでは、コンテキストウィンドウの拡大がラグの必要性を問う議論を引き起こしていると触れています。

💡ジェミニ

「ジェミニ」とは、Googleが提供する言語モデルの一種で、長いテキストを扱える能力を持つことが特徴です。ビデオでは、ジェミニがコンテキストウィンドウの拡大に貢献し、ラグの必要性を問われる要因となり得る可能性があると説明されています。

💡クロード

「クロード」とは、AIスタートアップ企業Anthropicが開発した言語モデルで、非常に長いテキストを扱えることがKNOWNです。ビデオでは、クロードが提供する機能と性能が、ラグの役割を疑問視する議論の背景にあるとされています。

💡チャットGPT

「チャットGPT」とは、OpenAIが開発した対話型AIモデルで、自然言語での会話に対応しています。ビデオでは、チャットGPTのようなモデルが持つ入力文字数の制限と、それがラグの存在意義に与える影響について議論されています。

💡AIのフレームワーク

「AIのフレームワーク」とは、AIの開発や実行に用いられる一連の設計原則や方法論を指します。ビデオでは、ラグがAIのフレームワークの一形態として、検索と生成を組み合わせる手法として紹介されています。

💡テキストの入力と出力

テキストの入力と出力とは、AIが人間から受け取る情報(入力)と、それを基に生成する情報(出力)のことを指します。ビデオでは、AIが扱えるテキストの長さが増すにつれて、ラグの必要性が問われていると触れています。

💡オープンソース

「オープンソース」とは、ソフトウェアのソースコードが公開され、誰もが自由に使用し改変できることを指します。ビデオでは、オープンソースのAIモデルが存在し、これらをカスタマイズすることでラグの機能を実装する可能性があると説明されています。

💡マルチモーダル

「マルチモーダル」とは、複数の感覚経路や情報源を扱う能力を指します。ビデオでは、ジェミニモデルがマルチモーダルの特性を持つとされ、音声や音楽などの他の形式のデータも扱えるとされています。

💡ハイブリッド手法

「ハイブリッド手法」とは、異なるタイプの技術や手法を組み合わせて使用することで、それぞれの長所を活かすアプローチです。ビデオでは、ラグ不要論が進む中で、ハイブリッド手法が未来のAIサービスにおいて役割を持つ可能性が示唆されています。

Highlights

今日のセミナーは「コンテキストウィンドウの拡大がラグに与える影響」というテーマで行われました。

検索拡張生成ラグ(Retrieval-Augmented Generation)は、昨年から注目され、新しいモデルが続々と発表されています。

ラグは、外部の知識ベースから情報を検索し、生成することで、AIの回答質を向上させる仕組みです。

IBMの論文によると、ラグは2020年にFacebookが初めて発表し、その後AIのフレームワークとして注目されています。

ラグの仕組みを使わない通常のLLMは、自分の学習データから回答するのに対し、ラグは外部情報も活用できます。

ラグの利点として、AIの回答品質の向上、最新情報へのアクセス、ユーザーへの情報提供の迅速さが挙げられます。

ラグは、AIの再学習コストを削減し、新しい情報を取り入れやすくする強力な手段となります。

近年のAIサービスでは、入力できる文字数の上限が拡大し、ラグの必要性に対する議論が活発化しています。

Googleのジェミニやアロピックのクロードなど、他のLLMサービスも文字数の上限を拡大し、ラグとの差異が小さくなります。

ジェミニ1.5モデルは最大100万文字まで対応可能と発表され、ラグ不要論のきっかけとなりました。

ラグ不要論では、文字数の上限が拡大されることで、ラグによる情報の切り取りが不要になると主張されます。

一方、ラグ必要派は、情報の抜け落ち問題やAPIの重量課金によるコスト問題を指摘しています。

ラグは、AIの生成に対する精度と生産性を向上させる効率的な手法であると、個人的には評価されています。

ラグの適用状況や管理方法は、セキュリティとプライバシーの観点から重要視されるべきです。

今後のSNS法規の成立が、ラグの管理にどのような影響を与えるかは未明確ですが、注意が必要です。

検索と生成の違いを理解することは、ラグが効果的に機能するために重要です。

ナレッジデータの投入方法やプロンプトの最適化は、ラグの精度に大きく影響します。

チャットボットの活用でラグが整理だという意見は否定的ですが、適用の最適な形を見つけることが求められます。

Transcripts

play00:00

で今日のセミナーのタイトルなんです

play00:01

けれどもまラグは本当に必要かということ

play00:03

でまコンテキストウンドウの拡大がラグに

play00:06

与える影響とはというタイトルでやって

play00:09

いくんですけれどもえま検索拡張生成ラグ

play00:13

と呼ばれているものが昨年頃からですね

play00:15

すごく注目されていてで昨年末えジェミニ

play00:18

の発表があったりですとかま最近でも

play00:20

クロードがまた最注目新しいモデルでです

play00:23

ねされている影響等もあってまこの長文の

play00:26

プロンプトが入れられるようになってきて

play00:28

えラグのがですね少し下がっているんじゃ

play00:31

ないかとかま不要なんじゃないかっていう

play00:33

風に言われることも結構多くなってきたか

play00:35

なという風に思っていますで今日はその

play00:37

辺りをあの私の方でですねえ今日まシフト

play00:40

AIのウェビナー支援のえ担当っていう

play00:43

よりかはメディアリンクというま私が本業

play00:45

でやってる方の会社のですねえま

play00:47

プロダクトでも生成AIのこのまさにラグ

play00:49

を使ったサービスをやっていますのでえ

play00:51

この辺りについてお話をしていけたらなと

play00:54

いう風に思っておりますのでよろしくお

play00:55

願いいたしますはいで今日はちょっとです

play00:59

ねこんな感じでノーションでやっていき

play01:02

たいなと思いますので後ほどまたこの

play01:05

URL等もえアーカイブ動画とかの概要欄

play01:08

とかに入れておこうかなと思いますので

play01:10

よろしくお願いいたしますでえっと今回の

play01:14

はい概要ですが今話した通りですねまラグ

play01:17

の基本的な説明からま現状と今後について

play01:19

までえ少し基本的な内容もかなり入ってき

play01:22

ますけれどもま今後の考察とか私自身の

play01:25

考え等もですねお伝えできればなと思って

play01:27

ますで今日の流れはま4点ねえセミナーの

play01:31

目的と今日の流れの紹介あとまラグとは

play01:34

何か基本的なま概念との説明ですねでラグ

play01:36

の進化コンテキストウドの拡大えラグ表論

play01:39

え一論というところで話をしていきます

play01:43

はいでまず1つ目え今日のセミナーの目的

play01:46

と今日流れですけれどもまGoogleの

play01:48

ジェミニであったりですとかアロピックの

play01:51

クロードですねチャットGPTのまGPT

play01:54

モデルよりも比較的長いテキストを入れ

play01:57

られるようなllmがですねたくさんこう

play01:59

サービスとしてリリースされ始めています

play02:02

でその中で改めて検索拡張生成ラグが必要

play02:05

なのかまそうじゃないのかっていう考える

play02:08

きっかけを是非皆さんにですね提供したい

play02:10

なという風にえ考えて今回のえテーマを

play02:12

企画しておりますでまたまラグについてえ

play02:16

意外とですね知らないとかなんとなく

play02:18

雰囲気は分かってるけれどもそんなに

play02:20

ちゃんと見たことがない知ったことがない

play02:22

とかですねえそういった方もいらっしゃる

play02:23

かと思いますとで基本的な理解を深めて

play02:25

いただくためにも今日のセミナーを企画さ

play02:28

せていただいたというところになってあり

play02:30

ますで本題のところですねまずはラグとは

play02:34

ま何かということで基本的な概念とか考え

play02:37

方の説明から始めていきますまずはラグま

play02:41

これはもう大丈夫かなと思いますがえ

play02:44

レトリーバオグメてッジェネレーションと

play02:46

いうことでまこの頭文字を取ってですね

play02:48

通称ラグという風に言われているものです

play02:51

ねでラグはま外部の知識ベースナレッジ

play02:55

ベースからですね情報を検索するという

play02:57

こととあとはまを生成するというところ

play03:02

この2つでですね合わさってできているえ

play03:05

単純にllmをえどう使いこなすかてより

play03:08

かはですねえ新しいまAのフレームワーク

play03:10

みたいな風に言われることが結構多いです

play03:13

ま検索と生成を掛け合わせたものがまラグ

play03:16

であるという風にイメージをいただければ

play03:18

と思い

play03:19

ますでラグについてちょっと私もこれあの

play03:22

当時から知ってたわけじゃなくですねえ

play03:25

このラグについて調べていくとまIBMの

play03:28

あのブロとかブログとかがくるんですがま

play03:30

そ中でもあの語られていうものとして

play03:32

2020年にえ今のメタね旧

play03:35

Facebookがま論文で発表したのが

play03:37

どうやら最初であるという風に言われてい

play03:41

ますでこれはまちょっと細かい部分があり

play03:44

ますので興味のある方はあの是非この後

play03:47

ノーション共有するんで見てもらえたらな

play03:49

という風に思っておりますがま事前学習

play03:52

済みのまプリトレインドモデルまいわゆる

play03:54

もGPTのとこですねあれいったような

play03:56

あのllmま学習済みのllmのところを

play03:59

えさらに能力を拡大させるようなあ形でま

play04:03

このラグという仕組みが発表されたという

play04:05

のがどうやらあ以前あったことのようです

play04:08

でただ当時私もあのチャットボットまAI

play04:12

型とかですねシナリオ型とか言われてる

play04:13

ようなサービスをやったりしたんです

play04:15

けれども当時まあんまりこのラグっていう

play04:17

のはそんなに話題議論でおそらくなって

play04:19

なかったんじゃないかなと思いますしあの

play04:22

AIのベンダーさんとかと会話する機会と

play04:24

かも結構あったりしますがあその時もこう

play04:27

ラグっていうワードを聞いたことは正直

play04:28

なかったのでチャットボットの業界にいて

play04:31

もですねそんなに知らなかったのでまAI

play04:33

の界隈の方の中ではもしかしたらご掃除の

play04:35

方もいらっしゃったのかもしれませんがあ

play04:37

あんまりまチャットボットとかていう

play04:39

ところで言うとそんなに重要されてい

play04:41

なかったように感じ

play04:43

ますで実際にま通常のラグとえあそうです

play04:48

通常のllmとラグの違いみたいなところ

play04:50

で言うとま通常のllmの使い方っていう

play04:53

のはま単なる試験だ普通の試験と一緒です

play04:56

がラグを使うとAIからすると教科書持

play04:59

仕込み型で試験をしてるような感覚って

play05:01

いう風に例えられることが結構ありますま

play05:04

こういう例え話をされているえベナーさん

play05:06

とかも割とたくさん見ますがまllmは

play05:09

単純に自分の学習者データの中から回答

play05:12

するまそういうえ試験というかまそういう

play05:15

問題解かせているような形ですがラグに

play05:17

なると外部から適切な情報を与えることが

play05:20

できることになりますので単純にテストを

play05:23

やるじゃなく教科書を持ち込んでテストを

play05:25

受けるようなまそんな感覚に近いのかなと

play05:27

いう風に思ってます

play05:30

でそんなラグなんですけれどもま利点とし

play05:32

ていくつか上げられるものがあるかなと

play05:34

思っておりましてまずはですねやっぱり

play05:37

llmの回答の質クオリティを向上できる

play05:40

ということでま単純に制度を上げられます

play05:42

というところが1つ目ですねどうしても

play05:44

llmの場合ですと学習した時点の情報を

play05:48

元に回答するとアウトプットを出すという

play05:50

ことになってきますがえこのラグの仕組み

play05:53

を使うことによって外部にデータを置いて

play05:56

おき検索して生成するということができる

play05:58

ようになりますのでえ新しい情報を常に

play06:01

追加していくこともできますし学習されて

play06:04

いない範囲外のまよく言われる車内の

play06:06

データとかですねそうしたものも回答に

play06:08

組み込んでえ生成させることができると

play06:11

いうところが1つのポイントになり

play06:13

ますで2つ目が最新のま信頼できる事実に

play06:17

アクセス可能ということでまこことかなり

play06:19

被る部分ではありますがあまよくこれは

play06:22

Webのブラウジングが出る前に言われて

play06:24

いた話ですねチトgpdで途中からあの

play06:27

Webブラジ機能が出たりとかあのビング

play06:29

のAIが登場してきたりとかま当然

play06:31

Google最初からついてましたけども

play06:33

まそうしたものが出る前まではですねラ

play06:35

グってやっぱり新しい情報弱いよねとか

play06:38

2020年までの知識だよねとか言われて

play06:40

たんですがま当時からやっぱりラグの

play06:42

仕組みを使うことによって最新の情報を

play06:44

与えることができるってことをメリットの

play06:46

1つという風に言われていまし

play06:48

たで3つ目がユーザーが情報早確認できる

play06:52

という点なんですけれどもあのまこれも

play06:55

よくサービスとして組み込まれているもの

play06:57

ですねえでよく言われる話ではありますが

play07:01

llmの場合ですとま何が情報源かって

play07:05

ことを分からない状態でこれが答えですと

play07:07

あかもそれが本当かのに言われてしまいま

play07:10

よくこれがハルシネーションという風な

play07:12

問題で語られることもありますがまえっと

play07:14

何をベースに回答出してるのっていうこと

play07:17

ま画像生成AIとかでも多分一緒だと思う

play07:19

んですがえ情報も何なのってことが

play07:21

なかなか特定できないというところがま

play07:24

あるうち問題になってしまうとただラグに

play07:27

おいてはえ情報を外部から検索して与え

play07:30

るってことをプロセスとして行っています

play07:32

ので何の情報を参考にしてるよってことを

play07:35

ユーザー側に提示することができますなの

play07:38

で明治的にこの回答はこの引用元の情報に

play07:42

従って回答出してますよっていうイメージ

play07:45

になるのでま結構そうですね検索してって

play07:47

いうとこだとビングのAIとかまパープ

play07:49

エキシティとかあの辺と結構近い考え方

play07:52

ですねまあれもちょっとまラグといえば

play07:54

ラグになってくるかと思いますのでま

play07:56

そんなところが1つのポイントですで最後

play07:59

4つ目意外とこれは注目されていないかも

play08:02

しれませんがllm今オープンソースとか

play08:05

も公開されていたりですとかあ例えばイダ

play08:09

さんとかからくさんとかあとはま東海大学

play08:12

さんとかだかなまいろんなところが今あの

play08:14

独自に開発をされたりですとかオープン

play08:16

ソースを自分たちでえカスタマイズしたり

play08:19

とかですねえ新しくデータを追加して学習

play08:21

させたりとかまいろんなことやってると

play08:23

思いますがま莫大の費用は当然かかります

play08:26

しえ新しい情報取り入れたい時に常に再

play08:30

学習をしていかなければいけないかつ学習

play08:32

したからといって制度が上がるわけじゃ

play08:34

なくですね学習データの内容によっては

play08:36

制度が下がってしまうということもえ開発

play08:39

においては発生してくますこうした再学習

play08:42

のコストであるとかま手間ですとかまそう

play08:46

したところをですね削減できるまそもそも

play08:48

これをしなくていいというところがラグの

play08:50

結構ま強いメリットの部分じゃのかなと

play08:52

いう風に思ってますなので私個人としては

play08:56

近い将来え1社え会社がですね1社あたり

play09:00

1つの独自のllmも持っているみたいな

play09:03

あの一家に1台車があるみたいなですね

play09:06

状態で一社に1台独自llmを持っている

play09:09

みたいなことがあ近い将来やってくるん

play09:11

じゃないかなと思ったりもしているものの

play09:14

実際にはやっぱりそこまでにいろんな費用

play09:16

的な面とかリソースの面の問題もあります

play09:18

しえまこういうスキルセットを持った方を

play09:21

車内で確保できるまでになかなかあすぐに

play09:24

はいかないかなと思いますのでまそういっ

play09:26

た面でもですねラグにおいてはま企業での

play09:28

導入でとかあ何か個別のタスクにおいて

play09:32

特化した回答制度を上げたいモデルとか

play09:34

ですねこの辺りに関してはかなり重要度が

play09:37

高いと言いますかあの注目できるところな

play09:39

のかなという風に思っておりますはいここ

play09:43

までがですねまラグの利点であるとかえ

play09:46

ラグの基本的な概念知識についてですねお

play09:48

話をしてまいりまし

play09:51

たまこんな感じでどんどん進んでいきます

play09:53

が続いてがllmの進化とコンテキスト

play09:56

ウィンドの拡大ということでま今日の

play09:58

テーマのでもあるまコンテクスト

play10:00

Windowえま簡単言うと文字数みたい

play10:02

な話ですけどもまこの辺りの話に入って

play10:05

いき

play10:05

ますでまずGPTの入力の文字数とラグと

play10:09

いうところなんですがはいまラグを活用

play10:14

する1つの理由としてチットgptmは

play10:16

文字数あえて今日は文字数って表現をし

play10:19

ますまコンテクストWindowとかです

play10:21

ねトークン数とかまいろんなあワードが出

play10:24

てきてしまいますの統一的に今回はえ文字

play10:27

数という風に呼ばせてください

play10:30

で例えばチャットGPTの場合ですと文字

play10:32

数入力できる文字の長さに制限がありまし

play10:35

てえま出たての頃とかは多分4000文字

play10:39

ぐらいしか実入らなかったのであんまりま

play10:41

長文そもそも入れられなかったですしえ

play10:44

アウトプット出力のところに関してもえま

play10:47

かなり制限があの効いてしまっていてです

play10:49

ねえそんなに長文返せなかったりとかて

play10:52

ことも結構あったかなとで当時からやって

play10:55

た方はまこういう画面ちょっとこれは

play10:57

日本語訳したものですけどもま送信

play10:59

メッセージが長すぎますみたいなですねま

play11:01

こういうものが出てきてイラっとした経験

play11:03

が結構あるんじゃないかなという風に思い

play11:05

ますけれどもえままさにこれがですね入力

play11:08

文字数の制限というところになってい

play11:11

ますで入力文字数の制限があるということ

play11:15

はま大量の情報例えば車内の規定を

play11:18

インプットしたいとかマニュアルを流し

play11:20

たいとかえロングを全部流し込みたいとか

play11:22

ですねそういうものはやっぱできないと

play11:24

いう風になりますのでまこれを解決する

play11:26

ための手段としてまラグが最注目されて

play11:29

知ってるからはラグって別に昔からあった

play11:31

よねって言われてるんですがまそもそも

play11:33

ジェネレーションのところの制度も上がっ

play11:35

てきたということもあり最注目されまして

play11:38

え特に昨年はですねこのラグを活用した

play11:41

新しいサービスがどんどんどんどん本当に

play11:43

えプレスリリースとかPRタイムズで見て

play11:45

いても毎週新しいサービスがポンポン出て

play11:47

くるみたいなですね状態になっていました

play11:50

で私の今本業でやってる方の会社もですね

play11:52

メディアリンクという会社なんですがえ

play11:54

昨年の4月にえメディアトークGIという

play11:58

ええチャットGPTのAPIを使ったラグ

play12:02

型のチャットボットってものをリリースし

play12:03

ていますでこちらもあのまさにまラグです

play12:07

のでデータをインプットしてプロンプトを

play12:10

与えてその検索した結果に基づいて回答を

play12:12

出力するということで今までのチャット

play12:15

ボットのようにシナリオ分岐みたいなもの

play12:18

を組んだりとかですねボタンを設定すると

play12:20

かってのはしなくてもえ自分たちが持って

play12:22

いるデータをですねまカスタマーサポート

play12:24

の方々ほとんどあの手元に何かFAQ持っ

play12:27

てますとかえオペレーターのスタッフ向け

play12:29

のですねえQA持ってますとかっていう

play12:32

ケースもあるのでまそういったデータを

play12:33

慣れとして使ったりとかえ規定マニュアル

play12:36

類をPDFファイルを登録したりとかです

play12:39

ねそういう風な形で構築ができるサービス

play12:41

を去年リリースしていますでまだ数は多く

play12:44

ないんですがあのいろんな企業様にですね

play12:46

使っていただいて徐々に成果も出始めてき

play12:48

ているというところであの同じようにあの

play12:51

サービスをリリースしている会社さんがま

play12:53

昨年はこのラグの仕組みを使うという

play12:56

ところが非常に多かった1年だったなと

play12:58

いう風に振り返ると思います

play13:01

はいそんな中で入力文字数拡大の流れと

play13:04

いうところですけどもまGPTえ私の記憶

play13:08

で最初はま4000文字ぐらいから始まっ

play13:10

てえま8000文字とか

play13:13

3万2000円の11月のデブDayの

play13:16

発表の中で言うとまGPT4のターボです

play13:19

ねターバが出てえ128Kということで

play13:22

2万8000円文字とですねまどんどん

play13:24

どんどんこう長くなってきているなという

play13:26

ところはあのある一方でま競合のの

play13:29

サービスもですね同じく拡大をしていると

play13:31

いうのが今のトレンドになっていますで

play13:34

今日は2つその中で紹介していきますで1

play13:37

つ目がまジェミニですねこれ出始めの時に

play13:40

なんて読むんだみたいなジェミナイて読む

play13:42

のかジェミニって読むのかみたいな英語

play13:43

読みするのか日本語読みすんのかみたいな

play13:45

話ありました今日はジェミニーで統一させ

play13:47

てくださいでジェミニーの1.5プロと

play13:50

いうモデルがですねえ2月1月ぐらいに

play13:53

リリースされておりますはい2月ですね

play13:56

はいでこちらGoogleはえ昨年末にま

play14:00

ジミニーの1.0というものをですね

play14:02

リリースしてえ3万2000円文字という

play14:05

ことでえままこれぐらいかていう感じでは

play14:07

あったもののこのジェミ1.5に関しては

play14:10

ま最大で100万文字まで対応できますて

play14:13

ことでかなり話題になりましたまさに今日

play14:16

のこのセミナーのテーマでもあるえラグ

play14:19

不要論っていうものを生んだきっかけとも

play14:22

言えるかもしれませ

play14:23

んで発表時点ではまGPT4ターボがあ

play14:28

最大12万8000円文字とことでま今で

play14:31

もあの12万8000円文字変わらないの

play14:32

で現状このままなんですけれども約8倍の

play14:35

差がありますということでまこんな感じの

play14:37

ズモですね表現されましたこの後紹介する

play14:40

クロードとかですね一緒ですあの

play14:42

めちゃくちゃ多いですところがあったし

play14:45

はいでえっと研究段階ではもっと大きい

play14:49

ですねえテストに成功していて1000万

play14:51

文字ぐらいに行けてますよとかですね

play14:53

そんなことも言われたりえしているという

play14:56

のがございますただまビデオとかとかです

play14:59

ねえ音楽音声とかですねまそうしたものも

play15:02

えインプットに使えるとかマルチモーダル

play15:04

のまさに特化をしたところがまジェミニー

play15:07

のこう1つ特徴なのかなと思いますがま

play15:09

今日はあくまでも実数のところだけえ拾っ

play15:12

ていきますけどもかなりこれで長文の

play15:14

プロンプとが入れられるようになったと

play15:15

文字が入れられるようになったというのが

play15:17

非常にニュースになった話題になった

play15:20

ところでござい

play15:22

ますで続いてがアンソロpiic車のです

play15:25

ねクロード3というところになります

play15:27

けれどもソルピックも最近はあのよく聞く

play15:31

ようになりましたがま去年とかもえクロド

play15:34

2.0とかですね2.1とか色々発表して

play15:36

たんですがまOpenAIの元メンバーが

play15:39

ですね設立をしたアメリカのAI

play15:41

スタートアップ企業ですよくまOpen

play15:43

AIの本当にライバルと言われるようで

play15:45

感じですねでアスロピックのクロード以前

play15:48

からまGPTよに長いジス入力できますっ

play15:51

てことは結構ま売りにしていたんじゃない

play15:53

かなと私としては見ていますけれどもえま

play15:56

クロド2.0の時点でえっと10万文字

play15:59

ですかねえ10万文字行けますとでえっと

play16:02

2.1になって20万文字行けますすって

play16:04

ことでまこの時点でGPT4よりもですね

play16:07

GPT4ターボよりも長いという風になっ

play16:09

ていますま2倍までいきますま1.8倍と

play16:12

か1.7倍とそれぐらいですかねでただ

play16:15

えっと性能においてはGPT4の方が優秀

play16:17

だよねっていうところがあり実際私もあの

play16:20

2.1が出た時にですねえまアプリをこう

play16:23

Webのサービスとし使ったりしていた

play16:25

もののま別にGPT4でいいかなという

play16:27

感覚がああったのを記憶していますで実際

play16:31

にあんまり使ってなかったっていうところ

play16:33

はありましたが皆さんもご存知だと思い

play16:35

ますが今年の3月今月ですねえ発表された

play16:39

最新モデルのクロード3というものに関し

play16:41

てはあま20万文字っていうその

play16:44

コンテクストウンドウま文字数に関しては

play16:46

あ変わりなくだったと思いますけれどもえ

play16:49

ベンチマークの評価でえGPT4を上回る

play16:53

結果になりましたっていうことが発表され

play16:56

かつ本当かよっていう最初感じはあったん

play16:58

ですが実際使っていくとですねだから日本

play17:00

語の制度がどうやら上がってるんじゃない

play17:02

かなというところがま使ったレポートの中

play17:05

で各各自というかですねいろんなSNSと

play17:08

かでも言われていますしまいろんな

play17:10

ニュースサイトとかでも紹介されている

play17:12

感じでもしかしたらあの日本語性能が

play17:15

GPT4よりも結構上がってるんじゃな

play17:16

いっていうのが言われていますで実際に私

play17:19

の周りではもうチャットGPT使ってない

play17:21

よという方とかまGPTそのカスタマイズ

play17:25

版のGPTですねあれが使ってますよって

play17:27

いう人はいてもまのもうGPT3.5使っ

play17:30

てますって人はもほぼもしろ効かないです

play17:32

しGPT4え普段使いしてますって方も

play17:35

結構減っているような気がしますで私自身

play17:39

もついにあのずっと無料版でクローザー

play17:41

使ってたんですけどもあの課金版の方に

play17:44

えついに入りましてですねチャットGPT

play17:48

とまクロードどっちも今有料で使っている

play17:50

んですが感覚的にはクロードを使うかあの

play17:55

えっと比率の方が非常に多くなって

play17:57

クロード7GPT3ぐらいですねなんか

play18:01

それぐらいになっているような状況で

play18:04

ございますでこれもたくさんいろんなとこ

play18:06

に出てたので見た方も多いと思うんです

play18:08

けれどもまこんな感じでですねえま緑色に

play18:11

なってるのはこのえオーパスということで

play18:13

クロード3の未3つモデルがある中の1番

play18:16

最高性能のものになるんですけどもえ4つ

play18:19

隣にあるGPT4と比べるとま全ての数字

play18:22

で上回ってますということが言われてい

play18:24

たりしておりますあQAのコメントの方で

play18:29

ありがとうございますはいクロードにほぼ

play18:30

ご済みですねてことでそうですよねそう

play18:33

いう方が非常に多いなという風に思ってい

play18:36

ます実際皆さんどうですかねあのもう

play18:38

チャットジテ使ってないよなのかあの

play18:40

クロード使ってますよなのかまいろんな方

play18:42

いらっしゃると思いますがあのまず使って

play18:45

ないっていう方に関してはあのクロードの

play18:47

無料版でもここで言うとこのえソネット

play18:53

ですねコネットという2つ目のモデルに

play18:55

関しては無料版でもえ使えるはずですので

play18:58

え是非こちらも使ってみるといいなと思い

play19:01

ますあの感覚的には日本語性能いいですし

play19:04

あと速度も早い気がしますのでえGPT4

play19:08

よりもなんとなく使い勝手いいなという

play19:10

感覚がありますはいぜひ使ってみて

play19:14

くださいはいでえっとどんどんもう先に

play19:17

進んでいきますが続いてがラグ不要論と

play19:20

いうところですね

play19:22

はいま今までえっと文字数がどんどん増え

play19:25

ていくllmの進化の歴史をまこの1年半

play19:29

のところ見ていきましたけれどもまこの

play19:31

ように大量の文字数を一気に投入できる

play19:33

ようになってきますともうラグっていら

play19:36

ないよねという人たちが結構出てきました

play19:39

まこれ結構議論をあのXの中では生んでい

play19:42

ましたはいで今日はえまよくえ絡ませて

play19:46

いただいている神楽オタ元木さんとですね

play19:48

ミボくさんの発信をちょっと引用させて

play19:51

いただくんですけれどもえま元木さんの

play19:54

発信で言うとまラグの部分をですね

play19:57

しっかり解説したええツイートポストに

play20:00

関してのま引用のま自分でですね引用され

play20:03

てらっしゃるんですがラグ不要論という

play20:06

よりかはまラグを意識しなくなるが正しい

play20:08

と感じるとま見返しててそう思ったそれ

play20:11

ラグ不要論リもラグ不用論者でいいです

play20:14

みたいな感じもあってですねえ書かれて

play20:16

いるんですけれどもえまこんな風に言われ

play20:19

ていたりとかあとはMIOというえま誰で

play20:23

も簡単にGPTをま自分でチャットボット

play20:26

にえしてですね固いてきますみたいなビス

play20:28

やってるえ方のえ社長さんですけれどもま

play20:32

美本くさんもまこんな風に語ってますえ

play20:35

美本くさんはラグを不用という風には考え

play20:37

ていないという派ですねそんなことない気

play20:40

がするとでプンとの拡大コスト減少が進む

play20:42

とよりハイブリッドいうが進むと思う

play20:44

みたいなことでま独自の解説をされてい

play20:46

たりしていましたでこんな感じでえっと

play20:50

AIのサービスを作っていたりとかあ

play20:52

関わっている方々がですね必要だ不要だと

play20:55

いうのが割とこの時にですねあったような

play20:58

がありますま2月は結構そういう話があっ

play21:00

たな

play21:01

っでそれぞれの意見をちょっと簡単に

play21:05

まとめてみ

play21:06

ますまず不要派です

play21:09

ねまずラグ不要派は文字数の上限拡大され

play21:13

続けていくのでま今後もですね多分増え

play21:16

続けていくでしょうと言われてるので

play21:18

わざわざラグで情報を切り取ってえ

play21:21

ピンポイントでAに与える必要って

play21:23

そもそももうなくなるよねという風に言わ

play21:25

れていましたあとはこんなですね全部入れ

play21:29

られるんだったら入れた方がいいじゃんと

play21:31

ま確かにこれはその通りかもしれないです

play21:32

ねラグの検索による精度低下がなくなるん

play21:36

だったらもう全部入れておく方がいいよね

play21:38

というような話もました私なんかどっか

play21:42

飛ばした気がするんですがえっとラグと

play21:44

いうのがですね検索とこの辺ですかねこの

play21:48

辺飛ばした気がしますが検索と

play21:53

えこ辺ですねはい検索と生成でえっと

play21:57

成り立っているものになるんですけども

play21:59

ちょっとこれは自社のえ資料から一部抜い

play22:03

たものになりますがこんな感じでイメージ

play22:06

的はラグというのがえっとユーザーから

play22:08

質問とかま入力が発生するとま対話AIが

play22:11

まず問い面にいてまいわゆるベクトル化

play22:14

みたいな処理をしたりとかですねえそんな

play22:16

ことやってくれているものがま表面でいて

play22:19

で裏面では検索するAI君が存在していて

play22:23

えまデータ検索をこの与えたこでと本なら

play22:26

の情報を見に行ってええユーザーの質問に

play22:29

対して最適なえ本を探してどのページの

play22:33

どのこがいいのかというのを探してきて

play22:35

結果を中止てしますこれれを裏側でまた

play22:38

対話AI君渡してあげてで対話AI君は

play22:42

質問の内容と検索された結果を元に回答文

play22:45

を作るということで検索するフェーズと

play22:49

回答を生成するフェーズこの2つにま分れ

play22:52

ているわけです

play22:54

ねですの

play22:56

で仕組み上2つの変数が存在しているん

play23:00

ですよねこのユーザーの質問に関連する

play23:03

情報を外部データから取得する検索の

play23:05

フェーズと取得者情報をユーザーの質問文

play23:08

と組み合わせてllmの回答を生成する

play23:10

生成のフェーズですねこの2つが存在して

play23:13

いますなので検索の制度とですね生成自体

play23:18

の制度この2つが掛け合わせれて実際の

play23:20

回答制度というものが生まれてくることに

play23:23

なりますのでこういうまここで言うと検索

play23:26

の制度ですねこの制度定価なくなるんで

play23:29

あればま全部イプとしておく方が安定する

play23:31

んじゃないかというのも不要論を語って

play23:34

いる方の1つの理由でもあったし

play23:38

ます一方で必要派の意見ですねえっと文字

play23:44

の上限拡大されても情報の抜け落ち問題は

play23:46

改善されないということでまこれは

play23:48

ちょっと後ほど解説するんですけれども

play23:50

文字がたくさん入ってくるとですねAIも

play23:53

混乱しちゃいますということがあり

play23:56

ますあとはま回答ですね回答自体に必要の

play24:00

ない情報までえ毎回送信しちゃうっていう

play24:02

のは無駄だよねっていうことですね例えば

play24:06

え何でしょうね利用規約がま例えば何万

play24:10

文字ぐらいですかね例えば1万文字とか

play24:12

2万文字とかあったとしてまそれを全部え

play24:14

システムプロンプトみたいなものの中に

play24:16

入れておいてですねじゃあ質問回答し

play24:18

ましょうっていう風にやった時に例えば

play24:20

面積事項について質問されていますという

play24:23

際に利用規約の面積事項のえ箇所だけあれ

play24:26

ばとか回答ができるわけですけれどもえ

play24:30

ラグ不要論になってしまうと利用規約全部

play24:32

入れましょう1番文字2字全部入れましょ

play24:34

うって話になっているので全く関係ない

play24:36

条文とかもですねえ情報として与えて

play24:39

しまうことになりますのでそれって無駄だ

play24:41

よねとで毎回それ別に入れる必要ないから

play24:44

適切なところだけ抜き出したら良くないっ

play24:46

ていうのが必要派の意見

play24:49

ねであとは文字数でAPIの重量課金が

play24:53

発生するLMサービスが非常に多いていう

play24:56

ところがありますのでサービスとして

play24:57

組み込ん場合にコスパが悪すぎるというの

play25:00

があります2万文字とか100万文字とか

play25:03

入れられるからと言って毎回100万文字

play25:05

送信してるとその分コストが都度かかって

play25:07

しまうというところでコパが悪いというの

play25:10

が必要派の意見でもありますこのように

play25:13

ですねまどっちもなんか言ってることが

play25:14

確からしいなという風に思いますのでま

play25:17

どちらがいい悪いって話ではないんですが

play25:19

まこういう今意見が界隈の中で出てきてい

play25:22

ますよっていうのをちょっと知識として

play25:24

入れていただけるとよろしいかなと思い

play25:27

ますじゃ本当にラグは不要になるのかと

play25:31

いうえ確信的なお話になりますがちょっと

play25:33

ここだけすいません長いんですけれども

play25:35

えっと私の個人的なことも含めて書かせて

play25:37

いただいていますあの皆さんがどう思うか

play25:40

是非チャットとかですねQ&Aとかでも

play25:42

結構ですのでえ聞きながらコメントして

play25:45

もらえたら嬉しい

play25:46

です個人的にはしばらくはえ必要だと思っ

play25:51

ていますラグ必要派です私はラグ必要派

play25:54

です特に私たち者もそうなんですけどけも

play25:58

えっとllmを組み込んだサービスを使っ

play26:01

ていく中ではですねえ正直またくさん

play26:04

ぶち込めからと言って全部ぶち込んじゃう

play26:07

とてんてんてんというのがですねえ本音の

play26:10

ところになり

play26:11

ますでま月額固定料金で利用ができる

play26:14

チャットGPTとかですね例えば仮に

play26:18

クロードとかジェミニとかああいったもの

play26:20

がラグ機能がついたとして自社のデータを

play26:22

投入できるとかそういう風になったとして

play26:24

もですま今のgpdsの中でラグ機能

play26:26

使えるわけですけどもえっと月額固定料金

play26:29

だったらまあのもしかしたらわざわざ使う

play26:32

必要もなくもう都度全部ぶち込んじゃえば

play26:35

いいよねみたいなことは全然ありえるかな

play26:37

と思っていますまなぜならあの月額固定

play26:41

料金だからって話なんですけれども一定な

play26:43

のでコスパを考える必要性が全くなくって

play26:45

でかつえっと長文を一気に入れても精度が

play26:48

落ちずにあの精度が担保された状態でえ

play26:52

やれるのであれば全然まやる意味がない

play26:56

ラグをやる意味がないのでわざわざ分化さ

play26:58

れた情報を切り取って与える制度低下に

play27:00

なるステップをあの踏む必要がないので

play27:02

あの本当に必要ないと思いますチャット

play27:05

GPTにおいてはですねなので正直私

play27:07

チットGPTのGPTとかえ自分の業務

play27:11

効率化とかのために作ったりとかするん

play27:14

ですけどもラグ機能はここでは使わない

play27:17

ですねえ最低でもそのインストラクション

play27:20

のところに入れられる文字数だけにしてい

play27:23

て逆にそこに入るものは全部そこに入れ

play27:25

ちゃうという風な使い方をしていますその

play27:27

方がなんかいいなと思いますQA

play27:30

ありがとうございますあチャットが無効に

play27:32

なってると大変失礼しましたチャットが

play27:35

無効になってるの

play27:37

play27:39

はいこれでいけますかねはいあ皆さん

play27:43

ありがとうございましたはいであとはそう

play27:46

ですねQAとかでもコメントいただいたり

play27:49

してますがま必要ですってことで顧客情報

play27:52

とは必要だと思ってるからですモデルに

play27:54

用し化されていくと分からないですが

play27:55

2020年は必要でしょうそうですねはい

play27:58

必要派の方も結構いらっしゃるなという

play28:00

ところですねはいあチャットの方も

play28:02

ありがとうございますあの必要です不要で

play28:04

すって方非あの書いてみてくださいはいま

play28:08

そういうことでですねえっと通常のこう

play28:11

チャットgpdにおいてはラグ機能が仮に

play28:13

あってま使える状態だとしてもですねあの

play28:16

有料たは使えますけどまあいらないんじゃ

play28:19

ないかなと思ってますただしえっと私の

play28:22

会社でやってるようなllmを組み込んだ

play28:24

チャットボットとかまそういうサービスを

play28:26

作ってる場合に関してはま前にお話しした

play28:28

ようにあの文字数に応じた重要課金性が

play28:32

あの特にGPTとかもそうですしえ他の

play28:36

アピックのですねえクロードとかもそうな

play28:38

んですけれども基本重量課金性なので文字

play28:41

を送れば送るほど文字を出力すればする

play28:43

ほどお金がかかっちゃうというものになり

play28:45

ますで例えばOpenAIのGPT4え

play28:49

0125プレビューってま最新のあの

play28:52

モデルになりますけどもえっと仮にこれが

play28:54

100万文字入れられますとした時に

play28:57

100万文字をえっと入力しますとそう

play29:00

いう風になると1回入力するだけで

play29:02

10ドルま150円換算で1500円ね

play29:06

1500円かかる計算です1回チャット

play29:08

ボットに何かをインプットするだけ

play29:11

100万文字入れるだけでえ1500円

play29:14

かかりますとでアウトプットの部分にも

play29:17

課金が発生してますと実際にえ1500円

play29:19

以上1600円とか2000円とか買って

play29:21

しまいますというところです1回

play29:23

2000円みたいな世ですねはいで仮に

play29:26

これがま企業のカスタマサポートの

play29:28

チャットボットま私たちこれやってるん

play29:30

ですけどこれやってると考えるとえっと

play29:33

例えば月間10万PVぐらいあるサイトに

play29:35

チャットボット入れますという時に

play29:38

チャットボットの利用率というのが大体ま

play29:40

1%とか3%ぐらいのことが多いんですね

play29:43

普通に設置してるとで仮に1%だとした時

play29:46

に1%のユーザーがチャットボット使い

play29:48

ますで1回の利用で3回質問される場合と

play29:53

するとま3000回ですね毎月チャット

play29:56

ボットがあ質問をしてされて回答出すと

play30:00

いう応えがありますで入力分のコストだけ

play30:03

で毎月450万チャットボットのGPT4

play30:06

のコストだけで発生しますというとこでま

play30:11

仮に自社開発をして自社のサイト10万

play30:14

PVあるサイトにチャットボットを導入し

play30:16

ました裏ではGPT4の例えばこの

play30:19

100万持ち入れられるモデルがこあって

play30:21

今の料金形態だとした時に字入れられるん

play30:24

でえ全部システムプロンプトに自社の情報

play30:26

をぶち込んでですねえ質問が来たら回答

play30:29

するチャットボッドを構築してやりました

play30:31

という風になるとあらあら大変ということ

play30:34

でAPIだけで550万買っちゃいますよ

play30:36

というところになりますで私が知る限り

play30:40

450万円毎月かかるチャットボ聞いた

play30:42

ことないのであのどんだけ高価なチャット

play30:44

ボットでも多分月100万とかえ50万と

play30:48

か60万とか安いものだと3万円とかあの

play30:50

1000円とかですね0円とか色々あり

play30:52

ますがまそういうものなのでえっとかなり

play30:55

コスパが悪いっていうのはお分かり

play30:57

いただけるとと思い

play30:59

ますでまチャットボットだけで例えば

play31:01

カスタマーサポート業務だとした時には

play31:03

全ての対応ができてですねもう電話メール

play31:06

もデロになりますというのであればま

play31:08

450万毎月だったらま人数計算して

play31:11

もらえれば分かると思うんですがコール

play31:12

センターとかカスタマーサポートの

play31:14

スタッフの人数によってはあの企業規模に

play31:16

よっては全然ありかもしれませんが

play31:19

そもそも0になることチャットボットだけ

play31:21

ではありえませんさっきの1%利用っての

play31:24

が理由なんですがゼになることありえませ

play31:26

んのでええチャットボットに毎月450万

play31:30

かけて年間でま5400まとかま

play31:32

6000万とかですねかかっていくって

play31:34

いうのはま普通こういう投資意思決定

play31:38

できる会社ほとんどないんじゃないかなと

play31:40

いう風に思っておりますのでなかなか現実

play31:43

路線はないのかなと思ったりしてますはい

play31:47

あチャットも質問もありがとうございます

play31:50

質問のたびにその質問に必要な情報を全て

play31:53

書き込めてるは普段使いするのは面倒

play31:54

くさいと思うでそういう場合はラグが必要

play31:56

かそうですねはいだからGPTで繰り返し

play31:59

はいやるとかいう時は確かにあのそういう

play32:01

のはありかもしれませんがそうですねうん

play32:06

なんか組織で使う場合にはチームプラン

play32:08

加入してるとかってありかもしれないです

play32:09

ね個人利用だったらもしかしたらあんまり

play32:12

ないかもしれませんがまバリオてはあるの

play32:14

かもしれないですねありがとうござい

play32:16

ますまとはいいてですけもまこんな感じで

play32:20

えまあんまりちょっとこスパが良くないの

play32:22

であんまり良くないなと思ったりしますで

play32:25

またまラグ必要派であるもう1つの理由が

play32:27

長文の抜け落ち問題ですねさっきの必要派

play32:30

のところで書いたことになるんですけど

play32:33

も2023年の7月に発表された論文が

play32:37

ありましてえまこちらこれですねはい

play32:42

こちらになるんですけどもllmに対して

play32:45

与える文字数の長さで回答制度が大きく

play32:48

変わってきますということがあの要約する

play32:50

と書かれてい

play32:52

ますでこれは当時GPT3.5ターボのま

play32:56

その6月にあの更新されたモデルでですね

play32:59

やってた調査になるんですけどもこれ44

play33:01

系トークなんでえま約4000文字って

play33:04

ことですけどもこの場合はドキュメントの

play33:07

あのま与えているってことなんですがたさ

play33:11

文字を与えていくとですねえこの真ん中ら

play33:14

辺が抜け落ちちゃいますという問題が発生

play33:16

してプロンプトの最初の方に書いたことと

play33:19

か最後の方に書いたことっていうのはあ

play33:22

指示としては通りやすいま制度としては

play33:24

あんまり変わらないものになるんですが

play33:26

真ん中ぐらいに書いたものっていうのが

play33:27

抜け落ちが発生しちゃいますよということ

play33:30

が言われたりしておりましたとで実際に

play33:33

あの私たちのサービスで使ってるユーザー

play33:35

さんにもこういう話をしてるとまやっぱり

play33:37

同じような結果が出てくるので抜け落ち

play33:39

問題はやっぱり長文になればなるほど起き

play33:42

やすくなってるというのはあったとで

play33:44

さらにえっとこれなんか面白いですよね

play33:47

ジェミニが出た時ぐらいに出た論文だった

play33:49

んですけども2024年2月の論文の中で

play33:52

言うとま最新版で出ていたllm当時は

play33:55

まだクロードの3がなかったんであれなん

play33:57

ですけれどもまいろんなMllmですねえ

play34:01

検証されていて入力テキストとま水路の

play34:04

制度みたいなものが入力の長さによどれ

play34:07

だけ変わるのってもので言うとはいえっと

play34:12

水色がGPT3.5緑がGPT4で紫が

play34:16

ジェミニのプロえ黄色がミストラルのえ

play34:19

70ミリオンですねえでこちらのミクスト

play34:23

ラルですかねちょっとから間違ってのかな

play34:25

ミストラルですかなのやつですねままこれ

play34:27

どれも右肩下がりで基本的は下がっている

play34:30

まGPT4は下がりが低いですけど右肩

play34:33

下がりで下がっているのが分かると思い

play34:34

ますがインプットするこのトークン数文字

play34:38

の長さがですね文字の多さが増えれば

play34:40

増えるほど例えば3000文字とかになっ

play34:42

てくるとかなり精度がま6割ぐらいになっ

play34:44

ちゃうとですねえそんな風にデータが

play34:46

分かるのかなという風に思っまそれでも

play34:48

GPT4が下がりづらいってのがあるの

play34:50

すごいんですけどもまそれでも100%

play34:53

ぐらいだったもの

play34:55

があ80%ぐらいまでやっぱり下がって

play34:57

しまうというものがありますので基やっぱ

play35:00

文字数が長ければ長いほどあの精度落ち

play35:03

ちゃいますと回答精度落ちちゃいます精度

play35:04

が悪くなりますという風に言われています

play35:08

でおそらくこれはあのクロードも同じよう

play35:11

なものがあり得るんじゃないかなと思い

play35:13

つつ実際触ってるとそんなことないような

play35:15

気もするんですがちょっとこれ分かんない

play35:17

んですけども多分長ければ長いほどえ

play35:20

ピンポイントに何か途中の質問された時に

play35:22

え正確性にかけていくようなことはあり

play35:25

得るんじゃないかなという風に思思ったり

play35:28

しておりますはいま回とちょっと私も要約

play35:30

した部分があるんで見てみてくださいとで

play35:33

仮にこれま人間に置き換えてみると当然の

play35:35

話かなという風に思っていましてえ最初の

play35:38

方で教科書持ち込み型があのラグですよっ

play35:42

て話をしたんですけどいくら教科書

play35:43

持ち込んで受験できるテストだとしてもま

play35:46

教科書1冊持ち込んでテストを受けるのと

play35:48

もう要約されてる官平を持ち込んでやるの

play35:51

では当然まカペが的確であればですねあの

play35:54

問題を解くスピードも正確性もま生産性も

play35:56

高いとたくさん量解けますよねという

play35:59

ところが言えるかなと思いますのでまそう

play36:01

いう意味でやっぱコスパがいいという風に

play36:03

言えると思いますなのでまお金費用以外の

play36:06

面で見てもですねえラグのフレームワー

play36:09

クっていうのはやっぱり生産性が高くて

play36:10

効率的な手法だという風に私は考えてい

play36:13

ますなのでま今のところ不要にはならない

play36:16

んじゃないかなというのがあ実際に事業を

play36:18

やってる中でも思うことではございます

play36:21

ただしえっとユーザー様とユーザー企業様

play36:24

とですね会話しているとやっぱこのラグの

play36:26

フレーマーク使う時にはですねやっぱこの

play36:29

検索の精度と生成の精度2つの変数が存在

play36:33

してえコントロールするのがやっぱりその

play36:35

分難しくなってしまいますなのでナレッジ

play36:38

データっていうのはどういう風に作ったら

play36:40

いいのとかまデータの投入の仕方とかです

play36:42

ねあとはプロンプトをどういう風に作って

play36:44

いくかとかこの辺りのコツがやっぱり

play36:46

テクニックが必要になってくることもあり

play36:49

ますしまだまだこの分野新しい領域ですの

play36:52

でえ研究者とかまロング出してるぐらいの

play36:55

レベルなのでまが思考錯誤をしてる途中で

play36:58

正解が何ってのが分からない状態最低機会

play37:01

がまだ分かっていない状態という風になり

play37:03

ますその中でナジデータはマークダウン

play37:05

形式でやるといいよねとかQA形式で作っ

play37:08

た方がいいよねとかプロンプトってのは

play37:09

こういう風に作るといいよねとかていうの

play37:11

をみんなで模索してるような状態になり

play37:13

ますなのでえっとすぐ不要にはならないと

play37:16

思いつつもやっぱり運用上でこうやって

play37:18

難しさっていうのもあるのは事実でござい

play37:20

ますのでまラグが整理だという風には思っ

play37:23

ていないですこれが完璧だとは思ってない

play37:26

ですただは目的とか用途に合わせてですね

play37:29

とりあえず全文ぶっ込みみたいな感じだけ

play37:32

ではなくってまラグという手法があるんだ

play37:34

ということをちゃんと理解しておきかつ

play37:36

ラグの基本的な仕組みであるが特徴ですと

play37:38

かそうしたものを理解しておけばあ例えば

play37:41

会社でAIを使う時とか自分の業務でAI

play37:44

を使っていく時とか何かサービスを考える

play37:46

時とかていう時にもまラグという手法が

play37:49

あってえもしくはま長文のプロモとが入力

play37:52

できるLA部にはこういう特徴があるとか

play37:55

論文の中で抜け落ちの問題が言われてい

play37:57

ますよとかまそういったことをしっかりえ

play37:59

認識しておけばですねえ活用の最適な形が

play38:02

見つかるのではないかなという風に思って

play38:04

おりますはいで今日は1時間でえっと9時

play38:08

までなので残りの時間に関してはあ

play38:11

ちょっとま質疑応答もしつつもし時間に

play38:14

余裕があればですねえ是非私があの担当し

play38:18

ている事業のメディア特GIIとかのこの

play38:19

辺で実際どういう風にラグを活用して

play38:21

サボット運用してるかとか少しテクニック

play38:24

的な話も含めてご紹介させていただきたい

play38:26

なという風に思いますしま是非今日は

play38:28

インタラクティブなあの回という形で

play38:30

えっと異論とか反論もあればコメント

play38:32

いただけると嬉しい

play38:34

ですちょっとお待ち

play38:39

ください礼しましたちょっと花粉症で今

play38:42

くしゃみが出ちゃいましたはいっという

play38:45

ことでですねあのご清聴ありがとうござい

play38:46

ましたというとこですはいでは少し

play38:50

コメントとかも拾いながらですねえちょ

play38:54

時間とか興味が皆さんあればあうちの

play38:56

サービスのデモとかもしたいなと思ってる

play38:58

んですがちょっとチャットの方からき

play39:00

ましょうかねはいえとカペがラグ教科書が

play39:05

あ情報が全て入ってプロンプトってこと

play39:07

ですねそうですねあのそんなイメージです

play39:09

えっとラグはラグでもあの精度上げようと

play39:13

思うとですねあのただ文章を登録すりゃい

play39:16

いっていうもんではなくてですねやっぱり

play39:18

少しAIが読みやすい形に形式を整えたり

play39:21

ですとかする必要が制度を上げる上では

play39:24

ありますあのおもちゃみたいなチャット

play39:25

ボット作るんであればただえデータ

play39:27

ぶち込めばすぐにできるんですけどもあの

play39:29

ちゃんと業務として使っていくとかあお

play39:32

そうに公開するとかっていう運用になって

play39:33

くるとある程でば形を整えるっていう

play39:36

ステップはあ必要不可欠になるかなと思い

play39:38

ますのでえまそれがカペみたいにちゃんと

play39:42

整えられているものっていうそういう

play39:43

イメージですね

play39:46

はいであとはQ&Aの方いただいてます

play39:51

ねセキュリティとプライバシーの観点です

play39:54

ね今後のSNS法規性えが成立した時の

play39:58

ラグの管理はどう影響してきますか

play40:00

ちょっと私SNSの放棄性のことが

play40:03

あんまり分かっていないんです

play40:06

がべ

play40:09

てSNSの大きって何

play40:13

だろうこれちょっと分からないのでご質問

play40:16

いただいたえっと村山さんですかね村山

play40:19

さんあのちょっともうちょっと教えて

play40:21

もらえたらごめんなさい嬉しいです逆に

play40:23

ラグの管理どう影響してきますかどうなん

play40:26

ですかねセキュリティとプの観点まあの変

play40:29

にデータを突っ込んじゃえるっていう

play40:31

ところまこれは別にラグだからってわけ

play40:33

じゃないと思うんですがそこら辺はま

play40:36

いろんな別な問題がやっぱりありますよね

play40:39

あのちゃんとそそれこちゃんと教育とかを

play40:41

していかないとあの自分のデータじゃない

play40:44

のに

play40:45

えとりあえず突っ込んじゃってとかそれが

play40:48

何かあの万が一ですけどなんか漏洩して

play40:50

しまうとかですねえ悪い使い方されて

play40:52

しまうとかってことはま問題ではあります

play40:54

よねはいでチャットでそもそも生成と検索

play40:59

の違いが理解されていないケースが多い気

play41:01

がしますいやそうですよね社内講義してい

play41:03

ても受行者がチャットgpdを検索

play41:06

エンジンやWikipediaと勘違いを

play41:08

していてその違いを解くのが難しいです

play41:10

根本の理解があった始めでラグが生きて

play41:11

くると思いますよ本当その通りですよね

play41:14

これ本当その調理ですよね共感しかない

play41:18

ですあの私そういう時にですねなんか元々

play41:21

はごめさうちの資料なっちゃうですけど

play41:24

サービス紹介資料で割となんかその

play41:26

システマチックな

play41:28

こんな回答生成の仕組みですみたいなもの

play41:31

ですねえ最初はやってたんですけど

play41:33

やっぱりなかなかリテラシーが高くない方

play41:35

とかまさにそのチャットGPTを検索

play41:37

エンジンとかWikipediaみたいに

play41:39

使おうとしてる方からするとちょっと

play41:40

あんまりよくわからんというのが言われる

play41:43

ことが多くてですねそれで先ほどえお話し

play41:47

た時にお見せし

play41:50

たこういうちょっとめちゃくちゃ感想にし

play41:53

たものを作ったんですねでこれでま質問が

play41:56

来てでチャットGPTみたいな喋るAIと

play42:00

えあとはまこれもIBMのサーチとかでも

play42:03

いいんですけどもえま検索するAIとま

play42:05

GoogleでもいいですねGoogle

play42:07

がいますとChatGBGoogleがい

play42:09

ますみたいな状態でGoogleは

play42:11

Googleのあの見れる範囲内の

play42:14

ウェブサイトを探しに行ってChatGP

play42:16

でチャット喋るのが専門なんですとかです

play42:18

ねそんな風になんか説明してあげるとあ

play42:20

そうなんだとラグってえ喋るAIと検索

play42:24

するAIがいるんだとで普段使ってる僕

play42:26

たちが使ってる@GPTってのは喋るAI

play42:29

だから喋るAIの頭の中でしか会話でき

play42:32

ないんだねという風なことが分かって

play42:35

くれることが多くなりましたなのであえて

play42:38

この登場人物を2つのAIエージェントが

play42:41

いますよというような見せ方をして

play42:44

いただけるともしかしたら社内の講義とか

play42:46

よくリテラシがない方とか説明される場面

play42:48

でもあの役に立つかもしれませんのでもし

play42:51

よければなんかそういう説明の仕方をして

play42:54

みてもいいんじゃないかなと思ったりもし

play42:56

ております

play42:58

ありがとうござい

play42:59

ますチャットと質問あチャットあ

play43:02

ありがとうございますてことではい是非

play43:03

使ってくでちょっとじゃあこの

play43:06

まんま今日このリンクもよいしょここに

play43:09

入れときます

play43:11

ね多分ノーションのリンクこれ見れると

play43:14

思うので

play43:16

えしばらくは多分公開しておくと思います

play43:20

のでこの中にさっきの画像も入っているの

play43:24

とあとラグについての説明で言うと

play43:26

ちょっと今日は使わなかったですけどあの

play43:29

野村早見さんのYouTubeで紹介され

play43:31

てるラグの説明とかも結構丁寧にあの

play43:33

分かりやすくアニメーションで紹介されて

play43:35

たりとかしましたのでえまこういうのも

play43:38

もしかしたら研修で使ってみるのもいいか

play43:40

もしれないですねあともうちょっと

play43:42

マニアックな視点というかそういう視点で

play43:45

言うと今日の説明の中でもこのIBMのお

play43:48

話させてもらいましたが

play43:50

あ多分ラグで検索と最初にこれ出てくるの

play43:53

かなSEO1位だと思うんですよねそう

play43:56

ですよね地位に出てくるんですけどこの

play43:59

辺りから結構営業資料作ってるだろうなっ

play44:02

ていうベンダーさんもよく見かけますので

play44:05

あのなんかそういう意味でもスタンダード

play44:07

としてえ見てみるのもいいかもしれません

play44:11

はいこIBMのやっぱりその全文検索とか

play44:14

その辺結構強かったりしますのでまさに

play44:17

このラグの部分で言うとIBMのサーチの

play44:20

仕組みを活用されるっていうのも割とあり

play44:22

なんじゃないかなという風には思ったりし

play44:24

ますちょっと鼻をますねすいませ

play44:34

んはいすいませんお待たせしましたこの辺

play44:38

も是非見てみて

play44:39

くださいはいでQ&AQ&A書いてますね

play44:45

よいしょはいえっとラグとMyGPTの

play44:50

活用の境界線はどの辺りにあるのでしょう

play44:53

か個人でMyGPTをいくつか作っており

play44:55

最近関係者にGPを共有していますラグを

play45:00

使ったことがなくMyGPTを使い続けて

play45:03

ラグへどのような情報にえになったら状況

play45:05

になったら切り替えるべきなのかその基準

play45:07

を知りたいなと思いましたありがとう

play45:08

ございますGPTいいすよね便利だと思い

play45:13

ますメにとますでラグのそうですね

play45:21

使い分け

play45:23

え変な履歴がなければいいんですが

play45:28

例えばチャットGPTの場合だ

play45:33

と私もいくつかMyGPTなんか作ってま

play45:37

こう言い方を柔らかくする絵とか色々作っ

play45:40

てるんですけど例えばえ多分これはラグで

play45:43

やったの

play45:49

かこれはラでやって

play45:52

ないですね慣れち入ってないですもね楽で

play45:56

やってないですえっと境界線で言うと多分

play45:59

私ここどこまで入れたことあるって言わ

play46:01

れるとちょっとあんまり入れたことないん

play46:03

でわかんないんですがこれぐらいの文事業

play46:05

だと全然このインストラクションに入っ

play46:08

ちゃうんですよねこれ利用規約なんですが

play46:10

入っちゃうのであのここの

play46:12

インストラクションに入る文料なのであれ

play46:14

ばラグを使わなくていいけれどもここに

play46:17

入らない文料がある例えば論文を全部

play46:19

入れるとかですね多分入らないはずです

play46:22

そういう場合にはここで言うとナレッジ

play46:24

ですよねナレチっていうところでアロード

play46:27

ファイルをしていただいてデータを挿入

play46:29

するというような使い方で入るか入らない

play46:32

かっていうのが1つの基準になると思い

play46:34

ますで基本的にえっと入るんだったら入れ

play46:38

た方があのモラ的に回答しやすくなります

play46:42

のでえ入れておく方がいいと思いますが

play46:46

GPTの場合はそんなに多く入らないはず

play46:48

なのでえ多分あんまりたくさん入れても

play46:50

ですねそこまで精度落ちないんじゃないか

play46:52

なという風には思いますがまとはやっぱり

play46:54

抜けちゃうこともあったりしますのでそこ

play46:56

ら辺で考えてもらえるといいんじゃないか

play46:58

なという風に思い

play47:00

ます結構うちのユーザーさんとかだとあの

play47:03

Q&Aだけでえっと1万件ありますとかあ

play47:06

2万件ありますとかって方もいらっしゃる

play47:08

そうするとまいかにあのここにですね

play47:11

たくさん入れられるとしても多分入りきら

play47:13

ないはずなのでえそういう時はやっぱり

play47:16

ラグの仕組みここでうとナレッジ機能です

play47:18

ねGPTだとこれを使うのがよろしいん

play47:20

じゃないかなという風には思います

play47:24

はいあとは質問がチャット質問ちゃんとき

play47:28

ますねはいえっと車内でラグを用いた

play47:31

チャットボット同人を実施していますが

play47:33

現状制度として自の利用が難しい状況です

play47:36

と私は業務チームの推進担当として役割を

play47:39

担っておりえ参照ドキュメントや

play47:41

プロンプトの最適化を実装しておりますが

play47:44

実施しておりますが正解見てない状態です

play47:46

感覚ではありますが参照ドキュメントや

play47:48

プロトの問題ではなく検索手はチャンクの

play47:50

サイズの切り方に問題があると感じてます

play47:52

技術観念は詳しくなく今後の詰め方は

play47:54

難しいのですが今後の状況踏まえて工場の

play47:57

ポイントやこつを教えていただけます

play47:58

でしょうかありがとうございますま何で

play48:01

やってるかにりますけどそうですね検索の

play48:03

手法とチャンクの切り方はめちゃくちゃ

play48:06

重要ですめちゃくちゃ重要ですでそうすね

play48:09

ちょっとじゃあそこの話しましょうか

play48:12

えっとえっと正直ですねプロンプトは

play48:16

そんなにです正直ねプロンプトなんとか

play48:19

するぐらいだったらあのいいモデルをやっ

play48:21

た方がいいですで私とかの場合はこれ

play48:26

ぐらい書いてますねで基本的にはうちの今

play48:29

サービスGPT3.5かGPT4だけなん

play48:32

ですがえやっぱり3.5よりもやっぱ4の

play48:35

方がいいのは間違いないのでプロンプトレ

play48:37

頑張ろうってよりかはいいモデルに上げる

play48:39

要はお金を使う方が圧倒的に精度上がり

play48:42

やすいコスパがいいですクロも少ないです

play48:44

なので今だとクロードのあのオーパスとか

play48:47

ですねソネットとかハクとかあの辺の

play48:50

モデルを使えるようにしようかなという風

play48:52

に内部で検討してるところなん多分それに

play48:54

よってもだいぶ精度変わってくると思い

play48:55

ますただプロンプトはあそんなにえ重要で

play48:59

はないと個人的には思っま重要なんです

play49:00

けどそんなに重要じゃないと思っています

play49:03

でえっと制度向上に関しては

play49:05

やっぱりこの検索AIの

play49:09

お部分ですねここで言うとでここが

play49:15

よいしょじゃ

play49:21

ない

play49:23

はいこの資料では単純にまそのいわゆる

play49:26

cos類自動って言われるえデータベース

play49:29

なれえっとベクトルデータベースのお

play49:33

ベクトルの値をユーザーからの質問分の

play49:36

ベクトルの値と計算をして類字度が1番

play49:39

高いものをえピックアップするっていう

play49:42

ような図になってるんですけどちょっと

play49:44

社外避はなかなか言えないんですが実際に

play49:46

はやっぱりこれだけだと難しいですcos

play49:49

類事だけだといい情報マッチできないです

play49:53

ですので別な検索地方例えばキーワード

play49:55

マッチングとかもそうかもしれませんし

play49:57

最近だと検索結果を再度えAIまllmに

play50:01

えっとランキング付けを再度させてえ1番

play50:04

重要度の高いものを再評価させるとかって

play50:06

いう手法がまリランとかリランキングと

play50:09

かっていうのがあったりするんですがま

play50:10

そういうことも言われてたりしますので

play50:13

単純なルジ計算だけの仕組みだとちょっと

play50:16

難しいっていうのはその通りなので検索

play50:18

手法の見直しは必要だと思いますでもう1

play50:21

つがえっとナレッジデータですねここで

play50:24

言うと投入するデータのえっとチャンクの

play50:27

切り方って話がありましたがチャンクの

play50:29

切り方だけじゃなくどういうも形式で

play50:31

入れれるかってのは結構大事ですで例えば

play50:35

先ほどのgpdsでお見せしたようなま

play50:39

こういうまこれはドキュメントですよね

play50:41

ドキュメントなんですけど利用規約みたい

play50:43

なこれをこの

play50:45

まんまナレッジデータにしようと思うと

play50:48

おっしゃっていただいたようにチャンクと

play50:49

呼ばれるまどこで区切るかぐらいの話に

play50:53

なっちゃうんですねで機械的にやろうと

play50:55

すると例えば300も術に区切りますとか

play50:58

え500も術区切りますとか機械的に

play51:00

区切って例えばここまで区切りましたで次

play51:03

のチャンクはこっからここまでですとか

play51:05

ですね中途半端な区切りになってしまう

play51:07

ことがありますので仮にこれこのまんま

play51:10

使うにしてもちゃんとやっぱり上ごとにえ

play51:13

条項ごとに分けるとかってことはした方が

play51:16

いいです間違いなくでチャンクのサイズに

play51:19

関しては確か500文字前後までがあの

play51:22

最適と言われてるのでえ短すぎず長すぎず

play51:25

500文字前後で切るのがいいと言われて

play51:27

います

play51:29

でもしかしたら皆さんの期待外れの回答か

play51:32

もしれませんが私たちのおすめとしては

play51:37

これ実際うちのチャットボットに使える

play51:39

データの形なんですがやっぱりQAの形に

play51:43

しておくのが最も制度がやっぱ出せます

play51:46

チャットボットの場合ですとチャット

play51:48

ボットの場合ではチャットボットの場合だ

play51:50

とユーザーは質問してきます質問してき

play51:53

ますでナレッジデータがもしさっきの

play51:57

ドキュメントをただ切っただけのものだと

play52:00

するとユーザーの質問分文章の類字とえ

play52:04

文章ベクトルですね文書のベクトルとこの

play52:08

利用規約上の文字列のベクトル比しても

play52:13

近いものは必ずあるとは言えませ

play52:15

ん例えばうん何

play52:20

か料金等とかもそうかもしれですねえっと

play52:24

この料金えこのサービスの料金はいくら

play52:26

ですですかみたいな質問があった時にそう

play52:28

いう文字っていうのはそもそもここには

play52:30

存在してないですよねでもあと元のデータ

play52:34

はちゃんとこう条文みたいな書方されてい

play52:36

ますいう風になるとどうしてもルジの値が

play52:38

そんなに上がらないっていうケースが発生

play52:41

します質問分で使われてる言葉とナレッジ

play52:44

データに入ってる言葉が違うからってこと

play52:47

ですねちょっとややこしいですなので結局

play52:49

のところはえっと検索キーワード的にです

play52:53

ねやっぱり引っかけるためのワードが上に

play52:56

ないと精度が高まりにくいで狙ったところ

play52:59

に落とせないっていうのがありますので

play53:01

やっぱり休A形式でデータを持たせる形が

play53:04

1番いいですでそれがちょっと難しい

play53:07

よっって話なんであればえっとやっぱ

play53:09

チャンクの切り方の話になってくるのでえ

play53:12

ちゃんと条項ごとに切るとかあとはAIが

play53:14

やっぱりマークダウンとかあのそういう

play53:16

形式の方が読みやすいってのがありますの

play53:18

で1回まデータをあのそれこそクロードと

play53:21

かに入れてマークダウン形式に出力し直さ

play53:23

せてえデータベース化するとかですねそう

play53:25

いう方っていうのが結構必要あの重要に

play53:28

なってくるんじゃないかなという風に思い

play53:30

ますはい回答になってれば嬉しいですはい

play53:35

じゃまた次の質問に行きましょうはい

play53:38

インストラクションとナレッジで賄える

play53:40

文字数の情報であればMyGPで対応して

play53:42

いいとことですありがとうございますそう

play53:44

ですねはいえっと字数がはい

play53:47

インストラクションで入るんだったらもう

play53:48

それでいいと思います入らないんだったら

play53:50

ナレッジデータにしちゃうっていうのが

play53:52

あのいいと思いますgpdsで使うんで

play53:54

あればはい

play53:57

いうとこですねはいあとはチャットですね

play53:59

あチャットの方で質問いただいてます長い

play54:01

目で見るとコスト目を考えるなら

play54:03

プロンプトより新規サービス試した方が

play54:05

結果的にはいいということですかえ

play54:08

ありがとうございますちょっと難しいです

play54:11

よねロを試した方がいいのか

play54:14

うん新規サービスの

play54:18

うんプロンプとを試すま何を出力させたい

play54:22

かによりますよねあの私がやってるような

play54:26

サービスっていうのはチャットGPTの

play54:29

学習データに入ってないことをどう回答さ

play54:32

せるかというまず大前提がある中なので

play54:36

プロンプトだけでやっぱどうしようもない

play54:38

ところがあったりしますしえ先ほど

play54:42

の例で計算例でお見せしたようにですね仮

play54:46

に全部ぶち込めとした時にやっぱコスパが

play54:48

悪いんですよね圧倒的にも本当に一応と

play54:52

1500円のチャットボトってやばくない

play54:54

ですか普通に考えてまやばいと思いますよ

play54:57

ねめっちゃやばいと思いますあのうちの

play54:58

サービスだと3万円とか10万円とかで

play55:01

月額やってるんですが本当にこれだけでも

play55:04

あの450万とかまそこまでいかないにし

play55:06

ても100万とかかかれるとただGPT

play55:10

使ってるだけなのに100万かかると結構

play55:12

やばいと思いますんでえちょっとコスパが

play55:15

悪いと思いますなんでラグの仕組みを自社

play55:18

で構築してチャットボットを使われるで

play55:20

あったりですとかま我々みたいな会社とか

play55:23

そういうもうラグの仕組みもう最初の

play55:25

フレームワークは最初からですですねえ

play55:26

サービスに組み込まれてるようなもので

play55:28

えっと自分たちがやりたいことができそう

play55:30

なサービスを導入する方が多分簡単かなと

play55:34

は思いますねはいでプロンプトだけでどう

play55:37

にかしようてのは結構やっぱしんどい話な

play55:39

ので検索の手法さっき入出たようなデータ

play55:41

の作り方あとはもちろんプロンプとの組み

play55:44

方この辺りも非常に重要になってまいり

play55:47

ますま参考まで

play55:51

に者のようなサービスですとこんな形で

play55:56

えっとナレッジデータという画面があって

play55:59

ですねこの中でExcelで投入するとか

play56:02

PDFで投入するとかま色々あるんですが

play56:04

私の場合はGoogleスプレッドシート

play56:07

の連携の方式にしていてえっと自社のLP

play56:10

とかに使ってるチャットMODは全部ここ

play56:12

でえ入れてます今150個ぐらいQA入れ

play56:15

てますけれどもまこんな感じで作ってます

play56:18

でここで作ったナレッジデータを例えば

play56:21

チャットボットで言うとチャットボットの

play56:23

設定の方ですね

play56:26

はいこっちで参照データ名っていうところ

play56:29

さっき登録したナレッジデータみたいな

play56:31

やつを何を使うかってのを紐付けています

play56:34

で使うモデルをどれにするかを決めてで

play56:37

最終的にプロンプとですねはいまこの変数

play56:42

の中にこれ変数なんですけど中にはま同的

play56:44

にちょっと情報が変わるようになっていて

play56:46

ユーザーからの質問文が入ってきたりとか

play56:48

え質問文とこれはアンサーなんでさっきの

play56:51

ナレッジデータのQAをえここに挿入する

play56:54

みたいなものになってるんですけどまそう

play56:56

いうの仕方の関してもえマッチ度が1番

play56:58

高いよ2番目に高いよってのはあえてえ

play57:00

明治的にプロンプトにも記載をしてたり

play57:03

するんですがまこんな感じぐらいなので

play57:05

プロンプターは正直そこまでえ今日ご参加

play57:07

いただいてようなリテラシの方々では

play57:09

難しくないレベル感かなという風には思っ

play57:12

たりもしております参考

play57:15

まではいじゃ残り2分なんで今QA来てる

play57:19

のでそれぐらいで終わりましょうかはいで

play57:23

質問分が長い場合も類自動出すの出すのに

play57:26

使う文章は質問文そのまま使うのでしょう

play57:29

かえ長い文が入ったらその内容を質問文に

play57:32

分けて分けた文章ごに理測った良かったし

play57:35

ないかなあありがとうございますこの質問

play57:37

文をそのままベクトルにするのか1度

play57:40

llmにえ質問文からクエリを生成させる

play57:43

検索ワードを生成させるというようなやり

play57:46

方2種類ありますでそのままやるんじゃ

play57:49

なく検索クエリに1度

play57:52

え生成整形してですね検索クエリを

play57:56

データベースを検索するものに使うという

play57:59

やり方もあったりしますどっちもパターン

play58:01

はありますのでえっとこの辺りはもし

play58:03

サービスの導入をされる時にはどっちの

play58:05

形式使ってるのとかってのも考えてみても

play58:08

いいあの聞いてみてもいいかもしれない

play58:09

ですでどっちがいい悪いってよりかこれ

play58:12

データベースとな相性みたいなところにも

play58:14

なるのでデータをどう作ってるかとその

play58:16

そのままベクトル化したのか検索クエリー

play58:19

を生成してからルジ測ってるのかこの辺の

play58:22

相性にもよりますのでえっとそれぞれ点で

play58:25

考えるとはあの線でしっかりと結んで考え

play58:28

て運用していくのがいいという風には思っ

play58:30

ておりますので参考にしてみて

play58:34

くださいということでえっとたくさんご

play58:36

質問等もいただいてえっとほとんど回答は

play58:39

させていただけたかなと思いますが

play58:41

ちょっともしかしたら一部え欲しい回答と

play58:43

違ったなんてこともあるかもしれませんの

play58:45

その時はあの個別にまたご連絡いただい

play58:47

たりとかしていただければと思いますあの

play58:49

Xとかもやってますしあのメディア

play58:51

TalkGIIっていうサービスですねえ

play58:53

こちらやってますのでWEBからお問合せ

play58:55

いただいても結構ですのでえもしもう

play58:58

ちょっと引いてみたいとかあればご連絡を

play59:00

お待ちしております最後にじゃチャットに

play59:03

専念だけサイトのリンクだけ送っておき

play59:06

ますチャットボットボイスボットメール

play59:07

ボットaifAQ検索ページと4つ

play59:10

サービスやってますのでもしよければご覧

play59:12

になくださいということでえっと今日は

play59:15

ですねラグについてとコンテキストウンド

play59:17

の拡大がラグに与える影響という話をさせ

play59:19

ていただきましたまたあのこういった

play59:21

テーマ興味あればですねえリクエスト

play59:23

いただければお話ししたいなという風に

play59:24

思いますのでまた是非よしお願いいたし

play59:26

ますじゃ今日はあの祝日の夜えお忙しい

play59:29

時間帯なくご参加いただきまして

play59:31

ありがとうございましたまた是非よろしく

play59:32

お願いいたしますそれでは失礼し

play59:37

ます

Rate This

5.0 / 5 (0 votes)

Related Tags
検索拡張生成コンテキストウィンドウAI進化チャットボットジェミニクロードGPTモデルナレッジデータプロンプト最適化コストパフォーマンス
Do you need a summary in English?