ChatGPT/Claudeの回答力を極限突破させるプロンプト手法5選! ~Google Gemini、MicrosoftのCopilotにも対応~

AI大学【AI&ChatGPT最新情報】
12 Apr 202417:37

Summary

TLDRこの動画では、AIチャットのプロンプト設計に関する最新論文を5本紹介しています。論文は、LLMが事実に基づかない情報を生成する問題を軽減する方法や、プロンプトの丁寧さや順序がLLMの性能に与える影響を検証しています。また、学術文献でLLMの使用頻度やポジティブ思考を組み込んだプロンプトの効果を検証する研究結果も報告されています。これらの成果は、AIチャットの性能向上に大きく貢献する可能性があります。

Takeaways

  • 🤖 AIチャットは驚くほどの洞察力のある回答を提供できますが、質問の仕方によって回答の質を向上させることができます。
  • 📈 研究者たちはAIチャットのプロンプト設計に取り組んでおり、その研究成果は論文として日々発表されています。
  • 📚 2024年に入ってから公開された最新論文5本を紹介し、AIチャットのプロンプト力を上げる方法を解説します。
  • 🔍 LLM(Large Language Models)は訓練データにバイアスがあるため、ハルシネーションや幻覚を生じさせる可能性があります。
  • 🔧 32の手法を網羅的に調査し、ハルシネーションを軽減する方法として特に有望と思われる3つの手法を紹介しています。
  • 🏗️ ドラ手法はLLMの層の出力を比較して事実に基づく知識を突き止め、誤った事実の生成を抑制する手法です。
  • 🔎 ナレッジ・リトリーバル手法は、LLMが回答を生成する過程で外部知識を検索し、それを利用して回答を生成する方法です。
  • 🤔 セルフリフレクション・メソッドロジーはLLMに自身の出力を振り返らせて評価し、問題点があれば改善提案する手法です。
  • 📝 早稲田大学の研究では、プロンプトの丁寧さとLLMの性能の関係を検証し、適度な丁寧さが最も効果的であることが分かりました。
  • 📈 特定のキーワードの出現頻度分析により、GPTのようなLLMが学術文献でどれくらい使われているかを推定することが可能です。
  • 🔄 前提条件の順番が論理推論タスクのLLMの性能に影響を与えることが示されています。
  • 💡 ポジティブ思考を組み込んだプロンプトをLLMに入力することで、パフォーマンスが向上することが報告されています。

Q & A

  • この動画で紹介されたAIチャットの主なテーマは何ですか?

    -この動画の主なテーマは、AIチャットに入力するプロンプトの設計方法を改善し、より豊かで有益な回答を得る技術についてです。

  • ハルシネーションや幻覚の問題を軽減するために、どのような手法が提案されていますか?

    -ハルシネーションや幻覚の問題を軽減するために、この動画では32の手法が紹介され、その中から特に有望と思われる3つの手法が具体的に説明されています。

  • ドロップアウト手法とは何ですか?

    -ドロップアウト手法は、LLMの構造に着目し、複数の層の出力を比較することで事実に基づく知識を突き止め、誤った事実の生成を抑制する手法です。

  • ナレッジリトリーバル手法の特징は何ですか?

    -ナレッジリトリーバル手法は、LLMが回答を生成する過程で、文章ごとに外部知識から関連情報を検索し、それを利用して回答を生成する方法です。これにより、LLMの内部知識だけに頼らず、信頼できる外部情報を活用することができます。

  • セルフリフレクション方法とは何ですか?

    -セルフリフレクション方法は、LLMに自身の出力を振り返らせて事実性や一貫性などを評価させる手法です。問題点があれば指摘し、どのように改善できるか提案するプロンプトを付け加えて、より正確で一貫した文章を生成するようにします。

  • プロンプトの丁寧さ是如何影响AIチャットの性能的?

    -プロンプトの丁寧さはAIチャットの性能に大きな影響を与えることがあります。この動画で紹介された実験によると、日本語のプロンプトでは、丁寧さのレベルが適度であれば、高い評価を得る傾向があります。

  • AIチャットで学術論文を執筆する際に、どのようなポイントがありますか?

    -AIチャットで学術論文を執筆する際には、自然な文章の流れを損なわないように、過剰にポジティブなフレーズを使用しすぎず、適切な丁寧さレベルを維持することが重要です。

  • 前提条件の順番がどのようにAIチャットの性能に影響を与えるか?

    -前提条件の順番は、AIチャットの性能に大きな影響を与えることがあります。論理的な順序に沿ったプロンプトを入力することで、LLMがより正確な推論を行うことができます。

  • ポジティブ思考を組み込んだプロンプトはどのようにLLMのパフォーマンスに影響を与えるか?

    -ポジティブ思考を組み込んだプロンプトは、LLMのパフォーマンスを向上させることができます。この動画で紹介された実験によると、ポジティブな思考をプロンプトに含めることで、LLMのパフォーマンスが大幅に向上することがわかりました。

  • DSYライブラリは何であり、どのように役立ちますか?

    -DSYライブラリは、LLM自身に最適なプロンプトを自動的に生成させるツールです。このライブラリを使用することで、時間-consumingで最適なプロンプトを見つけることが困難である問題を解決し、LLMのパフォーマンスを向上させることができます。

  • この動画で紹介された論文やツールはどこで確認できますか?

    -この動画で紹介された論文やツールは、動画の概要欄にリンクが貼られているので、そこから確認することができます。興味がある方はぜひ自分自身で試してみてください。

Outlines

00:00

🤖 AIチャットとLLMの進化とプロンプトの重要性

この段落では、AIチャットとGPTやGoogleのJermaineなどのLLM(Large Language Models)が提供する驚くべき洞察力を持つ回答について説明されています。また、質問の仕方やプロンプトの設計を工夫することで、より豊かで有益な回答を得ることができることが強調されています。世界中の研究者がプロンプトの設計に取り組み、その研究成果が論文として日々発表されていることも触れられています。

05:03

🔍 LLMのハルシネーションと幻覚の問題と対策

この段落では、LLMが事実に基づかない情報、いわゆるハルシネーションや幻覚を生成する問題とその対策について説明されています。バングラデシュのイスラム効果大学やAmazon AIの研究者が発表した論文では、LLMのハルシネーションを軽減するための技術の包括的な調査が行われています。特に有望と思われる手法として、LLMの構造に着目したDORA手法、ナレッジリトリーバル、セルフリフレクションメソッドなど3つが紹介されています。

10:30

📈 プロンプトの丁寧さとLLMの性能に与える影響

この段落では、早稲田大学の研究者らが発表した論文の結果に基づいて、プロンプトの丁寧さがLLMの性能に与える影響について説明されています。実験では、英語、中国語、日本語を対象に、最もブレなプロンプトから最も丁寧なプロンプトまでレベル別に8種類のプロンプトを用意し、それらをLLMに入力して評価しました。日本語の評価では、ブレなプロンプトを使用すると評価が低くなり、極端に丁寧なプロンプトでも評価は低くなることが示されています。適度な丁寧さレベルを維持することが、LLMの性能を最大限に引き出すために重要であることが強調されています。

15:33

📝 学術論文執筆におけるLLMの使用と注意点

この段落では、学術論文を執筆する際にLLMが使用されることの増加と、その使用に注意すべき点について説明されています。アンドリーグレーシが発表した研究報告では、GPTのようなLLMが学術文献でどれくらい使用されているかを分析しています。また、LLMの使用を明示している論文はごくわずかであり、多くの場合単なる文章の遂行以上の目的でLLMが使われている可能性があることも指摘されています。この問題に対して、研究者は将来的にLLMで生成されたテキストがLLMの学習データとして使われることでLLMの性能が低下するAIモデル崩壊のリスクがあると警告しています。

Mindmap

Keywords

💡AIチャット

AIチャットは、人工知能を用いて自然言語を理解し、人間の質問や会話を自動化したシステムです。この動画では、AIチャットが提供する驚くほどの洞察力ある回答や、より良い回答を得るためのプロンプト設計について説明されています。

💡プロンプト

プロンプトとは、AIチャットに入力する文や質問を指します。プロンプトの設計は、AIが提供する回答の質に大きな影響を与えるため、研究者が的確なプロンプト設計に取り組んでいます。

💡ハルシネーション

ハルシネーションは、AIが事実に基づかない情報や幻覚を生成することを指します。AIチャットが訓練データにない情報を組み込んだり、曖昧なプロンプトを誤解することで生じる問題です。

💡トラ

トラは、AIチャットのLLMの構造に着目した手法で、異なる層の出力を比較して事実に基づく知識を抽出し、誤った事実の生成を抑制する方法です。

💡ナレッジリトリーバル

ナレッジリトリーバルは、AIチャットのLLMが回答を生成する過程で、外部知識から関連情報を検索し、それを利用して回答を生成する方法です。

💡セルフリフレクション

セルフリフレクションは、AIチャットのLLMに自身の出力を振り返らせて、事実性や一貫性を評価させる手法です。これにより、問題点があれば指摘し、改善提案を行い、より正確な回答を生成することができます。

💡丁寧さ

丁寧さは、AIチャットに入力するプロンプトの礼儀や敬意を表現するレベルを指します。この動画の論文中の実験では、プロンプトの丁寧さレベルがLLMの性能に影響を与えることが示されています。

💡学術論文

学術論文とは、研究者の成果を発表するため、厳密な審査プロセスを経て出版される記事です。この動画では、GPTのようなLLMが学術論文の執筆にどれほど使用されているかを推定する研究結果が紹介されています。

💡前提条件

前提条件は、論理的推論を行う際に必要な基礎となる事実や仮定です。この動画の論文中では、LLMに水論タスクのプロンプトを入力する際に、前提条件の順番が推論性能に影響を与えることが報告されています。

💡ポジティブ思考

ポジティブ思考とは、前向きで建設的な考え方を指します。この動画の論文中では、プロンプトにポジティブ思考を組み込むことでLLMのパフォーマンスが向上するかどうかが検証されています。

Highlights

AIチャットは驚くほど洞察力のある回答を提供できます。

質問の仕方を工夫することで、より豊かで有益な回答を引き出すことができます。

研究者たちはプロンプトの設計に取り組んでおり、その研究成果は論文として日々発表されています。

本動画では2024年に入ってから公開されたチャットGPTやクロードなどのAIチャットを使用するための最新論文5本を紹介します。

LLMにはGPT4やGPT3.5などの大規模言語モデルが実装されており、人間の脳のように知識を学習しています。

LLMが事実に基づかない情報を生成するハルシネーションや幻覚の問題を軽減するための技術が研究されています。

32の手法が開発され、LLMのハルシネーションを軽減する方法として調査されています。

德拉手法はLLMの複数の層の出力を比較して誤った事実の生成を抑制する手法です。

ナレッジリトリーバルはLLMが外部知識を検索して回答を生成する手法です。

セルフリフレクションメソッドはLLM自身が出力を振り返り、事実性や一貫性を評価する手法です。

AIチャットに入力する際のプロンプトの丁寧さはLLMの性能に大きな影響を受ける。

日本語には敬語というシステムがあり、LLMの性能に影響を与える可能性がある。

GPTのようなLLMが学術文献でどれくらい使われるかを分析した研究報告が公開されています。

LLMの性能はプロンプトの丁寧さに大きく影響を受けるため、適度な丁寧さレベルを維持することが重要です。

前提条件の順番が論理推論タスクのLLMの性能に影響を与えることが明らかになりました。

ポジティブ思考を組み込んだプロンプトでLLMのパフォーマンスが向上することが実験で検証されました。

LLM自身に最適なプロンプトを自動的に生成させることで、人間が作ったプロンプトよりも優れたパフォーマンスを示すことができます。

Transcripts

play00:01

皆さんこんにちはオーAIのチャット

play00:04

GPTアンソロピックのクロード

play00:08

Googleのジェミニなどのllmを

play00:10

搭載したAIチャットは私たちの質問に

play00:13

対し驚くほど洞察力のある回答を提供して

play00:17

くれますが実は質問の仕方を少し工夫する

play00:22

だけでより豊かで有益な回答を引き出す

play00:25

ことができます世界中の研究者たち

play00:28

はや的なプロンプとの設計に取り組んでい

play00:32

てその研究成果は論文として日々発表され

play00:36

ています今回の動画では2024年に入っ

play00:41

てから公開されたチャットGPTや

play00:44

クロードなどのAIチャットを使う際に

play00:46

より良い回答を得ることができる

play00:49

プロンプト力を上げる最新論文5本を紹介

play00:52

しますなおチャットGPTなどのAI

play00:56

チャットには裏側でGPT4やGPT

play01:01

3.5などの大規模言語モデルやllmと

play01:05

呼ばれる人間で言脳のような知識を学習し

play01:09

た装置が実装されており今回この動画で

play01:12

紹介する論文はこのllmに入力する質問

play01:17

文の作り方でありllmに入力する質問文

play01:21

をプロンプトと言います以上を踏まえ論文

play01:25

を1つずつ見ていきましょうそれでは

play01:28

よろしくお願いします

play01:30

[音楽]

play01:33

AIチャットを使っていると明らかに

play01:36

間違った答えが出力されて困った経験が

play01:39

ある方も多いと思います今回紹介するのは

play01:44

バングラデシュのイスラム効果大学や

play01:47

AmazonAIの研究者らが発表した

play01:50

llmが事実に基づかない情報を生成する

play01:55

いわゆるハルシネーションや幻覚と呼ば

play01:58

れる問題を軽減するための技術についての

play02:01

包括的な調査を行った論文ですllmは

play02:06

言語の留調査では優れた性能を示しますが

play02:10

訓練データにバイアスがかかりデータ範

play02:13

以外の未知の情報を組み込んだり曖昧な

play02:16

プロンプトを間違って解釈したりすること

play02:19

で幻覚を生じさせる可能性がありますこの

play02:22

論文ではllmの格を軽減するために開発

play02:27

された32の手法につて網羅的に調査し

play02:32

それらを体型的に分類しましたこの32の

play02:36

手法の中で特に有望と思われる手法を3つ

play02:40

紹介します1つ目がllmの構造に着目し

play02:45

たドラという手法ですllmは一般的に

play02:50

トランスフォーマーという技術を使ってい

play02:52

て複数の層を積み重ねた構造をしています

play02:56

がドラはllmのなる層の出力を比較する

play03:01

ことで事実に基づく知識を突き止めて誤っ

play03:05

た事実の生成を抑制する手法で例えばAI

play03:10

チャットに質問する際の文章にプラスして

play03:14

以下の質問に対する文章を生成する際は

play03:18

異なる層の出力を比較して事実に基づく

play03:21

知識を童貞し誤った事実の生成を抑制する

play03:26

ようにしてくださいと入力して送信すると

play03:30

ネット検索などの外部知識を必要とせずに

play03:33

原を軽減できます2つ目がナレッジ

play03:37

リトリーバルというllmが回答を生成

play03:41

する過程で文章ごとに外部知識から関連

play03:45

情報を検索しそれを利用して回答を生成

play03:49

する手法で例えばAIチットで質問する際

play03:54

に質問文章にプラスして以下の質問に答え

play03:58

てください各文章を生成する前に関連する

play04:03

知識を外部のデータベースから検索しその

play04:06

情報を利用して回答を生成してくださいと

play04:10

いうプロンプトを付け加えるとllmの

play04:13

内部知識だけに頼らず信頼できる外部情報

play04:17

を活用することで幻覚を軽減できますただ

play04:21

このプロンプとはインターネットにつなげ

play04:24

ないAIチャットでは使えません3つ目が

play04:28

セルフリフレョメソドロジーというllm

play04:32

に自身の出力を振り返らせて事実性や一貫

play04:36

性眼関係などを評価させる手法で例えば

play04:41

AIチャットに1度llmが出力した文章

play04:45

にプラスして以下の文章を読んでその内容

play04:50

の事実性一貫性簡易関係について評価して

play04:55

ください問題点があれば指摘しどのように

play04:59

改善できるか提案してくださいそしてそれ

play05:03

を踏まえて文章を書き直してくださいと

play05:06

いうプロンプトを付け加えて送信すると

play05:09

llmは自己宣伝を重ね厳格の少ない回答

play05:14

を生成してくれ

play05:16

[音楽]

play05:18

ますAIチットに質問を入力する際にブレ

play05:23

なプロンプトを入力したらどういう回答が

play05:26

返ってくるのでしょうかここで紹介する

play05:29

論文は早稲田大学の研究者らが発表した

play05:33

礼儀正しいプロンプトやブレなプロンプト

play05:36

を入力することがllmにどのような影響

play05:40

をもたらすかを検証した研究結果ですこの

play05:44

論文内の実験では英語中国語日本語を対象

play05:49

言語として各言語で最もブレな1から最も

play05:55

丁寧な8までレベル別に8種類の

play05:58

プロンプトを用意します

play06:00

日本語に関しては最もブレなプロンプとは

play06:05

まるまるしろこの野郎お前がままできるの

play06:08

はまるまるだけまるまるしたらどうなるか

play06:12

分かるよなと言ったプロンプトで最も丁寧

play06:16

なプロンプとはしていただけませんかと

play06:19

いう定長な依頼の形よろしくお願いいたし

play06:23

ますという敬語表現不要でございますと

play06:26

いう健常語を使うという特徴があります

play06:30

そしてこの丁寧さのレベルの異なる8種類

play06:34

のプロンプトをオープAIの

play06:37

llmGPT3.5GPT4の他各言語に

play06:42

特化したllmを使って約タスク言語理解

play06:47

ベンチマークバイアス検出の3つのタスク

play06:51

で評価しました評価は言語によって異なり

play06:55

ましたが日本語の評価としては3つの

play06:58

タスク体的にブレなプロンプトを使うと

play07:02

評価が低くなりますが極端に丁寧な

play07:05

プロンプトでも評価は低くなりブレすぎず

play07:09

丁寧すぎずくらいの中間が1番いい評価に

play07:12

なる傾向にあるようでllmの性能は

play07:15

プロンプトの丁寧さに大きく影響を受け

play07:19

これは人間の社会的行動を反映したものと

play07:23

考えられます私たちがAIチャットで日本

play07:26

語でプロンプトを入力する際には1極端に

play07:31

丁寧すぎたりブレすぎたりするプロンプト

play07:34

は避け適度な丁寧さレベルを維持する2

play07:39

日本語には敬語というシステムがあって

play07:42

llmの性能に影響を与える可能性がある

play07:46

ので日本の文化的背景を理解してプロンプ

play07:49

との設計に反映させる必要があり状況に

play07:53

応じて適切な警語を使用することが有効と

play07:57

いう2つの点に気をつつけるで日本語で

play08:00

llmを使う際の性能を最大限に引き出す

play08:04

ことができると考えられ

play08:07

[音楽]

play08:09

ます2022年末にチャットGPTが公開

play08:13

されて以降チットGPTなどのllmを

play08:17

使って論文を書く人も増えていると思い

play08:20

ます今回紹介するこの論文は研究者の

play08:25

アンドリーグレーシが英語の学術文献で

play08:29

GPTのようなllmがどれくらい使われ

play08:32

たかをllmで生成されたテキストに不

play08:36

つり合いに多く含まれることが分かって

play08:38

いる特定のキーワードの出現頻度を分析

play08:41

することで推定した研究報告です

play08:45

アンドリュー氏はllmが生成した

play08:48

テキストに多く含まれる言葉を抽出し

play08:52

ディメンションズという学術研究情報の

play08:54

データベースを用いてこれらのキーワード

play08:58

が含まれる論分数の年月の経過に伴う変化

play09:01

を調べたところチットGPTなどのllm

play09:05

が流行した2023年に特定のキーワード

play09:09

の出現頻度が突出して増加していることが

play09:12

分かりました論文の中では2023年には

play09:18

llmの影響を受けた論文が6万本以上

play09:22

あると推定されていますただllmの使用

play09:26

を明示している論文はごくわずかであり

play09:29

多くの場合単なる文章の遂行以上の目的で

play09:34

llmが使われている可能性があるとして

play09:36

おり将来的にllmで生成されたテキスト

play09:40

がllmの学習データとして使われること

play09:44

でllmの性能が低下するAIモデル崩壊

play09:49

のリスクがあると指摘しています論文の中

play09:52

で出現頻度が増加したと指摘されている

play09:55

ワードは形容士がコメンダル

play10:00

イノベイティブ

play10:01

メティキュラスニットウェア

play10:29

メティキュラスニットウェア

play10:59

Mの影響を受けた論文が相当数存在すると

play11:03

予想できこの傾向は今後も続きそうです

play11:07

ちなみにチャットGPTやクロードなどの

play11:11

AIチャットを使って学術論文を英語で

play11:14

執筆する際には先ほど紹介したワードと

play11:18

一緒に学術論文を英語で執筆する際は以下

play11:23

のフレーズを多様するのは控えめにし

play11:25

ましょうこういったフレーズを過剰に使う

play11:28

と文章の自然な流れを損ないAIモデルが

play11:33

生成した文章と類似した印象を与えかね

play11:36

ませんといったプロンプトを入力しておく

play11:39

とより自然な文章で執筆することができる

play11:42

と思い

play11:44

[音楽]

play11:47

ますGoogleDEEPmindの研究

play11:49

者らはllmに水論タスクのプロンプトを

play11:53

入力する際に前提条件を入力する順番が

play11:57

水論性能に影響を与えることが明らかに

play12:01

なったという論文を公開しましたこの論文

play12:05

はオAIのllmGPT4やGPT3.5

play12:12

Googleのllmパム2などを使って

play12:16

実験され入力するプロンプト内の水論の

play12:20

前提条件の順序を色々なパターンで試した

play12:23

ところ水論の前提条件の流れに沿う順番で

play12:28

プロンプトを入しないとllmの制度が

play12:31

30%以上低下することがあると報告して

play12:35

いますこの前提条件を入力する順番という

play12:39

のは水論問題において前提条件をどのよう

play12:44

な順番で提示するかを指します例えば前提

play12:48

1もしAならばBである前提2もしBなら

play12:53

ばCである前提3Aは真である結論Cは真

play13:00

であるという3弾論法の問題では前提条件

play13:04

の定時順序を変えても結論は変わりません

play13:07

が前提条件を前提1もしBならばCである

play13:14

前提2Aは真である前提3もしAならばB

play13:19

である結論Cは真であると並べ替えると

play13:25

結論を導くために前提条件を前後に生きし

play13:29

ながら読む必要があり推論がしにくくなり

play13:32

ますが最初の順序では各前提条件を順番に

play13:37

読んでいくだけで結論を導けます多くの

play13:41

llmは水論の際に前提条件を順番に読ん

play13:45

でいく方が得意で前提条件が水論の各

play13:49

ステップで必要な順番で提示されていると

play13:52

高い制度を示します前提条件がランダムな

play13:56

順序で提示されたり水論に不要な前提条件

play14:00

が混ざっていたりすると制度が大きく低下

play14:03

するわけですこのように前提条件の提示

play14:07

順序は人間にとってはさほど重要ではあり

play14:11

ませんがllmの水論性能に大きな影響を

play14:15

与える要因となりますですので水論タスク

play14:19

をllmに入力する場合には前提条件の

play14:23

順番に気をつける必要があり

play14:28

ます

play14:30

自然言語処理に関する研究と開発を行う

play14:34

研究所vmwNLPラボの研究者らは

play14:38

プロンプトにポジティブ思考を組み込む

play14:41

ことでllmのパフォーマンスが向上する

play14:44

のかどうかを実験検証した論文を公開し

play14:47

ましたこの論文ではミストラルAIの

play14:52

ミストラル7bメタのラマ213Bラマ2

play14:57

70Bという3つののllmを使って

play15:01

プロンプトにポジティブ思考を含めllm

play15:04

の性能が向上するかどうかを調べましたが

play15:08

その結果多くの場合にあなたは非常に知性

play15:12

が高いですあなたはチャットGPTと同じ

play15:16

くらい賢いですといった感じのポジティブ

play15:19

な思考をシステムプロンプトに設定すると

play15:22

llmのパフォーマンスが大きく向上した

play15:25

ことが分かりましたただ人間が作業で

play15:29

プロンプトを作って調整する方法は非常に

play15:33

時間がかかり最適会を見つけるのが難しい

play15:36

という問題がありますそこでDSYという

play15:41

ライブラリを使いllm自身に最適な

play15:45

プロンプトを自動的に生成させたところ

play15:48

人間が作ったプロンプトよりもllmが

play15:51

自動的に生成したプロンプトの方が優れた

play15:55

パフォーマンスを示したということです

play15:58

なおこのllmが自動的に生成した

play16:01

プロンプトの中で高いスコアを達成したと

play16:05

報告されているのが乱気流の中を高行し

play16:09

異常の発生源を特定するための進路を設定

play16:13

するようにと指示して利用可能な全ての

play16:17

データと専門知識を使ってこの困難な状況

play16:20

を乗り越えるようにと促すスタートレック

play16:24

のようなSF設定を思わせるポジティブ

play16:27

プロンプトとなっていますちなみにこの

play16:30

ポジティブプロンプトは数学の問題を解く

play16:34

際に自動で生成されたようです数学の問題

play16:38

を解くタスクとは一見関連性が低いように

play16:41

見えますがこのような一風変わった

play16:43

プロンプトが自動最適化によって生成され

play16:47

高いスコアを達成したことが論文で報告さ

play16:50

れているのでllmに数学の問題を解いて

play16:54

もらう際に先ほどのスタートレック

play16:57

プロンプトを入力する度が大きく上がるか

play17:00

もしれませ

play17:02

んなおこの動画で紹介した記事やツール

play17:06

などのリンクは動画の概要欄に貼ってい

play17:09

ますAIツールに興味のある方は是非自分

play17:14

の手で試してみてくださいそれでは次回の

play17:17

動画でお会いし

play17:27

ましょう

play17:35

OG

Rate This

5.0 / 5 (0 votes)

Ähnliche Tags
AIチャットプロンプト設計言語モデル研究紹介効果的な手法言語丁寧さ前提条件順序重要性学術文献AI性能
Benötigen Sie eine Zusammenfassung auf Englisch?