【漫士科普】GPT是如何工作的?为什么要学习接下一个词?#gpt #chatgpt #openai

漫士沉思录
19 May 202418:52

Summary

TLDRこのビデオスクリプトは、人工知能の言語モデル、特にGPTの基礎原理とその限界について解説しています。清华の人工知能博士生である漫士が、言語の基本研究から始まり、GPTの生成プロセスや言語理解能力、そしてそのトレーニング方法を解説します。また、大規模なデータセットと大量のパラメータを用いたトレーニングのコストと複雑さを触れ、言語モデルがどのようにして人間の言語パターンを理解し、新しいコンテンツを生み出せるかを解説しています。最後に、言語モデルが現実世界を理解し、人間に有用な助けとなる方法についても触れています。

Takeaways

  • 🧠 大型言語モデルは人間の言語を理解し、様々なタスクをこなす能力を有しているが、人間の思考方式に則って話すわけではない。
  • 💬 大型モデルは「次の単語を予測する」という単純なタスクを通じて、言語の深いパターンを学び、自然言語を生成する。
  • 📚 言語モデルの基礎は、単語のシーケンスを通じて情報を伝えるという概念にあり、これはTOKENの並びとその意味を持つ。
  • 🔢 統計言語モデルは、過去の単語の並びから次の単語を予測するアルゴリズムであり、GPTの強力な性能の根底にある。
  • 📈 Transformerモデルはディープラーニングの強力なアルゴリズムであり、GPTが言語を理解し生成する能力を持つ要因の一つである。
  • 🔑 GPTは予測「次のTOKEN」というタスクを通じて、言語の文法や意味の深い理解を学び、自然な会話や文章を生成する。
  • 🌐 大規模なデータセットを使って訓練されたGPTは、人間の言語の多様性と柔軟性を吸収し、広範な言語タスクに対応できる。
  • 💰 GPTの訓練には膨大な計算リソースとコストがかかるため、算力戦争と呼ばれるほどのインフラストラクチャが必要とされる。
  • 🚀 GPTは言語の表面的な規則を学びながら、深層的な意味や文化的な背景にも触れ、人間の感情やロジックを理解する能力を発揮する。
  • 🛠 大型モデルは特定の分野に適応させるために、再訓練やRLHF(人間フィードバックを通じた強化)を通じて性能を向上させる。
  • 🔮 今後の研究では、大規模モデルの潜在的な能力や「現象の発生」、プロンプト技術などについて更に深く掘り下げる予定である。

Q & A

  • GPTが持つ「驚くべき能力」とはどのようなものでしょうか?

    -GPTが持つ「驚くべき能力」とは、言語を理解し、文章を生成したり、コードを書いたり、論文を読んだりする能力を指します。これは、人間の言語処理能力に非常に近いAIとして、言語大模型の進化の結果です。

  • 大模型が人間の思考方式に従っているわけではないと言われていますが、どうしてでしょうか?

    -大模型は、人間の思考方式に従っていないとされています。なぜなら、人間は文法や意味に従って言葉を並べますが、大模型は「接話尾」という方法で、既に述べた言葉から次の単語を予測するように動作するためです。

  • 言語モデルとは何を意味していますか?

    -言語モデルとは、言語のパターンやルールを数学的に表現したものであり、特定の単語列がどれだけ自然であるかを計算することができます。GPTはこのような言語モデルを応用し、言葉の並びや意味を理解しています。

  • 言語モデルの「接話尾」とはどのようなプロセスですか?

    -「接話尾」は、大模型が現在までの文脈に基づいて次の単語を選ぶプロセスです。これは、入力されたテキストをもとに、次に続く可能性のある単語を予測するタスクに相当します。

  • Transformerモデルとは何ですか?

    -Transformerモデルは、ディープラーニングの分野で非常に強力なモデルであり、GPTの核となるアルゴリズムです。入力と出力の関係を学習し、言語の生成や翻訳などのタスクをこなすことができます。

  • 大模型が持つ「next TOKEN prediction」とは何を意味していますか?

    -「next TOKEN prediction」とは、大模型が現在までの文脈に基づいて、次に続く単語(TOKEN)を予測することを意味します。このプロセスは、言語生成の核心であり、言語の理解を深める上で非常に重要です。

  • 大模型が「自帰帰生成」を用いる理由は何ですか?

    -「自帰帰生成」は、モデルが生成した出力を再び入力として使用し、次の単語を生成するプロセスです。これにより、モデルは連続したテキストを生成することができ、会話や文章の流れを作り出します。

  • 大模型が「幻觉」を引き起こす現象とは何ですか?

    -「幻觉」は、大模型が専門知識などの特定の分野で、正確な情報を提供できない場合に、無関係や誤った情報を生成する現象です。これは、モデルが現実世界の具体的概念を理解していないことが原因で発生します。

  • 大模型のトレーニングに必要なデータの量はどのくらいですか?

    -大模型のトレーニングには、TB(テラバイト)単位のデータが必要な場合があり、これは人間の数百世代分以上の読み物を超える量のデータです。

  • RLHFとは何を意味していますか?

    -RLHFは、「Reinforcement Learning from Human Feedback」の略で、人間からのフィードバックをもとに強化学習を行って、モデルの応答を改善するプロセスを指します。

  • 大模型が「言語の深层のルール」を理解しているとされていますが、これはどういう意味ですか?

    -「言語の深层のルール」を理解しているとは、言語の文法や意味だけでなく、言葉が持つ文化的、状況的な意味や関連性についても理解し、適切な文脈で使用できる能力があることを意味します。

Outlines

00:00

🧠 AIと言語モデルの基礎

この段落では、言語大モデルの登場とその能力について解説しています。AIは文書の作成やコードの執筆など、人間に近い能力を有しており、様々な企業がそれに追随して開発を進めています。博士生の漫士が、AIの言語に関する基礎研究から始め、GPTの原理と限界について解説します。大モデルは人間の思考と異なる方法で言葉を選び、文を作成します。言語モデルの核心は、TOKENの意味とその出現パターンを理解することにあります。

05:02

🔍 言語モデルの進化とGPTの成功

この段落では、言語モデルの歴史とGPTの成功について説明しています。統計言語モデルがどのように登場し、人間の言語を理解する新しい方法を提供したかが語られています。GPTは、接尾語の接続を学習し、入力された文脈に基づいて次の単語を予測することで、言語の理解を深めています。Transformerモデルの強力さと、大規模なデータセットでのトレーニングが、GPTの強さの鍵となっています。

10:03

📚 大規模モデルの学習過程と言語理解

この段落では、大規模モデルがどのように言語を学び、理解するのかが詳細に説明されています。モデルは、大規模なテキストデータからパターンを学習し、文化的背景や現実世界の意味を理解する能力を獲得しています。自帰帰生成という手法を用いて、モデルは質問に答えたり、対話を続けたりすることができるようになっています。

15:05

🚀 大規模モデルの限界と未来

最後の段落では、大規模モデルの限界とその将来性について議論しています。モデルは言語の表面的な規則を学ぶことができていますが、深い専門知識や数学的な因果関係を理解することは難しいと指摘されています。さらに、特定の分野でのトレーニングや、人間フィードバックを活用した最適化が、モデルの有用性を高める鍵であることが強調されています。最後に、AIの進化とその可能性について期待的な視点で締めくくられています。

Mindmap

Keywords

💡言語モデル

言語モデルは、自然言語の文法や意味を理解し、文や文章を生成するAIの基礎となる技術です。このビデオでは、言語モデルがどのようにして人間のような自然言語を生成し、理解する力を持つかを説明しています。例えば、「4*5=20」という算術表現を理解し、自然言語として正しく応答することができるようになるプロセスが紹介されています。

💡統計言語モデル

統計言語モデルは、過去の言語データをもとに、次の単語や文の出現確率を予測する手法です。ビデオでは、統計言語モデルがGPTの強力な機能に寄与していると強調されています。例えば、「one gram model」や「two gram model」といった単語がその一例であり、それらは単語の連続性に基づいて次の単語を予測するアルゴリズムを表しています。

💡Transformer

Transformerは、ディープラーニングの分野で非常に強力なモデルであり、言語の並列処理を可能にします。ビデオではTransformerがGPTの中心的なアルゴリズムとして機能し、大量のデータをもとに言語のパターンを学習し、次の単語を予測する役割を果たしていると説明しています。

💡接尾語予測

接尾語予測は、言語モデルが特定の文脈の後に続く単語を予測するプロセスです。ビデオでは、このプロセスが言語モデルの学習過程で重要な役割を果たし、言語の深層的なパターンを理解する上で不可欠であると強調されています。

💡自帰帰生成

自帰帰生成は、モデルが自身の生成した出力を再び入力として使用し、次の単語を生成するプロセスです。ビデオでは、この方法がGPTが質問に答えたり、文章を生成する際に使用され、言語の理解を深める上で重要な役割を果たしていると説明しています。

💡AGI(一般化された人工知能)

AGIは、人間と同じように多様なタスクを理解し遂行することができる人工知能のことを指します。ビデオでは、言語大模型がAGIへの道を模索していると示唆しており、言語の理解と生成能力を通じて、より高度な知能を獲得する可能性があると述べています。

💡幻觉(hallucination)

幻觉は、AIが事実に基づかず、虚構の情報や知識を生成する現象です。ビデオでは、言語モデルが時には専門知識に関する誤った情報を提供する場合があることを指摘しており、これは言語モデルが現実世界の深い理解を欠いていることを示しています。

💡RLHF(Reinforcement Learning from Human Feedback)

RLHFは、人間からのフィードバックをもとにAIの性能を向上させる学習手法です。ビデオでは、この手法が言語モデルの応答をより有用で親しみやすいものにし、人間のように適切な回答を提供する能力を高める上で重要な役割を果たしていると述べています。

💡算力

算力は、コンピュータが処理能力を示す指標であり、AIモデルの学習や推論に必要です。ビデオでは、GPTのような大規模な言語モデルをトレーニングするためには膨大な算力が必要であると強調しており、これはAI分野における算力競争の重要性を示しています。

💡語料

語料は、言語モデルのトレーニングに使用される大量のテキストデータです。ビデオでは、GPTがTB単位の語料を学習し、言語のパターンを理解するプロセスを説明しており、これにより言語モデルは自然言語をより正確に生成することができるようになると述べています。

Highlights

语言大模型如ChatGPT的出现,标志着人类首次触摸到通用人工智能AGI的雏形。

大模型的生成语言方式与传统人类语言组织方式不同,采用逐步生成的方式。

大模型生成语言时,并不完全模仿人类的思维方式,而是根据已有内容预测下一个词。

语言规律的本质在于如何传递信息和意义,而不仅仅是语法结构。

大模型通过统计语言模型的方法,学习语言的内在规律,而非单纯依赖语法。

GPT模型的成功在于其能够根据上文预测下一个词,实现语言的生成。

Transformer模型作为GPT的核心,能够从数据中学习输入到输出的规律。

大模型的训练过程不需要人为标注,通过预测下一个词的方式自我学习。

大模型的训练数据量巨大,可达TB级别,相当于上亿本书籍。

GPT模型的参数量巨大,每个字的生成需要进行大量计算。

大模型通过自回归生成的方式,能够解决语言任务和回答问题。

大模型在理解语言深层规律的基础上,能够创造出全新的内容。

大模型目前还存在局限性,如无法完成特定简单要求或在专业知识上的准确性问题。

大模型的训练涉及到特定领域的再训练和人类反馈的优化。

大模型的涌现现象显示了随着参数和数据量的增加,模型能力的提升。

提示词在大模型的使用中扮演重要角色,能够显著影响模型的表现。

大模型已成为我们生活中不可或缺的帮手,预示着未来超级AI的发展。

Transcripts

play00:00

从ChatGPT开始

play00:01

语言大模型进入我们的生活

play00:03

写文案读论文写代码样样精通

play00:06

成为有史以来最接近人的AI

play00:09

在这之后

play00:09

国内外等公司都迅速跟进

play00:11

各种大模型如雨后春笋一般出现

play00:14

人类第一次触摸到了通用人工智能AGI

play00:18

的雏形

play00:19

可是语言大模型

play00:21

是怎么拥有如此神奇的能力的呢

play00:23

大家好我是漫士

play00:24

是一名清华人工智能的博士生

play00:26

今天我将会用我的专业知识

play00:29

从整个AI对语言最基础的研究讲起

play00:32

通俗但不简单的

play00:34

帮你透彻理解GPT的底层原理

play00:36

以及它的局限

play00:38

准备好了吗

play00:39

让我们上车

play00:44

当我们在和大模型聊天的时候

play00:46

他会一点一点的说话

play00:48

这看上去

play00:49

就像是一个活生生的人

play00:51

也在向我们打字一样

play00:53

问题来了

play00:54

大模型

play00:54

是否真的是按照人类的思维在说话呢

play00:58

严格来说

play00:59

其实不是这样的

play01:00

大家想想我们是怎么说出一句话的

play01:03

在英语课上

play01:04

老师会告诉我们主谓宾定状补

play01:07

我们说出来的句子

play01:09

遵循一定的语法和一定的词汇含义

play01:12

虽然日常生活中

play01:13

没人会严格按照语法说话

play01:15

但大致上我们仍会把一些词串联成句

play01:18

在说出这句话之前

play01:20

已经对他有一个大概的感觉

play01:22

和组织的结构了

play01:24

但大模型说话的方式啊则非常不一样

play01:27

他的做法是

play01:28

每次接话尾属于是脚踩西瓜皮

play01:32

滑到哪里算哪里

play01:34

当大模型一句话说到半截的时候

play01:37

他根本不知道后面的内容是什么

play01:40

他每次都会根据已经有的内容

play01:43

现想下一个字该说什么

play01:46

大家可以来感受一下

play01:47

这是一种什么样的说话方式哈

play01:49

比如说这半个句子下一个字是什么呢

play01:53

我想大家都能看出来应该是一个太字

play01:56

那再往下是什么呢

play01:58

啊有些小黑子可能会一口咬定了

play01:59

应该填美

play02:01

但是其实只看这句话的话

play02:02

还有不同的词语都可以填进去

play02:04

比如说抽象什么的

play02:06

想要确定这里究竟是什么词

play02:08

那就需要更多的语境

play02:10

来确定这里的意思

play02:11

比如说啊

play02:12

加上这样一句之后

play02:13

我们就知道应该只能是美字了

play02:16

那再往下呢

play02:17

好像已经说完了

play02:19

那我们就写个句号吧

play02:20

所以某种意义上

play02:21

大模型其实一直持在努力的接话

play02:24

和做完形填空一样

play02:26

这种生成思路

play02:27

和人类的语言有非常明显的不同

play02:30

但是

play02:31

他一样可以生成出非常逼真的语言

play02:34

甚至在你和他对话的时候

play02:35

没有感觉到有任何的不对

play02:38

问题来了

play02:39

大模型

play02:39

并没有完全模仿人类的思维方式

play02:42

却又可以完成几乎任何一个语言任务

play02:45

他是如何洞悉人类语言的规律的呢

play02:50

在回答这个问题之前

play02:52

我们得先搞明白什么叫语言的规律

play02:56

是刚才说的语法吗

play02:57

不竟然

play02:58

语言从远古时期出现以来

play03:00

它最主要的作用是沟通

play03:03

所以语言规律的本质

play03:05

在于如何传递信息和意义

play03:08

不同的语言

play03:08

不同的词汇

play03:09

都只是符号

play03:10

专业的说法叫做TOKEN

play03:12

语言学上对应的概念叫做语素

play03:15

而语言的信息

play03:16

蕴含在这些TOKEN的序列之中

play03:19

所以语言的规律

play03:20

本质上就是

play03:21

理解每个TOKEN

play03:22

在现实世界中对应的含义

play03:24

以及它们以什么样的内在规律

play03:26

一个接一个的出现

play03:28

这种出现的序列

play03:29

整体传递了一个什么意思

play03:32

比如说如果我写下4*5

play03:34

等于你知道后面应该要接一个20

play03:38

这是算出来的

play03:39

所以我们能不能像计算机算数一样

play03:42

能算出来

play03:43

一个句子后面会接一个什么样的词

play03:47

比较对呢

play03:48

哎这就是计算语言学的核心问题

play03:52

这套规律有一个更专业的名词

play03:54

叫做语言模型

play03:55

我们的语法

play03:56

本质上就是

play03:57

一个

play03:57

描述词性和搭配要求的简单语言模型

play04:01

比如说这个句子到这里

play04:03

我们知道应该填一个形容词

play04:05

所以你不会填一个什么

play04:07

篮球这样的名词

play04:09

这就体现出

play04:10

你在一定程度上

play04:11

理解了这个语言的某种规律

play04:15

语言模型的威力在于

play04:16

只要有了它

play04:17

即使这个世界上

play04:18

从来没有出现过某个特定的句子

play04:21

我们仍然可以说出它来

play04:23

并且让所有人都能理解其中的含义

play04:26

这就是语言的力量

play04:28

大家学英语的时候

play04:30

英语老师这么重视语法

play04:31

就是因为这样学可以举一反三

play04:33

触类旁通

play04:35

那既然语法这么厉害

play04:37

为什么AI不按照语法来造句说话呢

play04:40

答案是人类的确试过

play04:43

但是行不通

play04:44

在上世纪的五六十年代啊

play04:46

语言学家和人工智能学家尝试了很久

play04:49

通过这种

play04:50

语法树的方式来拆分句子

play04:52

并让程序通过建立这个树的方式

play04:55

学会说话

play04:56

翻译等等任务

play04:58

但是呢

play04:59

语法只是规定了一些最基本的规则

play05:02

它本身并没有理解词语

play05:04

以及将它们连缀成有意义的句子

play05:06

的能力著名的语言学家Chomsky

play05:09

举了一个经典的例子

play05:11

叫做colorless green ideas sleep furiously

play05:14

无色的绿色点子

play05:16

狂暴的睡觉

play05:18

这是一句完全符合语法

play05:20

但狗屁不通的句子

play05:22

这说明

play05:22

语法不足以描述一个语言的本质

play05:26

更何况

play05:27

人类使用的自然语言实在是太灵活了

play05:30

且不说不同语言有不同的语法

play05:32

就是同一个语言的语法

play05:34

也在不断的变化

play05:35

对吧你看看如今这些网络流行语

play05:37

简直了

play05:39

语法很难面面俱到

play05:41

而且每次出现新的用法

play05:42

就要人为的加入一条新的语法规则啊

play05:45

这也太费劲了

play05:47

所以这种语言的建模方法呀

play05:49

在上世纪就被淘汰了

play05:52

那今天的GPT

play05:53

本质上也是一个语言模型

play05:55

而且是迄今为止最成功的语言模型

play05:57

它是怎么成功实现语言的理解的呢

play06:01

哎刚才我们其实已经说了

play06:03

大模型GPT学习的一个事情

play06:05

叫做接话尾

play06:07

这样有点像输入法的联想

play06:11

你有没有刷过这种视频

play06:12

他让你随便输入某一个字

play06:14

然后一直点击第一选项

play06:16

play06:16

输入法看起来是不是就像在说话了

play06:19

但很显然啊

play06:20

我们试过都知道

play06:21

他说出来的话完全不通顺

play06:23

每个局部都是连接的很好的搭配的词

play06:25

但合起来不知所云

play06:28

事实上输入法的这种联想

play06:30

就是一种最简单的语言模型专

play06:33

业名词叫做one gram model

play06:36

意思是

play06:37

每次只看最前面一个相邻的词或者字

play06:41

然后呢接上一个最常见的

play06:43

紧跟着它的搭配

play06:45

你也可以增加查看上文的长度

play06:48

比如说呢

play06:48

如果看两个字

play06:50

生成第三个字

play06:51

每次这样重复就是two gram model

play06:53

看n个就是n gram model

play06:56

这种基于某一个长度的

play06:58

上文使用一种统计的方法

play07:01

来预测下一个词的模式

play07:04

就是人类探索出的

play07:05

另一条建模语言的道路

play07:07

被称作统计语言模型

play07:10

要知道他刚提出来的时候

play07:12

颠覆了整个语言学界的认知

play07:14

大家觉得这个方法太脏了

play07:16

人类的语言那么巧妙

play07:18

怎么可能会用这种方式就能理解呢

play07:20

哎但有趣的事情是

play07:23

正是统计语言模型

play07:24

才带来了今天GPT的强大

play07:27

早在GPT之前

play07:28

人类就已经试过了

play07:30

很多不同的预测算法

play07:32

比如说隐马尔可夫模型

play07:34

循环神经网络以及LSTM等等

play07:37

每种都可以算作是一种统计语言模型

play07:41

这样

play07:41

我们就拆解了大模型最核心的秘密

play07:44

就是每次找语言的规律

play07:47

根据上文来预测下一个词的这个过程

play07:50

这个训练的过程啊

play07:52

就对应于GPT里的p pretrained

play07:55

而最前面的那个g呢

play07:57

它的含义是generation生成

play07:59

表示模型做的是生成语言的任务

play08:02

t则是具体用来训练

play08:05

并预测后面那个词是什么的模型

play08:08

Transformer

play08:09

它具体的原理很复杂哈

play08:10

大家如果有兴趣

play08:11

可以去看three blue one brown视频

play08:14

你只需要知道

play08:15

作为深度学习最强的模型之一

play08:18

它可以举一反三地从训练数据中

play08:21

学习输入到输出的规律

play08:24

比如说输入是一些图片

play08:26

它可以识别出规律

play08:27

这个里面的内容是什么

play08:29

输入是之前所有的这些词

play08:32

它就可以学习到一个合理的

play08:34

接下来的词应该是什么

play08:36

这里还要涉及到

play08:37

怎么把一个词汇转化成一个向量

play08:40

以及怎么运算这些向量

play08:42

这些东西都超出了这期视频的范畴

play08:44

我会在之后详细讲解

play08:47

GPT大模型之所以这么强

play08:48

一个很重要的原因

play08:49

就是Transformer非常强大

play08:52

另一方面

play08:53

大模型比输入法可复杂太多了

play08:56

它用来预测下一个词的信息

play08:58

远远不止前一个或者两个词

play09:01

而是之前说过的所有内容

play09:04

这种一个一个往外蹦字的过程啊

play09:07

叫做next TOKEN prediction

play09:09

即预测下一个语素

play09:11

无数科普都提到了这种预训练的方法

play09:14

但几乎没有人回答这样一个问题

play09:17

训练大模型

play09:17

以这种钻头不管屁股的方式啊

play09:20

只是一个劲的往后说

play09:21

也不管后面可能是什么

play09:23

是怎么形成这么强大的语言理解能力

play09:26

变得像今天这么有用的呢

play09:28

哎大家可千万不要小看

play09:31

这个简单的接龙游戏

play09:33

只靠训练预测下一个字

play09:35

模型可以学习到难以置信的

play09:38

语言的深层规律

play09:39

直到理解整个语言

play09:41

像人类一样说话

play09:42

还有解决问题

play09:44

我们来看几个例子吧

play09:46

像是这句话

play09:47

人类会从语法上分析

play09:49

应该填一个形容词

play09:51

而从句意上看

play09:52

这里应该是书对人造成的影响

play09:55

而且是负面影响

play09:57

所以应该是一个重或者难这样的词

play10:00

而大模型呢

play10:01

它不管三七二十一

play10:02

就学习怎么把前面的内容当成输入

play10:07

然后呢试图算出来

play10:09

这个地方应该是重或者难这些词

play10:12

play10:13

你暂停品味一下

play10:16

当你训练大模型在这个语境下

play10:19

明白要介绍重或者难这个词的时候

play10:22

它实质上

play10:23

以一种非常复杂且微妙的方式

play10:26

理解了重和难这两个词的含义

play10:29

即这是一种让主体不太舒服

play10:32

想要放下来的感觉

play10:35

同时

play10:36

在其他浩如烟海的这些文本当中

play10:39

他也会发现

play10:41

太这个词后面往往跟的是一个形容词

play10:45

于是

play10:45

大模型也自动学会了某种语法结构

play10:48

也就是副词态之后

play10:50

往往要跟上一个形容词

play10:53

哎这就是看起来简单的接龙游戏

play10:56

不简单的地方

play10:57

也是你每次都做不对完形填空的原因

play11:02

正确接话尾这个任务

play11:04

它蕴含着对于这个词语的含义

play11:07

对于整个句子的语法

play11:08

以及它在文化以及现实世界含义里

play11:13

是否合理的深刻理解

play11:16

真的一点都不容易

play11:18

类似例子还有很多啊

play11:19

比如说这个句子

play11:21

大模型通过阅读大量人类说过的话

play11:23

就会理解热和某些动作高度相关

play11:27

于是呢他就会知道啊

play11:29

这里应该跟开空调啊

play11:31

开电扇吃冰棒之类的内容联系起来

play11:34

实现说出有意义的句子

play11:37

本质上大漠型就是这样学习的

play11:39

他见多识广

play11:41

知道前面什么样的语境

play11:42

后面往往应该跟什么样的词

play11:44

于是通过学习预测下一个词

play11:47

便极为深刻地洞悉了人类语言的规律

play11:51

一旦完成了这样的学习大模型

play11:53

就可以从某段内容出发

play11:55

根据前面所有的内容

play11:57

不断往后接词

play11:58

就像说话一样

play12:00

这种把前面自己生成的输出

play12:02

变成新的输入的条件的方式

play12:05

叫做自回归生成

play12:07

你从一个问题开始

play12:09

自回归生成

play12:10

就可以解决这个问题

play12:12

这就是大模型极为巧妙的一点

play12:16

所以你看

play12:17

仅仅通过预测下一个词这样的任务

play12:20

一个没有生命没有意识的程序

play12:22

居然就能理解文字背后

play12:24

人类复杂的感情和逻辑

play12:26

同时像模像样地完成续写对话和回答

play12:30

理解自然世界的常识

play12:32

拥有通用的智能

play12:33

这就是这波大语言模型革命

play12:36

带来的最大震撼

play12:37

也是人类第一次看到

play12:39

通用人工智能AGI的曙光

play12:42

话说回来

play12:42

既然有了好的语言模型

play12:44

那么接下来我们要干什么呢

play12:46

没错就是让他见足够多的数据了

play12:49

不知道你有没有注意到一件事情

play12:50

刚才我们所说的

play12:52

这套接话尾的训练方式

play12:54

根本不需要任何人为的标注

play12:56

对吧你只需要把一堆文本给他

play12:59

然后遮住后面的字

play13:00

让他每次猜新蹦出来的那个字是什么

play13:03

所以你只管收集大量的文字

play13:06

然后让他去学就可以了

play13:08

因此呢

play13:09

研究者收集了大量人类语言的数据

play13:11

比如说书籍啊新闻啊网站等等

play13:13

这些都是人类表达过的语言

play13:15

学名呢叫语料

play13:17

你把语料库喂给大模型

play13:19

就可以让他自己去找规律

play13:21

像我们现在用的这个GPT啊

play13:23

它保守估计使用的语料

play13:26

大概是TB量级的

play13:28

这是个什么概念呢

play13:29

要知道我们一本60万字的三国演义啊

play13:32

如果你用纯文本存储下来

play13:34

大概也就两兆不到

play13:36

而几百万字的网文小说

play13:38

也就十几兆的存储

play13:41

所以说这个TB级别的训练数据

play13:44

就相当于上亿本三国演义

play13:47

可能比一个人几百辈子读过的书都多

play13:50

除了训练的数据多

play13:52

大模型的运算量也顾名思义的大

play13:55

你知道吗

play13:56

GPT3每说出一个字

play13:58

需要动用1,750亿个参数

play14:02

电脑要进行10的15次方式复点运算

play14:06

所以说

play14:07

如果用你的笔记本来跑ChatGPT

play14:10

那么保守估计

play14:11

生成一个字大概需要大半个小时

play14:15

就问你受不受得了

play14:16

GPT4的参数量虽然没有公布

play14:19

但应该是翻了将近10倍

play14:21

更是需要大量的GPU支持运算

play14:25

你现在可能可以理解

play14:26

为什么他们叫大模型

play14:27

以及为什么这波的AI革命

play14:29

引起了算力战争了吧

play14:32

想想看只是让他说话都这么费劲

play14:35

训练一个GPT得多么烧钱呢

play14:38

GPT4的训练过程

play14:40

让超级计算机

play14:41

夜以继日的算了好几个月

play14:43

这个花销啊

play14:44

至少是上亿美金

play14:46

所以让我们回到最开始的那个问题

play14:49

大模型理解语言了吗

play14:51

答案是肯定的

play14:52

他并没有死记硬背

play14:54

机械的

play14:54

重复数据集里已经有的那些东西

play14:57

而是在理解了语言的深层规律之后

play14:59

不断创造出全新的内容

play15:01

以及回答我们每个人个性化的问题

play15:04

但是

play15:05

大模型真的聪明到可以超越人类吗

play15:08

目前来看还不太清楚

play15:10

他甚至无法完成一些很简单的要求

play15:13

比如说你们都可以试试

play15:15

让他说出一句恰好有20个字的话

play15:18

这是做不到的

play15:19

原因呢自己想想

play15:21

如果你问他一些专业知识

play15:23

他就会胡编乱造

play15:24

这种现象有一个专

play15:26

业术语叫做幻觉hallucination

play15:28

像大模型这样的语言模型

play15:30

自始至终都只是在语言的符号中来回

play15:34

而并不清楚它们在真实世界的含义

play15:37

他说的每一句话

play15:38

只是为了连接起来像话

play15:40

而对于每个词语符号

play15:42

他在现实世界当中的真实含义

play15:45

都是不清楚的

play15:46

他所知道的

play15:47

只是每一个符号和其他符号之间

play15:51

彼此依存和共同出现的关系

play15:54

目前的大模型依然难以理解数学因果

play15:58

他就像柏拉图知名的洞穴之域那样

play16:01

现实世界在洞穴之外

play16:03

大模型处理的语言符号

play16:05

就宛如现实世界投影在墙上的

play16:08

这些语言的影子

play16:11

大模型靠着这些符号的影子

play16:13

总结出了很多规律

play16:15

但距离透彻的理解整个现实世界

play16:18

解决各种各样千奇百怪的问题

play16:21

还有距离

play16:23

但话说回来

play16:24

其实这也没有什么

play16:25

因为他现在好歹已经会说话了

play16:28

只要不去涉及那些十分深入

play16:29

专业的知识

play16:30

他就是当今世界上知识最渊博的大师

play16:34

在一定程度上

play16:35

他是每个人最好最方便的老师

play16:38

我们可以像问身边人那样

play16:40

询问大模型我们不知道的问题

play16:42

得到一个大体满意的回复

play16:45

另一方面

play16:45

对很多人来说

play16:46

大模型是自己最好的助手

play16:48

话说回来

play16:50

仅仅是接话尾的大模型

play16:52

究竟是怎么样做到这么有用的呢

play16:55

这里啊其实还有两个训练过程

play16:58

我们没有详细展开

play17:00

简单来说

play17:01

首先

play17:01

你要让这个大模型在某些特定的领域

play17:05

去再单独训练一遍

play17:07

接话尾的事情

play17:08

让他去熟悉某个特定领域的接龙游戏

play17:12

熟悉这个领域里的词汇和知识

play17:15

接下来呢

play17:16

还有一个非常重要的环节

play17:18

叫做RLHF

play17:19

也就是说人类反馈的这样的提升

play17:23

简单来说就是你让这个大模型

play17:26

他的这个回话呀

play17:27

越来越接近于对人类有帮助的

play17:30

友善的那种

play17:32

基本上就是啊

play17:33

如果他做的很好

play17:34

你就奖励他

play17:35

调整他的参数

play17:36

让他变得更接近于这个状态

play17:38

如果做的不好呢

play17:39

就给他一个惩罚

play17:41

在这样不断的训练当中

play17:42

大模型就可以越来越有用

play17:45

现如今

play17:46

随着越来越多像GPT这样的大模型

play17:48

像雨后春笋一般冒出来

play17:50

我们关于它的研究也越来越深入

play17:53

像质谱这样AI的大模型

play17:54

已经成为我们生活中不可或缺的帮手

play17:58

也许多少年后

play17:59

我们将会有新的超级AI

play18:01

他不将仅仅是在语言的符号中

play18:03

玩接龙游戏

play18:04

而对这个世界有更深刻的理解

play18:07

成为我们更大的帮手

play18:09

在之后的视频中

play18:10

我们将会进一步深入展开

play18:12

大模型潜在的秘密

play18:14

比如说人类在训练它的时候

play18:16

发现出现了一个神奇的涌现现象

play18:19

也就是说

play18:20

随着参数和数据的增多

play18:22

大模型居然突然从一个啥都不会的

play18:24

傻子一样的状态

play18:26

突然变成

play18:27

能够解决一个问题的这种天才

play18:29

比如说算数学题

play18:31

这究竟是怎么回事呢

play18:33

以及很多人用diffusion

play18:35

和GPT都听说过的提示词

play18:38

仅仅是用一些不同的咒语

play18:40

就能够让GPT的表现大相径庭

play18:43

这又是为什么呢

play18:44

关注我且听下回分解

play18:47

漫士沉思录

play18:48

学海引路不辛苦

play18:49

我们下期再会

Rate This

5.0 / 5 (0 votes)

Related Tags
AI言語モデルGPT専門家解説言語理解自然言語統計モデルTransformerAI教育技術解説
Do you need a summary in English?