【人工智能】直觉的力量 | 杰弗里辛顿最新对话 | Sana AI峰会 | 回忆AI生涯 | Ilya的能力和直觉 | 缩放法则 | 多模态 | 语言与认知 | 神经网络 | AI情感 | 反向传播
Summary
TLDR在这段精彩访谈中,图灵奖得主杰佛里辛顿与年轻创业者乔尔·海勒马克就人工智能的多个方面进行了深入探讨。辛顿回忆了自己的学术生涯,从对大脑独特学习方式的好奇,到与伊利亚苏茨克维尔等杰出学生的合作,他们共同推动了神经网络和深度学习的发展。辛顿还分享了对大模型技术路线的看法,多模态学习的重要性,以及他对智能系统意识与情感的见解。他相信,随着模型规模的扩大,AI的推理和创造力将不断增强,未来AI在医疗保健和新材料领域的应用前景广阔。
Takeaways
- 🧠 Geoffrey Hinton是人工智能领域的杰出人物,他的贡献包括对神经网络和反向传播算法的研究。
- 📚 Hinton的人工智能启蒙来自于Donald Hebb和John von Neumann的书籍,这些书籍启发了他探索大脑和神经网络的学习方式。
- 🎓 Hinton在剑桥大学学习生理学和哲学后,最终在爱丁堡大学获得人工智能博士学位,并在卡内基梅隆大学与多位学者合作。
- 🤖 Hinton与Terry Sinofsky共同研究玻尔兹曼机,虽然后来证明玻尔兹曼机并非大脑的工作方式,但这些研究产生了重要成果。
- 🔄 Peter Brown教授帮助Hinton理解语音和隐马尔可夫模型,这些知识对神经网络的发展至关重要。
- 🌟 Ilya Sutskever是Hinton的杰出学生之一,他对反向传播和神经网络的直觉对领域产生了深远影响。
- 📈 Hinton和Sutskever等人的研究表明,通过扩大模型规模可以显著提升性能,这与当前的缩放法则(Scaling Law)相符。
- 🔗 Hinton认为大语言模型的理解方式与人类相似,随着规模的增长,其推理能力也将增强。
- 🎨 多模态学习被Hinton视为提升模型空间推理能力的重要途径,它还能为模型提供更丰富的训练数据。
- 🧘♂️ Hinton提出,大脑可能利用梯度信息优化连接,即权重,但他对大脑如何实际获得这些梯度保持开放态度。
- 🚀 Hinton认为AI在医疗保健和新材料领域有巨大应用前景,尽管存在被滥用的风险,但AI的发展不太可能减速。
Q & A
杰佛里辛顿在人工智能领域的启蒙书籍有哪些?
-杰佛里辛顿的启蒙书籍包括唐纳德·赫布的《行为的组织》和约翰·冯·诺伊曼的《计算机与人脑》。
乔尔·海勒马克在人工智能领域的成就有哪些?
-乔尔·海勒马克在13岁开始编程,14岁创立了一家视频推荐公司,19岁创办了人工智能公司Sana AI,并在2023年筹齐了8000万美元融资。
辛顿在剑桥大学学习生理学时遇到了哪些问题?
-辛顿在剑桥大学学习生理学时,老师只教了神经元如何传导动作电位,并没有涉及大脑工作的原理,这令他感到极度失望。
辛顿与泰伦斯·塞诺夫斯基共同研究了什么?
-辛顿与泰伦斯·塞诺夫斯基共同研究了玻尔兹曼机,并产生了很多有趣的技术成果。
伊利亚·苏茨克维尔在辛顿的实验室工作时提出了哪些创新想法?
-伊利亚·苏茨克维尔提出了为MATLAB编写接口的想法,以便用另一种语言编程后直接转换成MATLAB代码,并主张增加模型规模会有更好效果。
辛顿如何看待大语言模型的推理能力?
-辛顿认为大语言模型的推理能力会随着规模的增长而增强,它们在寻找共同结构并用这种结构高效编码事物。
辛顿提到了AlphaGo的哪一步棋被认为是创造性的?
-辛顿提到AlphaGo在与李世石的比赛中,第37手下了一步所有专家都认为必定是失误的棋,但后来被认为是一步妙手。
辛顿对多模态学习的看法是什么?
-辛顿认为多模态输入会让模型有显著的改进,尤其会大大提高模型对空间等事物的推理能力。
辛顿提到的三种不同的语言观是什么?
-辛顿提到的三种语言观包括:传统的符号观、大脑内部全都是向量的观点,以及语言和思维过程中涉及符号但通过多层次嵌入表示被丰富化的观点。
辛顿如何看待人工智能领域未来的应用前景?
-辛顿认为未来人工智能最有前景的应用应该是在医疗保健和新材料的领域。
Outlines
😀 杰佛里辛顿与乔尔·海勒马克的对话
在这段对话中,杰佛里辛顿和乔尔·海勒马克展开了深入的交流。辛顿回忆了自己的人工智能生涯,从早期的启蒙书籍到在剑桥大学的研究,再到爱丁堡大学获得博士学位。他提到了与泰伦斯·塞诺夫斯基共同研究玻尔兹曼机的经历,以及与统计学家彼得·布朗的交流,这些经历对他的研究有着深远的影响。辛顿还回忆了与伊利亚苏茨克维尔的相识,伊利亚的直觉和创新精神给辛顿留下了深刻印象。此外,辛顿分享了他对大模型技术路线、多模态学习重要性、数字计算与共享知识、智能系统的意识与情感等方面的看法。
😉 大语言模型的理解与直觉
辛顿在对话中表达了对大语言模型的理解,他认为这些模型的工作原理与人类思维方式相似,并且随着模型规模的增长,其推理能力也将得到增强。他通过GPT-4的例子说明了模型如何通过寻找共同结构来高效编码事物,并展现出创造力。辛顿还讨论了模型如何在训练数据中学习并超越错误标签的限制,以及如何通过多模态输入来提高模型的空间推理能力。他还探讨了语言与认知的关系,提出了三种不同的语言观,并分享了自己对这些观点的看法。
🤖 神经网络与人工智能的未来
辛顿在这部分讨论了他对神经网络和人工智能未来的看法。他提出了模拟计算的概念,以减少能源消耗并模仿大脑的工作方式。辛顿还提到了数字系统的“永生”特性,以及如何通过共享权重来实现集体知识的即时同步。他强调了快速权重在神经网络中的重要性,并提出了用电导作为权重表示的解决方案。辛顿对大型神经网络模型的成功表示肯定,并认为这改变了人们对复杂任务学习的看法。他还探讨了AI的情感问题,并分享了自己对符号处理和自然语言的看法。最后,辛顿提出了他认为AI领域接下来应该解决的问题,并对AI在医疗保健和新材料领域的应用前景表示乐观。
Mindmap
Keywords
💡杰佛里辛顿Geoffrey Hinton
💡乔尔·海勒马克Joel Hellermark
💡人工智能
💡神经网络
💡反向传播
💡缩放法则Scaling Law
💡多模态学习
💡数字计算与共享知识
💡智能系统的意识与情感
💡模拟计算
💡向量嵌入
Highlights
图灵奖得主杰佛里辛顿Geoffrey Hinton与创业者乔尔·海勒马克Joel Hellermark的对话被评价为每一秒都是精华。
乔尔·海勒马克13岁开始编程,19岁创办人工智能公司Sana AI,2023年筹齐8000万美元融资。
辛顿的人工智能生涯启蒙于唐纳德·赫布和约翰·冯·诺伊曼的书籍。
辛顿在剑桥大学学习生理学和哲学,最终转向爱丁堡大学学习人工智能。
辛顿与泰伦斯·塞诺夫斯基共同研究玻尔兹曼机,产生了许多技术成果。
彼得·布朗帮助辛顿理解语音知识和隐马尔可夫模型,启发了隐藏层的概念。
辛顿与伊利亚·苏茨克维尔的相识,伊利亚的直觉和能力对研究有重要影响。
伊利亚提出增加模型规模会有更好效果的直觉,即缩放法则Scaling Law。
辛顿、伊利亚和詹姆斯·马丁合作的论文利用维基百科数据源,预测HTML字符效果出奇地好。
辛顿认为拥有清晰思维框架的人会在接收新信息时尝试与其认知框架相匹配。
辛顿坚信大语言模型的理解方式与人类思维方式相似,规模增长将增强推理能力。
辛顿认为GPT-4在规模扩大后将会变得非常有创造力,甚至会超过人类。
辛顿通过在MNIST数据集中故意加入错误标签,展示了神经网络能从错误中学习。
辛顿认为多模态输入会让模型有显著的改进,提高对空间等事物的推理能力。
辛顿列举了三种不同的语言观以及它们与认知的关系,包括符号观、向量观和嵌入表示。
辛顿提出模拟计算的概念,以减少电力消耗,模拟大脑的低能耗运行。
辛顿认为数字系统通过权重的共享可以实现集体知识的即时同步。
辛顿提出人脑中存在多个时间尺度的权重变化,这对于实现临时记忆功能至关重要。
辛顿认为大型神经网络模型的成功证明了通过随机梯度下降调整权重可以学习复杂知识。
辛顿认为AI也能有情感,情感的本质是如果没有外部约束时我们可能会采取的行动。
辛顿认为人工智能领域接下来最该解决的问题是大脑是否进行反向传播。
辛顿认为未来AI最有前景的应用应该是在医疗保健和新材料的领域。
辛顿没有在暂停AI研究6个月的请愿书上签字,因为他认为那件事永远不会发生。
Transcripts
大家好,这里是最佳拍档,我是大飞
最近图灵奖得主杰佛里辛顿Geoffrey Hinton
和天才创业者乔尔·海勒马克Joel Hellermark进行了一场对话
被网友们评价为每一秒都是精华
杰佛里辛顿相信不用我再过多介绍了
简单介绍一下采访者乔尔·海勒马克
他自幼在东京长大,13岁开始编程
14岁创立了一家视频推荐公司
19岁创办了人工智能公司Sana AI
并且在2023年的时候筹齐了8000万美元融资
在这次访谈中,辛顿谈到了很多话题
包括回忆自己的人工智能生涯、当前大模型的技术路线、多模态学习的重要性、数字计算与共享知识、智能系统的意识与情感
以及他的合作者和优秀的学生伊利亚苏茨克维尔
等等等等
大飞我看的过程中真是有一种享受的感觉
辛顿首先回忆了自己的人工智能生涯
最早的启蒙应该来自于他读到的一些书籍
包括唐纳德·赫布(Donald Hebb)的《行为的组织》,
里面提出了著名的“突触学习学说”,
介绍了如何学习神经网络中的连接强度
以及约翰·冯·诺伊曼(John von Neumann)的《计算机与人脑》)
书里介绍了大脑的计算方式
以及大脑计算与普通计算机的区别
他当时的直觉是
大脑学习肯定有其独特的方式
显然,大脑不是通过预设各种程序
再运用逻辑来推理规则的
所以他想弄清楚
大脑是如何在神经网络中调整连接来完成复杂任务的
于是
他在1970年前往剑桥大学研究大脑
为此他先是去学习了生理学
结果老师只教了神经元如何传导动作电位
并不是大脑工作的原理
令他感到极度失望
于是他又转向了哲学
以为能够了解到心灵是如何运作的
结果依旧令人失望
最终,他选择到爱丁堡学习人工智能
至少可以模拟事物,从而测试理论
1978年
他在爱丁堡大学获得了人工智能的博士学位
1982年
辛顿从英国前往卡内基梅隆大学
在那里,他开展了非常多的学术合作
以及遇到了他的天才学生,伊利亚
一开始
辛顿与泰伦斯·塞诺夫斯基(Terry Sinofsky)有许多交流
当时泰伦斯还在巴尔的摩(Baltimore)的约翰霍普金斯大学(Johns Hopkins)
所以他们俩人会经常开车到对方的学校
共同研究玻尔兹曼机
产生了很多非常有趣的技术成果
甚至他们曾经一度以为那就是大脑的工作方式
但是后来证明是错误的
他还与统计学家彼得·布朗(Peter Brown)有过很好的交流
布朗教会了他许多关于语音的知识
甚至还帮助他弄懂了隐马尔可夫模型(Hidden Markov Model
HMMs)
从而启发了他们在反向传播中
采用“隐藏层”这个词
来描述神经网络中那些无法直接观测、却对模型学习和预测
起到关键作用的中间层
后来,辛顿成为了布朗的博士生导师
接下来
辛顿回忆到了与伊利亚Ilya Sutskever的相识
依然是记忆犹新,画面感十足
某个周日,辛顿在办公室里编程
忽然听到一阵急促的敲门声
辛顿走过去开门
门口站着一位年轻的学生
他告诉辛顿,比起暑期炸薯条的工作
他更渴望能在辛顿的实验室工作
辛顿本来想告诉他
可以先预约一下再谈
结果伊利亚直接说,那就现在谈谈吧
这正是伊利亚的性格
然后他们聊了一会儿,临走
辛顿给伊利亚留了个作业
让他去阅读一篇关于反向传播的论文
一周后再见面
一周后,伊利亚回来说,他没看懂
这让辛顿感到非常失望
觉得伊利亚看起来挺聪明的
怎么连个简单的链式法则都看不懂呢
谁曾想,伊利亚又解释道
论文他看懂了,他只是不明白
为什么不直接给梯度一个更合理的函数优化器呢
没想到
这个问题让他们后来研究了好多年
辛顿还提到了另一个可以体现伊利亚能力的趣事
就是有一次他们试图用数据制作一张复杂的地图
其中用到了混合模型
在MATLAB中需要进行大量的矩阵乘法操作
在这个过程中
伊利亚对反复修改代码感到厌烦
有一天他告诉辛顿
要为MATLAB编写一个接口
这样就可以用另一种语言编程
然后直接将它转换成MATLAB代码
辛顿劝告伊利亚
这会花掉你一个月的时间
项目进度重要,不要分心
没想到伊利亚却说,没关系
我今天早上已经搞定了
除此之外
伊利亚很早就有了“增加规模会有更好效果”的直觉
也就是如今的缩放法则Scaling Law
他一直主张,只要模型做得更大
效果就会更好
而辛顿起初还觉得这只是在逃避复杂问题
告诉伊利亚,除了扩大规模
还需要有新的创意和想法
结果事实证明
伊利亚的观点基本上是对的
虽然像Transformer这样的架构确实带来了帮助
但是真正推动进步的
还是数据规模的扩大和计算能力的提升
在早期的时候,他们从来没有想过
计算机的速度会提高上亿倍
所以他们当时一直尝试
通过巧妙的创新想法来解决问题
而实际上
如果当时就有如今这么大规模的数据和计算能力
许多问题可能早就迎刃而解了
大约在2011年,辛顿、伊利亚
以及另一位研究生詹姆斯·马丁(James Martins)合作了一篇论文
利用维基百科(Wikipedia)作为数据源
尝试预测下一个HTML字符
结果出奇地好
虽然他们不敢确定模型是否真的理解了内容
但是从表现上看
仿佛它确实理解了一样
辛顿认为
像伊利亚这种拥有惊人直觉的人
通常不会接受无用的信息
因为盲目听信一切
会导致形成模糊而且不具备辨别力的思维框架
相反,那些拥有清晰思维框架的人
会在接收新的信息时
尝试将其与自己的认知框架相匹配
如果新信息不符合框架
则会选择拒绝
而拥有一个坚定的世界观
并根据它来筛选信息
是培养良好直觉的关键路径
谈到如今的大语言模型,辛顿坚信
如今大语言模型的理解方式
与人类的思维方式相似
而且随着规模的增长
推理能力也将随之增强
因为大模型是在寻找共同的结构
并且用这种共同的结构来高效的编码事物
辛顿举了一个例子,就是问GPT-4
为什么堆肥堆跟原子弹是一样的
大多数人可能会认为这两件事完全没有关系
但是GPT-4会找到两者中的共同点
并且联想到链式反应的概念
正是看到了表面上截然不同的事物之间的类比性
并将所有信息压缩到模型的权重中
从而让模型产生了创造力
辛顿认为GPT-4在规模扩大后
将会变得非常有创造力
甚至会超过人类
比方说AlphaGo在与李世石(이세돌)的比赛中
第37手
AlphaGo下了一步所有专家都认为必定是失误的棋
但是实际上后来他们意识到这是一步妙手
而且很多人没有意识到的是
大型神经网络的表现可以远超它的训练数据
以手写数字识别任务MNIST为例
辛顿当初其实故意在训练集中加入了50%的错误标签
但是神经网络通过反向传播训练后
依然能够将错误率降低到5%甚至更低
这意味着网络能够从错误中学习
区分哪些数据标记可能是错误的
并且从中提取出正确的模式
这就是聪明的学生有时候能比老师更聪明的原因
当老师告诉学生所有信息的时候
有一半会被聪明的学生认为是“废话”,
左耳朵进右耳朵出;
还有另一半知识被学生们吸取
最终导致学生变得比老师更聪明
那么模型如何继续提高推理能力呢?
辛顿的直觉是
随着人工智能模型的规模扩大
它们在推理能力上将自然地得到提升
这个过程就如同人的认知过程一样
人类通过直觉进行初步的判断
然后利用推理来修正和完善这些直觉
同样
AlphaGo和AlphaZero通过结合直观的评估函数
与深入的蒙特卡洛树搜索(Monte Carlo rollout)来优化决策
这种机制允许模型不仅能模仿人类已有的知识和行为
还能在某种程度上创新
这正是AlphaGo能够走出第37步那种创造性走法的原因
谈到对多模态的看法
辛顿认为多模态输入会让模型有显著的改进
尤其会大大提高模型对空间等事物的推理能力
另外
多模态可以让模型获得更多的训练数据
有一个哲学观点是
你可以通过语言学习到一个非常好的模型
但是从多模态系统中学习要容易得多
在这个基础上
辛顿列举了三种不同的语言观以及它们与认知的关系
首先是传统的符号观
也就是认知是基于明确、抽象的逻辑符号以及符号操作
暗示语言与逻辑思维紧密相连的
这个观点倾向于认为人类大脑和语言是协同进化的
各自适应对方的存在与发展
与之相反的观点是
大脑内部全都是向量
符号进入大脑会转换成大型向量
所有内部处理都是通过大型向量完成的
如果你想生成输出
就要再次生成符号
大约在2014年
机器翻译领域就有这么一个阶段
通过循环神经网络在隐藏状态中不断积累信息
所以在句尾时就会得到一个大的隐藏向量
这个向量捕捉了这个句子的意义
然后可以用来在另一种语言中生成句子
这被称为思想向量
是对语言的第二种看法
第三种观点介于前两者之间
也是现在辛顿所相信的
那就是语言和思维过程中确实涉及符号
但是这些符号通过多层次的嵌入表示(embedding representation)被丰富化了
但是,这些嵌入仍然与符号相关联
意味着每个符号都有一个大的向量
这些向量相互作用
从而产生下一个词的符号向量
这就是所谓的“理解”。
“理解”就是知道如何将这些符号转换成向量
以及知道这些向量的元素应该如何相互作用
来预测下一个符号的向量
知识则体现在你使用的向量
以及这些向量元素之间的相互作用上
而非符号规则
但是这并不意味着可以完全摆脱符号
而是将符号转化为庞大的向量
但是仍然停留在符号的表层结构上
这就是如今模型的工作原理
也同样是一个更合理的人类思维模型
对于计算技术下一步该如何演进
辛顿提到自己一直在思考如何实现模拟计算(analog computation)
这样就不用消耗兆瓦级的电力
而是像大脑一样只用30瓦
就可以在模拟硬件上运行这些大语言模型
而且由于权重的可复制性和共享性
数字系统实际上是“永生”的
数字系统之间可以通过微小的学习更新
然后共享这些更新后的权重
实现集体知识的即时同步
这是人类目前无法做到的
不过这个目标现在还没有实现
另外在模型方面
现有的神经网络模型中
通常只有两个时间尺度,一个是活动
例如神经元激活状态的快速变化
另一个是权重
例如长期学习参数的缓慢调整
但是
人脑中存在多个时间尺度的权重变化
允许形成临时记忆
比如我现在喊一句黄瓜
五分钟后你还能记忆起这个词
这是因为突触暂时性变化了
也是现在神经模型中缺少的快速权重
这对于实现更接近人脑的临时记忆功能至关重要
用电导作为权重表示
可能会有望解决这一问题
对于如今大模型的出现
辛顿认为最大的影响在于对一个抽象概念的认知转变
过去,许多人
包括统计学家、语言学家及多数AI研究者
对通过一个大型随机神经网络
辅以大量训练数据
来学习执行复杂任务的想法
都保持怀疑的态度
他们认为这仅仅是“空想”,
认为没有内在知识和严格架构限制
不可能学会复杂事物
然而,大型神经网络模型的成功
证明了这个观点是错误的
那就是通过随机梯度下降不断调整权重
确实能够学习并掌握复杂知识
这个发现表明
大脑不必具备所有的先天结构
另外,辛顿认为AI也能有情感
情感的本质是
如果没有外部约束时我们可能会采取的行动
那么就像辛顿内心可能会想
给深度学习的主要反对者加里马库斯鼻子来一拳
但是前额叶的抑制作用会阻止他真的采取行动
事实上,在1973年
辛顿就亲眼见到一个机器人表现出了情感
爱丁堡大学有个叫弗莱迪的机器人
它有两只夹子
能够将单独放置的玩具车零件组装起来
但是如果将零件堆在一起
它的视觉不足以弄清楚发生了什么
于是它会将夹子合拢
“啪”的一下把零件击散
从而再“组装”起来
如果我们在一个人身上看到这一幕
会说他因为不理解情况而感到沮丧
其实是它们在面对约束和问题解决时
会采取相应的行动策略,因此
如果从这个角度来看的话
AI显然也可以拥有情感
曾经
辛顿认为宗教信仰和符号论都是无稽之谈
但是随着时间的推移
他的看法也有所改变
他认为人类确实进行着符号处理
但是并不像传统观念中那么简单
实际上
我们通过给符号赋予大型嵌入向量
并利用这些向量的成分间互动来进行思考
这种方式充分利用了上下文信息
谷歌的研究员费尔南多·佩雷拉(Fernando Pereira)曾说过
我们拥有的唯一符号就是自然语言
我们用它来进行推理
现在辛顿对此深信不疑
辛顿认为
人工智能领域接下来最该解决的问题
还是跟他30年前思考的问题一样
就是大脑是否进行反向传播
他相信大脑在学习过程中
确实利用了梯度信息来优化了内部的连接
也就是所谓的权重
然而他对于大脑如何实际获得这些梯度
是否通过某种近似于反向传播的机制
或者是完全不同的方法来实现这一点
仍然保持开放的态度
他认为这是一个重大而且尚未解决的问题
最后辛顿认为未来(AI)最有前景的应用
应该是在医疗保健和新材料的领域
他虽然担心不良分子会利用AI做坏事
但是他也认为AI领域不太可能会减速发展
因为国家之间存在着竞争
他之所以没有在暂停AI研究6个月的请愿书上签字
因为他认为那件事永远不会发生
我们永远不会放慢脚步
好了
以上就是辛顿这次访谈的核心内容
其实还有很多非常有意思的话题
比如说他对波尔兹曼机的看法等等
建议大家呢有时间去看一下原视频
仔细体会
相信会有更多的收获
感谢观看本期视频
我们下期再见
Browse More Related Video
![](https://i.ytimg.com/vi/2EDP4v-9TUA/hq720.jpg)
Season 2 Ep 22 Geoff Hinton on revolutionizing artificial intelligence... again
![](https://i.ytimg.com/vi/CC2W3KhaBsM/hq720.jpg)
In conversation with the Godfather of AI
![](https://i.ytimg.com/vi/sitHS6UDMJc/hq720.jpg)
Possible End of Humanity from AI? Geoffrey Hinton at MIT Technology Review's EmTech Digital
![](https://i.ytimg.com/vi/iWPo7Yhg7Vc/hqdefault.jpg?sqp=-oaymwEXCJADEOABSFryq4qpAwkIARUAAIhCGAE=&rs=AOn4CLCg1cpuTJZN5kBXRVm90zJlQ4wIjA)
Geoffrey Hinton 2023 Arthur Miller Lecture in Science and Ethics
![](https://i.ytimg.com/vi/lLBbsif2Xt4/hq720.jpg)
Geoffrey Hinton is a genius | Jay McClelland and Lex Fridman
![](https://i.ytimg.com/vi/fWX2Vf1AfTM/hq720.jpg)
Geoffrey Hinton | Ilya's AI tutor Talent and intuition have already led to today’s large AI models
5.0 / 5 (0 votes)