【人工智能】图灵奖得主Yoshua Bengio最新访谈 | 不应该只有Scaling Law | 深度学习三巨头 | 学术生涯 | 神经网络 | 系统2 | AI safety | 如何科学研究
Summary
TLDR在这次访谈中,世界级人工智能专家、图灵奖得主Yoshua Bengio分享了他的学术生涯和对当前人工智能领域的深刻见解。Bengio回顾了自己对计算机的兴趣起源,以及在神经网络遭遇寒冬时期坚持研究的历程。他强调了科学家跳出思维定势的重要性,并提出了对AI潜在风险的关心。Bengio对Scaling Law进行了反思,认为需要探索超越现有方法的新路径。他还讨论了系统2深度学习的重要性,以及如何构建安全的AI系统以避免与人类为敌的风险。最后,Bengio给年轻的科研工作者提供了宝贵的教学和科研经验,包括翻转课堂的教学方法和科学研究中提问的重要性。
Takeaways
- 🎓 Bengio的学术生涯回顾:他与计算机的结缘始于对科幻小说的兴趣,尤其是阿西莫夫的作品,以及后来对汇编语言的浓厚兴趣。
- 🏆 图灵奖荣誉:2018年,Bengio与Geoffrey Hinton和Yann LeCun共同获得图灵奖,以表彰他们在深度学习领域的贡献。
- 📚 早期挑战:在神经网络不被看好的年代,Bengio的论文曾遭拒,学生担心就业问题,但他坚持认为神经网络能解决泛化问题。
- 🧠 神经网络的优势:Bengio认为神经网络的多层结构有助于处理高维度数据,克服了传统统计方法的“维数灾难”。
- 📈 Scaling Law的反思:Bengio提醒Scaling Law只是经验规律,并非理论定律,对未来的适用性持谨慎态度。
- 🔍 新研究方向:Bengio转向AI for science、系统2和AI安全的研究,探索神经网络方法的局限性和未来的人工智能能力。
- 🤖 系统2深度学习:Bengio认为系统2的深度学习,包括推理、因果关系等,是当前AI不擅长而人类擅长的领域。
- 🔐 AI安全的关注:Bengio强调构建安全的AI系统的重要性,确保AI与人类价值观、法律和道德保持一致。
- ⚖️ 国际合作与治理:他提倡在国际层面上达成共识,共同构建安全的AI,避免AI技术的无序竞争和潜在的军事化。
- 👨👦👦 Bengio的家庭影响:他的家庭教育强调自由和批判性思维,对他的科学道路产生了深远影响。
- 📚 教学与研究建议:Bengio分享了翻转课堂的教学方法和学术研究中提问、保持谦虚、实践和阅读的重要性。
Q & A
Yoshua Bengio是如何与计算机结缘的?
-Yoshua Bengio在十几岁时阅读了大量科幻小说,包括阿西莫夫的作品,特别是阿西莫夫在1942年的短篇小说《环舞》中提出的“机器人三定律”,激发了他对计算机和人工智能的兴趣。后来,他和弟弟Samy Bengio一起攒钱买了第一台电脑,并通过自学对汇编语言产生了浓厚的兴趣。
为什么说Bengio在神经网络不被重视的年代也坚持研究?
-即使在神经网络经历寒冬,大多数人对其失去信心的时期,Bengio凭借强烈的直觉认为神经网络能够解决其他主流方法无法应对的泛化问题。他坚信神经网络的多层结构能够处理高维度数据,具有巨大优势。
Bengio的哪些研究对深度学习领域产生了重要影响?
-Bengio在NeurIPS上发表的关于使用神经网络构建语言模型的论文是大语言模型的前身。2006年,他发表了《深度网络的贪婪逐层训练》的论文,找到了训练深层网络的方法。2014年,他的团队在《通过联合学习对齐和翻译进行神经机器翻译》的论文中首次将注意力机制应用到自然语言处理领域,大幅提升了机器翻译性能。
Bengio对于当前流行的Scaling Law持有怎样的观点?
-Bengio认为Scaling Law不是一个理论定律,而是基于经验性观察总结出的规律。他提醒说,我们无法确保Scaling Law会一直起作用,因此需要探索Scaling Law之外的新方法。
Bengio认为人工智能的未来研究方向应该是什么?
-Bengio认为未来的人工智能研究应该探索更多不同的方法,而不仅仅局限于当前的神经网络技术。他特别强调了系统2深度学习的研究,即推理、因果关系、自我怀疑等思维能力,这些是当前人工智能不太擅长而人类非常擅长的。
Bengio在AI安全领域有哪些担忧和建议?
-Bengio担忧AI存在被滥用或失控的风险,强调需要构建不会伤害人类的AI系统,并与人类的价值观、意图、法律、规范和道德保持一致。他建议减少AGI项目的数量,并在国际层面达成共识,集中资源构建安全的AI,避免AI技术被用于军事目的。
Bengio对于年轻科研工作者有哪些教学和科研经验分享?
-Bengio提倡翻转课堂的教学方法,鼓励学生主动参与学习。在科研中,他强调要学会善于提问,保持谦虚,接受自己可能会犯错,并培养直觉。他还建议多阅读,通过阅读了解他人的研究成果和前沿进展。
Bengio的家庭背景如何影响了他对科学道路的选择?
-Bengio的家庭非常自由,没有很严格的家规。父母关心的总是他和弟弟想做什么,这种环境赋予了他们兄弟很多自由和批判性的思维,深刻影响了他今后走上科学的道路。
Bengio在学术生涯中有哪些重要的合作伙伴?
-Bengio与Geoffrey Hinton、Yann LeCun等人保持合作,他们每年见面两次,互相交流想法,鼓励彼此在神经网络方向上的持续探索。
Bengio如何看待当前AI研究者在提升大模型性能方面存在的分歧?
-Bengio认为需要看到目前Scaling Law的不足,探索Scaling Law之外的新方法。他倾向于认为还需要在方法层面取得一些根本性突破,才能弥合人工智能与人类之间的差距。
Bengio对于实现人工通用智能(AGI)的可能性持怎样的态度?
-Bengio认为虽然现在显然还不存在AGI,但是未来很有可能实现。他认同Yann LeCun的观点,对于Ilya Sutskever想要实现AGI的目标,我们应该认真看待,不应该轻易地认为这不可能实现。
Bengio在访谈中提到了哪些关于AI安全和治理的建议?
-Bengio建议在AI治理方面需要达成类似的国际条约,在国际层面达成共识,各国不应毫无约束地自行研发人工智能技术,尤其不能将AI用于军事目的。而是应该把所有资源集中起来构建安全的AI,并确保它不会被用于对抗人类。
Outlines
🌟 Bengio的学术生涯与AI发展
大飞在最佳拍档节目中回顾了图灵奖得主Yoshua Bengio的学术生涯,讨论了他对Scaling Law的反思以及对AI潜在风险的关心。Bengio出生于法国巴黎,与Geoffrey Hinton和Yann LeCun共同获得图灵奖,并是蒙特利尔学习算法研究所(MILA)的创始人。他早年对计算机产生兴趣,自学成才,与弟弟Samy Bengio一同攒钱买电脑,后者也是深度学习的专家。Bengio强调科学家需要跳出思维定式,承担风险,允许犯错误。他选择了计算机专业,并在研究生时期被神经网络吸引。尽管神经网络曾经历寒冬,Bengio坚持研究,最终证明了其在处理高维数据方面的优势。他还与Hinton和LeCun等人合作,推动了深度学习的复兴。
🔍 Bengio对神经网络局限性的探索
Bengio在AI领域中,不仅致力于改进现有成果,也探索全新思维方式。他提醒人们Scaling Law基于经验观察,并非理论定律,对未来的适用性持谨慎态度。Bengio认为,尽管扩大模型规模和增加算力可能提升大模型性能,但要达到人类水平还需方法层面的根本性突破。他从七年前开始研究系统2深度学习,关注推理、因果关系等思维能力,这些是当前AI系统所缺乏的。Bengio强调AI安全的重要性,认为需要构建与人类价值观一致的AI系统,避免AI被滥用或失控。他将AGI与核武器比较,强调减少AGI项目数量的必要性,并呼吁国际合作,共享AI带来的进步,同时避免灾难。
📚 Bengio的教学和科研经验分享
Bengio分享了他在教学和科研方面的经验。他提倡翻转课堂的教学方法,鼓励学生课前自学并在课堂上进行展示,以提高课堂互动和学习效果。在学术研究中,他强调提问的重要性,建议研究者深入理解主题,不轻易接受他人观点,而是通过证据和实验结果来支持自己的论点。Bengio还提到,研究者应保持谦虚,勇于承认错误,认识到自身知识的局限性,这被称为认知谦逊。他建议通过实践积累经验,建立直觉,并强调了持续阅读的重要性,建议每天花时间阅读论文以积累知识。
Mindmap
Keywords
💡Yoshua Bengio
💡神经网络
💡图灵奖
💡Scaling Law
💡AI安全
💡系统2深度学习
💡维数灾难
💡Transformer
💡AGI(人工通用智能)
💡AI治理
💡翻转课堂
Highlights
Yoshua Bengio是世界级人工智能专家、图灵奖得主,与Geoffrey Hinton和Yann LeCun共同获得2018年图灵奖。
Bengio在神经网络不被重视的年代坚持研究,最终收获了荣誉。
Bengio认为科学家必须跳出思维的条条框框,承担风险、表达不确定的想法。
Bengio的研究表明,神经网络的深度可以处理高维度数据,克服维数灾难。
Bengio在NeurIPS上发表关于使用神经网络构建语言模型的论文,是大语言模型的前身。
Bengio与Geoffrey Hinton、Yann LeCun等人合作,共同推动神经网络研究。
2006年前后,深度学习逐渐复兴,Bengio发表经典论文《深度网络的贪婪逐层训练》。
Bengio的团队首次将注意力机制应用到自然语言处理领域,提升机器翻译性能。
Bengio认为不应只依赖神经网络,应探索更多不同的AI方法。
Bengio对流行的Scaling Law持谨慎态度,认为它只是一个基于经验的规律。
Bengio强调AI安全的重要性,如何构建不会伤害人类的AI系统。
Bengio提出AI与核武器的比较,强调AI的双刃剑特性。
Bengio建议减少AGI项目的数量,避免AI的无序竞争和潜在风险。
Bengio认为需要在国际层面达成共识,统一管理AI技术的研发。
Bengio分享了个人的教学和科研经验,强调翻转课堂和小组讨论的重要性。
Bengio建议年轻的研究者要学会提问,保持谦虚,并培养直觉。
Bengio强调多阅读的重要性,持续积累知识是科研人员的日常训练。
Transcripts
大家好,这里是最佳拍档,我是大飞
前两天
国内智源社区对世界级人工智能专家、图灵奖得主Yoshua Bengio进行了一场远程专访
不仅回顾了Bengio的学术生涯
也对如今的Scaling Law进行了深入的反思
并且表达了对于人类如何应对AI潜在风险的关心
Bengio是三巨头中非常低调的一位
他出生于法国巴黎
2018年与Geoffrey Hinton和Yann LeCun共同获得了图灵奖
现任加拿大蒙特利尔大学教授
也是蒙特利尔学习算法研究所(MILA)的创始人和科学主任
大家可能想象不到的是
在神经网络不被重视的年代
Bengio的论文也曾多次遭拒
甚至他的学生曾经都担心毕业即失业
但是不盲从主流的风格
让他最终收获了应有的荣誉
如今当神经网络成为主流的时候
他却已经开始了新的研究方向
把研究重心转向了AI for science、系统2和AI安全
今天大飞就来跟大家分享一下这次访谈的主要内容
首先
Bengio简单回顾了一下自己与计算机的结缘过程
他在十几岁的时候
读了大量科幻小说
其中就包括阿西莫夫的作品
在1942年的短篇小说《环舞》(Runaround)中
阿西莫夫第一次提出了著名的“机器人三定律”,
对机器人和人工智能领域产生了深远的影响
因此当他第一次接触到计算机的时候
就对汇编语言产生了浓厚的兴趣
后来
他和弟弟Samy Bengio一起攒钱买了第一台电脑
主要是靠自学
顺便提一下
Samy Bengio也是深度学习的专家
而且还是谷歌的杰出科学家
Google Brain的首批员工之一
Bengio的家庭非常自由
没有很严格的家规
父母关心的总是他和弟弟想做什么
他的父亲常说
父母应该从孩子身上学习
而不是孩子对父母耳提面命
这赋予了他们兄弟很多自由和批判性的思维
也深刻影响了他今后走上科学的道路
他认为科学家必须跳出思维的条条框框
必须相信自己解决问题的能力、承担风险、表达出不确定的想法
尤其是做研究需要格外谨慎
因为我们不能确保自己掌握的就是真理
必须允许自己犯错误
考虑与自己相悖的观点
因为很可能自己是错的
因为兴趣
Bengio上大学时选择了计算机作为专业
同时选修了物理和数学课程
在刚上研究生的时候
Bengio读到了几篇关于神经网络的论文
就如同发现新大陆一样兴奋
早期一些连接主义者的论文
深刻影响了他的研究视野和方向
2000年左右
神经网络经历了一场寒冬
绝大多数人都对神经网络失去了信心
当时有些审稿人会直接打回跟神经网络有关的论文
认为这个方向已经被淘汰了
Bengio的学生们也担心
继续研究神经网络会导致他们毕业后找不到工作
只是Bengio有一种强烈的直觉
觉得神经网络可以解决其他主流方法无法应对的泛化问题
当时
许多统计方法都只能在低维度的情况下有很好的效果
一旦数据维度增加
就会迅速失效,发生“维数灾难”。
通过对维数灾难的理论分析
Bengio认为神经网络有可能克服这个问题
神经网络的多层结构让它能够逐层提取和转换输入数据的特征
从而能用较少的自由度
来表示非常复杂的函数
因此
神经网络的深度让它在处理高维度数据时
具有巨大的优势
后来
他在NeurIPS上发表了一篇关于使用神经网络构建语言模型的论文
这就是大语言模型的前身
只不过规模更小
使用的语料库也更小
也没有用到Transformer中的注意力机制
此外
他还和一些也对神经网络有坚定信心的研究人员保持着合作
包括Geoffrey Hinton、Yann LeCun等人
他们每年见面两次,互相交流想法
鼓励彼此在神经网络方向上的持续探索
2006年前后,深度学习逐渐复兴
Bengio又在NeurIPS上发表了深度学习领域的经典论文《深度网络的贪婪逐层训练(Greedy Layer-Wise Training of Deep Networks)》,
并做了现场学术报告
在这篇论文中
他首次找到了训练深层网络的方法
展示了如何使用多层神经网络获得更好的泛化效果
在这之前大家都只是觉得深层网络可能有用
但是不知道如何训练
因为传统的训练方法不起作用
2014年
Bengio的团队受到人类认知机制的启发
在论文《通过联合学习对齐和翻译进行神经机器翻译(Neural Machine Translation by Jointly Learning to Align and Translate)》中
首次将注意力机制应用到了自然语言处理领域
大大提升了机器翻译的性能
也启发了后续一系列大语言模型的研究
2016年
谷歌把这项技术应用到了谷歌翻译中
性能突飞猛进
到了2017年,Transformer被正式提出
它的基本架构是多层注意力机制的层层叠加
这项技术也催生了大语言模型的现代架构
如今
神经网络已经成为人工智能的主流方法
但是Bengio认为
不应该把所有鸡蛋放在一个篮子里
我们还应该探索更多不同的方法
在过去的七年里
他一直在努力探索当前神经网络方法的局限性
这样才能让未来的人工智能具备当前所缺乏的能力
在AI这个领域
既需要有致力于改进现有成果的人
也需要自由探索全新思维方式、第一个吃螃蟹的人
这就是科学研究的意义所在
研究者们花费一生的时间去尝试各种方法
或许无法作出改变世界的成果
但是也有许多重要的想法
会在这个过程中问世
尤其当未来充满不确定性的时候
就更需要这样的探索
对于现在的流行的Scaling Law
Bengio提醒道
它并不是一个理论定律
只是一个基于经验性观察总结出的规律
好比我们将数据绘制成点图
并且拟合成一条直线
但是我们不知道这条线会延伸多远、会在哪里停止
因此我们也无法确保Scaling Law会一直起作用
当然他也反思了一下
自己之前对Scaling Law也判断错误了
没想到会带来ChatGPT
在如何提升大模型的性能方面
现在AI的研究者们存在着很大的分歧
有人认为
只需要扩大模型规模、增加算力和数据、提升计算效率
就可以让大模型达到与人类相同水平的能力
而其他研究者则认为
还需要在方法层面取得一些根本性突破
才能弥合人工智能与人类之间的差距
Bengio的观点倾向于后者
认为需要看到目前Scaling Law的不足
探索Scaling Law之外的新方法
因为从长远规划和风险规避的角度来看
需要提前考虑所有的可能性
并做好所有准备工作
所以在七年前
Bengio开始了一项关于系统2深度学习的研究
系统1类似于人类的直觉思维
当前的人工智能系统似乎已经掌握了这类能力
能够迅速地给出答案
虽然这种未经深思熟虑给出的答案不一定是最理想的
但是它的反应速度非常快
而系统2包括推理、因果关系、自我怀疑等思维能力
这些是当前的人工智能不太擅长的
而人类非常擅长
Bengio认为
虽然现在显然还不存在AGI
但是未来很有可能实现
这点Yann LeCun也是认同的
对于Ilya Sutskever想要实现AGI的目标
我们应该认真看待
不应该轻易地认为这不可能实现
因为我们也不知道未来会如何发展
正如同人是多元化的
每个人都有不同的思想
也会做出不同的行为
近期
Bengio的研究重点已经转移到人工智能的安全
AI safety
也就是如何构建不会伤害人类的AI系统
让它与人类的价值观、意图、法律、规范和道德保持一致
让AI的行为符合人类的道德准则
遗憾的是
目前还没有万全的应对之策
各大公司正在竞相加速开发更强大的AI系统
却没有对“如何确保AI系统不会与人类为敌”这个问题
投入足够多的关注
在前段时间的“北京AI安全国际对话”会议中
Bengio曾经将AGI与核武器进行对比
因为两者都具有巨大的力量
他认为核原料既可以用于能源生产
也可能成为非常危险的武器
AI也是一样
强大的AI可以用于造福人类
也可能被用作武器
由于AI存在被滥用或失控的风险
所以需要考虑如何避免重大灾难的发生
AI与核武器的另一个相似之处在于
世界上核武器越多
发生不良事件的风险就越大
与核不扩散机制类似
我们应该减少AGI项目的数量
但是这很难实现
因为很多国家不愿放弃任何形式的主权
我们共同恐惧的是一种核武器的末日
即拥有核武器的国家之间互相毁灭
AI的发展和竞争也很类似
无论是哪个国家的公民
都将直面这场战争
这是人类与AI的战争
而非国家与国家之间的对抗
AI带来的灾难性后果可能比核武器更加严重
因为尽管核武器会带来大规模的伤害
但是人类仍将继续存在
但是如果我们创造了一个超越人类智能的AI
并且它认为自己在没有人类干预的情况下
能够发展得更好
那么它可能会发明一种生物武器来杀死全人类
在这场AI带来的灾难中
没有人可以幸免
我们不能坐以待毙
直到灾难降临才开始思考应对之策
1945年原子弹在广岛爆炸以后
人们才开始意识到需要采取行动
来避免核武器造成更严重的后果
1946年
美国政府向联合国原子能委员会提出了一份名为“巴鲁克计划”(Baruch Plan)的提案
主张在国际层面统一管理核武器的研发工作
避免军备竞赛
不幸的是
这个方案经过几年的讨论和争议
最终被联合国安理会驳回了
在AI治理方面
我们需要达成类似的国际条约
在国际层面达成共识
各国不应毫无约束地自行研发人工智能技术
尤其不能将AI用于军事目的
而是应该把所有资源集中起来构建安全的AI
并确保它不会被用于对抗人类
在这个基础上
我们可以共享AI在医疗、环境、贫困、科学等方面带来的好处
因此
我们需要在享受AI带来的进步和避免AI带来的灾难之间寻求平衡
在AI安全上,我们不能各自为政
必须携手同行
如果能回到过去
Bengio认为自己应该更加重视AI可能带来的风险
但是他当时并没有给予足够的重视
这是他认为自己曾经犯下的错误
不过,在AI可能带来的巨大风险面前
乐观还是悲观其实无关紧要
重要是,我能做什么
我们每个人能为一个更好的世界做什么
最后,抛开AI的问题,Bengio
给年轻的、想要从事科学研究的朋友
分享了一些个人的教学和科研经验
在教学中
有一种翻转课堂(flipped class)的方法
可以让学生主动参与到学习中
比如他会给学生们布置作业
让他们在课前学习材料
然后在课堂上随机选择一些学生
针对材料进行课堂展示
其他学生再提出问题或回答问题
而老师的角色是确保学生们给出的答案是正确的
确保学生们真正理解了材料
在这个过程中
大量任务是由学生自主完成
这样不仅学习效果很好
也保证了课堂活跃度
传统的讲座式教学并不高效
相比之下
小组讨论会更好
在教学过程中
必须摆脱老师无所不知
而学生一无所知的传统观念
教学是一个对话的过程
需要由老师和学生共同参与
而在学术研究中
首先要学会善于提问
如果想要从事学术研究
必须对所研究和讨论的主题有深入的理解
不应该没有经思考就轻易接受他人的观点
而是应该试图证明为什么这个结论是正确的
是否有对应的证据
如果没有证据,就应该持保留态度
人的直觉可能是错误的
需要有说服力的论据、证据或者实验结果来证明自己的观点
研究的过程就是不断提出问题
其次要保持谦虚
必须接受自己可能会犯错
事实上
只有勇于承认错误才能展现出聪明和谦逊
并且表明充分认识到了自身知识的局限性
科学研究只有在你愿意改变想法、认真倾听并考虑他人观点的时候
才能取得进展
也许其他人的观点与你相悖
但是他们可能是对的
从事科学研究的人要学会接受现实可能存在多种解释
这就是所谓的认知谦逊
对于很多无法从现存理论中找到答案的问题
研究者必须培养自己的直觉
其中一种有效的方法就是亲身参与实践
比方说,亲自动手去做研究或者编码
在大量的实践或者失败中积累经验
从而建立更强的直觉
最后一个建议是多阅读
通过阅读可以了解他人的研究成果、研究思路和前沿进展
持续积累某个领域的知识
要把这当成是一种日常训练
每天都要做
更重要的是阅读的时间,而不是数量
Bengio自己现在仍然坚持
每天花三小时左右的时候来阅读论文
虽然有些论文只是看一下摘要和图表
好了
以上就是这次Bengio访谈的主要内容
希望对大家有所帮助
感谢大家的观看,我们下期再见
Посмотреть больше похожих видео
Prof. Chris Bishop's NEW Deep Learning Textbook!
Heroes of Deep Learning: Andrew Ng interviews Geoffrey Hinton
Possible End of Humanity from AI? Geoffrey Hinton at MIT Technology Review's EmTech Digital
Season 2 Ep 22 Geoff Hinton on revolutionizing artificial intelligence... again
8. Question and Answer Session 2
7. Layered Knowledge Representations
5.0 / 5 (0 votes)