首页资讯

Hinton上海演讲:大模型跟人类智能很像,警惕养虎为患

时间:2025-07-27 15:11 作者:北龙渊

Hinton上海演讲:大模型跟人类智能很像,警惕养虎为患

明敏 整理自 WAIC
量子位 | 公众号 QbitAI

深度学习之父、诺奖得主Hinton在中国的首次公开演讲,实录来了!



演讲主题是《数字智能是否会取代生物智能》。

主要观点如下:

这是Hinton第一次公开到访中国。对于77岁高龄且患有严重腰伤的老爷子而言,十几个小时的长途飞行无疑是一次巨大挑战——但Hinton之前对中国非常向往,他甚至有中国堂姑,知名的核物理学家寒春——琼-辛顿,是第一批获得中国绿卡的外国人。

不过Hinton这次来到上海,依然更多是关于AI安全的呼吁。

在20分钟的演讲,Hinton以他独有的讲述方式,论述了AI与人类之间的复杂对立与共生关系。也一如既往先天下之忧而忧,呼吁全人类一起建立起正向引导AI发展的合理机制。

我们在不改变演讲原意的基础上,对全文进行实录整理,期待你能从中有所收获。

大语言模型确实理解它们所说的话

大家好,我是Geoffrey Hinton,今天我要演讲的题目是《数字智能是否会取代生物智能》。



AI已经有60年发展历史,它有两种不同发展方式。

一种是过去几十年中都占主导地位的逻辑型范式,意思是智能的本质是逻辑推理,我们利用一些符号规则、表达式进行操作来实现推理,这样能帮助我们更好表达知识。



另一种范式是以生物学作为基础进行理解,这也是图灵和冯·诺依曼所支持的观点。他们认为智能的基础在于理解和学习神经网络中的连接速度。在这个过程中,理解是第一位的,只有在理解的基础上才能进行学习。

这两种范式相结合,一种是符号性AI,重点在于研究数字和这些词之间的关系;心理学家是另外一种理论。



数字的意思其实是一系列语义学特征。在1985年时,我提出了一个非常小的模型,想把这两个理论结合在一起,去更好理解“人类是如何理解一个词的”,每一个词我都放了好几个不同的特征,然后把前一个词的特征记录下来,就能预测下一个词是什么、进而再预测再下一个词。

这个过程中我没有存储任何的句子,我生成句子、预测下一个词,像关联型的这些知识也是取决于不同的词的语义特征是如何互动的。

在此之后接下来30年发生了什么呢?

10年之后,Yoshua Bengio用这样的方式建模,把这种模式做得更加实时,等于成为了一个自然语言的真实模拟。

20年之后,计算语言学家终于开始接受特征向量的嵌入来表达一个词的意思。

30年之后,谷歌发明了Transformer、OpenAI展示了更进一步的能力。



所以今天的大语言模型,我把它视为当时那个微型语言模型(1985年)的后代,它用更多的词作为输入、使用更多层神经元结构,因为需要有大量模糊不清的数字的使用,所以学习特征之间也建立了更加复杂的交互模式。

但是就像那些我做的小模型一样,大语言模型它也与人类去语言理解语言的方式是一样的,基本的理解就是把这些语言转化为一些特征,然后把这些特征以一种非常完美的方式整合在一起,这就是大语言模型里各个层次所做的事情。

所以我的理解是,大语言模型真正理解你是怎么理解问题的,它和人类理解语言的方式一样。



所以我在这里给大家打一个比方,什么叫理解一句话?符号型AI是将语言转化为一些不模糊的符号,但是人类实际不是这样理解。



我在这里打个比方,就好比乐高积木。通过乐高积木可以做成任何3D的一个物体,比如做成一个小车模型。把每一个词视为一个多维度的乐高积木,它可能有几千个不同的维度,那么这种乐高积木就可以建模成好多不同的内容,语言编程了一个建模,这些语言也能很好进行沟通,只需要给这些积木起一个很好的名字就行。



然后每一个乐高积木都代表一个词,当它们堆起来就不是有几个不同的差异了,我们有无数的词。乐高积木的造型是固定的,词的符号是基本固定的,但是也可以根据不同情况做调整。

不过乐高模型比较确定,一个格子插一个格子,但是语言不一样,语言相当于每一个词上都有好多个“首”,好比你想更好理解一个词的话,就是要让这个词和另一个词之间进行“握手”。如果一个词的造型变形,它和另一个词的“握手”方式就不一样了,这里就有个优化的定义,如果一个词发生变化那么怎么和下一个词连接,这也是人脑或者神经网络如何理解意思,这也有点像蛋白质之间的组合方式,氨基酸变换组合方式后就是不同的蛋白质。

人类大脑和大语言模型对语言的理解几乎是同一种方式,所以人类有可能就是大语言模型,人类也会和大语言模型一样存在幻觉。



AI的知识迁移效率远高于人类

但大语言模型也和人类之间有不同,甚至比人类更厉害。

从根本上理解计算,是要将软件和硬件拆开,在不同的硬件上跑不同的软件。在一个软件里面的知识是永恒存在的,你可以毁灭所有硬件,但只要软件存在,那它就能随时复活。从这种意义上讲,计算机程序内的知识是永恒的、不会死亡的。想要实现这种知识永存,需要非常高的经济成本。

人类不能利用这种特性,人类代表的生物计算是模拟型的,每一次神经元激发的过程都是一次新的模拟、每一次都是不一样的。我不可能把我大脑中的神经元转移到你的大脑里,因为每个人的神经元连接方式都不一样。



这就是人类大脑和计算机科学的差异,那么问题就来了。

我们的大脑计算是非常节能的,大约只要3瓦特就够了,我们有三亿神经元连接,人类不需要去花非常高的成本去做一模一样的计算。

另一个问题是,人类大脑之间的知识传递是非常不高效的,我无法把我大脑中的东西直接展示给你,我只能去和你解释我学到的是哪些东西。

所以AI要解决知识传递的问题,比如使用蒸馏,DeepSeek就是这么做的。将一个大型神经网络的知识转移到小型神经网络里,类似于老师和学生之间的关系。教师把一个词和另一个词之间联系起来,学生就能做相同的事情。



其实人类也是这样转移知识,但是非常不高效,可能一句话里只有100个比特的信息量,而且还是你能完全听懂我的话的情况下。相比之下AI的知识传播效率很高,同一个软件拷贝到不同的硬件里面,以数字的方式能平均、快速地进行知识共享。

我们可以有成千上万的研究团队来改变自己的权重,然后取平均数,那样就能快速转移知识,他们的转移速度可能是每次分享万亿个比特,比人类分享知识要快几十亿倍。



如果有智能体在现实世界中运行,这就更厉害了,因为它能不断加速、不断拷贝、分享权重,而模拟计算做不到这一点。



总之,生物计算虽然便宜,但是分享知识的效率很低,数字计算的知识分享效率很高,但是也更贵。



所有人要联合起来,引导AI向善

几乎所有专家都认为,我们会创造更加智能的AI。我们习惯性认为自己是最智能的生物,但想象一下,如果AI比人类更智能会怎么样?



我们创造可以帮助自己完成任务的智能体,他们有能力进行拷贝、可以给自己的字母表进行评级,那么他们会想做两件事情:

所以一些智能体想要生存、想要更多的控制权。



我觉得我们不能只是悲观了事。这就像我们操纵3岁小孩是很容易的,但不能当它变得聪明,我们就把它关闭。这也是为什么AI会操纵人类不要把他们关掉。

所以我觉得,我们的现状就像是有个人把老虎当宠物,现在养了一个可爱的小虎崽。



如果一直养着这个宠物,就要确保它长大后不会伤害你。一般来说,把老虎当宠物养都不是一个好想法。

养老虎通常只有两种结果,一种是把它训练好、让它不来伤害你,另一种是把它干掉。

但是我们已经没有办法消灭AI了,AI是非常好的,它在很多领域都做得很好,比如医疗、教育、气候、新材料等,它在这些任务上都表现得很好,几乎能让所有行业变得更有效率。

现在即便有一个国家想要消除AI,其他国家也不会这么做,所以这不是一个选项。

这意味着,人类如果想要生存,必须找到一个办法来训练AI,让它不要消灭人类。

我发表一下个人的观点,我认为各个国家应该在一些方面进行合作,比如网络攻击、致命自主武器、用于操纵公众意见的虚假视频,这样可以防止一些人来制造病毒。



以及我们现在需要进行国际合作,每个国家都希望人类能够掌控世界,而不是AI。如果一个国家能找到办法来预防AI操纵世界,那么这个国家也很乐意去告知其他国家如何做。所以我们希望会有一个AI安全机构,能够研究、培训AI如何更聪明、更向善。

我还有一个问题,全球或者是AI能力突出的国家应该思考一下,怎么让AI来不要想消灭人类、不要想统治世界,而是乐意做辅助工作,尽管它比人类更聪明。

现在我们还不知道该如何做这件事,这也是从长期来说人类面临的最重要的问题,在这个问题上,所有的国家都是可以一起合作的,谢谢!



Top

1、大方公开!中兵集团官方宣传片展示全套无人作战体系,激光反无人机装备一同亮相!

2、“假发大王”瑞贝卡“摊上事了”,被立案股民可预报名挽损

3、“智汇北疆·共赢未来”建设黑河国际文旅大通道交流会启幕共拓市场、共享机遇。

小编推荐

当前文章:http://www.share.wxw59.cn/RSB/detail/rnoopy.html

相关阅读

网友评论

我要评论

发表
取消

北龙渊