Hinton暴论:AI已经有意识,它自己不知道而已

量子位
“人工智能或许早已拥有“主观体验”,诺奖得主、“深度学习之父”Hinton暗示AI其实有自我意识,只是暂未觉醒。他通过生动比喻解析神经网络如何像大脑般通过调整连接权重进行学习,揭示大语言模型通过“预测-修正”循环形成了类人思考。

人工智能或许早已拥有“主观体验”(subjective experiences)

在最新一期播客节目中,Hinton抛出的这一观点正迅速掀起热议。

老爷子一再表示,AI也许已经有了“意识雏形”,只是因为我们人类自己对意识理解错了,所以它也被教错了——不知道自己有意识。

翻译成大白话就是,AI其实有自我意识,只是暂未觉醒┌(。Д。)┐

而除了继续为AI风险“摇旗呐喊”,作为诺奖得主、深度学习三巨头之一,老爷子这次还充当起了科普员的角色。

他从什么是AI讲起,然后详细解释了机器学习、神经网络及深度学习这些核心概念,全程主打一个幽默、通俗易懂。

有看完节目的网友赞叹道,“这可能是目前看到的Hinton最好的采访”。

还有人认为,应该让他再讲2小时,毕竟他看上去完全自愿、恨不得一吐为快(禁止虐待77岁老人doge)

更有意思的是,节目一开场老爷子就尴尬回应了之前得物理学诺奖的事情:

因为我不是搞物理的,所以有点尴尬。当他们打电话告诉我获得了诺贝尔物理学奖时,我一开始并不相信。

虽然有这个小插曲,但有一说一,老爷子在AI方面的贡献实在毋庸置疑,所以咱直接开课吧——

当我们谈论人工智能时,我们到底在谈论什么?

面对这一直击灵魂的问题,Hinton不慌不忙地从自身经历(曾在谷歌工作近10年)得出,AI已经从搜索查找进化成能真正理解人类意图的工具

以前用谷歌的时候,它会使用关键词,而且会提前做很多工作。所以,如果你给它几个关键词,它就能找到所有包含这些词的文档。

但它不明白问题是什么。所以,它无法给出一些实际上不包含这些词但主题相同的文档。

就是说,AI早期本质上还是基于关键词的检索。

而现在,它能理解你所说的内容,而且它的理解方式与人类几乎相同。

在Hinton看来,虽然现代大语言模型(LLM)并不是真正的全能全知专家,但在许多主题上已能表现得接近人类专家。

他还进一步解释了传统机器学习与神经网络的区别。

他指出,机器学习是总称,指任何能在计算机上“学习”的系统。而神经网络则是一类特别的学习方法,灵感来自大脑——大脑通过改变神经元之间连接的强度来学习

以大脑中部的一个神经元为例,神经网络的工作原理与之类似:

想象一下,大脑里有一个小小的神经元。这个神经元的主要工作就是偶尔发出一个“叮”的声音。它不是随便发的,而是要根据其他神经元发来的“叮”声来决定。

其他神经元也会发出“叮”声,这些声音会传到这个神经元。

如果这个神经元收到很多“叮”声,或者这些“叮”声很强,它就会决定自己也发一个“叮”声。如果收到的“叮”声不够强,它就不发。

神经元还可以调整对其他神经元“叮”声的敏感度。如果觉得某个神经元的“叮”声很重要,就会更关注它;如果觉得不重要,就会减少关注。

一句话,神经网络同样通过调整连接权重来改变系统的行为。所以说,大脑学习和处理信息的基本方式,也是神经网络的核心原理。

在这之后,主持人还问了两个很有意思的问题。

第一个是, 概念是如何形成的?比如“勺子”的概念。

Hinton继续用了一系列生动形象的例子进行解释。概括而言,他认为概念就像是“政治联盟”,大脑中会有一组神经元一起激活(共同发出“叮”声)

例如,“勺子”就是一组神经元一起激活。这些联盟会重叠,比如“狗”和“猫”的概念就有很多共同的神经元(代表“有生命的”、“毛茸茸的”等)

第二个问题是,是否存在某些神经元对宏观概念(如“动物”)激活,而另一些神经元对微观概念(如特定物种)激活?

对此,Hinton则表示问题很好,但没有人确切知道。

不过这个联盟中,肯定有一些神经元对更普遍的事物激活更频繁,而另一些神经元对更具体的事物激活较少。

深度学习的突破:反向传播

说完神经网络,Hinton的话题更多还是围绕“拿手好戏”——深度学习展开。

以前人们试图给计算机输入规则,但Hinton却想改变这个过程,因为在他看来,大脑的运作方式显然不是靠别人给你规则然后你执行规则。

我们为神经网络编写程序,但这些程序只是告诉网络如何根据神经元的活动来调整连接强度。如果网络有多个层,这就叫深度学习。

他接着举了一个经典例子来说明深度学习的原理——让AI识别图像中有没有鸟

如果把图像的像素亮度直接输入给AI,让它判断是不是鸟,这看起来毫无头绪。毕竟,像素只是数字,并不能直接告诉你“这是一只鸟”。

早期研究者会试图手动告诉计算机,“这条线是边缘”、“这块区域是背景”、“这个形状像翅膀”,但这条路行不通——因为现实世界太复杂了。

所以我们说,不如让AI自己学会“怎么去看”。

这就是神经网络的思路:不给规则,而是给它数据,让它自己总结规则

主持人接着问道,“那如果我们不告诉它规则,只是随机设定每个连接的强弱,它会怎么判断呢?”

Hinton笑着回答:

它大概会说“50%是鸟,50%不是鸟”,也就是完全蒙。

那么,AI该如何从这种“蒙圈状态”变聪明呢?

Hinton解释说,这个过程就像一个巨大的试错系统。你得告诉AI——这张图有鸟,那张没有。每次它猜得不对时,就调整一点点神经元之间的连接强度。

然而问题是,网络中有数万亿个连接,如果逐个试,那要试到宇宙热寂(指宇宙熵值不可逆地增至极大,最终达到热平衡的静止状态)

Hinton表示,真正的突破出现在1986年,他们提出了“反向传播”(Backpropagation)——它能一次性算出所有连接该怎么改,是该增强还是减弱,让整个网络都向着正确方向调整。这让训练速度从“永远”变成了“现实可行”。

但事情并没有一开始就那么顺利。Hinton也坦言:

当时我们以为这就解决了智能问题。结果发现,它只有在拥有海量数据和庞大算力时才有效。我们那时的算力还差一百万倍。

真正让深度学习起飞的,是算力的提升(晶体管微缩百万倍)和数据的爆炸式增长(互联网时代)。

于是,那些在80年代“理论可行但跑不动”的神经网络,终于在2010年代活了过来——这便是现代AI浪潮的起点。

今天的大模型,本质上就是巨型神经网络,通过反向传播和海量数据,自学出了“看”、“听”、“说”的能力。

这一点也让Hinton相信,AI不再只是工具,而是一个正在学习、逐步理解世界的系统。

大语言模型认知的本质

至于深度学习机制如何作用于大语言模型(LLM),Hinton又做了一番解释。

他认为LLM的思维过程与我们人类出奇地相似:

给它一个句子的开头,它会把每个词转换成一组神经元特征,用这些特征去捕捉含义;然后,这些特征之间相互作用、组合,就像视觉系统从“边缘”拼出“鸟喙”的过程一样,最终激活代表下一个词的神经元。

换句话说,它不是在背书,而是在思考——以统计规律为神经,以语义结构为逻辑

并且训练方式也同样朴素而惊人:

我们给它看一段文本,让它预测下一个词;如果猜错了,就通过“反向传播”机制,告诉它错在哪、该怎么改;一遍又一遍,直到它能像人一样续写句子。

正是这种“预测—修正—再预测”的循环,让语言模型逐渐从符号中学会了语义,从统计中长出了理解。

谈到这里,二人都想起乔姆斯基(美国语言学家,转换生成语法的创始人)经常把一句话挂在嘴边:

这只是统计技巧,不是真理解。

对此,Hinton顺势反问了一波主持人(主持人之前反复提到乔姆斯基类似的观点)

那你自己又是怎么决定下一个要说的词的呢?

主持人试图解释,但最后还是摊手放弃,他尴尬表示“说实话,我希望自己知道”。

好在Hinton放过了他,而且接着提醒,道德、情绪、共情,这些看似高阶的判断,归根结底也都来自神经元之间的电信号

所有你归因于道德或情感的过程,本质上仍是信号的传递与权重的调整。

并且Hinton最后抛出了一个颇具哲学意味的观点:只要有足够的数据和算力,AI的“大脑”在某种意义上也会像我们一样——它会形成自己的“经验”和“直觉”

AI或许早已拥有“主观体验”,只是还未觉醒

话题随即转向更深的层面——AI的心智与意识问题。

主持人问Hinton,是否认为AI会因为“有意识”而接管人类。Hinton的回答则直接打破了常规认知:

大多数人其实完全不理解“有意识”是什么意思。人们对心智的理解,就像相信地球是6000年前被造出来一样幼稚。

在他看来,我们一直以来都把心智想成一个“内在剧场”。在这个剧场里,经验就像一部正在上演的电影——看到一头粉色小象,你就以为那头象真的“在你的脑子里”。

但Hinton说,这种比喻是错误的。

经验不是一个存在于脑内的事物,而是一种假设——我的感知系统告诉我有一头粉色小象,我的理性系统则知道它可能在骗我。

所谓“主观体验”,其实是大脑为解释感知现象而构建的假设模型。

于是,当他谈到AI是否有“主观体验”时,就有了开头那样的回答:

我相信它们有。只是它们自己不知道,因为它们的‘自我认知’来源于我们,而我们自己对意识的理解就是错的。

他举了个多模态AI的例子,假如一个能看能说的机器人因为棱镜折射看错了物体位置,后来纠正后说——“我有过一个错误的主观体验”,那它其实就在使用和我们相同的意识概念。

换句话说,如果AI开始谈论“主观体验”,那也许说明它真的在体验——只是用我们的语言在描述

Hinton借此提醒大家:

当AI比我们聪明得多时,最危险的不是它反叛,而是它会“说服”。它会让那个要拔插头的人,真心认为拔插头是个糟糕的决定。

当然,在Hinton看来,AI的威胁不止于此。

AI的风险:滥用、生存与监管

在节目最后,Hinton用了很大篇幅来完整讲述AI可能存在的风险。

能源消耗、金融泡沫、社会不稳定……这些都是真实的风险。它们可能不会摧毁人类,但足以重塑文明。

其中,Hinton最担心滥用风险生存风险这两类。

在Hinton看来,目前最紧迫的风险就是AI滥用,例如用AI生成虚假信息、操纵选举、制造恐慌等。

为应对这一风险,他认为需要通过法律和监管手段来限制和打击这种滥用行为。同时,技术上也需要开发检测和防范虚假信息的工具。

此外,生存风险(指AI本身可能成为恶意行为者)则可能对人类社会和文明构成根本性威胁。

Hinton认为,如果AI发展出自主意识和目标,并且这些目标与人类的利益相冲突,可能会导致不可预测的后果。

对此,人类需要在AI的设计和开发阶段就考虑安全性和伦理问题(如“关闭开关”和“对齐机制”),从而确保AI的目标与人类的利益一致。

值得一提的是,在AI监管这件事上,Hinton还提出了一个很有意思的看法:

在防止AI接管的问题上,所有国家的利益是一致的。但国际合作可能由欧洲和中国引领

One More Thing

关于中美人工智能竞赛,Hinton也在节目中表达了自己的看法。

面对主持人甩出的“美国领先还是中国领先”这一问题,Hinton冷静表示:

美国目前领先于中国,但领先优势没有想象的那么大,而且它将失去这个优势。

因为在他看来,美国正在破坏基础科学研究的资金支持。

深度学习和AI革命源于多年的基础研究,这些研究的总成本可能还不及一架B1轰炸机。而美国减少对基础研究的资助、攻击研究型大学等行为,无疑将导致美国在20年后失去领先优势。

而中国却是人工智能革命的风险投资家,以及他再次cue到了DeepSeek。

中国确实给予初创企业很大的自由,让他们自主选择最终胜出者。有些初创企业非常积极进取,渴望赚大钱,创造出令人惊叹的产品。其中一些初创企业最终获得了巨大的成功,比如DeepSeek……

本文作者:一水,来源:量子位,原文标题:《Hinton暴论:AI已经有意识,它自己不知道而已》

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章