“AI春晚”智源大会首日:最重要的公司们谈论最关键的AI话题

李开复对话张亚勤,百川智能 CEO 王小川、智谱 AI CEO 张鹏、月之暗面 CEO 杨植麟、面壁智能 CEO 李大海展开探讨。

一年一度的中国“AI春晚”智源大会于昨日启幕,成为本周最受关注的AI盛事。

大会首日,多位大模型大佬亮相。零一万物李开复与清华大学智能产业研究院的院长张亚勤炉边对话,百川智能 CEO 王小川、智谱 AI CEO 张鹏、月之暗面 CEO 杨植麟、面壁智能 CEO 李大海等关键人物就目前AI界最关键的问题开启了一场大型探讨会。

【以下为华尔街见闻整理的要点】

关于Scaling Law:一段时间内仍然有效

李开复:应该用压缩的理念去评估。大模型的智慧来自于接近无损的压缩,这点非常重要。上世代的人工智能从业者很难想到今天会把压缩和智能连接在一起。因为Scaling Law过程中不能盲目堆更多的GPU,所以需要有一个方法评估我们有没有越做越好或者哪个方法做得更好。零一万物内部有严谨的方法论,用压缩的理念去评估,让以往漫无目的“炼丹”训模过程变得更系统也更有科学和数学根据。

张亚勤:5年内仍是主要方向。规模定律的实现,主要得益于对海量数据的利用以及算力的显著提升。再加上现在的Diffusion和Transformer架构能够高效地利用算力和数据,使得“飞轮效应”得以正循环。尽管有人质疑Scaling Law在2到3年后是否仍然有效,但我个人认为至少在未来5年里,它仍将是产业发展的主要方向。

杨植麟:scaling law没有本质问题。未来3到4个数量级的提升是非常确定的,关键是如何高效地扩大规模,以及应该扩展什么。如果只是继续使用当前的方法和数据,可能无法解决推理能力等问题。所以我们需要重新定义scaling law。只要有更多的算力和数据,模型参数变大,智能会持续增加,但这不一定局限于当前的方法。比如,模型可以有不同的模态、数据和loss function。所以他认为scaling law会持续演进,只是扩展的方法会发生变化。

王小川:scaling law目前没有看到边界,它会持续发挥作用。比如,Elon Musk计划购买30万片B200芯片,这表明美国在这方面的投入和认真程度远高于中国。因此,我们在scaling law之外还需要寻找新的范式转化,不仅是简单的预测token和压缩模式。只有走出这样的体系,才能有机会走向AGI,并与最前沿的技术较量。

张鹏:目前为止,人类认识的所有规律都有可能被推翻。只是看它的有效期有多长。到目前为止,我们还没有看到scaling law失效的预兆,所以在未来相当一段时间内,它仍然会有效。

李大海:扩展法则是一种经验公式,是行业对大模型这个复杂系统的观察和总结。随着实验的增多,我们对模型训练过程的认知越来越清晰,细节也会越来越多。训练方法本身对扩展法则的影响也很显著。一旦我们固定了参数规模,数据质量和训练方法的重要性就会显现出来。

关于AGI的定义和标准

李开复:AGI的定义是因人而异的。如果把AGI定义为能做人所能做的一切事情,那么我今天没有办法定义,因为它还有太多未知的东西还没有被解。但是这种定义只把人当作金标准,似乎就是问车什么时候能跟人跑的一样快,但是车在很多场景已经比人跑得快很多了,只是有些场景没法胜任。我个人会说:只要Scaling Law继续,只要AI一年比一年更聪明,它会多做比如5倍的事情,IQ会提升20个点。

在虚拟世界里,Agent还是非常重要的,因为人的Intelligence不只是回答问题,是要知道“怎么把事情做出来”。而且如果是谈创造商业价值,Agent帮你把东西买了,帮你把事情解决了,这个是有很大的商业价值,也是贴近AGI的重要一步。

张亚勤:我刚才讲的20年实现AGI,不包括拥有意识或情感。我对AGI的定义有三点,第一是要有巨大的能力,要能在大部分的任务要比人类强,而不是所有任务均超越人类。第二,它是必须要是通用的,过去每个任务都要用不同的模型,但是AGI是要有一个通用的大底座,当然可以有小的垂直模型,但它本身具有通用性。第三是不断升级、学习、进化,就像人类一样。我不认为现在的Scaling Law,或者我们现在做的研究会让AI产生意识,并且我也不认为我们应该从事这方面的研究。  

杨植麟:首先,AGI的定义是重要的,但并不一定现在需要精确的、有量化的定义,它可能是一个定性的、感性的东西,它最重要的作用是能让这个社会或者所有人能够对接下来要发生什么事情有一个准备。因为也许这个技术节奏非常快,我们如果能够知道AGI是什么样的,如果能够定义,可以更好的准备这件事情,不管是每个人职业,还是接下来这个行业怎么发展,首先这个是重要的。

第二个,也一定程度上在短期内需要一些量化,因为如果没有完全量化,没有办法衡量AGI开发进度是什么样的,所以短期来说这个是很难的问题,也是很大的挑战。

王小川: AGI的定义,在全球里很难有完整的共识。 之前我们谈AGI,一种理解是把它当成工具来看,我认为这次AGI的第一个变化是它开始有思考能力、学习能力、沟通能力、共情能力,甚至多模态图片处理能力。从它的学习范式要求里,我反而觉得我们就是像在看人一样看它的,一种做法是跟人差异化看。

李大海:我会尝试从经济学的角度来定义AGI。从经济学的角度讲,如果我们去执行任何一个任务,边际成本都为零,这就是我们理想中的AGI。回到我刚才说的,为什么我认为大模型能够走得最远,就是我相信大模型能够把边际成本一直往下降,可能会逼近于零。就像植麟刚才讲的,很多时候需要我们在各行各业的数据产生一个飞轮,逐步让模型持续训练、持续学习,让整体的成本降下去。

张鹏:在我们看AGI这件事,要说它有一个很严格定义的定义,还是另外的什么东西,其实我更愿意相信它是我们的一种信念,是一个符号,它的内涵外延是在不断变化的。刚才提到的早期定义AI的时候,怎么来检测系统是否是AI系统,图灵测试。现在大家已经觉得这个过时了,就是因为随着我们对技术的不断演进,对事情的认知越来越多、越来越深,本质在同样的三个字母所代表的含义是不断在变化,是个动态的刚才。刚才杨植麟也讲,它是一个balance的事情,如果你能把一个事情说得非常量化、非常清晰,内涵是什么,外延是什么,这件事情也就那样了,估计天花板在哪儿大家都能看得到了。现在的问题就在于,没有人能够说清楚。反过来讲是一个好事,这个事情还有很多未知空间等待我们探索。

AGI对于我们来说,可以把它定义成我们的目标。我们一直相信,当前我们的目标是以人为参照,让机器像人一样思考。这是我们的愿景。当然,机器的能力远不止人的水平,我们期待它可以出现超越人的能力,所以AGI里边我们会提到有super intelligence。下一步它是否能产生超过人的水平,我们会不断更新AGI的内涵和外延。

关于大模型价格战:对行业很好

杨植麟:如果我们把时间线拉足够长的话,最终还是会回归价值本身。我自己有三个判断。第一,在某个时间点之后应该可以显著超过训练的算力。我觉得这个标志价值开始得到释放,用来训练的成本是可以很大程度上被覆盖。第二,如果从C端的角度来说,推理成本可能会显著低于获客成本,所以从商业本质上来讲,可能不会跟之前的各种商业模式有非常本质的区别。我觉得这两个是很重要的。第三,AI本身做的事情,可能会在某个时间点超过人做的事情。这个时候,它就可能会产生新的商业模式,它可能不是像今天说的在B端用API做价格战,可能是一个普惠的AI,同时根据它产生的价值从这里面去分成产生的商业模式。

这三个点,可能会是改变商业模式本身或者ROI这个问题很重要的方式。

王小川:我先说结论,今天的价格战对中国发展大模型是非常特别的事。我是积极看待这个事情。

首先,好不好,得看对单个公司还是对一个群体整个市场。因为价格战通常是个市场行为,是个竞争的导向,至少带来两个好的后果:第一个,更多公司、更多人用上大模型了,很多企业之前是不懂这个的,很多公司开始免费用POC,使得大模型在中国有个迅速的普及。不管是个人还是企业就入场了,这对市场是第一个好处。第二个,之前还有很多浪费,因为大家恐慌的时候不知道大模型为何物。我观察到,很多企业但凡有点技术能力都要自己训点大模型,甚至来找我们怎么联合训练。明明它该是大模型的用户、消费者、大模型的使用方,但都想转型成为大模型的供给方。我到这个行业做大模型,一个企业变成所谓的行业。这种情况下,带来很多人才、资金和社会的浪费。有了价格战之后,很多企业开始清醒了,我干嘛非得做,我到底在干嘛,我的竞争优势在什么地方,它就退回来成为大模型的用户,这个浪费也会减少很多。既能带来启蒙,也能带来对社会资源减少消耗。更多的企业在里面能够有自己的定位,把自己做好。我们不需要一千、一万个大模型。在没有价格战的时候,中国可能真的是上百、上千个大模型在进行,市场的分层就能做好,每家都能受益,竞争力就能起来。

张鹏: 我们一直秉持的概念就是ROI,给用户带来最大的收益价值,用我们的技术、用我们的创新降低使用成本,就是为了让技术能够更多的普及,让更多人能够享受这个收益。我们当时推出的,在很长一段时间,我们的价格都是行业内极低的。因为我们的技术确实能做到那一步,能把中间的成本空间释放出来当作大家的收益,帮助大家把ROI算出一个大于一的数字。

这件事情对整体是有好处的,但是也要注意,不要过多地关注这件事情,过多的宣扬这件事情。商业上,你去牺牲企业短期的成本,亏本做买卖不是正常的商业逻辑,只能持续很短的时间,真正还是要回归最终的用户价值、生产力价值。

大海:会继续有价格战,但也需要有利润。当前所谓的价格战,多多少少有一些营销的成分在,但是我相信未来一定会比现在还要比,并且大家都有利润,这才是健康的方式,并且才真的能让千行百业的应用往下落地。

关于AI落地路径:To C短期更快

张亚勤:具身智能To B可能会比To C更快落地

在应用和服务层面,先面向消费者(To C)再面向企业(To B)。To B的周期相对较长,而To C的应用产品则可以迅速推出,这与过去的PC互联网和移动互联网的发展路径基本一致。在基础设施层,目前真正盈利的主要集中在To B领域,特别是在芯片、硬件、服务器等。像英伟达、AMD等芯片制造商,以及服务器、HBM存储、InfiniBand和NVLink等相关技术的提供商,他们目前是盈利最多的。

关于AI路径,我在过去十年中一直强调三个关键领域:首先是信息智能,其次是物理智能(现在流行的术语是具身智能),最后是生物智能。在具身智能阶段,To B的应用可能会比To C更快落地。然而,在生物智能阶段,情况可能相反,To C的应用可能会先于To B出现。尽管每个领域的具体情况可能有所不同,但总体来看,无论是To C还是To B,都将存在开源模型、商业闭源模型、基础大模型,以及针对垂直行业模型和边缘模型。

李开复:中国To C 短期更有机会,具身智能路途遥远

简单来说,在中国To C 短期更有机会,国外两者都有机会。To C方面,就像移动互联网、PC时代里,一个新技术、新平台带来新应用,大模型同样如此,这是巨大的机会,但是这些应用的出现一定是按部就班的。

零一万物坚决做To C,不做赔钱的To B,而是做能赚钱的To B。所以零一万物在To B方面精挑细选,找那种公司上下都愿意拥抱新概念的公司,也为它们设计了 RAG 知识检索、专有云、微调等方案,在国内国外都有尝试。

无论To C还是To B,API都很重要,最近国内很多模型降价了,零一万物也推出了接入国际SOTA成绩Yi-Large大模型的API,也希望有机会可以跟各位合作。这个API背后的模型能力接近GPT-4o,但是价格是GPT-4的四分之一,我相信这可以帮助更多公司或者创业者达到所谓的TC-PMF。

大模型是非常适合虚拟世界的,在金融公司的后台、客服等等场景,大模型很快就可以落地产生价值。如果你的需求是软件,直接对接大模型就好了。一旦大模型接入物理世界,就需要面临各种问题,有安全问题、机器问题、机械问题、故障问题等等,难度会大很多倍。

从创业者的角度来说,虽然现在具身智能一时比较热,有一些创业者涌入了,但是对于大部分创业者来说,如果希望短期落地产生价值、能赚钱,肯定还是做虚拟世界要远远容易很多。具身智能是重要的,它可以很好地结合大模型多模态能力,而且一旦具身后就可以产生数据,形成数据飞轮闭环,有很大的想象空间。但是短期要做好,难度很大。

具身智能肯定要走很漫长的道路,而且对于人形机器人我有一些特别的看法。绝大多数应用场景并不需要人形机器人,炒菜机器人应该长得像锅,吸尘器也长得并不像人,没有必要。像是波士顿动力那种很酷的、跳来跳去的机器人,真的会有很多应用场景吗?绝大多数场景几个轮子不是更容易移动吗?很多科学家和创业者都是从小热爱科技,希望能复制一个人,这无可厚非。但是如果你很简单地问VC,VC给出的恐怕是更务实更理性的判断。

关于开源:带来正收益

李大海:开源力量很强大,这里面是多层次的,不光有做原创工作的人,还有很参与者在里面贡献需求、贡献反馈,这也是开源生态重要组成部分。让我们觉得持续做开源贡献能够给公司带来正向收益。

王小川:开源有需求,也会形成很好的影响力,同时,并不会影响竞争力。因为在模型生态里,可能今天是最好的,明天就是一个不够好的模型了,所以我们从商业竞争里也没什么大的损失。因此,这是一件既有贡献,又没有降低我们竞争力的事情,我们就毅然决然做了这样一个决定,符合市场预期,也给公司带来了声誉,这个事情是做得蛮成功、挺对的一件事情。今天有各种公司在里面做各种各样的开源,使得中国的生态在追赶美国、在保护知识产权里共同做这个贡献,我也希望这个生态能够大家越做越好。

【以下为李开复对话张亚勤实录】

黄铁军:我先提问,近期关于大模型的讨论特别热门,从刚才的报告大家也感受到了大模型的能量以及其在各领域的应用潜力,可以说大模型是至今为止人工智能发展最成功的一个技术方向。想请问两位,是什么原因使得大模型如此成功?还有哪些欠缺的地方需要进一步发展?开复老师先。

李开复: AI 2.0是有史以来最伟大的科技革命和平台革命,大模型Scaling Law 的重要性在这个时代得以凸显——人类能够用更多计算和数据不断增加大模型的智慧,这条被多方验证的路径还在推进中,还远没有触达天花板,这点也让大家非常振奋。

第二,大模型的智慧来自于接近无损的压缩,这点也非常重要。上世代的人工智能从业者很难想到今天会把压缩和智能连接在一起。因为Scaling Law过程中不能盲目堆更多的GPU,所以需要有一个方法评估我们有没有越做越好或者哪个方法做得更好。零一万物内部有严谨的方法论,用压缩的理念去评估,让以往漫无目的“炼丹”训模过程变得更系统也更有科学和数学根据。

大模型正面临着一些挑战。比方说,如果“仅仅用更多算力就能把它往前推动”是主要方向的话,就会导致只有那些GPU资源丰富的公司和国家能够在这方面胜出。但话说回来,我们已经验证了,很多国内大模型在部分案例里接近或者打平、或者偶尔超过美国的大模型。所以我认为需要专注的是算法和工程创新一体化的推进,以及怎么以这种能力避免进入“盲目堆算力推动模型性能提升”的状态。

当然,目前大模型还直面许多挑战。就像每个技术刚诞生都会有问题,起初大模型也不知道最近一年发生了什么。还有记忆的问题、窗口构成的问题、幻觉问题等等,但我们可以看到的是,当全球如此多聪明的大脑涌入这个领域后,大部分问题不能说被完美地解决,但是都在逐步被攻克的过程中,所以我对大模型的未来相当乐观。

张亚勤:我讲“三个做对了”的和“三个需要改进”的 。

一、三个做对了

首先,规模定律Scaling Law。规模定律的实现,主要得益于对海量数据的利用以及算力的显著提升。再加上现在的Diffusion和Transformer架构能够高效地利用算力和数据,使得“飞轮效应”得以正循环。尽管有人质疑Scaling Law在2到3年后是否仍然有效,但我个人认为至少在未来5年里,它仍将是产业发展的主要方向。

其次是“Token-Based”统一表述方式。在大模型中,“Token”是一个基本元素。无论是文本、语音、图像、视频,还是自动驾驶中的激光雷达信号,甚至是生物领域的蛋白质和细胞,最终都可以抽象为一个Token。Token之间的训练、学习和生成是核心环节,这与我们大脑中的神经元工作原理相似,无论执行何种任务,其基础机制都是相同的。

最后是通用性。这与Token紧密相关。现在的通用性不仅体现在文本处理上,还扩展到了多模态领域,甚至可以生成如蛋白质等复杂结构。此外,它在物理世界(如具身智能)和生物世界(如生物智能)中也有着广泛的应用前景。

以上这三个是大模型做对的。

二、现阶段主要问题

第一个,效率较低。特别是大模型的计算效率低下问题,与人类大脑的高效性形成了鲜明的对比。人类大脑拥有860亿个神经元,每个神经元又有数千个突触连接,却只需要20瓦的能量,重量还不到三斤;而GPT4这个万亿参数模型则需要巨大的算力和能源,与人脑相比相差1,000倍之多。此外,人脑能够根据不同的情境灵活调用不同区域的神经元,而大模型却每次输入一个问题都要调用和激活几乎大量参数。因此,如何借鉴人类大脑的计算方法,在降低计算耗能、提高效率方面进行探索和创新,是一个值得关注的方向。

第二个,大模型目前还未能真正理解物理世界,相关的推理能力、透明性以及开复刚才提到的幻觉等问题都还在深入研究中。有一个重要的问题是,即使我们的大模型做得再好,它在生成式表述与对真实世界的描绘之间仍存在矛盾。因此,我们需要探索如何将生成式的概率大模型与现有的“第一性原理”或真实模型、知识图谱相结合。目前,虽然已经有了一些尝试,如采用RAG技术或进行微调,并取得了一定的进展,但我认为这些方法并非根本解决方案。我预测,在未来五年内,将会有一个全新的架构出现,这个架构有望取代目前的Transformer和Diffusion模型。

第三个欠缺的地方是边界问题。现在大模型无法知道“我不知道什么”,这是目前要解决的问题,是它的边界效应。

黄铁军:谢谢亚勤的“三个做对了”和“三个不足”。

刚才开复老师没讲,我想再追加问一下,有些人认为大模型是一个实践、是一个工程,是经验主义做的东西,没有理论基础,说得不好听叫“不靠谱”,不知道你怎么看这个问题?

李开复:我觉得科学和工程缺一不可。如果只做工程,不了解“第一性原理”,没有数学的根据、没有办法评估不同方法的效果,考虑到高昂的算力成本,这样的摸索肯定是做不出一个好模型的。但是如果只是在实验室里雕花,然后写一些不错的论文,期待有工程人才把论文做成产品,这肯定也是不行的。

零一万物的经验是,每个做AI、做模型的Researcher要懂Infrastructure、都要懂推理、都要知道成本的问题,所以当你需要面对科研问题时,就知道在产品里需要的反应速度有多快,要怎么实现,做完实验就可以确保模型可以得到令人满意的工程结果。训练模型的过程中绝对不只是写Paper,还要同时考虑怎样系统化、工程化地做数据工程,因为数据的训练、数据的筛选是非常重要的。还有底层的AI Infrastructure,GPU这么昂贵,如果把一张当成两张、三张使用,任何公司都会得到好处,所以科技和工程这两方面缺一不可。

黄铁军:谢谢。大家关心AI2.0,大模型产业化最大的场景在哪里?移动互联网这么多年,To B、To C ,这两个大赛道哪个更有机会?为什么?

李开复:简单来说,在中国To C 短期更有机会,国外两者都有机会。To C方面,就像移动互联网、PC时代里,一个新技术、新平台带来新应用,大模型同样如此,这是巨大的机会,但是这些应用的出现一定是按部就班的。

我认为AI 2.0 时代会和PC、移动互联网时代一样,第一个阶段应该是生产力工具,包括信息获取;第二个阶段可能会是娱乐、音乐、游戏,第三个阶段可能会是搜索;再下一个阶段可能会是电商;然后可能会有社交、短视频、O2O的应用出现。

一个理由就是刚开始应用要能够赚钱、能够解决问题,所以第一波潮流会是生产力工具,但越往后,难度越高——高用户量的应用商业模式往往是先堆积用户再找变现模式,所以应用成本一定要很低,试错难度很大、所需要的投资也更多。

我认为递进的模式不会有特别大的改变,To C应用会从生产力工具一步步走向短视频类应用。To C确实会产生大量的用户,但这不是说不能用大模型来做产品,只是在普及顺序上会按照这六个阶段进行。

当然,这个过程中也有挑战,在大模型领域做应用跟PC、互联网时代不一样,因为推理成本还太贵。最近零一万物提出了TC-PMF概念(技术成本✖️产品市场契合度),这个概念是指,当你考虑PMF时,还要把技术的需求、实现难度和成本考虑进去。

做应用一定要考虑到刚才这六个阶段谁先谁后、什么时候做、提早做。第二,做应用的时候还要综合考虑到当时的技术够不够好,成本是否足够低,所以大模型To C应用不像过去移动互联网时代,产品经理一个人就可以做主,它需要做Infrastructure、做推理引擎的人、一起打磨TC-PMF。这件事难度高,但是回报也高,机会也更大。

最后我想讲,在To C方面,我不相信技术可以永久领先,事实上技术带来的领先窗口非常短暂,一旦巨头看到你验证了PMF,他们会有很多方法超越你。一旦你验证了TC-PMF,要把握时间窗口把品牌打出来,最终胜出的To C应用不只是需要有技术优势,还需要在时间窗口内打造持续优势,比如品牌优势,比如社交链,比如用户数据,让用户不能离开你这个平台。在微信强大的时代里抖音能被做出来,就是因为它抓住了这个时间窗口。

再讲一下To B的应用。大模型有可能在To B方向上带来更大价值,而且能够比To C更快实现,但是To B这个领域有几个挑战。

第一个挑战是大公司、传统公司不是很敢采取颠覆式技术,大公司会习惯每年增长5%预算,做和去年一样的事情。

第二个挑战在中国比较严重,许多大公司没有认识到软件的价值,为软件付费意的意识有待进一步提高。现在有许多大模型公司在竞标时越竞越低,做到最后做一单赔一单,都没有利润。我们在AI 1.0时代曾见过这个现象,现在它在AI 2.0时代又重现了。这种心态导致部分大公司只愿支付很低的价格,大模型公司也只能给出折中的方案,达到惊艳效果的寥寥无几。

零一万物坚决做To C,不做赔钱的To B,而是做能赚钱的To B。所以零一万物在To B方面精挑细选,找那种公司上下都愿意拥抱新概念的公司,也为它们设计了 RAG 知识检索、专有云、微调等方案,在国内国外都有尝试。

无论To C还是To B,API都很重要,最近国内很多模型降价了,零一万物也推出了接入国际SOTA成绩Yi-Large大模型的API,也希望有机会可以跟各位合作。这个API背后的模型能力接近GPT-4o,但是价格是GPT-4的四分之一,我相信这可以帮助更多公司或者创业者达到所谓的TC-PMF。

黄铁军:谢谢开复老师对To B、To C的分析,很透彻。亚勤,刚才关于To B的观点,大家还有一个非常关心的问题,大模型产业的最大场景会在哪里?To B、To C在什么地方能够落地发挥作用?

张亚勤:在应用和服务层面,先面向消费者(To C)再面向企业(To B)。To B的周期相对较长,而To C的应用产品则可以迅速推出,这与过去的PC互联网和移动互联网的发展路径基本一致。在基础设施层,目前真正盈利的主要集中在To B领域,特别是在芯片、硬件、服务器等。像英伟达、AMD等芯片制造商,以及服务器、HBM存储、InfiniBand和NVLink等相关技术的提供商,他们目前是盈利最多的。

关于AI路径,我在过去十年中一直强调三个关键领域:首先是信息智能,其次是物理智能(现在流行的术语是具身智能),最后是生物智能。在具身智能阶段,To B的应用可能会比To C更快落地。然而,在生物智能阶段,情况可能相反,To C的应用可能会先于To B出现。尽管每个领域的具体情况可能有所不同,但总体来看,无论是To C还是To B,都将存在开源模型、商业闭源模型、基础大模型,以及针对垂直行业模型和边缘模型。

黄铁军:具身智能今年特别热,关注度特别高。讲到具身,通常像机器人,人形机器人、轮式机器人是一大类,第二大类是车,也是一个驾驶场景上的具身智能。还有无人机,在空中飞将来也是一种形态。甚至于大家可以想象出更多的身体形态,更多的具身智能可能性。我想请问,你们认为,具身智能这么多可能性里面,到底是热门的人形机器人会先有机会,还是已经有相当多积累的自动驾驶会有机会?

张亚勤:从百度阿波罗开始有七年、八年时间我一直在从事无人驾驶研究,无人驾驶L4+是具身智能第一个、最大的应用,也会是第一次实现新图灵测试的应用。无人驾驶它本身就是一个开车的特殊机器人。无人驾驶最近有很多好消息,它的安全性已经比人类驾驶要高至少10倍,不管是Waymo在旧金山的结果,还是百度阿波罗在武汉大范围的商业运营。最早在阿波罗开始的时候我就要求,自动驾驶安全性一定要比人类驾驶高出10倍。

尽管安全性很好,当前无人驾驶仍存在一些挑战,就是它虽然开得安全但不够老练,不够老司机,驾驶太守规矩了,不会超速或压线。无人驾驶要变成主流,要通过新图灵测试的话,需要是好司机,也需要是老司机。我认为无人驾驶在明年会成为第一个真正实现具身智能或者物理智能的AGI。

另外再讲一点,大模型的推出,帮助无人驾驶解决了很多原来的问题。比如长尾问题、数据生成问题,百度已经积累了1亿公里的驾驶数据,1亿公里虽然已经很多但数据仍然不够,生成式人工智能可以生成很多数据。大模型的应用使得无人驾驶系统能够实现端到端的智能化,同时也意味着无人驾驶会有更高的智能性,还将加速其在实际场景中的落地应用。

李开复:我同意亚勤的分析。在创新工场,我们也投了大概6家左右的无人驾驶公司,发展都不错。现在无人驾驶面临的一个巨大机会,就是终于可以落地了。在L2、L3阶段,包含城市自动小巴等等场景,无人驾驶都可以真正创造价值,这是很让人欣慰的。到L4、L5阶段,要无限制地开到开放场景,全球都面临着挑战。我在美国的时候看到了Waymo进展是不错的,依然在往前推进。特斯拉推出的FSD,虽然不是完全的大模型,但是是用了类似end to end(端到端)的概念。至于不用FSD方案能产生多少产业价值,我希望我们投的5、6家公司和亚勤的前公司都能够证明,中国能做得很好,也许这就是很大的市场。

过去这一年我专注于零一万物,我没有做自动驾驶的研究,但是我确定FSD会带来新的机会。把大模型的概念放到无人驾驶里面,这是我非常期待能够在下一阶段看到的事。但是这需要巨大的投资,不见得适合初创公司来做。

讲到具身智能,它跟亚勤说的一样,是物理世界跟AI的结合,这是很重要的。但是我也必须说,大模型是非常适合虚拟世界的,在金融公司的后台、客服等等场景,大模型很快就可以落地产生价值。如果你的需求是软件,直接对接大模型就好了。一旦大模型接入物理世界,就需要面临各种问题,有安全问题、机器问题、机械问题、故障问题等等,难度会大很多倍。

从创业者的角度来说,虽然现在具身智能一时比较热,有一些创业者涌入了,但是对于大部分创业者来说,如果希望短期落地产生价值、能赚钱,肯定还是做虚拟世界要远远容易很多。具身智能是重要的,它可以很好地结合大模型多模态能力,而且一旦具身后就可以产生数据,形成数据飞轮闭环,有很大的想象空间。但是短期要做好,难度很大。

具身智能肯定要走很漫长的道路,而且对于人形机器人我有一些特别的看法。绝大多数应用场景并不需要人形机器人,炒菜机器人应该长得像锅,吸尘器也长得并不像人,没有必要。像是波士顿动力那种很酷的、跳来跳去的机器人,真的会有很多应用场景吗?绝大多数场景几个轮子不是更容易移动吗?很多科学家和创业者都是从小热爱科技,希望能复制一个人,这无可厚非。但是如果你很简单地问VC,VC给出的恐怕是更务实更理性的判断。

张亚勤:我补充一点,最近经常有人问我,通用人工智能到底什么时候可以实现?我比较乐观,我认为15-20年内可以实现,并通过新图灵测试。0至5年内,在信息智能领域,对语言、图像、声音和视频的理解、生成等方面通过新图灵测试。0至10年内,在物理智能领域,实现大模型在物理环境中的理解与操作能力,通过新图灵测试。0至20年内,在生物智能领域,聚焦人体、脑机接口、生物体、制药和生命科学,实现大模型与生物体连结的生物智能,通过图灵测试。要是三年前问我这个问题,我可能会说50年实现AGI,这几年随着大模型的发展,我认为除以2,20年能实现。

黄铁军:这个通用人工智能,包括今天的大模型或者未来几年能实现的,在信息空间里大模型的认知能力通常的评测水平,比如说到了大学、到了博士、到了专家、到了学者,甚至于科学家,这是一个通用性,不管什么学科都可以做,这是一种理解。但是刚才亚勤讲到,有了身体进入物理世界,甚至进入物理世界的具身智能,跟我们今天讲的通用人工智能又有所不同。也就是大家讲的AGI。GAI、具有通用性的人工智能和AI领域说了这么多年的AGI是不一样的。AGI是要超越人类的,AGI是有自我意识的,AGI不仅仅是智能水平超过了人类,而且有自我意识,要有自己的目标、做出自己的判断。你们刚才谈到的是指这样的AGI吗,还是只是说前面一种?

李开复:AGI的定义是因人而异的。如果把AGI定义为能做人所能做的一切事情,那么我今天没有办法定义,因为它还有太多未知的东西还没有被解。但是这种定义只把人当作金标准,似乎就是问车什么时候能跟人跑的一样快,但是车在很多场景已经比人跑得快很多了,只是有些场景没法胜任。我个人会说:只要Scaling Law继续,只要AI一年比一年更聪明,它会多做比如5倍的事情,IQ会提升20个点。

但是,它聪明的方向,能做的事情也许是人从来都不能做的,不见要能做人做的每件事。因为我是做投资和创业的,我想看到的是巨大的商业价值。从这个角度来说,我们不会太纠结是不是能够百分之一百做到人类能做的事。如果世界上有一万件事情,AI在9000件上做得比人好,有1000件人做得比较好,这样也挺好的,要给人留一点空间嘛。

谈到虚拟跟物理世界,我还想再补充一点。在虚拟世界里,Agent还是非常重要的,因为人的Intelligence不只是回答问题,是要知道“怎么把事情做出来”。而且如果是谈创造商业价值,Agent帮你把东西买了,帮你把事情解决了,这个是有很大的商业价值,也是贴近AGI的重要一步。

张亚勤:我刚才讲的20年实现AGI,不包括拥有意识或情感。我对AGI的定义有三点,第一是要有巨大的能力,要能在大部分的任务要比人类强,而不是所有任务均超越人类。第二,它是必须要是通用的,过去每个任务都要用不同的模型,但是AGI是要有一个通用的大底座,当然可以有小的垂直模型,但它本身具有通用性。第三是不断升级、学习、进化,就像人类一样。我不认为现在的Scaling Law,或者我们现在做的研究会让AI产生意识,并且我也不认为我们应该从事这方面的研究。我们还是要解决真正的问题,把人工智能作为我们的工具、我们的延伸、我们的Agent,而不是另外一种物种。

黄铁军:从工程、从应用、从商业、从所有的角度,可能没人想去做一个超越人类的、有自我意识的AGI。但是最近OpenAI发生的事情,从去年年底开始,IIya和Altman的争论观点就是两点:你不想做但是它们可能就要出来了,出来之后我们就面临着失控的巨大风险。你们认为这种风险存在还是不存在?

李开复:我觉得存在的,但概率不会很高。如果我们越来越依赖Reward model完全让AI自己找路径的话,发生的概率或许会增高。当然,当前大模型的训练方法还不至于让大家担忧过度。不管在哪个时代,我认为技术是中性的,每个科技时代有技术带来的“电车难题”,最后人类都用了有效的方法解决了。所以,我对此是持谨慎乐观的态度,短期最担忧是坏人用它去做坏事。中长期看,我仍然建议尝试用“以子之矛攻子之盾”——用更好的技术解决技术带来的挑战,让“AI for Good”,真正造福全人类。

张亚勤:随着AI的能力不断扩大,风险也在不断扩大,所以现在考虑到未来的风险是很重要的。我不担心所谓的AGI会出现意识,会掌控人类。我担心的是如果现在不重视AI的治理,当AGI达到一定的能力并被大规模部署,那么可能会有失控风险。目前AI仍存在可解释性问题,未来机器人数量可能会比人要多,那么当大模型被用到基础物理设施、金融系统,包括国家安全,军事系统等方面,就可能会有失控的风险。因此我主张一定要现在开始把AI治理重视起来。对于技术发展我永远持乐观态度,我认为我们人类有两种智慧,一种是发明技术的智慧,一种是引导技术走向的智慧。我认为我们会达到平衡,但前提是现在要采取行动。

【以下为月之暗面、百川智能、智谱AI、面壁智能四家大模型独角兽会议实录】

王仲远:再次欢迎杨植麟、小川、张鹏、大海来到现场,这一环节是巅峰对话环节,讨论通往AGI之路。

各位是头部大模型公司的CEO,请教各位大模型是否是通往AGI之路的基石?有人说它依然是数据的压缩,对产业界非常有价值,但并不一定能够通往AGI。

杨植麟:我们认为大模型是第一性原理,需要不断提升模型的规模。就像仲远刚刚说的,它确实本质上是一个压缩,但这个压缩可以产生智能,随着不断规模化这个模型,不断做更好的压缩,它能产生越来越多的智能。

当然,这个过程中会有很多挑战,比如最大的挑战是有一些数据并不一定有那么多,在数据没有那么多的领域或者假设你在最后要做出来一个比人类更好的AI,你可能根本不存在这样的数据,因为你现在所有的数据都是人产生的,所以最大的问题是怎么解决这些比较稀缺甚至有一些不存在的数据,但是规模化定律或者大模型本身可能是没有太本质上的问题。

王小川:刚才一直在提大模型通往AGI是否是基石,我认为“基石”这个词是没有问题的。今天我们看到了带来提升,它只是在逼近AGI,今天大家看到了Scaling Law是第一件事。今天还有一件忽略的是把语言放到大模型里,把语言变成数学,我们往前走,语言把这个符号主义跟连接主义之间产生一个突破,除了规模以外,符号(主义)和联结(主义)的融合是中间的一件事情。

再往后走还必须有范式改变,比如大模型靠数据驱动学习能够做压缩。之前像AlphaGo那种自我思考的系统也会有这样的作用。所以我的结论是,一个是我们到了AGI的时代,这个时代里我们能够有足够科学家进来、更多资源进来,能够走向AGI。但是以现在公开大家看到的Scaling Law这个事情是做不到AGI的。

张鹏:要说大模型是不是一个基石,同意小川说的,它肯定是基石,是不是“之一”?这是另外一个问题,这个问题涉及怎么定义AGI。刚才开复和亚勤聊到AGI到底怎么定义,也跟这个定义有关。

站在我们现在看到的角度,我觉得做人工智能这波人挺实用主义的,所谓的实用主义就是咱们“不 看广告,看疗效”,这个东西能不能解决问题,能不能真的向我们每个人心中定义的AGI路径上帮我们推进一步,大模型目前在很有效的推进这件事情,我们的Scaling Law还在有效、还在往前前进。至于它是不是能够帮助我们推到顶峰上去,我们现在找不到一个确切的答案,但是我们相信它在这个阶段是有效的,所以我认为它肯定是基石,至少是基石之一,这个没问题。

李大海:我个人是数学专业毕业的,所以我会比较严谨地去表达,我认为大模型一定是通往AGI这个方向上当前所有技术里能走得最远的,它能不能直接达到,现在还有很多未知因素,包括刚才提到的定义是什么。

我提一个大家没有提到的点,现在的大模型作为知识压缩,主要是在处理人的大脑系统1的工作,这种“慢思考的系统2的做各种各样推理,搜索空间去做搜索、组合,来完成一个任务,这样的能力是未来大模型通过agent技术外部化或者把它内化为自己的能力,这是需要大家去探索的。

仲远:关于AGI的定义,似乎没有广泛的共识。各位心里认为什么叫AGI?

杨植麟:首先,AGI的定义是重要的,但并不一定现在需要精确的、有量化的定义,它可能是一个定性的、感性的东西,它最重要的作用是能让这个社会或者所有人能够对接下来要发生什么事情有一个准备。因为也许这个技术节奏非常快,我们如果能够知道AGI是什么样的,如果能够定义,可以更好的准备这件事情,不管是每个人职业,还是接下来这个行业怎么发展,首先这个是重要的。

第二个,也一定程度上在短期内需要一些量化,因为如果没有完全量化,没有办法衡量AGI开发进度是什么样的,所以短期来说这个是很难的问题,也是很大的挑战。

王仲远:我们需不需要图灵测试?

杨植麟:传统的测试现在不完全适用了,即使它通过了图灵测试,但是还有很多事情是人可以做得非常好,但是AI基本没法做的,现在有大量这样的事情。我觉得这不是一个很容易的问题,你需要对里面评估维度做很多拆分。比如会有不同的能力,知识能力、推理能力、创造能力,评估的方式完全不一样,这是大家很多人在关注的问题,是非常重要的。

王仲远:小川咱们上次在央视对话栏目提到去年是智能纪元的元年,这个智能纪元是对AGI的元年吗?

王小川:大家以前讲图片识别很厉害、无人驾驶很厉害,我特别喜欢你刚才的这个问题,就是什么是AGI的定义,在全球里很难有完整的共识。大家都是学数学的,通过变换,把它从一个空间换成另一个空间来判断。在我看来,我用一个大家可以评测的指标来看,在我心中是接近等价的,是什么?是能不能造医生。为什么出这么奇怪的一个题目?之前我们谈AGI,一种理解是把它当成工具来看,我认为这次AGI的第一个变化是它开始有思考能力、学习能力、沟通能力、共情能力,甚至多模态图片处理能力。从它的学习范式要求里,我反而觉得我们就是像在看人一样看它的,一种做法是跟人差异化看。

但是从我们今天大家共识的评价指标或者学习范式里,就是在向人学习,数据来自人类社会产生的数据,所以我是拿人的职业跟它比较。医生在所有的职业里是智力密度最高的一个行业,既需要多模态,也需要少幻觉,也需要记忆,看70万字的病历,有推理能力、查文献能力等等。所以把医生跟AGI做比较时,做到医生是否就算做到AGI了?这可能有一种声音:医生只是一个Vertical,医生比这个低。人造医生太难了!这里面有太多幻觉问题,有太多推理能力不可靠。如果医生比AGI低,医生造不了,咱们就别谈AGI这件事情。但是如果医生比AGI高,医生只是造人的各个种类中的一种。在我的逻辑里,医生和AGI可以基本划等号。

数学上有个题目,就是自然数和偶数哪个多?我们第一反应是偶数比自然数少,偶数是自然数的子集,数学上应该知道它们是一样多的。因为每个自然数乘以2就是个偶数,它们两个是可以映射的。把自然数的偶数做一个映射,把今天行业上能共识的能力,都可以映射到对于医生的要求里去,因此拿这个作为一个标准。人造医生就是AGI。

王仲远:谢谢小川。大海,你被cue到了。作为数学家,你对AGI怎么去理解?

李大海:我会尝试从经济学的角度来定义AGI。从经济学的角度讲,如果我们去执行任何一个任务,边际成本都为零,这就是我们理想中的AGI。回到我刚才说的,为什么我认为大模型能够走得最远,就是我相信大模型能够把边际成本一直往下降,可能会逼近于零。就像植麟刚才讲的,很多时候需要我们在各行各业的数据产生一个飞轮,逐步让模型持续训练、持续学习,让整体的成本降下去。

我们去年看到行业里面大家去做大模型落地的时候,很多的场景都还需要做微调,这个边际成本就很高。我们相信,随着模型能力的提升,慢慢从微调逐步地只需要做Promot generate,慢慢地连Promot generate都不需要做,模型直接就问你到底有什么需求。如果你讲不清楚,我来问你。通过这种方式,我相信未来的门槛会越来越低,成本会越来越低。低到接近于零的时候,我觉得AGI基本就到来了。

我额外还想补充一个观点。现在大家都在讲怎么把模型做大。刚才小川提到一个关键词,叫“智能密度”。我们觉得大模型的智能密度也是一个非常重要的事情。当有一天达到AGI的时候,还要做的事情是大模型的小型化。如果用一个10万亿的参数模型做到AGI,能不能把10万亿的参数降到1万亿、降到1000亿,这也是一个要持续去突破的事情。

王仲远:其实,面壁智能以及智谱跟智源都有非常深厚的渊源,当年面壁的刘老师以及智谱的唐杰老师,跟智源一起做悟道系列大模型。想请教一下张总,最开始做悟道系列,再到后来智谱系列大模型,最开始有考虑到它可能实现AGI吗?您对AGI是怎么去理解的?

张鹏:在我们看AGI这件事,要说它有一个很严格定义的定义,还是另外的什么东西,其实我更愿意相信它是我们的一种信念,是一个符号,它的内涵外延是在不断变化的。刚才提到的早期定义AI的时候,怎么来检测系统是否是AI系统,图灵测试。现在大家已经觉得这个过时了,就是因为随着我们对技术的不断演进,对事情的认知越来越多、越来越深,本质在同样的三个字母所代表的含义是不断在变化,是个动态的刚才。刚才杨植麟也讲,它是一个balance的事情,如果你能把一个事情说得非常量化、非常清晰,内涵是什么,外延是什么,这件事情也就那样了,估计天花板在哪儿大家都能看得到了。现在的问题就在于,没有人能够说清楚。反过来讲是一个好事,这个事情还有很多未知空间等待我们探索。

AGI对于我们来说,可以把它定义成我们的目标。我们一直相信,当前我们的目标是以人为参照,让机器像人一样思考。这是我们的愿景。当然,机器的能力远不止人的水平,我们期待它可以出现超越人的能力,所以AGI里边我们会提到有super intelligence。下一步它是否能产生超过人的水平,我们会不断更新AGI的内涵和外延。

王仲远:谢谢。植麟也跟智源有非常深厚的渊源,当年也是悟道系列核心的技术骨干,也是智源的青年学者。今天早晨大家反复提到一个词Scaling Law,我不知道植麟对Scaling Law还是特别坚信吗?它会继续在未来这些年起作用吗?

杨植麟:对。就像我刚才说到,Scaling Law没有本质的问题,而且接下来3-4个数量级,我觉得是非常确定的事情。这里面更重要的问题是,你怎么能够很高效地去Skill,你应该Skill什么东西。如果只是像现在搞一堆Web test,搞一堆网页文本,它就不一定是一个对的方向,这里面可能就会遇到很多挑战。比如推理能力,它不一定能够在这个过程中解决。怎么定义Scaling Law?Scaling Law是什么?如果说就沿着当前现在的方法做Next socen protection,再去Skill很多个数量级,用跟现在完全一样的数据去分布,我觉得它的上限是很明显的。但是,Scaling Law本身并不受这个东西的限制,只要有更多的算力,数据模型参数变大,持续产生更多的智能,但是并没有定义模型是什么样的。比如要多少个模态,中间数据是什么样的,数据是生成出来的还是用Web text,也没有规定你的Loss function是什么样的。所以,Scaling Law是会持续演进的,只是在这个过程中要Skill的方法可能会发生很大的变化。像大家一直在讲的世界模型,本质上现在的大语言模型是世界模型的一个特例,只是先把里面一部分给做了,但是还能把更多持续的扩充训练方式,所以我觉得Scaling会持续。

王仲远:谢谢。小川,您对Scaling Law未来几年持续发挥作用怎么看?您觉得在未来几年是否会持续发挥作用?

王小川:我对Scaling Law到目前为止没有看到持续的发挥,美国号称要买30万片B200来做。在这种情况下,美国确实在这方面的认知程度,甚至投入程度是远远高于中国的。在我看来,我们在Scaling Law之外,一定要去寻找范式上新的转化,比如数据算法算力。Scaling Law在里面很明确,在美国跟进的维度。不管从战略上讲还是从信仰上,我认为在Scaling Law之外都还有范式的变化,不只是去简单的变成压缩模式,会走出这样一个体系,才有机会走向AGI,才有机会跟前沿技术产生较量能力。

王仲远:张鹏,您对Scaling Law呢?

张鹏:我刚才在讲AGI的时候已经表达了一些观点。Scaling Law本身这个定义,到目前为止人类认识所有的规律也好、物理定律也好、什么也好,都有可能有推翻的一天,只是看它的有效期是多长。前面加一个定语的话,到目前为止还没有看到Scaling Law会失效的预兆。未来的相当一段时间之内它仍然会有效。当然,所谓的会有效也是一个动态的概念,在于它本身所包含的事情会不断演进。就像小川说的,Scaling Law早期关注的就是参数量规模,现在慢慢扩展到参数量很重要,数据量也很重要,数据质量也很重要,变成了一种计算量。它的内涵也在慢慢变化。随着大家对规律的认知越来越深,规律的本质越来越揭示,所以掌握本质就能掌握通往未来的钥匙。基于现在大家对本质认识的深浅,至少在我们看来,仍然还会起效,会是未来我们主力想要推进的方向。

王仲远:我想追问一个问题。我们现在也看到,像GPT-5,之前传过几次说要发布,但是一直在推迟。张总,咱们自己也在训练大模型,如果我们从追逐GPT-4到要突破GPT-4,到要往GPT-5发展,Scaling Law有突破效应吗?我不知道您怎么看这个问题。

张鹏:因素有很多种,包括传说的4.5和5什么时候发布,这里面的因素非常多。就拿我们自己来说,我们自己也在选择一个道路,不断地去遵循Scaling Law往前前进。举个例子。我们开始做悟道的时候就讨论过一个方案,我们是否去做一个稠密的单体模型,还是去做MOE稀疏的多体模型,这就是当时我们认为,如何去满足Scaling Law或者追寻Scaling Law的不同路径。发展到今天这个地步的时候,你会发现里面维度已经非常多,可以在很多方面去做这个事情。同样,反过来看这个问题,你会发现复杂度又上升了,不是简单地追求参数量上去就行的,难度也变大了。所以我理解,想要实现GPT-5或者再下一代,我们自己想要实现下一代模型,里面的技术可能性、要探索的东西还是非常多的。也是一样的,正反两方面。

王仲远:大海,面壁主要是关注在端侧的大模型,我不知道在轻量级的大模型上,您认为Scaling Law也是有效的吗?

李大海:我认为Scaling Law是非常重要的。我也非常认同张鹏的意见。就是Scalinglaw是一个经验公式,是行业对大模型这样一个复杂系统观察以后的经验总结,随着训练过程中实验越来越多、认知越来越清晰,会有更细颗粒度的认知。

比如我们自己发现,除了前面说的维度之外,训练模型中的训练方法本身对于Scalinglaw、对于智能的影响是比较显著的。这个显著的影响在我们固定住参数规模以后变得非常重要,因为现在参数规模不断往上,它是低垂的扩势,只要扩就可以,先往上放大。但是固定让端侧芯片能够支撑这个规模的模型,能够做到足够好的智能,那数据质量、训练方法这些都变得非常重要。

王仲远:大海,我们最近关注到一个热门新闻是关于开源社区的事情,斯坦福LlaMA这个团队抄袭了咱们的MiniCPM,不知道您对这个事件怎么看?

李大海:最近这个事情在国内引起非常大反响,我们完全没有想到我们的工作会以这种方式出圈,挺惶恐的。

这里澄清一下,我们自己认为这其实是海外个别学生组成的一个小团队做的个人行为,它不代表任何更大的像斯坦福这样的学校。因为事件发生以后,斯坦福系主任和西方同行都表达了价值观非常正的观点。

另外,因为这个事件,我们更加坚定相信开源的力量,这个事件的发现也是靠开源的热心参与者发现的,并不是我们自己发现的。我们是5月20日把这个模型开源出来,到了5月29日时这几个本科生小朋友就做了一些非常简单的工作,在我们的模型上做了一个高斯叠加,叠加一些高斯噪声,就号称是自己的模型。当然,这个模型一下子变得很受欢迎,主要原因是因为他们宣称:这个模型的多模态能力是跟GPT-4v完全对标,但是参数只有后者的1%,并且只需要500美金就能够训练出来。前两项是真的,我们模型确实有这个能力,但是500美金训练不出来,需要花很多钱。

5月29日发生这个事情以后,一天之后社区热心参与者发现了这一事实,然后把这个事情曝光出来,让我们能够尽快知道,去纠正这样的行为。所以我们看到开源力量很强大,这里面是多层次的,不光有做原创工作的人,还有很参与者在里面贡献需求、贡献反馈,这也是开源生态重要组成部分。让我们觉得持续做开源贡献能够给公司带来正向收益。

王仲远:智源非常坚信开源的力量,所以在报告里也向各位报告我们过去一年在开源社区发布的各种模型,我们的下载量非常大。

百川也把Baichuan1、Baichuan2对外开源了,百川把花了不少钱训练的大模型对外开源的考量是什么?

王小川:第一个,开源在市场上有这个需求,我们9月份开了第二版,6月份开了第一版。去年中国是快速入场做大模型,但市场不仅闭源跟美国落后,开源上当时LLama也开源了,所以美国既有大的闭源生态,也有开源的生态。中国当时对大模型处于一种热情惶恐也需要快速入场的,这个开源在市场上产生了蛮好的影响力,作为把当时做得最好的模型认真开源的一个商业化厂商,得到市场上很多认可,也对我们是挺大的鼓舞,不管是人才储备,还是资本关注,也算是给行业交了投名状,这是它历史上当时的意义。

开源还有一个心态,我们也看到模型快速进步,当时是不是开源了就没有竞争力了?不会的!因为在模型生态里,可能今天是最好的,明天就是一个不够好的模型了,所以我们从商业竞争里也没什么大的损失。因此,这是一件既有贡献,又没有降低我们竞争力的事情,我们就毅然决然做了这样一个决定,符合市场预期,也给公司带来了声誉,这个事情是做得蛮成功、挺对的一件事情。今天有各种公司在里面做各种各样的开源,使得中国的生态在追赶美国、在保护知识产权里共同做这个贡献,我也希望这个生态能够大家越做越好。

王仲远:随着大模型发展,AI安全问题被不断讨论。各位都是做企业的,我想了解一下AI安全在大模型产业怎么去看?是当下最急迫的问题吗?

杨植麟:AI安全是非常重要的,它可能不一定是当前最急迫,但是一个需要我们提前去准备的事情。因为随着模型的进展,Scaling Law的发展是每N个月算力乘10倍,这里你的智能会得到提升,是一个逐渐去适应的过程。它不一定是当前最大的矛盾或者最紧急的事情,但它肯定是长期储备。

这里面最重要的是两个方面,一个是模型本身会因为用户有些恶意意图,导致它去做一些本来不应该做的事情。比如现在有研究往prompt里注入一些不太恰当的意图,这些需要去关注。第二个是你的模型本身会不会有自己的motivation,这是跟训练方式相关的,包括能不能在模型的底层去注入比如AI的宪法,功能去框定它的行为,不管用户给什么指示,都不会违背这个宪法。

王小川:安全有不同的内涵和外延,所以我想提三个安全相关的事情。

第一个,意识形态的安全。做toC有这样一个服务,作为中国主权的大模型,意识形态上跟国家发展保持一致是大家的基本功,每个模型有他们的价值观,我们有我们的价值观,这个安全是对民族、对社会负责任的一件事情,这个安全是底线。大家得把它做好了。

第二个,大家空谈得比较远的这种安全:这个模型是不是把人类毁灭了?以后人就没了,然后机器掌握世界了。我内心最不希望发生核弹一样把人类文明搞没了,人类发展好几千年,好不容易有这样一种智慧及模型,不希望发生把地球搞没了。但是至于这个模型是不是比人更聪明,能够取代人做事情,我觉得这件事情是值得鼓励的一件事情。因为从人类文明,生孩子、发展技术去延续人类和延续文明才是重要的,人的肉身会死亡的,今天大家不回避这个问题。所以技术跟我们人类一块拓展文明是有意义的,不要限制。我去年写了一封公开信,AGI帮助我们延续和繁荣人类文明是一个目标,让人类更好的延续,而不是让机器当我们的奴隶、当我们的工具,这是在安全里面以文明为标准去看待它,这是第二层安全的理想色彩 。

第三个安全是比较现实的,刚才提到AGI是什么、怎么评测?当我跟很多人聊拿AGI做个医生,大家觉得很难啊!现在搞不定。如果连这个都做不到,那它能力如此之弱,我们就不要想它会颠覆人类这个复杂的事。所以现实近期还不存在这个安全的问题。

所以现实里面的安全放在意识形态安全,远期发展文明,当前努力把能力提上去,还没碰到今天人类文明安全的边界。

王仲远:谢谢小川。张鹏对AI安全是怎样的看法?

张鹏:智谱一直很注意相关的事情,尤其在AI安全方面。

王仲远:前一段时间签了AI安全承诺,当时是什么考量?

张鹏:当时有15家AI相关的企业,来自全球各地各大洲,一起签署负责任的AI承诺书。安全只是其中一部分,我们叫“负责任的AI”,安全的AI包括刚才小川兄讲的三个方面的安全,但还有更低的问题,就是如何保证和如何努力让这个技术帮助这个人类、帮助这个社会、帮助这个地球,而不是去为恶。

当然,人有两面性,很难保证没有人拿这个事情去作恶,现实社会中已经发现有人在做这件事情,这件事情永远是防守比破坏要难,这个需要大家一起共同努力。我相信这个事情更重要的意义并不是我们现在能拿出多么安全的技术、方法或者管理规定去约束大家不要做这件事情,而是增强大家对这件事情的了解,对这件事情统一的认识,大家能够坐下来正面面对这些问题,把这些问题摆在桌面上来,希望更多人一起参与讨论这件事情,总有解决问题的办法。

王仲远:大海对AI安全的看法呢?

李大海:我比较同意前面各位老板说到的观点。我认为现在这个阶段安全主要还是聚焦在基础安全跟内容安全这两个方向上,现在的大模型本质上是只读的,模型训练也好,权重是固定的,推理不会影响权重,权重都是在线下持续阶段去训练的。有一天,当我们把模型部署到机器人,部署到我说的终端上,它能够去动态更新自己的权重以后,我觉得安全问题会变成一个非常重要的问题。

王仲远:谢谢大海。我们今天讨论了很多关于AGI,也讨论了AI安全,在座的都是企业家,企业家对于企业而言,虽然也很关注AGI,但可能更关注ROI。最近有好多记者朋友也都在问我:对于最近的大模型价格战怎么看?我当时给他们的回复:智源研究院坚定的拥抱开源,免费给整个产业界、整个社区使用。但我也给他们承诺,正好借智源大会的圆桌机会,也想请教一下诸位对于大模型价格战的看法,它是更有利于大模型的普及,还是过于激烈的价格战不利于企业的发展。大模型还在研发过程,企业要有正当的利润才能进入到持续良性的发展。植麟。

杨植麟:这是很好的问题。如果我们把时间线拉足够长的话,最终还是会回归价值本身。我自己有三个判断。第一个,很重要的一个点,在接下来比如我们去看算力的投入,可能投入在推理上的算力,在某个时间点之后应该是可以显著超过训练的算力。我觉得这个标志价值开始得到释放,前面用来训练的成本是可以很大程度上被覆盖。第二个很重要的节点,如果从C端的角度来说,推理成本可能会显著低于获客成本,所以从商业本质上来讲,可能不会跟之前的各种商业模式有非常本质的区别。我觉得这两个是很重要的。

有了这两个之后,很重要的是第三个因素,AI在整个人的工作流程里面的占比还是很低的,可能是1%。也就是说,人做的事情要远远多于AI做的事情。第三个点是,AI本身做的事情,可能会在某个时间点超过人做的事情。这个时候,它就可能会产生新的商业模式,它可能不是像今天说的在B端用API做价格战,可能是一个普惠的AI,同时根据它产生的价值从这里面去分成产生的商业模式。这三个点,可能会是改变商业模式本身或者ROI这个问题很重要的方式。

王仲远:谢谢杨植麟。小川,您对近期的大模型价格战怎么看?

王小川:我先说结论,今天的价格战对中国发展大模型是非常特别的事。我是积极看待这个事情。首先,好不好,得看对单个公司还是对一个群体整个市场。因为价格战通常是个市场行为,是个竞争的导向,至少带来两个好的后果:第一个,更多公司、更多人用上大模型了,很多企业之前是不懂这个的,很多公司开始免费用POC,使得大模型在中国有个迅速的普及。不管是个人还是企业就入场了,这对市场是第一个好处。第二个,之前还有很多浪费,因为大家恐慌的时候不知道大模型为何物。我观察到,很多企业但凡有点技术能力都要自己训点大模型,甚至来找我们怎么联合训练。明明它该是大模型的用户、消费者、大模型的使用方,但都想转型成为大模型的供给方。我到这个行业做大模型,一个企业变成所谓的行业。这种情况下,带来很多人才、资金和社会的浪费。有了价格战之后,很多企业开始清醒了,我干嘛非得做,我到底在干嘛,我的竞争优势在什么地方,它就退回来成为大模型的用户,这个浪费也会减少很多。既能带来启蒙,也能带来对社会资源减少消耗。更多的企业在里面能够有自己的定位,把自己做好。我们不需要一千、一万个大模型。在没有价格战的时候,中国可能真的是上百、上千个大模型在进行,市场的分层就能做好,每家都能受益,竞争力就能起来。

王仲远:谢谢小川非常鲜明的观点,张鹏你赞同小川的观点吗?

张鹏:基本上是赞同这个观点的。而且,这个事情有人跑过来跟我们说:你们是这轮价格战的发起方之类的。我说子虚乌有。在那个之前,我们一直秉持的概念就是你说的ROI,给用户带来最大的收益价值,用我们的技术、用我们的创新降低使用成本,就是为了让技术能够更多的普及,让更多人能够享受这个收益。我们当时推出的,在很长一段时间,我们的价格都是行业内极低的。因为我们的技术确实能做到那一步,能把中间的成本空间释放出来当作大家的收益,帮助大家把ROI算出一个大于一的数字。从宏观角度来讲,对中国大模型产业是有利的,让更多人来使用,让更多人真的把大模型当作我们一开始提到的哪件事情,就是它会变成基础设施。基础设施什么意思?就是非常便宜,随时就可以用,不用特别计较在这个事情上要投入特别大,收益是什么。当真的有一天AI大模型能力变成水、电基础能力的时候,这个事对我们来讲、对企业来讲一个更好的发展空间、更好的发展态势,这也是我们一直在坚持做的事情。包括最近20号发的新模型,真的是把成本已经压到我们都不好意思跟大家报价的地方,就是几分钱,把单位变成100万Token多少钱,已经到了这样的地步了。这件事情对整体上大的是有好处的,但是也要注意,不要过多地关注这件事情,过多的宣扬这件事情。商业上,你去牺牲企业短期的成本,亏本做买卖不是正常的商业逻辑,只能持续很短的时间,真正还是要回归最终的用户价值、生产力价值。

王仲远:谢谢。大海,在端侧的大模型会面临价格战的困扰吗?

李大海:我们做端侧,就是看到了端侧能更早更快落地的可能性。最近有机构做过一个调研,发现全国10亿用户的手机端侧的算力,相当于差不多100万片A100。这是一个非常夸张的数字。如果不同的手机上的算力能够被好好利用起来,很多应用就可以落地了。当然,现在这个阶段,包括现在到未来,都需要端侧跟云侧模型好好协同。端侧有端侧的优势,它的优势是隐私性好、更可靠,但是云上的模型肯定要比端侧好,我们跟其他所有模型公司要一起协作的事。

我也非常同意前面大家所说的观点。我自己的看法。当前所谓的价格战,多多少少有一些营销的成分在,但是我相信未来一定会比现在还要比,并且大家都有利润,这才是健康的方式,并且才真的能让千行百业的应用往下落地。

王仲远:谢谢大海。想问的问题还有特别多,因为时间的关系,可能没办法全部都问完。最后还是想请各位CEO,因为我们知道在座的诸位以及在座的企业跟智源都有非常深厚的渊源,也有很深厚的关系。也想请大家对于智源、对于智源大会看看有什么寄语?

杨植麟:我记得是2020年开始开发悟道模型,所以智源至少是在亚洲地区最早投入,而且真的投入去做大模型的机构,这是非常难得的,非常领先的一个想法。今天整个视野也更宽,不光是大语言模型,也做很多多模态、具身智能,慢慢智源大会也变成一个非常好的平台,能够让大家在上面交流。我们受益都很大,希望能够持续地成为一个全球领先的品牌。

王仲远:谢谢杨植麟。小川。

王小川:智源可以叫中国大模型的黄埔军校。大模型的思潮和很多技术都是从智源发展起来的。我上家公司叫搜狗,比较早的给智源提供搜狗的搜索数据来发展大模型。一下子到今天中国大模型已经蜂拥而出,今天的智源有非常好的定位。咱们都是市场化的企业,企业在过程当中,既有技术需求,也有跟政府的连接,因此智源既有技术高度又有政府信任的角色,扮演智库的角色,这两方面有独有的意义,所以在生态里面能够帮助我们更加快速健康的发展。

王仲远:谢谢小川。

张鹏:智源我们很熟悉,智源从最早定义成为NGO,偏新型研发机构,发展到今天,真的是国内甚至国际人工智能领域的一面旗帜。智源起了一个很好的名字,也是发布Flag系列产品的本意。智源在整个人工智能这次浪潮当中有非常宏远的布局,我们也非常希望跟智源长期在学术研究、落地应用合作,甚至包括公共政策相关方面继续保持合作,也祝愿智源大会越办越好。

王仲远:谢谢张鹏。大海。

李大海:大模型这个领域变化非常快,但这里面确实有一些事情是商业公司没有动力,可能也没有资源做的事。我们非常期待在智源的撮合跟带领下,搭建一个更好的平台,把需要做好的事情一起协作好。也祝愿智源每年的年会像AI界的春晚一样,能够越办越好。

王仲远:谢谢各位CEO对于智源、对于智源大会美好的祝愿。由于时间的关系,今天尖峰对话的环节就到这边。谢谢大家!

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章