最近,我们非常荣幸的邀请到「面壁智能」CEO【李大海】做客【硬AI】,一起聊了聊国内大模型的商业模式和发展前景。
核心观点
李大海:
“我是比较坚定的拥护通用人工智能的这条路线,
所以,在我看来,其实没有所谓的垂直大模型,只有大模型在垂直领域的知识增强。”
无论是开源还是封闭,最重要的是模型本身是否能够形成数据飞轮的闭环,以加速模型的改进和达到良好效果。
而形成数据飞轮最关键的在于大模型产品形态的设计,要能够有效利用用户的反馈数据。
不过,对于什么是拥有最理想反馈机制的产品,企业们也仍在探索中;
能确定的是:对话式模式,未来相对于其他形式可能反馈效率较低。
中国在AI领域的发展当前处于0到0.5的初级阶段。
虽然与美国存在一定差距,但中国在应用落地方面具备巨大优势,有望在AI应用上赶超美国;中国AI发展的最大制约还在算力方面上。
此外,国内大模型出现同质化严重的现象,目前大家都在努力追赶GPT,还谈不上互相竞争。
从两方面来看大模型与下游应用场景结合:
在C端场景中,用户的多样性和使用多样性远高于B端,B端场景相对较为集中。
对于形成更高效的数据飞轮而言,C端场景具有一定的优势。特别是类似智能助理和个人助理的产品,有很大可能成为一种全新的产品形态,取代过去的一些产品形态。
在B端场景中,私有话部署其实成本并不高,但很难降本的根本原因在于大模型公司高昂的维护成本,目前来看很难降下来。
不过,现在还有第三种模式,即在第三方公有云上部署模型服务,提供虚拟专用网络(VPC),也可以更好地保护数据安全性和降低运维成本。
中国企业拥有挖掘AI产业的机会
【硬AI】:中国AI产业蕴藏怎样的机会?
李大海:
中国目前在人工智能领域的发展可以说处于从0到0.5的初级阶段,相比美国仍有一定的差距。
然而,中国在应用落地方面具有更大的优势,得益于广泛的应用场景和强大的数据基础。
尽管西方人在从0到1的创新方面更为擅长,中国的产品经理和工程师在将创新应用于现有行业方面表现出色,擅长从1到10的工作。
【硬AI】:在AI应用的发展上能否赶超美国?
李大海:
我相信一定可以。过去在移动互联网时代,最初的情况确实是中国从其他地方进行模仿和借鉴,也就是所谓的"copy to China"的阶段。
然而,随着时间的推移,中国互联网应用的发展,产生了许多的创新比如抖音短视频等。这些应用甚至被其他国家所复制,这就到了海外应用“copy from China”阶段;
回到人工智能时代,我相信类似的情况可能会再次发生。虽然在大型语言模型方面,中国并不是最早突破的国家,但中国企业更加注重将大型语言模型赋能行业,落地应用。
【硬AI】:当前中国AI发展最大的制约是哪里?
李大海:
我有信心认为中国的AI应用将快速发展,我们能够相对于其他国家更快地探索出优秀的AI应用。然而,我也略微担心我们的发展可能受到算力的限制。
面壁和知乎的模式很难被复制
【硬AI】:您为什么会从知乎CTO转型成为面壁智能的CEO?
李大海:
今年年初,ChatGPT给全球科技圈都带来巨大的冲击。作为知乎的CTO,我认为大模型将是一个重要的技术变革,经过深入调研后知乎决定与面壁进行战略合作,将面壁擅长的大模型与知乎的实际场景相结合,共同构建知海图AI大模型。
经过与知乎董事长周源和面壁创始人刘知远教授深入沟通,我们一致认为由我出任面壁的CEO是最佳选择。
【硬AI】:国内做大模型的很多,为什么知乎第一选择是面壁?
李大海:
因为刘知远教授是国内最早看到大模型潜力的人。2018年Google发布了Bert,这时候NLP模型被市场所注意到;
2019年1月的时候,刘知远教授带领他的团队在雁西湖的一个宾馆举行了长达7天的技术战略会议。
在会议上,他们改变传统NLP的研究课题,并安排团队成员正式围绕大模型展开研究。因此,面壁可以说是国内最先开始对大模型深入研究的团队,这几年必然会取得许多研究成果,这也是我们面壁所看重的。
【硬AI】:知乎投资了面壁,双方在战略上有怎样的共性?
李大海:
双方对于大模型在知乎场景中带来的价值达成了共识,这是投资和战略合作的基础。
知乎的语料对于大模型的预训练来说都是非常有帮助的。其实在这个合作之中,知乎不仅有语料,在云原生、内容安全也提供了共享支持;
而面壁是对大模型技术一直持有坚定的研发信心,在过去两年多的时间里专注于大模型的深耕,从架构到模型结构、预训练和对齐等方面进行了深入的工作。
这种共同信念促成了知乎与面壁进行更深层次的合作。
【硬AI】:知乎未来是否有可能收购面壁?
李大海:
这个计划现在肯定是没有的,未来会如何谁都说不准。双方其实是更想去学习 OpenAI 和微软这样的合作模式。
【硬AI】:面壁有哪些竞争优势?
李大海:
面壁智能提供的云边协同技术方案是为了保护用户和客户隐私而设计的。
该方案类似于联邦学习,通过在用户边缘部署小型模型,将用户的原始prompt转换为加密的embedding。云端的大语言模型只接收到加密的embedding,无法获取用户的隐私信息,从而实现了对用户隐私的保护。
该方案还对多模态数据处理更友好和高效,被认为是未来非私有化部署的友好解决方案。
【硬AI】:面壁和知乎的模式能否被复制?
李大海:
在大模型刚刚爆发的阶段,每家公司都在探索适合自己情况的方式。直接购买和完全自研是其中的一种选择,而与初创公司进行深度共建是另一种模式,这是较少被采用的方式。
这种模式需要寻找合适的团队,并建立深度的信任,以顺利推动合作。
然而,这种共建模式并不适合所有企业,并且在当前市场情况下难以被复制。
大模型的知识增强才是未来
【硬AI】:您如何看待大模型的发展趋势?
李大海:
我是比较坚定的拥护通用人工智能的这条路线,所以在我看来其实没有所谓的垂直大模型,只有大模型在垂直领域的知识增强。
随着大语言模型规模的增长以及知识的积累,它能够在常识、推理和逻辑等方面达到与人类平等交流并具备足够的智能水平。有了这样的智能基础,再结合特定领域的知识增强,大模型就能够在指定领域内承担更多任务。
【硬AI】:Meta VS OpenAI、谷歌,开源和封闭大模型各自的优劣是怎样的?
李大海:
开源和封闭只是商业公司不同的选择,开源的优势在于创新的可能性更大,社区中的人们可以进行探索和创新,从而提高创新效率。
无论是开源还是封闭,最重要的是模型本身是否能够形成数据飞轮的闭环,以加速模型的改进和达到良好效果。
例如,ChatGPT在发布初期与现在相比效果明显提升,这是因为ChatGPT作为产品形成了数据飞轮的优势,这与模型是否开源关系不大,而关键在于模型本身的数据飞轮。
【硬AI】:什么是形成数据飞轮的关键?
李大海:
在我看来,最重要的是大模型的产品形态设计,应该能够有效利用用户的反馈数据。
一个例子是基于Prompt生成图像的产品形态,用户通过下载选择的图像来进行投票,从而形成高效的用户反馈。推荐系统也可以通过用户行为的细节反馈来提高效率。
在大语言模型相关产品中,如何设计能够产生高效反馈机制的产品仍在探索中。但对话式模式相对于其他形式可能反馈效率较低。
【硬AI】:垂直大模型是否更具备性价比?
李大海:
对于垂直大模型的讨论,主要需要考虑在特定领域中,对智能程度和成本平衡之间的需求。
可以选择在更低成本下容忍一些效果差异,或者选择更好的效果并接受更高的成本。
然而,无论如何,我认为这些垂直大模型都应该是建立在具备相当能力的通用大模型基础上进行知识增强的。
类比来说,我们可以将其通用大模型视为一个需要花很多成本来培养的大学生,然后进一步在医学领域或法律领域进行专业深造。
因此,行业大模型和垂直大模型首先都是建立在通用大模型之上。
【硬AI】:如何看待互联网巨头Maas平台的最新战略?
李大海:
在大模型发展过程中,每家公司都考虑如何成为流量的入口,即在价值链上提供最大价值的生态位。
Mass商业模式解决的是更好的交付模式的问题,但对于现有业务而言,最关键的问题仍然是模型效果。
只有当模型效果得到突破,我们才能为B端和C端业务提供更大的价值。
AI在C端的应用将具有互联网规模效应
【硬AI】:如何看待Altman想让GPT从底层工具变成智能助理?
李大海:
随着大模型的快速变化,每个人的观点可能会有所不同,因此Altman的变化也是正常的。
首先,大模型能够赋能各行各业,因为它代表着底层智能,应该被视为一种工具。
其次,大模型代表一种全新的生成式技术范式,随着这一范式的发展,必然会产生基于新范式的原生应用形态。
因此,大模型的爆发将带来新世界的探索和旧世界的升级,这两方面的工作都将产生巨大影响,因此并不冲突。
一方面作为工具,大模型不断赋能和升级旧世界,另一方面也通过新范式打开新世界的大门。
【硬AI】:如何看待最近ChatGPT流量增长放缓?
李大海:
当前阶段下,模型的应用发展还处于积累阶段,产品形态如ChatGPT主要针对专业人士,为其提供有价值的工具。
同时,像Character.AI等新应用也快速增长用户量。因此,ChatGPT作为使用大语言模型的产品在其定位上有阶段性的增长空间,短期增速放缓这种情况是可以理解的。
【硬AI】:大模型企业做C端应用是否将成为必然?
李大海:
C端应用具有自身的特点,因为在C端场景中,用户的多样性和使用多样性远高于B端,而B端场景相对较为集中。
因此,对于形成更高效的数据飞轮而言,C端场景具有一定的优势。即使在初期用户量不大,一旦形成了C端用户的飞轮效应,对于模型的快速改进也将非常有帮助。
【硬AI】:是否能形成类似互联网的规模效应?
李大海:
在过去的半年里,开发者和资本市场对AI产品非常热衷,主要原因是大家看到了AI产品有可能成为一种全新的入口级和平台级产品。特别是类似智能助理和个人助理的产品,有很大可能成为一种全新的产品形态,取代过去的一些产品形态。
在这方面,规模效应是存在的,通过数据飞轮的作用,模型的能力越强,能够满足更多用户需求。
然而,每个用户的需求是不固定的,他们可能尝试新的需求。这些新需求的涌现会刺激产品的改进,并对模型能力提出新要求,从而实现快速提升。这种反向反馈可以吸引更多用户,从而形成规模效应。
大模型B端私有化部署很难降本
【硬AI】:如何看待Hugging Face这类社区平台的商业模式?
李大海:
在B端领域,客户对大模型的需求存在层级差异。一些客户可能需要自己的大模型,但更多客户实际上需要的是产品解决方案。许多客户甚至没有自己的NLP工程师,他们无法训练模型。因此,客户的需求是解决问题,而不仅仅是训练一个模型。
我们相信,想要训练大模型的客户并不是绝大多数,而是更多的客户需要一个通过大模型赋能的新产品,使其具备原产品所不具备的能力。
【硬AI】:企业采用大模型的方式有:API和私有化部署,相比较它们之间的优劣势是什么?
李大海:
在国内,基于API的SaaS模式在数据安全方面存在障碍,对于数据安全的顾虑是一个重要阻碍因素。
私有化部署在数据安全方面有优势,但也面临升级和维护成本高的问题,难以解决。
现在还有第三种模式:第三方托管的公有云;
模型厂商与公有云厂商合作,在第三方公有云上部署模型服务,并为客户提供虚拟专用网络(VPC),这种部署方式允许客户将模型服务放置在受控环境中,以更好地保护数据的安全性,并降低运维成本。
【硬AI】:应用侧大型企业是否愿意“把灵魂交给”大模型提供方?
李大海:
在数据安全方面,一些国有企业和金融机构对数据安全有严格规定,因此更倾向于私有化部署的方式。另外,用户对将数据交给大模型提供方也存在顾虑。
【硬AI】:私有化部署贵在哪里?
李大海:
私有化部署的成本并不高,因为现在大多数采用容器化方式进行部署,成本相对较低。然而,问题在于后续的维护成本,这是一个较高的成本,而且短期内很难降低。
对于大模型公司来说,维护私有化部署的成本是难以承受的。如果大模型公司有100个或1000个客户,每个客户都需要进行针对性微调,每次模型升级都需要同步为这些客户进行模型升级,这将是一项巨大的成本。
【硬AI】:如何看待AI对就业影响?
李大海:
AI技术的发展将对就业产生影响,旧技术相关的就业人员可能会失去工作机会。然而,AI技术本身也能够赋能人类,关键在于个人如何看待和学习掌握AI技能。善于使用AI技术的个人在个人成长和问题解决能力方面将获得巨大提升,从而在职业发展中取得更好的成果。
因此,我们的态度和观念决定了个人在工作中的表现。总体而言,我们认为AI是人类能力的扩增。
本文作者:韩枫,来源:硬AI