谷歌Bard负面问题越来越多,内部员工质疑:有什么用?海量投入值吗?

赵雨荷
谷歌生成式AI工具Bard研发内部论坛显示,内部人士对这款AI产品的有效性和功能质疑不断。红杉资本此前就表示,目前生成式AI面临的最大问题,是无法向用户证明其价值。

过去几个月,谷歌母公司Alphabet邀请重度使用者,持续对旗下AI聊天机器人Bard的研发进行内部讨论;一些谷歌产品经理、设计师和工程师对AI有效性和功能提出质疑,甚至质疑公司投入海量资源研发AI是否值得。

谷歌Bard一名资深产品经理今年7月曾在论坛Discord上表示,对于那些基于大语言模型(LLM)AI聊天机器人来说,“我的原则就是,除非我能独立证实信息的准确性,我不会相信大语言模型生成的结果。当模型达到这一水平时我当然乐意使用,但现在还没有达到。”

而Bard项目一名用户体验小组主管8月则表示,“我仍在考虑,大语言模型面临的最大挑战是,它们究竟能用来干什么,或者能提供哪些帮助?它何时能对人类作出重大影响?显然时候未到。”

为应对微软旗下OpenAI推出的ChatGPT,谷歌今年3月推出Bard,自此以后就不断为Bard加入新功能,包括AI分析图片、多语言服务等。上月,谷歌迈出一大步,将Bard接入其Gmail、地图、文档和YouTube等核心产品。

不过,谷歌也开始越来越多地面对AI带来的困扰,包括编造事实,以及为用户提供潜在的危险建议。就在谷歌上月19日宣布将Bard接入核心产品的当天,谷歌也同时在Bard推出一键搜索功能,帮助用户核查AI生成的回应是否为真。

对于谷歌来说,确保Bard的成功已经成为该公司的头号任务。尽管谷歌在搜索领域遥遥领先,其母公司80%的营收都来源于此,但随着生成式AI模型爆火,谷歌在搜索领域的霸主地位受到挑战,尤其是OpenAI以及一众初创AI公司,可能终结谷歌的霸主地位。

内部论坛消息显示,即便是Bard项目的研发主管,也对这款产品的潜力感到困惑和矛盾。一名产品经理建议,谷歌应限制用户在“创造性、头脑风暴的程序”中使用Bard,不过使用AI编程是个好的选择,毕竟码农最终还是需要验证代码是否管用。

谷歌则在一份声明中表示,内部论坛上有关Bard局限性和潜力的讨论属于日常操作,并不令人惊讶,因为这是产品研发的一部分。“推出Bard本来就是一项实验,我们渴望听到用户的使用反馈,让我们可以改善用户体验。”

而且,Discord论坛的讨论不光涉及AI的功能与有效性,同时也涉及国际政治、劳工伦理。谷歌和亚马逊曾参与合约,为以色列军方提供AI工具,一名论坛用户7月中旬质疑谷歌利用AI作为致命武器,这名用户随即被论坛禁言,管理员表示论坛禁止讨论政治、宗教或其他敏感话题。同月,另一名用户质疑谷歌使用低薪、过劳的合同工来为Bard做优化,谷歌则表示,人工优化是Bard研发的重要部分,否则AI就可能产生重大失误。

还有论坛用户对研发Bard投入巨量的资源提出质疑。一名用户写道,“是否存在任何减少大语言模型方面海量资源投入的努力?尤其是巨量的水,以及大规模使用GPU的需求。”对此,Bard用户体验主管表示,研发Bard就像是芯片设计或者超级计算机,“相信我们将会找到办法,减少资源投入,达到相同的效果。”

其实,不光是Bard内部质疑AI存在的价值,其竞争对手ChatGPT目前也遭遇类似问题。华尔街见闻此前报道,最新数据显示,其增速停滞的苗头已经开始显现,越来越多的用户并未给ChatGPT带来相应的规模经济,反而不断增加成本,而硅谷巨头们只能尝试向用户收取更高的增值费用,引起用户不满。

红杉资本表示,目前生成式AI面临的最大问题,并非找到用例或需求,而是无法向用户证明其价值。一些观点认为,随着投资者和用户的热情退去,明年,生成式AI领域可能出现一批淘汰者。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。