OpenAI紧急召开员工大会,员工质问解雇“是否夺权”

主导罢免Altman的Ilya Sutskever回应:这是为了确保构建造福全人类的 AGI。

OpenAI管理层大换血,在换血后,OpenAI内部紧急召开了一场员工大会,在这场紧急员工大会上,OpenAI 联合创始人兼董事会成员Ilya Sutskever主要负责回答问题。

会上两名员工询问此次解雇是否构成“夺权”或“敌意收购”,但被Ilya Sutskever否定,他将问题带回了安全议题本身。事实上在“罢免”事件发生前,员工内部已经就该公司开发人工智能是否足够安全进行过争论。

不是“夺权”,而是事关“安全”

根据会议记录,至少有两名员工询问负责 OpenAI 最大研究突破的Ilya Sutskever,此次解雇是否构成“夺权”或“敌意收购”。对于一些员工来说,这个问题暗示苏茨克弗可能认为Altman在将该软件商业化方面动作太快——该软件已经成为一项价值数十亿美元的业务——而牺牲了潜在的安全问题。

“你可以这样称呼它,”Ilya Sutskever在谈到「夺权指控」时说道。“我可以理解你为什么选择这个词,但我不同意这一点。这是董事会履行非营利组织使命的职责,即确保 OpenAI 构建造福全人类的 AGI。” AGI 代表通用人工智能,这个术语指的是能够像人类一样进行推理的软件。(另一人表示,Sutskever 可能误解了与其他方可能对 OpenAI 进行恶意收购有关的问题。)

当被问到“这些通过后台清除的方法是否是管理世界上最重要的公司的好方法?” 他回答说:

“公平地说,我同意其中100%存在不理想的因素。”

Altman本人并没有参与将他踢出董事会的那场投票,此前华尔街见闻已经报道,当“罢免”消息公布后,Greg Brockman在社交平台上梳理自己与 Sam Altman被董事会罢免的细节,并梳理了时间线

但开除Altman的六人董事会并没有解释此举的原因,只是说Altman“向董事会的沟通不够坦诚”,但在公司为开除后的内部危机管理中,安全一直是最大的主题。

例如,在周五致员工的备忘录中,暂时担任CEO的Mira Murati提到了“我们的使命和共同开发安全有益的通用人工智能的能力”。

她说公司有三大支柱:“最大程度地推进我们的研究计划,我们的安全和价值观调整工作——特别是科学预测能力和风险的能力,以有利于所有人的方式与世界分享我们的技术。”

根本分歧已经持续很久

关于AI安全的顾虑使这家创业公司的领导人产生了分歧。

2020年底,一部分员工由于在公司的商业战略和技术发布速度上的分歧,从OpenAI分裂出去创立了自己的创业公司Anthropic。而为了确保OpenAI的技术开发不会受到财务激励的影响,Anthropic组建了一个独立的五人小组,可以雇佣和解雇公司的董事会。

多年来,AI从业者一直担心更强大的模型可能被滥用,比如开发生物武器、生成有说服力的深度伪造或入侵关键基础设施。一些人还认为这些系统最终可能会变得自主并以人类的代价失控。

随着OpenAI开发出可以自动化写作、编程和从零生成逼真图像的突破性人工智能,公司的一些员工讨论了这样的AI潜在危害——特别是如果它学会自我改进。

今年夏天公司成立了一个团队,由Sutskever和「alignment」研究员Jan Leike共同领导(AI alignment研究就是通过各种技术手段,使AI系统的目标与人类利益一致,防止AI系统做出危害人类的行为),致力于寻找技术解决方案,防止其AI系统失控。在一篇博文中,OpenAI说它将专注五分之一的计算资源来解决“超级智能”的威胁,苏茨克韦尔和Leike写道这“可能导致人类失去权力甚至灭绝”。

与Altman的野心与激进形成对比的是,Sutskever一直以来都非常关注安全,在7月的一次采访中,苏茨克韦尔说,他最担心强大的通用AI在未来几年的危险性,但希望未来AI技术可以帮助人类对自己进行监管,可能解雇Altman本身就是这个“alignment”的例子。

他在公司内有许多追随者。前员工将他描述为一位备受尊敬和亲力亲为的领导者,他对指导这家创业公司的前沿技术至关重要。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。