报道:OpenAI已经解散了前首席科学家Ilya领导的AI风险团队

Ilya和他的亲信Jan Leike共同领导的“超级智能对齐团队”已经解散,团队成员要么辞职,要么被并入其他研究小组。马斯克评价称:“这显示安全并不是OpenAI的首要任务。”

OpenAI内部大洗牌,不仅Ilya和他的亲信Jan Leike已经离职,他们共同领导的“超级智能对齐团队”也周五被证实解散。

本周二,曾在宫斗事件中参与解聘CEO Sam Altman,且是OpenAI联合创始人兼首席科学家的Ilya Sutskever前脚刚离职,几小时后,“超级智能对齐团队”的另一位联名负责人Jan Leike也官宣离职。

本周五,OpenAI证实,由Ilya和他的亲信Jan Leike共同领导的“超级智能对齐团队”已经解散。此后,该团队的研究工作将被整合到OpenAI的其他研究小组中。至此,一度几乎导致OpenAI分崩离析的宫斗事件终于尘埃落定。

Jan Leike周五在X上公开透露了他离职的部分原因。他的潜台词是,他与OpenAI高层在公司的核心优先事项上存在长期分歧,最终双方的分歧已经严重到无法调和的地步。团队在推动其研究项目和争取计算资源时遇到了重大阻碍,缺乏资源会严重影响研究的进度和质量。

公开资料显示,超级智能对齐团队于去年7月成立,旨在研究如何安全开发比人类聪明得多的人工智能系统,以确保通用人工智能(AGI)在造福全人类的同时不会失控并危害人类。这就是为什么OpenAI特别关注如何对这类超级智能AI进行“对齐”——即确保它们的行为与人类的价值观和目标相一致。这也是他们成立“超级智能对齐团队”的原因之一。OpenAI表示,团队将获得公司20%的计算资源。

OpenAI最近展示了ChatGPT的新版本——一个名为GPT-4o的“多模态”AI模型,它能够以更自然、更人性化的方式与世界互动。在线上演示中,GPT-4o展示了模拟人类情感和与用户进行自然对话的能力,甚至尝试与用户调情。然而,这一技术进步也引发了人们对AI侵犯隐私、情感操纵和威胁网络安全等伦理问题的担忧,因此AI监管一直是热门话题。

马斯克针对OpenAI的长期人工智能风险团队已经解散这一消息评价称:“这显示安全并不是OpenAI的首要任务。”

团队解散引发网友大猜想,OpenAI内部成员还是“走散了”

对于团队解散,X上网友纷纷发帖表示了担忧:

“我会等待更多信息的披露,但若在短短几个月内超级对齐团队的大多数成员被清理,这似乎表明发生了一次严重的信任背叛,而非普通的公司内部调整。整个团队这样离开实在太异常了。”

据该团队的一位人士透露,OpenAI的超级对齐团队被承诺获得公司20%的计算资源。但要求其中一小部分的请求经常被拒绝,从而阻碍了团队开展工作。”

此前周二,Ilya离职的消息引起了极大的关注,因为他不仅是OpenAI的联合创始人之一,还在去年11月与其他三名董事会成员共同决定解雇CEO奥特曼。然而,在随后的五天内,由于员工的大规模抗议,奥特曼被重新任命为CEO,而Ilya和其他两名董事则退出了董事会。

Ilya离职后在社交媒体上表示,OpenAI的发展轨迹堪称奇迹,我相信OpenAI会在Sam Altman、Greg Brockman和Mira Murati的领导下,以及Jakub Pachocki的出色研究领导下构建安全有益的AGI。

奥特曼在X上回应称,Ilya与OpenAI的分道扬镳令人非常悲伤。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章