4月13日周四,OpenAI的CEO Sam Altman表示,他同意特斯拉CEO马斯克、苹果联合创始人Steve Wozniak等科技界领袖签署的生命未来研究所公开信的部分内容。
这封公开信呼吁暂停6个月的AI研究。但Altman补充说,这封信“遗漏了关于我们需要暂停的大部分技术细节。”
Altman说:
我认为谨慎行事和对安全问题越来越严格非常重要,但我不认为这封信是解决这个问题的最佳方式。
3 月,马斯克、Wozniak和其他数十位学者呼吁立即停止训练与“比 GPT-4 更强大”的大型语言模型相关的“实验”,称其“对社会和人类构成潜在风险”。这其中首当其冲的就是OpenAI的旗舰大型语言模型。当前,这封公开信已经有超过2.5万人签名。
这封信说:
人工智能实验室和独立专家应该利用六个月的暂停时间,来开发和实施一套由独立外部专家严格审计和监督的高级人工智能设计和开发的共享安全协议。
Altman周四说:
我也同意,随着AI能力变得越来越强大,安全标准必须提高。
今年早些时候,Altman承认人工智能技术让他“有点害怕”。 白宫、国会和美国各地各界都提出了关于安全和合乎道德地使用AI的问题。
Altman说:
我们正在GPT-4之上做其他事情,我认为这些事情存在各种需要解决的重要安全问题,但这封信却只字不提。
这封发布在非营利性组织“未来生命研究所”网站上的公开信主张,在开发强大的AI系统之前,应先确认其带来影响是积极的、风险是可控的。
信中详述了具有人类水平智能的AI系统可能对社会和人类带来极大的风险,称“这一点已经得到大量研究和顶级AI实验室的认同”,并连续抛出四个疑问:
我们是否应该让机器用宣传和谎言淹没我们的信息渠道?
我们是否应该让所有的工作自动化,包括那些令人满意的工作?
我们是否应该发展最终可能在数量上超过我们、在智能上超越我们、能够淘汰并取代我们的非人类思维?
我们应该冒着失去对我们文明控制的风险吗?
显然,比起技术,公开信的支持者更在意的,是人工智能可能出现的“野蛮生长”,以及它的发展可能带来的社会和伦理难题。
公开信中提到,此番暂停并不意味着从总体上暂停人工智能的开发,而是从危险竞赛中“后退一步”。人工智能的研究和开发应该重新聚焦于使当今强大的、最先进的系统变得更加准确、安全、可解释、透明、稳健、一致、可信且可靠。