OpenAI前董事撰文批奥特曼:他营造“撒谎的有毒文化”,涉嫌“心理虐待”

腾讯科技
两位OpenAI前董事称,当初投票罢免奥特曼,是由于奥特曼个人长期以来的行为模式,董事会维护公司使命的能力受到了越来越大的限制。多位高层领导私下向董事会称,奥特曼营造了一种“撒谎的有毒文化”,并涉嫌“心理虐待”行为。

划重点

①OpenAI两名前董事日前撰文指出,私营人工智能公司不值得信任,自我监管在巨大利润诱惑下最终会失效,政府必须发挥积极作用。

②两人曾是OpenAI董事会中仅有的女性,于去年11月离职。她们都支持罢免CEO奥特曼,认为他创造了“有害的”工作环境。

图左为:海伦·托纳(Helen Toner),图右为:塔莎·麦考利(Tasha McCauley)

据国外媒体报道,OpenAI前董事会成员海伦·托纳(Helen Toner)和塔莎·麦考利(Tasha McCauley)日前撰文谈到了人工智能的监管问题。

两人分别于2018年和2021年加入OpenAI董事会,也是董事会中仅有的两名女性。在奥特曼被董事会罢免风波平息后,她们两人于去年11月离开OpenAI董事会。

在最新文章中,她们透露,当初投票罢免奥特曼,是由于奥特曼个人长期以来的行为模式,董事会维护公司使命的能力受到了越来越大的限制。多位高层领导私下向董事会称,奥特曼营造了一种“撒谎的有毒文化”,并涉嫌“心理虐待”行为。

她们提到,自从奥特曼重返OpenAI以来,一些发展动态令人担忧,包括他重新加入董事会,以及OpenAI一些专注于安全领域的高级人才的离职。这些情况对于OpenAI在自我治理方面的实验来说,似乎预示着一些不利的影响。

她们认为,为了让人工智能的发展惠及所有人,政府现在就必须开始建立有效的监管框架。

值得一提的是,今年4月,美国成立人工智能安全委员会,该委员会将为美国关键基础设施中“安全开发和部署人工智能”提供建议。奥特曼在22名委员会成员之列,此外还包括黄仁勋、皮查伊等科技公司领导人。虽然也有来自非营利组织的代表,但总体而言,营利性公司领导人所占比例过高。

以下为二人联名撰写的文章全文:

在推动革命性新技术发展的同时,私企能否兼顾股东利益与全球利益?当我们二人在2018年和2021年分别加入OpenAI董事会时,都曾对OpenAI创新的自我治理方法抱有谨慎的乐观态度,期待它能为人工智能的负责任发展提供示范。但经验教训告诉我们,自我治理难以抵御利润的驱动。面对人工智能的双刃剑,我们不能仅凭假设认为激励因素总是与公共利益一致。为了让人工智能的发展成果惠及全人类,政府必须立即着手建立有效的监管框架。

OpenAI的创立,旨在实现一个崇高的目标:确保通用人工智能(AGI)能够为全人类带来福祉。作为一个非营利组织,OpenAI的成立初衷是为了确保通用人工智能能够惠及全人类,这是一种理论上能超越人类智能的人工智能系统。为了筹集资金,公司随后成立了一个营利性子公司,但非营利的母公司保持了主导地位。这种独特的结构旨在确保公司能够坚守其原始使命,而董事会的职责是维护这一使命。

虽然这是一次创新的尝试,但遗憾的是,结果并未如预期般成功。

去年11月,为了挽救自我监管架构,OpenAI时任董事会作出了一项重大决策,解雇了CEO山姆·奥特曼。由于奥特曼个人长期以来的行为模式,董事会维护公司使命的能力受到了越来越大的限制。据我们了解,这些行为不仅削弱了董事会对关键决策和内部安全协议的监督能力,还引发了其他问题。多位高层领导私下向董事会表达了深切的担忧,他们认为奥特曼营造了一种“撒谎的有毒文化”,并涉嫌“心理虐待”行为。

根据OpenAI的说法,一项内部调查发现董事会在解雇奥特曼时“行使了其广泛的自由裁量权”,但也得出结论认为他的行为未达到“必须解除职务”的程度。不过,OpenAI并未提供足够的具体细节来支持这一结论。无论是对员工、媒体还是公众,OpenAI董事会都未将调查报告公之于众。这一事件凸显了在人工智能领域自我监管的挑战,同时也引发了对公司治理、透明度和道德标准的深入思考。随着人工智能技术的迅速发展,如何确保技术的伦理使用和公司的社会责任,已成为业界和监管机构必须面对的重要议题。

关于是否应该普遍要求“强制解除”CEO职务的问题,我们可以留待其他时间再进行深入讨论。然而,在OpenAI这个特殊案例中,考虑到董事会有责任提供独立的监督,并保护公司的公共利益使命,我们坚定地支持董事会解除奥特曼CEO职务的决定。我们还注意到,自从奥特曼重返公司以来,一些发展动态令人担忧,包括他重新加入董事会,以及OpenAI一些专注于安全领域的高级人才的离职。这些情况对于OpenAI在自我治理方面的实验来说,似乎预示着一些不利的影响。

我们所经历的事件传递了一个重要的警示:在人工智能的推广过程中,社会不能袖手旁观,任由私营科技公司全权掌控。在私营部门,确实有许多真诚且值得称赞的努力,旨在负责任地推动这项技术的发展。然而,即使这些努力背后的意图是积极的,如果没有有效的外部监督,自我监管很容易变得形同虚设,特别是在面对巨额利润诱惑时。因此,政府必须采取积极行动,确保人工智能的发展既能促进创新,又能保护公共利益,从而避免潜在的滥用和风险。

然而,在过去数月中,华盛顿的立法者和硅谷的投资者中,主张对人工智能领域实行最小化政府干预的呼声愈发高涨。他们倾向于将这种立场与1990年代互联网行业的放任政策相提并论,并声称这种政策曾催生了显著的经济增长。然而,这种类比并不恰当,其背后隐藏的误导性不容忽视。

在人工智能研究和工程领域的广大社群中,人们普遍认识到开发日益高级的人工智能技术所伴随的高风险和重大挑战。正如奥特曼本人所指出的那样:“平稳过渡到一个拥有超级智能的世界,可能是人类历史上最为关键、最充满希望,同时也最令人忧虑的事业。”许多杰出的人工智能科学家都对他们正在创造的技术表达了深刻的关切,这种关切已经被详尽记录,且与早期互联网的开发者--程序员和网络工程师--所持有的乐观态度大相径庭。

互联网的弱监管是否为社会带来了纯粹的利益,这一点尚不明确。诚然,许多成功的科技企业和他们的投资者从在线商业活动的宽松监管中获得了巨大的利益。然而,当涉及到监管以减少社交媒体上的虚假信息和错误信息、防止儿童剥削和人口贩卖,以及应对日益严重的青少年心理健康危机时,社会是否已经找到了恰当的平衡点,这一点尚不明朗。

商品、基础设施以及社会本身,均得益于监管的积极作用。正是监管的实施,让汽车配备了安全带与气囊,让我们无需担忧饮用受污染的牛奶,确保了建筑的无障碍通行。明智的监管同样能够保证人工智能的利益以负责任且广泛的方式实现。一个有效的起点是制定政策,增强政府对人工智能尖端技术进展的透明度,比如设立透明度要求和事件追踪机制。

然而,监管亦非无懈可击,它需要谨慎处理。设计不当的监管可能会对小型企业施加过重的负担,抑制竞争与创新。政策制定者在制定新规时,必须保持独立性,避免受领先人工智能企业的影响。他们需要警惕监管漏洞,防止形成保护先行企业的监管“护城河”,以及监管俘获的风险。奥特曼本人对人工智能监管的呼声,也应在这些潜在问题下审视,确保它不是出于自身利益的考虑。一个合适的监管框架需要灵活调整,与世界对人工智能能力理解的扩展保持同步。

我们坚信,人工智能有潜力极大地提升人类的生产力与福祉,但这条道路并非没有风险。OpenAI作为一项大胆的尝试,旨在开发日益强大的人工智能,同时将公共利益置于利润之上。然而,即便在最有利的条件下,自我治理机制也不足以应对挑战。因此,公共部门必须积极参与技术的发展过程。现在是全球政府机构展现领导力的时刻。唯有通过市场力量与审慎监管的恰当平衡,我们才能确保人工智能的进步真正造福于全人类。(编译/无忌)

本文来源:腾讯科技,原文标题:《OpenAI前董事撰文批奥特曼:他营造“撒谎的有毒文化”,涉嫌“心理虐待”》

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章