2024 年 3 月 1 日 —— 一场法律风暴正在硅谷酝酿,马斯克将 OpenAI CEO&联合创始人 Sam Altman 告上法庭。马斯克在一份详细的诉讼文件中指控 Altman 和其他被告违反了 OpenAI 的创立协议,该协议旨在开发对全人类有益的非营利性 AI 技术。
根据这份文件,马斯克和其他原告指控 OpenAI 的管理层在 2023 年背离了其非营利的使命,转而与微软建立了独家合作关系,并将先进的 AI 技术 GPT-4 的秘密化,以服务于微软的商业利益。这一转变被描述为对 OpenAI 非营利性质的公然背叛,违背了其创立的初衷。
马斯克在诉讼中声称,他与 Altman 和 Greg Brockman 共同创立 OpenAI 时,是基于对 AI 技术潜在风险的共同担忧,以及对确保 AI 技术发展能够惠及全人类的承诺。然而,随着 OpenAI 在AI领域的领先地位日益巩固,尤其是在开发出被认为可能是早期 AGI 的 GPT-4 模型后,公司的方向发生了根本性转变。
诉讼文件详细描述了 OpenAI 的成立过程,包括马斯克在公司早期的资金投入、研究方向的建议,以及招募顶尖科学家和工程师的努力。这些努力被认为是 OpenAI 能够迅速崛起的关键因素。然而,现在马斯克认为,他的这些贡献被用于了与他的初衷相悖的目的。
以下为这份诉讼文件中的主要内容:
马斯克对 AGI 的担忧
在 2012 年,Elon Musk 遇到了 DeepMind 的联合创始人 Demis Hassabis,一家以盈利为目的的 AI 公司。大约在这个时候,Musk 和 Hassabis 在 SpaceX 位于加利福尼亚州霍索恩的工厂会面,并讨论了面临社会的最大威胁。在这次对话中,Hassabis 强调了 AI 进步对社会可能带来的潜在危险。
与 Hassabis 的这次交谈之后,Musk 对 AI 变得超智能、超越人类智能并威胁人类的潜力越来越感到担忧。事实上,Musk 并不是唯一一个对 DeepMind 进行的 AI 研究和 AI 的危险感到害怕的人。据报道,在与 Hassabis 及 DeepMind 的投资者会面后,一位投资者评论说,他对人类所能做的最好的事情就是当场射杀 Hassabis。
Musk 开始与他的圈子内的人,如当时的 Google 母公司 Alphabet, Inc. 的 CEO Larry Page 讨论 AI 和 DeepMind。Musk 经常在与 Page 的对话中提起 AI 的危险,但令 Musk 震惊的是,Page 对此并不担心。例如,在 2013 年,Musk 与 Page 激烈交流了 AI 的危险。他警告说,除非采取安全措施,“ AI 系统可能会取代人类,使我们的物种变得无关紧要甚至灭绝。”Page 回应说,这只是“进化的下一个阶段”,并声称 Musk 是一种“物种主义者”——即偏爱人类物种而不是智能机器。Musk 回应说:“是的,我支持人类。”
到 2013 年末,Musk 非常担心 Google 计划收购 DeepMind。当时,DeepMind 是行业中最先进的 AI 公司之一。因此,Musk 深切关注 DeepMind 的 AI 技术将掌握在如此轻率看待其力量并可能在封闭的门后隐藏其设计和能力的人手中。
为了防止这一强大技术落入 Google 手中,Musk 和 PayPal 的联合创始人 Luke Nosek 试图筹集资金购买 DeepMind。这一努力最终导致了一次长达一小时的通话,Musk 和 Nosek 做出了最后努力,试图说服 Hassabis 不将 DeepMind 卖给 Google。Musk 告诉 Hassabis:“AI 的未来不应该被 Larry [Page] 控制。”
Musk 和 Nosek 的努力未能成功。2014 年 1 月有报道称 DeepMind 将被 Google 收购。然而,这并没有阻止 Musk 继续确保 AI 的安全开发和实践。
Google 收购 DeepMind 后,Musk 开始“主持自己的一系列晚餐讨论,探讨对抗 Google 和促进 AI 安全的方法。”Musk 还联系了美国总统 Barack Obama 讨论 AI 和 AI 安全问题。2015 年,Musk 和 Obama 会面,向其解释 AI 的危险并主张监管。Musk 认为 Obama 理解 AI 的危险,但监管从未实现。
尽管遇到这些挫折,Musk 继续倡导安全的 AI 实践。2015 年,Musk 似乎找到了一个理解他对 AI 的担忧和他希望将第一个 AGI 保持在像 Google 这样的私人公司之外的人:被告 Sam Altman。
当时,Altman 是硅谷创业加速器 Y Combinator 的总裁。在此之前,Altman 参与了各种创业企业。
Altman 似乎分享了 Musk 对 AI 的担忧。在 2014 年回溯的公开博客帖子中,Altman 声称如果制造出 AGI,“将是技术上有史以来最大的发展。”Altman 指出,许多公司正在朝着实现 AGI 的方向迈进,但承认“好的公司对此非常保密。”
2015 年 2 月 25 日,Altman 还表达了他对“超人类机器智能”发展的担忧,他认为这“可能是对人类持续存在的最大威胁”,并强调“作为一个被编程为生存和繁衍的人类,我觉得我们应该对抗它。”此外,Altman 批评那些认为“超人类机器智能”危险但又将其视为“永远不会发生或肯定非常遥远”的人,他指责他们“思考松懈、危险。”
事实上,2015 年初,Altman 赞扬政府监管作为确保安全创造 AI 的手段,并建议“一群非常聪明的人,拥有大量资源”的团体可能涉及“以某种方式的美国公司”,将是最有可能首先实现“超人类机器智能”的团体。
当月晚些时候,Altman 联系 Musk,询问他是否有兴趣起草一封致美国政府的公开信,讨论 AI 问题。两人开始准备信件,并接触技术和 AI 领域的有影响力的人士签名。很快,整个行业的人都听说了这封信的传闻。
例如,2015 年 4 月,Hassabis 联系 Musk,表示他从多个来源听说 Musk 正在起草一封致总统的信,呼吁监管 AI。Musk 向 Hassabis 辩护 AI 监管的想法,表示:“如果做得好,这可能会在长期内加速 AI 的发展。如果没有监管监督提供的公众安心,很可能会出现 AI 造成巨大伤害之后,AI 研究被禁止的情况,因为它对公共安全构成危险。”
在 Hassabis 关于公开信联系 Musk 五天后,Hassabis 宣布了 Google DeepMind AI 伦理委员会的首次会议,这是 Google 和 DeepMind 在两年前 Google 收购 DeepMind 时承诺成立的。Musk 被邀请成为委员会成员,并提议首次会议在加利福尼亚州霍索恩的 SpaceX 举行。Musk 在第一次会议后明确感到,这个委员会不是一个认真的努力,而是试图减缓 AI 监管的幌子。
公开信后来于 2015 年 10 月 28 日发布,由超过一万一千人签名,包括 Musk、Stephen Hawking 和 Steve Wozniak。
OpenAI 成立之初的协议
2015年5月25日,Sam Altman 给 Elon Musk 发送了一封电子邮件,表达了他对是否可能阻止人类开发 AI 的深思。Altman 认为答案几乎肯定是否定的。如果 AI 的发展不可避免,那么最好让谷歌以外的某个组织首先实现这一目标。Altman 有一个想法:让 Y Combinator 启动一个 AI 领域的“曼哈顿计划”(这个名称可能非常恰当)。他提议可以通过某种非盈利组织的形式,让技术属于全世界,同时如果项目成功,参与其中的人可以获得类似创业公司的报酬。显然,他们将遵守并积极支持所有监管。Musk 回应说,这“很值得一谈”。
经过进一步的交流,2015年6月24日,Altman 向 Musk 发送了一份关于这个新“AI 实验室”的详细提案。“其使命将是创造第一个通用 AI ,并将其用于个人赋能——即,分布式的未来版本看起来是最安全的。更一般来说,安全应该是一个一流的要求。”“技术将由基金会拥有,并用于‘全世界的利益’。”他提议从一组7-10人开始,并从那里扩展。他还提出了一个治理结构。Musk 回应说,“在所有方面都同意。”
此后不久,Altman 开始招募其他人帮助开发这个项目。值得注意的是,Altman 向 Gregory Brockman 寻求帮助。2015年11月,Altman 通过电子邮件将 Brockman 与 Musk 联系起来。关于该项目,Brockman 告诉 Musk,“我希望我们作为一个中立团体进入这个领域,寻求广泛合作,并将对话转向关于人类取胜而不是任何特定团体或公司取胜。(我认为这是让我们自己成为一个领先研究机构的最佳方式。)”对于一个专注于人类而不是任何特定个人或团体的利益的中立 AI 研究团队的可能性持乐观态度,Musk 告诉 Brockman 他将承诺资金。
Musk 提出了新实验室的名称,反映了成立协议:“Open AI Institute”,或简称“OpenAI”。
以成立协议的原则为指导,Musk 与 Altman 和 Brockman 联手正式启动并推进该项目。Musk 在项目公开宣布之前就积极参与其中。例如,Musk 在员工薪酬包方面向 Brockman 提供建议,分享了他关于薪酬和保留人才的策略。
2015年12月8日,OpenAI, Inc. 的成立证书在特拉华州州务卿处提交。该证书以书面形式记录了成立协议:“本公司是一家仅为慈善和/或教育目的而组织的非盈利公司,符合1986年修订的内部收入法典第501(c)(3)节或任何未来美国内部收入法的相应条款。本公司的具体目的是为与 AI 相关的技术研发和分发提供资金。所产生的技术将惠及公众,公司将寻求在适用的情况下将技术开源以利公众。”
OpenAI, Inc. 在2015年12月11日对外公布。在公告中,Musk 和 Altman 被命名为联合主席,Brockman 被命名为首席技术官。公告强调,OpenAI 旨在“惠及人类”,其研究“不受财务义务的约束”:“OpenAI 是一家非盈利的 AI 研究公司。我们的目标是以最有可能惠及整个人类的方式推进数字智能,不受生成财务回报需求的限制。由于我们的研究不受财务义务的约束,我们可以更好地专注于对人类的积极影响。”
马斯克对 OpenAI 的早期贡献
Elon Musk 在 OpenAI, Inc. 成功启动中扮演了关键角色。在公开宣布的当天,Musk 通过电子邮件写道,“我们最重要的考虑是招募最优秀的人才。”他承诺,帮助招聘工作将是他“全天候的绝对优先事项”。他承认,“我们在人手和资源上被你们所熟知的组织以荒谬的优势超越,但我们站在正义这一边,这意味着很多。我喜欢这样的赔率。”Musk 利用他的人脉、地位和影响力助力招聘工作。OpenAI, Inc. 是由 Elon Musk 赞助的项目,Musk 担任联合主席,这一事实对 OpenAI, Inc. 的招聘工作起到了关键作用,尤其是面对 Google/DeepMind 的反招聘工作。如果没有 Musk 的参与、大量的支持努力和资源——他对成立协议的重视——OpenAI, Inc. 很可能永远无法起步。
最重要的初期聘用之一是首席科学家的职位。Altman、Brockman 和 Musk 都希望 Google 的研究科学家 Ilya Sutskever 担任这一角色。Sutskever 在是否离开 Google 加入该项目上犹豫不决,但最终是在 OpenAI, Inc. 公开宣布的当天,Musk 的一通电话说服了 Sutskever 承诺加入项目,成为 OpenAI, Inc. 的首席科学家。
接下来的几个月里,Musk 积极为 OpenAI, Inc. 招聘。Google/DeepMind 对 OpenAI, Inc. 的招聘人员提出了越来越丰厚的反击报价,试图扼杀这个新兴企业。在 2 月底,Musk 给 Brockman 和 Altman 发送了电子邮件,重申“我们需要做必要的事情来获得顶尖人才。让我们提高报价。如果在某个时候,我们需要重新考虑现有人员的薪酬,那也没关系。我们要么获得世界上最好的人才,要么就会被 Deepmind 打败。不惜一切代价吸引顶尖人才对我来说都是可以的。Deepmind 给我带来了极大的精神压力。如果他们赢了,对于他们想要统治世界的哲学来说,这将是非常糟糕的消息。鉴于那里的人才水平,他们显然在取得重大进展。”
Musk 不仅仅是利用他的人脉和影响力代表 OpenAI, Inc. 招聘,当他告诉 Brockman 和 Altman 提高报价并“做必要的事情来获得顶尖人才”时,他就是在资助那些更高的报价。仅在 2016 年,Musk 就为 OpenAI, Inc. 贡献了超过 1500 万美元,比任何其他捐赠者都多。他提供的资金使 OpenAI, Inc. 能够组建一个顶尖人才团队。同样,在 2017 年,Musk 又向 OpenAI, Inc. 贡献了近 2000 万美元,再次超过任何其他捐赠者。总的来说,从 2016 年到 2020 年 9 月,Musk 为 OpenAI, Inc. 贡献了超过 4400 万美元。
此外,通过 Musk Industries LLC,Musk 为 OpenAI, Inc. 的初始办公空间在旧金山的 Pioneer Building 承租,并支付每月租金费用。Musk 定期访问 OpenAI, Inc.,并出席重要的公司里程碑活动,如 2016 年第一台 DGX-1 AI 超级计算机捐赠给 OpenAI, Inc. 时。Musk 会收到 OpenAI, Inc. 进展的更新,并提供他的反馈和建议。
Altman 和 Brockman 多次重申成立协议
在 2017 年,Greg Brockman 和其他人提议将 OpenAI, Inc. 从一个非盈利组织转变为一个盈利性公司。经过几周的沟通后,Elon Musk 告诉 Brockman、Ilya Sutskever 和 Sam Altman,“要么自己去做点什么,要么继续将 OpenAI 作为一个非盈利组织。在你们做出留下的坚定承诺之前,我将不再为 OpenAI 提供资金,否则我就是一个傻瓜,基本上是在为一家初创公司提供免费资金。讨论结束。”
作为回应,Altman 告诉 Musk 他“仍然对非盈利结构充满热情!”最终,Brockman 和 Sutskever 向 Musk 表明,他们也决心继续保持非盈利结构,并将在接下来的一年致力于为非盈利组织筹集资金。
2018年2月21日,Musk 辞去了 OpenAI, Inc. 联合主席的职务。尽管如此,Musk 依然根据成立协议,继续向 OpenAI, Inc. 提供资助。例如,在 2018 年,Musk 向 OpenAI, Inc. 捐赠了大约 350 万美元。他还继续从 Brockman、Sutskever 和 Altman 那里接收关于 OpenAI, Inc. 的更新。
2018年4月,Altman 向 Musk 发送了一份 OpenAI 宪章草案,并征求他的反馈。草案宣称 OpenAI 的使命是确保 AGI“惠及全人类”。它声明,“我们承诺使用我们对 AGI 部署的任何影响力,确保它用于全人类的利益,并避免启用可能伤害人类或不当集中权力的 AI 或 AGI 的使用。我们的首要受托责任是对人类。我们预计需要动员大量资源来实现我们的使命,但将始终努力最小化可能妥协广泛利益的利益冲突。”
2019年3月11日,OpenAI, Inc. 宣布将创建一个盈利子公司:OpenAI, L.P.。潜在投资者在摘要条款表的顶部被告知一个“重要警告”,即盈利实体“存在是为了推进 OpenAI Inc.(非盈利组织)确保安全的 AGI 被开发并惠及全人类的使命。普通合伙人对这一使命和 OpenAI Inc. 宪章中推进的原则的义务优先于任何盈利义务。”因此,明确建议投资者“将对 OpenAI LP 的任何投资视为捐赠。”
宣布后,Musk 联系 Altman,要求他“明确我对 OpenAI 盈利部门没有任何财务利益。”然而,Musk 继续支持 OpenAI, Inc. 这个非盈利组织,在 2019 年再次捐赠了 348 万美元。
2020年9月22日,OpenAI 宣布它已将其某些预 AGI 技术独家授权给 Microsoft。与成立协议一致,OpenAI 的网站声明 AGI,“一个在大多数经济价值工作中超越人类表现的高度自治系统”“被排除在与 Microsoft 的知识产权许可和其他商业条款之外,这些仅适用于预 AGI 技术。”然而,OpenAI 的董事会“决定我们何时达到 AGI。”
OpenAI 的发展,AI 到 AGI
OpenAI 在初期工作上大量借鉴了 DeepMind 的做法。不同于下棋,OpenAI 在 Dota 2 这个策略性视频游戏上进行了竞争,该游戏比国际象棋有着更多的活动部分。OpenAI 的团队迅速构建了一个新模型,击败了世界冠军队伍,展示了“自我对弈的强化学习能够在困难任务上达到超人的表现”。
与此同时,在 Google,一个名为 Transformer 的算法解决了深度学习在理解长文本序列中遇到的许多问题。这个算法是“大型语言模型”的一个例子,它通过在源语言中的单词之间形成连接,并将这些连接映射到目标语言来翻译文本。
OpenAI 的研究人员继续这项研究,并很快产生了另一个惊人的结果:通过使用 Google 的 Transformer 架构的前半部分,一个深度神经网络可以在大量文本语料上进行预训练,用于生成新文本。2018年1月,OpenAI 发布了这个生成预训练 Transformer(GPT)的源代码和训练模型,以及一篇详细描述模型及其能力的论文。
2019年,OpenAI 发布了第二代模型,GPT-2。这次发布同样附带了一篇详细论文,指出与之前的模型不同,这个模型无需针对特定任务进行训练,"当一个大型语言模型在足够大且多样的数据集上进行训练时,它能够在许多领域和数据集上表现良好"。这些模型证明了它们与以往的 AI 系统非常不同。与其训练系统执行特定任务,不如简单地“请求”它们以自然语言执行新任务。
正如成立协议所预期的那样,OpenAI 公开发布了 GPT-2 的完整版本。值得注意的是,尽管“人类发现 GPT-2 的输出令人信服”,“GPT-2 可以被微调用于滥用”,且“检测(由 GPT 生成的文本)具有挑战性”,OpenAI 仍然决定发布。当时,OpenAI 声明,希望这样做“将对未来强大模型的开发者有用”。这次发布伴随着一篇由 OpenAI 科学家以及独立的社会和技术科学家共同撰写的详细论文,解释了公开发布模型而不是保持封闭所带来的许多好处。
他们的出版物证明对未来、强大模型的开发者确实有用。完整的社区出现了,以增强和扩展 OpenAI 发布的模型。这些社区扩展到了开源、草根努力和商业实体。
2020年,OpenAI 宣布了其模型的第三版,GPT-3。它使用了“1750亿参数,是之前所有非稀疏语言模型的10倍”。OpenAI 再次通过发布研究论文宣布了这一模型的开发,论文描述了其完整的实现,供其他人构建。
2022年,Google 的研究人员采用这些结果,并展示了一个名为连锁思考提示的小改动,能使“大型语言模型执行复杂推理”。东京大学和 Google 的研究人员迅速扩展了 Google 的结果,并展示了 OpenAI 的 GPT-3 能够以逐步的方式推理出一个全新的问题,就像人类一样,“只需在每个答案前添加‘让我们一步一步地思考’”。
AI 的路径变得可见。并且,达到这一点的时间线正在显著压缩。
2023年3月14日,OpenAI 发布了其模型的新一代,GPT-4。这一代不仅能进行推理,而且在推理方面比一般人类做得更好。GPT-4 在统一律师考试中得分位于第90百分位,在 GRE 口语评估中得分位于第99百分位,甚至在高级侍酒师考试中得分为77%。根据 OpenAI 自己的客观衡量标准,GPT-4 已经能够在广泛的经济有价值的任务上展现出优于人类的智能。
这一发展没有被研究社区忽视。在一篇题为“ AGI 的火花:GPT-4 的早期实验”的详细分析中,Microsoft 的研究人员指出,“GPT-4 能够解决跨数学、编程、视觉、医学、法律、心理学等多个领域的新颖且困难的任务,而无需任何特殊提示。而且,在所有这些任务中,GPT-4 的表现与人类水平惊人地接近,通常远远超过之前的模型,如基于 [GPT-3.5] 的 ChatGPT。”
他们将 GPT-4 的表现与基于 GPT-3 的系统的表现进行了比较,发现“与 GPT-4 的输出相比,没有任何可比性”。在数学问题上,他们展示了“GPT-4 给出的解决方案是正确的,论证是合理的,而基于 GPT-3 的 ChatGPT 产生了错误的解决方案,如果是人类的话,这将反映出对函数反转概念的理解缺失”。在另一个例子中,他们展示了“GPT-4 给出了正确的解决方案,而 ChatGPT 开始无目的地重新排列术语,最终得出了一个错误的解决方案。”
Microsoft 自己的科学家承认 GPT-4 “达到了一种通用智能的形式”,并且“鉴于 GPT-4 的能力的广度和深度,我们相信它可以合理地被视为 AGI 系统的早期(尽管仍不完整)版本”。
违反 OpenAI 成立协议
达到 AGI 的阈值后,根据成立协议,他们本应为了人类的利益而非任何盈利公司或个人利益开发 AGI,被告却从其使命中根本性偏离,违反了成立协议。GPT-4 是一个完全封闭的模型。GPT-4 的内部设计仍然是秘密,没有任何代码被发布。OpenAI 没有发布描述其内部设计的任何方面的论文;它只是发布了吹嘘其性能的新闻稿。GPT-4 的内部细节只有 OpenAI 和据信是 Microsoft 知道。因此,GPT-4 与“开放的 AI”完全相反。它因商业专有原因而被封闭:Microsoft 通过向公众销售 GPT-4 而获利颇丰,如果 OpenAI 如其所需那样使技术免费向公众开放,则不可能实现。与成立协议相反,被告选择使用 GPT-4 不是为了人类的利益,而是作为专有技术来为世界上最大的公司最大化利润。此外,OpenAI 的整个开发现在被保密,公众只能通过谣言和零散的通信片段来了解下一步可能发布的内容。
媒体报道称,OpenAI 正在开发一个名为 Q* 的秘密算法。尽管 Q* 的具体内容尚不清楚,但据媒体报道,几名 OpenAI 员工写了一封信,警告 Q* 的潜在力量。看来 Q* 现在或将来可能是 OpenAI 开发的更清晰、更显著的 AGI 的一部分。作为 AGI,它将明确不在 OpenAI 与 Microsoft 的许可范围内,并且必须为了广泛的公众利益而提供。
对于与 Microsoft 的许可协议,OpenAI, Inc. 的董事会决定 OpenAI 是否已达到 AGI,在下面更详细描述的一系列令人震惊的事件中,OpenAI, Inc. 的大多数董事会成员于 2023 年 11 月 22 日被迫辞职,他们的替代者据信是由 Altman 和 Microsoft 亲自挑选的。
2023 年 11 月 17 日,OpenAI, Inc. 的董事会解雇了 Altman。OpenAI 在一篇博客文章中宣布,Altman 被解雇,“他的离职是在董事会进行了深思熟虑的审查过程之后,得出结论他在与董事会的沟通中并不总是坦率,妨碍了其行使职责的能力。董事会不再对他继续领导 OpenAI 持有信心。”
Brockman 也被董事会移除,但被告知他将保留在 OpenAI 的角色。
当时,董事会由 Helen Toner、Adam D’Angelo、Tasha McCauley、Sutskever 博士、Brockman 和 Altman 组成。Toner 女士除了在董事会任职外,还是 AI 治理中心 (GovAI) 的研究员和顾问,以及乔治城大学安全与新兴技术中心的战略总监。McCauley 女士是兰德公司的高级管理科学家,该公司是一家专门从事公共政策决策的非盈利机构。她还是 GovAI 的顾问。D’Angelo——在 Altman 返回后唯一留下的董事会成员——是一位技术 CEO 和企业家。
选择在 OpenAI, Inc. 的董事会中包括多位具有深厚 AI 政策经验的学者和公共政策专家,他们大多数人在公司中没有财务利益,这是有意为之。这种财务上无利害关系的董事会成员结构,他们有着强烈的公共服务记录,确保了董事会会将非盈利的主要受益者——人类——置于财务成功之前。这种保障措施是为了进一步实现 OpenAI, Inc. 的非盈利使命和成立协议:安全地创造能惠及人类的 AGI,而不是盈利公司的金钱利益。
据信,Altman 被解雇部分是因为 OpenAI 在实现 AGI 方面取得了突破。事实上,新闻报道表明,OpenAI 董事会成员和高管之间在安全问题和 OpenAI 下一代 Q* 可能构成的潜在威胁上存在分歧。
Altman 被解雇的消息迅速传开。在董事会宣布 Altman 被解雇后,Brockman 宣布他将与 Altman 一起离开 OpenAI。
当微软 CEO Satya Nadella 得知 Altman 被解雇时,据报道他非常愤怒。作为 OpenAI 盈利部门的 49% 股东,Nadella 认为在解雇 Altman 之前应该咨询微软。然而,当时,除了 Altman,OpenAI, Inc. 的董事会与微软没有任何联系,也没有对盈利部门投资者的受托责任。据信,Altman 是微软和 OpenAI, Inc. 之间的主要联络人。
Nadella 邀请 Altman 和 Brockman 领导一个新的微软 AI 研究实验室,不受 OpenAI, Inc. 人道主义使命的限制。Nadella 明确表示,离开 OpenAI 的员工将以相同的薪水欢迎加入微软的新实验室。
微软确信,通过其在 OpenAI 盈利部门的大量所有权,如果公司停止存在,它可以完全隔离 OpenAI, Inc. 的研究。事实上,在 Altman 被解雇后不久的一次采访中,Nadella 说:“我们对自己的能力非常有信心。我们拥有所有的知识产权和所有的能力。如果 OpenAI 明天消失了,我真的不希望我们的任何客户感到担心,因为我们拥有继续创新的所有权利。不仅仅是为了提供产品,我们还可以继续我们在合作中所做的事情。我们有人才,我们有计算能力,我们有数据,我们拥有一切。”
尽管微软就其在没有 OpenAI 的情况下继续运作的能力发表了声明,微软从未放弃确保 Altman 重新成为 OpenAI, Inc. 的 CEO 的计划。在 Altman 被解雇的几天后,OpenAI, Inc. 的董事会面临来自律师和主要股东(包括微软)的压力,要求恢复 Altman 的职位。
Toner 女士在努力恢复 Altman 的过程中受到了特别的针对。在这些努力中,一名代表 OpenAI 的律师告诉 Toner 女士,如果因为 Altman 被解雇而导致 OpenAI 失败,她和董事会可能面临违反对投资者受托责任的指控。
然而,OpenAI, Inc. 的董事会从未对投资者承担受托责任。实际上,所有投资盈利部门的投资者都被告知,公司对其使命的责任优先于对其投资者的责任,OpenAI, Inc. 的网站明确指出它只对人类承担受托责任。
Toner 女士,她将律师的行为描述为一种恐吓策略,认为 Altman 继续被移除实际上将通过提升人类的安全而非利润来推进公司的使命。然而,这一切都没有阻止股东和 Altman 推动他的复职。
此外,微软对 OpenAI, Inc. 及其董事会拥有相当大的强制力。在 Altman 被解雇的期间,Nadella 谈到微软与 OpenAI 的关系时说:“我们就在那里。我们在他们下面,在他们上面,围绕着他们。我们进行内核优化,我们构建工具,我们构建基础设施。所以这就是为什么我认为很多工业分析师都在说,‘哦哇,这真的是微软和 OpenAI 之间的联合项目。’实际上,正如我所说,我们在所有这些方面都非常自给自足。”
此外,在解雇发生时,微软只支付了它对 OpenAI 承诺的 100 亿美元投资中的一小部分,给了微软对“独立”非盈利董事会严重的影响力。此外,如果微软撤回其云计算系统——OpenAI 依赖的系统,该公司将无法运作。
据信,在 Altman 先生返回后,他亲自挑选了一个新的董事会,这个董事会缺乏与之前董事会设计时类似的技术专长或在 AI 治理方面的任何实质性背景。D'Angelo 先生,一位技术 CEO 和企业家,是 Altman 先生返回后唯一留下的前董事会成员。新董事会包括在以利润为中心的企业或政治方面比在 AI 伦理和治理方面有更多经验的成员。他们也被报道是“Altman 的忠实粉丝”。新董事会成员中有 Bret Taylor 和 Larry Summers。Taylor 先生在硅谷并不陌生,并且深度参与了湾区各种以盈利为驱动的企业。2024年2月14日,Taylor 先生和前谷歌高管 Clay Bavor 启动了一家专注于为企业构建 AI 聊天机器人的初创公司。Summers 博士是一位经济学家,据信在2023年11月之前没有在基于 AI 的企业中工作过的经验。微软还在董事会上获得了一个观察员席位,从中可以密切关注其表面上的非盈利摇钱树。
随着 Altman 先生的重新任命和董事会的重组,OpenAI 的公司结构——原本被设计为非盈利部门、盈利部门、董事会和 CEO 之间的平衡系统,以确保非盈利使命得以执行——一夜之间崩溃。OpenAI, Inc. 曾经精心打造的非盈利结构被纯粹以盈利为驱动的 CEO 和在 AGI 及 AI 公共政策方面技术专长较差的董事会所取代。董事会现在为微软保留了一个观察员席位。通过这种重组,OpenAI, Inc. 放弃了其为了广泛人类利益开发 AGI 的非盈利使命,从而使其远离了一个巨大的盈利公司,其中巨大的权力将不当集中。
OpenAI, Inc. 董事会在 AI 技术专长、中立性和对 OpenAI, Inc. 非盈利使命的承诺对 OpenAI, Inc. 的使命尤为重要,因为正是董事会决定 OpenAI 是否已达到微软许可协议目的的 AGI。这意味着董事会的任务是确定 OpenAI 最强大和最先进的技术是否实际上被排除在微软的独家许可范围之外。考虑到微软对于将大门关闭以阻止公众进入的巨大财务利益,OpenAI, Inc. 的新董事会,因其被俘获、冲突和顺从,将有充分的理由永远不做出 OpenAI 已达到 AGI 的发现。相反,OpenAI 的 AGI 成就,就像《安妮》中的“明天”,总是遥遥无期,确保微软将获得 OpenAI 最新技术的许可,而公众则被排除在外,这与成立协议完全相反。
OpenAI 的行为可能对硅谷产生重大影响,如果被允许存在,可能代表技术初创公司的范式转变。重要的是要反思这里发生了什么:一个非盈利初创公司收集了数千万美元的捐款,明确目的是为了公共利益开发 AGI 技术,而就在实现该公司创建目的的里程碑之前不久,该公司变成了世界上最大的公司的闭环、盈利合作伙伴,从而使被告人个人获利。如果这种商业模式有效,它将彻底重新定义加利福尼亚州及其他地方的风险投资实践方式。与其从一开始就作为一个盈利实体,聪明的投资者会建立非盈利组织,使用税前捐款来资助研究和开发,然后一旦他们的技术被开发出来并证明有效,就会将产生的知识产权资产转移到一个新的盈利企业中,以此来丰富自己和他们的盈利最大化的企业伙伴。这不应该是加利福尼亚州或这个国家的法律如何运作的方式,这也不应该是第一个持相反意见的法院。
为了进一步理解这为什么重要,如果 OpenAI 的新商业模式有效,对于每一美元投资者通过向非盈利组织的“投资”获得的,投资者将从州和联邦政府那里以减少的所得税形式获得大约 50 美分回报,因此他们每1美元投资的净成本只有 50 美分。然而,通过 OpenAI 的新商业模式,他们获得与那些以传统方式投资于盈利公司并因此没有立即获得税收减免的人相同的“盈利”上升空间,由政府和最终由公众资助。从投资的角度来看,与采用新 OpenAI 商业模式的实体竞争就像打篮球比赛,对方的篮筐得分是你的两倍。如果这个法院认可 OpenAI 在这里的行为,任何希望在硅谷保持竞争力的初创公司基本上都将被要求遵循这种 OpenAI 战略,这将成为初创公司的标准操作程序,对合法的非盈利组织、政府的税收收入和最终加利福尼亚州及其他地区的人民造成损害。值得注意的是,OpenAI 的盈利部门最近的估值接近800亿美元。
11 月至今:Altman 的 OpenAI
公众仍然对董事会的“审议性审查过程”揭示了什么导致 Altman 最初被解雇一事一无所知。然而,对于 Musk 先生和广大公众来说,一件事是清楚的:OpenAI 放弃了其“不可撤销”的非盈利使命,转而追求利润。许多领袖和知识分子已经公开评论了 OpenAI 变成“封闭的、盈利的 AI”这一讽刺和悲剧。
例如,2023 年 11 月 29 日,MIT 的经济学家在《洛杉矶时报》上发表了一篇意见文章,表达了对 OpenAI 新的盈利驱动指令的担忧。用他们的话说,“颠覆和不受控制的增长已成为科技行业的宗教,而 Altman 一直是其最忠诚的高级牧师之一。”经济学家强调,新董事会更有可能允许 Altman 尽可能快地扩大 OpenAI 的规模,不管社会成本有多严重。
公民权益组织 Public Citizen 的主席今年早些时候给加利福尼亚州检察长 Rob Bonta 写了一封公开信,提出了关于 OpenAI 的盈利子公司是否对非盈利机构施加了不适当的控制,或者非盈利机构的目的在 Altman 和微软的领导下是否转向了盈利的担忧。信中建议,如果非盈利机构放弃了其原始使命,它应该被解散,其资产应转给另一个慈善企业。
WIRED 在 2024 年 1 月的一项调查发现,OpenAI 近期也关闭了公众访问以前可用的“关键文件”。根据 OpenAI 最初的透明度承诺,OpenAI 的 IRS 文件自成立以来就表明,任何公众成员都可以查看其治理文件、财务报表和利益冲突规则的副本。然而,当 WIRED 请求这些文件时,OpenAI 表示它已更改了政策。因此,尽管 OpenAI 长期以来一直宣扬其对透明度的承诺,公众却无法获得揭示 2023 年 11 月事件的信息。
访问 OpenAI 的文件可以让公众了解它是否已改变其治理结构以取悦微软和其他股东。至少,为了适应微软在董事会上的席位,必须做出改变,现在 Altman 正在与中东投资者进行讨论,以筹集高达 7 万亿美元的资金,旨在开发一个全球 AI 芯片制造厂网络。如果微软的 100 亿美元就足以让它获得董事会席位,那么可以想象这些新的潜在投资可能会给投资者带来多大的影响力。当一个潜在的捐赠者是阿拉伯联合酋长国的国家安全顾问,而美国官员因为阿拉伯联合酋长国与中国的联系而感到担忧时,这尤其令人不安。此外,Altman 被引述讨论了让阿拉伯联合酋长国成为一个“监管沙盒”,在那里测试 AI 技术的可能性。
此外,访问 OpenAI 的利益冲突政策对于揭示董事会控制 Altman 使用 OpenAI 促进其个人经济利益的能力至关重要,到目前为止,这似乎还未受到制约。例如,在 2019 年 Altman 担任 CEO 时,OpenAI 签署了一份意向书,购买价值 5100 万美元的芯片,这些芯片来自 Altman 大量投资的一家初创公司。
虽然 OpenAI, Inc. 曾是基于公开与公众沟通的安全、负责任的 AGI 开发的先驱,但现在它已经关闭了大门,将其盈利子公司的最大投资者带到了唯一对人类负有受托责任的董事会,并继续秘密地朝着以利润为中心的未来前进,可能对人类产生灾难性的后果。
Musk 与 Altman 以及 Brockman 共同创立并资助了 OpenAI, Inc.,交换的是依靠成立协议以确保 AGI 将惠及人类,而不是盈利公司。随着 2023 年的事件发展,他对 OpenAI, Inc. 的贡献被扭曲,以造福被告和世界上最大的公司。这是对成立协议的明显背叛,将该协议颠倒并扭曲了 OpenAI, Inc. 的使命。想象一下捐款给一个声称其使命是保护亚马逊雨林的非盈利组织,但然后非盈利组织创建了一个盈利的亚马逊伐木公司,使用捐款的成果清除雨林。这就是 OpenAI, Inc. 的故事。
本文来源:有新Newin,原文标题:《刚刚!马斯克正式起诉OpenAI及其CEO奥特曼(附1.2万字指控细节)》