美国五角大楼“拉黑”AI巨头Anthropic,双方争议焦点:核战争

美国五角大楼正式将AI巨头Anthropic列为 “国家安全供应链风险”,全面封杀其在联邦政府及军方的应用。决裂的直接导火索是双方在核战争决策上的根本冲突:军方模拟演习中要求使用Claude AI协助拦截导弹,但Anthropic坚持拒绝将技术用于自动武器和致命决策,被国防部指责“试图否决美军行动”。

特朗普政府正式将人工智能初创企业Anthropic列为“国家安全供应链风险”,全面封杀其在联邦政府及军方的应用。这一史无前例的决裂,源于双方在AI是否应介入核战争等致命军事决策上的根本分歧。

美国国防部长Pete Hegseth宣布,任何与美军有业务往来的承包商必须立即停止与Anthropic的商业活动,现有服务将在六个月内逐步淘汰。美国总统特朗普随后公开施压称,若该公司在过渡期内不予配合,将面临民事与刑事指控。

此举在硅谷引发剧烈震动,重塑了科技巨头与美国军方的合作规则。对于估值高达3800亿美元、此前已斩获约2亿美元军方合同的Anthropic而言,这不仅意味着直接的商业损失,更向整个AI行业释放了强烈的合规风险信号,表明政府在关键国防领域不容许企业设置技术壁垒。

在Anthropic面临驱逐之际,其竞争对手OpenAI和马斯克旗下的xAI正迅速行动以填补市场真空。据《华尔街日报》报道,OpenAI首席执行官奥尔特曼已向员工透露,正与五角大楼就新的合作协议进行谈判,试图在满足军方需求与维持企业安全底线之间寻找平衡。

核危机假设引爆“控制权”之争

五角大楼与Anthropic的矛盾核心,在于AI系统在极端军事行动中的应用权限。双方上月在讨论一项极端的核战争场景时爆发了严重冲突:如果美国遭到洲际弹道导弹袭击,军方能否使用Anthropic的Claude AI系统协助拦截。

五角大楼官员指责Anthropic首席执行官Dario Amodei试图对美军的行动决策行使否决权。美国国防部负责研发和工程的副部长Emil Michael公开批评Anthropic将自身意识形态置于国家安全之上,并强调绝不能让大型科技公司决定战争结果。

Anthropic方面则强烈反驳了军方的指控,称其对拦截导弹的说法“完全错误”。Dario Amodei发表声明强调,当前的AI系统尚不具备足够的可靠性来驱动自动武器,这会将士兵和平民置于危险之中。该公司坚持其核心原则,即拒绝将AI技术用于自动致命武器和国内大规模监控。

OpenAI与xAI加速抢占市场真空

Anthropic的出局直接改变了AI军工市场的竞争格局。OpenAI正试图向军方提供一种折中方案。奥尔特曼向员工表示,政府愿意在合同中纳入OpenAI的“红线”,允许该公司构建自己的“安全堆栈”。这意味着,如果AI拒绝执行违反安全原则的指令,政府不会强迫其执行

与此同时,马斯克的xAI及其聊天机器人Grok因限制较少,成为五角大楼的另一个更具吸引力的选择,并已获准用于一些最高机密行动。然而,据华尔街日报援引知情人士指出,包括美国联邦总务署(GSA)在内的多个联邦机构对Grok的安全性和可靠性发出了严重警告,担忧其数据偏见和易受操纵的特性可能带来系统性风险。

科技行业面临合规与投资风险重估

彭博社分析指出,特朗普的决定将促使投入数十亿美元研发AI的科技公司重新评估与联邦政府签订合同的最佳方式。Anthropic此前是唯一能在五角大楼机密云环境中运行的AI系统,其Claude Gov工具因易用性备受国防人员青睐,该禁令对政府和企业而言均意味着巨大风险。

更令市场担忧的是政府可能采取的强制手段。五角大楼官员此前暗示,可能利用政府职权强制Anthropic交出技术。业内专家警告称,这种极端的政策选项将对整个行业产生寒蝉效应,使得投资者和企业担忧,一旦与国防部深度合作,可能最终面临丧失核心技术控制权的风险。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章