OpenAI周一发布一份政策建议文件,提出涵盖公共财富基金、自适应社会安全网、电网加速扩张等一系列政策框架,旨在应对人工智能向"超级智能"演进过程中可能引发的经济与社会冲击。这是这家全球最具影响力的AI公司迄今最系统性的政策表态。
文件题为《智能时代的产业政策:以人为本的构想》,于4月6日发布。OpenAI首席全球事务官Chris Lehane在接受采访时表示,围绕AI的政策讨论本身需要"与技术本身一样具有变革性"。他强调,"仅仅挥挥手说'这些事情将会发生',却不拿出解决方案,是远远不够的。"
文件的发布时机颇具意味。目前ChatGPT每周全球用户已超过9亿,但许多美国民众对AI持负面态度,主要原因在于对就业岗位被取代的担忧,以及数据中心高耗能问题带来的社会压力。OpenAI上周刚刚收购了科技脱口秀节目TBPN,此次再度主动出击,试图在政策层面塑造公众和监管者对AI的认知。
建立“公共财富基金”,让普通人分享AI增长
文件的核心经济主张之一,是建立一个面向全体公民的"公共财富基金"。OpenAI提出,该基金可投资于多元化长期资产,涵盖AI公司及更广泛的AI应用企业,基金收益直接分配给公民,使其"无论初始财富水平或资本获取渠道如何,都能直接参与AI驱动增长的红利"。
在劳动者权益层面,文件建议激励雇主和工会开展"每周32小时、四天工作制"试点,前提是员工产出和服务水平保持不变。试点成功后,可将节省下来的工时转化为永久性缩短工作周或可累积的带薪假期。此外,文件还建议将AI带来的效率收益转化为更高的退休金匹配比例、更大比例的医疗费用覆盖,以及育儿和老年护理补贴。
在税基重构方面,文件指出,随着AI扩大企业利润和资本收益,劳动收入和薪资税的占比可能下降,进而侵蚀社会保障、医疗补助等核心项目的资金来源。为此,文件建议提高资本利得税、企业所得税,并探索针对自动化劳动的新税种,同时配套与薪资挂钩的激励措施,鼓励企业留用和再培训员工。
自适应安全网:设定触发阈值,按需扩张援助
针对AI可能引发的大规模就业冲击,OpenAI提出一套"自适应安全网"机制。文件建议政府建立实时测量体系,持续追踪AI对就业、薪资、工作质量及行业动态的影响,并预先定义一套扩大援助的政策工具包——包括更灵活的失业保险、快速现金援助、工资保险和培训券。
关键设计在于"触发机制":当失业率或行业性、区域性失业指标超过预设阈值时,援助自动启动并按比例扩大;一旦形势稳定,援助随之退出。文件强调,这一设计旨在确保援助"有针对性、有时限、与冲击规模相匹配",同时避免项目的永久性扩张。
文件还建议建立"可携带福利"体系,将医疗保障、退休储蓄和技能培训账户与单一雇主脱钩,使其能够跟随个人跨越不同工作、行业和教育阶段流转。
AI数据中心不应由家庭用户埋单
在能源基础设施层面,文件明确要求AI数据中心"自负能源成本,不让家庭为其补贴",同时应为当地创造就业和税收。
为加快电网扩张,文件建议建立新型公私合作融资模式,通过定向投资抵免、灵活补贴或股权参与等方式降低资本成本,并消除高压跨州输电线路在融资、审批和选址方面的障碍。文件还建议在符合国家利益的情况下,赋予联邦政府有限权力,加速跨区域输电线路建设。文件强调,相关合作结构应最大限度降低纳税人的商业损失风险,并确保能源基础设施扩张最终转化为居民和企业能源成本的下降。
安全与治理:从部署前延伸至部署后
在AI安全治理方面,文件呼吁将监管重心从"部署前"延伸至"部署后"的实时监测与响应。文件提出建立"AI信任技术栈",开发可验证的内容来源标准和隐私保护审计系统,以在不构成大规模监控的前提下支持问责。
文件建议强化AI标准与创新中心(CAISI)的职能,建立覆盖前沿AI风险的审计标准体系,并通过政府采购、预购承诺和保险框架,培育一个竞争性的审计评估市场。对于可能显著提升化学、生物、放射性、核武器或网络攻击风险的少数高能力模型,文件建议实施更严格的部署前后审计,但同时强调应将此类要求限定在极少数公司和最先进模型范围内,以保护创业生态。
在国际协调层面,文件提出构建全球AI研究院网络,建立跨实验室、跨国家的信息共享渠道,并借鉴其他多边安全机构的经验,逐步形成国际协调框架。
从非营利到营利,OpenAI的政策布局逻辑
OpenAI成立于2015年,最初定位为非营利机构,致力于推动造福人类的AI研究。此后,该公司已完成向更传统营利结构的转型。文件在公司治理层面建议,前沿AI公司应采用嵌入公共利益问责机制的治理结构,例如设立使命导向的公益公司,并作出广泛分享AI收益的长期承诺,包括重大慈善捐赠。
OpenAI表示,上述建议仅是"更广泛对话的起点",并非最终答案。公司宣布将开放政策反馈邮箱,设立最高10万美元研究奖学金及最高100万美元API算力研究资助,并将于5月在华盛顿特区开设OpenAI工作坊,推动相关政策讨论。




