对“AI惹祸”投保?保险公司“不敢接”

以AIG为首的多家保险巨头正寻求监管批准,以便在企业保单中排除AI相关责任。保险公司担心AI如同“黑箱”,其潜在的系统性索赔风险可能引发行业无法承受的巨额亏损。近期已出现多起由AI错误引发的重大经济损失事件,例如谷歌AI功能被诉诽谤、加拿大航空聊天机器人虚构折扣等。

随着企业竞相拥抱人工智能浪潮,风险也正悄然积聚,而本应扮演风险“稳定器”角色的保险业,却对此表现出审慎与退缩。

据英国《金融时报》11月24日报道,面对AI技术带来的潜在数十亿美元索赔风险,全球主要保险公司正在采取行动,试图将AI相关的风险排除在标准企业保单之外。

美国国际集团(AIG)、Great American和WR Berkley等行业巨头已向美国监管机构提交申请,寻求批准其在保单中加入免责条款,明确排除因企业部署聊天机器人、AI代理等工具而引发的各类责任。

此举标志着保险业对AI风险态度的重大转变。保险公司普遍担心,AI模型的决策过程不透明,如同一个“黑箱”,一旦出错,责任难以界定。更令他们警惕的是,单一AI模型的缺陷可能导致成千上万起关联索赔,形成行业无法承受的“系统性、聚合性风险”。

这一转变的背景是,由AI“幻觉”(即模型生成虚假信息)或错误引发的昂贵代价已不再是理论。从加拿大航空的聊天机器人杜撰折扣被判赔付,到谷歌的AI搜索功能因提供错误信息而被索赔1.1亿美元,现实案例正不断敲响警钟。

AI风险“黑箱”化,系统性风险引担忧

保险公司撤退的核心原因在于AI风险的不可预测性和潜在的巨大规模。

伦敦劳合社专业保险公司Mosaic的欧洲网络保险负责人Dennis Bertram直言,AI模型“太像一个黑箱了”,难以承保。该公司虽然为部分AI增强型软件提供保障,但已明确拒绝为类似ChatGPT的大型语言模型承保。

安永网络风险负责人Kevin Kalinich指出,保险业或许能承受单一公司因AI定价或诊断错误而产生的4亿或5亿美元损失,但“他们无法承受的是,一个AI提供商的错误导致1000或10000起损失——这是一种系统性的、相互关联的聚合风险”。

苏黎世保险首席信息官Ericson Chan也认为,AI风险涉及开发者、模型构建者和终端用户等多方,责任链条复杂,其潜在市场影响“可能是指数级的”。

保险巨头的行动最为直接。根据提交给监管机构的文件,WR Berkley提出的一项免责条款范围极广,旨在排除涉及“任何实际或声称使用”AI技术所引发的索赔。AIG在文件中也向监管机构表示,生成式AI是一项“范围广泛的技术”,未来导致索赔的可能性“可能会随着时间的推移而增加”。

这些举措正值AI风险事件频发之际。除前述案例外,英国工程集团Arup去年因欺诈者使用高管的数字克隆版本,在视频会议中下令转账,损失了2500万美元。随着保险公司寻求豁免,这些曾可能由“技术错误与疏漏”保单覆盖的风险,正面临保障真空。

寻求变通方案,但保障范围受限

面对市场的需求,部分保险公司正在探索折中方案,但提供的保障往往范围狭窄且限制严格。

例如,保险公司QBE推出了一项针对欧盟《人工智能法案》相关罚款的“背书”(保单修正案),但据一家大型经纪商透露,该条款将AI相关罚款的赔付上限限制在总保额的2.5%。

总部位于苏黎世的Chubb在与经纪人的谈判中,同意承保某些AI风险,但明确排除了“广泛性”AI事件,即一个模型问题同时影响多个客户的情况。

律师事务所Stewarts的保险纠纷团队负责人Aaron Le Marquer警告称,当AI驱动的损失大幅增加时,保险公司可能会开始在法庭上对索赔提出异议,他预计“可能需要一次重大的系统性事件,才会让保险公司站出来说,等等,我们从未打算承保这类事件。”

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章