欧洲为什么“害怕”ChatGPT?

监管成为利剑。

3月31日,意大利个人数据保护局宣布,即日起暂时禁止使用聊天机器人ChatGPT,并表示已对ChatGPT背后的OpenAI公司展开调查。

OpenAI必须在20天内通过其在欧洲的代表,向意大利个人数据保护局通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款

意大利出手之后,德国紧随其后。4月3日,德国联邦数据保护专员发言人称,出于数据保护方面的考虑,可能会暂时禁止在德国使用ChatGPT。该发言人称,是否决定禁止将由德国联邦数据保护机构研判后决定。此外,该机构要求意大利监管机构提供有关其阻止ChatGPT的更多信息。

意德两国之后,其他欧洲国家可能也会跟进。西班牙监管机构表示,虽然暂未收到任何关于ChatGPT的投诉,但不排除未来会进行调查。

此外三星称,该公司近期发生的数起数据泄露事件和ChatGPT直接相关。主要原因是因为三星员工直接将企业机密信息以提问的方式输入到ChatGPT中,会导致相关内容进入学习数据库,从而可能泄漏给更多人。

为了避免这种情况再次发生,三星已经告知员工谨慎使用ChatGPT。如果后面仍发生类似事故,将考虑禁止在公司内网上使用ChatGPT。

伴随着ChatGPT的持续火爆,关于数据安全和AI风险的担忧也接踵而至,在监管上欧洲又率先扛起了大旗。

从2018年欧盟正式出台《数据通用保护条例》(GDPR),到2019年7月法国率先通过向大型互联网公司正式“数字服务税”,随后欧洲国家纷纷跟进;再到2020年底欧盟提出《数字服务法》(DSA)和《数字市场法》(DMA)两项法案,前者规范科技公司的内容审核系统,后者旨在限制科技巨头的不正当竞争行为;2021年4月欧盟又发布了《人工智能法案》,该法案原定于3月底进行投票。

欧洲之所以对数据安全和人工智能领域如此严格,究其根本原因还是欧洲在互联网领域的竞争力远不及美国,在规模和市场份额上都处于绝对弱势。

欧洲自己没有领先的互联网企业,但是可以靠征税和罚款变相参与巨头的收入分配,同时还能将自己打造成数据安全和信息保护标准的制定者,从而提升欧洲在科技领域的影响力。

相关文章