欧盟的AI法案于周三获得欧盟议会批准,预计将于5月生效。届时,所有的欧盟成员国都将遵守AI法案规定。
3月13日周三,欧盟议会批准了AI法案。该法案为AI技术设置严格的规则,旨在确保AI的使用不会侵犯人的基本权利,如隐私、数据保护和非歧视等,防止AI滥用和风险。相较之下,当前美国尚未出台任何类似的法律。
据悉,该法案的批准只是立法过程的一部分。去年12月初,欧盟各成员国、相关机构就AI法案达成了初步共识。达成一致后,该法案被提交到欧洲议会进行表决。在本次议会中,AI法案以压倒性票数获得了通过(523赞成对46反对),议会的认可是法案成为法律的决定性步骤之一。
在获得欧盟议会的批准后,该法案还需通过最终的审核并获得欧洲理事会的认可。有分析指出,该法案预计在5月生效,届时,所有的欧盟成员国都将需要遵守这项AI法案。
AI法案注重保护个人隐私
随着AI技术在各个行业和生活领域的广泛应用,其潜在的负面影响和伦理问题也随之浮现。欧盟通过AI法案,旨在建立一套统一的规范和监管框架,以确保AI技术的发展和应用能够遵循公平、透明和可信的原则。
例如,该法案明确禁止人们在工作场所和学校使用人工智能来检测情绪;禁止使用人工智能驱动的社会评分系统,以及任何基于生物特征工具用于推测个人的种族、政治倾向或性取向;此外,法案还将对如ChatGPT这样的生成式AI工具进行首次限制。这些限制很可能旨在管理这些技术对信息传播、版权和潜在错误信息的影响。
欧盟AI法案还有一个核心特征是其对AI应用进行风险级别分类,分为“不可接受”风险、高风险、中风险和低风险。其中,被认定为带有“不可接受”风险的应用将被完全禁止。并非所有AI应用都将受到同等程度的监管,法规会根据不同风险等级的AI应用来制定针对性的标准。
AI标准过严会伤害欧盟本土AI企业
欧盟的AI法案被认为是目前全球最全面的监管框架,但它的通过同时引发了公司和监管机构的担忧:一方面,有些公司担心这项法案可能过于严格,限制了技术创新和商业发展;另一方面,一些立法者认为该法案还不足以全面应对人工智能带来的挑战和风险。
同时,AI竞争白热化,为了不输给美国公司,欧盟内部需要平衡技术监管与创新竞争力之间的关系。由于人工智能技术的复杂性和快速发展,欧盟需要不断调整和更新法规,促使人工智能的使用符合人权和道德准则的同时,确保人工智能的发展能够促进经济增长和创新,助力欧盟公司在AI竞赛中拔得头筹。
例如,在去年谈判进入最后阶段时,法国和德国政府反对AI规则过严,他们认为过于严格会伤害欧洲的初创企业,比如法国的Mistral AI和德国的Aleph Alpha GmbH。
与微软合作的法国OpenAI竞争者Mistral表示:
“相较于在较少限制性监管框架下运作的美国大型科技公司,该法案过于严格的规定可能限制欧盟AI领域的竞争能力。”
有分析指出,Mistral与微软的合作体现了这种紧张关系:一方面,这种合作是一个积极的机遇,它代表着欧盟本土AI公司通过与全球科技巨头合作,从而提升自己的技术能力和扩大市场影响力;
另一方面,这种合作也引起了一些担忧,如果欧盟的规定过于严格,可能会促使欧盟内部的AI企业寻求与欧盟监管体系之外的公司合作,以规避这些限制,这可能削弱欧盟立法的初衷和目标。