AI监管国际标准要来了?G7部长会议达成5大原则,同意采用“基于风险”的监管

G7数字与科技部门在联合声明中表示,计划在未来召集关于生成式人工智能的讨论,其中可能包括治理、知识产权保护、提高透明度、解决虚假信息等议题。

随着ChatGPT大火带动人工智能的快速发展和应用,各国将如何监管也备受关注。

据路透社报道,4月30日,七国集团(G7)数字与科技部长们在日本本州岛高崎开会后发布联合声明,同意对人工智能采取“基于风险”的监管,不过声明同时强调,监管还应为人工智能技术的发展“保持开放和有利的环境”。

联合声明列举了政策制定者管理人工智能和其他新兴技术使用的五项原则——法治、正当程序、民主、尊重人权和利用创新机会。

所谓“基于风险”的监管或意味着监管部门将针对人工智能的具体应用场景和潜在风险,制定不同的监管措施和标准。这样可以避免一刀切的监管方式,既能保障公共安全,又不会过度限制人工智能技术的发展。

七国集团部长在联合声明中表示:“鉴于生成人工智能技术在各个国家和部门的重要性日益突出,我们认识到有必要在近期评估这些技术的机遇和挑战,并继续促进安全和信任。”

声明称,“我们计划在未来召集七国集团关于生成式人工智能的讨论,其中可能包括诸如治理、如何保护包括版权在内的知识产权、提高透明度、解决虚假信息”等主题。

据路透社报道,虽然部长们认识到“实现共同愿景和目标的政策工具可能因七国集团成员而异”,但协议为主要国家如何在隐私问题和安全风险下管理人工智能设定了里程碑。

目前,欧洲在监管人工智能方面较为激进,意大利上个月下线了 ChatGPT,以调查其可能违反个人数据规则的行为;上周,欧洲议会成员就《人工智能法(The AI Act)》提案达成临时政治协议,预计将在5月11日进行关键委员会投票,6月中旬进行全体投票。如果该法案获得通过,将成为是全世界第一部综合性的人工智能法律。

今年七国集团主席国日本对人工智能开发采取了相对宽松的态度,承诺支持公共和工业采用人工智能。日本工业大臣西村康俊周五在部长级会谈前表示,日本希望 G7 就人工智能技术“敏捷或灵活的治理达成一致,而不是先发制人的全面监管”。

日本将于5月底在广岛举办G7峰会,届时首相岸田文雄将与世界各国领导人讨论人工智能规则。

 

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。