人工智能法纳入立法计划背后:专家建议划定红线,设置负面清单

红星新闻
专家表示,法律应当以鼓励人工智能产业发展为主,要确定大的红线和负面清单的立法思想。就是考虑到人工智能可能给社会发展带来的几大危害,比如人工智能不能用于诈骗、不能用于数据攻击等。

日前,国务院办公厅印发《国务院2023年度立法工作计划》。其中值得注意的是,人工智能法草案等预备提请全国人大常委会审议,可见我国人工智能领域立法将迈上新台阶。

其实,2017年国务院印发的《新一代人工智能发展规划》就提出“三步走”的战略目标,2020年,部分领域的人工智能伦理规范和政策法规初步建立。2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。

中国社科院法学所研究员、科技与法研究中心主任、博士生导师杨延超在接受红星新闻采访时表示,需要既考虑人工智能风险,又要考虑产业发展。人工智能还属于技术发展的初期,不宜将很多问题规定得过细甚至过严。法律还应当以鼓励产业发展为主,要确定大的红线和负面清单的立法思想。所谓大的红线和负面清单,就是考虑到人工智能可能给社会发展带来的几大危害,划定红线。比如人工智能不能用于诈骗、不能用于数据攻击等。

为什么说人工智能立法条件已经成熟?

过去几年,我国人工智能领域建章立制已经起步。2022年3月1日开始实施的《互联网信息服务算法推荐管理规定》(以下简称“算法推荐管理规定”)中,生成合成类算法被列为五大类算法推荐技术之一(生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类),受到监管。

2023年1月1日开始实施的《互联网信息服务深度合成管理规定》(以下简称“深度合成管理规定“)中,将深度合成作为算法服务种类中高风险的算法率先立法监管,进一步加强了对该领域的监管力度。

为了进一步推动人工智能领域的规范和发展,国家互联网信息办公室于2023年4月11日发布了《生成式人工智能服务管理办法(征求意见稿)》。

综合以上三份文件,随着算法和人工智能技术的发展,我国对其治理也形成了“算法治理——深度合成治理——生成式人工智能治理”的迭代路径。

中国社科院法学所研究员、科技与法研究中心主任、博士生导师杨延超教授长期研究人工智能立法问题。在杨延超看来,以上几部管理办法的出台,体现的是随着人工智能技术的进步,立法工作也进步。

杨延超解释,最开始出台的推荐算法相关规则是因为很多平台通过算法来提升服务,使用用户画像来计算用户偏好,用户不需要检索,平台就会自动推荐相关内容。推荐算法得到广泛应用以后,最先出台的便是关于推荐算法的管理规则。后来又出现了深度合成技术,包括“换脸”技术等,可以生成语音、图像。这个过程也引发了人们对于权利的思考,包括是否会侵犯人身权等问题,所以出台了深度合成的管理规则。今年年初,ChatGPT这种生成式人工智能引发了一系列挑战,而且目前各个领域都在用大模型来完成生成式人工智能,生成文字、图像,甚至代码、视频,可以看到人工智能已经具备了一定的资料整合、推理、逻辑分析的能力,这是过去人才具备的能力,所以会产生个人隐私、数据安全、知识产权保护等一系列问题。出于对这些问题的担忧,又开始制定生成式人工智能的管理规则。这是一个技术与法律进化的脉络。

之所以在今年提出要把人工智能法草案纳入立法计划,杨延超表示,是因为人工智能技术经过了多年的积累,今年得到了爆发式的增长。在整个技术产业中,大模型成为了一种突破,在此之前,某些局部领域,小模型解决了一定问题,但处在技术瓶颈中。这一次大模型的发展,带来了全新的可以实现的能力。OpenAI的试验让人们看到,大模型时代AI产生了类人的能力。在这么一个特殊的时期,立法者、管理者在思考产业发展的同时,也会考虑到相应的风险,通过把规则制定出来,保证行业健康发展。

杨延超表示,过去我国已经制定的法律包括《个人信息保护法》《数据安全法》,以及上述关于推荐算法、深度合成的部门规章,还有智能驾驶相关规定,都成为人工智能立法的前期积累。

对外经济贸易大学数字经济与法律创新研究中心执行主任张欣在接受红星新闻采访时表示,上述几部法律规范虽然时间上有先后,但不是一个线性发展的过程,人工智能法草案其实早有筹备,并且一直在推动,在部门规章层面这种小切口的立法有较快推进。

张欣也提出,目前对于人工智能的立法,各方面的条件已经成熟,已经在次一层级有了一些低位阶的立法,这对上位阶的立法已经有了一定规范基础。另一方面,公众的数字素养和对立法需求的认知,包括科技企业的合规意识,还有相关的技术标准和伦理等有了一定完善。在整个制度基础层面,人工智能法立法的基础已经比较成熟。

立法困难何在?人工智能技术还处于发展初期,挑战重重

杨延超认为,目前立法的困难在于,人们对于人工智能技术的规律还不能说有很好的掌握,仍然处于探索期。对于人工智能技术可能产生什么样的风险,还需要总结和摸索,甚至出现了一些破坏性案例以后才能逐步完善。所以目前的立法只能是相对原则性的立法。

“各个法律法规之间配套是一个比较大的挑战。”张欣说,比如在法律层面,数据平台和算法与人工智能密不可分。之前已经有了个人信息保护法、电子商务法、网络安全法、数据安全法等,这些法律和即将制定的人工智能法之间的关系是怎么样的,它的匹配是怎么样的,需要进一步考虑。第二个挑战是,目前我国已经在次一级的立法,比如部门规章、行政法规等层面已经有了一些立法的基础,在做更高位阶的基础性法律时,如何和下面的这些已有的法律规范进行匹配。

张欣说,第三个挑战在于人工智能领域变化非常快,尤其是技术发展,生成式人工智能的出现。比如,欧盟的《人工智能法案》,制定的时候如果没有ChatGPT出现,它可能不会是今天的这么一个迅速改动的面貌,可能基本上已经通过了。但因为ChatGPT的出现,打乱了它制定的节奏。从欧盟《人工智能法案》的制定就能看出,人工智能领域立法的滞后性越来越明显。因此,不管对于我国还是其他国家,人工智能立法既做到包容审慎,又给科技创新留下比较充足的弹性空间,能够具有一定前瞻性难度非常大。这可能需要立法技术上,包括立法制度上有一个开放、动态的弹性空间。

立法需要关注什么?人工智能涉及方方面面,需关注算力、算法、数据

人工智能会涉及到生产生活的方方面面,比如内容治理、数据保护、知识产权、智能驾驶等,也有人工智能技术开发中的技术伦理,人工智能应用、服务中可能产生的侵权问题等。是否这部法律也会像一个法典一样庞大?人工智能法草案会有哪些内容是必备的?

杨延超表示,人工智能在各个领域都有表现,比如无人驾驶、知识产权、金融等,在每个领域表现出来的法律关系、权利义务、法律责任都不同。立法的过程大概率会从部门法中产生的问题进行逐步梳理总结。

杨延超举例,比如在无人驾驶领域,产生的法律规则已经非常复杂,但是它的特点与生成式人工智能不同,需要做的是对传统交通法规的变更,过去驾驶员变成了机器,这里面对于交通事故过错责任、侵权责任的理解都会产生根本性变化。其他领域也是如此,立法应该在细分的领域有深耕细作,然后抽象出来做法典化升级。

张欣也认为,参照个人信息保护法、网络安全法。人工智能法作为一个基础性的法律,可能不会像欧盟的《人工智能法案》一样那么长;可能就人工智能的用户,服务的提供者、开发者、部署者,这些主体的权利义务责任理清楚,而不会像一个法典那么庞大。

那么人工智能立法应该有哪些必备内容?杨延超表示,不论什么领域的人工智能立法,都离不开人工智能三个要素的规定和三个原则的考量。所谓三要素就是:算力、算法、数据,因为不管解决什么样的人工智能问题都离不开这三个要素。所谓三个原则就是:产业发展、权利保护、伦理考量,制定的法律要保护人的权利要经得起现代人伦理的考虑,还要能够促进产业的发展。

如何处理好风险与发展的关系?专家建议划定红线:人工智能不能用于诈骗、数据攻击

制定法律如何既规避乱象,又不限制技术发展,实现良法善治?杨延超表示,这就要既考虑人工智能风险,又要考虑产业发展。因为目前还属于技术发展的初期,不宜将很多问题规定得过细甚至过严。整部法律还应当以鼓励产业发展为主,要确定大的红线和负面清单的立法思想。所谓大的红线和负面清单就是考虑到人工智能可能给社会发展带来的几大危害,划定红线。比如人工智能不能用于诈骗、数据攻击等。划好红线,任何产业发展不能逾越。这样既给了产业发展极大空间,又保障了人类社会基本安全不会受到侵犯。

张欣表示,人工智能治理一方面要进行敏捷治理,同时又要保证治理具有韧性。在提出这个治理架构和目标之后,要依靠一系列的治理工具将它落地,比如在人工智能领域中,算法影响评估、算法认证、算法审计等都是非常好的治理工具。有了这些工具之后就可以保证它跟这些技术的发展是不断同态调整的,这是一个持续动态调整和调优的过程。在人工智能领域当中,不管是进行立法,还是在整个治理过程中,需要依赖一系列治理工具把它落地。

本文来源:红星新闻,原文标题:《人工智能法纳入立法计划背后:专家建议划定红线,设置负面清单》

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。