美国NMA正式发布,ChatGPT等生成式AI监管原则

AIGC开放社区
美国权威机构首次发布生成式AI监管原则,内容涉及知识产权、透明度、问责制、公平、安全和设计6大部分。

近日,美国新闻/媒体联盟(The News/Media Alliance,简称“NMA”)代表近2000家印刷和数字媒体出版商正式发布了,生成式AI监管原则。

据悉,本次AI原则包括知识产权、透明度、问责制、公平、安全和设计6大部分,适用于文本、视频、图片、音频等其他格式的AI生成内容。这也是美国第一家权威机构正式发布的生成式AI监管原则。

该监管原则对于AI厂商、知识产业、用户来说是一个三赢的局面。AI厂商在该原则指导下,可以明确产品安全优化目标;新闻、媒体等产业的知识产权得到了有效保护,不会被生成式AI打破原有生态;用户在使用ChatGPT等生成式AI产品时,可以进一步降低安全风险。(文件地址:https://www.newsmediaalliance.org/ai-principles/

为什么发布AI原则

NMA表示,随着ChatGPT等生成式AI在全球范围内火爆出圈,其用户群体呈指数级增长,并对传统的新闻、媒体产业造成了巨大冲击。

例如,传统出版商在制作文本内容时需要投入大量时间、金钱和人力才能完成,而像ChatGPT这样的生成式AI产品,可能2分钟就能生成1000字的内容,严重破坏了知识产业竞争的生态。

此外,ChatGPT的训练数据是基于传统出版商的内容,有知识产权侵权的行为。在生成的内容方面,也充斥着大量虚假、暴力、歧视等非法内容。

因此,NMA发布了这一监管原则并要求文本、视频、图片、音频等其他生成式AI厂商按照该原则来开发、优化产品。不过,随着AI技术发展的深入,监管原则也会发生改变。

下面「AIGC开放社区」为大家介绍AI监管原则的内容。

知识产权

生成式AI的开发者和部署者,必须尊重创作者对其内容的权利:这些权利包括版权,提供给内容创建者和所有者的,所有其他法律保护,以及出版商对访问和使用其内容施加的合同限制或通过其在线服务条款。

开发者和部署者以及参与起草有关生成式AI的法律和政策的立法者、监管者,必须坚定不移地尊重这些权利,并承认创作者专有内容的价值。

开发者和部署者不应在未经许可的情况下使用人类作者的IP(Intellectual Property,知识产权)。如果使用人类作者的知识产权需要给予公平的补偿。

专业新闻因其可靠性、准确性、连贯性和及时性数据价值很高,可以提升生成式AI产品的内容输出质量。如果在没有许可的情况下,生成式AI厂商就使用这些IP是一种偷窃行为

使用出版商的IP需要明确许可:大多数出版商的条款和条件未授权生成式AI产品,使用出版商内容进行培训、展示和商业化。

生成式AI系统开发者和部署者不得在未经明确授权的情况下爬取、摄取或使用人类作者的专有内容,需要与出版商签订正式使用协议。

应制定行业标准以允许自动检测权限,以区分爬取或抓取内容的潜在用途。这些标准和使用协议还可以解决其他问题,例如,归属、货币化、责任和衍生用途等。

版权法必须保护而不是伤害内容创作者:合理使用原则并不能证明,生成式AI产品未经授权使用出版商内容、档案和数据库是正当的。未经明确许可,任何以前或现在使用此类内容均违反版权法。

文本和数据挖掘版权保护的例外情况,应严格针对有限的非营利和研究目的进行调整,这些目的不会损害出版商或成为未经授权使用的途径,否则需要获得许可。

美国还在这一领域做出了国际法承诺,保护其跨多个部门的基于知识产权的业务,这些承诺必须在其AI方法中得到维护。

透明度

生成式AI厂商应该对出版商透明:出版商有权知道谁复制了其内容,以及他们将其用于什么目的。NMA呼吁制定强有力的法规和政策,在出版商行使其权利所需的范围内强加透明度要求。

出版商有合法权益来确定他们的哪些内容已经在生成式AI系统中使用过。生成式AI厂商必须明确披露,是用于非营利、研究、教育、第三方开发的数据集或商业化应用程序等,不得用于逃避透明度义务或版权责任。

生成式AI厂商应对用户透明:用户和出版商之间的关系,对于新闻媒体和信息内容部门的可持续性至关重要。用户需要明确知道信息来源,例如,哪些文本内容是AI自动生成的,并向用户展示原始数据来源。

此外,生成式AI产品的透明度也有助于防止误用,以及错误和虚假信息的传播。同样,可以帮助生成式AI评估偏见、歧视、低俗等内容。

问责制

生成式AI厂商应该对其产品负责:生成式AI厂商对竞争、新闻和创意内容的完整性,以及公众对新闻和创意内容的信任构成风险。AI 应用程序生成的内容将虚假或不准确的信息归于出版商这是不负责任的行为。因此,不应免除生成式AI的部署者对其输出的责任,这样做会给生成式AI产品,提供传统出版商无法与之竞争的不公平优势,并增加不受约束的权力对公众和机构造成危险。

公平

生成式AI厂商不应用冒险的行为创造不公平的竞争结果:监管机构应确保生成式AI产品的设计、部署和使用符合竞争法和原则。开发人员和部署人员还应尽最大努力确保生成式AI模型不被用于反竞争目的。

生成式AI厂商未经内容所有者的明确许可,而将其内容用于生成式AI产品训练,应被视为违反竞争法的证据。监管机构应对生成式AI产品的其他反竞争用途保持警惕。

安全

生成式AI产品应该是安全的并尊重用户隐私:生成式AI产品(包括模型)的设计应尊重用户的隐私。早期迹象表明,生成式AI产品将加剧数字平台收集大量用户隐私数据的趋势。

生成式AI系统设计、训练和使用中,对个人数据的收集和使用应尽量减少,并应以易于理解的方式向用户披露,以便用户能够对如何使用其数据换取AI服务做出知情判断。用户应被告知并有权阻止出于训练或收集个人数据的目的。

设计

上面讨论的所有原则都应该纳入到生成式AI产品、模型的设计中,作为设计的重要元素。而不是在第三方提出索赔时,才被重视进行亡羊补牢。

关于NMA

新闻/媒体联盟是一家总部位于美国华盛顿的非营利组织。在过去100多年的时间,该组织通过合并美国新闻协会,美国杂志媒体协会等机构不断壮大。目前成员有近2000家不同的印刷、数字出版商。

本文来源:AIGC开放社区,原文标题:《美国NMA正式发布,ChatGPT等生成式AI监管原则》

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。