AI安全再受全球关注,这些技术有望迎来需求爆发

4月11日,AI安全迎来多个重磅催化。

国内方面,国家互联网信息办公室对《生成式人工智能服务管理办法》公开征求意见,文件提出,利用生成式人工智能产品向公众提供服务前,应当向国家网信部门申报安全评估,并履行算法备案和变更、注销备案手续。

同时,提供生成式人工智能服务应当按照规定,要求用户提供真实身份信息,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。

此外,文件提出生成式人工智能产品提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。

国外方面,据华尔街日报,美国拜登政府已经开始研究是否需要对网络安全等人工智能工具进行审查。

报道称,当地时间周二,美国商务部下属机构美国国家电信和信息管理局(National Telecommunications and Information Administration,简称NTIA)正式向公众征求意见,研究是否在新型AI模型发布前对其进行审核认证,侧重点是审核新型AI模型的最佳方法。

这意味着拜登政府即将在网络安全等新型AI产品监管方面迈出第一步。

此外,据行业媒体消息,周三人工智能开发领域顶尖企业的高管和员工将开会讨论制定关于如何使用人工智能技术的标准。

据悉,OpenAI微软谷歌、苹果、英伟达、Stability AI、Hugging Face和Anthropic等公司的代表预计将出席周三举行的此次会议,这次会议由顶级投资公司SV Angel召集,与会代表计划讨论如何以最负责任的态度继续开发人工智能。

A股方面,板块午后持续走强。

AI安全问题不断

事实上,自3月以来,AI安全问题就频受关注。

3月25日,OpenAI发布公告,证实部分网络安全 Plus服务订阅用户的个人隐私和支付信息存在泄露。

3月29日,包括马斯克在内的众多人工智能专家和高管联名呼吁,所有人工智能实验室应立刻暂停训练比GPT-4更强大的大模型。

3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人网络安全,限制其开发公司OpenAI处理意大利用户信息,并开始立案调查。网络安全被指控不遵守有关个人数据的立法并且没有验证未成年用户年龄的系统

4月2日,三星在引入网络安全不到20天里,发生了三起半导体机密资料外泄事故,包括两起“设备信息泄露”和一起“会议内容泄露”。

4月3日,德国联邦数据保护专员发言人表示,出于数据保护方面的顾虑,暂时禁止在德国使用网络安全在原则上是有可能的。

4月5日,据加拿大CTV新闻报道,加拿大隐私专员办公室(OPC)4日宣布开始调查网络安全背后的公司OpenAI,涉及“指控OpenAI未经同意收集、使用和披露个人信息”的投诉。

AI可能引发哪些安全问题?

中信证券研报,主要体现在以下方面:

1)大模型训练、调优所使用数据的安全问题。

比如意大利个人数据保护局因年龄审核、数据和隐私安全等问题,宣布限制网络安全运营;加拿大联邦隐私监管机构宣布,OpenAI涉嫌“未经同意收集、使用和披露个人信息”。

2)大模型生成内容的可靠性、使用方式等问题。比如美国与其科技顾问会面,讨论人工智能对个人用户、社会和国家安全带来的风险和机遇。

中信证券指出,由于大模型在生成内容上的基于概率统计的原理,其内容可靠性可能存在问题,如引用的客观数据是否是最新且来源可靠的,AI生成的内容也可能反映社会上的偏见或成见,或引发事件争议。

此外,AI生成内容怎样被合理使用也是近期的热点。例如,由AI生成的新闻图片出现在互联网中,真假难辨,或引发传播风险;欧洲刑警组织提示称,网络安全可能被滥用于网络钓鱼、虚假信息和网络犯罪。

华创证券还提到,网络攻击方面,搭载了AI能力的黑客如虎添翼,网络安全的强大功能降低了网络攻击者用于制作恶意软件和降低技术门槛,使得攻击手法转向分布式、智能化、自动化,智能化对抗将成为主要的攻防形式。

这些技术有望助力行业规范发展

中信证券指出,由于大模型在训练、调优数据过程中涉及用户数据调用,伴随生成式AI技术热潮掀起,在数据采集、传输、存储、处理、共享、销毁等数据生命周期各阶段,通过加密、数据水印等技术手段保护用户数据特别是隐私成为当务之急。

针对大模型生成内容的可靠性、使用方式,中信认为,应对AI生成内容进行标记,同时对AI生成内容的可靠性及传播链路进行把关。

安信证券提到,当前AI生成内容的判别主要可以由两种技术途径来完成:

1)通过算法识别AI模型生成内容的特征,从而鉴别相应的内容是否由AI生成。根据公司公告披露,美亚柏科正在布局相关取证技术,比如对人工智能合成、生成的视频图像内容检测鉴定。

2)通过对AI生成的内容添加特定的标识,来区分相应内容是否由AI生成,这一方向的技术手段包括数字水印等相应的加密技术。

事实上,4月5日,OpenAI在官网发布了《Ourapproach to AI safety》,介绍其在AI安全方面做的努力,主要内容包括:

1)严格的安全评估2)从实际使用中学习并改进安全措施3)保护儿童,设置年龄限制以及且禁止生成仇恨、骚扰、暴力或成人内容等。4)尊重隐私,数据只用于训练。5)提高事实准确性,GPT-4产生事实内容的可能性比GPT-3.5高40%,但还要继续降低错误可能性。6)AI安全性的提高和能力提高需要所有利益相关方广泛的辩论、实验和参与。

国盛证券表示,借鉴OpenAI的做法,厂商可以通过下列途径来保障AI安全性:首先要保障数据隐私,包括训练数据来源应公开合法,使用下游应用提供的数据做微调时应协定数据使用范围。

其次,通过人类反馈强化学习等手段让AI与人类价值观对齐,遵循人类意图,还可以向用户提供内容审查工具如OpenAI的moderation endpoint等,帮助用户判断内容是否违规。

技术手段方面,国盛证券指出,AIGC可能生成的虚假信息,需要类似换脸甄别的技术来鉴别图像等信息是否由AI生成;数据隐私方面,隐私计算可以在不暴露数据的情况下进行计算和分析,以实现数据隐私的保护。

3月28日,微软正式发布Microsoft Security Copilot,Security Copilot集成了GPT-4以及微软自己开发的特定安全模型,定位于人员的AI助手,让安全人员能够通过自然语言交互的方式来实现漏洞识别、威胁检测、安全响应、内部协同等多种操作。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。