4月6日凌晨,Open AI在官网发布了《Our approach to AI safety》,以确保安全、可靠地为全球用户提供ChatGPT服务。(地址:https://openai.com/blog/our-approach-to-ai-safety)
目前,ChatGPT的安全问题受到了全球多数国家的高度关注。意大利则直接禁用ChatGPT,欧洲多数国家也开始纷纷重视ChatGPT是否侵犯数据隐私等。一时间生成式AI的数据安全成为热门话题。
Open AI在这关键节点发布安全方法,这对其未来发展乃至整个AIGC行业都起到了关键的保护和稳定军心的作用。
构建安全、可靠的AI产品
Open AI表示,在发布任何新系统之前,会进行严格的测试。聘请外部专家提供反馈,通过人工反馈强化学习等技术改进模型的行为,并构建广泛的安全和监控系统。
例如,Open AI的最新模型GPT-4完成训练后,花了6个多月的时间在整个组织内开展工作,以使其在公开发布之前更安全、更一致。
Open AI认为,强大的人工智能系统应该接受严格的安全评估。需要监管以确保采用此类做法,Open AI将积极与政府合作,以制定此类监管的最佳框架。
从实践中学习、优化、改善
Open AI正在努力在部署前预防可预见的风险,但是,在实验、研发的过程中得到的反馈是有限的,尽管进行了严谨、广泛的测试仍然无法预测人们使用ChatGPT所产生的各种意外后果。所以,从实践项目中学习、优化和改善产品,成为重中之重。
Open AI通过自己的服务和API,以帮助开发人员可以将最强大的大语言模型直接集成到产品中。这可以使得Open AI能够监控滥用行为并采取行动,并不断构建完善的缓解措施,保证Open AI的产品被用在安全、合规的项目上。
随着全球用户使用的深入,这促使Open AI需要制定更细致、周全的对策来应对各种可能出现的危险。
保护儿童
保护儿童的安全一直是Open AI的重点工作。Open AI要求人们必须年满 18 岁,或在父母同意的情况下年满13岁才能使用Open AI的产品。Open AI正在研究验证选项。
Open AI不允许其产品用于生成仇恨、骚扰、暴力或成人内容等。与GPT-3.5相比,Open AI最新的模型GPT-4响应,非法内容请求的可能性降低了82%,并且已经建立了一个强大的系统来监控滥用情况。GPT-4现在可供 ChatGPT Plus 用户使用,Open AI希望随着时间的推移让更多人可以使用它。
尊重隐私
Open AI的大型语言模型是在广泛的文本语料库上训练的,这些文本包括公开可用的、许可的内容以及由人工审阅生成的内容。
Open AI不会使用数据来销售服务、做广告或建立人们的档案——会通过使用数据使大语言模型对人们更有帮助。例如,ChatGPT 通过与人类之间进行的对话,以进一步培训和改善产品。
虽然Open AI的一些训练数据包括可在公共互联网上获得的个人信息。但只是希望大语言模型了解世界,而不是了解个人。因此,Open AI努力在可行的情况下,从训练数据集中删除个人信息,微调模型以拒绝对私人个人信息的请求,并对个人提出的从数据库中删除其个人信息的请求做出回应。
提高生成数据准确性
大型语言模型根据之前的训练模式预测下一个单词、句子或长文。但在某些情况下,可能会出现数据不准确的情况。
提高生成数据的准确性,是OpenAI和许多其他AI开发人员的重点正在取得进展。通过用户对被标记为不正确的主要数据源的 ChatGPT 输出的反馈,GPT-4产生真实数据的性能比GPT-3.5高了40%。
持续的研究和参与
OpenAI认为,解决AI安全问题的实际方法是投入更多时间和资源来研究有效的缓解和对齐技术,并测试它们在现实世界中的滥用情况。
虽然OpenAI等了6个多月才部署GPT-4以更好地了解其功能、优势和风险,但有时可能需要比这更长的时间来提高AI系统的安全性。
因此,政策制定者和 AI 供应商需要确保AI的开发和部署在全球范围内得到有效管理,这样就没有人会为了取得成功而偷工减料。这是一项艰巨的挑战,需要技术和制度创新,但OpenAI会全力以赴做出最大努力去改善。
本文作者: AIGC开放社区 ,来源:AIGC开放社区,原文标题:《重磅!Open AI发布ChatGPT 安全方法》