美东时间8月29日周四,据媒体报道,AI领军企业OpenAI和Anthropic已同意在推出新的AI模型之前,先让美国政府下面的AI安全研究所来评估这些模型的能力和可能带来的风险,并共同研究方法以减轻潜在安全隐患,确保这些AI技术不会对社会带来负面影响。
美国AI安全研究所是2023年在拜登-哈里斯政府的一项关于AI的行政命令下成立的。这个研究所的任务是开发测试、评估和指导方针,以确保AI技术能够负责任地进行创新。此外,根据美国商务部的国家标准与技术研究所(NIST)周四宣布的协议,美国政府将与英国的AI安全研究所密切合作,给这些AI公司提供反馈,帮助他们改进安全措施。
美国AI安全研究院所长Elizabeth Kelley对此表示:
“安全对于推动突破性技术创新至关重要。这些协议虽然只是一个开始,但它们对于我们负责任地引领人工智能的未来发展具有重大意义。”
OpenAI首席战略官Jason Kwon对合作表示支持:
“我们非常支持美国AI安全研究所的使命,并期待一起合作,制定AI模型的安全最佳实践和标准。我们相信,该研究所在确保美国在负责任开发AI方面的领导地位上扮演着关键角色。我们期望通过与研究所的合作,能为全球提供一个可以借鉴的框架。”
Anthropic公司也表示,建立有效测试AI模型的能力非常重要。该公司的联合创始人兼政策负责人Jack Clark说:
“确保AI安全可靠对于让这项技术带来积极影响是至关重要的。通过这样的测试和合作,可以更好地发现和减少AI带来的风险,推动负责任的AI发展。我们为能够参与这项重要工作感到自豪,并希望为AI的安全性和可信度设立新的标准。”
另外,值得注意的是,得到了微软支持的OpenAI公司正在准备新一轮融资,目标是至少筹集10亿美元,这将使公司的估值超过1000亿美元。微软自2019年以来向OpenAI投入了130亿美元,现在拥有这家公司49%的利润分成。
关于新一轮融资的消息大约是在OpenAI透露他们正在测试一个叫SearchGPT的新功能后一个月传出来的。这个新功能是将AI技术和实时搜索数据结合起来,ChatGPT未来可能不仅能回答问题,还能帮你在网上找答案。