刚刚在应用程序里上线ChatGPT的苹果却被爆限制自家员工使用。
5月19日,华尔街日报根据一份文件及知情人士的消息称,苹果已经在公司内部限制使用ChatGPT和其他外部AI工具。
在这份文件中,苹果担心员工如果使用这类人工智能程序可能会泄露机密数据。该文件还指出,苹果称,考虑到Copilot可以自动编写软件和代码,员工也被限制使用微软所有涉及到Copilot的产品。
训练像ChatGPT这样的大语言模型时,将会收集大量的数据集对模型进行评估,以确定模型对于处理以前未见过的数据时的反应。因此,“数据安全”问题成了当下AI时代众多国家和企业亟待解决的问题。
这场围绕AI的军备竞赛,几乎成为全球大厂的共识。作为上一个iPhone时刻的缔造者,大家都在寻找苹果在这场GPT浪潮中的踪影。
在AI浪潮下,库克也并购了多家AI初创企业,如Turi、Lattice Data、Perceptio等;并花重金从硅谷挖来了一支数据科学家团队。
然而,对用户隐私的保护,一直以来都是苹果品牌形象和商业模式的核心,这就导致了其在发展大模型时,出现了各种“焦头烂额”的情况。
例如,由于无法获得实时的用户反馈和数据,每当研发团队试图为Siri增加一个新短语时,往往就需要重建整个数据库,这一过程耗时将会长达六个星期。
在二季度财报会议上,库克表示,AI功能已经嵌入到各种苹果产品中,苹果将继续有序地将AI融入设备中。库克称:
“我认为,在处理与AI有关的事情时要深思熟虑,这一点非常重要。且有许多问题需要解决,但发展潜力肯定是不容小觑的。”
OpenAI之父Sam Altman在本周二的国会听证会上,也承认了AI产品的风险,比如损害未来选举的公正性、操纵民众个人的意见、限制访问某些信息,以及侵犯版权。
而苹果对于机密数据泄露的担忧并不是没来由的。
今年4月,三星引入ChatGPT不到20天,就发生了三起数据外泄事件。
这三起泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。其中,两起与半导体设备有关,另外一起与会议内容相关。
在竞争激烈的半导体行业,任何形式的数据泄露都可能给厂商带来灾难性打击。而三星似乎没有任何办法要求 OpenAI 检索或删除当前持有的敏感数据。
为杜绝类似事故再发生,三星制定相关保护措施,该公司向员工表示,“若采取信息保护紧急措施后仍发生类似事故,公司内部网络可能会切断ChatGPT连接”。
实际上,为了减少因AI造成的数据泄露的风险,已有不少企业明确禁止员工使用ChatGPT:软银、日立、富士通、摩根大通等都发出了相关通知。
同样是芯片大厂的台积电也在此前表示,员工使用ChatGPT时不准泄露公司专属信息,注意个人隐私。