苹果公司周四表示,计划在其设备的系统更新中推出一项新的照片识别功能,该功能旨在识别用户相册中的儿童虐待图像,例如包含儿童性侵害等行为的图片。
与此同时,苹果也称这项新技术仅用于检测非法图像,并不适用于视频。
这是苹果在承诺保护用户隐私方面,与执法部门之间达成的一种平衡。过去数年间,美国执法部门曾多次要求苹果公司提供设备解锁等服务,以帮助收集关键证据和破解案件,但苹果均以保护用户隐私理由回绝了执法部门的申请。
苹果公司表示,上传到iCloud的照片将得到加密,但并非采用端到端的加密,而是以加密的方式储存在苹果的服务器中,密钥也由苹果公司所有。
苹果会使用一些新的AI技术来识别儿童虐待图像,自动检测上传到iCloud的图像是否与相关数据库匹配。如果苹果发现这些照片包含违法信息,将向美国的儿童保护机构报告。
此外,苹果称允许用户将设备上的数据完全保密,未使用iCloud同步功能的用户将不会触发检测功能。
包括移动设备取证公司Grayshift和数字情报公司Cellebrite在内的一些公司,已经开发出破解苹果设备和提取其中数据的一些方法,这意味着苹果设备曾引以为傲的用户隐私保护和数据安全不再攻不可破。
另外,苹果也不是唯一一家在用户隐私方面与政府观点出现分歧的科技公司,早前Facebook推出的加密功能也引起了一些执法部门的抨击。
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。