OpenAI:愿与意大利监管机构合作加强用户数据保护和使用

澎湃新闻
除了加强个人数据使用的透明度,OpenAI还将增强数据主体权利行使机制以及对儿童的保护措施。

OpenAI在与意大利监管机构的会议中,承诺提高个人数据使用的透明度。

当地时间4月6日,意大利个人数据保护局官网发布消息称,ChatGPT的开发公司OpenAI与该机构于5日晚举行会议,OpenAI表示愿意与意大利数据保护局进行合作,以解决其对数据安全的担忧。

来源:意大利个人数据保护局官网

OpenAI表示,相信公司符合个人数据保护法律,但也愿意与该机构进行合作。除了加强个人数据使用的透明度,OpenAI还将增强数据主体权利行使机制以及对儿童的保护措施。

该公司承诺在今天(4月6日)之前向意大利当局提供一份文件,在其中说明该公司将采取的措施。

意大利数据保护局强调,这次会议的目的并不是阻碍人工智能和技术创新的发展,其重申了遵守保护意大利和欧洲个人数据法规的重要性。该机构称将评估其此前的建议措施,包括针对OpenAI发布的命令。

此前3月31日,意大利个人数据保护局宣布禁止使用聊天机器人ChatGPT,限制其开发公司OpenAI处理意大利用户信息,并开始立案调查。

原因是在此之前ChatGPT平台出现了用户对话数据和付款服务支付信息丢失情况,该平台没有就收集处理用户信息进行告知,且缺乏大量收集和存储个人信息的法律依据。同时,该机构还指责,尽管根据OpenAI的条款声称该服务面对13岁以上的用户,但并没有使用任何过滤机制来验证用户的年龄。

目前,已经有多个国家对OpenAI的数据安全问题表示担忧。除了意大利,德国、法国和爱尔兰等国家也纷纷采取措施。当地时间4月4日,加拿大隐私专员办公室(OPC)已经宣布对聊天机器人ChatGPT开发公司OpenAI展开调查,该调查涉及“OpenAI未经同意收集、使用和披露个人信息”的指控。

根据路透社此前的报道,德国很可能追随意大利的脚步“封杀”ChatGPT,法国和爱尔兰的隐私监管机构则表示,已与意大利数据监管机构联系讨论其调查结果。

本文作者:杨阳,来源:澎湃新闻,原文标题:《OpenAI:愿与意大利监管机构合作加强用户数据保护和使用》

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章