欧盟:社交巨头限时1小时执行极端内容删除令,否则将重罚

罚金最高可达全球营业收入的4%。

在继反垄断和数字税后,欧盟又在反恐问题上对社交巨头们挥舞起了大棒。

本周三,欧洲议会投票决定,如果Facebook、谷歌和推特等社交巨头总是不能在被当局要求删除极端主义内容后一小时内执行完毕,那么就将被处罚高达其全球营业收入4%的罚款。

议会以308票赞成、204票反对、70票弃权的投票结果,通过了这一处罚提案。不过在成为正式法律条文之前,立法者还将进一步探讨。

欧洲议会报告员Daniel Dalton对路透表示,很明显,未经审查的恐怖主义内容在互联网上传播时间太长,并且没有受到任何限制:

“这种宣称也可能与现实生活中发生的恐怖事件有关,国家监管部门必须采取果断行动。如果我们想要保护言论自由,任何新立法都必须切合实际,裁量适宜。”

早在一年前,欧盟就已向这些社交巨头们发出通牒。当时,欧盟发布了针对非法信息的处理建议,涉及内容包括恐怖分子言论、煽动仇恨和暴力的内容、儿童性侵,以及假冒产品和侵权内容等。

其中就有要求互联网公司在一小时内删除非法的涉恐内容,否则会面临新法律的制裁。

而代表谷歌和Facebook等公司的计算机与通信行业协会当时提出,欧盟的要求过于苛刻,一个小时的时限太短。该组织批评欧盟的指令将会伤害欧盟的科技经济。

这一次,欧洲数字权利组织(EDRi)也认为17日通过提案既不必要也不可行,“我们怀疑该提案的目标是否会实现。”

不可否认的是,近年来,各大社交巨头在反恐问题上也纷纷作出了自己的努力。

谷歌公司此前宣布,为协助反恐,该公司将推出一项新的方案,凡是使用其搜寻引擎搜寻与极端主义相关的字词,就会“错误地”找到反激进化网站,以避免恐怖组织利用该公司的技术行恶或招募新成员。

Facebook也曾表示,目前99%的极端主义信息和发布账号都可以在传达给用户之前被清理掉。公司全球政策管理负责人Monika Bickert还在接受《华尔街日报》采访时称,大概83%的恐怖主义相关内容会在发布一小时内被删除,包括图片、视频和文字。

可是今年3月,新西兰克赖斯特彻奇两座清真寺发生的枪击事件,共造成50人死亡,而枪手的大规模射杀过程在Facebook上直播了至少17分钟。即使Facebook后来表示,在这次枪击事件发生的头24个小时内,他们删除了150万条包含袭击镜头的视频。

其实不只是欧盟,据新华网报道,澳大利亚总理斯科特·莫里森、总检察长克里斯蒂安·波特和通信部长米奇·菲菲尔德在3月30日发布联合声明称,确认推动一部新的反恐法草案,寻求让社交媒体平台承担更多责任,从而阻止网友利用社交媒体平台播放或直播暴力犯罪。

根据法案,如果删帖不够迅速,社交媒体公司可能遭受最多10%年收入的罚款,公司高级管理人员也将面临最长3年监禁的刑事处罚。

莫里森说:“大型社交媒体公司有责任尽全力确保它们的技术产品不受恐怖分子利用。新法案将迫使社交媒体配合执法和情报机构,消除它们产品可能构成的威胁。”

*本文来自华尔街见闻(微信ID:wallstreetcn)。开通华尔街见闻金卡会员,马上领取2019全球市场机会。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。