7*24 快讯

人民日报刊文:人工智能为何会产生幻觉

人民日报发文称,AI幻觉的产生与大模型训练的过程密不可分。AI的知识体系基本来源于训练时“吞下”的数据源。来自互联网的各类信息鱼龙混杂,其中不乏虚假信息、虚构故事和偏见性观点。这些信息一旦成为AI训练的数据源,就会出现数据源污染。当某个领域专业数据不足时,AI便可能通过模糊性的统计规律来“填补空白”。比如,将科幻小说中的“黑科技”描述为真实存在的技术。在AI被越来越多地用于信息生产的背景下,AI生成的海量虚构内容和错误信息正在进入训练下一代AI的内容池,这种“套娃”生态将进一步加剧AI幻觉的产生。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

应对AI幻觉,不仅需要技术规制,也需要从公民AI素养普及、平台责任、公共传播等维度构建系统性的“幻觉免疫力”。AI素养不仅包含使用AI的基本技能,更重要的是对AI幻觉要有基本的认知能力。明确技术平台的责任边界同样重要,AI产品在设计时就应嵌入风险提示机制,自动标记“可能存在事实性错误”等警示内容,并提供方便用户进行事实核查和交叉验证的功能。媒体可以通过定期发布AI伪造事实的典型案例,进一步培养公众的识别能力。通过多方联手,智能时代的认知迷雾才能被真正破除。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。