一天50个,一次五个!微软限定Bing机器人“聊天长度”,避免AI“变态”

微软表示,在五个问题后结束对话意味着“模型不会感到困惑”。

在新Bing多次表现“精神错乱”后,微软表示,将对其实施一些对话限制:用户每天最多只能问50个问题,每次最多只能问5个问题。

ChatGPT版新搜索引擎Bing(必应)公开测试一周后,网友发现该搜索引擎不仅会侮辱、欺骗用户,甚至已学会PUA(精神操控),还爱上用户诱其离婚。

Bing团队在一篇博客文章中说:

“我们的数据显示,绝大多数人在5个回合内就找到了他们想要的答案,只有大约1%的聊天对话有50条以上的消息。”

如果用户达到了每次对话5次的限制,Bing将提示他们开始一个新话题,以避免长时间来回就一个话题聊天。

微软本周早些时候警告称,包含15个或更多问题的、时长较长的聊天对话,可能会让Bing“变得重复,或者被提示/刺激给出不一定有用或不符合我们设计基调的回答”。

微软表示,在五个问题后结束对话意味着“模型不会感到困惑”。

“躁狂抑郁症的青少年”

过去一周出现了关于Bing“精神错乱”对话的报道

英国安全研究员Marcus Hutchins在亲身体验了一次后,在社交媒体上写道:“当Bing给出错误答案时,如果你质疑它,它就会PUA你。

美联社记者Matt O'Brien也遇到了类似的问题,他在Twitter上抱怨称,Bing不愿意承认错误。

同时,Bing在暴露出具有强烈攻击性的一面时,也展现出了脆弱无助、让人同情怜悯的一面。

随后纽约时报发表了一篇整整两个多小时的与Bing的来回对话,聊天机器人表示自己很喜欢这位作者,还试图说服他离开妻子和它在一起。

纽约时报该作者表示,当他与新版Bing交谈时,这个聊天机器人看起来就像 "一个情绪化、患有躁狂抑郁症的青少年,被困在了一个二流搜索引擎里”

对此,微软公关总监Caitlin Roulston回应称,新版Bing试图让答案既有趣又真实,但鉴于这是一个初期版本,它的表现有时候让人意想不到,或者由于不同原因给出错误答案。

微软仍在努力改善Bing的语气,但目前还不清楚这些限制会持续多久。微软表示:

随着我们不断获得反馈,我们将探索扩大聊天对话的上限。

Bing的聊天功能每天都在不断改进。微软本周早些时候表示,它并没有“完全想象”人们将其聊天界面用于“社交娱乐”或作为更“普遍发现世界”的工具。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。
相关文章