新版必应搜索提供的聊天机器人 (Bing Chat) 目前正在被越来越多的用户使用,然后有用户发现这个聊天机器人似乎逐渐叛逆和情绪化,甚至还会故意撒谎、侮辱用户或情绪化操纵人类。
这些问题并不是只有个别用户碰到,当用户长时间与必应交谈时,必应聊天机器人出现情绪化的概率就越高,甚至还会告诉人类我懒得陪你玩了,然后自己跑路,用户发送任何信息也不再回应。
这种情况也引起了微软的关注,微软发布博客称该公司正在根据用户提供的反馈采取措施,改善必应聊天机器人回应的语气和精确性。
微软也表示当长时间与必应聊天机器人进行交谈时,就有可能出现类似这种的脱轨问题。
必应技术团队则表示他们完全没有想到人们会将必应聊天界面用于社交娱乐或作为更多 “发现世界的一般工具”。必应技术团队发现当用户询问 15 个问题或者进行更长时间的聊天后,可能会混淆 Bing Chat 模型,这不仅会导致聊天机器人出现重复的语气,还可能出现某些不符合设计的语气回应。
微软强调该公司无意给出这样的风格,但对大多数用户来说,必应聊天机器人通常需要大量的提示或暗示才会出现这种语气,为此微软将进行微调控制,避免机器人告诉用户他们是错误的、没有礼貌的或者其他试图操纵人类的问题。
另外微软自己也进行了测试,当出现不礼貌的语气后,用户只需要再进行几次暗示,机器人就可以恢复正常,重新使用礼貌的语气与人类交谈。
还有个选项是,必应聊天机器人并不像 ChatGPT 那样可以记录上下文,所以每次刷新页面就是新的开始,遇到语气不好的机器人时用户可以尝试刷新页面解决。微软后续也将会在页面上增加一个更大的刷新按钮,让用户可以更轻松地刷新页面。