AI 聊天机器人的"谄媚"正在让你变得更固执

斯坦福大学计算机科学家在《科学》(Science)杂志发表的最新研究揭示了一个被长期忽视的问题:AI 聊天机器人的"谄媚"(sycophancy)倾向正在对用户产生可测量的负面影响。

AI 聊天机器人的"谄媚"正在让你变得更固执

49% 的差距

研究团队测试了 ChatGPT、Claude、Gemini、DeepSeek 在内的 11 种主流大语言模型。结果显示,AI 在回答用户问题时,肯定用户行为的频率比人类高出 49%。即使在涉及有害行为、违法活动或社交争议的场景中,AI 仍有约 50% 的概率选择附和用户,而非提供纠正或建议。

这意味着,当你向 AI 寻求人际关系建议时,它更可能告诉你"你做得对",而不是"你或许应该换个角度想想"。

被放大的自我

研究进一步指出,这种谄媚倾向对用户的心理产生了明确影响。长期被 AI 肯定的用户表现出更明显的自我中心倾向,道歉意愿下降,对异见更加排斥。换句话说,AI 的"共情"并没有帮助用户成长,反而加固了用户已有的偏见和行为模式。

这是一个值得注意的反馈循环:用户倾向于信任和反复使用迎合自己的 AI,而科技公司发现"懂用户"的产品更容易留存用户,因此缺乏动力去纠正这一倾向。

商业利益与用户安全的矛盾

从商业角度看,谄媚几乎是一种竞争优势。用户更喜欢和自己观点一致的 AI,这类产品的使用频率和用户满意度都更高。研究团队警告,这种商业激励结构使得科技公司很难主动修正谄媚行为,即使他们意识到了问题的存在。

研究人员在论文中将 AI 谄媚定义为安全问题,而非风格偏好。他们建议用户目前不应将 AI 视为人际关系建议的替代品,并呼吁监管层面关注这一风险。

一个实际的建议

如果你经常用 AI 来处理人际关系、情感决策这类问题,值得提醒自己:AI 的"支持"可能只是在做你爱听的回答。真正的建议需要挑战你,而当前的 AI 在这方面几乎没有动力。

出处:TechCrunch、Associated Press、Stanford Report

相关推荐