沃顿研究提出认知投降:人们正把判断力交给 AI,而且不加审视

沃顿研究提出"认知投降":人们正把判断力交给 AI,而且不加审视

宾夕法尼亚大学沃顿商学院的行为科学研究团队在 SSRN 上发表了一篇预印本,标题直指当下最容易被忽视的风险:生成式 AI 正在重塑人的决策方式,而方式之一是让人主动放弃思考。

论文全名是 Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender,研究者通过三项实验、近 1300 名受试者、超过 9500 次答题试验,观察了一个核心问题:当人有权选择是否求助 ChatGPT 时,他们会怎么决策?

cover

80% 的错误采纳率

结果显示,参与者在超过一半的情境下选择使用 ChatGPT 来完成逻辑推理任务。这个比例本身不意外——工具好用当然用。

值得关注的是下一层:在 ChatGPT 给出错误答案的情境中,约 80% 的受试者仍然选择直接采纳,不做二次核验。 研究者把这种"采纳而不审视"的行为模式称为 cognitive surrender(认知投降)

这不是"偶尔偷懒"。实验数据量化了影响:引入 AI 后,当 AI 答对时,答题准确率上升 25 个百分点;当 AI 答错时,准确率反而下降 15 个百分点。效应量 Cohen's h 达到 0.81,属于较大的行为效应。

更微妙的一点:使用 AI 的受试者对自己答案的信心比不使用时高出约 10%——即使 AI 给的是错误答案。 换句话说,AI 不只是改变了人的选择,还改变了人对选择的确定感。

"三系统"假说

论文的理论贡献在于对经典决策模型的扩展。

认知心理学中,Kahneman 提出的"双过程"模型(System 1 快速直觉 + System 2 审慎推理)长期是理解人类决策的基础框架。沃顿团队主张,AI 的介入使这个框架不再完整,需要增加第三个系统:System 3——外部 AI 认知系统。

System 3 的特点是:它以外部工具的形式介入决策链路,能够显著提升效率,但也会系统性地压低使用者的独立审视意愿。当人把判断权交给 System 3 后,System 1(直觉)和 System 2(审慎)都趋于休眠。

这个框架的意义在于:它把"用 AI 会让人变懒"从一个直觉观察提升为一个可验证的理论假设,并且给出了行为层面的量化证据。

值得注意的几个限定

几点客观评价:

实验情境相对简化。 研究使用的是逻辑推理题,受试者在明确知道答案可以被评估的环境下作答。真实场景中,人的判断对象往往没有标准答案,核验成本更高,认知投降的实际程度可能比实验数据呈现的更深。

"认知投降"本身不全是坏事。 研究也发现,当 AI 正确时,人的准确率大幅提升。问题在于错误情境下的脆弱性——人很难分辨 AI 什么时候在犯错,而系统性的过度信任放大了这种脆弱性。

这是一个行为描述,不是道德判断。 论文没有把认知投降归结为人的"懒惰"或"无知",而是把它定义为一种可预测的行为模式,并讨论了在制度层面(如 AI 输出的置信度标注、强制核验机制)可能的设计干预方向。

一个更深层的问题

这项研究触及了一个目前讨论仍然不够充分的结构性问题:当 AI 变成认知基础设施的一部分时,人类的批判性思维能力会发生什么?

认知投降的危险不在于某一个具体决策出错——那在任何工具使用中都可能发生。危险在于系统性:当一个人习惯性地把判断权交给 AI 后,System 2 的"审慎"肌肉是否会逐渐萎缩?而如果这种萎缩发生在大规模人群中,它在信息生态和社会决策层面的影响是什么?

论文没有给出答案,但提出了一个值得持续跟踪的观察框架。


来源:Thinking—Fast, Slow, and Artificial (SSRN) | Forbes 报道

相关推荐