宾夕法尼亚大学的研究人员近期发布了一项关于人工智能对人类决策影响的研究,揭示了用户在使用大语言模型时的一种心理倾向:即在缺乏监督的情况下,过度依赖AI的逻辑推断并放弃自我思考。
这项名为《思考——快速、缓慢与人工:AI如何重塑人类推理及认知投降的兴起》的研究,将人类的决策模式分为三类。除了传统的“系统1”(快速直觉处理)和“系统2”(缓慢分析推理)外,研究者引入了“人工认知”的概念,指代那些直接源于算法系统而非人类思维的决策。
从辅助工具到认知依赖
研究指出,人类过去使用计算器或GPS等工具属于“认知卸载”,即在保留监督和评估权的前提下,将特定任务委托给算法。然而,AI系统正在催生一种截然不同的“认知投降”模式。在这种模式下,用户几乎不进行内部参与,直接接受AI给出的结论。
研究人员发现,当大语言模型以流畅、自信且低门槛的方式输出答案时,用户最容易放弃批判性思维。这种“对推理本身的无批判性弃权”在AI表现出极高交互流畅度时表现得尤为明显。
为了量化这一现象,研究团队采用了认知反射测试(Cognitive Reflection Test)。实验结果显示,在时间压力和外部奖励的诱导下,人们更倾向于将决策权完全交给AI,而非投入认知资源去核实信息的准确性。
该研究强调,这种“认知投降”不仅是单纯的效率选择,更是一种心理上的权力让渡。当用户将AI视为“全知全能的机器”时,他们便停止了对逻辑漏洞或事实错误的审查,从而增加了决策失误的风险。