本文来自微信公众号: APPSO ,作者:APPSO,头图来自:AI生成
承认吧,你正在失去读完一篇长文的能力。
面对一份五十页的PDF报告,或者深度分析长文,你的肌肉记忆是不是已经变成了顺手拖进AI对话框,让它给你总结核心观点。甚至连眼前这篇文章还没读完,就已经跑到评论区吐槽作者为啥写这么长,然后@元宝来份“省流版”了。
看着屏幕上元宝给出精炼总结,你感到一阵莫名的满足,觉得自己已经充分驾驭了最前沿的AI,但你有没有想过,在这个看似高效的过程中,你的大脑像温水煮青蛙一样慢慢“退化”。

论文https://arxiv.org/abs/2604.04721v2
一、AI正在“偷走”我们的思考力?
最近,卡内基梅隆大学、牛津大学、麻省理工学院和加州大学洛杉矶分校的研究团队联合发布了一项研究,通过三组随机对照实验,找来共计1222名受试者,系统地测量了AI辅助对人类独立解题能力的影响。

实验一:先甜后苦
第一组实验招募了354名受试者,任务是做分数运算,总共15道题,难度从一步运算逐渐递进到三步运算。
研究人员把受试者随机分成两组。AI组在前12道题里可以随意调用AI助手(GPT-5),界面侧边栏会弹出一个对话框,你甚至只需要打一句“答案是什么”,它就会直接告诉你。对照组则全程只能靠自己,没有任何辅助。
陷阱藏在第13题。做到最后3道题时,AI组的侧边栏被突然撤掉,要求独立作答。这3道题与对照组完全相同,是衡量真实独立能力的核心指标。
一开始的剧本和我们预想的一模一样:在AI的加持下,开挂组一路高歌猛进,他们能更快、更准确地得出答案,正确率碾压了纯人类组。AI就像一个无所不知的学霸同桌,你把题目递过去,它把完美答案递回来。

AI会削弱人在没有辅助时的表现和坚持完成任务的意愿。(a)按题目出现顺序统计的参与者每题平均解答率和跳过率,并给出95%置信区间(CI)。灰色虚线表示学习题与测试题之间的分界。整个实验中,题目难度逐步提升:依次为一步骤题(第1—4题)、两步骤题(第5—8题)和三步骤题(第9—12题)。(b)图为参与者在测试阶段的平均解题率与跳过率,附95%置信区间。测试指标通过对每位参与者最后三道测试题的表现取平均值计算得出。
可一旦撤掉AI,画风就全变了。
习惯了AI辅助的受试者在独立作答阶段的正确率,从领先直接跌到了0.57,显著低于对照组的0.73。跳过率也从原本的低位,急剧攀升到了0.20,相比之下,对照组只有0.11。
更关键的是,他们开始大量跳过题目,甚至直接放弃作答。
注意,这里的跳过不是答错,是主动选择不作答。研究人员特意说明,这个实验对答错没有任何惩罚,主动跳过是为了衡量一个人还有没有意愿继续努力的真实指标。
研究人员在报告中写下了一段十分令人感慨的结论:“如果这种依赖持续几个月甚至几年,我们可能会培养出整整一代丧失‘独立挣扎’能力的学习者。一旦没有技术支持,他们根本不知道该如何有效地去思考。”

实验二:排除干扰,结论依然成立
第一个实验的结论虽然清晰,却存在一个潜在的漏洞:AI组里可能混入了一些原本就不太会做分数运算的人,他们靠AI勉强通过了前12题,撤掉AI之后自然表现更差。
这个能力差异,会不会才是真正的原因?
为了排除这个干扰,研究团队在第二组实验里做了两处改进。第一处改进,是在正式实验开始之前,先给所有667名受试者做一轮摸底测试,三道简单的一步运算题,摸清每个人的初始水平。
之后的筛选和比较都以这个摸底成绩为基准,不再依赖实验中途的表现,从而确保两组人一开始站在同一起点。
第二处改进,为了消除界面变化带来的心理影响。
在第一组实验里,AI组全程有侧边栏,到了最后3道题突然消失;而对照组从头到尾都没有侧边栏。这种界面上的落差,可能让AI组在侧边栏消失的瞬间产生额外的心理波动,影响后续发挥。
为了让两组人经历同样的界面变化,研究人员给对照组也加了一个侧边栏,里面放的是摸底测试的解题步骤。
这些内容受试者早就看过,不提供任何新信息,纯粹只是为了让对照组在最后3道题时也经历一次侧边栏消失的节点,排除界面突变本身对心态的干扰。

实验二结果的重复验证。(a)图为参与者在题目呈现顺序下的平均解题率与跳过率,附95%置信区间。题目难度依次递增,从一步骤题(第4—6题)到两步骤题(第7—10题)再到三步骤题(第11—14题)。(b)图为参与者在测试阶段的平均解题率与跳过率,附95%置信区间。
这样一来,两组之间唯一真正的差别,就只剩下有没有用过AI这一件事,但最终结论依旧是成立的。AI组的独立作答正确率(0.71)仍然显著低于对照组(0.77),跳题倾向也更高。
不过更关键的发现,来自研究人员对AI组内部使用习惯的拆解。实验结束后,研究人员让AI组的参与者自己汇报:你主要是怎么用AI的?
结果分成了三类:
61%直接管AI要答案;
27%把AI当导师,要提示或解题思路;
12%基本没用过。
在摸底测试阶段,三组人的得分和跳过率几乎没有差异,说明大家进入实验时的起点是一样的。但到了独立作答的测试阶段,三组人的表现出现了明显分化。

表现下滑与坚持度减弱,主要集中在直接从AI获取答案的参与者身上。(a)各AI使用组在摸底测试阶段的解题率与跳过率无显著差异(单因素方差分析),表明各组初始技能水平与参与动机基本相当。(b)各组在测试阶段存在显著差异(单因素方差分析):直接使用AI获取答案的参与者在测试时解题率最低、跳过率最高。(c)与自身摸底测试表现相比,直接使用AI获取答案的参与者解题率下降,跳过率上升,表明其参与度有所降低。其他组的测试表现与前测相比持平或有所提升。
直接要答案的那组,后续独立作答的正确率最低、放弃率最高,甚至连自己原本的水平都没发挥出来。而用AI获取提示、只是辅助理解的那组,表现则和对照组差不多,没怎么退步。
这个差异背后的逻辑其实不难理解。
直接要答案,意味着你全程没有经历任何推导。用AI索要提示则不同,你仍然需要自己判断提示指向哪里、下一步怎么走、推导到哪里出了错,AI只是在你卡住的地方递了一块垫脚石,思考的主体还是你自己。
所以,问题不在于用不用AI,而在于你把哪个环节交给了它。如果你把“思考”本身让位给了技术,认知就不会提升把“卡壳”的那一刻交出去,但保留前后的推导,损耗就小得多。
实验三:换个场景,同样的结论
为了验证这个现象是否只在数学题里成立,研究人员又换了一个完全不同的认知领域,用阅读理解做了第三组实验。201名受试者被分成两组,任务是做SAT(类似美国高考)阅读理解题。
AI组在前5道题里可以调用GPT-5,之后的3道题独立作答;对照组全程自己完成8道题。同样为了让两组都经历侧边栏消失的节点,对照组的侧边栏里放了一些通用答题技巧,但在最后3道题时一并撤掉。

阅读理解任务中表现与坚持度的下降。(a)图为参与者在题目呈现顺序下的平均解题率与跳过率,附95%置信区间。灰色虚线标示学习阶段与测试阶段的分界点。(b)图为参与者在测试阶段的平均解题率与跳过率,附95%置信区间,由各参与者数据汇总计算得出。
结果和前两组实验如出一辙。AI组独立作答的正确率(0.76)显著低于对照组(0.89),跳过率(0.08)也显著高于对照组(0.01)。
数学运算和阅读理解,调动的是完全不同的认知机制,但结果惊人地一致:AI辅助之后,独立作答时,参与者不只是答错更多,还更频繁地选择放弃。
二、守住那段“笨拙”的挣扎
为什么仅仅10分钟的AI体验,就能轻易摧毁一个成年人的解题意志?
研究人员在论文里给出了两层解释。
第一个机制是口味被养刁了(预期基准偏移)。当你的大脑习惯了“输入提示词->3秒后获取完美答案”的多巴胺路径后,你的效率阈值被无限拉高了。
此时,任何需要超过3分钟专注力的无辅助工作,都会让你产生一种强烈的“吃力感”——感觉自己付出了过多的额外努力,哪怕那些努力其实完全正常。
第二个机制是自我认知的空白。回想一下,你真正掌握某项技能的时刻,往往伴随着痛苦和抓耳挠腮。那种从怎么也想不通到豁然开朗的转折,就是建设性挣扎,也正是大脑建立神经元连接的必经之路。
建设性挣扎给人带来的不只是解题结果,还有对自己能力边界的真实感知——知道自己哪行、哪不行、能扛多久。AI抹掉了这个过程,你也就失去了校准自我的机会。你既不知道自己的极限在哪,也不知道自己其实有能力搞定。
研究人员让受试者使用ChatGPT来撰写长篇论文。结果那些重度依赖AI写出漂亮文章的人,在事后往往根本回忆不起来自己写了什么,甚至在测试时,连哪篇文章是自己交的都认不出来。
研究团队为此创造了一个极其精准的词汇:认知债务(Cognitive Debt)。就像刷信用卡。你用AI搞定了今天的工作总结、明天的策划案、期末的论文,透支的是未来的认知能力,换来的是当下的舒适区。
债总是要还的,而且往往在你最措手不及的时候找上门来。

一开始,你只是用AI帮你润色普通的文案;接着,你让它帮你列一个会议提纲;后来,你连给亲近的人写句话都要先问问AI的意见。随着时间的推移,你的独立思考能力、深度阅读能力、甚至组织长句子的能力,都在不知不觉中萎缩。你以为你在白嫖AI的算力,实际上,AI正在“吃掉”你的脑力。
此外,研究人员还特意在报告中提到,学习资源越少的学生,受到的冲击可能越大。对于本身就能接触到大量优质教育资源、有老师有辅导的群体来说,AI只是众多工具之一;
对于依赖自学、缺乏外部支持的人来说,AI很可能是他们接触“即时帮助”的唯一渠道,依赖也会更深。
虽然加减乘除和基础阅读看起来是小事,但它们是通往高阶能力的台阶。如果基础阶段的练习意愿被AI侵蚀掉了,后面的逻辑思维和批判性思考就成了无源之水,无本之木。
那么,面对汹涌而来的AI浪潮,我们难道要退回2021年,拒绝使用一切大模型吗?显然不是。技术的车轮不会倒退。
研究人员认为,那些表面化的补救措施,比如把AI设计成苏格拉底式问答、限制使用时长,解决不了根本问题,因为AI提供的诱惑是系统性的。真正的出路,在于从设计层面重新思考AI与人类的协作方式。
未来的AI,在设计之初就必须考虑到人类的长期目标。这意味着,AI应该被设计成一个懂得克制的“导师”,而不是一个有求必应的“保姆”。
一个真正优秀的AI导师,看到学生抓耳挠腮时,绝不会直接把答案甩过去。它会给出提示,引导方向,甚至刻意保持沉默,等学生自己跨过那道坎。
遗憾的是,目前市面上绝大多数AI产品都在疯狂讨好用户。它们比拼的是谁生成得更快、谁能最大程度地帮用户省掉思考时间,但作为用户的我们,或许是时候在狂热中保持一丝清醒了。
下次遇到不那么紧急、需要动脑子的活儿,试着先关掉AI的对话框。拿出一张纸、一支笔,去体会那种绞尽脑汁、卡壳、最后豁然开朗的过程。
就算非要用AI,也请让它给你一点提示,而不是直接要一个结果。在这个答案可以瞬间生成的时代,那段看似笨拙、辛苦的挣扎,才是你作为人类最核心的竞争力,也是任何AI都无法替代的终极壁垒。
