AI并非直接使人变蠢,而是通过替代思考过程,让我们失去了变得聪明的机会。文章揭示了这种“伪智能”状态在个体、组织乃至文明层面带来的深刻危机,其核心是判断力的外包与消亡。 ## 一、认知缴枪:当判断力被外包 - 芬兰金融公司的案例显示,自动化软件运行得过于完美,导致会计师停止深入思考,关键技能沦为“丢失的能力”。 - 宾夕法尼亚大学的实验证实了“认知投降”:当AI给出错误答案时,使用者不仅采纳错误,且表现远低于独立思考者,意味着他们连判断行为也一并交了出去。 - AI吞噬的往往是工作中最具成长性的“适度困难”环节,如初级律师查案例、程序员调bug,这些过程正是判断力形成的土壤。 ## 二、算法单一文化:思考的同质化危机 - 对21个主流大语言模型的研究发现,它们对同一问题的回答高度趋同,形成“算法单一文化”。 - MIT研究指出,使用ChatGPT的学生论文观点狭窄、创造性降低,且脑机接口监测显示其神经连接更浅,批判性思维和长期记忆被削弱。 - 当所有人借助同一个“外脑”思考,世界并未变得更聪明,而是变得更整齐,个体独立思考的意愿在效率崇拜的系统压力下被消灭。 ## 三、文明的外包:治理的赌博 - 英国政府计划在公共部门普及AI以节省460亿英镑,但小说家伊万·莫里森指出,这是在将医疗、军事等关键决策外包给一个错误率在33%到90%之间的系统。 - 治理者若不懂技术,技术便如同魔法,决策只能依赖供应商,缺乏对失败代价和备份方案的追问。 - 新加坡提供了一个反例:其技术决策由懂技术的人主导,姿态是工程性的、计算代价的、保留备份的,而非宗教性的押注。 ## 四、留下变聪明的机会 - 问题不在于个人道德选择,而在于一整套奖励快速产出而非深度思考的机制。 - 真正的解决方案是重新设计制度,在学校、公司、政府等层面奖励思考,而非仅靠个人意志。 - 个人能做的,是在使用AI后保留最终判断权,守护提出问题的能力、判断答案可信度的能力,这些是AI无法替代的。伪智能时代真正稀缺的,是仍在思考的人。
伪智能时代:AI不是让你变笨,是让你失去变聪明的机会
2026-05-04 23:35

伪智能时代:AI不是让你变笨,是让你失去变聪明的机会

本文来自微信公众号: 不懂经 ,作者:不懂经也叔的Rust


旧金山有一家叫Cluely的初创公司,做的是给打工人开会、面试、写代码时实时偷看AI答案的工具。他们有两条广告语,一条是“你再也不用思考了”(Stop thinking),一条直接叫“思考的终结”(End of thinking)。


我看到这两句话的第一反应不是震惊,反倒觉得它们很诚实,而且抓住了这个时代的时代精神。


诚实在哪?诚实在硅谷已经准确判断了,这个时代真正能卖出去的东西,已经不是“让你更聪明”。那种话听上去高级,但产品做不到。


真正能卖出去的是“让你不用聪明”。这两件事不是程度差别,是方向相反。前者要求你投入摩擦,后者承诺帮你绕过摩擦。


今天这篇文章,想说的是一件比“AI让人变笨”更黑色一点的事:


AI可能没有让你变蠢,它只是让你失去了变聪明的那段过程。


我下面会反复用一个词来指称这种状态:伪智能。需要先把这个词的意思讲清楚,因为它的重音不在AI那一边,在人这一边。


伪智能不是AI输出的内容假。AI大多数时候输出的内容是不假的,而且越来越不假。伪智能是一个人借助AI呈现出一种看似聪明的状态,却没有经历聪明背后必需的那段训练。


学生交上来的论文、CEO看到的市场分析、医生收到的诊断建议、政府收到的政策报告,都“看起来对”。“看起来对”和“是对的”之间,差着一整个思考过程。“看起来聪明”和“真的聪明”之间,差着一整段没人愿意走的训练。


聪明从来不是一个状态,是一种习惯。一个人不是因为知道了答案就变得聪明,是因为反复经历了“自己摸到答案”的那个过程,才长出了下一次还能摸到答案的能力。AI把过程消掉之后,结果还在,能力没了。


这件事,在三个层次上同时展开。第一层是个体的认知投降,第二层是组织和教育的算法塌缩,第三层是一个不懂技术的政府,把整个文明的判断力外包给一个三分之一到九成时候出错的系统。


下面我们一层一层来。


不是AI使人变笨,而是大多数人被困在了不奖励“思考”的游戏和系统中


每个人都在靠AI作弊上大学,传统教育已死


一、认知缴枪:当你不再是判断的来源


2015年,赫尔辛基阿尔托大学(Aalto University)商学院的埃斯科·彭蒂宁(Esko Penttinen)教授注意到一件怪事。芬兰一家顶尖金融公司里,一款用来加速会计师工作的关键软件正面临被废弃。问题不是它运行得不好,问题是它运行得太好了。


这款软件负责自动化处理固定资产管理的会计工作,几乎没有出过错。但其中一位会计师告诉彭蒂宁:“当这份工作被自动化之后,你就不会再开始深入思考事物的本质了。”关键技能正在变成一种“丢失的能力”。公司高管震惊到,最后的决定是把这款完美运行的软件停掉,重新教员工固定资产管理会计的原理。


为了让公司活下去,这款软件必须死。


这个故事后来被收进彭蒂宁参与撰写的一篇研究论文,题目就叫《技能侵蚀的恶性循环:认知自动化的案例研究》(The Vicious Circles of Skill Erosion)。这篇论文是一个很早期的预警:当机器开始接管那些原本由人来思考的环节,人不会自动转去思考更重要的事,人会停止思考。


这个判断在2024年被一组实验数据精准确认了。


宾夕法尼亚大学沃顿商学院的Steven Shaw和Gideon Nave,设计了一个非常巧的实验。他们让一组志愿者在AI协助下回答有难度的问题,故意在AI的答案里随机插入错误。结果分两种情况:


当AI给出正确答案时,使用AI的志愿者表现优于完全靠自己的对照组。这是大家预期的结果。


当AI给出错误答案时,使用AI的志愿者表现远远低于对照组。也就是说,他们没能识别出AI在胡说,他们直接采纳了。Shaw和Nave给这种状态取了一个名字:认知投降(cognitive surrender)。


这个名字很准。它和“认知卸载”(cognitive offloading)区别很大。认知卸载是说“这件事我让工具去做”,前提是你还在判断“这件工具的输出靠不靠谱”。认知投降是说“判断这件事我也让工具去做”。前者你还是大脑,后者你只是一个传声筒。


AI越像一个聪明人,人就越容易忘记它只是一个概率系统。


最危险的不是AI错,是AI错得很自信、很流畅、很有条理。一个明知道自己可能错的工具会让人保持警惕,一个看起来从不犯错的工具会让人完全松手。Cluely那句广告语之所以能说出来,是因为他们已经看清楚:用户最想要的不是更聪明的助手,是一个让自己可以彻底松手的对象。


但真正让我觉得这件事必须被写下来的,是另一个层次的代价。代价不在于使用AI的人在某次任务中错得更多,而在于他们正在失去未来某天独立做对这件事的能力。


这就要谈一件公众号读者很少有人提到的事:很多被认为是低价值的工作,其实是高价值能力的训练场。


初级律师查案例,不是为了找到那个案例,是为了在翻阅几百份案件中长出“哪些细节会决定胜负”的直觉。


年轻分析师整理资料,不是为了交一份表格,是为了在数据里慢慢摸到“这个行业的真正机制是什么”。


程序员调bug,不是为了让程序跑起来,是为了在反复定位错误中长出“代码在哪些地方最容易坏”的判断力。


编辑改稿,不是为了让句子更顺,是为了在改别人的文字中长出自己写文字时不再犯同样错误的本能。


学生写作文,不是为了交一篇作文,是为了在卡住、推翻、重写的过程中,把模糊的感觉变成清楚的语言。


这些工作有一个共同特征:它们看起来低效,但它们提供的是适度困难(desirable difficulty)。这是1990年代加州大学洛杉矶分校的认知心理学家罗伯特·比约克(Robert Bjork)提出的概念,后来被几百项研究验证:学习时如果完全没有摩擦,大脑不会留下深的痕迹;只有在一定程度的挣扎中,长期记忆和迁移能力才会形成。


AI现在干的事,正好是把这一类工作整段整段吞掉。它不是从工作链条的最高端开始替代,它是从最底端、看起来最不重要的环节开始替代。但被吞掉的恰恰是判断力赖以形成的那段路。


我之前在一篇叫《AI折叠》的文章里写过一句话:算法最先拿走的,不是你的工作,是你工作里最有成长性的部分。


那篇文章当时是从分配角度讲的:谁在算法上游,谁在算法下游。今天再回头看,这件事比我当时写的更彻底。芬兰那批会计师没有被裁,他们只是不再思考了。Wharton实验里那批志愿者没有失业,他们只是把判断这件事让出去了。AI不是抢走了你的工作,是抢走了你工作里那个让你变厉害的环节。


工作还在,人还在,变厉害的可能性没了。


判断力的无产阶级:AI算法下的第一批炮灰已经诞生


现在看清了:AI不是平权,它是资本和劳动力的最后一战。越有钱跑得越快


二、算法单一文化:当所有人借同一个外脑思考


英国保守派历史学家尼尔·弗格森(Niall Ferguson)给当下这个时代起了一个名字,叫“伪智能”(pseudo intelligence)。他最初用这个词,是描述大学里学生用AI代写论文造成的假智力表现:交上来的东西看起来很专业,实际背后没有任何真正的认知工作。


弗格森用得很窄。我们这篇文章想把这个词的范围拉大,因为同样的现象正在从教室扩散到整个组织世界,而且在组织层产生的后果比在个体层更难逆转。


先说一组数据。


2024年,Meta联合两所大学的研究团队发表了一篇研究,扫描了当时市面上21个最先进的大语言模型(包括GPT-4、Claude、Gemini等),测试它们对常见问题的回答。结论是一个让人沉默的词:算法单一文化(algorithmic monoculture)。


这21个模型在面对同一个问题时,给出的答案在结构、立场、用词上呈现出强烈的趋同。


这不是巧合。这些模型大量训练数据重叠,对齐流程相似,人类反馈来源接近。它们在底层是同一种模型的不同变体。


那么问题来了:当全世界几亿人在用这21个模型问同一类问题、改同一类文档、写同一类报告、做同一类决策时,会发生什么?


麻省理工学院媒体实验室(MIT Media Lab)的纳塔利娅·科斯米纳(Nataliya Kosmyna)博士给了一个具体回答。她带领团队研究使用ChatGPT写论文的学生,对比只用搜索引擎的学生和完全靠自己写的学生。结论是,使用AI的小组写出的论文“非常同质化,它们都非常相似”。这些学生反复聚焦在更狭窄的观点集合上,创造性显著降低。


科斯米纳还用脑机接口监测了这些学生的大脑活动。使用ChatGPT的学生,与研究主题之间形成的神经连接更浅,批判性思维和长期记忆的形成都受到削弱,而且这种削弱程度甚至超过了用谷歌搜索的学生。


这就是伪智能在组织层的形态:输出看起来更多元,实际是同一个声音的回声。每个人都觉得自己用AI拿到了独家见解,实际上几亿人在拿到几乎一样的见解,只是措辞略有差异。


谷歌今年推出的AI Mode把这个过程做到了极致。过去你搜索一个问题,谷歌给你十条蓝色链接,你自己点开几条,自己判断哪个可信、哪个值得深读。现在你搜索同一个问题,谷歌直接给你一段AI生成的总结。你看到的是AI决定让你看到的内容。剩下的链接,你不会再点。


我以前写过一篇文章叫《不是AI使人变笨》。当时的核心判断是:社会正系统性地把奖励从“深度思考”转向“煽动情绪”。


AI出现之后,这个奖励机制完成了最后一块拼图:现在连“煽动情绪”都不用你自己干了,模型替你干。你只负责按下生成按钮。


这就引出了海德格尔在1953年那篇著名演讲《技术的追问》里讲过的一个判断:技术真正的危险不是它本身,是它把整个世界揭示成可调度、可计算、可优化的资源。在他看来,技术不是中性工具,技术是一种“看世界的方式”。一旦人类开始用这种方式看世界,森林就不再是森林,只是木材储备;河流就不再是河流,只是水电潜力。


AI是这条逻辑走到今天最干净的样本。它把语言变成可调用资源,把知识变成可调用资源,把观点变成可调用资源,把品味、风格、创意变成可调用资源,最后连“像一个聪明人在思考”这件事本身,也变成了可调用资源。


当一切都变成可调用,有一件事会被悄悄消灭:停下来真正理解一件事的意愿。


因为理解很慢、很不经济、很不能被复用。它在一个崇拜效率的系统里没有位置。


伪智能不是被强制接受的,是被效率本身筛选出来的。当你周围每个人都用AI三十秒生成一份报告、十分钟写完一篇文章、一小时做完一份方案,你坚持自己花三天去理解一件事,你会被认为是浪费时间的人。系统不会奖励你,系统会淘汰你。


这就是伪智能的第二层意思:它不只是一种使用方式,它正在变成一种环境压力。当所有人都借同一个外脑思考,世界不是变得更聪明,是变得更整齐。


永久底层:硅谷的AI从业者普遍认为,普通人已经“完蛋了”。

为什么最懂AI的人在纷纷离职:“我凝视过无尽的黑夜”



三、把文明外包给一个一半时间会犯错的系统


柏拉图在《斐德罗篇》(Phaedrus)里讲过一个埃及神话。


文字的发明者图特(Theuth)把这件礼物献给国王塔穆斯(Thamus),声称它可以增强人的记忆和智慧。塔穆斯回答:不,这只会让人依赖外部符号、削弱真正的记忆。人们将看起来知道很多,实际上只是拥有许多外部记录。


两千五百年之后,塔穆斯的预言每隔几代就被重新激活一次。书写让人担忧记忆,印刷让人担忧专注,广播让人担忧严肃,电视让人担忧深度,搜索让人担忧理解。每一次新工具出现,都有人重述塔穆斯那句话,而每一次,这种担忧都被实践部分证伪、部分证实。


AI让人担忧的是最后一件事:判断力本身。


而这一次的特殊之处在于,前几次的工具替代的是某种能力,这一次的工具替代的是判断。能力丢了可以重新练,判断让出去了,你连“这次让出去得对不对”都没法判断。


英国工党政府2025年公布了一份《人工智能行动计划》。计划的核心是政府聘请的科技投资者马修·克利福德(Matthew Clifford)提出的:通过“全方位数字化”,在公共部门尽可能普及AI,据称可以为国家节省460亿英镑。


报告里有这样的语言:AI将缩短等待时间、识别瓶颈、让公共服务“感觉更具人情味”,甚至可以在监狱暴乱发生之前就将其制止。


不过,英国小说家伊万·莫里森(Ewan Morrison)则认为:政府在把一个错误率在33%到90%之间的东西,引入医疗、军事、教育这些它最不该被引入的领域。


我们没有在拥抱技术。我们在让一个错一半时间的系统替我们做最重要的判断。


更荒诞的是,做出这个决定的人,大多数自己并不懂这个系统是怎么运作的。他们看到的是PPT上的省钱数字,是供应商演示里那些精挑细选的成功案例,是其他国家正在做同样的事所制造的紧迫感。


他们没有能力问出最基本的反问:这个系统在什么情况下会失败?失败的代价由谁承担?如果我们离不开它了再发现它有问题,有备份方案吗?


当被治理者懂技术、治理者不懂技术,这件事会出现一种奇特的反转:技术变得像魔法。一个不懂魔法的人怎么治理魔法?他只能信任那些自称懂魔法的人。


这种状态不是没有反例。前Facebook工程师格奥尔格·佐勒(Georg Zoeller)现在驻新加坡,担任新加坡政府的技术顾问。他观察到的新加坡是一个不同的样本:技术决策由懂技术的人做,引入AI的姿态是工程性的、计算代价的、保留备份的,而不是宗教性的、押注式的、不可逆的。


新加坡的样本意义在于:另一种治理姿态是可能的,一个国家可以认真使用AI,同时拒绝相信AI。这件事在英国、在美国、在欧洲大部分国家,都没有成立。


我之前判断AI是资本和劳动力的最后一战。今天看下来,这件事在加速,但加速的方式比我当初写的更黑色。劳动力还没来得及组织起反抗,已经先把自己的判断力交出去了。资本不需要剥夺工人的反抗能力,工人正在主动放弃。政府不需要压制公民的判断力,公民正在主动外包。


这让我想起1909年英国小说家E.M.福斯特写过一篇短篇小说,叫《机器休止》(The Machine Stops)。故事设定在一个高度依赖一台巨大机器的未来社会,人们的衣食住行、社交、教育、娱乐都通过这台机器实现。久而久之,人们忘记了机器是怎么运作的,也忘记了它是怎么修理的,他们开始把它当作神。


故事的高潮是机器开始出故障。但人们不把这看作危机,而看作神圣的智慧,他们已经把机器变成了不可质疑的对象。等他们终于意识到机器真的会停下来时,已经没有人记得怎么修了。


这本小说写于1909年。福斯特那时候没有计算机、没有互联网、没有AI。他描写的不是技术,是人和技术的一种关系,一种当人完全依赖一个自己不再理解的系统时,会发生的事。


一个不懂技术的政府,把决策外包给一个不懂世界的模型。这不叫治理,这叫赌博。


你已经不再是地球上最聪明的存在了


为什么聪明人正在纷纷逃离社交媒体?


四、把变聪明的机会留下来


有观察家认为,“如果我们正在变得越来越笨,那我们几乎不能把责任推给AI。这都是我们自己造成的。”


读到这句话的时候我有点不同意。


把责任推给自己听上去很有道德感,但这是另一种偷懒。变笨从来不是个人选择,是一整套奖励机制、政策导向、商业模式、教育体制合谋出来的结果。当你周围每个人都在用AI三十秒完成你需要三天才能完成的事,当你的老板拿着AI生成的方案问你“为什么这周只交了一个想法”,当你的孩子告诉你他班上每个人都在用ChatGPT写作业,你独自一个人选择“亲自思考”是一种奢侈,而不是一种美德。


真正的问题不是“我们怎么变得不那么依赖AI”。真正的问题是“我们怎么重新设计一个奖励思考的环境”。


这件事不能靠个人意志解决。学校能不能在某些课程里强制下线?公司能不能保留一部分必须人工完成的环节?政府能不能在最敏感的决策领域立法限制AI介入?这些都是制度问题,不是道德问题。


但在制度回应到来之前,每个人能做的有限的一件事是:把判断权留在自己这里。不是不用AI,是用了之后还要再过自己一遍。不是抗拒效率,是知道有些事情慢一点是值得的。不是回到没有AI的过去,是在有AI的世界里,守住一块不让AI进来的地方。


正如麦克卢汉所指出的,每一种新工具都会让某些东西过时,让某些东西复活。AI让“知道答案”过时了。它复活的应该是什么?


应该是提出问题的能力。判断答案是否值得相信的能力。在没有答案的地方继续往前走的能力。这些是AI永远不能代替的能力。


但前提是,你得还留着它们。


伪智能时代真正稀缺的,不是答案,是还在思考的人。【懂】

AI原生产品日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP