深度依赖AI可能导致专业能力退化,表面效率提升却削弱核心技能,尤其威胁缺乏基础训练的新人。未来竞争力在于保持独立判断力,而非单纯依赖工具。 --- ## 1. AI的隐蔽风险:去技能化侵蚀专业能力 - **现象**:资深开发者使用AI后,代码调试能力退化,出现"高尔夫挥杆生疏"效应,肌肉记忆和判断力减弱 - **本质**:AI跳过试错环节,导致用户对工作流程陌生化,形成"产出高效但能力空心化"的悖论 - **数据**:Business Insider案例显示,10万行AI生成代码库引发沟通成本指数级上升 ## 2. 认知浅滩化:数字环境双重夹击 - **注意力危机**:纽波特研究指出,手机存在即降低专注力,短视频用户认知能力下降15-20% - **AI加速逃避**:生成式AI提供"体面懒惰",用prompt替代深度思考,导致耐受力持续降低 - **比喻**:TikTok是"超加工内容",如同多力多滋——高成瘾低营养 ## 3. 判断力危机:核心能力的外包陷阱 - **关键区别**:AI擅长制造"合理假象",真实能力需经历困惑-修正的完整闭环 - **未来能力**:从"生产内容"转向"审查内容",识别流畅但空洞的AI输出 - **残酷前提**:《大西洋月刊》强调:只有具备基线能力者才能有效监督AI ## 4. 新人危机:缺失的能力基线 - **代际差异**:资深者曾有AI前训练期,新人可能完全跳过基础能力培养 - **组织风险**:企业奖励AI表面效率,长期将掏空真正的问题解决能力储备 - **典型症状**:"空心熟练者"——脱离工具即失去支撑的伪专业人士 ## 5. 人性危机:成为"机器的机器" - **哲学警示**:萨特担忧人类按机器逻辑自我改造,丧失复杂思考和语言质感 - **现实表现**:prompt优化取代原创表达,模糊容忍度持续下降 - **解决方案**:建立"认知卫生"体系,保留深度阅读/写作/思考的"无AI训练区"
第一批深度使用AI的人,正在被AI去技能化
2026-03-30 23:27

第一批深度使用AI的人,正在被AI去技能化

本文来自微信公众号: 不懂经 ,作者:不懂经也叔的Rust


有一位做了25年软件开发的软件顾问,决定做一个实验。


最近,Business Insider报道了他的经历:他让AI帮自己开发一款应用,从搭框架到生成功能,几乎都交给了聊天机器人处理。最开始,那种感觉近乎魔法。几分钟,一个功能就出来了;一小时,一个模块就成形了。进展快得惊人,仿佛软件开发从一项需要长年训练的复杂手艺,突然变成了一种“会描述需求就行”的工作。


可几周之后,问题开始出现。随着代码库膨胀到10万行,沟通成本迅速上升,返工越来越多,修bug变成一场没完没了的拉扯。更微妙的变化,发生在他准备重新亲自上手的时候。


他原以为,只要自己重新接管,凭着二十多年的经验,很快就能找回熟悉的节奏。结果却不是这样。代码摆在面前,他当然看得懂,也知道该怎么改,可真正开始动手时,每一步都多了一点犹豫。他后来形容那种感觉,就像很久没碰球杆的人重新站上高尔夫球场:“我的挥杆动作不对了。”


这句话值得反复咂摸。


因为它触碰到的是AI时代一种极其隐蔽、又越来越普遍的风险:AI未必立刻让你失业,但它可能先让你失去“本来会做这件事”的那种手感、判断和笃定。你看起来更高效了,产出也更多了,可真正支撑这些产出的能力,却可能在悄悄变薄。


这就是今天越来越多人开始讨论的一个词:去技能化。第一批深度使用AI的专业人士,正在被AI卸下技能,那种肌肉记忆和感觉都在变弱。但是,对外行和新人来说,威胁则更加深远。


大事正在发生,但绝大多数人还没有意识到


你已经不再是地球上最聪明的存在了


一、AI最大的风险,不是替代你,而是削弱你


过去几年,关于AI的讨论大多围绕一个问题:它会不会取代人类工作。可比“取代”更早发生的,往往是“削弱”。


不久前,我们分享过《大西洋月刊》在2025年10月发表的长文,《The Age of De-skilling去机能化的时代》,其中提出了一个关键判断:AI带来的问题,并不只是某一项职业是否会被自动化,而是新技术正在改变人形成能力、维持能力和理解世界的方式。


这篇文章说的是,所谓去技能化,并不总是指“突然不会了”。更多时候,它意味着一种更缓慢、更不易察觉的变化:你依然能完成任务,但熟练度在下降;你依然能产出结果,但对过程越来越陌生;你依然能说得头头是道,但真正需要独立判断时,心里开始发虚。


这也是为什么很多人最近会产生一种很怪的感受:工作更快了,但人更空了。


原因并不复杂。AI擅长给出流畅、完整、看起来很专业的答案,而人类又天然容易把“拿到答案”误认为“掌握能力”。


你让AI总结一篇文章,写一份报告,搭一个代码框架,生成一套分析思路,结果似乎都还不错。久而久之,我们开始默认:既然我能调动这些结果,那它们在某种意义上也“属于我的能力”。


可这恰恰是一种危险的错觉。


真正的能力,不只体现在最后那份看起来像样的结果上,更体现在一个人有没有经历过困惑、试错、拆解、推演、反驳、修正这些过程。很多技能,尤其是认知技能,并不是“知道答案”就能获得的,而是在反复练习中,把一种思考路径、一种判断习惯、一种应对复杂情况的感觉,慢慢长进自己身上。


AI的方便之处,也正是它的风险所在:它不只是替你省力,很多时候,它把这些本该由你亲自完成的训练环节,也一并替你跳过了。


于是,一个悖论出现了:我们越依赖AI提升表现,就越可能削弱真正产生表现的能力。


是马还是煤,决定5年后你的工作是否还存在


AI逼出了教育的真相,美国大学开始复兴一种古老传统


二、短视频切碎注意力,AI接管思考


如果说AI造成的是“去技能化”,那么更大的背景,其实是更早已经发生的“认知前滩化”。


昨天,《纽约时报》刊发了计算机科学家Cal Newport卡尔·纽波特的评论文章《There’s a Good Reason You Can’t Concentrate》。这位《Deep Work》《深度工作》的作者提出了一个更尖锐的判断:今天的问题,已经不只是我们找不到时间深度思考,而是我们正在迅速失去深度思考本身的能力。


这可以说是显而易见,但并不容易解决。


过去十几年,智能手机、社交媒体、即时消息和短视频平台共同塑造了一种新的注意力环境。人的认知系统被不断训练去适应更短、更快、更密集的刺激:几秒一个切换,几十秒一个高潮,信息必须足够轻、足够快、足够上头,否则就会被手指划走。


卡尔·纽波特引用的研究显示,人类注意力持续时间已经显著缩短;手机哪怕只是静静放在旁边,也会削弱专注表现;短视频消费与更差的认知能力和更低的注意力水平之间,存在明确关联。他用了一个极形象的比喻:TikTok之于大脑,就像多力多滋之于身体,是一种“超加工内容”。它高度可口,高度上瘾,却几乎没有真正的营养。


而生成式AI的出现,并没有扭转这种趋势,反而把它推进到了下一阶段。


短视频和社交媒体,主要是把人的注意力切碎;生成式AI则进一步提供了一种更体面、更像“工作”的逃避方式。面对空白页太难?让AI先写个初稿。看资料太累?让AI先总结。做推演太费脑?让AI先列框架。难题本来需要你咬着牙一点点拆,现在只要写个prompt,系统就替你把“像样的结果”端上来了。


问题是,人并不会因为“看见了一份像样的结果”,就自动获得相应的思考能力。相反,越是习惯于这种方式,越难忍受真正的慢思考,越难忍受独立阅读、独立写作、独立组织逻辑带来的阻力。


数字技术先把我们推向浅水区,AI再让我们误以为,自己已经学会了游泳。


三、真正被侵蚀的,不是手艺,而是判断力


当然,去技能化并不总是坏事。


《大西洋月刊》那篇文章有一个很重要的提醒:从长时段看,人类文明本来就是在不断把一部分能力外包给工具。文字削弱了口头记忆,却催生了历史、法学和科学。


计算器削弱了心算,却让更多人能处理复杂计算。卫星导航替代了观星定位,可靠的发动机替代了许多机械维修常识。并不是每一项技能的消失,都值得哀悼。


真正值得警惕的,不是某种机械手艺的退场,而是那些更核心的能力也开始一起被外包:判断真假、辨别轻重、处理复杂性、承受模糊、形成自己的理解。


这才是AI时代最要命的地方。


因为生成式AI最强的能力之一,就是制造“看起来很合理”的东西。它会写出流畅的段落,给出完整的结构,生成似是而非却足够唬人的分析,让人误把“表达得很顺”当成“理解得很深”。一个不具备足够判断力的人,很容易被这种流畅性催眠。


所以,未来真正稀缺的能力,很可能不再只是“能不能生产内容”,而是“能不能对内容负责”。你能不能看出一段话虽然顺,但空;一份报告虽然整齐,但浅;一段代码虽然跑得起来,但结构有问题;一个分析虽然漂亮,但关键前提就是错的。


换句话说,AI时代的高价值能力,正在从“生产第一稿”转向“审查第一稿”,从“亲手完成全部”转向“为结果承担判断责任”。


但这里有一个残酷的前提:只有本来就有基本功的人,才有资格谈“监督AI”。


不会写的人,很难真正修改AI的文字;不懂研究的人,很难发现AI总结时遗漏了什么;不懂代码的人,也不可能真正判断一段AI生成的程序到底稳不稳。没有基础的人,并不是在“与AI协作”,而是在把自己的判断权交出去。


所以,AI时代真正稀缺的,不是会不会用工具,而是有没有能力在工具面前保持清醒,不被工具反噬和吞没。


真正让你失去安全感的,根本不是AI技术本身


别再做时间的朋友了,AI时代“空间”才是你致富的朋友


四、最危险的一代,可能是从未建立“基线”的新人


这也是为什么,去技能化对年轻人和初入职场者的威胁尤其大。


Business Insider的报道里,研究者反复强调一个词:baseline,基线。也就是,一个人在没有AI帮助时,本来就具备的基本能力水平。


很多今天的资深从业者,哪怕再依赖AI,至少也有过一段没有AI的训练期。他们写过笨拙的初稿,做过低效率的检索,熬过独立思考的痛苦阶段,知道一个完整的专业判断到底是怎么长出来的。即便能力生疏了,那条路他们毕竟走过。


真正危险的,是那些从一开始就被AI包围的人。


对于新人来说,初级岗位和基础训练从来都不只是“做点简单活儿”而已。它的真正意义,是让人学会如何拆解混乱的问题,如何承受犯错,如何在被质疑时为自己的思路辩护,如何在一堆不完整的信息里慢慢形成判断。


一个人真正的职业感觉,往往不是在做高光任务时长出来的,而是在这些看似低级、实际极其重要的重复练习里长出来的。


可如果这一层,被AI提前吞掉了呢?


当阅读可以外包,写作可以外包,资料整理可以外包,代码初稿可以外包,连“第一步该怎么想”都可以外包时,就会出现一种很奇怪的人:看起来效率很高,表达很流畅,提交物也很漂亮,但一旦脱离工具,就失去支撑。表面是熟练,内里是空心。


更糟的是,很多组织还在奖励这种表面效率。一些企业已经把AI使用频率纳入绩效,鼓励员工更快地产出更多内容。短期看,这当然漂亮:速度更快,成本更低,文档更多,会议纪要更全,汇报材料更整齐。


可长期看,一个组织真正的能力储备,也许正在被悄悄掏空。系统顺利运转时看不出来,一旦模型出错、环境变化、规则失效,才会发现,真正能独立接住问题的人,已经越来越少了。


不懂经:AI吃掉的不止是软件,而是整个互联网


AI时代个体的竞争优势,根本不在于拥有什么能力


五、我们会不会慢慢变成“机器的机器”?


关于去技能化,最深的一层担忧,并不是职业技能退化,而是所谓“构成性去技能化”:那些最根本地构成人之为人的能力,也开始被慢慢侵蚀。


这听上去很抽象,其实并不难理解。


技术改变的,从来不只是效率,还会改变人的感觉、身份和生活质地。数字先知麦克卢汉就曾提出,新的媒介技术会改变人类“感官的比率”。也就是说,它会重新安排我们的注意力如何分配、感知如何展开、理解世界时优先依赖哪一种能力。某种感官被放大,另一些感官就会被压缩;某种经验被强化,另一些经验就会被边缘化。


这句话放到今天,有一种预言般的准确。短视频强化了即时刺激,削弱了耐心;社交媒体放大了反应速度,压缩了沉思空间;生成式AI则进一步改变了我们处理语言、组织思想和形成判断的方式。


我们越来越擅长快速提问、快速调用、快速生成,却越来越不习惯迟疑、咀嚼、推敲和独立完成一段完整的思考。技术没有拿走我们的全部能力,但它正在重新配置这些能力的比重。


这也意味着,AI对人的影响,远不只是“帮你完成了一项任务”这么简单。它还在悄悄重塑一种新的认知结构:什么样的表达更容易被接受,什么样的思路更值得保留,什么样的语言更“像答案”,什么样的停顿又显得多余。


久而久之,人会越来越倾向于按机器擅长的方式表达自己,也越来越倾向于按照系统偏好的节奏来理解世界。


法国哲学家让-保罗·萨特曾担心,人会不会变成“机器的机器”。这句话放在今天,忽然有了新的现实感。


它并不是说,人会像科幻电影里那样,被一台超级智能直接统治。更真实的风险是,我们在追求便利、效率和顺滑的过程中,越来越主动地按机器的要求来调整自己。


我们学会了如何让系统更容易理解自己,却忘了如何更深入地理解世界;我们越来越会写机器喜欢的prompt,却越来越不会写真正属于自己的句子;我们越来越擅长用流畅的套话填满文档,却越来越少经历那种艰难但诚实的推敲时刻。


长此以往,人的判断力、想象力、共情能力、语言感觉、对意义和分寸的把握,都可能在不知不觉中变薄。


失去这些东西,不会像机器故障那样轰然作响。它更像是一种安静的塌陷:谈话变浅了,表达变空了,复杂问题越来越让人不耐烦,模糊和不确定越来越难以承受,连寻找一个准确词语的耐心都在消失。


这也许才是AI时代最值得担心的后果。


顶尖算法工程师都被裁了,AI时代到底还有什么"铁饭碗"?


知识套利已死,叙事者永生


六、走出浅滩人生,拒绝被AI抚平


说到这里,并不是要反对AI。


AI在很多场景里都有非常明确的价值。处理重复劳动、筛查海量材料、修复格式错误、辅助信息提取,这些都可能实实在在节省时间,提高效率。问题从来不在于“要不要用AI”,而在于:我们究竟把它用在什么地方,又把什么东西留给自己。


卡尔·纽波特有一个重要判断:真正危险的,是那些主要用来让核心任务“变得没那么费脑子”的AI用法。因为恰恰是那些费脑子的部分,构成了一个人的认知肌肉。写作不是麻烦,而是训练;阅读不是前置步骤,而是思考本身;独立组织论证,不是低效,而是能力形成的过程。


所以,AI时代真正的自救,也许不是学更多技巧,而是重新建立一套“认知卫生”观念:哪些内容要少吃,哪些能力要刻意练,哪些时刻必须拒绝把自己的大脑外包出去。


我们也许需要像对待身体健康那样,重新对待认知健康。少吃“数字垃圾食品”,保留不被打断的时间,重新练习深度阅读,给自己留出独立写作和独立思考的空间。在组织里,也许需要有意识地建立“无AI训练场”,让人定期在没有辅助的情况下处理问题,确认自己的判断能力并没有在顺滑的自动化流程中慢慢退化。


因为,未来人与人的差距,未必首先体现在谁更会写prompt,谁更早接入模型,谁更快实现自动化。


真正的分水岭可能是:谁还能在这个越来越顺滑、越来越替你完成一切的时代,保住那些缓慢、费力、却不可替代的能力,如专注,判断,阅读,写作,独立思考。


所以,走出浅滩人生,不是拒绝AI,而是不让自己只活在那些被算法抚平、被模型代劳、被效率逻辑彻底统治的区域里。我们仍然需要主动走向那些有挑战的任务,走向那些需要专注、判断和耐心的时刻。


只有在那里,人才能重新长出自己的厚度。【懂】

AI原生产品日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP