AI时代下,人类技能价值面临重构:当AI承担大部分执行工作后,真正的竞争力转向判断力、底层理解力及整合能力,而非单纯的技术熟练度。张文宏案例揭示,依赖AI但缺乏专业根基将导致"技能归零",而专家通过验证与宏观把控实现能力跃迁。 ## 1. 张文宏悖论:技能归零与判断力危机 - **0的10倍仍是0**:若基础能力为0(如新手医生依赖AI诊断),AI放大后仍无法获得真实能力,且无法识别AI的5%错误率。 - **人类核心价值**:AI是"概率拟合",而人类负责"后果承担",判断力成为稀缺资源,需通过长期实践积累(如30年临床经验)。 ## 2. 提示词失效的真相:思维熵值与结构化输入 - **GIGO原则**:AI输出质量取决于输入质量,混乱需求导致平庸结果(如直接抛未拆解问题给AI)。 - **顶级技能迁移**:清晰表达与结构化思维成为关键,需自主完成"从0到1"的思考框架,AI仅填充"1到100"。 ## 3. 超越信息茧房:第一性原理与本质洞察 - **AI的平庸共识**:基于训练数据均值回归,输出安全但缺乏突破性(如健康建议仅复述高频信息)。 - **理解>知识**:专家优势在于知晓"为什么"和"边界"(如张文宏推翻AI标准答案),需通过实践建立独立认知体系。 ## 4. 角色进化:从执行者到验收指挥官 - **历史类比**:电脑使律师从"找判例"转向"构建策略",AI推动人类从"写代码"转向"架构设计+审核"。 - **复杂度释放**:独立开发者可运营十人团队业务,医生处理量倍增,但需兼具宏观把控(疑难杂症)与微观验证(AI纠错)。 ## 5. 技能提纯:与AI竞赛"出题"而非"做题" - **虚幻价值崩塌**:AI剥夺机械执行的成就感,倒逼思想价值挖掘(如报告生成从3天→3秒)。 - **超级个体路径**:将AI视为需高智商驾驭的杠杆,通过独到见解实现降维打击,而非工具依赖。
为什么越用AI,越觉得自己不值钱了?
2026-01-19 10:25

为什么越用AI,越觉得自己不值钱了?

本文来自微信公众号: 不懂经 ,作者:不懂经也叔的Rust,原文标题:《AI时代的张文宏悖论:为什么越用AI,越觉得自己不值钱了?》,题图来自:视觉中国


前几天,刷到一条短视频,是国家传染病医学中心主任张文宏,1月10日在香港高山论坛上的一段讲话,他明确表示:“我拒绝把AI引入医院病历系统。”


因为,未经系统性训练的AI,会从根本上改变医生的培训路径,破坏或损害年轻医生需要通过传统训练才能掌握的独立诊断能力。


张文宏解释说,他自己当然用AI,让AI先过一遍病例。但关键是,以他三十多年的临床经验,他一眼就能看出AI哪里错了。


问题在于年轻医生。


如果一个医生从实习阶段就开始依赖AI给诊断结论,跳过了完整的临床思维训练,那他将永远丧失一项关键能力:鉴别AI对错的能力。


张文宏的这番话,从一个普通AI用户的角度,道破了一个被普遍误解的现实,关于AI时代的技能和杠杆。


过去一两年,我看到一种奇特的“群体性焦虑”。


有意思的是,这种焦虑不是来自那些不懂技术的人,恰恰相反,它更多来自那些已经熟练使用AI的精英群体:程序员、律师、分析师、自媒体人。


大家最初都兴奋地以为,AI会让自己成为超人。但短暂的效率狂欢之后,很多人陷入了一种更深的无力感:


当AI能以零成本完成80%的工作时,我剩下那20%的价值,到底能不能撑起我的职业尊严?


如果一个AI可以几分钟搞定我两周的代码;如果大模型能秒出一份完美的尽调报告;如果gemini或豆包能让毫无绘画基础的人产出大师级作品,如果gpt能够“准确”阅读体检报告或检查报告,那人类技能的护城河,究竟还在哪里?


之前,大西洋月刊曾经发表过一篇文章,说我们正在进入一个去技能化的时代;但硬币的另一面恰恰是:AI并没有让技能变得无用,它引发的是一场剧烈的“技能通胀”。只是技能要被重新定义。


在一个执行成本趋近于零的时代,AI就是一面照妖镜。它放大的不仅是你的效率,更是你认知的颗粒度或精度。


你感到“废了”,可能是因为AI无情地暴露了一个事实:过去你引以为傲的工作,大部分只是在“搬砖”,是执行,是“听话照做”,而不是在“思考”,更不是提出问题和解决问题。


21世纪的技能真相,不再关乎你手里有多少工具,而关乎你脑子里有多少原本的真实的杠杆。“宏观把控+微观验证”的综合能力,才是AI时代真正的铁饭碗。


一、张文宏悖论:0的10倍还是0


硅谷有一个广为流传的观点,但常常被误读。


人们说:“AI是生产力的10倍放大器。”


这句话的数学含义,比字面意思更冷酷。


如果你现在的能力是1,AI让你变成10;如果你是10,AI让你变成100。但如果你对某个领域的底层理解是0,那么,0乘以10,依然是0。


这正是张文宏担忧的核心:一个从实习阶段就依赖AI的年轻医生,他的临床判断力可能就是0。AI再强大,0乘以任何数,结果还是0。


更可怕的是,这个“0”自己还不知道自己是0。


张文宏说得很直白:“新手医生不能只会依靠AI看病。”为什么?因为即使AI准确率高达95%,那5%的错误也需要由专业医生来识别和纠正。


如果医生根本不具备独立诊断能力,他怎么发现AI的错误?怎么处理AI搞不定的疑难杂症?


这就是我说的“张文宏悖论”,某种层面上,它是个先有鸡还是先有蛋的问题。但另外一个层面上,它强调的是,是人在用工具,还是工具在用人。


它揭示了AI时代技能的第一层真相:


AI的本质是“概率的拟合”,而人类的价值在于“后果的承担”。


过去我们说的技能,往往指的是熟练的执行,熟记语法、背诵法条、掌握各种快捷键。但在AI时代,这些硬技能迅速贬值,变成了基础设施。


取而代之的,是一种更隐蔽、更稀缺的能力:判断力。而所谓判断力,就是知晓自己行为的长远后果。


试想一个场景:一位资深工程师和一位新手同时用AI写代码。


新手得到的只是代码块。他无法判断这段代码有没有架构隐患,无法预知它在极端并发下的表现,甚至不知道这是不是一个“死胡同”式的解决方案。


而资深工程师看到的不是代码,是路径。他知道该给AI什么任务,知道如何验收结果,更知道当AI犯错时该在哪个环节修正,而AI一定会犯错。


对于新手,AI是个黑盒,只能祈祷它输出正确答案。 对于专家,AI是个无限精力的实习生团队,指哪打哪。


于是,未来的专家与普通人的分野,在于你是否具备“验证AI输出”的能力。


张文宏能一眼看出AI的诊断错在哪里,靠的不是什么神秘直觉,而是三十多年临床经验积累出的“元能力”。这种能力,恰恰是被AI跳过训练的年轻医生最缺乏的。


所以,如果没有深厚的专业知识作为压舱石,AI带来的不是效率,而是昂贵的混乱。


二、为什么你的提示词总是“差点意思”?


为什么有的人能用AI解决复杂问题,有的人只能把它当聊天机器人?


问题不在于你不会写“咒语”,而在于你思维的熵值太高。


最近有一种很值得警惕的现象:人们开始把思考本身外包给AI。


遇到问题,不做拆解,直接把一团浆糊似的需求扔给模型,然后对着平庸的输出发火:“这AI根本就没用。”


其实,不是AI蠢,是你没想清楚。


AI模型再先进,本质上也是基于“上下文”的预测机器。它的输出质量,严格受限于你输入的上下文质量。这就是“Garbage In, Garbage Out”(垃圾进,垃圾出)的现代版。


21世纪的顶级技能,变成了“清晰的表达”和“结构化思维”。


真正的高手在打开对话框之前,脑子里已经完成了一场严密的推演:


1.定义问题:我到底要解决什么核心矛盾?


2.拆解逻辑:这个大问题由哪几个子任务构成?依赖关系是什么?


3.设定标准:什么样的结果才算合格?


比如,在让AI协助开发一个功能前,你是否已经厘清了数据流向?在让AI写一篇文章前,你是否已经构建了独特的观点框架?


别指望AI替你完成“从0到1”的思考。


AI擅长的,其实是填充血肉(从1到100),但那个“1”,那个核心的洞察、逻辑的骨架,必须由你提供。


如果你无法清晰地向人类同事阐述你的想法,你也绝不可能从AI那里得到满意的结果。


清晰的写作就是清晰的思考。


未来,用自然语言编程将是通用技能。但这不意味着编程变简单了,而是意味着语言和逻辑的精度成为了新的代码。


如果你的思维是混乱的,AI只会高效率地放大这种混乱。


三、走出信息茧房:比99%的人更接近本质


既然AI是基于人类已有的海量数据训练出来的,它天生就带有一个巨大的缺陷:平庸的共识,即向均值回归。


你问AI关于健康、理财或历史的观点,它大概率给你一个“教科书式”的回答。这些回答安全、正确,但往往极其平庸,因为它们只是重复了互联网上出现频率最高的信息。


这就引出了第三个维度:去伪存真的洞察力。


知识(Knowledge)和理解(Understanding)是两码事。


  • 知识是你知道“应该这样做”;


  • 理解是你明白“为什么要这样做,以及什么时候不该这样做”。


这正是张文宏和年轻医生之间的根本差距。


年轻医生通过AI可以瞬间获得“知识”,如诊断结果、用药建议、治疗方案。但张文宏拥有的是“理解”:他知道这些知识的边界在哪里,什么情况下要打破常规,什么时候AI给的“标准答案”是错的。


在这个信息过载的时代,如果你只是通过填鸭式教育和算法推荐获取信息,你本质上只是在一个巨大的“回声室”里机械复述。你并不真正理解事物的运作机制。


要比AI更聪明,我们需要比99%的人更接近事物的本质(第一性原理)


  • 想理解商业?不要只看畅销书和公众号,去研究现金流、杠杆、供需关系和人性的贪婪。


  • 想理解健康?不要只信所谓的权威指南,去研究代谢、激素、炎症反应的生物学机制。


当AI给你一个“标准化建议”时,只有那些真正理解底层系统运作的人,才能敏锐地发现其中的漏洞,或者在特殊情境下果断推翻AI的建议。


就像张文宏说的:会不会被AI误导,取决于你自身的能力有没有强过AI。而你没办法和AI比知识,只能比理解。


未来的竞争优势,属于那些敢于质疑“训练数据”的人。你需要建立自己的认知体系,这套体系不是抄来的,而是你通过实践、通过痛苦的反馈循环、通过独立思考亲自验证过的。


AI是全人类知识的平均值。如果你想超越平均值,你就不能只依赖AI,你必须拥有AI无法通过统计概率得出的独到见解。


四、执行价值归零之后:从干活的到验收的


把视线拉长,历史虽然不会重复,但总是押韵。


1980年代,电脑的普及曾让当时的会计和律师恐慌不已。在此之前,律师为了寻找一个判例,需要在堆积如山的卷宗中翻找数日。电子检索技术的出现,让这项工作瞬间变成了几秒钟。


律师失业了吗?没有。相反,法律行业变得更庞大、更复杂了。


因为检索变得容易,客户对律师的期望也随之提高。人们不再为“找到判例”付费,而是为“基于复杂判例构建独特的辩护策略”付费。


同理,当AI接管了代码编写、文案生成、基础诊断之后,人类的角色正在发生本质的跃迁:


我们正在从“手艺人”进化为“指挥官”;从“干活的”升级到“验收的”。


过去,一个优秀的工程师可能需要50%的时间写代码,50%的时间思考架构。现在,他可以用90%的时间去思考架构、理解业务、优化体验,而把代码工作交给AI(并由他来审核)


这意味着,工作的复杂度上限被打开了。


独立开发者现在可以一个人运行一家原本需要十人团队的公司;一个懂行的自媒体人可以一天产出过去一周的内容量;一个资深医生(如张文宏)可以在AI的辅助下处理过去根本不可能的病例量。


这就是AI时代“技能”的新定义:


它不再是单一维度的“专精”,而是一种跨维度的整合能力。


你不需要亲自砌每一块砖,但你必须知道大楼的力学结构,必须有审美能力来决定大楼的外观,必须有商业头脑来决定大楼建在哪里最值钱。


这种“宏观把控+微观验证”的综合能力,才是AI时代真正的铁饭碗。


张文宏强调的两大关键能力,本质上就是这个意思:


1.判断AI诊断的准确性(微观验证)


2.诊治AI无法应对的疑难杂症(宏观把控)


没有这两项能力的医生,只能算是“AI的操作员”。


结语:只有升维,才能享受降维打击的快感


回到开头谈到的那个现象:为什么越用AI,越觉得自己废了?


因为AI剥夺了你通过“苦力”获得成就感的权利。


以前,你花三天时间整理出一份精美的报告,会觉得自己很有价值;现在,AI三秒钟就能做出来,这种虚幻的价值感瞬间崩塌。


这确实让人痛苦,但更是一种觉醒。


AI逼迫我们直面那个最难的问题:除了机械的执行,我真正的思想价值在哪里?


对于那些不愿意思考的人,这是一个最坏的时代。他们将彻底沦为算法的附庸,甚至无法察觉自己正在被平庸的信息茧房吞噬。


但对于那些充满好奇心、拥有独立思考能力、渴望探究事物本质的人,这是人类历史上最好的时代:


  • 所有的门槛都降低了。


  • 所有的天花板都消失了。


  • 你拥有了人类历史上最强大的智囊团和执行队,24小时待命。


张文宏不是反对AI,他反对的是跳过底层能力建设直接使用AI,把思考和元认知外包给AI。


他自己用AI用得飞起,因为他有三十年的内功作为地基。AI对他来说是如虎添翼;而对于没有内功的年轻医生,AI可能是拔苗助长,饮鸩止渴。


在21世纪,技能不会消失,但它会经历一次残酷的提纯。


不要试图和AI比赛“做题”,要去和AI比赛“出题”。


当你不再把AI当作一个帮你偷懒的工具,而是把它当作一个需要你用极高智商去驾驭、去指引、去纠错的超级杠杆时,


你通过AI看到的,就不再是平庸的自己,而是一个被无限放大的、强悍的超级个体。

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP