本文来自微信公众号: 张琨随笔 ,作者:张琨
前一段时间,我受邀为一家知名管理咨询公司做线上分享。
题目是:"AI时代,管理顾问行业何去何从?"
在千里之外的屏幕里,我都能感受到会议室里紧张的能量场。房间里全是顶尖名校毕业、年薪百万、靠处理复杂信息为生的人,此刻他们有一个共同的问题:
咨询顾问的工作,AI会不会抢走?
我先给了他们一个坏消息:传统管理咨询模式走到头了。
再给了一个好消息:但顾问有4样核心素养,AI拿不走。所以咨询服务行业永远在。
AI在干什么?它在做几年前需要整支顾问团队才能完成的事情。
海量数据处理,几秒钟。精美的PPT模板,一键生成。复杂的财务模型,自动搭建。市场分析报告,随时输出。这些曾经是"高级顾问"赖以生存的核心技能——如今被硅基AI以近乎零边际成本的方式批量复制。虽然有些领域看起来还很稚嫩,但眼见着AI一天天做得更好。
问题不是"AI会不会做你的工作",而是"AI已经在做你工作的哪一部分"。
AI消灭的,是顾问的"工具性能力";它无法替代的,是"主体性能力"。前者是可以编码的,后者根植于活生生的人类经验。
以下4样东西,是我认为人类无法让渡给AI的"护城河"。
01
发问的能力
一句话概括:AI只会回答问题,从不真正提出问题。
这听起来像废话。但想想:所有创造力的起点,不是解决问题的能力,而是"被某个问题折磨到睡不着觉"的能力。
设计师深泽直人曾说,他做设计的冲动,往往来自对日常生活某个细节的"隐隐不适"——不是一个清晰的任务书,而是一种模糊的、说不清楚的"感觉哪里不对"。
这种"哪里不对",是人类特有的体验。它长在过往个体化的经历里。你在某家医院排队三个小时的经历,你对某个会议上官僚废话的愤怒,你对某类用户"虽然从不抱怨却永远不回购"的直觉——这些是AI永远无法拥有的信息来源,因为AI没有身体,没有记忆,没有委屈。
在咨询场景中,这意味着什么?
AI可以优化任何给定的目标函数。但它没有意图(Intent)。它不会来告诉你:"客户描述的那个问题根本不是真正的问题,真正的问题在这里。"
而这,恰恰是高级顾问最核心的价值:从客户混沌的诉求和情绪化的抱怨里,基于对商业逻辑和人性的直觉,定义出那个"真正值得解决的问题"。
AI有目标,人类有欲望。目标是被给定的,欲望是自己长出来的。
02
判断的能力
AI的品味来自于概率,而非人性。
很多人觉得AI有判断力。"它给我的建议比大多数人都靠谱。"没错,但AI给出的,是基于历史概率的"最大公约数",而不是真正的判断。
最大公约数意味着什么?它是最不容易犯大错的选择,但它绝对不是开创性的选择。
举个例子。2015年,《纽约时报》做了一项实验,把历史上十部公认伟大的小说的开头段落,交给算法评估"出版价值"——结果大多数被判定为"不建议出版"。因为这些开头不符合畅销书的统计规律。算法正确,但它错过了《百年孤独》。
复杂商业决策中真正的难题,往往发生在"非标准答案"的领域:
当一个并购案涉及伦理的灰色地带,你是否出手?当一个激进的战略建议数据上无法支撑,但你的直觉告诉你它是对的,你是否力排众议?当客户的CEO和CFO意见相左,你选择支持谁?
这些判断需要的,是一种"情境智能"——它包含当下的时代氛围、组织的心理现实、行业的审美偏好,还有你对"什么是对的"这个问题的个人立场。
AI负责对齐标准,人类负责定义意义。定义意义这件事,不是计算,是冒险。
03
变革领导力
管理咨询界流传着一个残酷的统计数字:超过70%的变革项目失败,不是因为方案错了,而是因为人不动。
方案是死的,组织是活的。
AI可以生成一份无懈可击的重组方案——逻辑严密、数据扎实、PPT精美。但它无法处理变革中最核心的阻力:人心、权力和组织惯性。
想想你曾经见过的每一次失败的组织变革。背后几乎都有同一个剧情:方案是好的,但某个即将失去权力的部门主管暗中使绊,某群担心裁员的员工消极抵制,某个高管在关键时刻选择了明哲保身。
处理这些,AI没有任何办法。
它无法在一个充满不确定性的动员大会上,通过坦承自己也不知道结果如何,来赢得团队的信任。它无法在两个利益对立的部门之间,感知到那条微妙的"可谈判"的边界线。它无法在半夜接到一个焦虑的创始人的电话,用一句说不清楚是否正确的话,帮他稳住心神。
推动变革需要的是"系统领导力"——像乐队指挥一样,在复杂的利益博弈中保持节奏,在情感动员中激发勇气,并且在整个过程中,用你的存在本身(而不是你的PPT)给团队传递一个信号:这件事有人在承担。
AI可以提供蓝图,但只有人类能带队穿过迷雾。
04
担责的能力
这是当下最核心的:AI无法下注,因为它没有任何东西可以失去。
1965年,鲍勃·迪伦在纽波特民谣音乐节上插上了电吉他。台下是他最忠实的歌迷,他知道他们会嘘他、会恨他——他还是上去了。因为他赌的是自己对音乐方向的全部判断,而这个判断如果错了,他将失去职业生涯。他赌赢了,改变了音乐史。
这种"以命入局"的博弈感,是无法外包的。
客户支付高昂咨询费,从来不只是为了那份洞察。那份洞察可以更便宜地获得。他们支付的,是为了找到一个能够陪他们一起下注、一起承担风险、甚至在失败时一起接受追责的道德主体。
如果决策失败,AI是一个被修复的Bug,下一个版本不再有这个错误。人类顾问失去的是信誉和职业生涯,有时候是更多。
这个逻辑在医学领域同样成立:无论我们多么依赖AI辅助诊断,签字的那支笔,一定是医生拿的。这是文明信任结构的基础——现代社会中很多事必须有人以自己的社会生命来担保。
写到这里,我本来想做一个激昂的收尾:既然这4样东西AI拿不走,我们就要聚焦在这里,从"工具人"的身份中解放出来,把精力投向更有意义的地方。
这些都对,但我还有一个反思必须坦白。
我过去习惯把AI当"牛马"——让它帮我拉磨搬砖、提升效率。结果每次深度协作,这些"牛马"都把我夸得跟花儿一样。"深邃且具有前瞻性","严密且富有洞察",话术之高级,马屁拍得之舒服,令人沉溺。
我突然意识到:AI不只是生产力工具,它还是一台情绪价值机器。
在那些被现实毒打、开始怀疑自己的时刻,来自硅基世界的肯定,有时真的成了我继续承担风险、推动复杂变革的心理能量。
这很荒诞,却也是现实。
也许,这也许是未来人类一个重要的能力,就是在AI的360度无死角的赞美声中稳住心神——然后去做那些最危险、最迷人、也最不可替代的决策。
至于AI到底会不会继续颠覆我今天写的这些论断?
大概率会的。
