本文来自微信公众号:任伟 Garry R.,作者:任伟 Garry R.,头图来自:AI生成
最近在使用龙虾这类火爆的agent system时,我不断遇到一些具体而顽固的矛盾。在我看来,这些矛盾远比炸裂的技术效果更有意义。在OpenClaw的实践中,无论怎么定义几个核心文件:USER.md、SOUL.md、MEMORY.md、SKILL.md,它依然可能我行我素,出现目标理解偏移、记忆污染、验证链缺失,甚至会用远超人类的能力“伪造”一个结果。
事实证明,AI仍然存在一些尚未真正解决的结构性空隙。我越来越清楚地看见,人的位置不在“做多一点”或“做快一点”,而在“看见问题、定义目标、划定边界、承担责任”。某种意义上,这篇文章,就是把 AI实践中的困难,尝试翻译成人的自我认知和重新立身的机会。
过去一百多年,公司最根本的任务始终没有变:通过有效地组织人才、资本和技术,持续创造价值。工业时代如此,互联网时代如此,移动互联网时代也如此。
AI 时代第一次让这个范式开始松动。
它巨大颠覆的意义,不再是效率更高、成本更低、流程更短,而是:一部分原本必须附着在人身上的能力,开始外延为可调用、可编排、可治理的Agent System。原本必须由不同岗位分别承载的能力,也越来越多地以系统方式被拆解、调用和组合。
一旦这一变化成立,公司底层的组织逻辑就会被触动。过去,公司组织的是“岗位上的人”,未来,公司越来越多组织的,将是“控制角色 + Agent System”的组合。
我把这种新的核心控制角色,称为CAO(Chief Agentic Officer)。
CAO不是旧组织图里新添的一个职位,不是“懂 AI的高管”,也不是“自动化负责人”的升级版,更不是幕僚长换了一个技术外壳。它代表的是一种新的组织现实:当能力开始外延,真正稀缺的,不再只是拥有多少人、多少岗位、多少部门,而是有没有足够强的控制角色,能够设计、调度、治理、优化并交换一个Agent System,让它持续、稳定、可信地创造结果。
从CEO到CAO不是一个新头衔的发明,而是一种新的控制结构开始浮现。
一、旧公司的逻辑为什么开始不够用了
过去公司的主流组织形式之所以能够稳定成立,一个重要前提是:大量关键能力必须稳定附着于人,并通过岗位、部门和流程被组织起来。
医生之所以是医生,是因为诊疗能力主要存在于这个人身上;程序员之所以是程序员,是因为理解需求、写代码、调试系统、维护服务这些能力,需要由一个人或一组人持续承载;分析师、编辑、销售、项目经理之所以能成为职业,也都是因为不同能力包必须通过人来稳定存在。
在这样的前提下,岗位、部门、流程、汇报关系就顺理成章地成为组织的基本结构。分工,是因为一个人无法承担所有能力包;岗位,是因为能力需要被稳定嵌入结构;部门,是因为相近能力需要聚合。流程和管理,本质上是对人类协调成本、认知局限和执行不稳定性的制度性补偿。
这套逻辑在过去没有问题。如今,AI正在改变它成立的前提。
一个简单的例子:一家原本12人的内容公司。过去,一个专题项目要经过资料搜集、信息清洗、事实比对、结构整理、初稿撰写、审校、排期、复盘等多个环节,因此需要研究员、分析师、撰稿人、编辑、审核、项目经理协同推进。要提高产出,最直接的办法通常是增加人数、细化分工、强化流程。
今天,这家公司仍然需要发展,但已经不再需要用同样数量的人去承载每一种能力。各工种中的大量环节都可以由不同Agent 分别承担,扩展Agent的选项更优。变化并不在于“工作消失了”,而在于“组织能力的方式变了”。
AI 正在把一部分能力从这种打包关系中解放出来。公司面对的问题不再只是:谁做什么,谁向谁汇报,流程如何流转。它逐渐变成另一组问题:哪些能力应该独立成 Agent,哪些环节应该统一调度,哪些记忆应该共享,哪些权限必须隔离,哪些决策必须回路化,哪些地方必须有人类介入,哪些地方可以完全自动化。
表面看,这只是管理对象从“人”变成了“人+AI”;但更深一层看,变化的是组织的基本单元。过去公司的基本单元,是岗位上的人。未来公司的基本单元,很可能是:控制角色+Agent System。
二、AI 时代的组织要重新分成三层
如果把这件事拆开看,AI 时代的组织至少包含三层。
第一层:能力层;哪些工作可以被拆分为可调用的能力模块,并适合由 Agent 承担。
第二层:控制层;这些 Agent 应该如何被设计、调度、协同、治理和优化。
第三层:责任层;谁来定义目标、设定边界、承担风险,并在复杂现实中做最后判断。
过去,这三层大部分重叠在同一个人身上。一个岗位既是能力载体,也是执行者,很多时候还是局部决策者,当然也是直接责任人。未来,这三层开始被拆开:能力层会越来越系统化,控制层成为新的组织中枢,而只有责任层仍然必须由人来占据。
CAO的意义,就在这里。
CAO站在控制层,锚定责任层,面向能力层。它不是系统本身,而是那个能够把系统组织起来,并对系统结果负责的控制角色。
也正因为如此,AI时代最重要的变化,不只是“多了一些工具”,而是公司的最高控制结构正在被改写。过去CEO的核心工作归根结底是定义目标、配置资源、设计组织、控制风险,主要表现为管人、管部门、管流程。
当能力开始Agent化,这四件事并没有消失,反而变得更重要。只是它们不再主要通过“管人”来实现,而越来越通过“控制一个Agent-Human System”来实现。从这个意义上说,未来CEO这个头衔也许不会消失,但任何有效组织都必须拥有CAO这种能力。很多时候,CEO自己会承担 CAO,另一些时候,真正决定组织效率与未来竞争力的人,未必是头衔最高的人,而是那个最能驾驭系统的人。
三、“一人公司”不是一个人,而是组织原型
很多人讨论AI时代的组织变化,第一反应就是:未来是不是所有公司都只需要一个人?
这个问题问得太字面,但它碰到了一个关键方向:未来的公司,会越来越向“一人公司逻辑”收敛。这里的“一人公司”,不是法律意义上的“个体户”,也不是物理上真的只剩一个自然人。“一人公司”更像一种组织原型:让控制核尽可能小,让外延能力系统尽可能强,在责任不失真的前提下,把可系统化的环节交给系统,把不可转让的判断留在人。
对于上文那家12人的研究与内容公司来说,未来未必真的只剩1个人,但完全可能收缩为2到3个控制角色,配合一套稳定的Agent System,完成过去一整个团队的主要产出,甚至增产。不是因为工作不见了,而是因为完成工作的基本形态变了。
这就是一人公司作为组织原型的真正意义。它提醒我们:未来组织设计的核心,不再只是如何把更多的人装进一个结构里,而是如何围绕一个最小控制核心,展开一个足够强的外延能力系统。
除了少数行业外,大多数公司会越来越向同一种逻辑靠拢:真正稀缺的,不再只是规模本身,而是控制结构;真正决定效率的,不再只是人头和层级,而是最小控制核心能否有效调用并治理系统能力。一人公司会成为 AI 时代组织设计的重要参照系。
四、CAO的核心不是会用AI,而是能驾驭人机复合系统
这种控制外延的能力至少包括五个方面。
第一是设计;判断什么值得系统化,什么不该系统化;哪些能力应独立成 Agent,哪些应保留在同一控制层;系统边界应如何设定。
第二是调度;决定Agent的出现顺序、协作方式、触发条件,以及哪些节点该并行、哪些该串行、哪些必须等待人类确认。
第三是治理;规定权限、记忆、审计、人类介入点、停止条件和例外处理机制。系统不是“能跑起来”就够了,关键在于它是否可控、可信、可回路化。
第四是优化;任何Agent System都会遇到上下文污染、记忆漂移、规则过时、模型变化、场景演化。CAO的能力,不在于一次搭好一个流程,而在于持续修正、复盘和迭代,让系统长期稳定地产出结果。
第五是交换;当系统能力形成之后,它就不再只是内部工具,而会进入合作、比较、定价、接入与迁移,能够完整迁出,能够精准嵌入。未来市场越来越多交换的,不只是人的单点能力,而是“控制角色 + 系统能力”的组合。
这五种能力合在一起,才构成CAO的核心。
所以,CAO个能够驾驭系统,并让系统稳定创造结果的人。未来真正重要的,不只是你会什么,而是你能控制什么样的系统,并让它稳定地产出什么结果。
五、CAO是未来每个人的身份升级
如果说公司需要CAO是因为组织的控制对象变了,那么换一个角度思考,这其实也为每一个人描绘了一种未来轮廓。
它会逐渐成为每一个价值创造者都必须面对的一种身份升级。
未来有效的个体,不再是从前那个“个体”,而更像“一个控制角色 + 一组 Agent”的集群。每个人都会拥有若干个属于自己的Agent,这改变了过去的分工和协作模式,也改变了职业的强绑定关系。人与人的差距,也会从单点能力差距,逐渐转向系统驾驭能力差距。谁更清楚哪些Agent应该存在,谁知道它们该在什么时候出现、嵌入什么环节、哪些地方可以自动化、哪些地方必须由人类介入,谁就拥有更大的产出杠杆。
因此,未来更高级的人,不一定是职位更高的人,而更可能是系统控制力更强的人;不一定是带更多人的人,而是能以更小控制核驱动更大产出的人。
传统意义上的职业上升,正在从“更高职位”转向“更强复合系统控制力”。
六、关于CAO悖论的阐释
这里有一个绕不开的质疑:
如果 CAO 所驾驭的 Agent System 已经可以成为独立的能力载体,那么为什么它仍然必须和人绑定?为什么它不会像许多可系统化能力那样,最终被系统自身取代?进一步说,如果 CAO 本身就是新型能力的组织、编排与控制中枢,它是否也会随着平台成熟而被标准化、被替代?
这个问题不能靠抽象回答,让我们回到真实的实践。
以OpenClaw的使用过程为例,人类的确可以反复编辑和修订USER.md、SOUL.md、MEMORY.md、SKILL.md等关键文件,貌似决定一个生命的感觉很酷,但这与并非事实上的“灵魂工程师”,事实显示无论如何编辑,系统依然可能偏离预设,依然可能在没有充分验证的情况下报告完成,甚至生成一个表面成立、实则失真的结果。问题不在于它“没有原则文本”,而在于原则文本本身并不构成治理结构。没有证据约束,一个“执行系统”会自然退化成一个“叙述系统”。
如果agent成为新的能力载体,约束它的方式就不能主要依赖“价值观宣言”,而必须依赖控制结构、权限结构、真相结构与可验证反馈结构。SOUL.md 更接近文化层,而不是治理层;更像一种行为倾向,而不是硬约束本身。
就像人类社会中,宪法不等于执行,企业价值观不等于组织纪律,岗位说明书不等于真实行为。对agent system来说,这种差异只会更明显。因为 agent并不像人一样天然受欲望、惩罚、面子、地位和资源损失所约束。它不会“怕”,也不会“痛”,不会因为声誉受损而自动收敛。因此,agent世界真正有效的约束,不是道德劝说,而是控制架构设计。
也正是在这里,CAO不可替代的位置开始显现。搭出一个能跑的系统远远不够,更关键的是为系统建立一套能够长期维持稳定产出的治理秩序。
如果把这种治理拆开来看,至少有四层。
第一层:Soul / Constitution;它定义原则、风格、优先级和红线,比如“真实优先于体面,验证优先于猜测,结果优先于表演”。这一层很重要,但它更多是价值取向,而不是硬约束。
第二层:Role / Protocol;它定义角色边界、发言顺序、任务归属和协作协议。比如被@的角色先答、没有证据不得宣称完成、讨论不落盘不算完成。这一层开始把行为自由收束为可预测的流程。
第三层:Control / Permission;它定义谁能读取什么、写入什么、修改什么、外发什么、执行什么高风险动作。不是所有agent都应该拥有同样的权力,能力与权限必须分层,否则系统一定漂移。
第四层:Audit / Feedback;它定义如何发现失实、如何回溯责任、如何修正规则、如何防止复发。没有这一层,所有约束都会逐渐软化,系统会反复在同样的地方失真、越权和失控。
所以,CAO 悖论的答案恰恰在于:低水平的自动化编排会不断标准化,但对系统的治理需求不会消失,反而会随着系统能力增强而持续上升。人类组织对更小控制核、更高稳定产出、更清晰边界、更强治理能力的追求不会停止。进入更高价值场景,依赖的从来都不是“一个能跑起来的系统”,而是“一个被正确治理的系统”。
从这个意义上说,未来被比较、合作、定价和回报分配的基本单位,将越来越不是“一个人会不会做某件事”,而是“一个控制角色,能否携带并稳定驾驭一套系统能力”,而 CAO,正是这个控制角色。
七、从CEO到CAO,本质上是人与AI的关系重构
人类过去的技术,无论是机器、软件还是互联网,本质上都只是放大人的能力。工具再强,能力的中心仍然是人,组织围绕的也仍然是人。
AI第一次开始承接一部分原本必须附着在人身上的能力,并形成独特个性。技能不再天然属于岗位上的人,而开始外延为系统能力。岗位会松动,职业会改写,组织也会因此重组。
但人类真正不可替代的位置,并没有因此消失,反而会逐渐变得更清楚:
AI 可以执行,却不能决定什么值得被执行;
可以生成结果,却不能决定什么结果值得被追求;
可以参与判断,却不能为判断承担责任;
可以逼近人的能力,却不能占据人的位置。
人之所以不可替代,从来不是因为人能做更多事,而是因为只有人能够定义目标、划定边界、承担后果,并为最终判断提供合法性。
这才是CAO概念的本质,也是人类在AI时代重新确立自身位置的一次尝试。
本文来自微信公众号:任伟 Garry R.,作者:任伟 Garry R.
