龙虾(OpenClaw)这一开源智能体框架正迅速改变AI行业,它降低了顶尖AI模型的使用门槛,激发了智能体层的应用想象力。然而,其爆发式增长也暴露了算力短缺、推理成本高昂及现有基础设施不匹配等核心挑战,行业需共同构建可持续的生态。 ## 1. OpenClaw:智能体框架的革命性体验 - 张鹏认为OpenClaw如同“脚手架”,将顶尖模型的编程与智能体能力交给了普通人,使非程序员也能通过对话实现想法。 - 夏立雪指出,从聊天工具到任务执行者的转变,导致token用量激增,无问芯穹的token用量在数月内翻了十倍,堪比3G时代流量普及的增速。 - 罗福莉视其为颠覆性事件,其开源特性拉高了国内模型的能力上限,并点燃了大众对智能体层的想象力,使创意过程不受场景限制。 - 黄超强调其“活人感”交互和高效的Agent Loop范式,认为它更像一个轻量级操作系统,能撬动整个工具生态。 ## 2. 模型定价与能力转向:从对话到“干活” - 张鹏解释GLM-5-Turbo的提价源于模型从“对话”转向“干活”,完成复杂任务所需的推理链路长,token消耗可能是简单问题的十倍甚至百倍。 - 模型变大致使推理成本提高,长期低价竞争不利于行业良性发展,需要回归正常的商业价值以支持持续优化。 ## 3. 推理基础设施的结构性瓶颈 - 夏立雪指出,现有云计算基础设施是为人类工程师设计的,其接口和速度限制了秒级思考的智能体发挥。 - 他提出AGI时代的基础设施本身应是智能体,能自我进化与迭代,实现AI与基础设施的真正耦合,而非单向执行关系。 ## 4. 算力限制催生的模型架构创新 - 罗福莉指出,中国大模型团队在算力受限下逼出了模型结构创新,如DeepSeek的混合稀疏架构,探索了在有限算力下发挥最高智能的路径。 - 她强调长上下文能力是关键,OpenClaw越用越聪明的前提是推理上下文足够长且成本够低,才能支撑复杂任务的完成。 ## 5. 智能体框架的核心挑战:规划、记忆与工具 - 黄超分析,规划层面缺乏复杂任务的领域知识;记忆层面面临信息压缩与检索难题,多智能体群(Agent Swarm)将带来更大压力;工具调用层面高质量Skill稀缺,存在安全风险。 - 未来需要社区共同建设,探索动态进化Skill的机制,以应对这些挑战。 ## 6. 未来十二个月的关键趋势 - 黄超的关键词是“生态”,预测软件将转向智能体原生设计,整个生态需完成向Agent Native的转型。 - 罗福莉的关键词是“自进化”,认为结合强大模型的自迭代Agent框架,能在1-2年内实现对科研的指数级加速。 - 夏立雪的关键词是“可持续Token”,愿景是将中国在能源和算力上的优势转化为高效的“Token工厂”,实现“AI made in China”并输出全球。 - 张鹏的关键词是“算力”,强调所有技术的前提是“用得起”,算力问题是未来十二个月最需解决的挑战。
杨植麟、罗福莉、夏立雪、张鹏、黄超,五个AI圈顶流把龙虾、Token 、开源聊透了
2026-03-27 13:11

杨植麟、罗福莉、夏立雪、张鹏、黄超,五个AI圈顶流把龙虾、Token 、开源聊透了

本文来自微信公众号: APPSO ,作者:发现明日产品的


龙虾,是最近AI圈出现频率最高的词汇。


它指的是OpenClaw,一个近期在AI圈迅速蔓延的开源智能体框架。有人觉得它像贾维斯,有人觉得它像脚手架,有人觉得它像轻量级操作系统,所有人都在用,而且越用越停不下来。


围绕它的讨论也随之而来:龙虾能干什么,干不了什么,下一步往哪走,算力够不够,谁在受益,谁在焦虑。现在,行业里最靠近前线的一批人坐下来,认真聊了聊这件事。



就在刚刚,月之暗面创始人杨植麟在北京中关村论坛年会的开源主题圆桌中主持了一场五人谈话,智谱创始人张鹏、无问芯穹创始人夏立雪、小米MiMo大模型负责人罗福莉、香港大学助理教授黄超共同参与。


对话从OpenClaw的实际使用体验出发,延伸至模型定价逻辑、推理基础设施的结构性瓶颈、模型架构创新,以及对未来十二个月行业走向的集体判断。


从聊天到真正干活,OpenClaw改变了什么


论坛开场,杨植麟抛出了一个共同话题:日常使用OpenClaw或类似产品,最有想象力的体验是什么?从技术角度看,如何理解今天智能体框架的演进方向?


张鹏说,他很早就开始自己动手折腾这类工具,当时还不叫OpenClaw,最早叫ClawBot。毕竟是程序员出身,折腾这些东西有自己的手感。


在他看来,OpenClaw最大的突破在于把顶尖模型的能力,尤其是编程和智能体方面的能力,交给了普通人。


「这件事不再是程序员或极客的专利。它在模型上方搭起了一个牢固又灵活的脚手架,让原来因为不会写代码而无法实现的想法,今天通过简单的对话就能完成。」


智谱创始人张鹏


他更愿意把OpenClaw这类工具称为脚手架,它提供的是一种可能性,而不是一个封闭的产品。


夏立雪的第一反应是不适应。他习惯了和大模型聊天的交流方式,一开始发现OpenClaw响应慢,觉得很卡。但后来他意识到,这类工具和聊天机器人有本质区别:它更像是一个能承接大型任务的人,而不是一个回答问题的工具。


「从按token计费的模型,到能帮你完成任务的智能体,AI的想象力空间已经做了一次大的跃升。但与此同时,对整个系统能力的要求也大幅提升,这就是我一开始觉得它卡的原因。」


他随后披露了一个直观的数据:无问芯穹从今年一月底开始,基本上每两周token用量翻一番,到目前为止已经翻了十倍。「上次见到这个增速,还是3G时代手机流量刚普及的感觉。那时候大家每个月一百兆流量,现在的token用量就是那种感觉。」


他认为,现有的所有资源想要支撑这个快速增长的时代远远不够,需要更好的优化和整合。


罗福莉从产品框架设计角度给出了不同的观察。


她把OpenClaw视为agent框架领域一次革命性和颠覆性的事件。她注意到,深度coding圈子里很多人的第一选择依然是Claude Code,但她认为只有真正用过OpenClaw的人才能感受到这个框架在设计层面的独特之处,包括近期Claude Code的很多新更新,其实也在向OpenClaw的设计方向靠近。


小米MiMo大模型负责人罗福莉


她总结了OpenClaw核心价值的两个层次。


第一是开源。开源让整个社区能深度参与、持续改进,这是一个非常重要的前置条件。她认为,开源框架的一个关键价值在于把国内参数量不那么大、但水平仍然可观的模型的能力上限大幅拉高。


「在绝大部分场景下,任务完成度已经非常接近Claude最新模型的水平,同时它靠一套完整的harness系统和skills体系把下限也保证得很好。」


第二是点燃了大家对大模型之上那一层的想象力,也就是智能体层。她看到越来越多非研究员背景的人开始通过更强的agent框架参与AGI的变革,一定程度上替代自己工作中的重复任务,把时间释放出来做更有创造力的事情。


她还提到了一个具体的使用感受:相比Claude Code只能在桌面上延展创意,OpenClaw可以随时随地参与进创意过程,想象力的扩展没有场景限制。


黄超从交互模式切入,分析了OpenClaw能引发广泛关注的原因。


他认为第一个关键因素是「活人感」。


以往的Cursor、Claude Code这些agent工具,使用起来更像工具;OpenClaw以IM软件嵌入的交互方式呈现,让人感觉更接近自己想象中的个人贾维斯。「这种活人感是很多人第一次真正觉得AI要来了的时刻。」


第二个因素是,OpenClaw再次验证了agent loop这种看似简单但极为高效的框架范式。第三个值得思考的问题是,我们到底需要一个all-in-one的超级智能体,还是一套类似轻量级操作系统或脚手架的存在,去撬动整个生态里所有的工具和能力。


他倾向于后者,认为OpenClaw更像一个操作系统级别的小管家,通过这个入口,社区里越来越多的人开始设计面向这类系统的应用,以skills和harness的形式去赋能各行各业,这和整个开源生态天然结合得非常紧密。


干一个任务,消耗原来百倍的token


杨植麟随后把问题引向了智谱最新发布的GLM-5-Turbo模型,以及伴随而来的提价策略,并问这背后反映了什么样的市场信号。


张鹏说,这次更新是在整个发展目标中提前放出来的一个阶段性成果。核心目标只有一个:从「对话」转向「干活」。


OpenClaw让大家意识到大模型真的能帮人完成任务,但这背后对模型能力的要求远超以往。


「它需要自己做长时间的任务规划,不断压缩上下文,随时debug,还要处理多模态信息。这和传统面向对话的通用模型完全不同。」


GLM-5-Turbo在这些方面做了专门的加强,尤其是在如何让模型持续自我loop、不停执行任务这个问题上投入了大量工作。


同时也做了效率优化,在面临复杂任务时能用更高效的推理路径完成,避免用户只看到账单上的数字在不停往下掉。


对于提价,在他看来,现在完成一个复杂任务,模型背后的推理链路很长,要写代码、要和底层基础设施打交道、要随时修正错误。


消耗的token量可能是回答一个简单问题的十倍甚至百倍。模型变大了,推理成本相应提高,价格自然要回归正常的商业价值。


「长期靠低价竞争,对整个行业的发展都不利。我们需要一个良性的商业闭环,才能持续优化模型能力,持续给大家提供更好的服务。」


现有的云计算架构,并非为AI设计


随着token用量的爆发和行业从训练时代转向推理时代,推理基础设施的压力成为不可回避的话题。


夏立雪说,无问芯穹是一家诞生在AI时代的基础设施厂商,目前同时为Kimi、智谱以及多所高校科研机构提供服务,也在和MiMo合作。他们一直在思考一个核心问题:AGI时代需要的基础设施是什么样的,以及如何一步步去实现和推演它。


在他看来,当前脚下最紧迫的问题是如何打造一个更高效的token工厂。


无问芯穹的做法是从软硬件打通的角度出发,接入了国内几乎所有种类的计算芯片,将几十种芯片和几十个不同的算力集群统一连接起来。


无问芯穹创始人夏立雪


「资源不足时,最好的办法有两个:第一,把能用的资源都用起来;第二,让每一分算力都用在刀刃上,发挥出最大的转化效率。」


他们也在探索最新的模型结构和硬件结构之间能否产生更深的化学反应。但他认为,仅仅打造一个标准化的token工厂还不够。


他提出了一个更根本的判断:当前大量云计算基础设施,在设计上服务的是人类工程师,而不是AI。「我们做了一个基础设施,上面的接口是为人做的,再往上包一层才能接入智能体。这种方式用人的操作能力限制了智能体的发挥空间。」


他举了一个具体的例子:智能体能做到秒级甚至毫秒级地思考和发起任务,但现有的很多底层能力根本没有为这个速度做好准备,因为人类发起一个任务通常是分钟级别的。这个问题需要打造一套更智慧化的调控系统,他们把它称为agency能力的一部分。


从更长远的视角看,他认为真正AGI时代到来时,连基础设施本身也应该成为一个智能体,能够自我进化、自我迭代,形成自主的组织。


「相当于基础设施有一个CEO,这个CEO是一个agent,它根据AI客户的需求自己提需求、迭代自己的基础设施。这样AI和基础设施之间才能产生真正的耦合,而不是一个接收需求、另一个执行的单向关系。」


他们目前也在探索让agent和agent之间更好地通信,以及cache to cache的复制能力。在他看来,基础设施和AI的发展应该产生非常丰富的化学反应,这才是真正意义上的软硬协同,也是无问芯穹一直想实现的使命。


算力限制,反而催生意外突破


罗福莉没有直接回答小米的独特优势,而是把问题拉到了整个中国大模型团队的层面,认为这个视角更有价值。


她说,大约两年前,她就看到中国基座大模型团队开始了一次非常重要的突破。这个突破来自于一个被逼出来的命题:在有限算力、尤其是NVLink互联带宽受限的情况下,如何突破低端算力的限制,在看似为了效率妥协的情况下做模型结构上的创新。


DeepSeek V2、V3系列,以及后来的MiniMax M1等,都是这类探索的产物。


「这些创新引发了一次真正的变革:怎么在算力一定的情况下,把智能水平发挥到最高。DeepSeek给所有国内大模型团队带来了一个勇气和信心。」


她强调,虽然今天国产芯片的限制已经没有那么严峻,但这段时间被逼出来的对更高训练效率、更低推理成本的模型结构探索,形成了真正有价值的技术积累。


她提到了几个具体方向:混合稀疏架构(hybrid sparse)、Kimi的KSA架构、小米面向下一代的新结构。这些都区别于当前这一代的transformer架构,是在思考如何为智能体时代做更好的模型结构创新。


她特别强调了长上下文能力的重要性,并把它和OpenClaw直接挂钩。


「OpenClaw越用越好用、越用越聪明,前提是你的推理上下文足够长。但很多模型做不到一兆甚至十兆的context,不是能力问题,是成本问题,推起来太贵、速度也太慢。只有在长上下文下成本够低、速度够快,才能把真正有生产力价值的复杂任务交给模型去完成。」


她进一步描述了这条路径的终点:在超长context的支撑下,模型可以在复杂的环境里完成对自我的进化,包括对框架本身的优化,也包括对模型参数本身的迭代。


这个方向在预训练侧要做好长上下文架构,在后训练侧要构造更有效的学习算法,采集在一兆、十兆、百兆上下文里真实具有长期依赖性的文本和复杂环境轨迹数据。


她也分享了一个来自团队内部的数据:借助Claude Code加顶尖模型的组合,团队做大模型研究的同学,研究效率已经提升了近十倍。


规划、记忆与工具调用


黄超从技术角度系统梳理了当前智能体框架在三个核心模块上的主要痛点和未来方向。


规划层面,他认为面向复杂任务、超长上下文的规划能力仍然不足。比如五百步甚至更长的部署任务,很多模型做不好规划,本质上是缺乏垂直领域的隐性知识。


他认为一个方向是把复杂任务的领域知识固化到模型里。skills和harness这类工具,一定程度上也是在通过提供高质量的外部能力来缓解规划中出现的错误。


记忆层面,信息压缩和检索精度始终是难题。任务复杂度上升时,context会暴增,目前各类智能体框架普遍采用的还是文件系统这种最简单的共享方式。


他认为未来的memory机制需要走向分层设计,但通用化很难实现,因为coding场景、deep research场景、多媒体场景的数据模态差异极大,如何对这些memory进行高效检索和索引,始终是一个trade-off(权衡)问题。


他还指出了一个新的压力来源:未来可能不止一个智能体,每个人可能同时拥有一群智能体,Kimi的agent swarm机制已经指向了这个方向。


一群智能体带来的上下文暴增,会远超单个智能体,对memory机制和整个agent架构都是非常大的压力,目前还没有一套成熟的机制来应对这个问题。


工具调用层面,他认为高质量的skill依然稀缺,这和当年MCP时代高质量工具稀缺的问题如出一辙。


低质量的skill会直接拉低任务完成率,恶意注入的安全风险也是一个不容忽视的问题。他认为这需要整个社区共同建设,甚至需要探索如何在执行过程中动态进化出新的skill,而不是依赖人工预设。


未来十二个月:生态、自迭代、可持续与算力


论坛最后,杨植麟请每位嘉宾用一个关键词描述未来十二个月最重要的趋势。


月之暗面创始人杨植麟


黄超感慨,十二个月在AI领域已经是很遥远的事情,不知道届时会发展成什么样子。他给出的关键词是「生态」。


他认为现在大家使用智能体还带着新鲜感,但未来真正的挑战是让它沉淀成日常工具,从个人助手转变为真正的打工人和coworker。这需要模型迭代、skills平台建设、各类工具的共同推进,大家一起把整个生态向智能体原生的方向拉。


他还提出了一个有趣的判断:未来大量软件可能不再面向人类,而是面向智能体原生设计的。人类需要GUI,但Agent(智能体)不需要,整个生态正在从GUI和MCP的模式转向CLI模式。这意味着软件系统、数据乃至各种技术,都需要完成一次向agent native的转型。


罗福莉给出的词是「自进化」。


她说这个概念听起来有点玄,但她最近对它有了更具体的体感和更务实的实操方案。关键在于:借助足够强大的模型,当你在智能体框架里叠加一个可验证的约束条件,再设定一个持续的loop,让模型不停迭代优化这个目标,你会发现它能持续拿出更好的方案,而且能自主运行两三天。


她举了一个具体案例:在探索更好的模型结构这类有明确评估标准的科研任务上,模型已经能够自主运化和执行两三天。


「自迭代是唯一能创造出这个世界上不存在的新东西的路径,它不是替代人的生产力,而是像顶尖科学家一样去探索未知。我一年前觉得这需要三到五年,但现在我认为一到两年内就可能真正实现。」



她预计,结合强大的自迭代agent框架,对科研的加速将达到指数级。


夏立雪选择了「可持续Token」。他说,现在整个发展还在一个持续的过程中,需要让它有长久的生命力。


他用了「AI made in China」来描述他的愿景:把中国在能源和算力上的优势,通过高效的token工厂持续转化为优质的AI能力,输出到全球。


「从made in China到AI made in China,逻辑是一样的。中国能把低成本的制造能力变成好商品输出全球,同样可以把这种能力迁移到token的生产和输出上。」他希望在今年看到这件事真正成形,让中国成为世界的token工厂。


张鹏的关键词则是「算力」。


在他看来,「所有技术的前提,是大家用得起。你不能因为算力不够,提一个问题让它思考半天也不给答案,这肯定不行。」


他提到了一句在行业里流传的话:没卡没感情,谈卡伤感情。需求已经是十倍百倍地爆发,而很大一部分需求还没有被满足。


「算力问题是接下来十二个月最需要大家一起想办法的事情。」龙虾打开了想象力的上限,但算力、架构和基础设施,还在进步的路上。

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定