中国AI行业面临关键转折点,ToB与ToC市场分化明显,垂直整合与分层解耦并存,自主学习已悄然发生,但中美差距仍存。行业需在算力、市场和文化层面突破,坚持长期投入方有机会引领未来。 ## 1. ToB与ToC市场的根本分化 - **用户体验瓶颈**:ToC场景中模型能力提升难被普通用户感知(如ChatGPT回答"今天吃什么"质量一年无显著变化),而ToB市场愿为10%性能提升支付4倍溢价(200 vs 50美元)。 - **价值衡量差异**:美国API调用量70%来自编程场景(直接转化生产力),中国ToB生态尚未形成同等规模的技术付费习惯。 ## 2. 垂直整合与专业分层的路线之争 - **ToC闭环优势**:ChatGPT等成功案例依赖模型与产品的深度耦合迭代。 - **ToB专业分工**:企业级应用更可能由第三方公司基于顶级模型开发(如Anthropic专注编程Agent),因模型训练与产品化需要截然不同的能力体系。 ## 3. 自主学习:渐进式革命已启动 - **隐性进化**:ChatGPT通过用户数据持续优化对话风格,Claude已编写自身95%代码升级程序,但行业仍缺乏统一评估标准。 - **物理世界突破**:当前Agent局限在数字环境(如文档处理),未来3-5年需结合具身智能拓展至实验等物理交互场景。 ## 4. 中美差距与突围路径 - **算力困境**:中国20%概率成AI领头羊,主因美国将算力投入前沿研究(中国80%算力用于交付现有需求)。 - **文化制约**:中国更倾向确定性创新(如刷榜文化),而OpenAI早于2022年启动高风险探索,需政策支持90/00后冒险者。 ## 5. 行业关键洞察与策略 - **人才重构**:会用AI工具者将替代拒绝技术者,教育普及比技术本身更具战略意义。 - **长尾价值**:AGI最大魅力在于解决"寻遍各处无解"的个性化问题(非头部需求)。 - **坚持哲学**:智谱All in Coding的战略验证了"笨笨的坚持"在快速迭代行业中的特殊价值。
大分化时代:一场关于中国AI未来的深度对话
2026-01-11 02:17

大分化时代:一场关于中国AI未来的深度对话

本文来自微信公众号: 柒幺柒柒 7177 ,作者:7177


当"追赶者"开始思考如何"引领",智谱主办的AGI-NEXT圆桌讨论揭示了AI行业最不愿面对的真相。


01


一个关键时间点


2026年,中国AI行业走到了一个微妙的路口。


预训练这条路走了四年,业内共识是已经收获了七八成的红利。强化学习成为新的共识,但也只开发了四五成的空间。DeepSeek的横空出世让所有人意识到:通用聊天这一仗,某种意义上已经结束了。


"下一仗是什么?"——这是智谱AI创始人唐杰在圆桌上抛出的问题,也是整个行业悬而未决的焦虑。


这场圆桌对话的嘉宾阵容颇具代表性:姚顺雨,前OpenAI研究员,现任腾讯混元大模型负责人,横跨中美两地的亲历者;林俊旸,阿里通义千问负责人,身处中国最大云计算平台的前沿;杨强教授,香港科技大学讲席教授,AI领域的元老级学者;唐杰,清华大学教授、智谱AI联合创始人,学术与产业的双重身份。


他们的对话没有客套,没有PR语言,有的是对行业走向的真实判断,和对中国AI未来的冷静估算。


02


第一重分化:ToB与ToC,两条截然不同的路


姚顺雨抛出了一个出人意料的观察:


"非常有意思的一点是我们今天用ChatGPT和去年相比的话,感受差别不是太大。"


这话乍听有些刺耳。毕竟过去一年,大模型在数学、编程、推理上的能力提升是显而易见的。但姚顺雨的意思是——对于普通用户来说,这些提升几乎感知不到。


"大部分人尤其是在中国更多像是搜索引擎的加强版,很多时候也不知道该怎么去用,把它的智能给激发出来。"


换句话说,模型变强了,但用户体验并没有同步升级。你今天用ChatGPT问"今天该吃什么",和一年前问,得到的回答质量差别不大。模型确实能解更难的数学题了,但大部分人一辈子也不会问伽罗瓦理论。


但ToB市场完全是另一番景象。


姚顺雨分享了一个细节:在美国,很多专业人士宁愿每月花200美元用最强的模型,也不愿用50美元的次强模型。原因很简单——


"一个非常强的模型可能10个任务中,八九个做对了,差的是做对五六个,问题是你不知道这五六个是哪五六个的情况下,需要花额外精力去监控这个事情。"


这个观察揭示了一个深刻的市场逻辑:在企业场景中,智能的边际提升能直接转化为生产力和收入。用户愿意为"最强"支付高溢价,因为省下的监控成本和犯错成本远超订阅费用的差价。


而在消费市场,智能提升却遇到了一道无形的天花板——用户感知。


这意味着什么?ToB和ToC正在成为两条截然不同的赛道,需要完全不同的打法。林俊旸的观察印证了这一点:


"今天我跟美国的很多API厂商聊起来,他们没有想Coding消耗量那么大,在中国真的没有那么大,至少从我这边来看,但是在美国,基本上全都是Coding。"


美国的AI API调用量,编程相关场景占据绝对主导。这是ToB价值的直接体现——代码能直接衡量质量,智能提升能立竿见影地转化为效率。


Anthropic的战略选择在这个背景下就变得清晰了。它没有像OpenAI那样全面出击,而是专注于企业市场、专注于编程、专注于Agent。这不是因为它没有能力做消费产品,而是它看清了一个道理:在ToB赛道上,智能就是金钱,而且是可量化的金钱。


03


第二重分化:垂直整合还是分层解耦?


讨论中出现了另一个反常识的观点。


传统认知是:做AI的公司应该追求垂直整合,从模型到应用一把抓,形成闭环。苹果的成功似乎就是这个逻辑的最佳证明。


但姚顺雨观察到了不同的趋势:


"比如ChatGPT Agent,相比于用Claude或者Gemini加上Manus这样的应用层产品,过去大家会认为当你有垂直整合能力肯定会做的更好,但起码今天来看并不一定。"


在ToC场景中,垂直整合依然有效。ChatGPT和豆包都是模型与产品紧密耦合、快速迭代的典型。但在ToB场景中,趋势却是相反的——最好的企业应用可能来自专业公司使用最好的模型,而不是模型公司自己做应用。


为什么会这样?


因为预训练需要的能力和做产品需要的能力,本质上是两种不同的东西。前者需要海量算力、顶尖人才、长周期投入;后者需要深入理解客户、快速响应需求、精细打磨体验。很难有一家公司同时在两个维度上都做到极致。


这个观察对创业者的启示是双面的:机会存在,但窗口有限。


模型公司一旦发现某个应用场景有价值,它们有足够的资源迅速介入。林俊旸说得很直接:


"如果你是一套壳高手,套的可以比模型公司做的更好,我觉得可以去做;但如果你没有这个信心,这个事情可能是留给模型公司做模型即产品的,因为他们遇到问题的时候,我只要训一训模型,只要烧一烧卡,这个问题可能就解决了。"


04


自主学习:已经发生的革命


讨论中最有意思的部分,是关于"自主学习"的争论。


这个词在硅谷已经成了热门话题,"在大街小巷咖啡馆里面,大家都在谈论"。但姚顺雨指出,每个人对它的定义都不一样,这本身就说明问题。


他的观点是:自主学习其实已经在发生,只是我们没有意识到。


"ChatGPT在利用用户的数据不断弥合人聊天的风格是什么,使得能感觉到它的好,这是不是一种自我学习?"


"今天Claude已经写了Claude code这个项目95%的代码,它在帮助它自己变的更好,这是不是一种自我学习?"


这是一个让人停下来思考的观点。我们总是期待自主学习以某种戏剧性的方式出现——某天突然宣布AI能自己做科研了,或者AI交易系统能稳定盈利了。但现实可能更加渐进。


Cursor每隔几个小时就用最新的用户数据更新模型,这不就是一种持续学习吗?只不过它的效果还不够石破天惊,因为基座模型的能力还比不上Claude 4.5 Opus。


姚顺雨的判断是:


"这个事情我个人的看法它更像是一个渐变,不是突变。"


林俊旸从另一个角度补充了这个观点。他认为自主学习的一个重要方向是"更懂你":


"过往我们在做推荐系统的时候,用户这个信息是持续输入,让这个系统变的更强,它的算法变的更简单。在AI这个时代它是不是能不更懂你,这些信息的输入能不能真正成为帮助我们的工具。"


但他也坦承,最大的挑战不是技术本身,而是评估标准:


"在推荐的时代下,你做的越好,别人可能点的越多、买的越多,但是在AI时代覆盖到人类生活的方方面面的时候,真正的衡量指标是什么,我们不太知道。"


05


环境问题:被忽视的下一个战场


讨论中反复出现的一个词是"环境"。


姚顺雨提到,即使所有的模型训练今天全部停止,现有模型如果能被充分部署到各种场景中,"已经能带来今天10倍或者100倍的收益,能应对GDP产生5%-10%的影响,但是今天它对GDP的影响还不到1%"。


瓶颈不在模型能力,而在于部署和应用。


林俊旸把这个想法推向了更远。他认为当前的Agent之所以还没有真正爆发,是因为它们的活动空间被限制在了电脑环境中:


"写个文件等,这些东西今年很快就可以完成。"


真正有意思的场景是什么?是AI能够指挥机器人去做真实的物理实验,加快科研的效率。


"比如说今天你干AlphaFold这个事情,其实你最后干出来,它还没有到那一步,比如距离制药这件事情,就算用今天的AI,不一定能帮到你那么多,因为你要去做试实验,你要去做这些事情才能得到反馈。"


当AI的活动范围从数字世界扩展到物理世界,Agent的价值才能真正释放。这个愿景可能需要3-5年,而且需要和具身智能结合在一起。


06


一个冷静的概率估算


讨论的最后一个问题是:3-5年后,全球最领先的AI公司是中国团队的概率有多大?


林俊旸的回答是:20%。


他解释了这个数字背后的逻辑:


"比如说美国的Computer可能整体比我们大1-2个数量级,但我看到不管是OpenAI还是什么,他们大量的Computer投入到的是下一代的Research当中去,我们今天相对来说捉襟见肘,光交付可能就已经占据了我们绝大部分的Computer。"


这是一个残酷的现实:当美国公司在用算力探索未来,中国公司还在用算力满足当下的客户需求。


姚顺雨的看法相对乐观,但他也指出了几个关键制约因素:


"一个可能是中国的光刻机到底能不能突破,如果最终算力变成了Bottleneck,我们能不能解决算力问题。"


"能不能有更成熟或者更好的To B的市场,或者有没有机会在国际的商业环境竞争。"


但他认为,最核心的问题可能是文化层面的:


"我觉得中国想要突破新的范式或者做非常冒险事情的人可能还不够多。"


他观察到,中国的研究文化更偏好确定性的事情。一旦某件事被证明能做出来,大家会非常积极地跟进,而且往往能做得更好。但如果是一个没人知道能不能做成的探索,愿意尝试的人就少多了。


"很重要的一点是文化的积累或者整体的认知,其实是需要时间沉淀的事情,OpenAI在2022年就开始做这个事情了,国内2023年开始做了,对这个东西的理解会有一些差异。"


他还提到了一个细节,中国对刷榜和数字的重视可能是一把双刃剑:


"你看Claude模型可能在编程或者软件工程的榜单上也不是最高的,但大家都知道这个东西是最好用的,我觉得这还是需要大家能够走出这些榜单的束缚,能够坚持自己觉得是不是正确的过程。"


07


杨强教授的理论视角


杨强教授从学术角度提供了一些有意思的思考框架。


他认为工业界和学术界正在经历一次重要的分化。过去几年,学术界更多是观望者,工业界在领头往前冲。但当大模型进入稳态之后,学术界应该跟上来,解决一些工业界还没来得及处理的根本问题。


比如:


"智能上界在哪里,比如说给你一定的资源,计算资源或者能源资源,你能做到多好?"


"哪些分配在训练上、哪些分配在推理上?"


他提到了一个有趣的类比——人类为什么需要睡觉。他推荐了一本书叫《我们为什么睡觉》:


"每天晚上睡觉是在清理噪音,使得第二天你可以把准确率持续地提升,不至于是两个策略率的叠加。"


如果把不同的Agent串联起来,每个Agent都不能做到百分之百准确,那么经过N个Agent之后,整体能力会指数下降。人类通过睡眠来"清理噪音",避免这种累积误差。大模型是否需要类似的机制?这可能是一个值得探索的方向。


他还提到了哥德尔不完备定理对大模型的启示:


"大概意思是说一个大模型不能自证清白,必定有一些幻觉不可能消灭掉。"


这意味着追求"零幻觉"可能是一个伪命题。真正有意义的问题是:多少资源能换取多少幻觉的降低?这里面有一个平衡点,"特别像经济学,经济学的风险和收益的一种平衡"。


08


唐杰的选择与坚持


唐杰分享了智谱AI的战略选择过程。


2023年他们是国内第一个上线Chat产品的,当时的想法很直接:赶紧把产品推向市场。但十来家大模型同时上线后,他发现一个问题——用户被分散了,每家的用户量都不够大。


经过一年的思考,他的判断是:通用聊天这条路,在DeepSeek出来之后,"已经没有了,已经结束了"。


"DeepSeek之后我们应该想的是下一仗是什么东西?"


智谱团队内部争论了很多个晚上,最后做出了选择——全力投入Coding和Agent。


"可以叫我们的运气,另一方面我们也是把所有的精力放在了Coding上。"


从结果来看,这个选择是对的。智谱的Coding能力现在在榜单上非常靠前,调用量也表现不错。但唐杰清醒地知道,这个行业拼的是速度和时机:


"如果说我有个时间窗,能够拉开半年的时间窗,迅速把这个应用满足了,半年以后,要么迭代,要么怎么接,怎么能往前走也是一个方面。"


他对中国AI未来的判断是谨慎乐观的。他承认中美之间确实存在差距,尤其是在企业界的AI Lab方面。但他也看到了积极的变化:


"90后、00后这一代企业,远远好过之前。"


他甚至开了一个玩笑:


"我们这一代最不幸运,上一代也在继续工作,我们也在工作,所以我们还没有出头之日,很不幸的是下一代已经出来了,世界已经交给下一代了,已经把我们这一代无缝跳过了。"


但玩笑之后是认真的思考。他认为中国AI要突破,需要三个条件:


第一,有一群聪明人真的敢做冒险的事。这一点,他认为90后和00后这一代是有的。


第二,政策环境要更好。让这群敢冒险的聪明人有更多时间做创新的事情,而不是忙于交付。


第三,每个人要能坚持。


"我们能不能愿意在一条路上敢做、敢冒险,而且环境还不错。我觉得环境肯定不会是最好的,永远不会想着环境是最好的,我们恰恰是幸运,我们经历环境从原来没那么好,到慢慢变得更好的一个时代,我们是经历者,也许就是财富,包括经历收获最多的人,如果我们笨笨的坚持,也许走到最后的就是我们。"


09


几个值得深思的观点


整场讨论中,有几个观点值得单独拿出来思考。


关于AI替代人类的重新定义:


姚顺雨说了一句话:


"更多时候不是说人类替代了人类工作,而是会使用这些工具的人在替代那些不会使用工具的人。"


这个重新定义很重要。真正的分水岭不是"人类vs AI",而是"会用AI的人vs不会用AI的人"。就像当年电脑出现时,学会编程的人和还在用计算尺的人之间,差距是巨大的。


这意味着,教育可能是当下中国能做的最有意义的事情之一:


"今天中国能做到的最大的有意义的事情是更好的教育,教育大家怎么更好的使用像Claude或者ChatGPT这样的产品。"


关于Agent的四个发展阶段:


杨强教授提出了一个清晰的框架:


"一个是目标的定义,是人为定义的,还是自动定义的,这是目标。第二是说规划,就是中间的Action,规划可以由人定义,也可以AI自动定义,这样自然就分为四个阶段了。"


按这个框架,现在的Agent还处于最初级的阶段——目标由人定义,规划也由人做。未来的方向是让大模型能够自己定义目标、自己做规划,成为"内生的native的系统"。


关于长尾问题的价值:


林俊旸提到了一个有意思的角度:


"做通用Agent最有意思的事情就是长尾反而是更值得关注的事情,或者说今天AI更大的魅力是在长尾。"


"今天我一个用户,真的寻遍各处都找不到能够帮我解这个问题的,但是在那一刻,我感受到了AI的能力,全世界任何一个角落,寻遍各处都找不到,但是你却能帮我解决,这就是AI最大的魅力。"


推荐系统时代的问题是马太效应——头部商品被反复推荐,长尾商品无人问津。AGI的价值可能恰恰在于解决这些长尾问题——那些人类专家也很难帮你解决的独特困境。


关于"上下文"的价值:


姚顺雨举了一个很生动的例子:


"比如我想问我今天该去吃什么?其实你今天问ChatGPT和你去年问或者明天问都会差很多。这个事情想要变好,不是说你需要更大的模型、更强的预训练、更强的强化学习、更强的Agent环境或者更强的搜索引擎,这个问题可能需要更多额外的输入,或者我们叫Context。"


如果AI知道今天天气很冷、你在什么位置活动、你老婆在另一个地方吃什么——有了这些上下文,回答"今天吃什么"这个问题的质量会大幅提升。


这意味着,下一阶段的竞争可能不是比谁的模型更大、更强,而是比谁能获取和利用更丰富的上下文信息。


10


写在最后


这场圆桌讨论最打动我的,是它的坦诚。


20%的概率估算,听起来不够"正能量",但它比任何豪言壮语都更有价值。因为只有认清差距,才能找到突破的方向。


林俊旸说得很实在:


"今天你干这一行就不能恐惧,必须得有非常强的心态,对于我们的心态来说,能干这一行就非常不错了,能做大模型这件事情已经非常幸运了。"


这种心态可能恰恰是中国AI从业者最需要的。不是盲目乐观,也不是妄自菲薄,而是清醒地认识到自己的位置,然后专注于把能做的事情做好。


唐杰的结语或许是最好的总结:


"如果我们笨笨的坚持,也许走到最后的就是我们。"


在一个充满不确定性的行业里,"笨笨的坚持"可能是最聪明的选择。


本文基于圆桌对话实录整理,嘉宾观点不代表本文立场。

AI原生产品日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP