AI竞赛的核心正从模型能力转向资源分配,Token消耗成为新的竞争壁垒。执行成本大幅下降,但高质量想法和前沿模型的访问权变得极其稀缺且昂贵,导致资源向少数玩家集中,并可能引发社会层面的反弹。 ## 1. Token成本疯涨,即将超过员工薪资 - SemiAnalysis公司的AI Token年化开销已从几万美元飙升至700万美元,占其2500万美元薪资成本的25%,并可能在年底超过100%。 - AI的深度应用彻底改写了生产函数:一位前银行经济学家单人利用AI完成了过去需要200人团队一年的经济分析工作;另一位成员用几千美元Token在3周内构建了媲美百人团队10年成果的美国电网供需可视化系统。 ## 2. Token需求暴涨,但供给跟不上 - Anthropic的年化收入从约90亿美元猛增至400-450亿美元,但其算力并未同比增加,导致其毛利率底线高达72%,凸显需求远超供给。 - Token已从普通资源变为高度稀缺的战略资源,获取最新模型的“访问权”和更高的调用额度成为关键竞争优势。 ## 3. “Mythos强大到让Anthropic不敢公开” - Anthropic未完全公开发布的Mythos模型能力跃迁巨大,接近“L6高级工程师”水平,其单位Token效率极高,整体成本反而可能下降。 - 最前沿模型的发布节奏正在加速,从过去6个月缩短至2个月,驱动需求的不是成本下降,而是能力上限的持续提升。 ## 4. 资源集中与“永久底层”风险 - 资源和收益可能越来越集中于少数能支付高昂Token成本并优先获得最新模型访问权的公司,形成“降维打击”。 - **核心结论:如果你不使用更多Token,就永远逃不出底层**。个人或企业必须完成三步:使用Token、用Token创造经济价值、并成功捕获这些价值,否则将被甩在后面。 ## 5. 供给侧:全面紧张的供应链瓶颈 - 整个硬件供应链(GPU、内存、CPU、光刻机、PCB材料等)均处于“涨价+延长周期+预付款”状态,交付周期被极度拉长。 - 内存(DRAM)产能年增仅20-30%,价格可能再翻倍甚至三倍;CPU因强化学习和推理后执行需求激增而成为被严重低估的瓶颈。 ## 6. 社会影响:大规模反AI抗议或在眼前 - 随着AI收入快速增长和企业结构变化,公众对AI的负面情绪正在上升,大规模的反AI抗议活动可能在未来三个月内出现。 - AI行业需要改变沟通方式,多展示当下的正面价值,而非空谈颠覆未来,以建立公众信任。
“如果你不用更多Token,就永远逃不出底层”:AI竞赛开始变成资源战争
2026-05-01 10:18

“如果你不用更多Token,就永远逃不出底层”:AI竞赛开始变成资源战争

本文来自微信公众号: InfoQ ,作者:冬梅


如果把过去两年的AI叙事拆开来看,一个趋势已经越来越清晰:真正的瓶颈,正在从“模型能力”转向“资源分配”。


一边是推理成本持续下降、调用门槛几乎被抹平,另一边却是算力、带宽乃至组织内部认知结构的全面紧张——供给看似在爆炸,约束却变得更加隐性而复杂。


也正是在这种“表面过剩、内里稀缺”的张力之下,越来越多一线从业者开始重新审视一个问题:AI到底在重塑什么,又在抬高什么。


在这样的背景中,一些来自实践一线的信号,比任何宏观判断都更具解释力。


在一档播客栏目中,SemiAnalysis创始人Dylan Patel与主持人展开了一场对话,共同探讨AI革命中爆发式的供需动态。Dylan分享了其公司的Token开销如何飙升至每年700万美元,这彻底改变了他们的生产力,并凸显了一个新时代的到来:在这个时代,执行的成本很低,但高质量的想法却价值连城。


他们深入探讨了Anthropic尖端模型(如Opus 4.7和“Mythos”)的影响、半导体供应链中隐藏的瓶颈(包括内存、台积电和CPU),以及“幻影GDP”这一经济现象。最后,Dylan对AI快速扩张带来的社会影响分享了大胆预测,包括为什么大规模的反AI抗议活动可能就在眼前。


以下为完整访谈内容,经由InfoQ翻译&整理:


1Token成本疯涨,即将超过员工薪资


主持人:过去很长一段时间里,真正稀缺的是执行力——执行非常非常困难,而想法却很廉价。但现在情况完全反过来了:想法变得廉价而且泛滥,执行却变得极其容易。所以,真正有价值的,只剩下那些能够证明自己“值得投入”的好想法。


你之前跟我讲过一个很惊人的故事,说你们团队今年在AI token使用上的变化非常剧烈。能不能再讲一遍?这件事让你对整个世界发生的变化有什么新的理解?


Dylan Patel:去年我们还觉得自己已经算是AI的重度用户了。大家都在用ChatGPT、用各种云服务,公司也基本是“谁需要什么订阅就给什么订阅”,整体开销也就是几万美元量级。


但今年完全不一样了。真正的转折点大概是从12月底开始,随着Anthropic的Opus模型发布。我们公司总裁Doug带头推动了一件事——让非技术人员也开始用AI写代码。


一开始是工程师在用,但到了1月份,使用量开始爆发式增长,一路飙升。后来我们直接和Anthropic签了企业协议。到你上次跟我聊的时候,我们的AI开销年化大概是500万美元,但现在已经涨到700万美元了——而且那是上周的数据。


很多开销其实来自“使用本身”。比如一些从来没写过代码的人,现在也在用Claude写代码,有的人一天就能花掉几千美元的token。整体算下来,我们现在一年大概花700万美元在AI上,而公司的薪资成本大概是2500万美元。


也就是说,我们在AI上的支出已经超过了薪资的25%。如果这个趋势继续下去,到今年年底甚至可能超过100%。这听起来确实有点可怕。


不过幸运的是,我们公司在快速增长,所以还不用在“雇人还是用AI”之间做取舍。更现实的情况是:我们可以少招很多人,同时把钱投入AI,然后增长得更快。


但我觉得,很快其他公司就会面对一个现实:如果一个人借助AI能完成原本5到15个人的工作,那企业就会开始考虑裁员。


主持人:你能不能举一些具体的例子?这些投入到底带来了什么样的变化?


Dylan Patel:有一个特别典型的例子。我们在俄勒冈州建了一个芯片逆向工程实验室,已经投入了一年半。里面有各种高端设备,比如扫描电子显微镜。我们会拆解芯片,分析它的结构和材料,这些数据是我们卖给客户的核心产品。


但这个分析过程本来是非常慢的。


现在,一个团队成员用几千美元的token,做了一个GPU加速的应用,部署在CoreWeave的服务器上。现在只要上传一张芯片图片,这个系统就能自动识别出不同材料——比如哪里是铜、哪里是钽、哪里是锗、哪里是钴——并完成整个结构的有限元分析,还带可视化界面。


这个人之前在英特尔工作过,他说:这在以前是一个完整团队的工作,而且还需要长期维护。但现在,一个人就做出来了。把这种效率放大到整个公司层面,影响是非常夸张的。


还有一个我特别喜欢的例子。我们有个同事Malcolm,他之前是大型银行的经济学家。那种机构的经济学团队通常有一两百人。


他一个人,用AI做了一件非常疯狂的事:他把FRED数据、就业报告等各种经济数据,通过API全部接入,然后开始跑回归分析,研究不同经济变量对通胀和通缩的影响。


更夸张的是,他还分析了美国劳工统计局(BLS)的2000项任务,判断哪些可以被AI完成,哪些不行,并建立了一套评估体系。目前大概只有3%的任务是AI可以完成的。


基于这些,他提出了一个概念,叫“幻影GDP”(Phantom GDP):AI会让产出增加,但由于成本下降得更快,理论上GDP反而可能下降。


他还顺手做了一整套语言模型评估体系,包含2000个评测任务。这些,全都是他一个人完成的。他自己也说,这在以前需要一个200人的团队干一年。


主持人:那作为公司经营者,你怎么看这种支出从接近0一路涨到25%,甚至可能更高?你有没有想过什么时候该“踩刹车”?比如不用最顶级的模型,换便宜一点的?


Dylan Patel:从本质上讲,我们是在做信息生意——卖分析、做咨询、提供数据集。如果我不持续提升产品质量,这些东西很快就会被商品化(commoditized)。


比如我们最早做的数据产品,现在已经有很多人开始做类似的了。如果我们停在原地,很快就会失去竞争力。


AI的确会让很多东西变成“商品”,就像它对软件行业做的那样。但关键在于:谁能更快迭代、谁能持续提升服务质量、谁能掌握客户,谁就能增长。


那些不行动的“既得利益者”,一定会输。所以这其实是一个生存问题:如果我不用AI,别人会用,然后打败我。


再举一个能源领域的例子。


我们之前有几位分析师,花了一年时间想做一个能源模型,但一直没做出来。能源数据服务市场大概有9亿美元规模,是一个很大的机会。


后来,我们有个负责数据中心能源业务的同事Jeremy,“AI上头”了。他连续几周每天花大概6000美元的token。


在短短3周内,他做了这些事:抓取了美国所有发电厂、所有高压输电线路的数据,构建了整个美国电网的映射,还整合了大量需求侧数据。


最后做出了一个可视化系统,可以看到美国各个区域的电力供需情况。我们拿去给一些做能源交易的客户看,他们的反应是:“这东西你们做了多久?太强了,比某某公司还好。”


而那家公司,有100人团队,做了10年。当然,我们的系统还不够完善,但在某些方面已经更强了。


主持人:听起来,你描述的不只是效率提升,而是整个生产函数都被改写了。


Dylan Patel:完全是这样。现在的问题已经不是“能不能做”,而是“这个想法值不值得做”。因为执行成本已经低到几乎可以忽略不计了。


从你的角度来看,本质上你是在“商品化”这些能源数据服务公司。如果你不加快速度,那谁会来商品化你?所以问题就变成:作为一个企业经营者,你确实在大笔花钱,但这些投入到底带来了什么?是否真的带来了更多收入?


Dylan Patel:是的,确实带来了更多收入。


主持人:那你有没有担心过一个极限情况:那些掌握资本、负责投资的人——他们本来就是你的客户——会不会有一天说,“我们自己也有很聪明的分析师,那我们干脆自己做,不再买你的服务了”?如果一切变得这么容易,最终会不会所有能力都内收进这些投资机构内部?


Dylan Patel:首先,任何信息服务业务都有一个基本逻辑:我从信息中创造的价值,永远小于我的客户从中获得的价值。


举个简单的例子,如果我以1美元卖给你一条信息,你之所以愿意买,是因为这条信息能帮你赚超过1美元。所以,本质上你从我这里“套利”了,你赚得比我多。


像一些顶级投资机构,比如Jane Street、Citadel,它们内部本来就有非常强的数据和研究能力。但即便如此,它们仍然会持续购买我们的数据,而且合作规模还在扩大。


原因很简单:我们有某种“优势因子”。我们更快、更灵活,是一个小团队,专注在一个非常具体的方向——AI基础设施、token经济,以及这场技术革命的演进路径。


我们对趋势的判断更前置,执行速度更快,产品迭代也更快。


当然,投资机构也会尝试自己构建一部分能力,但更多时候,他们会发现:直接买我们的数据更便宜。因为他们可以在我们的数据之上再做自己的分析,而不是从零开始构建整套体系。


不过,确实会有一部分人尝试自建,这是不可避免的。


2Token需求暴涨,但供给跟不上


主持人:我感觉每次跟你聊天,最后都会回到一个核心问题:token的供需关系。这似乎是现在整个世界最关键的变量。从你亲身经历的这些变化来看,你对“需求侧”的判断有没有发生变化?


Dylan Patel:变化非常大。


如果我们从宏观角度看,比如Anthropic,它的收入从大约90亿美元增长到现在的350亿到400亿美元年化水平——等这期播客播出时,可能已经到400亿到450亿美元了。


但关键是:它的算力并没有按同样比例增长。


如果你做一个简单的推算,并假设它没有减少研发算力(而事实上它不可能减少,因为它还在发布像“Mythos”和Opus 4.7这样的模型),那么可以得出一个结论:即使把所有新增算力都用于推理(inference),它的毛利率底线也在72%左右。


而现实情况是,一部分新增算力还投入到了研发中,所以真实毛利率可能更高。


要知道,在今年年初,有人泄露过他们融资文件中的数据,当时的毛利率只有30%多。这意味着什么?意味着token的需求增长速度,远远超过了供给增长。整个系统正在被需求侧“拉爆”。


主持人:也就是说,你看到的是一个需求远超预期、而供给跟不上的市场?


Dylan Patel:没错,而且这种失衡还在加剧。从我自己的公司就能感受到:一旦你真正把AI深度嵌入工作流,token消耗会呈指数级增长。而且这种增长,不是“可选项”,而是“竞争所必需”。


这才是最关键的变化。


主持人:像这样的公司,利润率是怎么能做到这么高的?这听起来几乎不现实。


Dylan Patel:本质原因很简单:需求太强了。


现在真正重要的,不是你用不用这些模型,而是你有没有“访问权”。比如,你有没有Anthropic的客户经理?有没有企业级合同?能不能提高你的rate limit(调用速率限制)?


因为token本身已经变成一种高度稀缺资源。谁能付得起钱,谁就能用到更多。


这其实不是问题,而是资本主义的自然结果。Anthropic现在一年大概有400亿美元的token收入,但关键是——这些token为客户创造的价值,远远超过400亿美元。


不同企业,每个token能创造的价值不同。但随着模型越来越智能,真正重要的是:你是否能获取这些“最聪明的token”,以及你如何使用它们。


最终,决定胜负的不是模型本身,而是人——你能不能把这些token用在最有价值的地方。


因为会有很多人使用token,但并不是所有人都在创造价值。比如一些做SaaS的初创公司,用Claude生成代码,但如果他们的产品本身不创造足够价值,那他们很快就会被“挤出”市场——因为他们用不起这些token。


3“Mythos强大到让Anthropic不敢公开”


主持人:我今天刚好有个亲身体验:在飞机上我用模型的时候,被rate limit限制了。当我看到4.7发布后,我立刻就想用4.7,甚至已经不想再用4.6了——尽管过去几周我一直用得很开心。你会不会觉得,大家对“最新、最贵模型”的执念,有点出乎意料?


Dylan Patel:完全不意外。我最近一个很好笑的经历是:我和朋友Leopold,曾经“跪着求”一位Anthropic的联合创始人,让他给我们Mythos的访问权限——尽管他一直假装这个模型不存在。


但这恰恰说明了问题:大家都知道,更强的模型意味着更大的价值。


从目前流出的benchmark来看,Mythos可能是过去两年里模型能力最大的一次跃迁。这一点非常关键。甚至可以说,它强到让Anthropic不敢完全公开发布。虽然他们已经给部分客户定了价格——大概是当前token成本的5到10倍——但他们仍然在犹豫,因为担心它对世界的影响。


现在对外发布的Opus 4.7,其实是一个“刻意削弱”的版本,尤其是在某些敏感能力上。所以我的建议很直接:如果你有足够的资金,就应该尽早签一个Anthropic的企业级合同,按token付费,而不是用普通订阅。这样你才能避免被rate limit卡住。


然后,你必须解决一个核心问题:如何把这些token用在“最值钱”的任务上,并且从中赚钱。


从某种意义上讲,一两年之后,很多公司的本质,可能就是在“做token套利”:token本身很强大,但关键在于你把它“指向哪里”。


再往后走三到四年,甚至连这个问题都不需要人来决定——模型自己就会知道,应该把算力用在哪些地方,来创造最大价值。


主持人:听起来像是一个完全不同的经济体系。


Dylan Patel:其实我们已经能从历史中看到这个趋势。


随便选一个能力基准来看:过去达到某个能力水平,可能需要非常高的成本;现在,成本可能已经降到原来的1/100,甚至1/1000。


比如一些新模型,在达到类似GPT-4能力时,成本已经下降了几个数量级。但有趣的是——没人真的在乎这些“旧一代能力”变便宜了。大家真正想要的,是最前沿的模型。因为只有前沿模型,才能创造真正有经济价值的东西。


Dylan Patel:所以,驱动需求的,从来不是“成本下降”,而是“能力上限的提升”。


一年之后,今天的Opus 4.6或4.7,可能成本只剩下现在的1/100——比如我现在700万美元的开销,可能只需要7万美元。


但这不重要。


因为到那时候,我用的会是更强大得多的模型,能做更多、更复杂、更有价值的事情。


主持人:虽然Mythos这个模型单个token更贵,但因为它完成任务所需的token数量更少,所以在很多任务上反而比Opus 4.6更便宜,对吧?


Dylan Patel:没错。本质上是“单位token更聪明”。虽然单价更高,但效率提升太明显了,所以整体成本反而下降。


主持人:我记得上次见你的时候,Mythos刚出来,你说这个模型好到让你有点“害怕”。你当时是什么意思?


Dylan Patel:Anthropic在2024到2025年的一个核心目标,是让模型达到“L4软件工程师”的水平——也就是一个比较初级但已经能独立工作的工程师。


基本上,他们用Opus 4.6做到了这一点。


但他们没明说的是:如果你看Mythos的benchmark,它更接近“L6工程师”——也就是一个经验相当丰富的高级工程师。更夸张的是,这个能力跃迁只用了两个月时间。他们内部大概在2月就已经有这个模型了。


所以问题就来了:接下来会发生什么?模型进步不仅没有放缓,反而在加速。无论是Anthropic还是OpenAI,模型发布节奏都在明显压缩。


原因其实很清楚:要做出更强的模型,需要三样东西——算力、研究人员、以及“实现能力”。


算力很贵,而且短期内基本是“锁定”的;顶级研究人员也极其稀缺,薪酬动辄上千万美元。但“实现能力”(implementation)这件事,过去一直是瓶颈,现在却被AI极大地降低了门槛。


以前你有一个好想法,但实现它很难;现在你有想法,实现变得很容易——虽然仍然需要花钱,但技术门槛已经大幅下降。


主持人:这会带来什么变化?


Dylan Patel:这会彻底改变“创新的节奏”。因为实现变容易了,你可以同时尝试更多想法,然后快速迭代。无论是在做模型研发,还是在做应用——都一样。


比如过去模型可能6个月发布一次,现在可能2个月就发布一次。再比如,你想建一个美国电网的供需模型——以前很难,现在也可以快速做出来。


问题变成了:你有那么多想法,但哪些想法值得投入token成本去实现?


这其实是一个核心转变:过去,想法廉价,执行昂贵;现在,想法廉价且泛滥,执行变得便宜而容易。


所以,真正有价值的,只剩下“好想法”——那些能够证明自己值得被执行的想法。


主持人:那你说的“害怕”,更多是技术不确定性,还是别的?


Dylan Patel:不确定性肯定存在,但确实也带来了一种更深层的担忧——社会层面的。


我们正在进入一个世界:“你能不能执行”不再重要,真正重要的是——你能不能选对要做的事情。你的价值,变成了三件事:


1)选择正确的问题让AI去解决


2)把AI的产出转化为产品或价值


3)获取资源(资本、算力、token)来放大这一切


这也解释了为什么“最新模型的访问权”变得如此关键。


谁能用到最先进的模型?不再是所有人。


Anthropic已经在做选择性开放,比如Mythos只提供给少数客户(目前主要用于网络安全场景)。未来这种趋势只会加强——模型不会全面开放,而是越来越“定向分发”。原因很现实:AI太贵了。谁来为万亿美元级别的基础设施买单?一定是那些能用AI赚到钱的公司。同时,模型公司也不希望被“蒸馏”或复制,所以不会大规模开放最先进能力。


主持人:这听起来像是资源会越来越集中。是这样吗?


Dylan Patel:是的,这正是我在思考的问题:随着token的价值越来越高,这些资源和由此产生的收益,会不会集中在越来越少的公司手里?


比如我现在还拿不到Mythos,但一些顶级银行已经在用了(虽然目前主要用于网络安全)。未来可能会出现这样一种情况:因为我有企业级合同、关系不错,我能稍微更早拿到新模型,或者获得更高的调用额度。我希望是这样——因为这本身就会成为新的竞争优势。


主持人:如果你的竞争对手拿不到这些最先进模型的访问权,而你能拿到,那基本上你就可以直接碾压他们,对吧?


Dylan Patel:完全可能。你可以想象一个极端但现实的场景:像Ken Griffin这样的人——既有钱又有关系——直接去跟模型公司谈一个协议,比如和OpenAI或Anthropic签约,说“我每年先买100亿美元的token,你们的新模型优先给我用,等我用完第一批,其他人才可以用”。


如果这种事情发生,会怎样?


那他在市场上基本就是“降维打击”。这种优势可以体现在很多领域:可能是网络安全(Anthropic目前就对这类场景高度敏感),也可能是信息服务(像我这样的业务),本质上都是一样的——谁先用上最强的模型,谁就能碾压别人。


更关键的是:我们其实并不知道这些模型真正的能力边界在哪里。


Anthropic不知道,OpenAI不知道,任何人都不知道。


真正去探索这些能力的,是“使用者”。是他们在不断尝试:这些token能用来做什么?能构建什么?


这件事本身,对人类生产力是极大的提升。但同时,也带来一个问题:资源和能力,会不会越来越集中到少数人手里?这些都需要时间来回答。


4具身智能将成AI领域新的需求爆发点


主持人:那如果把视角拉远一点,比如机器人领域?现在机器人几乎不消耗token,但未来会不会成为一个新的需求爆发点?


Dylan Patel:我认为会,而且非常快。现在有一个概念叫“软件奇点”(software-only singularity)——也就是说,AI的爆发主要发生在软件世界。但现实是,绝大多数经济活动发生在物理世界。


所以,软件奇点只是一个阶段,而不是终点。一旦软件变得极其容易构建,下一步自然就是:把这些能力扩展到物理世界,也就是机器人。


现在机器人难在哪里?主要难在控制系统——比如微控制器、执行器、复杂的动作控制。


而当前主流的机器人模型(比如vision-language-action模型)在数据效率上其实很低,没法像语言模型那样规模化。


但未来一定会出现新的路径:类似于“大规模预训练”的机器人模型,就像人类一样,通过大量经验学习,同时具备“样本高效性”(few-shot learning)。


主持人:你觉得这个突破大概什么时候会发生?


Dylan Patel:我认为在未来6到18个月内,会出现真正有意义的突破。


比如你买一个机器人,只需要给它几个示例,它就能学会任务:让它叠衣服、搬东西、保持平衡,它都能很快掌握。到那个时候,机器人会变得高度专业化:可能会有专门擦黑板的机器人、叠衣服的机器人,甚至是一种“软件包”——你下载一个模型,它就让通用机器人具备某种能力。


这会带来两个结果:一是物理世界的生产效率大幅提升;二是通缩效应(deflation)进一步加强。同时,这也会让token的需求继续爆炸式增长。


我个人不认为token需求会放缓。


主持人:那回到模型本身,比如Mythos,它的出现有没有让你对“规模法则”(scaling laws)有新的看法?


Dylan Patel:反而更确认了一点:规模法则仍然有效。Mythos本质上是一个更大的模型——规模显著提升。这说明一件事:投入更多算力,模型就会变得更强。


当然,不只是“堆算力”。整个过程中,还有大量“效率提升”——也就是说,达到同样能力的成本在持续下降。你可以这样理解:一方面,如果你不断扩大规模,会得到能力的巨大跃迁;另一方面,如果你维持同样能力水平,成本却在指数级下降。


5Anthropic已经领先了?


主持人:那从竞争格局来看,现在是不是Anthropic已经领先了?


Dylan Patel:表面上看是这样。他们在2月就有Mythos,但甚至没有完全发布,因为需求已经爆满;现在又发布了Opus 4.7。


很多人会说,那OpenAI是不是已经落后了?但事情没那么简单。Anthropic的问题在于:算力受限。他们增长得很快,但扩张能力有限。


而OpenAI的策略完全不同——他们在算力上是“极端激进”的,大规模采购资源,从Microsoft、Oracle,到SoftBank,再到Amazon的Trainium芯片,全都在押注。


简单说:Anthropic更克制,但现在也开始意识到算力不够;OpenAI则是一开始就疯狂堆算力,现在反而有更大的扩展空间。


还有一个容易被忽视的点:技术的扩散是有“时间滞后”的。


你我可能第一时间用上新模型,但大多数企业需要时间去学习、适应、重构流程。


所以即使不考虑模型继续进步,仅仅是“现有能力的扩散”,到今年年底,一个类似Opus 4.6水平的模型,可能就能支撑起整个经济体数百亿美元的支出规模。


现在是400亿美元,这个数字继续增长,并不夸张。


主持人:所以你的意思是,现在的增长更像是“线性外推”,而不是指数增长?真正的指数级爆发,需要更强的模型?


Dylan Patel:没错。现在只是线性增长——真正的指数增长,取决于下一代模型能力的跃迁。


问题在于,Anthropic可能没有足够的算力去推动那个跃迁。接下来更有可能是OpenAI或Google先达到那个层级。


一旦有人先做到,就算他们的毛利率只有50%,而不是70%+,他们依然会吃掉几乎所有新增需求——而且很可能他们自己也没有足够算力去满足全部用户。


你可以想象一个极端情况:如果算力完全充足,像Mythos这样的模型,理论上可以支撑5000亿美元级别的收入。


但现实是,算力严重受限。


我们已经看到,比如NVIDIA H100的价格在飙升,而且这些GPU的“使用寿命”也在被不断拉长。


这意味着什么?意味着不仅一线实验室(Anthropic、OpenAI)会“供不应求”,连二线、三线实验室也一样——大家都会把token卖光。


本质上,现在出现了一个越来越大的“剪刀差”:模型所能创造的经济价值,在飞速增长;但我们能提供的算力供给,增长得没那么快。这个差距会持续扩大。


而结果就是:模型公司的利润率会不断上升——直到硬件供应链开始“反向收割”,提高自己的利润。


主持人:听起来你对需求侧的判断是:几乎爆炸式增长,而且这种增长还在加速。


Dylan Patel:是的,而且我觉得很多人还低估了这一点。我有一个比较极端的说法:如果你不使用更多token,你会被困在一个“永久底层”(permanent underclass)。


主持人:这个说法挺激进的,展开讲讲。


Dylan Patel:这里其实有三个层次的问题:


第一,你要不要用更多token;


第二,你能不能用这些token创造经济价值;


第三,你能不能把这些价值“抓在自己手里”。


很多人现在只做了第一步,甚至是以一种“偷懒”的方式——比如用AI把8小时工作压缩到1小时。但那只是最低级的用法。


更高级的方式是:你仍然工作8小时,但产出变成原来的8倍,收入可能变成5倍。


这在传统“打工模式”下不一定成立,但对于创业者、自由职业者、多项目操盘的人来说,这是完全可能的。


关键是:现在还不是“标配阶段”(table stakes)。你还有窗口期,可以利用AI提前放大自己的产出。但一旦所有人都这么做,这种优势就会消失。如果你在这个阶段没有做到这三件事——


用token、创造价值、捕获价值——那随着模型能力继续提升、资源进一步集中,你很可能会被甩在后面。


主持人:那我们聊聊供给侧。为了支撑这种需求爆发,整个技术栈在发生什么变化?


Dylan Patel:一句话总结:整个供应链都在“涨价+延长周期+预付款”。


首先是GPU。像NVIDIA的产品,不仅价格在上涨,而且使用寿命也在延长。


过去很多人说GPU用5年就淘汰,现在看完全不成立——很多3-4年前的集群还在续约使用,甚至可能用到7-8年。这意味着云厂商的真实利润率,其实比表面看起来更高。


再往下看整个供应链:


  • 硬件层:像NVIDIA,毛利率依然非常高


  • 内存:利润率已经大幅上升


  • 光学、逻辑芯片:通过“预付款”提升资本回报率


  • 光刻机:ASML已经完全卖空,还依赖Carl Zeiss扩产


甚至更底层,比如PCB所需的铜箔,也开始供不应求,需要提前锁定产能。


你会看到一个非常一致的模式:整个链条上的每一个环节,要么已经售罄、在提价,要么在收预付款、提高资本效率。换句话说:只要是“有实体、有产能”的环节,现在都在被抢。这就是供给侧的现实。


主持人:从历史来看,需求爆发之后,供给通常会很快跟上,甚至出现过剩。但现在看起来,供给几乎不可能追上。你觉得当前最关键的瓶颈在哪里?


Dylan Patel:问题在于:这一次的供应链,比以往任何时候都更复杂。而且我们正在构建的系统,本身复杂度也极高,这直接拉长了交付周期(lead time)。


过去某些行业也有18个月的交付周期,但“扩产”本身不需要几年时间;而现在,即使你决定扩产,真正的新增供给也要等很久才会出现。


一个典型例子是内存。内存产能每年大概只能增长20%到30%,这是物理极限。即使2025年底需求信号已经非常明确,厂商也开始扩产,但这些新增产能,真正落地可能要到2027年末甚至2028年。


这意味着什么?


意味着价格会持续上涨,而且还没结束。尤其是DRAM,很可能还会再翻倍甚至翻三倍。很多人觉得“内存瓶颈已经被充分讨论了”,但实际上完全没有。真正的紧缺才刚开始。而在市场机制下,唯一的调节方式就是——涨价,通过“需求破坏”(demand destruction)来重新分配资源。


主持人:那除了内存,逻辑芯片这边呢?


Dylan Patel:逻辑芯片同样面临严重瓶颈。台积电(TSMC)一直在提高资本开支(capex),今年大概在500多亿美元,而且还在上调。


但问题是:建晶圆厂是需要时间的。


他们已经在尽可能压榨现有产能,但短期内不可能大幅提升供给。而且他们目前的涨价策略其实相对“温和”,只是个位数涨幅——不像内存那样激进。


这就带来一个问题:台积电当然是优质公司,但它未必能“吃掉”整个价值链的最大收益。


真正被低估的,是更上游的设备和材料供应链。比如:


  • ASML:已经完全卖空


  • Lam Research、Applied Materials:需求持续爆发


  • 更下游的供应商,比如MKSI等:同样受益于“订单外溢”


还有很多更细分的环节:铜箔、玻纤(PCB材料)、激光器……这些都是“小而关键”的供应链,但现在全部处于极度紧张状态。


如果台积电在2028年真的做到1000亿美元资本开支(这不是幻想,而是现实可能),那整个供应链会被“鞭子效应”(bullwhip effect)不断放大冲击。


换句话说:越往上游,波动越剧烈,瓶颈越严重。


主持人:那除了GPU,这一波AI还有哪些被忽视的瓶颈?


Dylan Patel:CPU是一个被严重低估的瓶颈。现在大家都在讨论GPU,但实际上CPU也已经“卖断货”了。


原因有两个:第一,强化学习(reinforcement learning)。模型训练现在不只是“喂数据”,而是要在环境中反复试错、评估结果。这些“环境”——无论是简单的文本校验,还是复杂的CAD仿真——都是运行在CPU上的。


第二,推理后的执行层。模型生成的代码、内容,并不会直接变成最终结果,而是要在各种应用环境中运行——这些环境,大量依赖CPU。


换句话说:


  • GPU/ASIC:负责“思考”(模型推理)


  • CPU:负责“执行”(环境运行、应用落地)


随着AI生成的内容越来越多,CPU需求也在同步爆发。


主持人:那从你的角度来看,最难判断的变量是什么?


Dylan Patel:不是供给,也不是成本,而是——“token的经济学”。我们其实很清楚:


  • 训练成本是多少


  • 推理成本是多少


  • 模型公司大概赚多少钱


但最难的是:这些token被用来做什么?创造了多少真实价值?这些价值如何在经济中扩散?


比如我用AI提升了信息分析能力,然后把这些信息卖给客户,价格还比以前更便宜。这会带来什么结果?


  • 客户做出更好的投资决策


  • 企业做出更优的竞争策略


  • 整个经济效率提升


但这些价值,并不会完整体现在GDP统计里。这就是我说的“幻影GDP”(Phantom GDP)问题:真实创造的价值,远远大于统计数据所反映的。但我们现在还没有一个很好的方法去衡量它。


6少谈未来,多讲当下


主持人:最后一个问题。如果我们三个月后再聊,你觉得会发生什么?


Dylan Patel:我认为,会出现大规模的反AI抗议。


主持人:这么快?


Dylan Patel:是的。现在很多人其实是“反AI”的,而且这种情绪在上升。随着AI收入快速增长、企业结构发生变化,人们会开始把各种问题归因于AI。


再加上一些政治人物或社交媒体的推动,这种情绪很容易被放大。甚至已经有一些极端案例,比如针对Sam Altman的攻击事件,网上还有人表示支持。


这只是开始。


主持人:那AI行业应该怎么应对?


Dylan Patel:我觉得有三个关键点:第一,沟通方式需要彻底改变。像Sam Altman和Dario Amodei的对外表达,其实并没有很好地建立公众信任;第二,多展示“正面价值”,让普通人看到AI如何改善生活,而不是只谈“颠覆世界”;第三,少谈未来,多讲当下,如果一直强调“AI将改变一切”,只会加剧恐惧感。


现在的问题是,大多数人既不了解这些公司,也不了解这些技术。他们看到的,是一个“神秘的小圈子”,在打造一个可能改变世界、甚至取代人类工作的系统。


如果这种认知不改变,反弹是必然的。


参考链接:


https://www.youtube.com/watch?app=desktop&v=LF3aUIM57uw

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定