AI产业重心正从GPU驱动的训练竞赛转向系统效率主导的部署阶段,CPU作为被低估的系统变量重新成为关键,决定AI商业化落地的成本与可持续性。 --- ## 1. 市场转向:从训练到部署的竞争 - 2026年AI核心矛盾从"训练能力不足"转为推理部署效率,Deloitte预测推理算力占比2026年达2/3 - 推理成本成利润黑洞:ChatGPT日推理开销70万美元,中国Token调用量两年增长千倍至140万亿/日 - 英特尔财报显示CPU/GPU配比从1:8收紧至1:4,智能体场景或达1:1 ## 2. CPU的隐形价值:系统效率决定ROI - GPU利用率不足成普遍问题:头部企业GPU利用率<40%,中小企业<15% - CPU承担数据预处理/任务调度等关键环节,MLPerf测试显示系统延迟占训练时间35-60% - 郑纬民院士指出大模型推理成本95%来自算力,优化系统协同比堆叠GPU更重要 ## 3. 智能体革命放大CPU中枢作用 - 康奈尔研究:Agent任务中CPU处理占端到端延迟43.8%-90.6%,RAG场景达90%以上 - TrendForce预测智能体时代CPU/GPU配比将演进为1:1到1:2 - 英伟达/Arm进军服务器CPU市场,印证系统能力成竞争焦点 ## 4. 中国市场的三重现实压力 - 成本压力:某制造企业智能体单步决策成本达传统系统20倍(0.3美元/步) - 兼容压力:需串联现有ERP/CRM等复杂IT系统,CPU成调度核心 - 自主可控:国产CPU/服务器等基础设施迎再估值窗口,2025年国产加速卡占比41%
GPU神话松动,AI真正的战场变了
原创2026-04-30 15:18

GPU神话松动,AI真正的战场变了

出品 | 妙投APP

作者 | 张博

编辑 | 丁萍

头图 | AI生图


过去两年,AI产业最强的叙事几乎都围绕GPU展开。

 

从OpenAI掀起大模型浪潮,到英伟达市值飙升,再到云厂商、互联网平台和创业公司争抢高端算力,GPU被塑造成AI时代最稀缺的“硬通货”。谁拥有更多GPU,谁就更接近模型能力上限,谁能搭起更大训练集群,谁就更像拿到了下一代AI的门票。

 

在这套叙事中,CPU没有消失,但明显退居幕后。它仍然是服务器的基础部件,是操作系统、数据库、网络和应用运行的底座,却不再是AI故事里的主角。市场甚至形成了一种近乎默认的判断:AI时代,GPU吃肉,CPU喝汤。

 

但到2026年,这个判断已经不够用了。因为AI产业正在发生一个更深层的变化:主战场正从训练竞赛,转向部署竞赛;价值重心正从峰值算力,转向系统效率。

 

这意味着,真正决定AI商业化速度的,不再只是GPU能把模型训得多大、多快,而是整套系统能否以可控成本、稳定吞吐和高利用率,把模型真正跑起来、用起来、赚到钱。

 

一旦竞争从“单卡性能”转向“端到端效率”,CPU就不再只是配角,而是AI基础设施里那个被长期低估的系统变量。 


市场为何重新看英特尔?

 

不只是因为财报,而是因为需求结构变了。

 

最近一个值得注意的信号,是英特尔重新获得资本市场关注。2026年第一季度,英特尔营收约为136亿美元,同比增长7%,连续第六个季度超预期;净利润同比增长156%。其中,数据中心与AI相关业务(DCAI)收入达到约51亿美元,同比增长22%,成为增长最快的板块。财报发布后,英特尔股价盘后最高上涨超40%(截至4月30日)。

 

如果只看公司层面,这当然不足以说明英特尔已经彻底翻身。它仍面临制程追赶、服务器CPU份额承压、Arm渗透、云厂商自研芯片推进等问题。但市场还是给了它新的想象空间,原因不在于英特尔突然变成AI明星,而在于投资人开始意识到:AI基础设施的需求结构,已经不再只是“多买GPU”

 

英特尔管理层在财报会上透露,数据中心中CPU与GPU的部署比例,正从传统的1:8收紧到1:4,在智能体场景中甚至可能进一步向1:1靠近。

 

这背后的含义非常明确:过去两年AI行业最核心的矛盾是训练能力不足,而今天越来越多企业开始面对另一组问题,模型训练完之后,如何推理、如何部署、如何扩展、如何控制成本。

 

也就是说,资本市场重新定价的,不只是英特尔,而是一个更深层的事实:AI开始进入系统竞争阶段。 


CPU的重要性从何而来?

 

先要回答另一个问题:为什么AI今天的核心矛盾,已经不再只是训练。因为训练虽然贵,但对大多数企业来说,它更多是阶段性的资本开支;而推理、部署和调用,才是持续性的运营开支

 

训练决定模型能不能做出来,推理决定模型能不能活下去。这一变化已经有明确的数据支撑。


Deloitte估算,推理工作负载占AI总算力的比例在2023年约为1/3,2025年接近1/2,到2026年预计达到2/3。IDC预测,到2027年中国推理算力占整体算力比例将突破70%。另有研究预计,到2026年推理带来的市场规模将是训练硬件市场的2到3倍。这些数字共同说明一件事:AI的成本中心和价值中心,正在从“训练一次”转向“运行无数次”。

 

郑纬民院士给过一个更直白的拆分:在大模型推理成本中,人力仅占3%,数据占2%,算力占到95%。他举例称,ChatGPT的推理开销每天约70万美元,DeepSeek V3每天约8.7万美元(按各自披露口径)。

 

这组数据真正说明的,不是“推理也很贵”,而是一旦AI进入大规模使用阶段,真正吞噬利润的不是训练账,而是推理账。国家数据局的数据进一步放大了这种压力:中国日均Token调用量从2024年初约1000亿,跃升至2026年3月的140万亿,两年增长超千倍。

 

如果说训练是一次性把钱砸进去,那么推理就是每天都在把钱烧出去。训练贵,是研发问题;推理贵,是利润问题。而一旦问题变成利润问题,企业就不可能再只盯着模型参数和GPU数量,而必须开始追问:

 

GPU是不是被充分利用了?哪些任务必须用GPU?哪些其实应该交给CPU?整套系统的吞吐率和资源利用率到底高不高?

 

这正是CPU重新变重要的起点。

 

很多人理解AI基础设施,还停留在“GPU越多越好”的阶段。但现实是,今天大量AI系统面临的核心问题,不是GPU不够强,而是系统喂不饱GPU。

 

MLPerf行业基准测试显示,在大模型训练场景中,数据加载、预处理、参数同步等环节带来的延迟,可占总训练时间的35%到60%。IDC调研则显示,即使是头部互联网企业的AI推理集群,GPU平均利用率也长期低于40%;大量中小企业的GPU集群利用率甚至不足15%。

 

这意味着什么?

 

意味着今天最昂贵的AI资源,正在被大规模浪费。不是因为GPU性能不行,而是因为数据流动、任务调度、内存管理、I/O协同、网络处理这些系统环节跟不上。换句话说,GPU算得很快,但系统供给不上,结果就是一边拼命买卡,一边大面积闲置。

 

这也是为什么CPU的重要性,不是“多卖一点服务器芯片”那么简单,而是它直接决定AI系统的资源利用率和ROI。

 

因为在真实工作流里,GPU从来不是单独工作的。它前面有数据准备,后面有结果处理,中间有任务调度、缓存维护、上下文切换、网络通信、容器管理、数据库交互。这些环节里,真正承担控制流和系统协同的,主要是CPU。

 

所以问题的本质不是“CPU能不能替代GPU”,而是如果CPU和系统层能力跟不上,再强的GPU也只是昂贵的闲置资产。

 

智能体兴起,让CPU从“底座”变成“中枢”

 

如果说推理阶段让CPU重新重要,那么智能体(Agent)的兴起,则把这种重要性进一步放大。

因为智能体不是一个“更会聊天”的模型,而是一套真正要执行任务的系统。它要理解目标、拆解步骤、调用工具、访问数据库、连接API、执行代码、维护状态、判断结果,必要时还要调用其他模型或子Agent协同。

 

在这条链路中,模型推理只是其中一环。大量工作并不是“算”,而是“调度”“编排”“切换”“访问”“管理”。这些工作本质上都属于控制流和系统协同,而这正是CPU最擅长的领域。

 

康奈尔大学的研究显示,在五类代表性Agent工作负载中,CPU端的工具处理、逻辑调度和数据预处理,占总端到端延迟的比例高达43.8%到90.6%。在典型的RAG场景中,CPU处理甚至可能占到总延迟的90%以上,GPU推理反而不到10%。

 

这组数据的意义非常明确:在智能体时代,很多真实任务的瓶颈已经不是GPU算得够不够快,而是CPU能不能把整条任务链顺畅地跑完。

 

这也解释了为什么CPU/GPU配比正在变化。TrendForce指出,当前AI数据中心中CPU与GPU的配比大约是1:4到1:8,而在智能体AI时代,这一比例预计将逐步演变为1:1到1:2。当配比从1:8向1:1收敛,本质上不是CPU多卖了几颗,而是AI基础设施从“计算中心化”转向“系统中心化”。

 

产业反馈已经开始出现。2026年第一季度末,Intel和AMD都对部分CPU产品线提价,服务器CPU交期拉长至约6个月。与此同时,英伟达和Arm也在同一时期宣布进军服务器CPU市场。

 

一个是GPU巨头,一个是IP授权商,却在同一时间加码CPU,这说明他们看到的是同一个趋势:未来AI的关键战场,不只是模型推理本身,而是围绕推理和智能体展开的整机系统能力。

 

当所有头部玩家都在补CPU,说明竞争已经从“单芯片”变成“系统工程”。过去两年,AI行业有一种很强的“单点崇拜”:比谁的芯片更强,比谁的参数更多,比谁的集群更大。这种竞争方式在产业早期成立,因为技术突破往往首先来自少数明星环节。

 

但产业一旦进入落地阶段,决定胜负的逻辑就会改变。真正拉开差距的,不再只是某个单点性能,而是整套系统能否以可控成本、可复制方式持续运行。

 

所以今天我们看到的,不只是英特尔受益,而是所有重要玩家都在重新补CPU、补系统、补整机能力。英特尔希望依托数据中心生态和软件兼容,重新巩固系统层话语权;AMD则在服务器CPU市场持续扩大份额,Mercury Research数据显示,AMD EPYC服务器CPU在2025年Q4营收份额已达到41.3%,首次突破40%。

 

Arm和云厂商自研CPU,则试图从高能效和定制化切入系统入口;甚至连英伟达自己,也在通过Grace CPU强化对整机架构的控制力。所有顶级玩家都在补CPU,不是因为CPU突然变得性感,而是因为AI开始从芯片问题,变成系统问题。

 

如果把视角拉回中国,这轮变化的现实意义更大。中国是全球AI应用落地最快的市场之一。截至2026年3月,我国日均Token调用量已突破140万亿;IDC数据显示,2025年中国AI加速卡总出货约400万张,其中国产厂商出货165万张,占比41%。

 

这说明,中国AI已经不再只是“模型热”“算力热”,而是进入了真正的“调用热”和“部署热”。这会把中国企业推向一个更现实的问题:AI不是能不能做,而是做了之后能不能长期跑、能不能算得过来。

 

第一,是成本压力。 


某制造企业在将智能体接入生产线时发现,每个决策步骤的推理成本高达0.3美元,是传统规则系统的20倍。这类案例真正说明的,不是智能体太贵,而是:如果系统架构不优化,AI很容易从生产力工具变成成本黑洞。

 

第二,是兼容压力。

 

中国企业现有IT系统复杂,数据库、ERP、CRM、OA、工业系统长期并存。AI如果要真正进入业务流程,必须与这些存量系统深度融合。这意味着企业需要的不是单一“最强模型”,而是一套能把模型、数据库、API和业务系统串起来的基础设施,而CPU承担的正是兼容、调度和运行时支撑角色

 

第三,是自主可控。

 

随着AI部署深化,国产CPU、服务器、操作系统、数据库、中间件和调度软件,都会被重新放到更靠前的位置。也就是说,CPU重新重要,不只是国际巨头的机会,也可能成为中国基础设施产业链的一次再估值窗口。

 

所以,如果把视角再拉长一点,就会发现,CPU在AI中的重新重要,其实只是表象。更深层被重新定价的,是系统能力。

  



文章标题:GPU神话松动,AI真正的战场变了

文章链接:https://www.huxiu.com/article/4855067.html

阅读原文:GPU神话松动,AI真正的战场变了_虎嗅网
频道: 金融财经
本内容未经允许不得转载。授权事宜请联系 hezuo@huxiu.com。
正在改变与想要改变世界的人,都在虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定