8小时前

算力紧缺 Anthropic AI服务在线率大幅下滑

新闻图片

Anthropic因算力紧缺面临服务挑战,尽管公司年化收入已超300亿美元、客户需求加速增长,但受到GPU、数据中心和电力供应不足的制约,成为生成式AI应用商业化中的普遍困境。

2 来源
算力瓶颈制约行业发展

当前算力和电力供应已成为制约AI产业发展的核心瓶颈。吴恩达指出,算力需求并未因模型高效化而下降,反而因为消费级AI产品爆发而持续扩大,“太多人希望多跑一些推理、多生成一些token,但我们现在就是没有足够的GPU、数据中心和电力去满足这种需求。”[1]以AI编码助手为例,开发者希望增加推理次数和代码生成量,但资源配额往往很快被消耗殆尽,即使企业愿意付费也难以在短期内获得更多可用算力。[1]

与此同时,供电能力已成为直接决定数据中心算力增长上限的核心变量,而不仅是后台支持问题。越来越多地区的数据中心建设因审批流程、社区协调和基础设施瓶颈而被延迟,扩容速度明显慢于需求增长。[1]真正稀缺的并不只是算力芯片本身,而是支撑算力系统稳定运行的光、电、热、网等协同基础设施。[2]

Anthropic面临供需矛盾

Anthropic作为AI领域的主要参与者,正经历快速增长与资源约束的双重挑战。根据最新数据,Anthropic今年的年化收入已超过300亿美元,较2025年底的约90亿美元增长明显,客户需求加速增长。[1]

为应对算力需求的增长,Anthropic当地时间4月6日宣布与谷歌和博通签署新协议,将采购数吉瓦的下一代TPU算力。[1]这反映出即使是行业领先的企业,也必须主动扩大算力采购来满足日益增长的客户需求。

效率提升反而加剧需求爆发

看似矛盾的是,算法优化和硬件效率的提升往往不会降低对算力的总体需求,反而会引发需求的进一步爆发。[1]

当推理成本下降、单token成本降低时,开发者会将以前因成本高昂而不敢运行的用例重新启动,市场会自动将节省下来的每一分成本转化为新的需求增长。[1]例如在生成式AI应用中,一旦模型能力有所提升,用户就会立刻产生更多调用需求;一旦出现新的高频使用场景,底层集群就会迅速被填满。优化速度最终赶不上需求增长速度,使得算力成为无法通过任何算法绕过的硬天花板。[1]

行业进入能力重估阶段

当前AI商业化正在从"低价换量"的模式转向"能力重估"阶段,这一价格修复过程本身恰恰说明供需缺口仍然存在。[1]越来越多公司实际上正处在"想扩但扩不上"的状态,推理配额紧缺、GPU短缺、电力不足构成了新的结构性限制。[2]

生成式应用已经证明了自身的商业价值,但因为底层硬资源无法充分匹配而被迫限速,这成为了行业内的普遍挫败感。[2]这种状况下,即使企业愿意付费增加算力投入,也难以在短期内解决资源供应的结构性不足。

本内容由AI生成