2025-6-30

竞争对手变客户:OpenAI借谷歌TPU减少对微软依赖

新闻图片

OpenAI已开始租用谷歌的TPU芯片,这是其首次大规模使用非英伟达芯片,旨在降低推理计算成本并减少对微软数据中心的依赖。这笔交易为谷歌TPU挑战英伟达GPU市场主导地位提供了机会,同时反映出AI算力争夺战的新格局。

5 来源
合作内容与技术细节

2025年5月,OpenAI与Google Cloud正式签署TPU租用协议,标志着其首次实质性地采用非英伟达芯片架构。谷歌将向OpenAI提供Tensor Processing Unit(TPU)用于AI模型推理服务,但不会提供最新一代TPU芯片,这些尖端芯片仍优先供给谷歌自有Gemini模型开发[1][2]

值得注意的是,OpenAI去年在英伟达服务器芯片上的支出超40亿美元,其中50%用于模型推理计算。转向谷歌TPU后,预计2025年其AI芯片总支出将达140亿美元,此次合作直接推动因素是ChatGPT图像生成工具爆红导致的算力需求激增[2][3]

战略意图与行业影响

这项合作包含三重战略意义:

  • 降低对微软依赖:OpenAI主要通过微软和甲骨文租用英伟达芯片,长期面临资源瓶颈。租用谷歌TPU可分散基础设施风险,获得更灵活的计算资源调配能力[1][2]
  • 削减运营成本:The Information报道证实,OpenAI核心诉求是通过TPU降低推理计算成本。其图像生成工具爆红导致推理服务器压力倍增,谷歌方案更具成本效益[2][3]
  • 重塑芯片市场格局:谷歌借此加速TPU商业化,除OpenAI外已吸引苹果、Anthropic、Safe Superintelligence等公司成为客户。这直接挑战英伟达在AI训练芯片领域90%的市场份额[4][5]
竞争格局与未来挑战

尽管达成合作,双方仍存在微妙博弈。谷歌云员工透露,公司会战略性地保留最强大TPU供给内部AI团队,确保Gemini模型的技术优势。这种资源分配策略凸显了AI头部企业间的竞合本质[1][2]

对OpenAI而言,混合架构(同时使用英伟达GPU和谷歌TPU)将成为新常态。不过技术迁移存在风险:TPU需要特定的软件栈优化,OpenAI工程师需重新适配模型架构。而谷歌能否持续满足ChatGPT的算力需求峰值,仍是未知数[2][3]

本内容由AI生成