2025年5月,OpenAI与Google Cloud正式签署TPU租用协议,标志着其首次实质性地采用非英伟达芯片架构。谷歌将向OpenAI提供Tensor Processing Unit(TPU)用于AI模型推理服务,但不会提供最新一代TPU芯片,这些尖端芯片仍优先供给谷歌自有Gemini模型开发[1][2]。
值得注意的是,OpenAI去年在英伟达服务器芯片上的支出超40亿美元,其中50%用于模型推理计算。转向谷歌TPU后,预计2025年其AI芯片总支出将达140亿美元,此次合作直接推动因素是ChatGPT图像生成工具爆红导致的算力需求激增[2][3]