美国科技巨头面临AI发展新瓶颈:电力短缺正取代芯片短缺成为制约因素,老旧电网与AI数据中心高能耗形成矛盾,芯片迭代加速更凸显电力危机紧迫性。 ## 1. AI数据中心吞噬电力资源 - 2023年美国数据中心耗电达176太瓦时(占全国4.4%),相当于马来西亚全国年用电量,预计2028年将翻倍 - AI能效低下:全球数据中心平均PUE值1.56,仅2/3电力用于计算,1/3浪费在散热等环节 ## 2. 美国电力系统双重困境 - 基础设施老化:2021-2022年电费飙升,AI用电挤占民生用电 - 能源政策倒退:特朗普政府取消可再生能源优惠,转向核电并放松环保管制 ## 3. 芯片过期危机迫近 - 库存H100等旧芯片因缺电闲置,面临被2024年B200/2025年B300淘汰风险 - TrendForce预测2025年Blackwell系列将占英伟达高端GPU产能80%以上 ## 4. 科技公司极端自救方案 - 本土建厂:OpenAI在德州建天然气电厂致发动机订单排至2029年 - 海外转移:数据中心迁至墨西哥/智利等地,爱尔兰已出现20%电力被占用 - 太空计划:英伟达/谷歌试验太空数据中心,但存在器件老化、数据传输等未解决问题 ## 5. 中美电力基建对比 - 中国2024年数据中心耗电166太瓦时(占全社会2%),电网建设保障绿电供应 - 美国环保实践矛盾:一边讲环保一边依赖天然气发电,中国持续推进碳减排
买得到芯片的美国科技巨头,买不到电了
2025-11-11 17:16

买得到芯片的美国科技巨头,买不到电了

本文来自微信公众号:差评X.PIN,作者:莫莫莫甜甜,编辑:江江、面线,美编:焕妍,题图来自:AI生成


马上就要到年底了,回看这一年,OpenAI 简直是 AI 界的孔雀,疯狂开屏,四处搞算力。


先是答应甲骨文一起投 3000 亿美元共建数据中心,又从英伟达那里拿了 1000 亿美元买芯片,直到上个月,他们还在管 AMD 要股票掏芯片。


在各大科技巨头的齐心协力下,AI 泡沫眼看靠着 GPU 的买卖越吹越大。但最近,微软 CEO 萨蒂亚·纳德拉突然在一场气氛堪比《再见爱人》的三方会谈里,杀出来泼了一盆冷水。



别再盯着算力不放了,库存里那么多芯片,都因为没电用不上呢。


缺电,正在卡着 AI 的脖子。


那么问题来了,美国的电,到底都去哪了?


一方面,是 AI 自己确实太能吃了



美国能源部 2024 年 12 月发布的一篇报告显示,2023 年,美国数据中心的总耗电量占全国总发电量的 4.4%,达到 176 太瓦时,和马来西亚全国一年总耗电量差不多。到了 2028 年,这个数字可能会翻倍。


而且 AI 吃相还很难看,利用率极低,可以说是连吃带拿。


电能利用效率 PUE(Power Usage Effectiveness),是衡量数据中心能效的重要指标。它的计算方法很简单,就是用数据中心总耗电量,除以服务器耗电量。



2024 年,全球的平均 PUE 是 1.56。也就是说,只有三分之二的电能用在 GPU 计算上,三分之一消耗在了制冷、供电系统、和照明等等杂七杂八的地方。


另一方面,是美国老旧的电力系统实在太完蛋,本来产的就不多。再挤一挤,基本民生都危险。


从美国劳工统计局的统计图就能看出来,2021 年到 2022 年电费飙升。训练 GPT 的同时,正常居民用电已经被挤兑了。


2000 年至 2025 年美国电价趋势:



就这,特朗普还砍了海上风电的项目,取消了太阳能和风能的税务减免,转而大力发展费时费力费钱的核电,甚至不惜放松环境管制。


这很难评,我只能祝他成功了。


没有电,科技巨头抢购来再牛的 GPU,也只能在机房落灰。而很快,它们面临的困境,将是更致命的过期。


芯片的保质期,会随着下一代芯片大规模量产出货逐渐来临。



比如,大伙儿对 AI 主流芯片的印象,可能还停留在前一阵子,你争我抢的 H100 和 A100。


但这几款芯片,说实话,都是 2022 年以前发布的老东西,也就占了个产能的优势,根本不是现在最好最新的芯片。它们的后面,还有 2023 年的 H200,2024 年的 B200,2025 年的 B300,都等着上桌呢。


而根据 TrendForce 咨询公司今年 7 月的预估,2025 全年,Blackwell 系列的出货比例,将达到 NVIDIA 高阶 GPU 总产量 80% 以上,产能大大提升。



这意味着,如果 OpenAI 库房里的 H100 还因为缺电迟迟跑不起来,它们可能会直接被 B200、B300 替代,永远没机会用上了。


这带来的不仅仅是浪费,还会影响 AI 公司最在意的股价。要知道,AI 公司的股价估值,一定程度就建立在 GPU 数量、GPU 需求量的基础上。


底层逻辑是,按照现在的大模型规模定律,你用的 GPU 越多,模型越大,越好用,在市场上越有优势。这也是为啥一出买卖芯片的消息,几家科技巨头的股价就手拉手开涨。



但要是很多芯片纯买用不上,那它躺平的每一分每一秒,都在见证着 AI 泡沫的消亡。


实在没招了,科技公司只能纷纷走上“自救”的道路。毕竟芯片收购不能停,你不买有的是人买,但多余的电也是真没有。


良心点的做法,是到处修发电厂。像 OpenAI 和甲骨文在德州合建天然气发电厂,xAI 也在田纳西大力基建,结果把发动机都给搞缺货了,订单直接排到 2029 年后。


芯片和发电机哪一个会先到不说,这么干,有一定几率会被环保部门 gank。


于是还有一种死道友不死贫道的路子——把数据中心搬到国外


墨西哥、智利还有一些南非国家,都成了 AI 发展的输电泵。可这些地区电力供给本来就不发达,现在更是雪上加霜。


在爱尔兰,数据中心消耗了全国 20% 的电力,停电、耗水,都对当地居民生活和生态环境造成了影响。

甚至更离谱的,地球资源已经不够看了。最近,英伟达和谷歌都想把数据中心搬上太空,吃上天家饭。


把芯片用卫星送上天,周边围上一圈太阳能电池板,就能获得 24 小时不间断的能源供给。


散热全靠真空热辐射,也不用担心水资源减少和环境变暖,听起来还挺不错。



只不过实验刚开始,不能保证效果好。电子器件会不会在太空加速老化,功率和散热能不能达到预期,训练完的数据怎么传回地面,成本控制等等,都是问题。


和匆匆忙忙的美国形成鲜明对比,我们的情况就要从从容容很多了。


2024 年,我国数据中心总耗电量已经达到 166 太瓦时,占社会用电量约 2%。


作为远近闻名的基建狂魔,咱在保障大家生活的前提下,电力不止够用,甚至还在追求绿电,降碳排。


比起天天讲环保,转头用天然气发电,我们可是真把碳排当个事儿办了。


总的来说,盘完缺电的 AI,原来科技的尽头不是电子和计算机,而是物理、航天和土木工程啊。


PPT 里芯片就是第一生产力,结果现实里是德州抢天然气、墨西哥抢地皮、窜上天和卫星抢身位。电闸一拉,谁都害怕。


照这么发展下去,未来高科技公司的衡量标准,也许不再是看谁芯片多。


而是看谁能抢到最多的电,让自家机房的灯能一直亮下去了。


图片、资料来源:

央广网

Youtube、知乎

WSJ、NYT、The Verge、FRED

Lawrence Berkeley National Laboratory、Tom's hardware

NVIDIA 官网


本文来自微信公众号:差评X.PIN,作者:莫莫莫甜甜,编辑:江江、面线,美编:焕妍

AI原生产品日报频道: 前沿科技
本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。
如对本稿件有异议或投诉,请联系 tougao@huxiu.com。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定