本文来自微信公众号: 格隆 ,作者:万连山,原文标题:《突发!马斯克的xAI没了》
挺巧的。
昨天,咱们刚提了嘴Grok的商业化不太行。
今天,马斯克就宣布判处xAI“死刑”:
不再作为一家独立公司存在,更名为SpaceXAI,作为SpaceX的AI产品线。
风头最盛的AI巨头之一,就这么没了。


几乎同一时间,新生的SpaceXAI反手又与Anthropic联合宣布:Anthropic直接包圆了Colossus 1的所有算力。
这相当于什么呢?
马斯克不仅让儿子改名、回家住,反手还把给儿子买的房子租给了隔壁老王的死对头。
所有人的第一反应都是,这是冲着OpenAI来的。
这方面的原因肯定有,但必然不是全部。
甚至,只是一小部分。
01
更大的野心
xAI最大的特点,就是壕。
根据《The Information》获取的内部备忘录数据,xAI目前手里握着约55万块GPU,但其模型浮点运算利用率(MFU,即GPU的“工作效率”)只有11%。
相比Meta的43%,谷歌的46%,甚至是很早前GPT-3的21-26%,都远远不如。
十分尴尬。
马斯克还从来没有做过这么亏的买卖。
卷不过怎么办?
今年2月,SpaceX以全股票交易的方式收购了xAI。
当时SpaceX估值约1万亿美元,xAI估值2500亿美元,合并后整体估值冲到1.25万亿美元,创下史上最高估值企业并购纪录。
随之而来的,是管理层的重洗。
到3月初,整个xAI的联合创始人中,就只剩下马斯克一个光杆司令。
4月10日,CFO Anthony Armstrong走人,接替他的是SpaceX星链副总裁Michael Nicolls。
如此一来,xAI成为SpaceX的一部分就顺理成章了。
不过,这并不意味着马斯克要退出AI行业。
他只是换一种方式参与。

目前,AI行业最大的限制并不是黄仁勋手里捏着多少卡,而是电网容量。
在SpaceXAI与Anthropic的官宣声明中,有一句很硬核的话:“作为该协议的一部分,Anthropic也表达了与SpaceX合作开发数GW轨道AI计算能力的兴趣。”
“数GW”是什么概念?
跑满22万张卡的Colossus 1,也不过才0.3GW。
两者至少相差十倍。
之所以能做到这种规模,是因为在地表,阳光不仅要经过大气层的吸收和散射,还要受制于昼夜交替、阴晴雨雪以及纬度倾角。
即便在阳光明媚的地区,平均有效功率密度(算上黑夜)最多也只有200-250 W/m²;在阴雨连绵的地方,平均只有约100 W/m²。
但是,一旦突破了大气层,情况就完全不同。
根据NASA的数据,在大气层外,总太阳辐照度(太阳常数)稳定在1361-1380 W/m²。
现在航天级的三结或多结砷化镓太阳能电池板,光电转换效率轻松突破30%。在太空中,每平方米的电池阵列能稳定输出近400瓦的电能。
马斯克完全可以用星舰单次100-150吨的有效载荷,把几千台高密度AI服务器和柔性太阳能帆板像下饺子一样扔进近地轨道。
这不是科幻,是现实存在的戴森球雏形,是太阳的馈赠。
虽然真空环境下无法依靠对流降温,只能靠热辐射,但在航天工程学上这是个已解决的问题,这里不讨论。

SpaceX的太空算力卫星,来源:东方财富
所以马斯克才会断言:地球的能源与散热极限,两到三年内就会制约AI算力发展,最具成本效益的方法,就是建造轨道数据中心。
而要实现这个想法,牺牲xAI的独立性,是有必要的。
目前,星链在轨的活跃卫星数量已经突破9000颗,而且其中近半都是支持星际激光链路的V2 Mini甚至是V3版本。
这很牛逼,没错。
但也是运维灾难的开始。
这9000颗卫星,每颗都以每小时28440公里(第一宇宙速度)在近地轨道上狂飙。它们之间的相对位置每分每秒都在剧烈变化,地球上还有上千万的用户终端随时在请求连接。
要在这种处于极度动态、且随时可能有卫星受太阳风暴影响掉线的结构中,为几千万个数据包规划出一条延迟最低、带宽最宽的路由路径,传统的路由算法很难做到。
这也是为什么早年星链偶尔会出现大面积断网或者延迟飙升的原因,原因就是算法算不过来了。
这个时候,就需要xAI的图神经网络和强化学习能力。
AI不是在被动计算路由,而是主动“预测”路由。
通过星链过去几年积累的数以PB计的网络遥测数据,可以实时预测整个轨道卫星集群的演变,甚至能预判哪个区域即将出现数据拥堵,提前几分钟调动闲置卫星通过激光链路进行带宽支援。
这种由AI主导的轨道级优化,直接将星链的全局网络抖动降低了40%,带宽利用率提升了近一倍。
可以说,没有xAI,星链的扩容根本走不到今天。
而在未来,还将更进一步。

未来,SpaceX负责运载;Starlink负责用高达3.6 Terabits/s带宽的星际激光通讯网络解决天地数据回传的延迟;xAI负责提供AI底层的调度算法。
这个体系如果真的能成熟运转,马斯克将不仅是地球上的首富,更将成为全人类第一个“太空云服务垄断巨头”。
按照现在的趋势,地表能提供的电力迟早将捉襟见肘。
届时,AI大厂想要更多算力,就必须向SpaceXAI交保护费,成为新的卖铲人。
在SpaceX即将IPO的当口,还有什么比这个更有想象力?
02
大手笔预演
根据xAI官网的吹哨数据,Colossus 1坐拥超过22万张GPU,总内存带宽高达194 PB/s,每台服务器网络带宽达到3.6 Tbps,存储容量直接超过1 Exabyte。
在算力为王的时代,如此珍贵的资源,用处有很多,为什么要租出去?
看懂了星辰大海的宏伟蓝图,再把目光拉回到现在,很多事情就比较明了了。
最重要的原因,很可能就是测试算力租赁模式,为未来太空算力商业化铺路。
按照马斯克的设想,太空算力将成为“全球公共资源”,给钱谁都能用。
这次租给Anthropic,相当于“试点测试”:测试算力租赁的商业模式、服务流程、定价策略,看看市场对顶级算力的需求到底有多大,如何优化算力调度效率等等……
毕竟Colossus 1的GPU利用率只有11%,Anthropic租过去后,肯定会想办法提升利用率,SpaceXAI也能从中学到经验,优化自己的算力集群管理,为未来Colossus 2、Colossus 3乃至最终的太空云服务租赁做好准备。
为什么第一个试点对象是Anthropic?

除了Claude本身强大外,还有马斯克本人的喜恶:“SpaceX将向其他AI公司提供计算资源,前提是他们使用自己的模型造福全人类”。
简单来说,Anthropic是“好”的。那谁是坏的?肯定是正在跟马斯克打官司的奥特曼了。
Anthropic是OpenAI最大的对手。
不过,Claude虽然在多项跑分上超越了ChatGPT,但它的算力来源一直相对分散,要在亚马逊和谷歌之间左右逢源。
算力才是根本,否则现阶段所有的领先都只是暂时的。
要继续压制接下来的GPT-5甚至是GPT-6,Anthropic需要规模足够大的集中算力,来对抗微软Azure算力集群与OpenAI大模型的深度绑定。
Anthropic在官宣中明确指出,将利用Colossus 1的算力直接提高Claude Pro和Claude Max订阅用户的服务容量。
更高的速率限制、更快的响应时间、更大规模推理和训练吞吐量,Anthropic不仅在算力上瞬间跟OpenAI平起平坐,甚至在单一物理集群的显卡密度上可能还反将一军。
我不仅要在社交媒体上骂你、跟你打官司,我还要用实际行动全副武装你最致命的对手。
马斯克不仅变现了巨额的基础设施投资、验证了星际算力的可行性,还顺势恶心了跟自己打官司的奥特曼。
两人此时的表情,一定都十分精彩。
03
终极目标
不管马斯克现在在做什么,都不要忘了他的终极梦想:殖民火星。
把AI注入到了航天商业版图中,成为“太空云服务巨头”或许只是短期目标,我们还可以看得更长远一点。
把历次星舰爆炸、测试的遥测数据、高帧率热成像视频、甚至是发动机点火时的声纹波形全喂给大模型,与星舰深度结合后,大概率将拥有多模态异常检测能力。
它可以在发射过程中,实时对庞大的数据流进行特征提取,用极低延迟的边缘计算推理出哪台发动机的振动频率“听起来不对劲”,并同时给飞控系统下达推力补偿指令。
届时,星舰将成为一个能在几马赫速度下进行自我诊断和实时动态控制的超大机器人,其入轨成功率和回收成功率很可能都将大幅提升。
这玩意才该叫擎天柱。
等到它真的带着数以万计的人形Optimus登陆火星,准备着手建造一个能容纳百万人口的城市时,依然离不开AI。

火星城市效果图,来源:SpaceX
地球和火星的距离在5500万到4亿公里之间变动,通信延迟单程最快要3分钟,最慢要22分钟。
这意味着,工程师很难在地球上“遥控”火星上的机器人去搞基建。
没有AI,星舰即便把机器人送上火星,也只不过是扔过去一堆动不动就发呆的废铁。
要在火星上干活,Optimus必须拥有本地自主决策能力和环境认知能力。
xAI为Optimus量身定制大模型,让其通过视觉看懂火星地貌图,听懂宇航员的自然语言指令,并通过自我强化学习在极寒低重力环境下自主控制动作。
这是xAI并入SpaceX最深远、也是最接近科幻的一环。
永远不要去预测疯子,因为疯子正在创造未来。
