本文来自微信公众号: 邱兵 ,作者:邱兵,原文标题:《邱兵/SpaceX、OpenAI 和 Anthropic:旧制度与大革命》
2026年,资本市场正等待三个最重要的Al叙事。这是改变当下、改变未来的重大事件,这是纷乱烦扰的艰难时刻的太阳星辰。
路透社4月1日报道称,SpaceX已秘密提交上市文件,同日路透还把OpenAI、Anthropic列为今年最受期待的潜在IPO队列。
如果说,过去两年人工智能最重要的战场在模型、算力和应用,那么在2026年,另一个战场已经浮出水面:资本市场。
今天最被反复谈论的三家公司,是SpaceX、OpenAI和Anthropic。它们看上去都与AI有关,却又并不属于同一种公司:一个起源于火箭与卫星;一个从“造福全人类”的理想主义出发;一个则从OpenAI的分裂中诞生,以“安全”作为旗帜。
这篇小文不是三家“同类公司”的比较,而是三种技术文明的比较,SpaceX更像基础设施与工业能力的胜利;OpenAI更像通用智能产品化的胜利;Anthropic则代表一种更谨慎、更制度化、也更企业化的安全派路线。
SpaceX
它起家不是AI,但它正在变成AI时代的工业底座。
SpaceX成立于2002年,最初当然不是一家AI公司,而是一家典型的“硬科技野心公司”:目标是把发射成本打下来,让人类成为多行星物种。它最早的核心产品不是软件,而是火箭——Falcon 9、Dragon、后来是Starship。
真正把SpaceX做成超级公司的,是两个东西:可重复使用火箭,以及Starlink卫星互联网。前者改变了航天发射的成本结构,后者把它从“造火箭的公司”变成了“经营全球通信网络的公司”。
它在这个领域里的成就,已经不是“明星创业公司”的级别,而是基础设施级别,SpaceX已主导全球商业发射市场,Starlink拥有数以千计卫星和数百万用户。收入结构中,Starlink已是绝对主力,NASA合同反而只占较小比例。也就是说,SpaceX早就不是靠“航天梦想”活着,而是靠一个可收费、可扩张、可复制的商业网络活着。
它怎么赚钱:火箭是入口,卫星互联网是现金流,国家合同是信用背书,AI是新溢价。Starlink向个人、企业和政府卖联网服务;火箭发射向商业客户和官方机构收费;载人航天、国防和NASA合同提供稳定收入与政治护城河。
SpaceX 2025年营收约150亿到160亿美元,EBITDA约80亿美元。对于一家仍被很多人视作“梦想型公司”的企业来说,这意味着它已经具备非常罕见的盈利能力。
为什么今天要把它放进AI专题?因为2026年的SpaceX,不再只是航天公司,SpaceX已并入马斯克的xAI资产,市场如今讲述的不是单独的火箭故事,而是“发射能力+轨道网络+数据传输+AI计算与应用”的综合叙事。它未必是最典型的AI公司,却很可能是AI时代最稀缺的重基础设施平台。
SpaceX的文化:工程至上、速度至上、容忍高强度,甚至迷恋不可能任务。它的价值观不是“温和”,而是“征服”。这家公司最打动资本市场的地方,不只是增长,而是史诗感。
OpenAI
起家于理想主义,壮大于产品爆发,纠结于“使命与生意”。
OpenAI的起点,比很多人想象得更“理想主义”。根据OpenAI官方表述,它2015年成立时是一个非营利组织,使命是“确保AGI造福全人类”。后来为了筹集训练和部署所需的巨额资本,OpenAI在2019年设立营利性子公司;再往后,又继续调整组织结构,以便在保持使命框架的同时,获得更多融资能力。也就是说,OpenAI从一开始就带着一个内在张力:它既想代表技术理想,也必须学习成为一家资本密集型公司。
它在这个领域中的成就,不需要赘述。OpenAI的历史地位,主要来自两件事:第一,它把大模型真正推到了大众面前;第二,它把AI从实验室推成了日常产品。ChatGPT的意义不只是用户多,而是它第一次让普通人直观感受到“通用型智能助手”是什么。此后,OpenAI又把产品线向开发者工具、企业服务和更完整的平台方向推进。
从赚钱方式上看,OpenAI是三家里最像“平台型软件公司”的。它一头连接消费者,一头连接开发者和企业。消费者付费订阅ChatGPT;企业购买企业版与更深度部署;开发者通过API把模型嵌入自己的产品;未来它还公开提到广告、电商等更广义的变现方式。
截至2026年2月底,OpenAI年化收入已超过250亿美元。这个数字最重要的意义,不只是大,而是说明:OpenAI已经从“讲故事的公司”,走到了“现金流开始证明叙事”的阶段。
OpenAI最矛盾的地方,它的价值观写得很大:AGI造福全人类,其组织结构也反复强调非营利母体与使命中心。可现实是,训练前沿模型需要天量资本、天量芯片和天量算力,所以它不得不越来越像一家超级商业公司。它也许是今天最想做“公共使命”的公司之一,但同时又是最需要资本市场输血的公司之一。
Anthropic
Anthropic的起源,本身就是AI行业最有戏剧性的故事之一。
它成立于2021年,由多位前OpenAI员工创办,核心人物是Dario Amodei和Daniela Amodei兄妹。与OpenAI相比,Anthropic从诞生起就把“AI safety”写在门牌上。官方对自己的定义非常明确:这是一家“AI safety and research company”,目标是构建可靠、可解释、可控制的AI系统。也就是说,Anthropic不是后来才补上“安全”的标签,而是从出生那天起,就试图把安全做成自己的品牌和方法论。
它的成就也已经不只是“安全派的学者公司”。Anthropic做出了Claude,并且在企业市场和编程场景里建立了极强存在感。更重要的是,它不仅卖模型,还把自己的技术路线——比如Constitutional AI、Responsible Scaling Policy一起打包成公司文化和市场信任的一部分。
在商业链条上,Anthropic比OpenAI更集中,也更“企业软件化”。Anthropic官方文档明确写到,Claude可通过Anthropic直接提供,也可通过AWS、Google、Microsoft的云生态部署;企业版则采用席位费加API用量计费的方式。Breakingviews报道显示,Anthropic的收入高度来自大企业客户,企业收入占比非常高。2月份的报道说其估值已达3800亿美元。
Anthropic的文化,很可能是三家里最清晰、也最制度化的一家。它公开发布Claude的“宪法”,所谓Claude的“宪法”,不是政治意义上的宪法,而是一套给模型设定行为边界和价值取向的原则。Anthropic把这种方法叫做Constitutional AI。简单理解,就是他们希望模型在回答问题、做判断时,不只是“更聪明”,还要有一套相对稳定的行为准则,比如尽量减少有害输出、避免明显危险的建议、在有争议的问题上保持更稳健的表达。也就是说,他们想做的不是一个“什么都会说”的模型,而是一个“知道什么该说、什么不该越界”的模型。
Anthropic的特别之处在于,它不是把“安全”当成一句正确的话,而是当成公司运转的一部分。它要证明安全不仅不会拖慢创新,在AI时代,安全本身就是卖点和力量。
