本文来自微信公众号: 未尽研究 ,作者:未尽研究,原文标题:《DeepSeek-V4之后,开源模型的东西方阵营 | 笔记》
黄仁勋曾经喜爱有加的DeepSeek,V4版发出之后,将进一步成为其集结的中国之外的开源模型阵营的对手。
还没等下半年昇腾950超节点规模部署,DeepSeek-V4就开始疯狂降价,缓存命中的输入价格已经低到可以用“美元/10亿token”来计价了。也许,黄仁勋那个建立开源模型新秩序的计划,也该加速推进了。
上个月,英伟达发布了Nemotron 3 Super。这是一个1200亿总参数规模的模型,它还有一个总参数达4800亿的兄弟模型。它就是Nemotron 3 Ultra,一旦正式开源,或将成为美国本土现役最大开源模型。
老黄的老谋,DeepSeek的深算
2026/03/12完整阅读>
另外,同期有媒体曝光,英伟达还有一个未来5年累计投入260亿美元投资开源生态的秘密计划。或许,这个计划就是后来在GTC 2026上亮相的Nemotron联盟(Coalition)?

美国并非没有开源模型实验室。相反,数量还不少。仍在严肃地发布高质量开源模型的实验室,至少在20家左右,与中国旗鼓相当。但问题是,它们发布的模型往往总参数规模较小,而且许可条款更为严格,导致社区影响力有限。
比如,艾伦AI实验室的Olmo、Huggingface的SmolLM、LiquidAI的LFM2、ServiceNow的Apriel、斯坦福大学的Marin、IBM的Granite、Moondream的同名模型,甚至还可以算上OpenAI的GPT OSS,以及微软的Phi、以及谷歌的Gemma。Anthropic从不开源,xAI从来只许诺开源,Meta则从开源走向了闭源。
真正撼动硅谷与华尔街的中国开源模型阵营,正是DeepSeek、Qwen、Kimi、Minimax和GLM等旗舰开源模型。它们也才是“token出海”这一中国叙事的主力。
从这个意义上说,从去年底至今,美国的开源模型生态正在重启。英伟达与Arcee是典型的活跃分子;Reflection去年融资了20亿美元,今年又计划融资25亿美元,对外主打“美国版DeepSeek”的形象。
年初,强调自己是Made in America(美国制造)的Arcee开源了旗舰模型Trinity-Large-Base。这是一个4000亿总参数规模的开源模型,基于2048块英伟达B300预训练。仅从参数规模来看,它接近2年前Meta发布的Llama-3.1-405B,以及去年Meta发布的Llama-4-Maverick(400B)。尚未发布的Nemotron 3 Ultra,大致也在这个体量。
不过,随着Meta的2T规模的Behemoth的无限期搁浅,中国开源模型阵营率先进入了万亿参数规模级别。去年至今,包括蚂蚁的Ring-1T、Kimi-K2.6(1T)、DeepSeek-V4-Pro(1.6T);此外,GLM-5.1也达到了744B总参数规模。据传,下半年的Kimi-K3规模在2.5T左右。参数规模无法代表绝对性能差异,但整体上指示了性能扩展的方向。
DeepSeek-V4,需要一次重估
2026/04/27完整阅读>
黄仁勋深知开源模型的重要性,英伟达正在挑起美国开源阵营的大梁。他曾在他的“五层蛋糕论”里谈及,“世界上大多数模型都是免费的。研究人员、初创公司、企业乃至整个国家都依赖开源模型来参与先进的人工智能项目。当开源模型达到技术前沿时,它们不仅仅会改变软件,还会激活整个技术栈的需求。”
随着Cursor这样的“600亿美元”估值的初创企业,事实上基于中国开源模型底座训练了自己的Composer,美国对自己的前沿开源模型的焦虑,有增无减。而DeepSeek在技术报告中“我们在英伟达GPU和华为昇腾NPU平台上对细粒度EP方案进行了验证”,再次证明了让黄仁勋破防的事情,正在缓慢发生。
中国开源模型正在稳步向自主的算力基础设施上迁移,最令他担心的是,中国的开源模型跑在以华为为代表的中国GPU系统上,一起走向世界,以高性价比占领世界,美国的闭源模型将会沦为世界的少数和非主流。所以,黄仁勋索性自己下场,在中国之外培育起一个开源模型的生态,它们都将跑在英伟达GPU上和CUDA生态里。
英伟达并非自研开源模型的新军。在ChatGPT问世后,它开源过不少模型,不过命名相当令人困惑。2023年,它就发布了Nemotron-3-8B,主要用于企业AI服务;到了2024年,Nemotron-4系列发布,包括15B与340B,主要用来合成数据。在2025年底,重新启动Nemotron-3的番号之前,英伟达还陆续发布过Minitron、Llama-Nemotron、Nemotron-H等模型。
在与美国艾伦实验室研究员Nathan Lambert对谈时,英伟达应用深度学习研究(ADLR)副总裁Bryan Catanzaro称,之所以构建Nemotron,一方面是公司需要它,去研究与预测未来硬件的突破方向;另一方面则是支持更广泛的生态,也就是自己业务增长的机会。Bryan曾在2014年在百度与Andrew Ng、Dario Amodei、Awni Hannun和Adam Coates等人共事;在Transformer架构出现后,主导了英伟达的自研模型Megatron-LM。
在Bryan看来,“自下而上的混乱创新”,是Nemotron模型系列早期进展缓慢的主要原因。2025年,他终于与多位负责人高层对齐,统一传递了“合在一起更好”的信息。今年1月前后,整合后团队全职员达到了500人,涵盖数值量化、语音识别、图像理解、预训练、后训练、RL系统等各个维度。
这个团队规模,比DeepSeek大多了。据DeepSeek-V4技术报告披露的贡献者,团队约有300名研发者、工程师、商业与合规人员。可以说,英伟达目前是美国实力最雄厚的开源模型公司。
但是,过于强大的Nemotron模型,难免让英伟达的客户们担心。于是,黄仁勋开始谋划开源模型的新秩序。
今年3月,媒体报道称,英伟达计划投入260亿美元,用于模型开发、算力基础设施、研究人才,以及“生态系统开发”。当时外界推测,后者可能指合作伙伴关系,甚至是潜在的收购。
随后,在GTC 2026上,英伟达高调宣布成立Nemotron联盟。创始成员机构包括:法国的Mistral AI、美国的Reflection AI、印度的Sarvam AI,以及德国的Black Forest Labs(原Stability AI团队),它们是模型的构建者;以及LangChain与Thinking Machines Lab,属于开发框架与执行环境的构建者;以及Cursor与Perplexity这样的AI应用公司。
为什么开放模型会拉开与封闭模型的差距|笔记
2026/04/17完整阅读>
Nathan相信,从2027年初开始,美国将在开源模型的采用指标上缓慢收复失地。随着开源模型竞争变成一场经济续航能力和快速跟进的游戏,中国阵营会逐步面临困境。但是,中国速度的放缓,再到趋势反转,需要很长时间。
