多款曾因美国管制禁售的英伟达高端显卡重新上架京东自营,本文分析此事对中国AI行业、国产芯片及开源生态的多重影响。 ## 1. 多款被管制英伟达显卡重新上架京东自营 5月14日,京东英伟达AI硬件自营专区重新上架此前受美国出口管制影响的多款高端AI显卡,包含A100 80G、H100 80G、H800 80G、A800 80G、L40S、RTX PRO 6000 96G(服务器版、MAX-Q版、工作站版)、RTX 5090 32G等多个型号。这批显卡覆盖数据中心训练推理卡、专业工作站卡、消费旗舰卡,可满足不同AI开发场景的算力需求。 ## 2. 美国对华AI芯片管制背景出现松动 2023年美国进一步收紧对华AI芯片出口管制,将A100、A800、H100、H800、L40S等英伟达产品纳入严格许可要求。同时路透社报道,美国已批准约10家中国企业(含阿里、腾讯、字节跳动、京东等)采购英伟达H200高端AI芯片,目前尚未完成实际交付,表明美国管制口径已出现变化。 ## 3. 对国产AI模型与芯片的双向影响 短期来看,若显卡稳定流入市场,可缓解中国AI公司的算力压力,降低模型迭代的试错成本,对受算力限制的国产大模型团队是直接利好。若高端英伟达卡供给恢复,国产AI芯片将面临更直接的竞争,仅靠“供给替代窗口”的优势不再足够,需要在软件栈、集群稳定性、训练效率等维度加快证明自身能力。 ## 4. 降低开源AI模型落地门槛,推动生态扩散 开源AI模型扩散依赖更多中小开发者与团队获得低成本稳定算力,高端英伟达卡重新上架会直接降低开源模型的使用门槛。企业可更便捷完成私有化部署,开发者可轻松做本地推理微调,高校可复现实验,中小团队能基于国内开源模型开发行业版本,推动中国开源模型从线上权重走向真实落地场景。
突发:多款被禁售英伟达显卡重新上架京东官方自营店
2026-05-15 07:36

突发:多款被禁售英伟达显卡重新上架京东官方自营店

本文来自微信公众号:01Founder,作者:Max,编辑:Max,题图来自:视觉中国


5月14日是特朗普访华的第一天。


第一天还没结束,在京东英伟达相关的AI硬件自营专区里,一批此前处在出口管制阴影下的高端AI卡,重新被摆上了货架。



从页面截图看,能搜到的型号包括A100、H100、H800、A800、L40S、L20、RTX PRO 5000、RTX PRO 6000、RTX 5090等。


这些卡不是只挂了一个链接。


A100 80G、H100 80G、H800 80G、A800 80G都在页面中出现;


RTX PRO 6000 96G也有多个版本,标注为服务器版、MAX-Q版、工作站版;


RTX PRO 5000 48G、RTX 5090 32G也在同一批商品里。


这些卡为什么被禁售


过去几年,美国对华AI芯片出口管制的核心,就是限制中国获得高性能训练和推理芯片。



A100、H100是英伟达数据中心AI卡里的代表型号。


A100属于Ampere架构,H100属于Hopper架构,它们长期被用于大模型训练、推理、高性能计算和数据中心部署。


A800、H800则是英伟达为中国市场推出过的降规格版本。


它们原本是为了绕开早期出口限制,但2023年美国进一步收紧规则后,A100、A800、H100、H800、L40、L40S、RTX 4090等产品也被纳入更严格的许可要求。


英伟达当时在提交给美国SEC的文件里明确提到,新规则影响的产品包括A100、A800、H100、H800、L40、L40S和RTX 4090等。


这些卡是用来做什么的


这批卡的用途很明确:训练AI


A100、H100、H800、A800这类数据中心卡,主要用于大模型训练、模型微调、推理服务、高性能计算和数据中心集群。


NVIDIA官方对A100的定位,就是面向AI、数据分析和HPC的数据中心GPU。


它们不一定是最顶级训练卡,但对大量中小团队来说,已经足够支撑本地模型、行业模型、图像生成、视频生成、RAG和Agent系统。


RTX PRO 6000 96G这类专业工作站卡,则更适合本地高显存场景。


NVIDIA官方介绍里,RTX PRO 6000 Blackwell系列配备96GB GDDR7显存,用于AI、科学计算、渲染、3D图形和实时视频处理等专业任务。


RTX 5090这类消费级旗舰,也会被个人开发者、小团队和AI工作室拿来做本地推理、LoRA微调、图像生成、视频生成和模型实验。


换句话说,这批卡的重新出现,影响的不只是硬件市场。


它关系到中国AI团队能不能更容易获得可用算力,尤其是那些买不起大规模云集群、又需要本地部署和调试模型的中小团队。


路透社:H200也获得批准


与此同时,路透社报道称,美国已经批准约10家中国公司购买英伟达H200芯片,包括阿里巴巴、腾讯、字节跳动、京东、联想和富士康等。


报道同时提到,虽然美国已经给出许可,但目前还没有H200芯片实际交付。


H200是英伟达Hopper系列里的高端AI芯片。


相比H100,H200的关键升级在于更大的显存和更高的内存带宽,主要用于大模型训练和推理,尤其适合长上下文、MoE模型、大规模推理集群这类更吃显存和带宽的场景。


这意味着,美国的管制口径正在出现变化


路透社说美国已经批准,但芯片还没有交付。


也就是说,政策口子出现了,交易还没有真正落地。


对国产模型意味着什么


短期看,如果这些卡能够稳定流入市场,中国AI公司的算力压力会被部分缓解。


过去两年,国内很多模型团队面临的问题不是没有算法,也不是没有工程能力,而是高端算力获取成本高、周期长、不确定性强。


训练大模型需要卡,微调需要卡,做推理服务也需要卡。


算力越紧,模型迭代越慢,试错成本越高。


高端英伟达卡重新出现在货架上,至少会让一部分团队重新获得更稳定的硬件选择。


这对国产大模型是直接利好。


尤其是已经有模型能力、但受限于训练和推理资源的团队,会更容易做新版本迭代、长上下文优化、多模态训练、Agent测试和推理成本优化。


但这件事也有另一面。


如果英伟达高端卡重新变得容易买,国内芯片厂商会面临更直接的竞争压力。



过去国产AI芯片的一个重要窗口,是英伟达供给受限后形成的替代需求。


现在如果英伟达重新回到一部分市场,国产芯片不能只靠“能买到”这个优势。


未来比的是软件栈、集群稳定性、训练效率、推理成本、迁移成本和真实交付能力。


也就是说,英伟达的回流会缓解中国AI公司的短期算力问题,同时也会逼国产芯片更快证明自己。


对开源生态意味着什么


对开源模型来说,这件事的影响可能更大。


闭源大模型公司最核心的资源是大规模训练集群、数据、工程系统和产品入口。


开源模型真正要扩散,靠的是更多开发者、研究者、中小团队和企业能够拿到足够便宜、足够稳定的算力,把模型跑起来、改起来、部署起来。


如果A100、H100、H800、A800、RTX PRO 6000这类卡重新变得更容易买,开源模型的使用门槛会下降。


企业可以更容易做私有化部署。


开发者可以更容易做本地推理和微调。


高校和实验室可以更容易复现实验。


中小团队可以更容易基于Qwen、DeepSeek、GLM、InternLM等开源模型做行业版本。


这会让开源模型从“网上下载一个权重”走向更真实的使用场景。


尤其是中国开源模型,本来就已经在能力、成本和社区使用上形成了一定优势。


如果算力供给进一步松动,开源模型会更容易在企业端、开发者端和本地部署场景里扩散。


而且算力重新进入市场之后,模型迭代、应用开发和开源扩散都会被推快。


但目前禁令还没有完全结束,H200也还没有实际交付。


货架已经先动了。


对AI行业来说,货架有时候比表态更诚实。


本文来自微信公众号:01Founder,作者:Max,编辑:Max

AI原生产品日报频道: 前沿科技
本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。
如对本稿件有异议或投诉,请联系 tougao@huxiu.com。
正在改变与想要改变世界的人,都在 虎嗅APP