英伟达的个人超算,可能就是下一个消费级显卡
2026-01-07 18:10

英伟达的个人超算,可能就是下一个消费级显卡

本文来自微信公众号: APPSO ,作者:发现明日产品的,原文标题:《英伟达的个人超算,可能就是下一个消费级显卡|CES 2026》


今年的CES黄仁勋主题演讲上,罕见的,他没有介绍英伟达的消费级显卡。


目前最新的消费级GPU,还是去年在CES上正式发布的RTX 50系列。其中必然有内存全球大涨价的原因,当前市场的内存成本,一周之内就能涨价50%-100%,并且多个分析机构表示,涨价会持续到2027年。


更多的原因还是AI,就拿AI训练和部署来说。一块RTX 5090显卡的最大显存是32GB,随便找一个表现不错的开源大模型,参数都是以百亿为单位,所需要的显存容量,32G的优势会比较有限。


但英伟达显然不会放弃本地计算的市场,今年不发消费级的显卡,有了全新的消费级个人超算。


英伟达在CES 2026上展示了全新的DGX Spark,并且用它完成了多个AI相关的任务。开发者和创作者不需要昂贵的数据中心,通过DGX Spark,就可以在本地流畅运行、微调,甚至推理高达100B参数的前沿AI模型。


我们之前也分享过DGX Spark的上手体验,下载1200亿参数的GPT-OSS开源模型,或者部署Qwen图片生成、Wan 2.2视频生成,DGX Spark都能做到。


再回顾一下DGX Spark的主要情况。


核心架构:基于NVIDIA Grace Blackwell架构打造,将数据中心级别的AI算力,浓缩到了紧凑的桌面机箱中。


海量内存:单机配备128GB统一内存。更为独特的是,它支持通过200Gbps的ConnectX-7网络,将两台DGX Spark互连,组成拥有256GB内存的超级节点。


核心能力:专为大模型时代设计,支持在本地运行100B参数级别的模型,或者对70B参数的LLM进行分布式微调。


定位:它不仅是开发者的沙盒环境,而且还要做AI创作者的平台,主要是让高强度的AI工作负载,脱离云端依赖,在本地安全、低延迟地完成。


本次CES更新的最大亮点,在于通过软件升级引入了对NVFP4数据格式的全面支持。NVFP4的数据格式,能够让新一代模型在保持智能表现的同时,内存占用降低约40%,吞吐量大幅提升。


具体的实测数据,在两个DGX Spark配置上运行Qwen-235B模型时,使用NVFP4相比FP8性能提升最高可达2.6倍。这直接地解决了,过去使用FP8精度时双系统内存耗尽、无法多任务处理的难题。


硬件在桌面上,但访问方式可以很云端。CES上展示的Brev更新,还解决了DGX Spark本地算力灵活性不足的问题。


现在,开发者可以通过Brev,安全地远程连接DGX Spark,就像使用云服务一样便捷。此外,Brev支持智能路由层。用户可以将处理邮件或专有数据等敏感任务,强制保留在本地DGX Spark上运行,而将一般推理任务无缝路由至云端,兼顾了隐私安全与云端算力。


Brev的引入,解决了本地算力不仅能用,还要好用的问题。它的本地计算支持预计于2026年春季正式推出。


这么强的算力能用来做什么,英伟达在CES现场的演示也给出了答案。


对于视频创作者,这是强大的创意生成加速器。将AI视频生成任务从笔记本转移到DGX Spark上,相比顶配M4 Max的MacBook Pro,速度实现了高达8倍的提升,真正做到了让创作流不再卡顿。


不仅是个人开发者,对于注重本地安全的企业用户,DGX Spark也能胜任。英伟达展示了由Nsight驱动的本地CUDA编码助手,企业开发者可以在享受AI辅助的同时,确保源代码完全存储在本地,杜绝信息泄露风险。


更有意思的演示是和机器人的结合。通过与Hugging Face的合作,DGX Spark化身Reachy Mini机器人的「大脑」,让机器人具备了实时视听交互能力。现在看起来,用DGX Spark来做具身智能,也不再是大厂的专属。



Hugging Face产品副总裁Jeff Boudier也提到,「开放模型赋予开发者以自己的方式构建AI,而DGX Spark将这种能力带到桌面端……让强大的AI变成真正可以互动的存在。」


为了降低开发者的门槛,英伟达还在CES上一口气新增了6个Playbook(实战手册),重点覆盖了当下的热门需求。


Nemotron 3 Nano,英伟达最新的开源智能体大模型,用于本地LLM实验。


Live VLM WebUI,实时视觉语言模型分析,通过输入网络摄像头画面,直接在DGX Spark本地进行视频分析。


Isaac Sim/Lab,机器人仿真与强化学习。


双系统微调,展示了如何利用两台DGX Spark,分布式微调70B参数的LLM。


除了Playbook的更新,DGX Spark还预装了经过优化的NVIDIA AI软件和CUDA-X库。这意味着开发者无需在繁琐的驱动配置,和环境依赖上浪费时间,开箱即可获得「即插即用」的优化能力,直接开始构建或微调AI模型。


DGX Spark在CES 2026上的出现,意味着「大模型本地化」已经不再是一句空话。无论是为了数据安全、开发效率,还是为了探索具身智能,DGX Spark都在努力成为下一代AI应用构建的基座。


就像现在,已经开始有让AI来玩游戏的项目了,未来需要的,可能除了一块能流畅打《黑神话:悟空》的5090,还会有更多的桌面级AI超级计算机出现。

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定