2-11

DeepSeek测试百万Token上下文

新闻图片

2026年2月11日,DeepSeek正式面向部分用户灰度上线最高100万Token上下文长度功能,覆盖App及网页端,官方确认回应为'1M'。此次更新同步将知识库截止日期延至2025年5月,离线状态下可准确输出2025年4月新闻事件,旨在提升长文档理解、代码分析与复杂推理能力,为即将发布的MODEL1新架构及V4大模型做技术铺垫。

2 来源
灰度测试正式启动

今日,DeepSeek正式开启100万Token上下文长度功能的灰度测试,面向部分用户开放体验。该功能已全面覆盖DeepSeek的App及网页端平台,用户在与模型交互时可获得官方确认的’1M’回应,明确表示支持百万级Token处理能力。[1]

此次更新不仅大幅提升了上下文处理能力,还同步优化了知识库内容,将知识截止日期更新至2025年5月。在离线状态下,模型已能准确输出2025年4月的新闻事件,表明数据更新和模型训练工作已顺利完成。[1]

值得注意的是,这一功能目前仅面向部分用户灰度上线,意味着DeepSeek正在逐步扩大测试范围,确保系统稳定性和用户体验后再全面开放。[1]

实测验证百万Token支持能力

为验证DeepSeek新模型的上下文处理能力,多家技术媒体进行了实测。DataLearnerAI获取了《三体》全集的txt文本(经Google AI Studio统计约67.8万tokens),成功上传至DeepSeek官网进行解析,模型顺利处理了这一长文本并给出合理回应,证实了其百万级Token处理能力。[1]

测试结果明确显示,该模型并非此前公布的DeepSeek-V3.2版本,因为V3.2系列仅支持160K的上下文长度。DeepSeek-R1和V3在升级到0324版本后支持128K上下文,而此次更新的百万级处理能力远超以往所有版本。[1]

实测过程中,模型在处理长文本时表现出色,没有出现截断或信息丢失现象,证明DeepSeek在长上下文处理技术上取得了实质性突破,为复杂任务处理奠定了基础。[1]

新模型定位与技术意义

根据多方分析,此次上线的模型并非DeepSeek-V3.2,而是一个全新版本,很可能为即将发布的V4大模型的预热测试。DeepSeek-V3.2的论文明确指出其上下文长度限制在160K,与当前百万级处理能力不符,成为区分新旧模型的关键证据。[1]

此次更新具有重要的技术战略意义,主要体现在三个方面:

  • 为即将发布的MODEL1新架构提供技术验证平台,测试长上下文处理的稳定性和效率[2]
  • 为V4大模型的全面发布积累用户反馈和性能数据,降低正式发布风险[2]
  • 通过灰度测试收集实际应用场景中的问题,优化模型在长文档理解、代码分析等复杂任务中的表现[2]
应用场景与行业影响

百万Token上下文长度的实现将显著提升AI模型在多个专业领域的应用能力。在长文档处理方面,用户现在可以一次性上传整本电子书、法律合同或学术论文进行分析,而无需分段处理,大大提高了工作效率和分析完整性。[1]

在代码分析领域,开发者能够将整个项目代码库提交给模型进行审查、优化或调试,模型可以理解跨文件的代码逻辑关系,提供更精准的建议和错误检测。[1]

此外,这一突破对复杂推理任务具有革命性意义:

  • 支持多轮深度对话中保持更长时间的上下文连贯性,减少信息遗忘[1]
  • 使模型能够处理需要大量背景知识的复杂问题,如法律咨询、医疗诊断辅助等专业场景[2]
  • 为AI在科研领域的应用开辟新可能,如处理长篇学术论文、实验数据集分析等[2]

行业专家预测,随着DeepSeek此次技术突破,国内大模型行业将加速进入’超长上下文’竞争阶段,推动整个行业在处理复杂任务能力上的整体提升。[2]

本内容由AI生成