本文来自微信公众号: APPSO ,作者:发现明日产品的,原文标题:《「日本最强AI」塌房了!扒开代码全是DeepSeek,日本网友集体破防》
最近这件事在日本的X讨论炸了,起因是昨天日本一家科技公司乐天集团(Rakuten)在日本经济产业省(METI)的GENIAC项目(日本AI政府资助项目)支持下,高调发布了号称「日本最大、性能最强」的7000亿参数大模型Rakuten AI 3.0。
但发布后不久,开源社区就迅速扒出,该模型的底层架构实际上是来自我们的DeepSeek-V3,乐天仅仅是做了日文数据的微调。
在知名的AI开源库Hugging Face上,Rukuten AI 3.0赫然在自己的配置文件里面写着架构来自DeepSeek V3。

而在Rakuten AI 3.0模型的发布新闻稿里,丝毫没有提到任何关于DeepSeek的信息,只是含糊的说「它融合了开源社区的精华」,让一众网友以为这款模型就是日本自主研发的。
更致命的是,乐天为了掩盖这一事实,在开源时偷偷删除了DeepSeek的MIT开源协议文件。在被社区实锤后,才灰溜溜地以「NOTICE」文件名重新补上。

在Hugging Face上能看到项目文件的提交历史,显示修改
日本网友纷纷表示,「这让人无法接受」,拿着日本政府补贴,竟然只是微调了一波中国的DeepSeek,还有人说,用DeepSeek就算了,还要偷偷藏藏真的很逊。
掩耳盗铃的「日本最强」
单看Rakuten公司发布的公关稿,这个模型确实算得上是日本在LLMs领域的一次比较有实力的发布。
这是一款拥有约7000亿参数的混合专家(MoE)模型,经开源社区确认,是和DeepSeek V3一样的671B总参数,激活37B。乐天首席AI官Ting Cai将其形容为「数据、工程和创新架构在规模上的杰出结合」。
Ting Cai这名字一听就不像是日本当地人,有日本网友在评论区说,用DeepSeek很过分,更过分的是,主导这个模型的大老板,是个彻头彻尾的移民强硬派。
我们发现Ting Cai曾在美国Google、苹果公司工作过,并在微软待了超过15年,本科在美国石溪大学,计算机科学就读。他曾在采访中表示,十八岁他第一次出国,去的就是日本,确实是个「移民强硬派」。
关于Rakuten AI 3.0的模型表现,在官方公布的各项基准测试中,它在日语文化知识、历史、研究生水平推理、甚至竞技数学和指令遵循等维度上,得分表现都极其优异,大有横扫日本本土大模型圈的架势。

不过,用来对比的模型,是已经被下架了的GPT 4o、只有1200亿参数的GPT OSS,还有日本的新兴另一个AI开发企业ABEJA基于千问推出的ABEJA QwQ 32b模型。
7000亿和最多1200亿比,Rakuten AI 3.0确实是赢了不少。同时作为经产省GENIAC项目的重点扶持对象,乐天获得了大量的算力资源支持。
GENIAC这个项目设立的初衷,正是为了建立日本本土的生成式AI生态,缓解对海外巨头技术依赖的焦虑。
日本最大的参数规模,再加上这层「国家队」的滤镜,让Rakuten AI 3.0一出场就戴上了「全村希望」的光环。
还得是DeepSeek
但光环褪去得比想象中更快。
先不说7000亿参数、MoE架构,这几个关键词组合在一起,在当今的开源大模型圈子里,指向性实在太强了。等到开源社区的开发者们,到Hugging Face上一看详细的代码配置文件,竟然直接就写着DeepSeek V3。
从底层逻辑来看,这就是「中国架构+日本微调」。DeepSeek提供了那套被全球验证过、极其高效的底层架构和推理能力,而乐天则利用其本土优势,用高质量的日文语料对其进行了微调,让它变得更懂日本文化。
客观来说,拿开源模型做本土化微调,在技术圈是一件极其正常且合理的事情。就像他们拿来作为对比的ABEJA QwQ 32b模型一样,连代号都不改,直接用Qwen的QwQ。

日经新闻曾报道,日本公司开发的前十大模型里,有6个都是基于DeepSeek或Qwen进行二次开发
如果乐天这次也坦坦荡荡地承认使用了DeepSeek的底座,顶多是一次缺乏新意的「套壳」发布,兴许还能蹭一波DeepSeek的热度。
但他们偏偏选择了掩藏。
之前我们分享美团浏览器使用开源项目时,曾提到不同的开源协议,其中DeepSeek采用的MIT协议,堪称开源界「最卑微、最宽容」的协议。
它允许用户免费拿去商用、修改、甚至闭源赚钱。它唯一的请求只有一个:在项目里,保留原作者的版权声明和许可声明。

Rakuten模型发布新闻稿|https://global.rakuten.com/corp/news/press/2026/0317_01.html
而乐天不仅在模型发布博客中对DeepSeek绝口不提,更是直接在代码库里抹除了这份协议文件,还高调宣布自己采用的是Apache 2.0协议开源。
虽然Apache 2.0同样是对商业极度友好的开源协议,但它更正式,常被大厂用来建立自己的开源生态和专利护城河。

不同开源协议对比,MIT协议比Apache协议更宽松、更简短,Apache 2.0在赋予自由的同时,明确包含了专利授权保护和更严谨的责任免除条款,适合更大型、法律风险规避更严格的商业项目|图片来自互联网
乐天的算盘打得很精,抹掉DeepSeek的名字,套上自己的Apache 2.0协议,再把自己包装成「慷慨开源7000亿参数大模型」的日本AI救世主。
喊了一年多的欧洲版DeepSeek、美国版DeepSeek,最后好像都没有做出来。
乐天也想做日本版DeepSeek,但在算力和训练成本的压力下,在当前全球大模型飞速发展的局面下,既想要中国技术的极致性价比,又放不下打造「本土巨头」的身段,显然是难上加难。
不如和我们一起等等DeepSeek V4吧。
