日本乐天集团发布的"日本最强AI"Rakuten AI 3.0被曝底层架构实为中国DeepSeek-V3,仅做了日文微调却隐瞒来源并删除开源协议,引发日本网友强烈不满。 ## 1. "日本最强AI"实为中国技术套壳 - Rakuten AI 3.0号称日本最大7000亿参数MoE模型,但开源社区发现其配置文件直接标注架构来自DeepSeek V3 - 与DeepSeek V3同为671B总参数/激活37B结构,仅用日文数据微调却未在新闻稿中提及来源 ## 2. 刻意隐瞒行为引发伦理争议 - 乐天删除DeepSeek的MIT协议文件,后在被曝光后才以"NOTICE"补回 - 新闻稿仅称"融合开源社区精华",实际采用Apache 2.0协议试图建立自主开源生态 - 日本网友批评其"用政府补贴做中国模型微调"且操作不透明 ## 3. 性能对比存在水分 - 官方测试显示在日语文化、历史等维度表现优异,但对比对象仅为下架的GPT 4o(1200亿参数)和基于千问的ABEJA QwQ 32b - 作为GENIAC项目重点扶持对象,获得日本政府大量算力支持,标榜"缓解海外技术依赖" ## 4. 行业普遍现象与特殊处理 - 日本前十大模型中有6个基于DeepSeek/Qwen二次开发(如ABEJA直接保留QwQ代号) - MIT协议仅要求保留版权声明,乐天却选择最严格的Apache 2.0协议并隐藏来源 - 首席AI官Ting Cai的移民背景加剧舆论争议
“日本最强AI”塌房了,扒开代码全是DeepSeek,日本网友集体破防
2026-03-18 11:46

“日本最强AI”塌房了,扒开代码全是DeepSeek,日本网友集体破防

本文来自微信公众号: APPSO ,作者:发现明日产品的,原文标题:《「日本最强AI」塌房了!扒开代码全是DeepSeek,日本网友集体破防》


最近这件事在日本的X讨论炸了,起因是昨天日本一家科技公司乐天集团(Rakuten)在日本经济产业省(METI)的GENIAC项目(日本AI政府资助项目)支持下,高调发布了号称「日本最大、性能最强」的7000亿参数大模型Rakuten AI 3.0。


但发布后不久,开源社区就迅速扒出,该模型的底层架构实际上是来自我们的DeepSeek-V3,乐天仅仅是做了日文数据的微调。


在知名的AI开源库Hugging Face上,Rukuten AI 3.0赫然在自己的配置文件里面写着架构来自DeepSeek V3。



而在Rakuten AI 3.0模型的发布新闻稿里,丝毫没有提到任何关于DeepSeek的信息,只是含糊的说「它融合了开源社区的精华」,让一众网友以为这款模型就是日本自主研发的。


更致命的是,乐天为了掩盖这一事实,在开源时偷偷删除了DeepSeek的MIT开源协议文件。在被社区实锤后,才灰溜溜地以「NOTICE」文件名重新补上。



在Hugging Face上能看到项目文件的提交历史,显示修改


日本网友纷纷表示,「这让人无法接受」,拿着日本政府补贴,竟然只是微调了一波中国的DeepSeek,还有人说,用DeepSeek就算了,还要偷偷藏藏真的很逊。


掩耳盗铃的「日本最强」


单看Rakuten公司发布的公关稿,这个模型确实算得上是日本在LLMs领域的一次比较有实力的发布。


这是一款拥有约7000亿参数的混合专家(MoE)模型,经开源社区确认,是和DeepSeek V3一样的671B总参数,激活37B。乐天首席AI官Ting Cai将其形容为「数据、工程和创新架构在规模上的杰出结合」。


Ting Cai这名字一听就不像是日本当地人,有日本网友在评论区说,用DeepSeek很过分,更过分的是,主导这个模型的大老板,是个彻头彻尾的移民强硬派。


我们发现Ting Cai曾在美国Google、苹果公司工作过,并在微软待了超过15年,本科在美国石溪大学,计算机科学就读。他曾在采访中表示,十八岁他第一次出国,去的就是日本,确实是个「移民强硬派」。


关于Rakuten AI 3.0的模型表现,在官方公布的各项基准测试中,它在日语文化知识、历史、研究生水平推理、甚至竞技数学和指令遵循等维度上,得分表现都极其优异,大有横扫日本本土大模型圈的架势。



不过,用来对比的模型,是已经被下架了的GPT 4o、只有1200亿参数的GPT OSS,还有日本的新兴另一个AI开发企业ABEJA基于千问推出的ABEJA QwQ 32b模型。


7000亿和最多1200亿比,Rakuten AI 3.0确实是赢了不少。同时作为经产省GENIAC项目的重点扶持对象,乐天获得了大量的算力资源支持。


GENIAC这个项目设立的初衷,正是为了建立日本本土的生成式AI生态,缓解对海外巨头技术依赖的焦虑。


日本最大的参数规模,再加上这层「国家队」的滤镜,让Rakuten AI 3.0一出场就戴上了「全村希望」的光环。


还得是DeepSeek


但光环褪去得比想象中更快。


先不说7000亿参数、MoE架构,这几个关键词组合在一起,在当今的开源大模型圈子里,指向性实在太强了。等到开源社区的开发者们,到Hugging Face上一看详细的代码配置文件,竟然直接就写着DeepSeek V3。


从底层逻辑来看,这就是「中国架构+日本微调」。DeepSeek提供了那套被全球验证过、极其高效的底层架构和推理能力,而乐天则利用其本土优势,用高质量的日文语料对其进行了微调,让它变得更懂日本文化。


客观来说,拿开源模型做本土化微调,在技术圈是一件极其正常且合理的事情。就像他们拿来作为对比的ABEJA QwQ 32b模型一样,连代号都不改,直接用Qwen的QwQ。



日经新闻曾报道,日本公司开发的前十大模型里,有6个都是基于DeepSeek或Qwen进行二次开发


如果乐天这次也坦坦荡荡地承认使用了DeepSeek的底座,顶多是一次缺乏新意的「套壳」发布,兴许还能蹭一波DeepSeek的热度。


但他们偏偏选择了掩藏。


之前我们分享美团浏览器使用开源项目时,曾提到不同的开源协议,其中DeepSeek采用的MIT协议,堪称开源界「最卑微、最宽容」的协议。


它允许用户免费拿去商用、修改、甚至闭源赚钱。它唯一的请求只有一个:在项目里,保留原作者的版权声明和许可声明。



Rakuten模型发布新闻稿|https://global.rakuten.com/corp/news/press/2026/0317_01.html


而乐天不仅在模型发布博客中对DeepSeek绝口不提,更是直接在代码库里抹除了这份协议文件,还高调宣布自己采用的是Apache 2.0协议开源。


虽然Apache 2.0同样是对商业极度友好的开源协议,但它更正式,常被大厂用来建立自己的开源生态和专利护城河。


不同开源协议对比,MIT协议比Apache协议更宽松、更简短,Apache 2.0在赋予自由的同时,明确包含了专利授权保护和更严谨的责任免除条款,适合更大型、法律风险规避更严格的商业项目|图片来自互联网


乐天的算盘打得很精,抹掉DeepSeek的名字,套上自己的Apache 2.0协议,再把自己包装成「慷慨开源7000亿参数大模型」的日本AI救世主。


喊了一年多的欧洲版DeepSeek、美国版DeepSeek,最后好像都没有做出来。


乐天也想做日本版DeepSeek,但在算力和训练成本的压力下,在当前全球大模型飞速发展的局面下,既想要中国技术的极致性价比,又放不下打造「本土巨头」的身段,显然是难上加难。


不如和我们一起等等DeepSeek V4吧。

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定