本文来自微信公众号: Z Finance ,作者:ZF编辑部,原文标题:《Z Waves丨中科大天才、林俊旸潜在接班人、Gemini 3 核心推手,通义千问迎来「周浩时刻」》
在大模型狂飙突进的叙事里,算力是入场券,而那些曾亲手拆解过全球顶级模型“黑盒”、并见证其从阵痛到翻盘的核心人才,才是真正的胜负手。
近日,随着阿里通义千问团队的一系列重磅人事调整,一个此前低调、却在Google DeepMind内部极具分量的名字——周浩,正式走到了聚光灯下。这位从中科大数学系走出的顶级学子,在过去的五年里,完整参与了谷歌大语言模型从LaMDA时代到Gemini 3.0的全周期演进。
周浩的职业路径,几乎就是一部缩影版的谷歌AI进化史。他不仅曾师从AI传奇人物、谷歌大脑创始成员Quoc Le,更是Gemini团队中负责后训练(Post-training)核心推手。从助力Gemini登顶LMSYS全球榜首,到主导模型在IMO、ICPC等硬核竞赛中摘得金牌,周浩的名字始终镌刻在那些定义“深度推理”与“思维模式”的关键节点上。
而在2026年初,这位大模型老兵选择转身回国,加盟阿里通义实验室,并直接向阿里云CTO周靖人汇报。这一变动正值通义千问团队技术负责人林俊旸、后训练负责人郁博文相继离职的关键时刻。周浩的“火速履新”与其深厚的技术背景,迅速引发了行业对于通义千问下一代演进路线的无限遐想。
当大模型竞速进入下半场,行业共识正从“预测下一个词”转向构建具备自主学习、长程推理能力的智能体。周浩在Gemini框架下积累的关于强化学习、多步规划与自我进化的实战范式,正是当下千问迈向“深度智能”最迫切的一块拼图。
一、从中科大出发
和许多在大模型浪潮中被迅速看见的研究者不同,周浩的起点并不带有太强的“时代风口”色彩。在2010年到2014年,周浩就读于中国科学技术大学数学与统计专业,成绩十分优异,以接近满绩点的成绩毕业,并获得过国家奖学金。这样的背景,决定了他最早接受的并不是面向应用的热门训练,而是一套更偏底层的方法论教育:概率、统计、数学建模、严谨推导,以及对“不确定性”本身的处理能力。

图片来源:LinkedIn
这类底层数学训练的价值,往往不会在最开始就显得耀眼。它不像“做出一个爆款产品”那样容易被看见,也不像“赶上某个技术热点”那样容易被传播。但如果把视角放长,就会发现,今天大模型领域最棘手的问题——模型输出是否可信、训练数据中的噪声如何影响能力、推理链条如何验证、不同阶段的能力如何稳定迁移——本质上都离不开这种底层方法能力。也就是说,周浩后来的研究路径,虽然看起来一路走到了生成模型、推理系统和大模型前沿,但它真正的底色,其实很早就埋在了数学与统计的训练里。
本科阶段的周浩,并不只是一个成绩优异的学生,更像是一个已经完成底层训练雏形的研究者。后来他在威斯康星大学麦迪逊分校继续走向统计机器学习与计算机科学的交叉训练,其实正是这一阶段的自然延伸。
二、在威斯康星成型:统计机器学习与计算机科学的双重训练
离开中科大之后,周浩来到威斯康星大学麦迪逊分校,继续向更高层次的研究训练推进。他在2014年至2019年,他在这里攻读统计机器学习博士;与此同时,他在2015年至2017年,又同时完成了计算机科学硕士的学习,研究方向包括机器学习与优化。这两段硕士和博士的学习都是以接近满分的成绩毕业。在硕博期间,他的学术路径逐渐从“数学与统计”延伸到更完整的“统计、机器学习、计算机科学”交叉体系。
如果只看履历,这段经历已经足够亮眼;但真正让这一阶段重要的,是他在威斯康星大学期间已经写出了一批方向很清楚、质量也很扎实的论文。
威斯康星这几年里,周浩的研究范围一点点展开了。早期更偏向统计学习和数据问题,后来逐渐进入高维时间序列与网络建模,再往后,又开始接触贝叶斯神经网络中的结构、可解释性和不确定性这些更复杂的主题。
这一阶段,一篇很有代表性的论文,是他在NeurIPS 2016发表的《Hypothesis Testing in Unsupervised Domain Adaptation with Applications in Alzheimer’s Disease》。这篇论文讨论的是无监督领域自适应中的统计检验问题,并把方法应用到阿尔茨海默病相关任务上。
在这篇与阿尔茨海默病应用相关的论文中,周浩处理的是一个很典型、也很现实的问题:不同医院、不同站点采集到的数据,往往因为测量方式、设备条件和处理流程不同,看起来并不完全一致。对研究者来说,真正困难的地方在于,数据之间的差异到底来自疾病本身,还是来自采集和转换过程中的“扭曲”,并不容易直接判断。周浩在这项工作里参与提出了一套统计检验方法,试图在存在测量变换和域偏移的情况下,判断不同来源的数据是否仍然对应同一个底层分布。换句话说,他关心的不是简单地把数据拼在一起,而是先弄清楚这些数据到底能不能被放在同一个分析框架里。这项研究后来被用于阿尔茨海默病相关场景,希望为跨站点整合临床与影像生物标志物提供更稳健的统计基础。

图片来源:谷歌学术
在威斯康星大学时期,周浩还参与了一篇很有代表性的工作,这篇文章也是他学生时期被引用最多的文章,题目是《DUAL-GLOW:Conditional Flow-Based Generative Model for Modality Transfer》。
这篇论文关注的是医学影像里的一个非常现实的问题:PET对神经系统疾病的诊断很重要,但检查成本高,而且需要向患者体内注射放射性物质;相比之下,MRI更常见、获取也更方便,那么能不能根据MRI去生成某些类型的PET图像?周浩和合作者在这篇工作里提出了一个基于flow-based generative model的方法,用两个可逆网络和一个关系网络去学习不同影像模态之间的对应关系,使模型能够在小样本条件下完成从MRI到PET的模态迁移。论文还进一步把年龄等属性信息纳入条件控制,使生成结果不仅在图像层面更接近真实PET,也能更好地反映脑部代谢随年龄变化的特征。
这不仅体现了周浩在学生时代就已经进入生成模型与跨模态学习问题,也说明他的研究很早就带有一种很强的现实关怀——不是为了做一个抽象的模型,而是希望让复杂的机器学习方法真正进入具体场景,帮助解决真实世界里的诊断与分析问题。

图片来源:谷歌学术
三、进入谷歌:走进Gemini的核心能力建设区
如果说前面的威斯康星的学生时期时期,周浩是在一步步把自己的研究能力做深,那么进入谷歌之后,他真正站上的,是过去几年人工智能世界里最热、也最核心的一条技术主线——Gemini。
在博士毕业后,周浩首先加入Meta,担任资深研究科学家,主要研究深度学习方向,并应用在对话式AI、Reels(Meta旗下对标抖音的产品)、AR/VR、广告领域。

图片来源:LinkedIn
随后,周浩在2021年12月进入谷歌DeepMind体系。但是在这个时间点,今天大家熟悉的Gemini还没有正式亮相,ChatGPT也还没有把生成式人工智能彻底推到全民讨论的中心。换句话说,周浩不是在Gemini已经成名之后才加入,而是在这条路线还没有完全走到台前的时候,就已经进入了谷歌最核心的AI研究区,并且完整见证并参与了谷歌AI在大语言模型路线上从阵痛期到“逆风翻盘”的全过程。
也正因为这样,后来当最早的LaMDA模型,到后来的Gemini一路从1.0推进到1.5,再到3时,周浩的名字会出现在这条主线里,就显得格外有分量。在他的谷歌学术页面上,最醒目的几篇论文几乎就是Gemini过去几年的公开技术坐标:
《Gemini:a family of highly capable multimodal models》、《Gemini 1.5:Unlocking multimodal understanding across millions of tokens of context》、《Gemini 2.5:Pushing the frontier with advanced reasoning,multimodality,long context,and next generation agentic capabilities》。
光看题目,其实已经能看出这条线是怎么一步步往前推的:从“高能力多模态模型”,到“百万级上下文元素”,再到“高级推理、长上下文和agentic capabilities”。这几篇论文不只是火,而且几乎就是Gemini每一个阶段最核心的公开名片。

图片来源:谷歌学术
其中,Gemini 1.0更像是这条主线第一次完整地站到台前。它让外界第一次看到。周浩出现在这篇工作里,而且在官方技术报告中以“Gemini App Factuality”联合负责人的身份被提到,这件事本身已经很能说明他在团队里的位置——他做的不是边缘问题,而是大模型最难、也最核心的部分:模型说的话到底准不准确。这意味着周浩已经步入AI发展的核心领域。
在周浩及其团队的研发下,接下来的Gemini 1.5,则把谷歌在大模型上的另一个优势彻底打响——超长上下文。如果说很多模型强在单轮能力,那么Gemini 1.5最让人印象深刻的地方,是它把“记忆长度”这件事往前推了一大截。论文标题里那句“millions of tokens of context”已经非常说明问题:它不只是想让模型看得更多,而是想让模型在更长、更复杂的信息流里,依然保持理解和推理能力。到了这个阶段,Gemini已经不再只是“谷歌的大模型”,而是开始形成自己非常清晰的技术标签。
再往后到Gemini 2.5,周浩和他的队伍将AI这条路线又往前推进了一步。这篇论文最能说明问题的地方,是标题里那几个关键词几乎全是今天最卷的能力:高级推理,多模态,长上下文,下一代代理能力。换句话说,到2.5这一代时,Gemini已经不满足于“能回答”“能看图”“能处理长文本”,而是开始往更强的推理、更完整的行动能力去推进。这时候再回头看周浩的研究方:事实性、推理、多步强化学习、工具使用。你会发现他并不是碰巧“蹭上了Gemini”,而是他的工作内容本身就在Gemini最核心的能力区里。
到Gemini 3的时候,作为关键贡献者,他负责后训练,主攻多步强化学习(RL)、模型思维模式(Thinking)及自我进化。其团队的工作直接助力Gemini强势登顶LMSYS全球榜首,并在IMO、ICPC等竞赛中摘金,同时推动了DeepThink、智能体编程及思维模式的重大突破。

四、转向阿里:从Gemini走进千问前线
2026年初,周浩正式加入阿里巴巴,曾在夸克短暂落脚,但很快他便被调往核心技术部门——通义实验室,并且直接向阿里云CTO周靖人汇报。
2026年3月,阿里千问团队迎来了一次备受关注的关键调整。先是大模型技术负责人、集团最年轻的P10级专家林俊旸宣布离开,随后负责后训练方向的郁博文也在同天离职。传言称,周浩被推到更靠前的位置,承接起千问后训练方向的核心工作。
不管是哪个职位,周浩之于千问都是战略级的技术契合。随着通义千问正从传统的“预测下一个词”的语言模型,深度转向具备自主学习、逻辑推理与规划能力的智能体演进,周浩此前在DeepMind的核心探索显得至关重要。
周浩的加入,意味着千问在追赶甚至对标Gemini系列的最前沿特性上,获得了一条“近路”。
[1]量子位,《阿里批准林俊旸离职,CTO周靖人接管千问,Gemini周浩确定加盟》,
https://36kr.com/p/3709665960636552
[2]Linkedin,https://www.linkedin.com/in/hao-henry-zhou-ml/
[3]Google Scholar,https://scholar.google.com/citations?hl=en&user=6Va6E-gAAAAJ
[4]UniFunc,shttps://s.unifuncs.com/?sid=d5fbe097-19f8-449a-9f29-4e8647c8b265