吴恩达复盘百度岁月:我带过的自动驾驶、智能音箱都成了,Altman 我也带过,但Gemini3比ChatGPT 强
2026-03-02 15:17

吴恩达复盘百度岁月:我带过的自动驾驶、智能音箱都成了,Altman 我也带过,但Gemini3比ChatGPT 强

本文来自微信公众号: InfoQ ,作者:冬梅,原文标题:《吴恩达复盘百度岁月:我带过的自动驾驶、智能音箱都成了!Altman 我也带过,但 Gemini 3 比 ChatGPT 强》


上个月,吴恩达团队针对当前AGI概念被过度炒作、定义模糊且标准混乱的问题,提出了一套以实际工作能力为核心的新版图灵测试,旨在重新界定AGI、校准行业与公众预期,避免因虚高期待引发AI泡沫与行业寒冬。


该测试让AI或熟练人类在配备网络、浏览器、Zoom等常用软件的电脑环境中,接受评委设计的、持续数天的真实工作任务,包含培训、执行与反馈环节,且任务内容不提前透露,评委可灵活设计场景;若AI能像专业人类一样高质量完成具备经济价值的工作,即视为通过测试。这一测试相比传统图灵测试更贴合现代AI目标,不再以“欺骗人类评委”为标准,而是聚焦真实生产力;同时也优于GPQA、SWE‑bench等固定基准测试,避免模型被针对性优化,能真正检验智能的通用性,也与大众对AGI的普遍认知一致。推出这套测试,核心是为了纠正企业随意降低AGI标准带来的误导,减少对学生、企业决策者与资本的错误影响,通过挤掉概念泡沫,让行业回归理性投入,推动可持续、有真实价值的技术落地。



近日,吴恩达参加了一档播客,谈及了新版图灵测试以及当下人工智能发展的关键议题。访谈没有停留在技术炫技与概念炒作,而是直面当下行业最核心的争议:AGI到底离我们多远、大模型规模化是否走到尽头、AI将如何重塑工作与教育、中美AI格局如何演变,以及技术发展背后的价值与责任。


吴恩达在访谈中反复传递一个清醒判断:AI发展史上曾出现过几次AI寒冬,正是因为人们过度炒作,期望过高无法兑现,最终投资和关注度崩塌,这对行业伤害很大。如今AI效果很好、价值巨大,几乎没有什么能阻挡它的发展势头。而真正让人担心的问题之一,就是过度炒作导致失望,进而引发泡沫破裂,这对世界和AI领域都不是好事。因此,给AGI降温,是为AI行业实现更可持续发展打下基础。


AGI原本的标准——能完成人类任何智力任务,是非常高的标准,我们远未达到。但如果团队提出更容易实现的定义,就可以宣称更快达成。我不介意如何定义AGI,但问题在于,大众心中的AGI就是类人通用智能。当不同团队用不同定义套上“AGI”这个词时,这个词就失去了意义。


针对行业热议的大模型路线,吴恩达强调:规模化时代并未结束,但已不再是唯一路径。早期“堆数据、堆参数”的简单模式已不可持续,合成数据、强化学习、工程化方案正在成为新的关键;同时,更聪明的模型无法直接替代可靠的工作流,在企业级高可靠场景中,结构化、可控制的智能体工作流,仍是现阶段落地的核心。


在最受关注的就业冲击上,他给出冷静而务实的结论:AI不会大面积取代岗位,但会用AI的人,会取代不会用AI的人。只有呼叫中心、翻译、配音等极少数工作会被近乎完全自动化,绝大多数职业只会被AI部分赋能。真正的危机不在失业,而在教育体系跟不上AI时代,大量非技术岗位——营销、财务、人力——都急需具备AI能力的人才。


关于中美AI,吴恩达打破单一“领先”叙事:美国在闭源模型上占优,中国则在开源与开放权重模型上走在世界前列,两国各有所长、多维竞争,共同构成全球AI最重要的两极。


访谈最后,吴恩达回归技术初心:他做研究、办教育、投创业,核心只有两点——让人类更强大,帮助更多人实现自己的梦想。AI不是带来快乐的工具,快乐来自帮助他人的过程;而AI的终极意义,是把“智能”这种曾经昂贵的资源,变成每个人都可使用的能力。


整场对话像一剂“降温针”:在狂热的概念竞赛中,吴恩达把AI拉回现实——不赌AGI何时到来,只做当下最有价值的事。这不仅是一位行业领袖的判断,更是一条更稳健、更普惠、更值得期待的AI发展路径。


以下为完整对话内容,经由InfoQ翻译及整理:


吴恩达:AGI短期内无法实现


主持人:我一上来就想问问关于AGI这个问题,你几个小时前刚发布相关内容,可以从这个话题切入吗?


吴恩达:就任何合理的AGI定义而言,我的答案是:2026年我们不会实现AGI。除非有人大幅降低AGI的标准,才可能有公司宣称跨过了这个门槛。


主持人:那你如何解释、定义AGI?


吴恩达:我最熟悉的AGI定义是:能够完成人类能做的任何智力任务的AI。现在人类可能只需要花几十个小时,就能学会一项新技能,比如在森林里开卡车、在呼叫中心接电话并按企业要求回答问题。这些都是智力任务,而非体力任务。要让AI完成这些任务,目前仍需要工程师投入大量工作,去搭建定制化的AI工作流——这本身很有价值,但这并不是大众心目中的AGI。虽然我希望有朝一日计算机能在各方面都达到人类智能,但我认为我们离那一天还非常遥远。


主持人:你今天刚刚提出了一个新版图灵测试,能解释一下你的设想吗?


吴恩达:我对此很期待。因为AGI现在被炒得太热,已经从一个严谨的技术概念变成了营销术语,这在误导很多人。既然大家都关注AGI、为之兴奋,那我们不如设计一个测试,来判断我们到底有没有接近AGI。我把它叫做实用AGI测试:让人类评委设计一个持续数天的任务流程,比如通过电脑进行入职培训等;测试对象要么是AI,要么是可以使用电脑、浏览器、Zoom等普通软件的人类。如果在几天的过程中,AI能够像一名熟练的专业人类一样,完成有经济价值的实际工作,在我看来这才是更合理的AGI定义。这也更贴近大众对AGI的理解——大家认为AGI到来,就是AI能真正代替人工作,而不是某些企业为了公关、政策或融资而宣传的其他标准。


主持人:我之前采访过2020年诺贝尔物理奖得主Sir Roger Penrose,他认为数学是封闭系统,AI只是像玩游戏一样处理它。吴教授,你难道不担心根本不存在有效的AI测试吗?


吴恩达:AI测试或基准的一个问题是:如果提前设定好测试集,就只能衡量AI的某一个特定维度。现在很多大模型都有标准基准,比如SweetBench、GBQA等,研究团队很难避免去针对已知测试集做优化,哪怕不是直接针对。而且AI的智能是“参差不齐”的,有些方面很强,有些方面很弱。但大家心中的AGI,是能完成人类所有智力任务的AI。固定测试集基准,和让人类评委实时探索、检验AI的强弱,这两者有很大区别。真正的AGI,应该让人类评委找不到它在有经济价值的工作任务上明显弱于人类的地方。


主持人:那基准测试还在衡量真实有效的东西吗?有时候基准分数到90%,用户却感觉AI更笨了。


吴恩达:我认为基准测试确实在衡量真实的东西,但只是非常窄的一部分。很多基准的弱点在于,我们更擅长设计客观型基准,比如数学题、事实类问题,有明确的对错。但现实中大量事情没有唯一最优解,比如对话、写研究报告,只有好坏程度之分。


我们很难设计出能衡量这些主观、灰度空间的测试,而人类大量实际工作都处在这个灰度里。现有的基准在这方面表现很弱。


主持人:如果2026年实现不了AGI,那我们可以期待什么?OpenAI的总裁Greg Brockman说,2026年AI的两大方向会是智能体普及和科研加速。你怎么看?


吴恩达:我认为纠结AGI反而会分散注意力,我们离它还很远,短期内也实现不了。但即便没有AGI,2026年依然有大量极具价值的工作可以做、会继续做。我提出了智能体式AI(Agentic AI)这个概念,这是一个正在崛起的趋势。虽然构建能落地的商业流程AI需要大量工作,但一旦做成,价值巨大。


2026年及之后,会有大量工作投入到AI智能体与智能体工作流中,去完成高价值、高经济意义的任务。我在AION的团队,已经在用智能体工作流写代码、审查文件、检查关税合规、阅读复杂法律文档辅助律师工作、做医疗辅助任务、支持客服等。把人类完成这些任务的思考过程编码进AI智能体或工作流,让AI代劳,这件事会持续很多年,价值会非常巨大。


主持人:谈到智能体工作流,“强化学习之父”Richard Sutton有句名言:“纯粹的算力终将胜过人类的巧思”。你专注做智能体工作流,难道不是和这个观点相悖吗?


吴恩达:Sutton的《苦涩的教训》影响很大,写得也很好。我先明确:我是支持规模化的。我创立Google Brain时,给团队的首要使命就是规模化——把神经网络做大、喂入大量数据。可以说我是AI规模化时代最早的推动者之一,当时很多人还觉得这很奇怪。也正是因为Google Brain以规模为核心基因,才诞生了Transformer架构,它是史上扩展性最强的神经网络架构,也推动了生成式AI革命。所以我真的相信规模化。但这不代表只靠规模化就能实现所有目标。在不同阶段,规模化与注入其他知识需要取得平衡。规模化规律确实存在,扩大系统和数据能较可预测地提升效果,这也成为融资的有力理由。但正因为规模化有其价值,它被过度炒作了——它很有价值,但没被吹得那么神。而智能体工作流,可以在规模化大模型的基础上,再注入其他类型的知识,构建更可靠、性能更强的工作流。


大模型Scaling Law结束了?


主持人:那你现在真的认为规模化的时代已经结束了吗?


吴恩达:不,我不认为规模化时代已经结束。只是难度变得越来越大。AI的进步可能呈指数级发展,但推动这种指数级进步所需的资金也同样呈指数级增长。用指数级增长的投入换来指数级快速的提升,这并不算差,而且非常有价值,因为研发成本可以分摊到大量用户身上。我认为规模化仍然有更多潜力可挖,但在现阶段,它不再是提升AI的唯一途径。


主持人:什么情况会改变你对规模化的看法?


吴恩达:你是说什么会让我放弃规模化?如果在很长一段时间内,进一步扩大模型规模都不再带来收益,那我才会改变看法。


但有一个重要的补充:就像过去几十年摩尔定律推动技术进步,但期间不断有不同技术迭代,才能让半导体持续变强。生成式AI早期的路径很简单:获取更多数据、训练更大的模型。这正是十多年前Google Brain设立时的目标。但现在,AI模型几乎已经读完了整个公开互联网,这种简单的规模化方式不再有效。因此现在很多团队都在大力做合成数据生成,投入更多人力工程,研究不同的强化学习方案。所以即便规模化仍在带来收益,过去两三年里,实现规模化的具体方式已经发生了非常显著的转变。


主持人:从另一个角度看,一个更聪明的模型,能否直接胜过精巧的工作流?


吴恩达:理论上是可以的。我也希望事情这么简单,但在实践中,它比大多数人想象的要难得多。随着模型越来越智能,比如GPT-4.5、Gemini 3、GPT-5等,我们确实越来越能直接给大模型一套工具,然后放手让它去执行任务。比如给它读写文件系统的权限,让它清理硬盘冗余文件,效果确实非常惊人。但对很多工作流来说,可靠性还不足以投入生产环境。所以虽然更聪明的模型很好,但在大量实际商业场景中,团队还是会把工作流拆解、分步实现,以保证稳定可用,让系统可以稳定运行成千上万次。


随着模型越来越智能,我们确实在逐步放开限制,减少“护栏”。我们半年前做的系统,约束和脚本会更多;现在我们会不断拆掉脚手架,不再给非常详细的分步指令,而是让模型自己做决策。比如深度研究智能体,一两年前我们还会规定:搜索多少次、下载多少页面、如何总结。现在的AI更有能力自己决定要不要继续搜索、要不要总结。我经常会把半年前、一年前的原型系统里的指令删掉,让模型自己判断。但这方面还有很长的路要走。这类方式在深度研究这类场景可行,就算漏引文献也问题不大;但对很多高风险企业级场景,直接放任AI自主行动,可靠性差距仍然比一些人认为的要大,尽管这个差距正在缩小。


主持人:我想问一下你关于Yann LeCun与Demis Hassabis之争的看法。Yann LeCun认为,人类智能是专业化的,而非通用智能;Hassabis则认为大脑是通用的学习系统。你站在哪一边?


吴恩达:我不觉得这两者有矛盾,可能是我没理解到分歧点。在我看来,人类大脑(可以看作非人工的AGI)最了不起的地方,是它的可塑性与学习能力。我理解的AGI,不应该是那种“什么都已经知道”的AI,那既困难也不现实。人类大脑在经济活动中如此有价值,原因之一就是它能学习去做新的事情。正是通过学习,我们才获得了高度专业化的能力。比如一个大脑可以通过数学博士训练,去解决极难的数学问题,最终成为高度专业化的智能;但同一个大脑,如果接受不同训练,也可以成为国际象棋大师、网球高手。所以人类大脑的“通用”,不在于它生来什么都懂,而在于它能适应、能学习极广泛的事情。


主持人:这听上去你其实更偏向Yann LeCun?


吴恩达:是的。当年我创立Google Brain时,有个理念对我影响很大,现在大家提得少了:人类的学习可能来自单一的学习算法。我们的DNA长度有限,携带的信息不多,但DNA编码出了大脑的生理结构,而大脑是一个相当通用的学习算法。正因如此,大脑才能学会做数学博士、骑摩托车、用电脑、在呼叫中心工作。正是这套通用学习算法,让大脑可以通过学习,在几乎任何领域变得专业。是这种学习能力,让智能显得“通用”。


主持人:几个月前有人说,谷歌注定失败,因为他们只是把AI嫁接在旧搜索上,而OpenAI是从头构建。你认为谷歌能把旧体系和新技术结合起来吗?竞争已经开始了,这难道不令人激动吗?


吴恩达:Sam Altman曾是我在斯坦福的学生,我在谷歌也有很多朋友。我既支持OpenAI,也支持谷歌。回顾技术变革的历史,每当出现颠覆性技术时,有时是新入局者胜出,有时是老牌企业胜出,双方都有机会。这场博弈还远未结束。以互联网变革为例,谷歌是伴随互联网崛起的公司,但微软、苹果这些早在互联网出现前就成立的老牌企业,同样发展得很好。显然,AI对谷歌这类现有企业极具颠覆性,但谷歌的应对做得不错。Gemini 3是非常出色的模型,我认为它优于ChatGPT。我自己经常同时使用Gemini、ChatGPT、Claude等多款模型。


主持人:你多次谈到AGI。五年前,能解决任何编程问题都会被称作AGI,如今我们已经实现了,却只把它当成工具。


吴恩达:其实我并不喜欢谈论AGI,但其他人讨论得太多、炒作得太厉害。作为行业从业者,我认为AGI被严重过度炒作了。至少在大众认知里,AGI是AI达到人类水平的通用智能,我们离这一步还非常遥远。我希望能实现AGI,但现实地说,我们还需要几十年甚至更久。认为再过几个季度就能实现AGI,这是不可能的,除非重新定义、降低AGI的标准。


AI发展史上曾出现过几次AI寒冬,正是因为人们过度炒作,期望过高无法兑现,最终投资和关注度崩塌,这对行业伤害很大。如今AI效果很好、价值巨大,几乎没有什么能阻挡它的发展势头。我真正担心的问题之一,就是过度炒作导致失望,进而引发泡沫破裂,这对世界和AI领域都不是好事。因此,给AGI降温,是为AI行业实现更可持续发展打下基础。


主持人:那你认为我们是在移动目标门槛吗?也就是说在降低AGI的判断标准?


吴恩达:我不记得有靠谱的团队宣称已经实现AGI。我记得很多团队说AGI很快就会到来,但三年前他们也没说自己已经做成了。到目前为止,还没有人真正做到。


如果非要说变化,反而是很多团队在试图降低AGI的定义门槛。AGI原本的标准——能完成人类任何智力任务,是非常高的标准,我们远未达到。但如果团队提出更容易实现的定义,就可以宣称更快达成。我不介意如何定义AGI,但问题在于,大众心中的AGI就是类人通用智能。当不同团队用不同定义套上“AGI”这个词时,这个词就失去了意义。就像“蓝色”本来有明确指向,如果所有人把各种颜色都叫作蓝色,这个词就不再有共识。现在AGI就是这种情况。有人用狭隘的技术定义宣称AGI即将到来,而公众却理解为“两年内AI就会拥有人类智能”,这与事实不符。


主持人:那我们现在到底处在什么阶段?实现难度重要,还是实用价值更重要?


吴恩达:我认为实现细节和工程难度非常重要。比如Anthropic推出Claude Code及其SDK,就是为了让大家能更好地驾驭模型能力。提示词如何构造、提供哪些工具、整体框架如何设计,这些细节至今仍然至关重要。


举个小例子:当前模型已经非常智能,调用工具的能力也在变强,但如果给大模型太多工具,会占用大量上下文窗口,模型更容易出错,调用错误的API或工具。哪怕到了2026年,这些工程细节依然影响巨大。很多团队使用MCP(模型控制协议),如果MCP服务器里工具列表太长,会大量消耗上下文,模型反而无法有效选择。这就需要上下文工程和合理的框架来让决策更顺畅。


主持人:Anthropic预测持续学习(continual learning)会在2026年解决,你是否同样期待?


吴恩达:我非常期待持续学习能被攻克。如果2026年真的完全实现,那会是惊人的突破。我认为我们会取得进展,持续学习非常重要。人类孩子学走路,只需要跌倒几次就能学会;而强化学习往往需要数百万次模拟。


主持人:我们只能靠暴力训练吗?


吴恩达:暴力训练的问题在于,人类智能的核心是学习算法的通用性,这让人类能极快地学会新事物。人类员工沟通后就能上岗工作,这非常有价值;但如果训练AI完成某项任务需要花费百万美元,对很多任务来说就不划算。如果样本效率不重要,那只有极少数几家公司能负担得起训练前沿模型。


持续学习当前最大的瓶颈是什么?


主持人:开源、开放权重模型与闭源模型的格局会如何演变?我们会走向AI寡头垄断吗?


吴恩达:我不希望出现那样的未来。以移动开发平台为例,如今创新空间已经不大,部分原因就是存在少数守门人——在美国,做移动端开发需要获得iOS或Android的许可,封闭平台限制了很多创新。我们AI行业很多人都希望,未来不会出现只有两三家守门人掌控前沿AI的局面。我希望所有人都能在大模型之上自由创新,开源与开放权重模型是避免出现少数守门人的关键。如果我们能保住AI行业如今比移动领域更高的创新自由度,就会涌现更多发明与应用,整个社会也会因此更加丰富。


主持人:目前也有一些关于非文本表示的研究,但现在大部分记忆还是基于文本。而且我们搭建的这些记忆系统,基本都不会去更新大模型本身的权重,这是不是意味着我们还缺少关键的一块拼图?持续学习当前最大的瓶颈是什么?


吴恩达:我认为我们还没有找到正确的思路,或者说还不确定什么才是正确的方向。目前只有一些看上去有希望的想法,但我还没来得及验证,也不确定能不能成。这就像在问:一个还没解决的重大科研问题,瓶颈到底是什么?因为路径不清晰,我甚至没法明确说出具体瓶颈是什么——我们就是还不知道该怎么做。


主持人:AI知名学者Eliezer Yudkowsky认为,如果有人造出AGI,人类会灭亡;但每年因为癌症、衰老、疾病死去的人数以百万计,而AI可能解决这些问题。你认为哪种风险更大?


吴恩达:我读他的很多观点时,经常理不清逻辑,有些论述在我看来循环性太强,我甚至不知道该怎么反驳。我认为AI今天已经在为世界带来巨大的正向价值,任何能加速AI进步的事,都会让生活变得更好、拯救更多生命、让更多人富裕、摆脱贫困。AI的整体净收益远大于潜在危害。确实存在一些有害的应用场景,我们应该明确并清除这些场景。但就目前而言,我非常确信:推动AI进步对人类是有益的。


主持人:未来是不可预测的,对吧?我们是否需要更多AI安全工具?


吴恩达:未来当然不可预测,但这不代表我们没有高度确信的趋势。让计算机变得更智能,显然是一件好事;让智能触手可及、实现民主化,也非常重要。因为世界上最昂贵的东西之一,就是“智能”——请一位优秀的医生、优秀的老师,成本都很高。当然,我们应该致力于让AI系统更可靠、降低风险。同时,大家身边的人大多在专注于能创造价值的事。很多人对硅谷有刻板印象,觉得这里的人只在乎钱,这完全是错的。我认识很多行业里的朋友,确实有极少数人只在乎利润,但那是非常小的一部分。我认识十多年的很多同行,是真的想做正确的事。他们非常重视安全,认真对待负责任的AI,会坐下来认真思考AI系统可能出现的各种问题,并尽力降低风险。那种“硅谷从业者只为利益不择手段”的印象,是完全不符合事实的。不可否认,面对几十亿美元的诱惑,确实有少数公司会动心,但那真的只是极少数。


开源时代结束了吗?


主持人:开源时代结束了吗?


吴恩达:开源现在发展得很好。一个有意思的现象是,目前很多顶尖的开源、开放权重模型来自中国。回顾过去几年,每年可用的开源/开放权重模型都在快速增长,所以我认为开源生态非常强劲。同时,闭源方案也在快速发展,但这没关系,重要的是开源选择也在同步强劲增长。


主持人:回看AI发展的现阶段,你心里在想什么?


吴恩达:我希望赋能每一个人去构建AI。作为开发者,我再也不想手动写代码了,我希望AI尽可能帮我写代码。AI给软件工程带来的效率提升是非常明显的。但很多人没意识到的是:不只程序员,所有人都会因为会用AI、会用AI搭建工具而受益。我在团队里已经看到这种现象:懂AI的营销人员,效率远超不懂AI的同行;我旗下AI基金的CFO,会借助AI写代码,工作效率也远高于不会用AI的CFO。


AI工具,尤其是用AI构建软件,将会是每个人都必须具备的重要新能力。有人拥抱这些能力,就能大幅提升生产力;也有人不愿接受,就可能被甩在后面。对此我其实挺担心的。一个很大的挑战是:大学系统的适应速度偏慢,很多课程还在培养适应2022年岗位的学生,而很多当年的岗位现在已经不存在了。企业现在极度缺乏懂AI的人才——不只是程序员,而是营销、招聘、财务等各行各业的人。把教育体系转向让学生和成年人都能使用这些工具、大幅提升效率,需要巨大的转型。但现阶段要真正做到,我认为仍然非常困难。


主持人:程序员会失业吗?


吴恩达:不使用AI的程序员,处境会很艰难;而真正精通AI的程序员,生产力极高,市场上根本供不应求。说他们会彻底消失有点夸张。


大多数岗位不会消失,但有句话说得很对:AI不会取代人,但会用AI的人会取代不会用AI的人,这在很多领域都成立。坦白说,确实有少数岗位会被AI完全自动化。比如很多翻译人员、配音演员,他们的工作面临较大冲击。对于这些会被完全自动化的少数岗位,我深表同情。作为AI从业者,我有责任帮助他们掌握新技能、重返职场,找到有意义的新工作。但对绝大多数岗位而言,AI只能完成部分工作。比如放射科,AI自动化的进程比人们预想的慢得多;法律行业受监管保护,完全取代人类律师也很难。但不用AI的律师,效率会远低于用AI的同行,因为AI在法律检索等方面表现极佳。关键在于:如果AI能完成一项工作的30%,剩下70%仍需要人来做,但这个人必须会用AI,否则就会在效率上落后。


主持人:你能预测哪些工作最终会消失吗?


吴恩达:明确会消失的,主要是那些几乎100%的工作内容都能被自动化的岗位,比如大量呼叫中心工作、翻译、配音演员等。但绝大多数工作都复杂且多面,AI擅长文本处理,在非文本领域能力有限。很多研究将工作拆解为具体任务后发现,AI通常只能自动化30%-40%的工作,剩下60%-70%仍需人类完成。只有极少数岗位,AI能覆盖几乎全部工作,这些岗位才会面临危机,但这只是很小一部分。


主持人:你2017年离开百度,当时的决定原因是什么?


吴恩达:我在百度的工作经历非常愉快。很多人好奇我从谷歌大脑到百度,再到创立AI基金和其他项目的原因。当时我负责百度的AI团队,团队非常优秀,在优化在线广告、网站等核心业务上做得很好。我看着组织架构图意识到,即便我离开,这支优秀的团队也能运转良好。我发现自己工作中最有乐趣的部分,是创建新业务板块。比如我带领的百度自动驾驶团队,至今在中国发展得很好;我负责的智能音箱团队,如今也表现出色。虽然我能为母公司创造利润,但我真正投入的是从零到一创建新业务。我觉得跳出大公司,创立AI基金这样的风投工作室,从零开始打造企业,或许能做得更好。因此我离开百度,创立了DeepLearning.ai,继续深耕AI教育,赋能更多人使用AI;同时运营AI基金,孵化初创企业。


中美AI发展的差异


主持人:你认为中国现在在AI领域领先吗?


吴恩达:目前美国在闭源大模型方面仍处于领先地位,但中国在开源、开放权重模型领域已经大幅领先美国。过去一两年,中国推出了大量顶尖的开源模型(如DeepSeek、Qwen系列等),全球开发者可免费下载使用,生态活力极强。中美都是AI领域的巨头,中国凭借激烈的市场竞争、快速的技术传播和强大的开源生态,拥有巨大的发展势能。两国各有优势,整体处于并跑、互补的状态,而非一方绝对领先。


主持人:你对自己当年的选择不后悔吗?


吴恩达:我和中国团队一起做过一些工作,那段经历很棒。现在我和DeepLearning.ai、AI Fund、Landing AI等团队合作也非常开心。我对现在做的事情很满意,没有遗憾。


主持人:单纯从规模和动能来看,中国是不是更有活力?


吴恩达:中国有很多优势,美国也有很多优势。


主持人:接下来我们可以期待你的公司带来什么?


吴恩达:我希望赋能每一个人用AI构建东西。我们一直专注于帮助开发者用上最新工具,未来也会继续做这件事。除了支持AI开发者发展职业、成长,我还想把范围扩大,让开发者和所有人都能用AI创造价值。这是DeepLearning.ai的重心。我离开百度的一个原因是:有些业务适合在谷歌、百度这样的大公司内部做,但有些业务不适合,比如关税合规这类事情,互联网公司不会重点关注。而AI Fund可以孵化各种各样的创业公司,业务类型非常多元,我对此很期待。另外,AI Aspire是我和朋友新启动的项目,和贝恩等机构合作,为大型企业提供AI咨询。想要真正推动AI落地,开发者很重要,个人用户很重要,大型企业同样关键。我们花了很多精力,帮助大企业用AI创造真实价值、获得竞争力。


主持人:你还把自己定位成AI传播者、沟通者,为什么?


吴恩达:这触及到我最核心的价值观。我做事有两个最高优先级:第一,让人类变得更强大。这是我做研究员、在斯坦福当教授的原因——通过研究、发明新技术,推动前沿发展,让人类更强大。第二,帮助他人实现他们的梦想,而不是把我的梦想强加给别人。如果我们能给别人工具和技能,他们就更有机会实现自己的梦想。这也是我做教育一直以来的动力。


主持人:回顾你的人生,如果时光可以倒流,你会改变什么决定吗?


吴恩达:当然有很多事我会换一种做法。我很幸运,做对了一些决定,但也做错了很多。比如是否该聘用某个人、是否该坚持某个项目、是否该更努力而不是放弃。但整体上,我接受这一路的经历。


主持人:如果关于世界本质,你只能弄明白一个问题,你会选什么?


吴恩达:我希望能理解智能的本质。


主持人:你是指意识吗?物质如何在人脑中变成意识?


吴恩达:其实不是意识。意识是重要的哲学问题,但我不懂什么是意识。哲学上的意识是指“自我感知”,但你无法确认我是否真的有意识,我也无法确认你有。我们只是出于礼貌,假定彼此都有意识。因为意识无法被测量,所以它是哲学问题,不是科学问题。而我更关注科学问题:智能的本质到底是什么?人脑或其他生物大脑,究竟是通过什么机制,表现出如此广泛的智能行为?它到底是怎么运行的?很多人不知道,在创立Google Brain之前,我花了大量时间和神经科学家朋友交流,读了成堆的神经科学论文,最后得出结论:神经科学目前基本还不知道大脑是如何工作的。所以我放弃了从神经科学直接造智能的路线。但我很确定,智能不只是一个靠规模放大的Transformer,肯定还有更多东西。我真心希望能搞懂它。


主持人:包括推理的本质吗?


吴恩达:对,推理是智能的一部分。能真正理解推理如何工作,也会非常迷人。


主持人:为什么西方世界看起来这么不快乐?


吴恩达:我不认同“西方世界普遍不快乐”这种概括。你不会从一杯水里寻找快乐,但水让你更健康。同样,把快乐寄托在AI上是一种误区。AI能支撑我们、帮助我们创造、赋予我们技能,但快乐更多来自内心,而不是我们创造的工具。真正的快乐,更多来自努力帮助他人的过程。我希望通过AI工作帮助别人,也在做对他人有用的工作中获得了很多快乐。


参考链接:


https://www.youtube.com/watch?v=4vzmTKUFtxg&t=57s

AI原生产品日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定