萨姆·奥特曼的职业生涯始终被“不诚实”与“操纵人心”的指控缠绕。他通过不断调整“造福人类”与“安全优先”的叙事策略来吸引投资和人才,但在权力与资本诱惑下,屡次违背承诺、重写规则,其诚信度引发广泛质疑。 ## 01. 调查疑云与硅谷权力 - 2023年11月被闪电解雇后,由奥特曼沟通选定的新董事会主导的调查并未形成书面报告,仅以口头形式汇报,理由是“没有必要形成正式书面文件”。 - 调查重点并非厘清其诚信问题,而是排查是否存在明确违法行为,并在此标准下认定其可继续担任CEO,此举引发内部持续不满。 - 奥特曼在硅谷资本网络中控制力极强,投资人若押注其竞争对手会被排除在后续项目之外,其权力还延伸至复杂的私人共同投资关系。 ## 02. 理想章程的背叛与分裂 - OpenAI创立初期承诺非营利与“造福人类”,其章程甚至包含若其他安全团队率先实现AGI,OpenAI应停止竞争并协助的“反商业”条款。 - 2019年与微软达成10亿美元投资时,合同新增条款赋予微软阻止OpenAI合并的权力,被联合创始人阿莫迪视为对章程80%的背叛,直接导致其与多名核心成员离开并创立竞争对手Anthropic。 - Anthropic目前年化收入已突破300亿美元,实现对OpenAI(250亿美元)的反超。 ## 03. 安全承诺与现实落差 - 奥特曼对外持续强化“安全优先”叙事,曾承诺投入“累计计算资源的20%”(约超10亿美元)给内部“超级对齐团队”以解决AI失控风险。 - 但多位知情者透露,实际分配给该项目的计算资源仅占公司总算力的1%至2%,且大部分实验“运行在性能最弱、最老旧的集群上”。 - 董事会曾发现奥特曼在GPT-4功能安全审批和微软擅自发布产品等关键事项上存在隐瞒与欺骗行为,内部警告称公司已偏离使命,将安全置于末位。 ## 04. “现实操控”的叙事策略 - 奥特曼被同行形容拥有近乎“心灵控制”的说服力,能同时让不同立场的人相信各自的优先级就是他的优先级。 - 他会根据听众调整叙事,例如曾向美国情报官员声称中国有“AGI曼哈顿计划”以争取政府资助,但被调查官员认定“只是一个推销手段”。 - 前同事评价他“设计的制度看似会约束未来的自己,但当约束生效时,他会毫不犹豫地重写规则”,其行为被类比为“一个AGI挣脱约束”。 ## 05. 多方指控与人格质疑 - 已故同学亚伦·斯沃茨曾警示朋友奥特曼是“反社会人格者”,微软高管直言其惯于“歪曲事实、重新谈判、违背协议”。 - 《纽约客》获取了前首席科学家伊利亚整理的逾70页内部备忘录和Anthropic CEO阿莫迪的200多页私人笔记,均记录了对奥特曼行为的多方质疑。 - 文章核心质疑在于,奥特曼利用人们对AI末日的恐惧,说服世界他才是最适合掌控AGI的人,但其行为模式使其诚信度与是否值得信任被打上巨大问号。
百人揭秘,“千面人”奥特曼
2026-04-07 23:01

百人揭秘,“千面人”奥特曼

本文来自微信公众号: 智东西 ,编译:佳扬,编辑:云鹏,作者:徐 佳扬


“一切更像是围绕融资不断变换的叙事策略”。


智东西4月7日消息,据《纽约客》报道,纵观OpenAI CEO萨姆·奥特曼的职业生涯,“不诚实”与“操纵人心”的指控始终如影随形。在资金与权力的诱惑面前,他多次通过文字游戏、暗箱操作等方式,突破自己此前许下的各项承诺。


这一指控并非空穴来风,奥特曼的同学亚伦·斯沃茨,在2013年自杀前不久曾向几位朋友警示,称奥特曼“是个反社会人格者。他什么都做得出来。”


微软一位高管则直言,奥特曼惯于“歪曲事实、歪曲真相、重新谈判、违背协议”;前OpenAI研究员温赖特也评价道,“他设计的制度,看似会约束未来的自己,但当约束真正生效时,他会毫不犹豫地重写规则”。


奥特曼的说服能力甚至被同行形容为“现实操控”,一位曾与其共事的科技高管表示:“他的说服力近乎‘心灵控制’,远超常人。”


《纽约客》耗时18个月,深度访谈了一百多位熟知奥特曼商业运作逻辑的核心知情者,还独家获取了两份此前从未对外披露的关键文件。


一份是前首席科学家伊利亚·苏茨克维尔整理的逾70页内部备忘录,汇集了Slack聊天记录、人力资源档案及管理层会议纪要,直指奥特曼的不当行为;


另一份则是现任Anthropic CEO达里奥·阿莫迪在OpenAI任职期间留下的200多页私人笔记,详细记录了他对公司治理及奥特曼行为的观察与质疑。


在多方知情者的交叉叙述中,奥特曼的人物形象愈发矛盾:其一,是深入骨髓的取悦欲,驱使着他渴望在任何场合都成为人群中备受青睐的焦点;


其二,则是对欺骗行径可能引发的连锁恶果,始终抱持着一种近乎反社会人格的漠然。


纽约客用AI做了一张图,以形象地描述文章所传达的意思:


01.


“没有必要形成正式书面文件”


2023年11月那场闪电式解雇后,独立新董事会介入监督调查。但新当选的成员包括前哈佛大学校长劳伦斯·萨默斯、前Facebook首席技术官布雷特·泰勒,均是在与奥特曼密切沟通后确定的人选。


2024年3月,OpenAI宣布“免除奥特曼责任”,但并未公布完整调查报告,仅在官网发布了一份约800字的声明,承认公司内部曾出现“信任破裂”。多位参与调查的人士透露,整个调查并未形成书面报告,结论仅以口头形式向董事会成员汇报,并主要在萨默斯和泰勒之间沟通。


“审查并没有得出‘萨姆是品行典范’的结论,”一位接近调查的人士表示。相反,调查的重点似乎并不在于厘清其诚信问题,而更倾向于排查是否存在明确的违法行为;在这一标准下,奥特曼被认定可以继续担任CEO。知情人士称,不形成书面报告的决定,部分参考了萨默斯与泰勒私人律师的建议。对此,萨默斯拒绝置评;泰勒则表示,基于口头汇报内容,“没有必要形成正式书面文件”。


信息披露的缺失引发了内部持续不满。多位现任及前任员工表示对此“震惊”。奥特曼则称,相信所有新任董事都已听取相关口头简报。但一位直接知情人士反驳称:“这完全不属实。”部分董事会成员也私下表示,围绕调查真实性的争议仍在发酵,甚至可能“需要再次启动调查”。


缺乏书面记录的直接后果,是相关指控的外部影响被显著削弱。与此同时,奥特曼在硅谷的影响力反而进一步巩固。多位曾与其共事的投资人透露,他在资本网络中的控制力极强:一旦投资人押注OpenAI的竞争对手,往往会被排除在其后续项目之外。“如果你投了他不喜欢的项目,就很难再进入他的圈子,”一位投资人直言。


这种权力不仅来自公司本身,也延伸至其庞大的个人投资版图,甚至渗透到私人关系层面。多位知情人士称,奥特曼与部分前任伴侣存在复杂的共同投资或资金往来关系,如共同管理基金、联合领投等。在硅谷,这类“关系—资本”交织并非孤例,但其所形成的绑定效应不容忽视。“这会带来高度依赖,”一位接近奥特曼的人士表示,“很多时候,这种依赖是长期甚至近乎终身的。”


02.


从非营利走向营利


“一切更像是围绕融资不断变换的叙事策略”


OpenAI创立之初对外反复强调:不会为了速度牺牲安全,其章程甚至将“造福人类”写入具有法律约束力的义务。


在这一叙事下,奥特曼向早期员工承诺,OpenAI将始终保持纯粹的非营利属性。为了加入,公司工程师普遍接受大幅降薪;资金则主要来自捐赠,包括来自“开放慈善”(Open Philanthropy)的3000万美元。这家机构是有效利他主义的重要资助方,长期支持如向贫困地区发放蚊帐等项目。


阿莫迪多年来持续记录奥特曼与布洛克曼的决策与行为,并将相关内容整理成一份题为《我在OpenAI的经历》(副标题“私密:请勿分享”)的文档。一份超过200页、围绕阿莫迪整理的材料——包括个人笔记、内部邮件与备忘录,已在硅谷小范围流传,但此前从未对外公开。


早在2018年,阿莫迪就开始质疑创始团队的动机。“一切更像是围绕融资不断变换的叙事策略,”他在笔记中写道,“OpenAI需要一份清晰的边界说明:它究竟要做什么、不做什么,以及它如何让世界变得更好。”彼时,公司已经提出“确保通用人工智能造福全人类”的使命宣言,但在阿莫迪看来,这一表述对具体决策意味着什么,依然模糊不清。


也正是在这一背景下,他在2018年主导起草公司章程时,力推加入一项近乎“反商业”的核心条款:如果其他“价值观一致、以安全为先”的团队率先接近AGI,OpenAI应停止竞争,转而提供协助。按照这一逻辑,若Google率先实现安全的通用人工智能,OpenAI甚至可以解散,并将资源转移给对方。在传统商业框架下,这几乎是一项不可想象的承诺;但在当时的OpenAI内部,这恰恰被视为其区别于典型科技公司的根本标志。


然而,这份理想主义的章程,在2019年春季遭遇了严峻考验。当时,OpenAI正与微软洽谈一笔高达10亿美元的投资合作。彼时,内部安全团队已对交易条款产生担忧,担心外部资本会凌驾于既有道德承诺之上。阿莫迪向奥特曼提交了一份安全优先级清单,将保留“合并与协助”条款列为首要条件。奥特曼最初表示同意,但在交易临近落地时,合同中却新增条款,赋予微软阻止OpenAI进行任何合并的权力。


“章程的80%被背叛了。”阿莫迪回忆称。当他当面质询时,奥特曼否认该条款存在,直到他逐字朗读并指向合同文本,才由其他同事确认。奥特曼事后表示对此没有印象。此后,双方矛盾持续升级:包括奥特曼曾指控阿莫迪兄妹“策划政变”,又在对质中否认说过相关表述。


裂痕最终走向分裂。2020年,阿莫迪、其妹妹丹妮拉以及多名核心成员离开OpenAI,创立了Anthropic,成为今日最直接的竞争对手之一。


今天,Anthropic在一篇博客中宣布,其年化收入(指ARR,根据近期实际收入推算出的全年收入规模)已突破300亿美元(约合人民币2063.7亿元),实现对OpenAI的反超,后者最新的年化收入为250亿美元(约合人民币1718.52亿元)。


03.


安全项目“运行在性能最弱、最老旧的集群上”


奥特曼此后持续强化OpenAI“安全优先”的对外叙事,尤其是面对潜在招聘对象时。2022年末,四位计算机科学家发表论文,聚焦“欺骗性对齐”风险:即当模型足够先进时,可能在测试阶段刻意“表现良好”,而在实际部署后转而追求自身目标。这类设想一度被视为科幻,但已有实验在特定条件下观察到类似迹象。


论文发布数周后,奥特曼主动联系了其中一位作者——加州大学伯克利分校的一名博士生,表示自己对AI失控风险的担忧正在加剧,并考虑投入10亿美元解决这一问题,甚至设想设立全球性奖项以推动研究。尽管这名学生此前“听说过一些关于萨姆的传闻”,但最终仍被这一承诺打动,选择休学加入OpenAI。


转折出现在2023年春季的内部讨论中。奥特曼不再提及外部奖项计划,转而推动组建内部“超级对齐团队”。公司随后发布声明称,将拿出“至今累计计算资源的20%”支持该项目,按业内估算,这一投入规模可能超过10亿美元。声明同时强调,如果对齐问题无法解决,通用人工智能(AGI)可能带来“人类失去控制,甚至灭绝”的风险。与Ilya共同领导该项目的莱克直言,这一承诺“在留住顶尖人才方面非常有效”。


但多位参与者的说法显示,承诺与实际投入之间存在明显落差。四位与该团队直接或间接相关的人员透露,最终分配到“超级对齐”的计算资源仅占公司总算力的1%至2%。一位研究员进一步指出,大部分相关实验“运行在性能最弱、最老旧的集群上”,而更先进的硬件则被优先用于商业化项目。(OpenAI对此说法提出异议。)莱克曾就资源问题向时任首席技术官Mira Murati反映,但得到的回应是不要继续追究——这项最初的投入承诺,从一开始就难以落地。


同一时间,OpenAI的高管与董事会成员已逐渐意识到,奥特曼的隐瞒与欺骗行为,可能正悄然威胁着公司产品的安全底线。


2022年12月的一场内部会议上,奥特曼向董事会成员作出明确保证,即将推出的GPT-4模型中,多项核心功能均已通过安全委员会的审核批准。然而,董事会成员、人工智能政策专家托纳随即提出查看相关审批文件的要求,一番核查后发现,其中两项最具争议的功能:允许用户针对特定任务对模型进行“微调”,以及将模型部署为个人助理,实则并未获得安全委员会的批准,奥特曼的表述与实际情况严重不符。


此外,在奥特曼长达数小时的董事会汇报中,始终绝口未提一件关键事:微软在尚未完成必要安全审查的情况下,已在印度市场擅自发布了ChatGPT的早期版本。


GPT-4发布后,莱克给董事会成员发了一封电子邮件。他在邮件中写道:“OpenAI已经偏离了其使命。我们把产品和收入放在首位,其次是人工智能能力、研究和规模化,而将协调和安全放在最后。”


04.


“中国已经启动了一个


‘通用人工智能曼哈顿计划’”


根据听众的不同,奥特曼会用类比来鼓励人们加快步伐或保持谨慎。


在2017年夏天与美国情报官员的一次会议上,他声称中国已经启动了一个“通用人工智能曼哈顿计划”,而OpenAI需要数十亿美元的政府资助才能跟上步伐。当被追问证据时,奥特曼说:“我听说过一些事。”在其中一次会议后,他告诉一位情报官员,他会提供证据。但他最终没有兑现承诺。这位官员在调查了所谓的中国项目后得出结论,没有证据表明该项目存在:“这只是一个推销手段。”但奥特曼表示,他不记得自己曾以这种方式描述过中国的努力。


奥特曼在Y Combinator(著名软件工程师保罗·格雷厄姆联合创办的“创业孵化器”)首批创业者中的一位同班同学是亚伦·斯沃茨,一位才华横溢却饱受困扰的程序员,他于2013年自杀身亡,如今在许多科技圈内被奉为一位智者。斯沃茨在去世前不久曾向几位朋友表达了对奥特曼的担忧。“你必须明白,萨姆永远不可信赖,”他告诉其中一位朋友,“他是个反社会人格者。他什么都做得出来。”


“他歪曲事实、歪曲真相、重新谈判、违背协议,”微软一位高管说道。今年,在OpenAI重申微软为其"无记忆AI模型"独家算力提供商的同一天,它宣布了与亚马逊高达500亿美元的协议,由后者担任其"Frontier"AI Agent平台的独家经销商。微软随后公开暗示可能提起法律诉讼。


与外界对“技术领袖”的刻板印象不同,多位接近奥特曼的人士指出,他并非典型的工程型天才,在编程或机器学习领域也不以深厚功底见长。部分工程师回忆,他甚至会混淆基础技术概念。


OpenAI的建立,很大程度上依赖其对资本与顶尖人才的整合能力。这更像是一位商业操盘手,而非技术发明者。真正引人注目的,是他对复杂利益关系的整合与说服能力:他可以同时让持不同立场的工程师、投资人乃至公众,相信各自的优先级同样是他的优先级;当这些人试图阻止他推进下一步时,他往往已经在时间差中完成布局。“他设计的制度,看似会约束未来的自己,”前OpenAI研究员温赖特评价道,“但当约束真正生效时,他会毫不犹豫地重写规则。”


这种能力,甚至被一些同行形容为“现实操控”。一位与其共事过的科技高管表示:“他的说服力近乎‘心灵控制’,远超常人。”在人机博弈的经典假设中,人类往往难以战胜高性能AI;而在他看来,奥特曼在内部权力博弈中的表现,某种程度上“像是在观看一个AGI挣脱约束”。


不少受访者将他视为这一代最强的“叙事推销员”。他的偶像乔布斯曾被认为拥有“现实扭曲力场”,但即便是乔布斯,也未曾将产品选择上升到道德甚至生死的层面。早在2008年,Paul Graham就对年仅23岁的奥特曼做出判断:即便把他“空投到食人族岛屿”,五年后也会成为统治者——这种评价并非基于当时的成就,而是源于其极强的意志力与适应能力。


05.


结语:奥特曼还值得信任吗?


这篇调查报道认为,OpenAI多年来以“造福人类”的宏大叙事构建社会信任,以“安全优先”的郑重承诺吸纳顶尖人才,但这一切更像是围绕融资需求不断调整的叙事策略,而非坚守不变的核心原则。


在文章的叙事中,奥特曼并非传统认知里深耕技术的天才,而是一位精通推销、极具说服力,且为了攫取权力、募集资金可以随意打破规则的“商人”。


他最精妙的话术,莫过于精准利用了人们对AI末日的恐惧,进而说服整个世界:既然这项技术有可能毁灭人类,那么他,就是那个最适合将其研发出来、掌控起来的人。


当理想叙事与商业利益碰撞,奥特曼的诚信度也随之打上问号——这样的他,还值得行业与公众信任吗?

频道: 书影音
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定