给OpenAI 造机器人的人,看见了可怕的未来
2026-03-08 17:09

给OpenAI 造机器人的人,看见了可怕的未来

本文来自微信公众号: 极客公园 ,作者:桦林舞王,编辑:靖宇,原文标题:《给 OpenAI 造机器人的人,看见了可怕的未来》


当一个负责造机器人的人,因为担心机器人杀人而辞职,这件事本身就说明了很多问题。


2026年3月7日,当我看到Caitlin Kalinowski辞职的消息时,第一反应不是震惊,而是——「终于有人用行动说话了」。


Kalinowski是OpenAI的硬件与机器人工程负责人,2024年11月才刚刚加入,不到一年半就选择离开。


她的理由直接而沉重——对OpenAI与美国国防部签署合同后可能引发的国内监控和自主武器应用,感到无法接受。


这不是一次普通的人才流失。这是一个亲手参与构建AI躯体的人,用辞职告诉世界:她不愿意为自己造出的东西,负责它可能会做出的事。


要理解Kalinowski的离开,必须先回到大约一周前发生的事。


2月28日,Sam Altman宣布OpenAI与美国国防部达成协议,允许五角大楼在其分类网络中使用OpenAI的AI模型。消息一出,舆论炸锅。


有意思的是,这份合同的「参照物」是友商Anthropic。


就在此前不久,Anthropic拒绝了五角大楼提出的类似合作,坚持要求在合同中写入更严格的伦理护栏,结果国防部长Pete Hegseth在X上直接点名怒批,称Anthropic的行为是「傲慢与背叛的大师课」,并呼应特朗普政府下令停止与Anthropic的合作。


OpenAI随后接手了这笔生意。


用户的反应相当激烈。2月28日当天,ChatGPT的卸载量较前一天暴增295%,#QuitGPT运动迅速席卷社交媒体,数字抵制的支持者在三天内超过250万。Claude趁势超越ChatGPT成为美国日均下载量第一,登顶Apple App Store免费应用榜首。


迫于压力,Altman在3月3日公开承认自己「不应该仓促推出这份合同」,称「这只是看起来机会主义和草率」,并宣布修订合同措辞,明确「AI系统不应被故意用于对美国人员和公民的国内监控」。


但这个「故意」二字,本身就是一个漏洞。电子前沿基金会的律师一针见血地指出,情报和执法机构经常依赖「偶然」或「商业购买」的数据来规避更强的隐私保护——加一个「故意」,并不等于真正的限制。


Kalinowski的辞职,正是在这个背景下发生的。


01


她看见的,比我们想象的更具体


在大多数人还在讨论「OpenAI是不是在向政府妥协」的时候,Kalinowski其实面对的是一个更具体、更残酷的问题——她的团队,正在造机器人。


硬件与机器人工程,不是写代码、调参数的抽象工作。这是在给AI装上手、装上脚、装上眼睛。当OpenAI与国防部的合作从「模型使用」,延伸向未来可能的「具身AI军事应用」,Kalinowski的工作性质就变了。


自主武器领域的研究者们早就在警告这一天的到来。


现有的美国国防部政策,并不要求自主武器在使用武力前必须经过人工审批。换句话说,OpenAI签下的那份合同,在技术上并没有阻止其模型,成为「让GPT决定杀死某人」的系统的一部分。


这不是危言耸听。乔治敦大学政府采购法讲师Jessica Tillipman分析OpenAI修订后的合同时,明确指出合同措辞「没有给OpenAI一个类似Anthropic式的自由来禁止合法的政府使用」,它只是声明五角大楼不能用OpenAI技术违反「现有法律和政策」——但现有法律在自主武器的监管上本身就存在巨大空白。


牛津大学的治理专家也有类似判断,认为OpenAI的协议「不太可能弥补」AI驱动的国内监控和自主武器系统在治理层面留下的结构性漏洞。


Kalinowski的离开,是她个人对这个判断的回应。


02


OpenAI内部,正在发生什么


Kalinowski不是第一个走的人,也大概率不是最后一个。


有数据显示,OpenAI伦理团队和AI安全团队的离职率已经高达37%,而大多数人给出的离职原因,都是「与公司价值观不符」或「无法接受AI用于军事用途」。研究科学家Aidan McLaughlin在内部发文写道,「我个人认为这笔交易不值得」。


值得注意的是,这一波离职潮发生的时间节点——恰好是OpenAI正在快速扩张商业版图的阶段。就在国防合同风波前后,公司宣布与AWS将现有的380亿美元协议扩展1000亿美元,期限八年;同时重新调整了对外披露的支出目标,预计到2030年总收益将超过2800亿美元。


商业加速,安全团队持续出走。这个剪刀差,是理解OpenAI当下处境最重要的坐标轴。


一家公司的价值观,最终体现在它留住了什么人、留不住什么人。当那些最关注「这项技术会被怎么用」的人开始陆续离开,剩下的组织结构会滑向哪个方向,并不难推断。


Anthropic在这场博弈里选择了另一条路——拒绝合同,承受国防部的怒火,但赢得了大量用户的信任。那段时间Claude的下载量逆势上升,某种程度上证明,「有原则的拒绝」在商业上并不一定是输家策略。


但Anthropic也付出了代价——它被政府踢出局,至少暂时如此。


这是真正的困境所在:没有一种选择是完美的。


拒绝,意味着可能失去影响力,甚至被排除在规则制定之外。接受,意味着用自己的技术,为自己无法完全控制的行为背书。


Kalinowski的答案是第三条路——离开。


这是她能做的最诚实的事。


03


硅谷的灵魂之战,刚刚开始


如果把视角拉远一点,这件事的意义远超过一个人的辞职。


AI与军事的结合,是整个行业迟早要面对的选择题。五角大楼有预算、有需求、有技术整合能力,它不会停止向AI公司抛出橄榄枝。而AI公司——无论是追求AGI的OpenAI、强调安全的Anthropic,还是其他玩家——迟早都要在这道题前给出自己的答案。


Altman的策略,是试图在接受商业现实的同时,通过合同措辞来划定底线。但正如多位法律和治理专家所指出的,那些措辞更像是公关层面的保护,而非技术层面的硬约束。


更根本的问题是,当AI模型被部署进分类网络,当它开始参与军事决策,外部世界根本没有能力验证,那些「保证」是否真的在执行。


透明度的缺失,本身就是最大的风险。


Kalinowski在OpenAI待了不到一年半,却在这个节点选择离开。她没有公开发表长篇声明,没有指名道姓地批评任何人,只是用行动划出了自己的边界。


某种意义上,这比任何一篇政策文章都更有力量。


AI硬件和机器人工程,原本是硅谷最令人兴奋的前沿领域之一。Kalinowski走的时候,她带走的不只是一份简历,还有一个问题,留给所有还留在这个行业里的人——


你为自己造的东西,愿意负责到哪一步?

AI原生产品日报频道: 前沿科技
本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。
如对本稿件有异议或投诉,请联系 tougao@huxiu.com。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定