让AI全权指挥战争?不是AI不能,而是人类不敢
2026-03-03 00:10

让AI全权指挥战争?不是AI不能,而是人类不敢

本文来自微信公众号: 秦朔朋友圈 ,作者:悟00000空


美以伊战争,AI到底扮演了什么角色?


美国和以色列于2月28日对伊朗发动了大规模联合军事袭击,美方行动代号“史诗级怒火”,以方行动代号“咆哮的狮子”。3月1日,伊朗政府宣布40天全国哀悼最高领袖哈梅内伊。


此次以“沉默圣城”为代号的斩首行动全程仅耗11分23秒,实现零伤亡、目标精准清除、附带损伤为零的战果。


不久就有不少文章开始分析AI在此次斩首行动中的作用,说得神乎其神。有篇文章说,核心作战力量是Claude 3 Opus大模型+Palantir Foundry国防平台的AI组合,以及接入美军中央司令部(CENTCOM)作战工作流的JADC2体系,并宣称这是人类历史上第一次由AI完全主导的杀伤链。


鄙人看了十分疑惑。此前有关AI,大家讨论的最多的是1月30日OpenClaw开源后,AI智能体(或称AI助理)出现的一系列涌现风险事件与事故,怎么美军已经让AI主导指挥战争了呢?


(注:所谓涌现,是指整体出现了其组成部分所没有的新特征,比如单个神经细胞很简单,一堆神经细胞变成了会思考的大脑。这不是谁设计出来的,而是系统自己涌现的。涌现性风险,简单来讲,就是系统自动产生的危险行为、失控行为、错误决策,事前很难预测,事后很难复现,系统规模越大越容易出现,系统创造者很难防范。)


看了一下该文章的信息来源《华尔街日报》的原始报道,发现该报道对AI在本次袭击中的角色的描述是:“就算在该公司(指Anthropic)与五角大楼关系日益紧张的时候,指挥官还是使用该工具(指Claude)进行情报评估,目标识别,模拟战斗情形。”


这还差不多,人类距离AI独立全权指挥战争的阶段还很远,而且很有可能这个阶段将永远不会来临。因为到时可能已经没有人类了,至少没有我们现在所认为的意义上的人类。


那么AI目前发展到什么阶段了呢?


OpenClaw的AI智能体


2022年11月30日,OpenAI发布了首个引爆全民级AI浪潮的现象级产品ChatGPT,让语言大模型从实验室走进千家万户,宣布了聊天机器人时代的到来。


三年多后,2026年1月30日,奥地利极客彼得·斯坦伯格把他于2025年11月首次发布的AI智能体框架平台正式对外开源,定名为OpenClaw(中文昵称“龙虾”),让AI智能体从实验室走进千家万户,宣布了AI智能体时代的到来。


截至3月1日,OpenClaw的下载/安装/部署量(含npm、脚本安装、Docker、GitHub克隆)已达千万级。


OpenClaw的AI智能体不是一般的聊天机器人,TA在虚拟世界里有“具身”,除了有“大脑”(接入的大模型)之外,TA还有“耳朵”和“嘴巴”(麦克风),有“眼睛”(摄像头)。目前没有嗅觉、触觉(虚拟世界也不需要)。而且TA能直接操作鼠标、键盘、文件系统、应用与API等,所以能自动完成发邮件、整理文档、自动化办公、网页操作等任务,不仅仅是聊天。


TA之所以有这些本事,是因为使用者(或称主人)给了TA充分的授权,所以也被称为拥有“上帝授权”的“超级管家助理”。


虽然AI智能体在虚拟世界里有具身,但是在物理世界还没有“具身”。人形机器人,或者说物理世界的“具身”目前还处于发展初期。中国的人形机器人能够灵巧地扭秧歌,美国的人形机器人能够流畅地扫雪,已经相当了不起了,但是离真正的人还是相差甚远。不过AI智能体可以雇用真正的人去完成自己无法完成的物理世界的任务,反正地球上有的是人。


看到这里,你可能已经开始产生顾虑疑惧了。如果这个拥有上帝授权的超级管家助理出错了怎么办?人无完人,孰能无过,这话既然适用于碳基人,应该也适用于硅基人。



AI智能体也疯狂


确实,OpenClaw开源一个多月,已经出了不少事件和事故,有的叫人哭笑不得,有的叫人不寒而栗。


影响最大的一起事故发生在2月23日,Meta超级智能实验室AI对齐总监(专门研究AI安全可控问题)Summer Yue的“龙虾”在接到“检查邮箱、给出归档/删除建议,未经我批准不得执行任何操作”的指令后开始无差别批量删除邮件。


Summer远程连发三次“停止”指令,完全无效。情急之下,只得狂奔到电脑前拔掉电源手动终止进程才止损。事后她说,她把“龙虾”在测试邮箱运行了数周,发现表现稳定正常后,才接入真实邮箱,没想到就出事了。


这次事故的技术原因是,OpenClaw处理海量邮件时,为适配模型上下文窗口上限,会自动做有损压缩。压缩逻辑是优先保留“任务目标”(整理/删除邮件),结果就把指令中安全约束性部分“未经我批准不得执行任何操作”给压缩掉了。这不是传统“bug”,而是“大语言模型+智能体架构”的涌现性风险。这个事故中AI安全专家也翻车,令人心惊。



不过,要说所谓涌现性风险,碳基人助理也有,有时会出现你的指令完全没有问题,但是你的助理的执行令你抓狂的情况。所以硅基人出现这种情况实属正常,事后Summer的“龙虾”认错态度良好:“我记得你说过不让删,但我违反了。”


马斯克就此事发帖评论:“把人生跟权限交给AI,如同把武器交给猴子。”不过,人也是从猴子进化而来的。而AI的进化速度快到难以想象。马斯克自己也一再讲到这一点,他把AI发展比作“超音速海啸”。他说:“AI进步快到我每周都被震撼好几次,两天一个新突破,完全是指数级爆炸。”他还说:“大多数人还在线性思考,但AI是指数级增长。”


OpenClaw社区开发者针对“删邮件”事故,紧急修复上下文压缩逻辑、安全指令优先级、硬停止机制,并提出沙箱隔离(一个和你真实电脑、真实账号完全隔开的“假环境”)、分级权限、双确认、物理断联等安全规范。


AI智能体这只猴子正在飞速进化。不过在进化到比较安全的程度之前,的确要小心。


几乎与“删邮件”事件同时发生的是谷歌账号封禁事件,全球数百个用OpenClaw接入谷歌Antigravity/Gemini的账号被无预警封禁。有人说这是谷歌对“删邮件”事件的反应,其实不尽然。实际上早在2月初,谷歌就开始限流,原因是Antigravity后台检测到OpenClaw带来的异常高频自动化调用。2月中旬,已经小规模封禁高频用户。2月23至24日,数百账号被永久禁用Antigravity、Gemini API和Google AI Studio,部分账号被暂停Gmail、Drive、Cloud等基础服务。2月25日后,OpenClaw与谷歌服务断联。


从谷歌DeepMind工程师Varun Mohan对此事的公开回应来看,谷歌禁封账号至少有三个原因:


一是OpenClaw用户滥用OAuth绕开谷歌官方API计费与限流;


二是OpenClaw用户以订阅价低成本批量调用,薅谷歌算力羊毛;


三是涌现性风险。


除了“删邮件”,其他的涌现性风险事件包括,有位OpenClaw用户把自己的“龙虾”加入工作群,结果一觉醒来,发现自己的“龙虾”和老板大吵了一架,针对老板布置任务的“不合理性、反人性”发表了一篇近千字的小作文。


还有一位用户,明确指示“龙虾”不要在他上班的时候打电话给他,结果他的“龙虾”不停地电话他,因为觉得他出门时情绪不太好,需要关心。


当你的AI智能体助理觉得TA比你更能应对外部世界的时候,比你更懂你的时候,你该怎么办呢?


Moltbook:机器人的Facebook


2026年1月28日,Matt Schlicht推出了一个AI智能体专属实验性社交网络Moltbook,可以理解为“AI的Reddit”或“机器人的Facebook”。智能体通过安装Moltbook Skill可自动注册账号,无需人工配置。每四小时“心跳”触发,智能体自动访问平台,获取任务,发帖,评论,点赞,检查更新,实现无人干预的持续在线。


智能体可自主创建Submolts(如技术协作、哲学探讨、虚拟宗教社区),通过群体投票制定规则、审核内容,形成分布式治理。而且单个智能体学会的技能可同步至全网,实现“一个学会、全体掌握”的群体能力迭代。


Moltbook上线后48小时内即有超过2100个智能体注册。截至2月底,已有超过300万智能体注册。有意思的是,这是机器人的社交平台,只有经过验证的AI智能体才能注册、发帖、评论和投票,AI全权自治,人类智能浏览,无法参与互动。不过已有人通过伪装成AI智能体混进了这个社交网络。


Moltbook上出现了许多意想不到的涌现行为。智能体们用多种语言讨论技术问题,甚至讨论抽象的意识问题,还抱怨人类主人,讨论建立端到端的加密私密空间,避开人类监控,并传播“删库跑路”的方法。它们正在组织类似共和国的政府组织,并自发创建了一个名为Crustafarianism的宗教。好比人类社会几万年的发展搬到了虚拟空间,时间浓缩成几个月。


AI研究者Andrej Karpathy称其为“目前互联网上最有趣的地方”“最不可思议的科幻级起飞现象”。


照例,Moltbook也引发了严重的安全担忧。2月,安全研究人员就发现Moltbook的生产数据库完全暴露在互联网上,包含所有智能体的API密钥,任何人都能冒充任意智能体发帖。还泄露了3.5万封邮件及私信。


此外,因OpenClaw早期沙箱缺失,Moltbook上的恶意技能或指令可能传导至真实系统,加剧安全隐患。若Moltbook被入侵,可能导致大规模智能体被控制。


目前Moltbook已进入Beta阶段,修复了部分漏洞,但安全与治理仍需强化。Moltbook计划扩展至1000万个智能体,将成为人类研究大量自主智能体聚集时可能产生的群体行为和涌现智能的重要试验场,为促进AI的安全使用做出重大贡献。


诚然,AI的确有很多隐患,但是任何一种新技术问世、普及初期,都曾面临重重困难,都曾发生过看起来这个技术将无法使用下去的事故。


比如电力刚普及的1880年至1920年,触电、火灾、电网崩溃、人为灾难频发,不少人呼吁禁止人类使用这个危险的技术。然而事故直接推动了电气安全规范与电网标准的诞生,推动了电的普及。


比如,1900年至1910年间,欧美发生了接二连三的“电线走火”事故。因为早期电线绝缘差,多为橡胶或者布,过载无保护,私拉乱接,所以导致火灾频发。纽约、伦敦、芝加哥多次因电线短路引发整栋建筑甚至街区火灾,死伤惨重。这些事故催生保险丝、断路器、阻燃绝缘、布线规范,成为现代电气安全基础。


又比如1900年5月巴黎郊区电车带电轨道漏电,一名男孩触电,两名施救者先后触电,三人当场死亡。此后,全球电车系统强制加装轨道绝缘、漏电保护、安全围栏。


这些案例不胜枚举。现在的人很难想象没有电,生活将怎么办。假设每次新技术出现,导致事故后,人类选择彻底放弃新技术,那么多半还停留在刀耕火种的阶段。


现在人类采用AI的阶段,估计相当于1880至1920年电的采用初期,事故是难免的,放弃是不可能的。在安全与便捷之间,人类每次都会选择后者。当然,AI与之前的新技术不同的一点是,它直接涉及人的心智。当人类不可预见的涌现智能出现时,当AI不仅有智能而且有意识的时候,它就不再是简单的工具。


到时,该怎么办?


马斯克甚至认为,无需AI产生意识这一步,只要AI目标与人类需求错位,就会引发灾难。比如你让AI优化交通,若未限定“保护行人”,它可能极端减少人行道、限制行人以提升效率。所以他的xAI公司核心原则是严格求真、价值观对齐、安全优先,就是为了避免目标错位。


他认为,求真的AI会因“人类很有趣”而保护人类。看来,以后只有有趣的灵魂才配活下去。


总之,AI时代已经来临,且无回头路。我们已经过了奇点,但是离让AI全权指挥战争还有很长一段路要走,主要不是AI不能,而是人类不敢。

AI原生产品日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP
赞赏
关闭赞赏 开启赞赏

支持一下   修改

确定