硅谷黑化,AI杀人:是时候走出科技崇拜的青春期(深度重磅)
2026-03-06 22:04

硅谷黑化,AI杀人:是时候走出科技崇拜的青春期(深度重磅)

本文来自微信公众号: 不懂经 ,作者:不懂经也叔的Rust


一、比“哈梅内伊死于AI”更值得玩味的事


哈梅内伊死后,中文网络上流传着一篇热门文章,标题大意是:他是被AI杀死的。


这句话乍看像标题党,带着热点传播时代熟悉的夸张气息。可它之所以能迅速击中很多人,并不只是因为耸动,也因为它碰到了一个越来越接近现实的恐惧。


事实上,它并非空穴来风。《华尔街日报》和《大西洋月刊》的报道都指向同一个事实:美军在对伊朗的军事行动中,使用了Palantir帕兰蒂尔旗下的Maven智能系统,而这套系统的核心,接入了Anthropic的Claude模型。


根据报道,在行动最初24小时内,美军对超过1000个目标实施了打击,AI负责生成目标建议、输出精确坐标、排列打击优先级,以及评估打击效果。整个规划流程,从原来需要数周的人工作业,被压缩到了实时响应。


严格地说,说“AI杀人”未必精确,但它指向的现实已经足够冷酷。AI今天也许还没有独立按下扳机,可它已经越来越深入地嵌入“谁该先被打、打哪里、如何更快地打”这条杀戮链条。


军事研究者Paul Scharre对这种变化的描述很准确。他说,关键的范式转移在于,AI正在让美军开发目标包的速度从“人的速度”切换到“机器速度”。


但这还不是战争形态变异的最前沿。如果你认为战争仅仅是高级将领在屏幕前看着AI生成的兵棋推演,那便是一种极其天真的幻觉。


战争的演进,正在以一种恐怖的“下沉”方式,将最尖端的算法与最廉价的杀戮工具结合在一起。


未来的暗线:AI正在成为有史以来最强大的权力分配引擎



金融时报3月6日报道,泽连斯基证实,乌克兰将向美国提供协助,帮助美军应对伊朗在中东投放的"沙赫德"无人机,乌方甚至讨论以拦截无人机换取爱国者导弹的可能性。


这意味着什么?


几年前,这几乎是难以想象的画面。美国,这个全球军事实力最强的国家,如今在一个新战场上,要向一个经历了数年高烈度消耗战的国家学习如何对付伊朗式无人机。


与此同时,激光反无人机武器也在快速从测试走向部署。2月,路透社独家披露,美国陆军在得州埃尔帕索附近部署了AeroVironment的LOCUST激光反无人机系统。这种20千瓦定向能武器的拦截成本低于传统导弹,因此被视为未来反无人机防御的重要方向。


我以为我了解硅谷,但是我错了


把这几条新闻放在一起看,你会发现一个越来越清晰的事实:


战争,正在彻底沦为尖端技术与军工复合体最暴利、最高效也最残酷的血肉实验场。也许,这才是全球战火绵延不绝、毫无停息迹象的真正原因。


无人机、反无人机无人机、激光武器、战场感知系统、实时目标生成、大模型辅助指挥,这些原本散落在科幻叙事、防务白皮书和创业路演里的词语,正在前线快速收敛成一套新的现实。


战争不再只是坦克、战机和士兵的碰撞,它越来越像软件、传感器、模型、算力与供应链之间的系统竞赛。


这不只是一个军事技术的故事。这是关于一场更大的转变的故事,关于硅谷,关于AI,关于我们曾经对科技抱有的那些美好幻想。


去年,claude.ai母公司Anthropic的CEO达里奥·阿莫代伊(Dario Amodei)发布了一篇万字长文,题为《技术的青春期》(The Adolescence of Technology)。


他在文章开头引用卡尔·萨根小说《接触》中的一个场景:天文学家与外星文明首次对话,问了一个问题——"你们是如何在技术的青春期中没有毁灭自己的?"


阿莫代伊用这个问题来警示世人:AI是那个正在经历青春期的危险少年,人类社会必须足够成熟才能驾驭它。


不过,,相比于AI技术的青春期,更值得警示的是:普通人乃至知识分子群体中,依然弥漫着一种天真幼稚的“科技崇拜”。对硅谷,对科技本身,同样还停留于青少年认知。


人们迷信技术是中立的,迷信硅谷的精英们依然在“改变世界”。但事实是,硅谷早已完成了一场漫长而彻底的黑化——从“连接世界”走向了“连接导弹”。


是时候,强迫我们自己走出这场关于科技的“青春期”迷梦了。这篇文章,带你从更深角度,看透未来战争、AI与权力的演进逻辑,以及普通人的命运又在什么位置。


顶尖算法工程师都被裁了,AI时代到底还有什么"铁饭碗"?


二、硅谷黑化:从"连接世界"到"连接导弹"


很多人直到今天,对硅谷仍然残留着一种青春期式的浪漫想象。


那是互联网黄金年代留下的滤镜。硅谷意味着创新,意味着自由,意味着连接世界,充满了浪漫主义的平权色彩和“不作恶”(Don't be evil)的道德洁癖。


Google、Facebook、Twitter、iPhone、开源运动、密码朋克,这些符号共同塑造了一个技术乌托邦。人们相信,最聪明的工程师、最自由的资本、最开放的网络,会把世界推向更明亮的地方。


这种想象并非完全是幻觉。问题在于,它只抓住了故事的一半。


另一半的故事是,硅谷从来都不只是“创新圣地”,它始终也是权力、资本、国家安全与工程能力交汇的场域。只是在消费互联网时代,社交媒体、搜索引擎、云服务和手机生态更容易占据公众视野。


今天,当地缘冲突重新成为时代主轴,当军工预算、情报系统、国家安全需求重新放大,硅谷的另一张脸也随之浮出水面。


水面之下,通过算法和大数据的无情收割,硅谷巨头们逐渐掌握了比主权国家更庞大的信息生杀大权。这是硅谷异化的开始:他们从挑战利维坦的屠龙少年,变成了拥有数字监控霸权的新利维坦。


为长期动荡做准备,我们熟知的世界已经结束了


现在,这股力量正式与国家暴力机器合体,开启了“军工复合体2.0”的时代。


具有象征意义的就是,YC这种曾经代表消费互联网与创业文化巅峰的孵化器,开始公开资助导弹公司。


YC在2024年首次投资武器公司Ares Industries。该公司的目标,是为美国建造低成本反舰巡航导弹,用于在台海假想战争中对抗中国。YC网站上Ares联合创始人Alex Tseng的一行简介,现在已经找不到了,但留存的网页快照记录了那句话:"导弹很酷。"(Missiles are cool.)


那不只是一句广告语。那是一种世界观的宣言。


在这场狂欢中,最典型的代表是以彼得·蒂尔(Peter Thiel)和亚历克斯·卡普(Alex Karp)为首的帕兰蒂尔(Palantir),以及Anduril等新兴国防科技公司。这些企业从成立之初就不再羞于谈论鲜血与杀戮,他们将军火交易包装成“保卫民主的必要手段”。


去年,北约与Palantir签署了巨额合同,在北约最近发布的一段视频中,Palantir的Maven系统被描绘成赋予了指挥官“如同打电子游戏一般”掌控战局的能力。


这种转向并不是个别公司偶然跑偏,而是一条越来越主流的产业路径。看数据就知道。从2019年到2024年,美国防务科技初创公司的风险投资增长超过10倍,达到约30亿美元。2025年,这个领域的融资和估值又进一步走高。Shield AI在2025年融资2.4亿美元,估值达到53亿美元。Anduril的估值升至305亿美元,并在俄亥俄州建设价值10亿美元的武器工厂。


AI2028-AI2027-AI2026:巨变倒计时与普通人自救指南


资本的嗅觉是极其敏锐的。看着国防部那深不见底的预算池,曾经高举伦理大旗的“清流”们也纷纷撕下面具。


埃隆·马斯克的xAI在上周刚刚签署了处理政府机密系统的协议;OpenAI也火速清除了其核心条款中关于“禁止将模型用于军事和破坏性目的”的限制,投入了五角大楼的怀抱。


最近的焦点也最引人深思的是Anthropic的遭遇。这家公司原本由一群因为不满OpenAI过度商业化而离职的“AI对齐”原教旨主义者创立。他们曾拒绝将AI直接接入致命武器系统。


然而,面对不听话的Anthropic,五角大楼和美国政府祭出了“供应链风险”和“大国竞争”的政治大棒:要么合作,要么在算力配额和政府准入上被绞杀。最终,如我们所见,Claude还是出现在了中东的战区。


这不是几家公司接了军方订单那么简单。这是整个行业价值观的重新定向,有着完整的思想叙事支撑:民主国家必须赢得AI军备竞赛,否则威权国家将主导未来。硅谷曾经用"改变世界"打包自己的意识形态,现在它用"保卫民主"替代了那个位置。


Palantir联合创始人卡普在他的《科技共和国》中感叹,硅谷“走错了路”,美国最好的工程师不该去做外卖软件和娱乐平台,而应该服务国家力量与军事优势。


叙事换了,但结构是一样的:技术资本,加上宏大修辞,加上对公众批评的免疫。


这就是今天很多人还没有完全接受的现实:


硅谷,已不再是那个在车库里写代码试图让世界变得更美好的硅谷。在数千亿美元算力成本的重压下,在争夺“通用人工智能(AGI)”霸权的大国焦虑中,硅谷已经变成了一台冷酷的战争服务器。


他们正在成为一股不受任何民主程序选举、却能实质性控制人类未来生死存亡的至高权力。


过去它最著名的口号是“连接世界”。今天,它越来越像在连接目标与弹头。


大事正在发生,但绝大多数人还没有意识到


三、AI杀人:战场正变成算法的实战测试场


乌克兰战场,是理解这一切的窗口。


在战争开始之前,乌克兰只有7家国防企业。今天,这个数字超过了500家。军事技术的创新周期,从过去以月计算,压缩到了以周计算,有时甚至以天计算。一架FPV(第一人称视角)无人机,从工厂下线到前线,再到爆炸,可能只经历两次飞行:一次测试,一次作战任务。每个月,乌克兰战场消耗的无人机超过10万架。


它已经成为全球最高强度的武器技术实验场。


这就是为什么美国军方需要向乌克兰学习"反无人机"经验。不是因为乌克兰在技术上领先美国,而是因为它每天都在真实战场上运行和迭代。真枪实弹,即时反馈。


FPV无人机的崛起改变了战场逻辑。


据估计,俄乌战场上超过60%的伤亡来自小型无人机,而不是传统的炮兵或坦克。一架造价几百美元的无人机,可以摧毁造价数百万美元的装甲车辆。这个成本方程式,正在让"低成本平台压制高价值资产"成为现代战争的基本逻辑。


激光武器也开始跟上这个节奏。


美国AeroVironment公司已在德克萨斯-墨西哥边境附近部署了LOCUST激光反无人机系统。与传统导弹拦截相比,激光的运行成本低到近乎荒谬。每次拦截,激光系统大约花费13美元,而一枚传统拦截导弹的造价则高达数十万乃至数百万美元。


“20世纪发明的所有职业,都难逃AI的冲击”


当杀人的边际成本趋近于零,战争的发动门槛就在趋近于零。


这时候,AI进入了这个方程式。


关于AI战争,公众最容易陷入一种科幻误解。很多人一想到这件事,就会立刻联想到《终结者》,仿佛只有当机器人拥有自主意识、自己决定开火时,我们才算真正进入了AI战争时代。


技术官僚们在国会听证会上总是信誓旦旦地保证:“不要担心,我们始终保持‘人类在循环中’(Human-in-the-loop),最终按下开火键的永远是人类。”


现实要阴冷得多,也更琐碎。


军事理论家克劳塞维茨在《战争论》中提出了一个著名概念:“战争的摩擦力”。传统战争中充满了恐惧、犹豫、疲惫、信息迷雾以及道德负罪感。正是这些无数个微小的“摩擦力”,在历史上无数次减缓了杀戮的效率,阻止了战争规模的无限滑坡。


但人工智能没有PTSD,机器视觉不知疲倦,算法不懂得什么是怜悯,也不会在扣动扳机前产生道德上的迟疑。AI正在彻底抹除战争的摩擦力。


Palantir的Maven智能系统,整合了AI模型,将情报分析、目标生成、打击评估整合进一套实时工作流。目前,超过2万名美国军事人员在日常任务中使用Maven。在伊朗战役中,这套系统将原本需要数周的目标规划,压缩到了实时操作。


他隐居在上海,却是硅谷最爱的末日预言家和加速大师


这不只是效率的提升。这是战争运转逻辑的根本改变。


军事理论家保罗·沙尔(Paul Scharre)指出,AI带来的真正范式转变在于:它把目标包生成从"人的速度"推进到了"机器的速度"。


人类操作员一小时能审批多少目标,AI可以在同样时间内生成数倍的候选清单。"人在回路"这个短语,本来是为了保证人类在致命决策中拥有最终控制权。但当机器以人类无法跟上的速度生成目标,"在回路"就逐渐变成了走形式的橡皮图章。


以色列在加沙使用的Lavender系统,提供了一个更直白的案例。据以色列独立媒体+972杂志的调查报道,这套AI系统在加沙识别了约3.7万个打击目标。每个目标的人工审核时间:20秒。操作员每小时可以批准约80个目标,没有AI时,这个数字是30个。系统预设的可接受附带平民伤亡,是每个目标15至20人。


20秒,一条命,然后点击下一个。冷血又高效。


这不是电影里的终结者。这是一套Excel表格加审批流程,只不过运行速度非常快,代价由别人承担。


更深层的灾难在于大语言模型固有的“黑箱”特性和激进倾向。


伦敦国王学院(King's College London)最近进行的一项严肃实验得出了一个令人毛骨悚然的结论:在军事危机兵棋推演中,当由大型语言模型扮演国家决策者时,它们往往倾向于选择最极端的暴力升级手段,甚至频繁触发核打击选项。


由于AI的底层逻辑是概率优化和收益最大化,在它的高维参数空间里,不存在对“文明毁灭”的生物学恐惧。一旦我们将战略决策的辅助权甚至决定权交给这些大模型,相当于把人类文明的命运放在了俄罗斯轮盘赌的桌面上。


为什么最懂AI的人在纷纷离职:“我凝视过无尽的黑夜”


四、走出“认知的青春期”:终结幼稚的科技崇拜


去年,Anthropic CEO达里奥·阿莫代写过一篇长文《科技的青春期》。文章中,他试图为硅谷参与战争的行为进行辩护,声称为了“击败专制对手”,自由世界必须掌握最强大的AI武器。他将当前人类拥有神一般技术力量却无法完美驾驭的阶段,比喻为一个危险的“青春期”。


这种论调看似深刻,实则充满了硅谷精英标志性的傲慢与虚伪。


真正处于“青春期”的,并不是抽象的“技术”,而是那些心智依然停留在丛林法则、却掌控着足以毁灭地球算力的科技巨头们。他们一边在白皮书里洋洋洒洒地警告AI可能毁灭人类,一边为了财报上的利润和五角大楼的订单,通宵达旦地优化着杀戮链的算法响应速度。


而更加处在青春期的,也许是公众对硅谷和技术的认知。很多人对硅谷的理解,仍停留在“创新圣地”的浪漫版本里;很多人对“技术中立”的理解,也停留在一种少年式的简化版本里。


对于普通的公众而言,是时候进行一场彻底的认知革命,摆脱对硅谷和科技本身的双重“天真认知”。


睹马思人,AI拐点已至,在最具决定性的一年里一马当先


第一层摆脱,是要破除对硅谷“神格化”的迷信。


很多人——尤其是在中文互联网上——至今保留着对硅谷的某种浪漫想象。创新圣地,技术理想主义,自由开放的精神,连接人类的使命感。但这幅图像,有很多都是光环效应,或者说是人类幻觉。


硅谷诞生于冷战军工体系,被个人电脑革命暂时漂白,然后在大国竞争再度升温的时代重新回到了它的原点。它不是一个道德主体,它是权力、资本、工程能力与国家需求的交汇点。


我们要清醒地认识到,坐在加州阳光明媚的玻璃办公室里喝着冷萃咖啡的程序员,与中东夜空中带着尖啸坠落的弹药,已经处于同一条流水线上。他们不再是普罗米修斯,而是现代的奥本海默。


不同的是,奥本海默在核爆后感到了深深的忏悔:“我现在成了死神,世界的毁灭者”;而今天的硅谷CEO们,则在算计着这笔交易能让公司估值上涨多少个百分点。


Palantir打着"捍卫民主"的旗号,同时在为特朗普政府的大规模驱逐行动建造监控系统,并协助分析被拘押移民的数据。Anduril的创始人帕尔默·拉基在得知Anthropic被列为"供应链风险"后,在X上发文表示支持。"压制Anthropic是保卫民主、对抗寡头政治的必要之举"。


Anthropic自己,也曾接受来自卡塔尔和阿联酋主权基金的投资。阿莫代伊曾说,公司的原则是"不让坏人受益于我们的成功",但他接着承认,这"是一个很难执行的原则"。


这不是在指责任何人虚伪。这是在说:没有任何一家硅谷公司能在真空中运作。每家公司都嵌入在特定的权力结构、资本结构和地缘政治结构里。声称技术可以超越这些结构,才是真正幼稚的地方。


你已经不再是地球上最聪明的存在了


第二层摆脱,是要彻底抛弃“技术中立论”的哲学迷思。


"技术本身是中立的,关键在于怎么用",这句话你一定不陌生。它听起来成熟,实则是最常见的科技崇拜话语之一。


技术当然不会像人一样拥有善恶意志,可技术也从来都不是悬浮在社会上空的纯工具。谁拥有它,谁定义用途,谁承担代价,谁被纳入系统,谁被排除在外,这些问题没有一个是中立的。


更重要的是,技术不仅被人使用,它也反过来塑造人的行为和制度的选择。当AI让战争更快、更准、更廉价,当激光反无人机系统让拦截更可持续,当无人机群让高烈度打击的成本大幅下探,决策者看待战争的方式也会被改变。


战争会显得更可控,更专业,更像一个可以管理的技术问题。可一旦一种暴力看起来更高效、更干净、更可计算,它就更容易被批准,更频繁地被使用。


这就是为什么麦克卢汉讽刺“技术中立论”是一种白痴言论。它忽略了技术在现实世界中总是嵌入具体的权力结构,也忽略了技术会主动重塑人的制度环境和心理阈值。


麦克卢汉在1964年就写了:媒介即讯息。技术本身的形式,比它传递的内容更能塑造社会。


拿最简单的例子来说:汽车不只是一个从A点到B点的工具。汽车重新定义了城市的空间布局、家庭的居住模式、人际关系的距离感、对石油的政治依赖。汽车本身,就是一个改变了整个文明结构的讯息,不管它被用来送孩子上学还是逃跑犯罪。


为什么硅谷最有头脑的人,都在重读一个人?


哲学家朗登·温纳(Langdon Winner)在1980年的经典论文中写过一个细节:纽约的城市规划师罗伯特·摩西(Robert Moses)在建设长岛高速公路系统时,刻意把高速公路桥洞的净空高度设计成低于公共汽车的通行高度。结果是,乘坐公共汽车的穷人和黑人无法进入长岛海滩,那里成了只有私家车才能到达的度假胜地。


没有一行法律条文提到种族或阶级,但那些桥洞的高度完成了任务。这就是温纳说的:人工制品具有政治性(Artifacts have politics)。


AI军事化意味着什么?它不只是"一个更强大的工具被用于战争"。它改变了战争的速度、战争的门槛、战争中责任的归属方式,以及人类在"要不要开战"这个问题上的实际决策重量。


当AI把目标规划从数周压缩到实时,政治领导人更容易下达攻击命令,因为"没有足够时间"这个传统制动机制消失了。当系统建议打哪里,人类操作员按20秒审核,一旦出错,责任在AI建议,还是在操作员的批准,还是在开发AI的公司,还是在采购系统的军方?


责任被层层外包,最终消散在系统架构里,无处可寻。


当我们习惯了由机器去判定谁该死、谁该活,当我们把屠杀的道德负担外包给一行行看不见的API接口时,人类文明的底线就已经被悄然击穿。


这不是科幻想象,这是今天已经在战场上运行的逻辑。


诸神的黄昏:爱泼斯坦、西方道德内爆与全球秩序的裂变(深度重磅)


五、真正的成熟,在最耀眼的时候看到黑暗来临


如果今天还有人相信,科技天然会带来更好的世界,那么过去几年的现实已经足够说明这种信仰多么脆弱。


加沙的AI目标系统、乌克兰的无人机绞杀、伊朗战场上的实时目标生成、美国边境附近的激光反无人机部署、Anthropic与五角大楼围绕自主武器和大规模监控的冲突,这些事件连在一起,已经勾勒出一幅相当清晰的图景。


AI并没有等到某个遥远未来才进入战争。它已经来了。硅谷也没有停留在“改变世界”的理想主义年代。它已经越来越深地卷入塑造战场、重构国家暴力和定义未来军事优势的过程。


这并不意味着所有技术都应被妖魔化,也不意味着一切工程师都应被视为共犯。真正的问题在于,我们不能再用青春期式的眼光看待技术与硅谷了。


不能再把“创新”自动等同于“进步”,不能再把“未来”自动等同于“更好”,不能再把“效率”自动等同于“文明”。


会造更强模型,不代表会成为更成熟的文明。


创新速度更快,不意味着社会方向更对。


武器更智能,也不意味着战争会更有人性。


AI时代的真正赢家不是会用AI的人,而是拥有定价权的人


真正的成年,恰恰发生在一个人终于能在技术最耀眼的时候,看见它同样可能通向黑暗。


阿莫代伊谈“技术的青春期”,原本是在提醒人类尚未成熟到足以驾驭强大AI。这个提醒并没有错。可今天更需要承认的,是公众对硅谷、对AI、对现代技术的理解,也长期停留在青春期。


而成长的第一步,往往不是欢呼,而是祛魅。


当硅谷开始连接导弹,当AI开始进入杀戮链条,我们真正需要告别的,已经不只是某一种旧技术,而是那种把技术自动想象成善、把创新自动理解成文明进步的幼稚信仰。


因为在这个时代,决定人类未来走向的,早已不只是技术能做到什么,更是权力会命令技术去做什么,资本会奖励它做什么,以及社会是否还有能力在它最强大的时候,对它说一句不。【懂】


本文资料来源包括:大西洋月刊、经济学人、路透社、纽约时报、华尔街日报、华盛顿邮报、金融时报、连线杂志等。

AI创投日报频道: 前沿科技
本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。
正在改变与想要改变世界的人,都在 虎嗅APP