本文来自微信公众号: ToB老人家 ,作者:王戴明
五角大楼发出了最后通牒:要求Anthropic必须支持美国军方“所有合法用途”,不准搞任何意识形态或伦理拦截。
对此,CEO Amodei硬气地拒绝了。他担心“不受限制”的权力会导致监控泛滥和杀人机器失控。
紧接着,特朗普在社交媒体上开启了雷霆手段:命令政府全线停用Anthropic,并威胁动用总统权力强迫其服从。
在我看来,这绝不是一场简单的政企纠纷,而是大模型进化史上的一次主权交接。
1.技术底线vs买方意愿:AI没有中间地带
这事的本质,是开发者和购买者的价值观对撞。
开发者希望技术是“有原则”的,要守住道德底线;而买方要求技术必须100%尊重自己的意愿。
从道德上讲,这事没对错:开发者有权决定开放边界,大众也确实担忧AI沦为纯粹的暴力工具会变得过于可怕。
但从AI落地的角度看,Anthropic的行为无异于螳臂挡车:AI沦为“彻底的工具”,是历史的必然。
2.客服不需要哲学家,军队不需要布道者
我们来看目前落地最普遍的AI客服。
如果让AI自由发挥,用户问:退订会员扣手续费吗?AI可能为了显得“专业”,自己编一套逻辑回复用户:通常大型平台的会员退订都会根据剩余天数折算,可能收取5%到10%的手续费,建议您咨询人工。
但这对公司来说是灾难,因为它其实不符合公司的售后政策。
企业级AI的唯一解法是:放弃自我逻辑,去查企业知识库,并且严格根据公司政策回复:根据我们的《会员协议》第3条,购买7天内未使用的会员可全额退款,不收取任何手续费。您的单号是XXX,需要我为您办理吗?
企业如此,政府则更极端。
同样是政府合作方,Palantir的逻辑就聪明得多:它把大模型彻底“阉割”为一个沟通和协调的工具。
在Palantir的Foundry平台里,具体的逻辑推理、决策和执行,全都由平台预设的算法完成。AI只负责把雷达信号翻译成战情简报,比如:“12个目标,45秒后抵达。”
至于怎么打?平台内嵌了交战规则,结合传统算法给出A/B/C三个选项。指挥官选B,系统直接下达点火指令。
想象一下,如果换成有“自我意识”和“护栏”的Claude:它可能不会100%遵照交战规则;它可能因为“逻辑黑箱”给不出可信的建议;
甚至在指挥官下达指令时,它会跳出一行令人抓狂的字眼:
“对不起,作为一款致力于和平的AI,我无法参与大规模破坏,建议您尝试电子干扰。”
在瞬息万变的战场上,这种“道德延迟”就是自杀。
3.商场如战场:谁能容忍自家的工具“有想法”?
你可能会说,这是军事极端情况。但实际上,商场如战场,逻辑是相通的。
任何企业都无法接受自己的业务逻辑被AI公司的“预设道德”所左右。
说到底,AI公司也是盈利性质的私营企业。企业凭什么相信,一家私营公司制定的所谓“道德准则”,真的大公无私?
也许,在政企市场,AI要拼的不是谁更聪明,谁更有主见,而是谁能更好地把自己“藏”起来,成为那个最安静、最顺从的执行插件。
毕竟,人类发明工具是为了延伸手脚,而不是为了给自己请一位不能违背的“数字教父”。
AI不需要灵魂,它只需要成为一个像手术刀一样精准的控制台。
