一场本应在密室中完成的商业博弈,最终演变为硅谷与华盛顿之间一次公开的伦理摊牌。当美国国防部一面公开封杀Anthropic,一面却被曝出仍在利用其Claude模型策划对伊朗的空袭时,一个尖锐的问题浮出水面:AI交付给国家机器后,企业的道德红线还能守住吗?
上周五,这一矛盾被推至顶点。短短数小时内,一系列看似矛盾的剧情密集上演:谈判破裂、总统禁令、空袭行动、同行声援、以及堪称“光速”的立场反转,共同勾勒出AI军事化浪潮中那道日益模煳的伦理边界。
故事的起点,是一份本应顺利续签的合作协议。作为当时唯一获准进入美国联邦政府机密系统的大模型,Anthropic与五角大楼的谈判已持续数月。上周五上午,Anthropic团队还收到积极信号——新任国防部长皮特·赫格塞斯的团队准备作出“重大让步”,删除此前协议中那些令人不安的“视具体情况而定”的模煳措辞。
这些措辞曾是双方的博弈焦点。此前,五角大楼虽承诺不将Anthropic的AI用于大规模国内监控或全自动杀人武器,但随后总加上“根据官方对特定情况的解读可进行调整”的尾巴。对Anthropic而言,这无异于给伦理红线预留了随时可被跨越的“后门”。
然而,当天下午的谈判桌上,一个更棘手的难题浮出水面。美方坚持要求利用Anthropic的技术,分析从美国民众那里收集的海量数据——这包括用户向聊天机器人提交的提问记录、谷歌搜索历史、GPS定位轨迹,甚至信用卡交易明细。这些信息将被交叉比对,用于构建更精细的公民行为画像。
对Anthropic管理层而言,这已触及不可逾越的底线。他们当即叫停了谈判。几小时后,赫格塞斯下令美国军方及其承包商、供应商全面停止与Anthropic的业务往来。由于亚马逊是Anthropic大部分计算基础设施的供应商,这一禁令的波及面远比想象中更广。
更具戏剧性的一幕发生在禁令发布后不久。据《华尔街日报》报道,就在特朗普总统宣布禁用Anthropic工具的几小时后,这些工具被用于对伊朗发动大规模空袭。
3月1日,伊朗方面确认哈梅内伊遇袭身亡。尽管官方未明确披露AI在其中的参与程度,但知情人士证实,包括美国中央司令部在内的全球多处指挥机构一直在使用Claude进行情报评估、目标识别和模拟作战场景推演。换言之,那个被公开封杀的AI系统,仍在暗处为战场决策提供关键支撑。
美媒披露的细节进一步揭示了这种“影子使用”的深度:美国中央司令部在中东地区利用Claude进行情报收集;该系统被用于目标识别和作战模拟;甚至在马杜罗总统被捕事件中也出现了类似的情报应用场景。而美国政府内部评估显示,彻底淘汰Claude需要长达6个月的时间——这意味着,在名义上的禁令与实际上的依赖之间,存在着巨大的执行真空。
事实上,Anthropic与五角大楼的分歧远不止于数据监控。在“自主武器”这一更敏感的议题上,双方同样存在深刻裂痕。
所谓自主武器,是指无需人工最终决策即可自主选择和攻击目标的机器。美国军方对此的投入堪称豪赌——仅在2026财年,相关预算就高达134亿美元,覆盖从单兵无人机到可在空中与海上协同作战的无人机集群。
值得玩味的是,Anthropic并不反对自主武器本身。恰恰相反,该公司曾主动提出与五角大楼直接合作,以提高其可靠性。其逻辑与自动驾驶汽车的推广者如出一辙:在某些场景下,机器或许比人类更精准,在攻击中更不容易误伤无辜。
但问题在于可靠性。Anthropic领导层认为,他们的AI尚未达到这一水平。他们担心,当前的模型可能导致机器随意或不准确地开火,危及平民甚至美军自身安全。
谈判期间曾有一个折中方案被提出:将AI技术保留在云端,而不是直接应用于武器本身。这样,模型可以在行动前进行情报合成,但不参与任何杀伤决策。然而,Anthropic最终否决了这一方案。在他们看来,现代军事AI架构中,云端与边缘的界限已不再清晰。战场上的无人机可以通过包含云数据中心的网状网络协同操控——尽管设计上能独立运行,但军方总会尽可能让它们与云端最强大的模型保持连接,因为连接越好,机器就越智能。
在这场风波中,OpenAI的角色尤为微妙。
就在Anthropic与五角大楼谈判破裂前,OpenAI CEO萨姆·阿尔特曼还曾公开声援:“这不再仅仅是Anthropic的问题,而是整个行业的问题。”数百名谷歌和OpenAI员工联名签署公开信,支持Anthropic坚守底线的决定。
然而,24小时内,剧情急转直下。阿尔特曼连发三条相同内容的推文,宣布OpenAI已与五角大楼达成协议,将模型部署到机密网络中。面对“光速滑跪”“背刺同行”的质疑,OpenAI次日发布声明,称其合同包含“三条红线”——禁止大规模美国国内监控、禁止用于自主武器系统、禁止高风险自动化决策,并强调协议较Anthropic此前的方案“更为完善”。
但舆论并不买账。有网友将条款输入AI分析后发现,“all lawful purposes”等措辞界定模煳,担忧“红线很快就会消失”。截至3月1日下午,已有近百名OpenAI员工签署公开信,表明他们在国内大规模监控和自主武器问题上与Anthropic持相同立场。阿尔特曼或许需要在周一的办公室会议上解释:为什么那个被Anthropic断然否定的云端部署方案,对他而言却如此有吸引力。
这场风波揭示了一个更深层的结构性困境——我称之为AI时代的“信用悖论”。
悖论的核心在于:AI企业越成功地证明其技术的可靠性与价值,就越难以控制技术交付后的使用方式。 Anthropic的Claude能够精准识别目标、评估情报、模拟作战场景——这些能力恰恰使其对军方“不可或缺”。而一旦不可或缺,名义上的禁令与实质上的依赖便形成巨大张力,企业所谓的“红线”在国家安全叙事面前显得脆弱不堪。
更深一层看,这涉及技术伦理的“可执行性”问题。企业可以在合同中写入伦理条款,但一旦技术进入机密系统,外界无法监督,内部执行全凭使用方的“自觉”。当五角大楼在谈判中坚持保留“视具体情况而定”的模煳空间时,他们实际上是在为未来的“条款解读”预留弹性——而这种弹性,恰恰是伦理红线的天敌。
Anthropic拒绝云端部署方案的决策,正是看穿了这一逻辑。他们意识到,所谓“将AI留在云端、不直接参与杀伤决策”,在现代军事网络的“云-边协同”架构下不过是一道技术上的薄墙。只要AI的能力被调用、其输出被用于决策,伦理责任就已被稀释。
对硅谷而言,这场风波更像一面照妖镜。 有人坚守底线宁可放弃合同,有人在24小时内完成从声援到签约的反转。但问题或许不在于个体企业的选择,而在于一个更深层的追问:在AI能力日益成为国家战略资源的今天,企业能否真正守住自主设定的伦理红线?还是说,技术一旦交付,便必然滑向“使用者定义伦理”的轨道?
结语:当AI飞向战场
当Claude的分析数据流入中央司令部的作战指令,当伊朗的空袭目标经过AI模型的识别确认,我们面对的已不再是“机器杀人”的科幻想象,而是正在发生的现实。
Anthropic与五角大楼的分歧,最终指向一个根本命题:在AI军事化的浪潮中,由谁、依据什么、在哪个环节为致命决策承担责任?企业可以拒绝签署合同,但无法阻止技术被“影子使用”;可以在协议中划下红线,但无法穿透国家机密的黑箱进行监督。
这或许才是“AI交付后失控风险”的真正含义——不是技术本身的失控,而是对其使用方式的监督权与控制权的彻底丧失。当越来越多的AI系统进入国家机器的核心流程,硅谷需要回答的问题已不再是“我们能否造出更聪明的AI”,而是“我们能否为自己创造出的聪明,找到负责任的边界”。