谁来约束AI的缰绳?——从Anthropic拒绝五角大楼看一个字头的诞生
Publie le 1 mars 2026
2026年2月的最后一周,硅谷与华盛顿之间爆发了一场前所未有的正面冲突。AI公司Anthropic拒绝了五角大楼的最后通牒,坚持在其AI模型Claude的军事合同中保留两条红线:不用于大规模监控美国公民,不用于全自主武器系统。随后,特朗普总统下令所有联邦机构停止使用Anthropic技术(给予六个月过渡期),国防部长Hegseth宣布将Anthropic列为"国家安全供应链风险"——一个通常只针对外国对手的标签。
这不是一场合同纠纷。这是AI时代第一场关于技术权力边界的正面对决。
一、表面的矛盾:谁在违约?
五角大楼的诉求简单明了:你卖给我的工具,我要能"用于所有合法目的"。这个要求有问题吗?从常理来看,毫无问题。我买一把锤子,五金店不会在合同里写"此锤不得用于钉铁钉"。我购买一套软件的许可证,供应商不会说"你可以用,但这三个按钮你不能按,因为我觉得你按了可能会出事。"
Anthropic的CEO Dario Amodei自己也承认,"军事决策权在国防部,不在私企。"那他为何要在合同中额外增设限制条款?
Amodei给出的理由是:现行法律滞后于AI发展速度,某些用途虽然目前合法,但存在根本性的风险。
这个理由听起来很有道理。但如果你把它的逻辑结构拆开来看,会发现一个值得警惕的内核——他不是在守法,他是在试图设定超越法律的行业规则。
有人会说,这只是正常的商业行为——供应商有权决定卖不卖、怎么卖,这是合同自由。如果是在一个充分竞争的市场里,这个说法完全成立。你不卖,客户去隔壁买就是了,你的"不卖"就只是商业选择。但问题在于,在公开报道中,Claude被描述为当时军方机密系统中具有明显稀缺性的前沿大模型。在这种供应关系高度集中的条件下,供应商通过合同条款设限,其实际效果就不再是简单的"我不卖",而接近于"你不能做"。合同自由的前提是替代选项的存在——当替代选项极其有限时,供应商的条款就开始具有了某种准规则的属性。
当然,这个"准垄断"前提本身也需要打一个问号——后文会回到这个问题。
二、双重过滤陷阱
让我用一个更直观的模型来说明这个结构。
假设法律是第一层过滤网,它定义了合法与非法的边界。在这个边界之内,行为者拥有完全的行动自由——这就是法治的基本承诺。
现在Anthropic在法律之上又加了第二层过滤网,而且这层网的孔径永远比法律那层更小。结果是什么?法律那层过滤网永远不会被触发,因为所有可能触碰法律边界的行为,都已经在Anthropic这层被提前拦截了。
这意味着真正起约束作用的不再是法律,而是Anthropic的内部判断。
而这个判断没有条文、没有公示、没有申诉机制、没有民主授权。它完全取决于一家公司——更准确地说,一个CEO——对"安全"的理解。
对五角大楼而言,这意味着它的行动自由被一家私企单方面压缩了。在合法范围内,它不能自由使用自己采购的技术,必须接受一个未经授权的第三方审查。军方的不确定性增加了——我能做什么、不能做什么,不取决于法律,而取决于Anthropic的政策团队下一次会议的讨论结果。
对Anthropic而言,这层额外过滤带来的好处是显而易见的:道德风险归零,声誉风险可控,公众形象完美。它把自己摆在了最安全的位置上——永远不可能被指责"帮助军方做了坏事",因为它预先否决了所有可能出问题的场景。
一方的安全感,来自于对另一方自由度的压缩。 一方的确定性,建立在另一方不确定性的增加之上。
这个不对称结构,本质上就是权力。
三、马歇尔的幽灵
历史上最经典的"无中生有"式权力获取,发生在1803年的美国。
那一年,首席大法官约翰·马歇尔面对一个棘手的案件——Marbury v. Madison。细节不赘述,关键在于:美国宪法并没有明确赋予最高法院审查国会立法是否违宪的权力。宪法只规定了司法权归法院,立法权归国会,行政权归总统。三者各司其职。
但马歇尔在这个案件的判决书中,用一段精巧的法律推理,得出了一个惊人的结论:最高法院有权宣布国会通过的法律违宪并使之无效。
这个权力,就是后来美国三权分立的核心支柱——司法审查权(Judicial Review)。
没有任何人授权马歇尔这样做。没有宪法修正案,没有国会投票,没有总统批准。他就是在一个具体的案件中,趁着宪法条文的模糊地带,把这个权力"创造"了出来——然后让它成为既成事实。
后来的人可以批评马歇尔越权,可以论证宪法原意不包含司法审查。但那又如何?权力已经到手,先例已经确立,制度已经成型。后人在这个框架里运作了两百多年,连质疑的念头都逐渐淡忘了。
Dario Amodei做的事情,在权力获取的逻辑模式上与马歇尔高度相似。
当然,两者的量级和性质有根本区别——马歇尔是国家机关内部确立制度性先例,拥有强制执行力和普遍约束力;Amodei是一家私企在商业合同中划定使用边界,既没有裁判权也没有执行力。但两者共享的底层逻辑是同一个:在规则模糊的窗口期,通过具体行动抢先占位,试图让事实变成先例,让先例变成惯例。
AI领域目前恰好处于这样一个"规则真空期"——技术能力爆炸式增长,法律框架严重滞后,权力边界尚未划定。在这个模糊地带,Amodei试图确立一种行业范式:AI公司有权对政府客户的使用方式设限,即使这些使用方式在现行法律下完全合法。
如果五角大楼接受了这个安排,它就可能逐步演变为行业惯例。惯例重复多次就变成规范,规范逐渐固化就变成制度。最终,"科技公司对国家机器拥有技术层面的约束权"这个命题,就有可能从一次具体的博弈行为,演变为更持久的制度安排。
这才是这场冲突的真正赌注——不是两亿美元的合同,而是AI时代权力格局的雏形。
四、五角大楼为什么下重手?
理解了这一点,Hegseth的反应就不再显得"不成比例"了。
"供应链安全风险"标签,按照Hegseth的意图,意味着所有与美军合作的公司必须证明自己不使用任何Anthropic相关技术。值得指出的是,Anthropic对这一标签的法律效力提出了质疑,认为其法定权限不足以支撑如此广泛的排斥效果,并宣布将在法庭上挑战这一认定。这场法律争议本身尚未有定论。
但无论标签的最终法律效力如何,五角大楼释放的信号是清晰的:这不是合同谈判,这是权力边界之争。
如果Anthropic今天成功地在合同中保留了"AI公司有权限制政府使用方式"的条款,那明天每一家AI公司都可能效仿。Google可以说"我不允许你用我的模型分析情报",OpenAI可以说"我不允许你用我的模型做战场决策",Meta可以说"我不允许你用我的模型做网络战"。每家公司都根据自己CEO的道德判断,划定政府的行动边界。
最终结果可能是:国家机器的行动能力被碎片化为一系列私企的许可范围。 民主选举产生的政府,反而要向未经选举的企业家逐一申请权限。
这就是为什么Hegseth说"美国的战士不会被大科技公司的意识形态绑架"——措辞尖锐,但准确地识别了潜在风险。
五、OpenAI的精明走位——以及"准垄断"前提的瓦解
就在Anthropic被踢出局的同一天,OpenAI的Sam Altman随后宣布已与五角大楼达成协议。
这个事实本身就带来了一个重要的反思:前文说Anthropic在机密网络中具有"稀缺性",因此其合同条款具有"准规则"属性。但OpenAI几乎同步补位的事实说明,替代选项是存在的——五角大楼并没有被真正卡住脖子。这也意味着,在竞争性市场中,单一企业试图通过合同条款建立行业规则的策略,天然有其上限——只要有竞争者愿意配合,这种"准规则"就无法固化为真正的制度先例。
Altman此前公开表示,OpenAI与Anthropic有相同的红线。那他是怎么做到既守住红线又签下合同的?
关键在于表述方式的差异。据Fortune和Bloomberg报道,五角大楼同意让OpenAI构建自己的"安全栈"(safety stack)——一套技术和政策的多层控制系统。如果模型拒绝执行某项任务,政府不会强制OpenAI修改模型的行为。
如果报道准确,这在实质上可能接近Anthropic所要求的保障——只是没有把它写成限制政府的合同条款,而是包装成了技术层面的能力边界。政府获得了"不受私企条款约束"的叙事——我有权使用所有功能;OpenAI保留了"模型自身行为边界"的实质——但模型可能做不到某些事。
当然,OpenAI与五角大楼的完整合同尚未公开,上述分析基于已有报道的推断。最终条款的实际效力如何,还需要时间来验证。
但至少从目前的信息来看,Anthropic的困境可能不完全在于原则本身,而在于它把原则包装成了对抗性的合同条款。 同样的安全保障,换一种不构成权力挑战的表述方式,也许就过关了。
不过反过来想——也许Amodei并不是犯了策略错误。也许他就是要公开对抗,就是要让这场冲突成为公共事件。因为他的真正战利品可能不是这份合同,而是一个叙事。
六、输了战役,赢了战争?
Anthropic丢了一份两亿美元的合同,被宣布贴上"供应链安全风险"的标签(尽管法律效力存疑),CEO被国防部官员公开辱骂。从短期来看,这是一场完败。
但请回忆马歇尔案。马歇尔在Marbury v. Madison案中,表面上也"输"了——他裁定法院无权给Marbury实际救济。但他通过这次"失败",确立了司法审查权本身。真正的战利品不是案件结果,而是制度性的权力。
Dario现在的处境有几分相似——尽管量级和确定性远不可同日而语。他输掉的是一份合同,但他可能赢得了几样更有价值的东西:
第一,叙事资本。 "那家宁可损失两亿美元也不肯帮政府搞监控的公司"——这个故事在消费市场、欧盟监管层、学术界和人才招聘中,都是硬通货。
第二,行业意识的催化。 这里需要区分三个层次:Google和OpenAI的员工联名发布公开信支持Anthropic——这是真实的价值认同;Altman个人公开表示认同Anthropic的红线,并质疑五角大楼动用威胁手段——这是个人表态;但OpenAI公司层面随后迅速宣布了与五角大楼的合作协议——这是商业决策。员工的价值认同、CEO的个人表态和公司的商业行为,是三件不同的事。所谓"行业团结",在这三个层面上浓度各不相同。
第三,法律博弈的开端。 Anthropic宣布将在法庭上挑战"供应链安全风险"的标签。这场诉讼能走多远、最终结果如何,目前无法预判——它可能因管辖、程序、涉密材料或和解而根本走不到实体裁判。但如果走到底,它有潜力成为AI时代权力边界的标志性案例。
短期内接受不确定性的增加,换取长期博弈中的结构性优势。 承受当下的混乱,为未来的秩序卡位。这是一种高风险的策略赌注,而非必然的胜利叙事。
七、Dario的真正策略:把封闭博弈变成开放博弈
回顾整个事件的时间线,有一个细节特别值得注意。
周二,Dario与Hegseth在五角大楼会面。两边对外释放的信号截然不同——Anthropic方面称是"善意、建设性的对话",五角大楼一侧放出的信号则明显强硬。如果Dario真的只想保住合同,完全可以像OpenAI那样,找一种技术性的表述方式,把实质保障藏进产品设计里,大家体面收场。
但他周四发了一份公开声明,措辞是"cannot in good conscience"——这是故意把退路堵死的话。然后Anthropic宣布要上诉。上诉本身的胜负不是重点,重点在于:诉讼会产生公共记录。 相当一部分论证和文件将进入公共视野,至少会比密室谈判更加公开透明。
在封闭系统里,五角大楼有绝对的权力优势——它掌握合同、掌握标签、掌握行政命令,Anthropic只是一个供应商,几乎必输。但Dario系统性地把每一步都推向了公开:公开声明、媒体采访、法律诉讼。他把博弈从封闭系统搬到了开放系统——公众舆论、国际媒体、欧盟监管层的关注、国会议员的表态,全部变成了新的博弈变量。
参议员Mark Warner公开质疑这一决定可能带有政治考量而非单纯基于国家安全评估。前国防部AI负责人Jack Shanahan也公开批评把Anthropic树成靶子的做法,主张用新的治理框架而非公开对峙来解决问题。AI行业的员工们联名站了出来。这些声音之所以能出现,正是因为Dario选择了公开对抗而非幕后妥协。
当然,这种推演可能赋予了Anthropic过多的战略自觉。现实中的商业决策往往伴随着混乱、误判甚至单纯的文化冲突——硅谷的工程师文化习惯用原则说话,华盛顿的政治文化习惯用利益交换,两种语言体系正面相撞时,未必每一步都经过精密计算。但无论出于深谋远虑还是文化惯性,客观结果是一样的:Dario已经成功地改变了博弈的场域——从一场他必输的密室谈判,变成了一场所有人都在看的公开辩论。在这个新的场域里,胜负的定义本身就不一样了。
八、谁应该握住缰绳?
让我们回到最本质的问题:在AI时代,谁有权设定AI的使用边界?
选项一:政府。优势在于有民主授权和问责机制。劣势在于技术理解滞后,而且权力本身可能被滥用——大规模监控合法不代表正当。
选项二:企业。优势在于最理解技术能力和风险。劣势在于没有民主授权,而且存在利益冲突——安全立场也可以是市场定位。
选项三:法律框架。优势在于普遍适用和相对稳定。劣势在于更新速度远跟不上技术发展。
答案当然是三者都不完美,最终需要在博弈中形成新的均衡。但现实是,在均衡形成之前的这个真空期,每个参与者都在抢先占位——谁先确立了先例,谁就在未来的制度中拥有更大的发言权。
Anthropic这次的豪赌,无论最终输赢,都已经把一个问题推到了全世界面前:当一项技术的能力远远超出现行法律的想象力时,对这项技术的约束权,究竟应该落在谁的手里?
这个问题没有简单的答案。但提出这个问题本身,可能就是这场冲突最大的遗产。
写于2026年2月28日
本文为时事评论,基于截至发稿时的公开报道。文中涉及的法律争议尚未有最终裁决,部分分析基于已有信息的推断。