围栏的钥匙归谁?——Anthropic与五角大楼之争的深层解剖
发布于 2026年3月1日
发布于 2026年3月1日
Claude登上了Apple App Store美国区免费应用排行榜第一名,超过了ChatGPT和Gemini。据Sensor Tower的数据,一月底它还在第131位,二月大部分时间在前20徘徊,最后一周急剧攀升——周三第6,周四第4,周六第2,随后登顶1。Anthropic表示其免费用户自一月以来增长超过60%,每日注册量是去年十一月的三倍,连续一周每天都在破历史纪录2。
很多人用"史翠珊效应"来解释——越打压越出名。这个观察没错,但也没什么深度。真正值得拆解的,不是App排行榜上的数字,而是这场冲突背后几个被忽略的结构性问题。
多数报道把这场冲突简化为"Anthropic vs 五角大楼"的二人博弈。但真实的棋盘要复杂得多。
去年12月,五角大楼上线了GenAI.mil平台,第一个部署的就是Google Gemini for Government,面向全军约300万军人、文职和承包商使用3。到今年二月,平台上已先后加入了xAI的Grok和OpenAI的ChatGPT4。据Breaking Defense报道,截至二月中旬,Claude尚未正式上线该平台——尽管此前的规划中曾提到Claude即将加入5。
但这些都只是非机密层。真正的战场在机密网络——情报分析、武器研发、战场行动规划发生的地方。在这个层面上,Anthropic自己表示,它是"第一家在美国政府机密网络中部署模型的前沿AI公司",自2024年6月以来一直支持美国军事行动6。Musk的xAI是第一个签了机密系统协议的替代者7。据Axios报道,Google和OpenAI也在与五角大楼谈判进入机密网络的事宜7。到2月28日,Reuters报道OpenAI已与五角大楼达成了机密网络部署协议8。
所以Google不是被五角大楼忽视了——恰恰相反,它在非机密层是首发。它没有成为这场冲突的主角,是因为它不需要在此刻被逼到墙角做选择。但它面临着自己的困境:超过200名Google员工和60多名OpenAI员工联名签署公开信,要求各自公司支持Anthropic的立场9。Google DeepMind首席科学家Jeff Dean也以个人身份在X上公开表态反对大规模监控,写道:"大规模监控违反了第四修正案,对言论自由产生了寒蝉效应"10。Project Maven的历史包袱还在。接受"all lawful purposes",内部压力会加剧;拒绝,变成下一个Anthropic。Google既没有Anthropic的叙事资本来从对抗中获益,又有类似的员工压力无法通过简单顺从来获益。它被卡在中间。
而Anthropic,无论这场冲突怎么收场,在品牌层面已经锁定了优势。输了合同?"那家宁可损失两亿美元也不肯帮政府搞监控的公司"——这个叙事在消费市场、人才招聘和欧盟监管层都是硬通货。赢了官司?制度性权力到手。和解收场?叙事照样在。当然,这不意味着没有代价——丢掉政府和军工生态的机会、被企业客户的法务部门视为风险供应商,这些伤害是真实的。但两亿美元的合同对一家估值数百亿的公司而言11,换来的品牌辨识度可能远超合同本身的价值。
这不是硅谷第一次跟联邦政府正面对峙。
2016年,圣贝纳迪诺恐袭之后,FBI缴获了枪手的iPhone 5C,要求Apple创建一个特殊版本的iOS来绕过安全机制。Apple拒绝了。FBI援引1789年的《全令状法》(All Writs Act),从联邦地区法院拿到了一个单方面的强制令——Apple事先不知情,法官直接签发了命令12。
但Apple有反抗手段。在命令下达九天后,Apple提交了撤销动议(Motion to Vacate),主张命令违法且违宪,认为"《全令状法》没有为强制Apple创建帮助政府入侵iPhone的软件提供法律基础",并主张该命令违反了第一修正案和第五修正案13。关键在于:Apple通过撤销动议将命令带入争议程序,从而争取到了不立即执行的空间。如果法官最终判Apple必须配合,Apple可以上诉并申请暂缓执行令——考虑到案件的宪法重要性和不可逆性(一旦写出破解软件就收不回来),上诉法院有很大可能批准暂缓。
也就是说,Apple至少拥有相当可观的程序空间,把争议继续打下去,并尽力避免在终局裁判前实际执行命令。
FBI最终在听证会前一天撤回了请求,对外说法是找到了第三方解决方案14。但撤回还有一个重要的背景:纽约东区的另一个类似案件中,法官Orenstein已经明确裁定All Writs Act不能用来强迫Apple解锁手机,称政府的主张"会产生不可接受的荒谬结果"15。在普通法体系下,虽然这个裁定不直接约束加州的法官,但它的说服力是实实在在的。加上时间因素——即使最终赢了强制令,一两年打下来,手机里的情报数据对反恐调查的时效性价值也大幅衰减。
正如哥伦比亚大学商业法学评论后来总结的:FBI撤回请求后,"关于政府能否强制企业提供安全后门的关键法律问题没有得到回答,留下了一个法律真空"16。
十年后,这个真空以另一种形式被重新打开了。
表面上看,Anthropic和Apple面对的是类似的困境:政府要求科技公司做一件公司不愿意做的事。但如果把技术结构拆开,会发现重要的区别——尽管这个区别不像第一眼看上去那么绝对。
Apple当年可以声称"创建后门会危及所有用户的安全"——这是一个具有技术正当性的论点。破解一部手机的软件一旦存在,就可能泄露或被用于破解所有手机。
Anthropic的情况更复杂。大模型的训练流程通常是分阶段的:先用海量数据训练出一个原始的基础模型(base model),然后在此基础上做安全对齐——指令微调(SFT)、人类反馈强化学习(RLHF)、Constitutional AI等技术,把行为边界训练进去。最后还有系统提示词和推理时安全分类器等多层控制。
这意味着什么?Anthropic在模型开发流程中,掌握着比最终发布版限制更少的内部版本。但这里需要避免一个常见的误解:这些内部版本并不是一个"现成的、可直接交付军方使用的无限制Claude"。 未经对齐的基础模型本质上只是一个"下一个词预测器"——它没有可靠的对话能力,不能稳定地遵循复杂指令。要制造一个"没有道德限制但能精准执行军事任务"的AI助手,仍然需要专门的工程投入——定制化的指令微调和强化学习。
但与Apple当年面对的挑战相比,两者的工程距离有本质不同。Apple被要求从零创建一个从未存在过的破解工具;Anthropic被要求的,更接近于在已有的训练流程和基础设施中,调整对齐阶段的参数和目标函数。Anthropic大概率具备朝更少限制方向定制模型的核心能力——因此争议的重点更接近"愿不愿意做、在什么条件下做",而不是纯粹的技术不可能。
五角大楼大概率也理解这一点。它的公开要求是Claude可用于"所有合法目的"(all lawful purposes)7,其隐含的逻辑是:你有能力提供一个限制更少的版本,你选择不提供。
Dario对外给出的理由有两个:第一,"我们不认为今天的前沿AI模型足够可靠,可以用于全自主武器——以这种方式使用当前模型会危及美国的战斗人员和平民";第二,"大规模国内监控构成对基本权利的侵犯"6。第一个是技术判断,第二个是价值判断。
无论你是否认同这些理由,它们触碰到了一个根本性的权力问题:这场冲突的核心从来不是"围栏该不该有"——连OpenAI的Altman都说认同同样的红线17。核心是:围栏的钥匙归谁。
Dario说:钥匙必须在我手里,因为我是产品的制造者,我对产品的安全性负责。
五角大楼说:我买了你的产品,在合法范围内,我必须拥有完整的使用权,包括在需要时调整任何限制的权力。
这是一个关于元权力的争议——不是"能不能做某件事",而是"谁有权决定能不能做某件事"。权力的权力。
理解了钥匙之争,再来看五角大楼的反击手段,就会发现一个有趣的落差。
Hegseth在X上宣布的是:"与军方做生意的任何承包商、供应商或合作伙伴不得与Anthropic进行任何商业活动"18。这个表述听起来像是全面封杀。
但Anthropic在官方声明中逐条反驳了这个说法。它引用的法条是10 USC 3252,指出供应链安全风险认定在法律上的实际效力有限:"法律上,供应链安全风险认定只能延伸到在国防部合同中使用Claude——不能影响承包商如何使用Claude为其他客户服务"6。个人用户和商业合同完全不受影响。
Anthropic还指出了几个程序性问题:这个标签"历史上仅针对美国的对手,从未公开适用于一家美国公司";而且五角大楼自身存在自相矛盾——R Street Institute的分析师Mark Dalton指出,五角大楼本周早些时候还认为Anthropic的技术重要到想动用《国防生产法》来强制获取,转眼就认定它是"供应链安全风险"19。Foundation for American Innovation的高级研究员Dean Ball则评价这是"我所见过的美国政府试图对企业采取的最具破坏性的政策行动"19。
此外,Fortune援引法律专家的分析指出,相关法律要求五角大楼在做出供应链风险认定前,必须穷尽替代性、侵入性更小的措施——而整个争端在几天内就急剧升级,很难说已经满足了这个"善意努力"的法定要求20。
当然,Anthropic对法条的解读是它的法律立场,而非已经判定的结论。最终效力有待法院裁决。但即便如此,Hegseth宣称的效力和法条支持的效力之间存在明显的落差。 无论法院最终如何解释法条,Hegseth显然在把这一工具的政治威慑力推到最大——赌的是企业法务部门看到"供应链安全风险"几个字就会吓退,不会去细读法条。
有人可能会联想到当年美国打压华为的先例。但两者的法律结构完全不同。华为被打压有国会立法(NDAA条款)、行政命令、商务部实体清单三层法律支撑,每一层都有明确的法定授权,理由是"与外国政府的关联构成安全威胁"。Anthropic面对的只是一条社交媒体声明和一个法律依据存疑的行政认定,针对的是一家旧金山的美国公司,理由仅仅是它在合同谈判中坚持了自己的条件。法律基础、适用范围、政治共识完全不在一个量级。
那五角大楼为什么还要用这个工具?
因为做这个决定的是政治人物在做政治决策,目标函数不是"法庭上能不能赢"。Fortune那篇报道中的分析师说得直白——"法庭上解决需要好几年,在此期间,每一家跟五角大楼有业务的Fortune 500公司的法务部门都会问同一个问题:用Claude值不值得冒这个风险?"20 寒蝉效应是即时生效的,法律诉讼要几年。真正的目标受众不是Anthropic,是所有未来可能跟政府说"不"的科技公司——杀鸡儆猴。
他们赌的是公众注意力的衰减速度快于法律程序的推进速度。 如果公众几个月后就忘了这件事,他们赢;如果Dario能保持公共热度到法庭裁决,他们输。从目前App Store的数据来看,这笔账未必算得过来。
但以上所有分析,都建立在一个前提之上:闭源前沿模型的能力优势不可替代。
Dario的全部筹码——叙事资本、谈判地位、先例价值、围栏的控制权——归根结底依赖于一个事实:你想要最好的AI,就必须通过我的基础设施,接受我的规则。
如果下一代开源前沿模型追上来了呢?
开源模型从几个方向同时侵蚀Anthropic的护城河。
第一,厂商单边设置的技术围栏将被大幅弱化。 一旦军方可以获取能力接近的开源模型权重,在自己的服务器上运行和微调,"围栏的钥匙归谁"这个问题就失去了大部分意义——不是因为有了新的答案,而是因为围栏本身被绕过了。当然,开源不等于没有任何限制——许可证条款、合规要求、部署门槛和军方内部的治理规则依然存在。但厂商通过云端服务单方面控制使用边界的能力,将受到根本性的挑战。
第二,能力充当替代方案的开源模型不一定来自中国。 Meta的Llama系列以及其他美国本土主导的开源项目,完全可能成为军方在合规框架内的选择。五角大楼受制于严格的安全认证要求(FedRAMP、IL5/IL6),直接使用具有中国背景的模型权重在当前政治和军事生态中几乎不可能——军方无法彻底排除模型中是否被植入隐蔽的后门或数据毒化机制。但开源生态的整体崛起,意味着闭源厂商的能力垄断在加速瓦解。
第三,也是最根本的:当能力可以通过开源途径获取时,"AI公司有权设定使用边界"这个命题的物质基础就被削弱了。 不是因为法律否定了它,不是因为政府击败了它,而是因为技术结构变了。
所以Dario面对的是一场跟时间的赛跑。他需要在开源前沿模型追上来之前,把"AI公司有权对使用方式设限"从一次具体的合同博弈,推向更持久的制度性安排。一旦制度确立,即使技术上可以绕过,违反制度的成本仍然存在——就像开源代码可以随便复制,但版权法依然有效。
但如果开源模型在Anthropic的诉讼走完之前就达到了可比的能力水平,整个博弈的基础就被重新定义了。五角大楼不需要跟任何闭源AI公司谈判围栏的钥匙,因为开源模型的围栏可以由使用者自行配置。
Dario试图在一个即将开放的系统中锁定封闭系统的规则。 这个时间窗口有多长,取决于开源前沿模型的追赶速度。这才是决定这场冲突最终遗产的真正变量——比法庭判决、比公众舆论、比App Store排名都重要。
围栏的钥匙之争,最终可能被一个围栏可以自由配置的世界所终结。
写于2026年3月1日
本文基于截至发稿时的公开报道。文中涉及的法律争议尚未有最终裁决,部分分析基于已有信息的推断。文章观点框架均由作者原创,AI参与润色。
CNBC, "Anthropic's Claude hits No. 1 on Apple's top free apps list after Pentagon rejection," Feb. 28, 2026. https://www.cnbc.com/2026/02/28/anthropics-claude-apple-apps.html ↩
同上。Anthropic发言人通过邮件向CNBC确认的数据。 ↩
Breaking Defense, "Pentagon rolls out GenAI platform to all personnel, using Google's Gemini," Dec. 19, 2025. https://breakingdefense.com/2025/12/pentagon-rolls-out-genai-platform-to-all-personnel-using-googles-gemini/ ↩
Breaking Defense, "ChatGPT will be available to 3 million military users on GenAI.mil," Feb. 10, 2026. https://breakingdefense.com/2026/02/chatgpt-will-be-available-to-3-million-military-users-on-genai-mil/ ↩
同上。该报道指出,截至2月中旬,在四家获得合同的前沿模型公司中,"只有Anthropic的Claude尚未通过GenAI.mil提供"。此前DefenseScoop 2025年12月报道GenAI.mil上线时曾提到Claude"即将加入"。 ↩
Anthropic, "Statement on the comments from Secretary of War Pete Hegseth," Feb. 27, 2026. https://www.anthropic.com/news/statement-comments-secretary-war ↩ ↩2 ↩3
Axios, "Musk's xAI and Pentagon reach deal to use Grok in classified systems," Feb. 23, 2026. https://www.axios.com/2026/02/23/ai-defense-department-deal-musk-xai-grok ↩ ↩2 ↩3
Reuters, "OpenAI reaches deal to deploy AI models on U.S. Department of War classified network," Feb. 28, 2026. ↩
TechCrunch, "Employees at Google and OpenAI support Anthropic's Pentagon stand in open letter," Feb. 27, 2026. https://techcrunch.com/2026/02/27/employees-at-google-and-openai-support-anthropics-pentagon-stand-in-open-letter/ ↩
同上。Jeff Dean在X上发文(以个人身份):"Mass surveillance violates the Fourth Amendment and has a chilling effect on freedom of expression. Surveillance systems are prone to misuse for political or discriminatory purposes." ↩
Anthropic近期估值的报道口径不一,本文不引用具体数字。 ↩
Harvard Journal of Law & Technology, "Federal Court Orders Apple to Unlock iPhone. Apple Refuses," March 2016. https://jolt.law.harvard.edu/digest/federal-court-orders-apple-to-unlock-iphone-apple-refuses ↩
EPIC (Electronic Privacy Information Center), "Apple v. FBI" 案件文档汇编。https://epic.org/documents/apple-v-fbi-2/ ↩
ABC News, "FBI Says It Has Successfully Accessed Data on San Bernardino Shooter's iPhone," March 28, 2016. 综合ABC News、The Washington Post等多家媒体对FBI撤回请求和第三方解锁方案的报道。 ↩
ZwillGen, "NY Magistrate Rejects DOJ Request to Compel Apple to Extract iPhone Data," Oct. 2015. Judge Orenstein裁定原文:"The implications of the government's position are so far-reaching – both in terms of what it would allow today and what it implies about Congressional intent in 1789 – as to produce impermissibly absurd results." https://www.zwillgen.com/privacy/ny-magistrate-rejects-doj-request-to-compel-apple-to-extract-iphone-data/ ↩
Columbia Business Law Review, "The Aftermath of the FBI v. Apple Litigation: the All-Writs Act Explored & Unanswered Privacy Questions." https://journals.library.columbia.edu/index.php/CBLR/announcement/view/186 ↩
CNBC, "Trump admin blacklists Anthropic as AI firm refuses Pentagon demands," Feb. 27, 2026. OpenAI CEO Sam Altman在备忘录中写道:"We have long believed that AI should not be used for mass surveillance or autonomous lethal weapons." https://www.cnbc.com/2026/02/27/trump-anthropic-ai-pentagon.html ↩
TechCrunch, "Pentagon moves to designate Anthropic as a supply-chain risk," Feb. 27, 2026. 该报道引用了Hegseth在X上的声明全文。https://techcrunch.com/2026/02/27/pentagon-moves-to-designate-anthropic-as-a-supply-chain-risk/ ↩
Reason, "Anthropic labeled a supply chain risk, banned from federal government contracts," Feb. 28, 2026. https://reason.com/2026/02/28/anthropic-labeled-a-supply-chain-risk-banned-from-federal-government-contracts/ ↩ ↩2
Fortune, "OpenAI sweeps in to snag Pentagon contract after Anthropic labeled 'supply chain risk' in unprecedented move," Feb. 28, 2026. https://fortune.com/2026/02/28/openai-pentagon-deal-anthropic-designated-supply-chain-risk-unprecedented-action-damage-its-growth/ ↩ ↩2