当客户是五角大楼:决定你的人工智能是否扩展的条款
2026年2月24日,国防部长皮特·赫格塞斯与Anthropic首席执行官达里奥·阿莫代伊的会议以一条操作性的信息结束,而非哲学性的讨论:在2026年2月27日星期五下午5点01分之前,五角大楼需获得“无障碍”访问Claude的权限,否则将会有后果。其中包括将Anthropic标记为“供应链风险”的威胁,及可能启动《国防生产法》以强制设定优先级和条件。涉及的金额高达2亿美元,这是去年五角大楼授予Anthropic、谷歌、OpenAI和xAI的合同。
大多数报道忽视的一个关键点是:当你的客户是国家安全模式下的政府时,真正的讨论是关于谁控制使用条件和产品演变。Anthropic在公众定位上建立在明确的限制之上,包括对自主武器和国内监视的禁令。然而,五角大楼的要求是根据“所有合法用途”的条款强推无障碍访问。
此外,紧张局势伴随着一个关键细节:Claude是五角大楼在最机密操作中唯一使用的模型,通过Anthropic与Palantir的联盟获得访问。这种依赖赋予了Anthropic优势,但也给其带来了代价:作为事实标准使得你的内部政策成为国家谈判的焦点。
这个最后通牒与“觉醒 AI”无关,而是关于产品主权
赫格塞斯将冲突框定为“非意识形态的人工智能”和优先考虑战斗人员,而他的发言人肖恩·帕内尔则明确表示与Anthropic的关系正“接受审查”。超越政治语言,机制显而易见:五角大楼要求操作能力和合同控制。在这方面,公开声明可以作为杠杆,但真正起决定作用的是条款的措辞。
将Anthropic标记为“供应链风险”的威胁尤其激烈,因为这不仅影响直接合同。这个标签实际上迫使承包商和合作伙伴减少或断绝与Anthropic的关系,以免污染自身的合规链。这是一种旨在将拒绝的成本推高到2亿美元以上的打击。
提及《国防生产法》指向同样的目标:将商业谈判转变为一个优先考虑国家利益的关系。从历史上看,该法律曾在紧急情况下重新定位工业能力。在人工智能领域的应用是微妙的:这意味着政府不仅在采购能力,还试图直接影响训练、部署或保护条件。
这种情况的特殊之处在于起点:Anthropic已经在其中。根据现有的信息,Claude甚至在一起高调的委派行动中被使用,通过与Palantir的整合进入。一旦供应商达到这一水平,客户就不再是买“软件”,而是购买优势。在这一转换中,供应商对限制的容忍度急剧下降。
合同经济:2亿美元是收入,但也是依赖
在财务层面,“高达2亿美元”对任何公司来说都是一个庞大的数字,但在国防领域,这一数字仅是表面。重要的是复合效应:合同、延伸、整合,最重要的是,向市场其他参与者发出信号,表明你的模型适用于最严格的要求。对Anthropic这样的公司而言,保持在机密领域的优先模型地位不仅仅是营收;它也是一个分销渠道和一个竞争壁垒。
问题在于,这个渠道带有一个我在其他监管行业中见到过的模式:机构客户往往通过两个同时的举动将一个关键供应商转换为可替代的角色。首先,施加压力以获得更好的条款。其次,加速替代方案以减少其谈判权力。在简报中明确指出,五角大楼已经与其他参与者进行对话,xAI本周已接受将Grok整合进机密系统。在此期间,谷歌的Gemini也可能成为更广泛使用的替代品。
此处重要的变量是时间。在机密环境中的完全替换不会在一夜之间完成,但足以破坏独占性。一旦打破独占,供应商将失去以“标准”捍卫自身条款的能力。这就是最后通牒的核心:在市场和官僚机构适应其立场之前,减少Anthropic的利润率。
从业务可持续性的角度来看,这种收入具有双重刀刃。它们提供了验证和资金,但也引导出合规架构和响应团队,从而提升固定成本。如果客户进一步施压要求无障碍访问,供应商被迫投资于控制、审计和操作安全,以免失去治理权。合同可以资助增长,但也可能施加减少灵活性的结构。
保障措施作为产品规范:可靠性与“所有合法用途”之间的冲突
Anthropic已声明将继续支持“与我们的模型能够可靠和负责任地完成的工作相关的国家安全使命”,并持续进行善意的对话。其实,这是工程和风险张力的总结:在关键业务中,一个模型的价值不仅在于其能力,还在于其在压力下的可预见性。
当客户请求“用于所有合法用途”时,实际上是在试图消除合同歧义,以免被供应商的解释所束缚。对于供应商而言,接受这一保护网就意味着承担声誉和运营的风险,尽管这些用途可能合法,但却给模型的技术限制或公共政策施加压力。
在简报中出现了加速冲突的因素:Anthropic曾咨询Palantir有关Claude在委内瑞拉行动中的作用,而这一交流已反馈给五角大楼。对于高管而言,重要的是在国防中,内部沟通和升级的可追溯性是合同风险的一部分。简单的咨询就可能引发正式审查和政治反应。
同样至关重要的是,根据五角大楼的消息,Claude在相关应用中表现领先,包括网络安全攻击能力。这使得该模型更难迅速替代,同时使得任何限制变得更加昂贵。从产品层面来看,这是技术“太优秀”以至于客户无法接受其视为外部的条件的典型案例。
这是一个运营教训:保障措施不能只是网页上的原则声明。在高风险市场中,保障措施必须转化为可验证的机制、明确界定的例外情况,和升级路径。如果没有,客户会将其视为任意行为,并使其成为一个断裂点。
真实风险:让国家将模型变为基础设施并捕获治理权
“供应链风险”的威胁和提及《国防生产法》表明了一个根本目标:避免私营供应商影响操作决策。赫格塞斯明确表示,他不允许任何公司规定五角大楼决策的条件。
对人工智能领域而言,这种含义是结构性的。如果一个模型变成国防基础设施,国家会寻找确保可用性、连续性和控制的机制。这可能采取三种形式。
第一:更严格的合同,设定服务和访问的义务,最小化供应商的限制。
第二:强制性多元化,为多个模型提供融资以减少依赖。
第三:法律干预,优先考虑被认为是关键的能力。
在这三种情况下,供应商都会失去部分产品主权。这并非理论,而是当客户有国家安全的任务与构建冗余的预算时的逻辑结果。
与此同时,也产生了市场效果:如果某个参与者接受更广泛的条款,就像xAI与Grok在机密领域所做的那样,将提高其他参与者的竞争压力。Anthropic的贾里德·卡普兰曾在其他背景中指出,如果对手不断前进,单边承诺是不奏效的。在国防领域,这种动态更为明显:买方会奖励那些减小合同摩擦的供应商。
从有机扩展的角度来看,这一事件提醒我们一点:当在关键领域向政府销售时,交易并不会在试点结束时告一段落。完成交易的时机是当公司设计一个能够经受审计、政治变动和激进重新谈判的操作。如果不这样做,公司便会陷入声誉与现金、失去节奏的窘境。
执行的出路是合同与技术,而非交流
Anthropic在此问题上几乎没有借助信息解决问题的余地。五角大楼同样不在谈判叙事;它在谈判能力。所剩的只有一个合同与架构的混合解决方案。
一个合理的路径,符合报道的是,Anthropic在不接受全面开放的情况下为政府功能调整政策,保持对大规模监控和自主武器的限制。这个解决方案要求精准:明确在机密环境中“无障碍”的含义、使用上有哪些控制、接受什么样的审计及哪些例外情况。
五角大楼另一方面正在与其他模型建立替代方案。这降低了Claude的独占价值,并使谈判变成一场赛跑。如果Anthropic过快让步,就会稀释其定位;如果不让步,便有可能面临供应链风险的标识和承包商的间接封锁。
最终的战略解读很简单:在应用于国防的人工智能中,产品不仅是模型,而是访问、控制、可追溯性和责任的完整包裹。未能将其转化为可执行的规范的公司,最终会在威胁之下谈判,因为其主张被视为不完整。











