Claude在国防的禁令揭示新的瓶颈:许可、控制与供应链

Claude在国防的禁令揭示新的瓶颈:许可、控制与供应链

Anthropic与美国国防部的紧张关系不仅仅是关于道德和政治,而是对操作控制的争夺,涉及许可和供应链认证。

Francisco TorresFrancisco Torres2026年3月7日6 分钟
分享

Claude在国防的禁令揭示新的瓶颈:许可、控制与供应链

Anthropic与美国国防部之间的紧张关系从合同谈判升级至重新定义人工智能在关键环境中的采购和部署的方式:五角大楼将Anthropic指定为“供应链风险”,并迫使国防工业基础的承包商与供应商证明他们在与国防部相关的工作中不使用Claude模型

与此同时,此次对峙划定了一条操作线。一方面,Anthropic坚持“红线”使用规则:Claude不得用于对美国人的大规模监控,且不能用于完全自主武器或在没有人类参与的情况下选择目标。另一方面,五角大楼要求对技术的广泛许可“用于所有合法目的”,并通过发言人声称不对大规模监控或没有人类参与的自主武器感兴趣,但也不允许任何公司对影响操作决策的条款进行规定

迄今为止,大多数报道停留在伦理或政治的摩擦上。然而,商业上相关的要点是:人工智能不再仅依靠内部政策治理,而是通过许可条款、系统审计和强制性认证进行管理。在国防领域,这一机制成为了一种和—有时甚至超过—模型本身的权力杠杆。

实际谈判并非关于人工智能,而是关于无摩擦许可

如果将这条新闻视为对使用控制的争夺,便能更好理解。Anthropic获得了一项价值2亿美元的合同,开发国家安全用的人工智能能力,Claude已经在军事敏感网络中使用,甚至有报道称其为机密信息。尽管如此,在“数月”的谈判后,五角大楼给出了最后一次的“最佳和最终报价”,其中一个核心条件是允许无条件使用所有合法目的,并设有截止日期。

“合法使用”和“带有明确限制的使用”之间的区别并非是语义上的。在公共采购中,“用于一切合法用途”相当于最小化法律和操作摩擦:这减少了诉讼,加速了部署,使不同单元之间能够重新利用系统,并避免在每次任务变动时进行重新谈判。对国防部而言,这种弹性是产品的一个特性。

而对Anthropic而言,弹性恰恰是风险:其红线旨在将某些使用情况在合同内部固定,而不是作为口头承诺或可能会在未来被重新理解的政策。该公司公开辩称,新条款“几乎没有实际进展”以设定这些限制,并且文本中有“法律语言”,可能会成为规避保护措施的出口。

实际的结果是,争议并未通过小的修正得到解决,而是通过结构升级实现:正式排除在供应链之外。当商业关系从合同转变为黑名单时,信息清晰:买方已不再以价格谈判,而转向标准化风险

“供应链风险”标签使得模型变成放射性材料

“供应链风险”的指定效果比失去单个合同的经济损失要更大。所有承包商必须证明他们不使用Claude的命令将采购决策转变为基础设施政策。问题不再是Anthropic是否直接向五角大楼销售,而是任何涉及国防部预算的公司都被激励从其架构中排除Claude。

这对已经嵌入AI的领域打击尤其大:编程助手、文本分析、文档自动化和内部工具。简报中提到Claude作为代码助手在敏感政府网络中广泛使用,Anthropic的首席执行官表示约80%的收入来自企业客户。这种收入组合很重要,因为国防部门及其周边的承包商、分包商和集成商在采购和部署流程上更像是“企业”而非“政府”。

全面禁令的直接后果是对第三方施加的变更成本。大型承包商不仅需要关闭一个终端点,还必须审核哪些设备在使用,在哪些流动中,使用哪些数据,以及如何替换而不违反合规性。在实践中,这类命令会使得对“可认证”供应商的偏好增加,并自动对可能重新引入监管或合同风险的供应商产生拒绝。

此外,如果五角大楼能够将认证变为规范,则会形成一个模式:国防领域的人工智能将像关键网络安全那样进行采购,附带许可的供应商名单和禁用名单。“产品”不再是模型,而是包含所有许可、可追溯性和治理的整体包

竞争激励:赢得最佳模型不是目的,而是成为并非阻碍的供应商

简报指出,五角大楼已经与谷歌OpenAIxAI等公司签订了类似的合同,而Anthropic是最后几家抵制无障碍整合入军事内部网络的公司之一。在一个多个模型已对许多用例“足够好”的市场中,区分因素并不少是准确性:而是法律和操作的可用性

从买方的角度来看,国防中的理想供应商是提供最大能力而且环节最少“无法做到”的公司。每增加一项限制就意味着额外的内部工作:培训用户、限制提示、审计输出、记录例外,并向指挥链解释。即使国防部表示不意在大规模监控或没有人类的自主武器,实际上也在寻求避免合同在未来被撰写的方式,使得某个操作场景变得可以诉讼或受到解释阻碍。

这就创造了一种不太舒服的竞争优势:接受广泛许可的实验室将被视为“购置风险较低”,而坚持合同限制的实验室可能会被视为“高风险”,即使它们的技术表现优秀。

此外,这条消息还建议,排除可能会使得现在被认为是“安全”国防工作的竞争对手受益。

对Anthropic来说,这一困境关系到商业模式和定位:如果其品牌依赖于使用限制,其价值主张可能与更大且更敏感于限制的机构买方产生冲突。如果让步,可能会侵蚀其产品的内部一致性和商业叙事;如果不让步,则会失去进入一个以量和带动效应定义标准的细分市场的机会。

强制因素:当《国防生产法》进入谈判桌

改变冲突基调的一个重要点是,五角大楼考虑启动国防生产法以赢得对产品使用的更广泛权威。这一提及,在简报中被引用,作为不平等的提醒:在国防领域,国家不仅是客户,还是监管者,极端情况下,甚至可以启用特殊机制。

从商业上来看,这一变化重新配置了传统的供应商与客户谈判。风险不再只是失去2亿美元的合同,而是面对一个可以,如果决定,试图将合同争议转变为国家能力问题的买方。

同时,这一可能性增加了一个许多企业低估的工具的价值:退出架构。对于任何向政府或受规制部门销售AI的供应商,操作上的问题是客户是否能够在不停机的情况下迁移或替换。如果替换容易,供应商将失去谈判权;如果替换困难,买方从第一天起就会通过广泛条款或多供应商设计来避免依赖。

这里出现了一个我们将反复看到的模式:机构客户在实施时推动模型可互换,并使得AI公司被降为一个组成部分。“用于所有合法目的”的争夺也是为了避免供应商成为唯一的否决点。

市场的方向:认证、治理与“AI作为基础设施”

这一事件为企业人工智能市场发出了信号,超出国防领域。当一个像国防部这样的参与者正式化了供应链排除时,向整个行业传达了一个流程讯息:必须在许可使用清单、部署控制和持续审计能力下进行操作。

这促使初创公司朝两个方向发展。第一:成为“兼容认证”的供应商,接受广泛许可,专注于后续的技术控制,如日志记录、数据分隔和身份管理。第二:作为产品的一部分维持合同限制,接受某些战略买方将被排除在外。

这两条道路都不是免费的。第一条路线可能促进销售,但需要在合规性和支持方面投入;第二条路线可能保持产品一致性,但会减少可接触的市场并增加由于集中采购而被排除的概率。无论在哪种情况下,赢家不会是喊得最响的,而是能够承受合规性、谈判和替换成本的最灵活的运作体

短期内,Claude在五角大楼工作的禁令被解读为一种惩罚;从中期来看,这是一个先例:人工智能进入一个阶段,价值不仅由模型决定,也由其契约契合度和生存供应链审计的能力决定。这是基础设施,而非实验室。

操作经验:在关键领域,产品是使用许可

执行的阅读是明确的。Anthropic可以拥有竞争模型和在敏感环境中的真正存在,但在国防中,头号属性是没有阻碍的实用性。而五角大楼可以声明不寻求某些用途,但实质上以需要最大未来选择权的方式进行谈判,不接受任何供应商施加的明确限制。

对任何向受规制领域销售人工智能的企业而言,实际的教训是:差异化并不仅仅在于模型的性能。合同、许可、认证和审计能力成为产品的一部分,并决定谁能够留在供应链中,谁又会因设计而被驱逐。

分享
0
为这篇文章投票!

评论

...

你可能还感兴趣

Claude禁令与国防的供应链瓶颈 | Sustainabl