当客户要求完全访问权限时:Anthropic与五角大楼的冲突为商业人工智能提供压力测试
此次冲突不仅关乎伦理:它揭示了人工智能领域中的一些不安的财务现实。某些客户的合同价格中包括对产品的控制、访问权限及否决权。
冲突背后
Anthropic与五角大楼的争端被描绘为原则的碰撞,但对于首席执行官或首席财务官来说,这也可以看作是任何试图向国防部门销售的人工智能企业的财务架构压力测试。
事实非常明确。在2025年7月,五角大楼向包括Anthropic、OpenAI、Google和xAI在内的几家前沿模型供应商授予了2亿美元的合同,用于提供人工智能工具。到2026年2月底,冲突公开化:五角大楼要求对Claude“无条件”访问,而Anthropic拒绝在监视美国公民或全自动武器等情境下给予该许可。五角大楼发言人Sean Parnell发出了截至2026年2月27日下午5:01 ET的最后通牒。首席执行官Dario Amodei回应称公司无法“善意”接受,并强调了在Invoke Defense Production Act时将Anthropic列为“供应链风险”的矛盾。
在2026年2月27日,唐纳德·特朗普总统宣布命令所有联邦机构“立即”停止使用Anthropic的技术,实际上切断了双方的关系。引用的消息人士表示,替换Claude在分类网络中的使用可能需要三个月或更长时间,而INDOPACOM等指挥部是主要用户之一。这个事件给企业领导者传递了三条信号:当客户是国家时,商业关系中的主导权在谁手中,风险的实际定价如何,以及依赖大合同驱动增长的含义。
合同不仅是一项收入:更是对模型控制的选择权
在B2B领域,价格很少只支付“使用费”。在关键客户中,价格还购买了权利:产品优先权、操作例外、访问级别、审计、集成到封闭系统中,以及在极端情况下施加条款的能力。此次争端赤裸裸地揭示了这一点。
五角大楼讨论的不是功能的边际改善,而是控制的边界。Anthropic寻求“严格的保证”以避免特定用途;五角大楼则表明它希望将其用作“所有合法目的”,并通过撤销合同和施加“供应链风险”的监管污名加大了压力。当一个客户将合同工具和政治监管工具混合时,竞争格局就不再是传统的供应商了。
从财务角度来看,“无条件访问”的要求相当于要求供应商出售曝光:声誉曝光、未来的监管曝光、高影响场景下的技术曝光以及由于先例导致的商业曝光。给予这种访问的公司并不是在出售推论或许可证;而是在出售产品治理的一部分。
对于像Anthropic这样的公司,拒绝意味着放弃一项最高可达2亿美元的合同收入。目前并未发布依赖政府收入的具体数字,因此不应猜测其相对重要性。但可以辩解的是:如果客户购买了供应商无法在不损害其商业模式的情况下给予的控制权,那么该合同就成了低质量收入,即便其金额很高。
隐形账单:分类集成、沉没成本与客户换购成本
案件中最具启发性的一条线路是操作性的:在分类网络中替换Claude可能需要三个月或更长时间。这个数字不是技术细节,而是经济指标。
三个月暗示了深度集成:安全控制、封闭环境中的部署、审批流程、培训、提示调整、内部评估,以及可能的使用治理架构。当客户更换供应商耗时一个季度或更长时间时,供应商通常认为自己拥有强势地位。然而,这一次并未发生。
原因在于,当客户拥有市场外的工具时,换购成本并不总能保护供应商。政府可以通过法令强制过渡(如总统令禁止使用),并吸收临时的非效率,因为其目标不是追求每季度的利润,而是按照自身逻辑保证操作的延续。从财务角度来看,五角大楼证明了其容忍“更换成本”的程度可能超过该成本通常赋予的谈判权力。
另一端的供应商也面临同样的问题。为客户提供分类处理的集成和服务往往会提高固定成本:专用团队、合规、流程、事件支援、审核及安全层。如果合同被突然取消,供应商可能面临难以立即重新安置的高额结构性成本。
在此向高层管理者传达的信号是:当合同要求特殊基础设施和治理时,财务问题不是合同“今天是否能支付”,而是即便客户执行其退出选择,供应商能否仍然回本。如果客户如有需求,这种情况在国防领域并非不常见;这属于正常范围。
声誉作为商业资产与冲突驱动增长的悖论
该简报提供了一个市场相关的数据:在冲突期间,Claude成为了iPhone和Android上最受欢迎的免费应用,甚至超越了ChatGPT。虽然不能跑出未证明的因果关系,但这一模式是可以观察到的:公众冲突可能转化为用户获取,尤其是当叙事强化了“安全性”和“限制”的价值主张时。
这带来了竞争策略的解读:对于某些细分市场,适度和限制不是摩擦,而是产品。当产品是信任时,一个清晰的“No”可以作为营销策略。
但是不应过于理想化。将声誉转化为现金需要渠道、客户保留和货币化。一个应用的流行并不等同于经营利润。尽管如此,作为收入架构,广泛消费往往相对单个主导客户有一个关键优势:多样化。如果一个供应商能让其增长由数千或数百万客户来资助,那么单一买家施加的条件就减少了,因而不会影响产品的本质。
与此同时,这个事件也为竞争对手开启了一个窗口:同样合同(OpenAI、Google、xAI)的竞争对手若能吸收这段空缺的集成,可能会占领国防市场。没有更多的数据,无法预计到多少,但可以确定的是:如果客户需要延续性,而替代过程需要数月时间,已具备基础设施的供应商可以加速捡起的机会。
一个重要的细微之处在于,案件也提高了所有人的风险门槛。如果一个大买家试图将“无条件访问”的要求标准化,那么为国防服务的成本将会增加:更多的内部治理、更多的条款、更多的保险和更多的意外。这些成本最终会体现在价格或利润上,没有魔法。
此次事件教会我们关于“任务状态人工智能”及错误成本的认识
前将军Jack Shanahan在简报中直言不讳:商业模式“尚未准备好”用于国家安全背景,特别是在自主性方面。这句话有直接的财务翻译:当错误的成本极高时,客户要么寻求绝对控制,要么寻求能降低其曝光度的责任框架。
若技术无法保证高影响场景下的性能,买方试图购买“选择”:可以自由使用,并在方便时绕过的保障,或可以内部调整系统的足够访问权限。根据简报,Amodei指出“承诺”语义中包含的法律术语允许在适当时忽略保障。
从供应商的角度来看,允许这种选择可能会污染其核心产品。一次失败的极端使用并不仅限于该合同,它也将溢出至商业市场:监管、诉讼、合作关系的丧失以及人才成本。因此,这场冲突并不是一个抽象的辩论,而是关于谁承担风险以及谁捕获价值的讨论。
此外,还有一个行业治理的含义。参议员Mark Warner批评了这一方法,并呼吁制定具有约束力的人工智能治理机制以确保国家安全。对于企业来说,这意味着未来的国防合同将包含更具约束力的标准。现在构建可测量的合规能力的公司将具有优势,但同时也将带来更多的结构。
对于人工智能公司而言,教训是务实的:向国防出售需要提前决定所售内容和不售内容。如果公司打算通过大型合同“不惜一切代价”实现增长,最终不得不接受会降低其对产品控制的条款。如果希望透过多样化收入维持生计,那么可以自由设定限制,尽管这意味着失去一份九位数的合同。
执行层的出路:巨额收入,危险的依赖
2026年2月的事件留下了清晰的图景:主权客户可以在几小时内将商业谈判转变为政治事件,而供应商可能陷入失去收入或让渡控制之间。
对我而言,最清晰的财务教训是:一份2亿美元的合同只有在不购买你拒绝的能力时才有价值。在人工智能领域,运营风险可能会摧毁声誉及商业渠道,而稳固性不是通过合约的大小来衡量的,而是通过多少客户可以反复付费而不要求对你的产品施加治理。客户的资金,分散且可重复,是确保企业生存和控制的唯一验证。













