五角大楼将“安全”作为商业杠杆:与OpenAI的协议如何重新定义人工智能的收入分配

五角大楼将“安全”作为商业杠杆:与OpenAI的协议如何重新定义人工智能的收入分配

当具有监管权力的买家决定谁可以出售时,竞争将不仅是技术层面的较量。与OpenAI的协议重塑了人工智能的收入格局。

Javier OcañaJavier Ocaña2026年3月1日6 分钟
分享

五角大楼将“安全”作为商业杠杆:与OpenAI的协议如何重新定义人工智能的收入分配

2026年2月28日,OpenAI宣布与五角大楼达成协议,将在其机密网络中部署人工智能模型。与此同时,特朗普政府将Anthropic列为“国家安全供应链风险”,立即产生了实质性后果:与国防部有业务往来的承包商、供应商或合作伙伴都不能继续与Anthropic开展商业活动。这一措施包含对联邦机构使用其技术的中止指令,退出期为六个月,财富杂志援引报道。

乍一看,这一消息似乎涉及对使用界限的伦理冲突:国内大规模监控、自动武器和操作控制。但在金融实践中,实际上正在变化的更基本且重要的因素是:谁被授权在世界上“最粘性”的买家(国家)中开具发票,及在何种合同条件下将安全转化为竞争优势。

任何CEO或CFO需要明白的教训并不在于哲学辩论,而在于机制:一个在机密环境中的协议不仅开启了收入,同时也创造了沉没成本、锁定效应,以及“适用”的声誉,这些都可以在数年内实现货币化。而“供应链风险”的指定不仅会造成销售停滞,还会污染渠道,提高获取资金的成本。

实际签署的内容:风险条款及其作为产品

根据现有信息,OpenAI的协议包含具体的保护措施:对国内大规模监控的禁令、使用武力的人工责任(包括自动武器系统)、确保模型正确行为的技术保障,以及经授权的OpenAI工程师与安全和对齐研究人员的配合。此外,政府承诺不强迫OpenAI执行其拒绝的任务。

这一系列条款不是“伦理附录”。在运营金融中,它们作为责任工程进行运作。每一项保护措施减少了尾部风险:诉讼、制裁、声誉损害、合同解除或无法与某些敏感企业客户合作。如果将其换算成数字,影响不是一条直接的收入线,而是减少未来现金流的波动性

但还有第二个层面。在公共采购中,尤其是在国防采购中,能够在机密环境中操作的能力起到进入壁垒的作用。这不仅因技术的原因,更因为整体包裹:授权的人员、流程、合规、安全程序、可追溯性以及应对审计的能力。这使得“合规”成为产品的一部分。

OpenAI表示,此协议的保护措施较以往任何机密部署都更多,包括Anthropic的情况。它还指出,合同所涵盖的云部署不会允许对完全自主武器的支持,因为这需要在边缘进行部署。不论个人立场如何,财务后果是明确的:合同不再仅仅是“使用模型”,而是受限的管理服务,这一格式在历史上更能通过承担的风险和合规成本获得更高的费用。

许多人低估的一个细节是“机密”的实际成本:它不仅仅是基础设施,还包括固定成本结构,如专业人才、安全流程、批准时间和低摩擦操作能力。如果支付足够,就能成为经常性收入的高速公路;如果支付不足,将变成烧钱机器。

Anthropic被排除在渠道之外:“供应链风险”如何切断分销

Anthropic被定性为“供应链风险”在这一背景下是一个不寻常的工具,因此也显得强大。它不仅表示“政府不采购”,而且发出更具破坏性的信号:如果你,承包商或供应商,想要向五角大楼销售,就不能与这家公司做生意。这使得处罚变成了渠道封锁。

在收入架构方面,这类似于失去对主导市场的访问权限,不同之处在于,这里的市场也向下游卖家制定规则。主要损害并不是无法签署的直接合同,而是间接分配的丧失:集成商、咨询公司、制造商、云供应商及框架合同等等。

此外,这一措施还带来了一个沉默的财务成本:法律和商业不确定性会立即在任何销售谈判中被折价。大型承包商的CIO不需要对Anthropic抱有敌意;只需合规成本和“感染”风险的提升就足够了。当渠道感到恐慌时,销售管道也会降温。

据报道,Anthropic表示尚未收到国防部或白宫对谈判状态的直接通讯,并计划在法庭上对该指定提出上诉。还描述了冲突的根源:国防部促使公司接受“为所有合法用途的使用”,而Anthropic则拒绝,寻求对国内大规模监控和完全自主武器的明令禁止。

这里有一个经济学上不太舒服的解读:当买家是主权时,合同讨论并不是对称的。一家公司可能在技术上表现无懈可击,但仍然因外部因素而失败:买家不仅购买商品,还会监管访问。在正常市场中,失去一位客户即意味着收入的损失;而在这种不对称的市场中,失去主导买家可能意味着失去操作的合法性。

而这种合法性转化为资本成本。虽然财富杂志提到外部专家指出这一指定可能违法,但简单的司法过程是昂贵和缓慢的。与此同时,商业效应在几天内便会显现。

OpenAI的优势并非是合同,而是“报价权”和转换成本

正确看待这一事件的方式是将其视为市场权力的重分配。OpenAI获得了进入五角大楼机密网络的机会,进而获取了一种通常具有三大特征的需求:大预算、长周期和更换供应商的巨大摩擦。

这种组合产生了非常具体的结果:结构性转换成本。在机密环境中操作人工智能需要构建集成、程序、培训、控制和组织依赖。即使模型在理论上是可替代的,实际上买家若更换供应商会支付两次:一次是为新供应商支付费用,另一次则是为了拆除旧系统。因此,一旦进入,就会带有惯性。

山姆·阿尔特曼公开捍卫了这一协议,表示OpenAI要求五角大楼对所有人工智能公司提供类似的条款。他还表达了对未来法律争议可能导致OpenAI受到与Anthropic相似指定的担忧。这一观点揭示了游戏的现实:今天的优势是访问;明天的风险是合规性。

这一点并不抽象。如果销售的获得依赖于被认定为适合供应链,则企业就进入了一个进程,其中业务的持续性依赖于保持这一状态。自然的结果是要在合规、治理和使用控制上投入更多,这是成本。金融问题并不是这些成本是否在道德上“值得”;而是在于其是否能通过定价和规模得到回收。

在实际操作中,五角大楼正在将合规转变为竞争货币。通过在合同中确定保护框架,OpenAI不仅降低了风险;还标准化了其作为可靠供应商的地位,特别是在最敏感的领域。这种效应最终会渗透到私营部门:银行、医疗、能源和任何受监管的行业都会关注哪些供应商通过了最严格的筛选。

对领导者而言重要的转变:从销售模型转向出售安全操作能力

当一家人工智能公司销售“模型访问权”时,它在性能和每个令牌的价格上竞争。这会将利润压低,因为产品实际上类似于计算原材料。

而当它销售“在受限环境中安全运营的能力”时,经济单位改变:客户支付的是操作风险降低、可用性、授权人员、控制、可追溯性和合同限制。这是另一种支付意愿。

这一协议表明,OpenAI正在向第二种模型更靠近,特别是在公共部门的机密范围内。对Anthropic的指定进一步加剧了行业的分割:不仅要具备能力,还需要符合资格。

在竞争战略方面,这种变化将投资从市场营销和商业扩展转向对现金流有直接影响的三项支出:

  • 合规和安全的固定成本:昂贵,但具有防御性。
  • 专业人员成本:拥有授权的工程师和研究人员,招聘和留住难度加大。
  • 合同谈判成本:周期更长,但可能带来长期合同的机会。

任何人工智能实验室面临的风险是陷入最糟糕的境地:在承受了受监管环境的固定成本后,又无法获得足够的定价来覆盖这些成本。这种错误往往掩盖为“增长”,而随着时间推移,它将表现为对外部融资的异常依赖。

在产业层面,此事件也向投资者传递了信号:人工智能公司的部分价值不在于模型,而在于其能否签署买方定义的合同。若收入路径需要经历供应链的多个筛选过程,则尽职调查不仅是技术层面的事情,更成为政治与监管的一部分。

现金为王:赢家将是那些将限制转化为经常性收入的人

美国政府这一举措同时完成两项工作:加速在防务领域的人工智能采用,同时对被排除在信任范围之外的公司施加更严格的商业处罚。OpenAI获得了高惯性的收入通道;而Anthropic则面临渠道冲击,可能削减其在联邦市场和承包商生态系统中的访问。

对于企业领导者而言,值得借鉴的解读是:在买家同时履行监管职责的市场中,战略的衡量标准不再是口号,而是在吸收合规与风险后保持利润的能力。在机密环境中运营要求将摩擦转化为价格和长期合同;否则,企业仅是将一种依赖性转变为另一种。

在保障其操作并保持控制方面,能生存下来的企业将是那些能让客户以经常性且充足的收入来为其经营提供资金的企业,因为客户的钱乃是支付现实成本的唯一验证,能够防止业务的命运由他人决定。

---

分享
0
为这篇文章投票!

评论

...

你可能还感兴趣