OpenAI与国防部:商业价值在于部署而非模型

OpenAI与国防部:商业价值在于部署而非模型

OpenAI与美国国防部达成将其模型部署于机密网络的协议,引发有关监控和操作控制的讨论。

Francisco TorresFrancisco Torres2026年3月4日6 分钟
分享

OpenAI与国防部:商业价值在于部署而非模型

2026年2月28日,山姆·阿特曼宣布OpenAI与美国国防部达成协议,将其模型部署到机密网络中。同时,Anthropic与政府的谈判于当日破裂,特朗普政府要求各联邦机构在六个月过渡期后停止使用其技术;国防部长皮特·赫格塞斯甚至将Anthropic称为“供应链风险”。次日,OpenAI发布了一则详细的公告,阐述其在合同中明确设定了针对三项使用场景的禁令:国内大规模监控自动化武器高影响决策的自动化

表面上看这是一场政治斗争:一家企业亲近权力,而另一家则疏远。对CEO、CFO或产品运营者来说,更冷静的看法是:这实际上是对部署控制权的争夺,因此决定了谁能够捕获价值,谁在重要阶段承担风险,即展示之后的阶段。

有关监控的争论并非无足轻重,而是关于更大事物的压力测试:人工智能市场正在逐渐从基准测试的竞争转向架构、合规及在不利环境中的操作的竞争。

带有“护栏”的合同的实际执行价值

OpenAI表示,该协议包括“比以往任何协议都更多的护栏”,以确保其模型的机密部署,并明确禁止用于国内大规模监控。该公司还声称,合同引用了“现有的法律标准和政策”,旨在确保未来的使用始终与这些标准保持一致。在其叙述中,该框架并不依赖于文件中的某一句话:它是建立在现行法律、合同保护以及部署设计之上的。

实际问题在于,“护栏”一词在从企业公告转变为现实决策链时会迅速贬值:哪些数据被连接,哪些权限,什么样的可追溯性要求,哪些纪录被保存,谁负责审计,以及在跨境通信和数据收集的世界中什么被视为“国内”。在公众讨论中,Techdirt批评这一文本允许基于《行政命令12333》等框架进行某些收集方案,描述这是捕获美国境外通信的一种形式,尽管其涉及美国公民的个人数据。

从我商业的视角来看,这场争论具有操作性含义:使用限制并不通过意图维持,而是通过在激励变化时仍能存活的机制来维持。在机密环境中,主导激励是任务、速度及摩擦降低。如果控制措施无法验证、无法提供可用证据,并且没有即时的技术后果,它们就会沦为文学。

因此,“如何”比“什么”更重要:OpenAI强调通过API在云端进行部署,授权人员“参与其中”,以及对其安全堆栈的“完全自由裁量权”。这些元素指向一种持续控制的模型。但这也提出了一个不同的治理问题,不带道德言辞:在压力增大的情况下,谁掌握操作权限

架构就是产品:云、API及表面控制

OpenAI国家安全合作伙伴关系负责人卡特琳娜·穆利根辩称:“部署架构比合同语言更重要。”她具体指出,将实施限于云API减少了将模型直接集成到武器、传感器或其他操作设备中的可能性。

这句话是协议的战略核心。在人工智能中,模型的商品化;而部署则成为壕沟。如果推理在供应商的云中进行,则供应商保留三项关键资产:

1) 更新控制:实验室决定何时以及如何改变系统行为。

2) 可观察性:能够基于特定政策示范日志、警报、滥用检测及提示与输出的可追溯性。

3) 中断能力:在事件发生时实现“关机”,无论是因退化、滥用还是不配合。

此外,在军事环境中,边缘部署具有明显的吸引力:延迟、断开电源的弹性、本地自主。如果合同推动转向云,那么政府获得了功能能力,但放弃了部分操作控制。这是一个经过深思熟虑的交换,而不是一个技术细节。

问题在于媒体所覆盖得很少的紧张关系:买方希望拥有操作主权,而卖方则希望控制风险。云是一个中间点,允许销售而不“交出整个引擎”。OpenAI坚持云端部署,似乎同时在追求两件事:收入以及在不受欢迎的使用面前的防御性地位。

对于任何向政府或受监管行业出售关键技术的企业而言,教训是明确的:合同是框架;架构是执行。定义风险特征和合规成本的不是PDF,而是图示。

隐藏的激励:实际收入、依赖性及支持成本

目前我们对合同的具体数据无法获取,因此无法进行定量审计。但经济向量可以推断:在机密环境中的部署很少是“自助式”服务。它需要整合、硬化、控制、合格人员、流程、文档、支持,尤其是响应能力。OpenAI声称会有“授权人员参与”,包括部署的工程师和安全及对齐人员。

这直接产生成本。在传统的软件业务中,利润通过标准化和减少服务来保护。而在机密部署中,利润通过另一种方式保护:将专业支持转变为产品的一部分,从而提高因关键性而定价。

结果是OpenAI接近一种模式,其中“国防部”账户的性质并不类似于典型的SaaS客户,而更类似于关键基础设施客户。这引入了三种动态:

  • 互相依赖:政府依赖供应商进行运行;供应商依赖政府以稳定高可预见性的收入流。
  • 高变动成本:合格人员、持续合规和事件管理。这迫使组织构建一个强有力的执行单元,而不仅仅是一个实验室。
  • 背景下的产品风险:每个例外、每个整合和每个极端案例推动额外的控制层次,这也可能给商业产品带来摩擦和复杂性。

我们手中有的竞争数据说明了市场的敏感性:2026年3月1日,Claude在App Store中超越了ChatGPT。虽然它本身并不证明因果关系,但显示了“红线”定位可能会在短期内改变用户偏好。在战略层面上,OpenAI似乎接受了公共消费方面可能的声誉侵蚀,以增强机构收入前景并巩固其作为主要高限制部署供应商的地位。

市场的真正裂痕:谁承担使用风险

OpenAI和Anthropic的撞击被理解为价值观的差异。对于运营者来说,更有用的是将其视为风险结构的差异。Anthropic拒绝签署类似的协议,并遭受了强烈的机构报复:被认定为供应链风险,并接受联邦机构的逐步撤离命令。这传递了一个任何创始人都能理解的信号:在某些市场中,不参与会产生直接成本。

而OpenAI试图设计一种有限的参与方式:合同中禁止某些用途,强调云端唯一,并声称保留对其安全堆栈的自由裁量权。它甚至表示希望能够“减少”与政府和实验室之间的冲突,并要求将相同条件提供给其他公司。

C级管理人员的解读是,政府正在推动行业朝着将先进人工智能视为战略基础设施的方向发展。在这个类别中,实验室不再只是供应商,而是国家安全周边的运营者。这改变了你需要成为的一种企业类型:

  • 仅仅迭代模型和用户体验不再足够;你需要运营安全流程,以及在压力下也能生存的决策链。
  • 主要风险不仅仅是模型失败,而是使用因与实验室不控制的系统和数据的整合而失控。
  • 主要竞争优势不仅在于响应质量,还有在生产中控制的能力和合规证据。

当公众辩论集中在“国内大规模监控”这一短语上时,丧失了一个执行变量:合同是一种责任分配机制。如果实验室保留了部署和安全堆栈的控制,它就会保留一部分声誉和操作风险。如果买方要求边缘部署和完全控制,实验室减少控制,但也可能试图减少责任。真正的冲突就是这种分配。

市场走向:更少的演示,更多的工业治理

阿特曼的公告中包含一个重要的承认:这个决定“确实有点草率”,并且“看起来不太好”。这表明了时间压力以及具体的政治窗口。在操作中,匆忙对两件事情是敌人:合同的清晰性和可度量的控制设计。

尽管如此,趋势很难逆转:更大、更受监管的买方将要求人工智能在现实条件下、在真实限制下运行。竞争的标准将朝以下方向转变:

  • 架构限制与操作硬件的整合,当风险要求时。
  • 合格人员和变更流程,将安全转变为执行,而非文件。
  • 可追溯性,以展示而不仅仅是声明遵守使用限制。
  • 冻结标准的条款或在法律变更下如何呆在重新解释的定义。

如果OpenAI能够在不降低其整体产品质量和不增加内部官僚的情况下运营这一类型的合同,那它就创造了一个无法通过“稍微好一点的模式”来复制的护城河。如果无法实现,成本将是组织性的:更多的层次、更多的例外、更多的摩擦以及一个跟随最苛刻客户步伐的产品。

战略不在于X,也不在于一则企业公告,而是在于部署工程、安全程序以及在生产中维持可验证护栏的真实成本,

分享
0
为这篇文章投票!

评论

...

你可能还感兴趣

OpenAI与国防部:商业价值在于部署 | Sustainabl