防御作为客户锚点:OpenAI将安全转变为商业条件
2026年2月27日,OpenAI首席执行官山姆·阿尔特曼在公司全体员工会议上表示,OpenAI正与美国国防部洽谈达成协议,以部署其人工智能模型和工具。但关键在于,OpenAI希望维持自己的“安全堆栈”,即在模型和最终用途之间保留技术、政策和人力的控制,同时避免客户强迫取消模型在特定任务上的拒绝。根据《财富》杂志的报道,该合同仍未最终敲定或签署,信息来自会议中的一位消息人士及媒体的审查总结。
此项谈判是在五角大楼与Anthropic之间公开破裂后进行的。报告指出,Anthropic拒绝移除其Claude模型中的安全防护措施,这些措施限制了国内的大规模监控和完全自主武器的使用,而五角大楼则要求其为“所有合法用途”提供可用性。与此同时,唐纳德·特朗普总统命令各联邦机构停止使用Anthropic的技术,给出六个月的退出窗口,国防部长彼得·赫格塞斯宣布,该部门将把Anthropic视为国家安全的供应链风险,将影响扩大到政府之外。
几个小时后,阿尔特曼在社交媒体X上发布消息称,OpenAI已经与国防部达成协议,将在其分类网络中进行部署,并强调两条重要原则:禁止国内大规模监控,以及对使用武力(包括自主武器)的责任。竞争的冲突显而易见,但我认为更理性的解读是:这一事件揭示了在高级人工智能中,安全防护不再是伦理手势,而是定义谁控制利润、谁承担声誉风险、谁陷入合规成本的产品控制条款。
当客户要求“取消制动”时,实际上是在请求控制利润
在高风险服务中——而防御本质上就是高风险——客户不仅是在购买能力。他们还在购买责任,而当他们试图移动使用的边界时,其实是在重新配置这些责任的分配。在Anthropic的案例中,《财富》的报道指出,冲突聚焦于撤除与国内监控和自主武器相关的安全防护措施的要求,而五角大楼则坚持要求可用于"合法用途"。结果有双重:威胁高达2亿美元的合同,以及最终一场政治升级,命令Anthropic退出联邦机构,并被指定为供应链风险。 从金融架构的角度,我这样理解:如果客户能够迫使供应商关闭产品的限制,供应商就从销售工具转变为外包风险。而风险,迟早会转化为成本。法律成本、合规成本、内部安全成本、人才成本、保险费成本,以及其他领域的商业成本。无需作假数字:只需理解这个机制。在人工智能中,主导的可变成本是计算。如果再添加因极端使用或敏感政治而产生的不确定成本,利润不再是一个数字,而成为一场赌注。 这正是阿尔特曼发给员工的信息的意义:OpenAI在谈判中试图保持自己的“安全堆栈”,并避免客户对模型的拒绝强加“覆盖”。这是在告诉买方:该服务在保持产品外部条件下技术安全的基础上提供。这不仅保护了公司,同样也稳定了合同的经济,因为它减少了协议导致临时要求、操作例外和人力支持升级的概率,这样会侵蚀利润。防御作为客户锚点:严格限制下的可预测流量
OpenAI进入这个谈判背景时,整个行业都在寻求将资本和计算密集型的基础模型货币化。当产品的可变成本较高时,传统的诱惑是追逐规模。但在政府和防御行业,规模与大众消费大相径庭:它更像是大型票据、缓慢的购买周期以及安全要求使部分成本变为固定。 《财富》报告中关键的点在于,阿尔特曼会要求明确部署限制,包括使用将位于云端而非飞机或无人机等“边缘”系统中。此外,X提到的协议将专注于在分类网络内进行部署。这一点重要,因为它定义了成本曲线。在分类网络中部署并非小事,但界定边界能减少组合性:更少的极端整合,更少的关键延迟场景,更少的需要与操作硬件相关的认证。 从财务上说,防御“客户锚点”可以发挥两个角色。首先,提供高质量的经常性收入,通常比消费领域对经济周期的敏感度低。其次,作为对受管制的B2B销售的验证者。但隐含的代价是风险可能被固定要求所捕捉:专门的团队、审计、事件响应和严格的合同治理。 因此,OpenAI力争保持其“安全堆栈”是非常关键的。这是他们限制“范围膨胀”及保护成本结构的方式。一个复杂性增长快于收入的重大合同,虽然看似庞大,却让你变得脆弱。Anthropic留下的空缺不仅是商业:是权力的再排列
在此次事件之前,据《财富》报道,Anthropic曾是唯一一个通过与Palantir的联盟获得五角大楼批准使用的主要商业供应商。这为他们提供了不对称的优势:成为在巨大预算买方中的“授权者”。 政治干预改变了游戏规则。停止使用Anthropic的总统命令以及将其指定为供应链风险的威胁产生了一个副作用:提高了任何与Anthropic在国防相关领域合作的参与者的机会成本。我无需推测法律结果;只需观察激励机制:公共买方试图对私人供应商进行约束。 在这种情境下,OpenAI似乎成为自然的替代者,然而其战略有所不同:进军该领域时发布明确的“相互尊重”安全原则声明,包括对国内大规模监控的禁令和对使用武力的人的责任要求。换句话说,这是在构建一份合同,使公司保留部分产品控制权,客户保留任务控制权,但不将人工智能变成一个无约束的系统。这种平衡具有竞争意义:如果政府接受OpenAI维持其安全层,那么“能力”就不再是唯一标准。重要的是谁能够提供可在政治上被接受的控制框架下的能力。在受监管的市场中,这种容忍度定义了可获取市场的实际规模。
“安全堆栈”背后的简单数学:通过保护边界来保护利润
财务领导者不应停留在抽象讨论上。实际问题是想要控制哪个变量。 在人工智能模型业务中,边际使用成本随计算变动,而质量成本随安全、监测和支持变动。如果客户能够要求例外并撤销拒绝,便会出现两个效果: 1) 支持成本增加:更多事件,更多人力升级,更多政策审查和内部审计。 2) 未来销售下降:单一事件可能会在高价支付,且不希望自身被关联到争议使用的企业中遮上窗。 从这个逻辑来看,保持“安全堆栈”是一种把部分风险变为产品规章的方式。这不是无私,而是控制成本变动的手段。而控制变动本质上是保护利润。与Anthropic的2亿美元争议合同数据也提供了一定的规模参考。这样的协议能够为基础设施、安全和专门团队提供资金。但是,如果它因范围变化而演变为成本不断增加的漩涡,那结果就不再是好生意。政府合同的风险并不在于支付较少,而是支付合理的代价,在要求你像传统防务承包商一样操作的情形下。
OpenAI的出发点似乎表明已经总结出经验:一开始便谈判部署边界、安全防护控制以及无需强制撤销拒绝。这一“拒绝”的书面合同相当于是限制可变成本和声誉成本的金融等价物。










