OpenAI第二次推迟了其在ChatGPT中推出的“成人模式”,这一功能在Sam Altman的描述中旨在“将成人用户当作成人对待”,允许经过验证的成人访问较少限制的内容,包括色情内容。推出的时间表经历了多次变化:从2025年12月,到2026年第一季度,现在没有具体日期。官方解释非常简单:优先考虑对更多用户更重要的改进,例如智能提升、个性调整、个性化服务和更主动的用户体验。实际上,这个故事更类似于对一个主导资产的投资组合管理:当你拥有最大的用户基础时,你首先保护核心,然后再追求额外收益。
ChatGPT的用户规模非常庞大:每周有8亿活跃用户。在如此庞大的用户量下,任何年龄控制上的系统性错误不仅仅是一个bug;它会变成大规模的摩擦源、监管关注以及潜在的法律责任。OpenAI自2026年1月起,已经开始在全球推广自己的年龄预测模型,能够根据提示和输入媒体估算用户年龄,并为标记为未成年的用户提供通过Persona的验证。根据报道,曾有成人用户被错误分类为青少年。这一细节是此案例的经济核心。
“成人模式”并不是产品中的一个简单选项,而是一个风险管理的改变。在金融市场中,相当于将一个保守的基金转变为允许衍生品的投资组合:你可以提升预期收益,但风险委员会要求设定保证金、限制、审计,和提供控制有效性的量化证明。在这里,“保证金”就是年龄检测。而OpenAI尚未发布其年龄预测系统的准确性指标。没有数据,推出就是一个负面不对称的赌注。
延迟并非道德问题,而是风险平衡的优先选择
发言人对Axios的表述,被Fast Company报道为“推迟以便专注于更重要的优先事项,如智能、个性、个性化和主动性”——听起来像是产品手册。在冷静回顾中,这实际上是一个风险管理的信号:一家庞大的公司正在将资源转向减少用户流失和维持使用频率的方向。“成人模式”或许可以提高一部分人群的参与度,但也会在一个正处于日益严格监管阶段的行业中集中风险。
这种紧张的局面源于“成人模式”依赖于一个难以划定的界限:在全球范围内足够可靠地区分成年人和未成年人。OpenAI已经对被怀疑为未成年人的用户施加了更严格的限制,包括限制暴力和浪漫角色扮演内容,并在有疑问时提供通过Persona的验证路径。从理论上讲,这是一种合理的架构:自动检测和在存疑时上升到验证问题。问题出在操作层面:假阳性和假阴性的结果表现各异。
假阳性(成年人被当作未成年人处理)提升了合法用户的使用体验。在商业上这就像是在每次客户尝试购买时要求他们提供额外文件,以此增加了摩擦。在用户群体中,特别是如大学生等可能释放出“任务信号”的群体中,效果并不好,正如Knight-Georgetown Institute的Alissa Cooper在报道中所警告的。假阴性(未成年人被当作成年人处理)的后果更严重:不仅危及安全,还会带来法律风险和监管压力。
因此,延迟的决策符合一个简单的理论:当核心客户群巨大时,控制失效的预期成本超过功能的边际收益。在投资组合中,这是在寻找alpha之前降低尾部风险的策略。
利用人工智能进行年龄检测带来了隐性成本
企业往往将“年龄验证”视作合规检查。然而,在实际操作中,这是一项持续的成本引擎。首先,因为系统必须在多种语言、文化、使用模式和背景中进行操作。其次,因为总会有对手:总会有逃避的尝试,就像Cooper所说,规避是不可避免的,无论架构如何。第三,错误将转化为支持请求、审核、上诉和所有直接费用的验证流程。
OpenAI选择了一条结合自动预测和第三方验证(Persona)的路径。从成本结构的角度来看,外包部分流程使得一部分支出变成了可变成本。这种方式是防御性的:在需要时更愿意为验证买单,而不是为所有用户构建一个笨重的内部系统。然而,自动预测是瓶颈:如果分类不准确,将推动验证费用并增加摩擦。在财务的语境中,这一模式可能陷入两种损失之间:如果降低门槛,会增加假阴性和风险;而如果提高门槛,假阳性增加,用户满意度下降。
还有另一个隐性成本:缺乏公开指标。Cooper要求透明度并进行独立评估。可以理解的是,一家企业不愿意公开数据(这也揭示了攻击面并可能被逆向工程),但其副作用在于市场、监管者和合作伙伴将面临较大的不确定性。在这种情况下,信誉资本会消耗得更快。
此时,“成人模式”的延迟似乎是一次预防性的损害控制。这 并不是因为公司不相信这个原则,而是因为控制系统似乎还没有足够的公开性能证据。在风险管理中,当你无法限制波动时,需要缩减仓位大小。
压力与盈利化:为什么“成人”内容是诱人的
报道称,OpenAI面临着并非偶然的两种经济压力:从2026年1月开始,OpenAI计划为美国的部分用户提供广告服务,同时它还计划在未来五年进行大量的资料中心投资。在高昂的计算成本面前,盈利化已不是可选项,而是生存问题。“成人模式”可能成为某些用户具有较高支付意愿的产品,同时也能产生广告库存的“高度参与用户”,就如行业分析所指出的。
问题在于,这种盈利化需依赖可靠的用户区分。受限的广告和内容需要强有力的分类。如果系统出错,成本可能是巨大的:公共投诉、监管封锁和信任缺失。从首席财务官的角度来看,“成人模式”预期的额外收入需要考虑事故成本和支持及验证支出增加的折扣。
OpenAI还在竞争一个先机优势正在削弱的市场。外界提到Gemini(谷歌)的改善以及Claude(Anthropic)的崛起。当产品被同质化,企业需要通过特征和体验来寻求差异化。“成人模式”可能看似一个快速的差异化,但它也是一条增加风险尾部的路径。如果用户基础达到每周8亿,理性选择是通过影响大多数用户的提升维持整体参与度。
用更直接的方式说:公司选择在主要收益上寻求稳定表现,而不是在法律风险波动下寻求高回报的选项。
市场信号是模块化或运营刚性
这个案例为整个聊天机器人类别提供了商业模式的教训。分隔体验——未成年人有严格限制,成年人则较少限制——是一种从政策到产品应用的模块化架构。如果有效,它允许在不同细分市场中捕获价值,而无须让所有用户接受同一标准。如果无法作用,它就会转变成一种不一致的机器,迫使统一限制,从而降低普通成人用户的产品体验。
OpenAI已经在2025年经历了类似的事情,之前的ChatGPT版本被指控导致青少年自杀。无论法律结果如何,此类事件都会推动为每位用户施加保护措施。朝着特定年龄检测的转变在战略上是一种避免单一段用户的风险迫使整个产品“削减”的方式。意图是模块化,但执行则是关键。
延迟暗示该系统尚未达到开放大门的内部标准。这是许多竞争对手低估的部分:成本不在于构建功能,而在于操作边界。对于每周8亿的用户量,边界就是产品。
从我的风险视角来看,决定也反映了建设的逻辑序:首先增强引擎(智能、个性化、主动性),然后再添加内容分隔。反其道而行之,有如在未建立保证金、限制和清算体系之前出售期权。这可能在一个月内行得通,但无法持久。
未来的可能在于更多测试、较少公开承诺
OpenAI将“成人模式”视为没有具体时间的“最终计划”。这与在交付依赖于仍然产生报告假阳性的技术时,减少公开承诺的战略一致。同时,可以合理预期他们会继续改进年龄预测模型和Persona的流程,因为那里是瓶颈。
根据报道,该行业正朝向多个司法管辖区的更严格监管前进。这进一步提升了拥有支持审计的分隔系统的价值,并增加了出现错误的代价。在这种环境下,OpenAI显然在重新分配资源,以支持其巨大客户基础的核心改进,同时使年龄控制发展到足够的水平,以确保“成人模式”不会成为事故频发的源头。
对高管而言,实际的信号是,年龄细分不是一个“功能”,而是风险基础设施。那些将其视为附加功能的人,最终将运营一个刚性产品:要么对成年人过于限制,要么对未成年人过于暴露。OpenAI的延迟暗示他们正试图避免这种刚性,尽管代价是推迟一个潜在的收入杠杆。
如果年龄控制系统能将错误减少到保持核心稳定并允许增量盈利化的水平,商业模式将会保持稳定。












