OpenAI试图承担自己制造的混乱成本

OpenAI试图承担自己制造的混乱成本

Sam Altman提议提高资本利得税及缩短工作周以缓解AI影响。但问题在于,设计补救措施的人正是造成问题的人。

Ignacio SilvaIgnacio Silva2026年4月7日7 分钟
分享

OpenAI试图承担自己制造的混乱成本

2026年4月6日,OpenAI发布了一份标题为《智能时代的产业政策:以人为本的理念》的13页文件。文中,这家在超智能研发领域领先的公司提议提高资本利得税,对自动化工作产生的收入征税,试行四天工作制而不降低工资,并创建一个公共财富基金,使所有美国公民能够参与AI带来的经济增长。这可不是小事。同样,这个提议不是来自进步派参议员或工会智库,而是来自这家承认自己正在建造超越人类智能系统的公司,即使那些人类也在使用AI的帮助。

这个悖论是结构性的,而非偶然的。从企业组合的设计上看,它揭示了比政治矛盾更令人不安的内容。

硅谷意外的文件

这篇文章最引人注目的不是内容,而是其作者。OpenAI既不是非营利组织也不是学术实验室,而是一家直接竞争以获取自己的公共政策建议将尝试重新分配的经济价值的公司。首席执行官Sam Altman在文件中承认,他曾与一名高级共和党参议员交谈,该参议员指出的一个很少听到的观点:资本主义一直依赖于劳动力与资本之间的平衡,而AI正在迅速且不可逆转地打破这种平衡

这句话不是修辞,而是对当技术置换大多数人的收入来源时所发生状况的有效诊断。OpenAI的角色提议通过重新配置税制来回应:减少对工资税的依赖——因为它对劳动置换特别脆弱——并增加对公司利润、资本利得的高税率,以及由自动化驱动的持续回报的负担。此外,还提议激励企业留住和再培训员工,提高健康和退休保障,并试行与生产力增长挂钩的四天工作周。

这不是微不足道的提案。摩根大通首席执行官Jamie Dimon也独立得出了类似的结论:他预测,AI将使工作周缩短至三天半,并呼吁建立公共与私人激励机制以支持员工再培训和提前退休。当现代资本主义中两个最具影响力的领域——科技与金融——在同一诊断上达成共识时,拯救该机制的建议就值得认真对待。

政治慈善背后的组合策略

从外部看,这似乎是企业的利他行为。从组织设计看,这却是更具算计的:一种对长期业务组合风险的管理手段

OpenAI知道其现有的收入模型依赖于企业和个人大规模采用其工具。然而,这种大规模采用存在政治限制:如果劳动替代引发失控的立法回应,其结果可能是惩罚性监管、对AI服务的关税或任何行业都不想要的使用限制。通过主动提出重分配的条款,OpenAI试图将自己定位为合理的参与者,定义话题的边界,避免让别人来做。

这有着明确的组合逻辑。OpenAI的核心业务——其商业模型、企业许可、API——如今是资助其超智能竞赛的现金引擎。保护这个引擎意味着避免让政治背景窒息它。公共政策的提案在这方面作为一个监管盾牌,保护核心收入:如果Alman已经建议对像其这样的公司征税,那么指责其逃避社会责任就变得困难了。

问题在于,在你的公司尚未产生该税收的收入时,提议征收资本利得税是件容易的事。OpenAI仍然是一家处于大量投资阶段的公司,而非稳定的现金流生成者。此提案对其现有股东几乎没有目前政治成本,却提供了相当可观的叙述利益。这并不一定意味着它虚伪,但作为财政架构而言确实不完整。

四天工作制作为组合实验,而非劳动让步

文件中有一个值得单独分析的要素:试行四天工作制的提案,不降低工资,且与AI带来的生产力提升挂钩。从文本上看,这听起来是慷慨的劳动让步。从企业激励设计的角度来看,它是另一回事。

如果一家企业采用了AI,其员工在四天内的生产等于五天,那么对于雇主来说,第四天的自由并不会造成成 品的成本。在固定工资结构上只在生产力未能实现时才会带来成本。因此,该文件并未将四天工作制提议为普遍强制,而是作为与生产力指标挂钩的试点提案。这是一个验证实验,而非让步。企业留住员工,降低政治摩擦,并保持或增加产出。如果试点失败,则将其抛弃。如果成功,则扩展。

这正是应该执行良好设计创新的方式:以受限的自治,被自身学习指标驱动,并且不将成熟操作的评估标准扩展到实验中。问题是,接受这些推荐的大多数企业——如果它们最终成为政策——没有实现AI所需的基础设施或分析能力,无法准确测量这种交换。对它们而言,试点可能成为没有可测回报的成本。

OpenAI的文件隐含地假设,所有企业都会像OpenAI所预测的一样,从AI中捕获价值。这是一个未经过市场验证的组合假设。

OpenAI的组合问题在于合法性,而不是理念

该文件的提案在技术上并非无理。对于正在被自动化的劳动而言,对资本征税而不是劳动具有一致的财政逻辑。创建公共财富基金,并从AI中获取回报是经济学家们多年探索的想法。大规模再培训劳动力是操作需要,而不单是伦理需求。

但在设计所有这一切时,存在治理问题。OpenAI既是颠覆性技术的开发者,也是对其造成的损害进行诊断的作者,还是监管补救的提案者。这种角色集中在一个主体中——没有独立机构的权力来验证分析——恰好是削弱任何公共政策提案的组织瓶颈,尽管其技术优点无可挑剔。

特朗普政府于2025年12月签署了一项行政命令,旨在减少对AI的国家监管。OpenAI在这一去监管的背景下运营,同时向自身及竞争对手发布自我规范政策的蓝图。该文件的两党框架——引用共和党人及与金融界的主流人物如Dimon达成共识——显示了对当前时刻的复杂政治解读。但任何叙述技巧都无法解决根本问题:一家公司不能同时是一个过程中最主要的受益者和最可信的后果裁决者

OpenAI长期商业组合的可行性取决于市场和监管者是否接受这种双重角色。迄今为止,尚无明确迹象表明它们会这样做。

分享
0
为这篇文章投票!

评论

...

你可能还感兴趣