人工智能的风险在于领导力,而非软件
前Indeed首席执行官Chris Hyams最近的警告让人不安:人工智能的风险不在于技术,而在于推动它的人。这不是一个小的修辞转变。2025年,Hyams坚持两个看似矛盾的观点:首先,人工智能不会“完成所有工作”,但它能很好地执行大多数职位中相当一部分的技能;其次,主要挑战是负责任地实施,因为在就业、住房、教育、健康和司法等方面的影响可能会加剧现有的不平等。
现在焦点从“如何做”转向了“谁在做”。这一转变是领导力和组织设计的诊断:在许多公司中,人工智能被视为一款软件包,而实际上它是一种能够改变标准、激励和控制的杠杆。如果治理系统薄弱,人工智能只会加速不良、模糊或短视的决策。如果治理系统强大,人工智能就会转化为更高的生产力、更好的服务和更少的摩擦。
当问题在于驾驶者,刹车不是技术问题
Hyams深知劳动市场的现实。Indeed正是处于人工智能能否迅速产生价值或造成损害的核心:人与机会之间的匹配。在2025年5月,他提出了一个既有用又易被误解的发现:“没有一份工作”是人工智能可以掌握“所有技能”的,但在大约“三分之二”的工作中,“50%或更多”的技能是当前生成型人工智能可以“合理甚至很好地执行”的。这句话具有操作性:公司面临的不是二元替代,而是一大块任务可能会转移到其他人手中。
一个急于求成的C级高管将这块任务转变为成本削减的命令,而认真对待的C级高管则将其转变为工作重新设计。二者之间的区别在于治理:谁来定义哪些任务被自动化,制定什么标准,设定什么限度,进行什么审核,以及当系统出现错误时谁来负责。
在2025年1月,Hyams在达沃斯也描绘了催促加速的宏观经济框架:“我们正处于一场比赛的开端”,一方面是收缩的劳动力,另一方面是人工智能带来的潜在生产力收益。他甚至预见到时间上的压缩:“30年的变革”可能在“3到4年内”完成。当速度如此之快时,最大风险不是模型出现幻觉,而是一个组织因为激励机制更青睐速度而采取捷径。
2026年的警告与我在转型中经常看到的模式相符:宣告原则和委员会,但日常执行被季度紧迫感所捕获。在这一点上,“责任”变成了一份文件,而产品和运营则推动部署。技术并不会决定这种权衡;是内部的权力结构决定的。
人工智能作为投资组合中的张力,而非IT项目
在大型企业中,人工智能的采用通常通过两扇门进入。第一扇是效率:支持自动化、内容生成、开发人员协助及内部分析。第二扇是产品:客户的新功能、改进的推荐、更好的匹配及更少的摩擦。在这两种情况下,经典错误是将其视为有截止日期的IT项目,并设定标准的财务KPI。
Hyams对技能的解读暗示了另一种可能性:人工智能同时影响“当前的收入引擎”和“操作效率”。如果处理得当,它会为“孵化”和“能力转型”开辟空间。如果处理不当,它只会在短期内削减成本,在长期内降低系统的质量。
因此,他的侧重点转变显得重要。当一个领袖说风险在于推动人工智能的人时,他在说,典型的失败不是来自实验室,而是来自执行:部署没有清晰的所有权,没有决策的可追溯性,也没有在损害发生时能够阻止系统的实际机制。而在就业等行业中,“损害”的概念并不是抽象的:一个调整不当的过滤器可能会排除特定的候选人,延续历史偏见,或造成难以审核的不透明。
Hyams曾直接指出,负责任的人工智能是他生活中“民权和人权问题”,并指出在就业、住房、教育、健康和司法等方面存在深刻的不平等,而一个自动化系统可能会加剧这样的情况。这种看法不是通过一个清单来解决的,而是通过投资组合决策:投入多少预算用于控制和审计,多少用于部署速度,多少用于培训,多少用于流程重设计。如果所有的指标都以立即盈利为标准,控制总是会失利。
缺乏操作自治的监督最终变成文牍主义
Indeed成立了一个负责任的人工智能团队,由不同领域的专家组成,以便根据负责任人工智能的原则评估系统并构建技术。这种跨学科的合作是一个正确的信号。然而,当这个团队只是咨询性质、或者在产品周期中介入太晚,或者没有权力来阻止部署时,问题就出现了。
在对业绩有压力的公司中,“责任团队”往往变成了一个签字的最终审核者。如果组织已经确定了商业截止日期,该签名则变得形式化。而且如果团队的评估指标与其任务不符,它就会被迫陷入原本要平衡的系统中。
Hyams在2025年的观点是社会技术性的:了解社会构造与系统相结合的地方。实质而言,意味着三件实用的事情。首先,数据的质量及其历史是重要的,因为偏见无法在事后“修复”。其次,输出必须在适当的上下文中可解释,尤其是在影响经济机会的决策中。最后,问责必须明确:如果一个系统自动化了选择的阶段,必须有负责人对结果和副作用负责。
当Hyams现在提及推动人工智能的人时,他在描述更多是治理失败的模式,而不是技术缺失的模式。平均公司并不缺乏更好的模型,而缺乏的是一种决策设计,迫使其在速度、控制和合法性之间取得平衡。
追求生产力如果没有良好测量,将削弱信任
对于生产力的压力并不是道德借口,而是一种经济限制。如果劳动力在减少而需求依然存在,自动化的诱惑就会增加。风险在于,许多公司用易于衡量的指标来评估人工智能的收益,却用看不见的指标来评估其成本。
典型收益很容易进入业绩指标:每个工单所需时间减少、每次互动成本降低、开发期间吞吐量增加、生成内容数量增加。关键成本往往出现得较晚:关于偏见的投诉、信任度降低、雇主品牌的贬值、监管敞口,以及内部团队失去对流程的理解,因为他们将其委托给一个系统。
在就业世界中,这种不对称尤为敏感。如果候选人感到任意,平台的声誉就会受到损害。如果企业察觉到匹配变差或流程不透明,其支出也会相应调整。人工智能可以改善匹配,但前提是要有纪律地治理:设定清晰的目标、持续评估和可追溯性。
Hyams还预见到,将有“十倍更多”的人将成为编码者,尽管工作与当前的开发工作相比将是“不可识别的”。这一说法指向知识工作深刻的重新设计。当工作如此变化时,企业必须重新设计其绩效体系、培训和角色结构。如果不这样做,人工智能只会在旧流程之上增加一层,造成摩擦和大规模错误。
这里的领导力失败不是出于恶意,而是依赖于过去使用的相同控制面板。人工智能要求混合控制面板:效率与学习。如果只奖励效率,就会扼杀早期发现损害的能力。
避免将人工智能转化为系统性风险的操作模式
在公开信息的背景下,Hyams并没有在他最近的警告中详细列举具体的例子。尽管如此,他的经历允许我们将中心风险解读为原则与执行之间的差距。在大型组织中,这一差距通过设计来缩小,而非通过空洞的演讲。
从实用角度来看,我看到四个机制将健康的采用和脆弱的采用区分开来。第一个是明确的所有权:每个影响敏感决策的系统必须有业务负责人和风险负责人,且必须具备实际权威。第二个是有限的自主性:实验团队需要速度,但应在设定好不可触及和必须审计的框架内。第三个是适合阶段的正确指标:在早期实施中,只关注节约或转化可能会推动隐瞒问题;还需衡量稳定性、错误、投诉和可逆性。第四个是可逆能力:如果一个系统造成损害,企业必须能够关闭或降级它,而不至于使运营瘫痪。
这并不是多余的官僚体系,而是确保人工智能能够提高生产力而不会转化为负担所需的最基本的组织工程。Hyams提到的“推动”人工智能的人,实质上是对没有操作制约的采纳的批评。
Indeed的案例是相关的,因为就业行业正处于社会和监管敏感性的中心。那些追求效率而忽视控制的公司可能会在一个季度内获利,却在多年中失去信任。而那些投资于治理和工作重新设计的公司则有可能获得持久的生产力。
可行性取决于如何治理两种速度而不破坏核心
人工智能正在推动公司以两种速度运作:以成本纪律维持当前业务,同时以更接近初创公司的节奏探索工作和产品的重新设计。Hyams的警告提醒我们,失败的点很少是模型本身;而是围绕它的决策系统。
一个可行的组织保护当前业务的财务健康,而不窒息探索,明确分配权威,以便在风险超过收益时阻止部署,并使用不惩罚错误发现的指标来评估早期学习。这种平衡使当前的盈利能力得以持续,同时为未来的扩张构建能力。









