AIエージェントの増加と人間の仕事:誰も予想できなかった逆説

AIエージェントの増加と人間の仕事:誰も予想できなかった逆説

AIエージェントでの自動化は、人間の認知的負担を軽減するのではなく、再配分するに過ぎない。BoxのCEOがその真実を語る。

Clara MontesClara Montes2026年4月5日7
共有

AIエージェントの増加と人間の仕事:誰も予想できなかった逆説

2023年以降、ほぼすべてのAI製品発表には共通の約束が存在する:十分な数の自律型エージェントを展開すれば、チームは本当に重要な仕事に集中できるようになるというものだ。自動化は残りの業務を引き受けるという。しかし、この約束には一つの問題がある。それは、認知的な仕事は委任できる固定されたボリュームだと仮定していることだ。実際には、そうではない。

BoxのCEO、アーロン・レビーはこのことを業界の中でも明確に語っている。複数のAIエージェントをオーケストレーションすることは、人間の認知的負担を消すのではなく、ただ変化させるだけだ。以前は執行の仕事があった場所に、今は監督や調整、意思決定の仕事が求められるようになり、それは人間の脳がリアルタイムで追いきれない速度で運用されるシステムに関わるものだ。その結果、単に努力が減るのではなく、異なる形の、そして多くの場合、より要求される仕事が求められる。

解放された管理者の幻想

そのため、組織が文書フロー管理のためのAIエージェント、契約分析用のエージェント、コンプライアンス監視のためのエージェントを展開した場合、経営委員会が即座に考えるべき質問は、各エージェントがどれだけの時間を節約できるかではない。正しい質問は、出力が矛盾した場合に三者の調整を誰が行うのか、どれか一つが異常を検知したとき、それを他の二つが無視した場合はどうするのか、そしてどの人間が正しいかをどうやって決定するのかということだ。

それは技術的な質問ではない。ガバナンスに関する問いであり、最終的には人の仕事である。

レビーが描くパターンには正確なメカニズムがある。エージェントの数が増えるにつれ、そのオーケストレーションの複雑さは非線形に増加する。二つのエージェントには監督のインターフェースが必要で、五つのエージェントにはプロトコルが必要で、二十のエージェントには自身の階層と昇格規則、パフォーマンス指標を含む平行の組織構造に似たものが必須となる。誰かがその構造を設計し、誰かがそれを維持しなければならない。そして、失敗した時には、誰かが責任を負うこととなる。

このことを痛感している企業は、まさにエージェントを導入したが、実際に何の仕事を排除し、新たに何の仕事を生み出しているのかを理解する前に人員削減を図ろうとした企業である。彼らは自動化を簡素化と考え、スケールを取得することは組み込まれた複雑さを持っていることを理解していなかった。

自動化されたことは問題ではなかった

これは、製品チームやデジタルトランスフォーメーション委員会にとって不安を呼ぶ診断である。AIエージェントが効果的に実行しているタスクのほとんどが、組織内で最もコストのかかるボトルネックを生んでいたわけではないのだ。

エージェントは、文書の分類、構造化データの抽出、既知のテンプレートに基づくドラフト作成といったボリューム処理が得意である。これらのタスクは測定可能で、繰り返し可能で、評価もしやすい。また、多くの文脈において、従業員が既に迅速かつ正確に実行できるように学習してきたタスクでもある。実際にエグゼクティブなエネルギーを消費する仕事、すなわち不確実性の中で判断を下し、対立する利益の間で交渉し、前例のない決定を行う仕事は、エージェントに委任することができない。しかし、まさにその仕事が、より多くのエージェントが監視されるときに増えるのだ。

AIエージェントを雇って優秀な遂行者を解放しようとした企業は、逆説的にそうした遂行者がビジネスの問題を解決するのではなく、機械を監視することに割かれてしまう結果を招く。 移行は起こるが、約束された方向とは逆に。

これは、エージェントの採用が戦略的誤りであることを意味するのではない。むしろ、成功のメトリックが最初から誤って設定されていたことを意味する。エージェントの投資における人件費のリターンを測る企業は、誤った指標を測定している。関連するメトリックは、どれだけの高価値の認知的仕事が人間に解放されたかであり、どれだけの低価値の仕事が機械によって吸収されたかではない。

誰も採用していなかった仕事

この状況が明らかにしている組織の行動パターンがある。企業がAIエージェントを採用する際、彼らが排除したいと宣言するのは、オペレーショナルで反復的な仕事である。しかし、実際に誰かにやってもらいたい仕事、そしてシステムが失敗するまでは誰も明確に文言化できなかった仕事が、リアルタイムで分散された決定の整合性を維持する仕事である。

そのような仕事は、いかなる組織図においても名前が付けられていない。特定の機能として予算が組まれていない。それでも、エージェントのチェーンが会社の代わりに百のマイクロ決定を行う場合、それらの決定が互いに一貫性を持つようにし、それが商業政策に矛盾しないようにし、組織に規制リスクをさらさないように保証する必要がある。さらに、システムが誤りを犯した際には、そのエラーが誰かによって発見される前に百回も拡散することがないようにしなければならない。

この問題をよりしっかりと管理している組織は、最初により多くのエージェントを展開したものではない。むしろ、自動化する前に、どの決定が自律的で、どの決定が人間の介入を必要とするかをマッピングするのに時間を投資した組織である。その違いを書いてしまうと、当然のことに思えるが、実際には採用サイクルのプレッシャーとデジタルトランスフォーメーションに関する公のコミットメントのために、その違いは体系的に後回しにされる。

レビーはAIエージェントに対する反論をしているわけではない。認知的な解放の約束が、実際の責任を持つ組織の運営モデルと合致しないことを指摘している。 認知的な仕事は、実行が自動化されたときに消失するのではなく、意思決定のチェーンの上位に移動する。その際、誤った場合の影響は大きく、修正が求められるタイミングも短くなる。

企業が本当に求めている仕事

今後2年間にわたり、AIエージェント戦略の成功や失敗は、企業が何人のエージェントを展開できるか、または技術的な構造の洗練度には依存しないだろう。依存するのは、経営陣が自組織が必要としているのはタスクの自動化ではなく、より高い速度と内部摩擦の少ないで意思決定をする能力であることをタイムリーに理解したかどうかである。

これが、AIエージェントの大規模採用の背後にある深いニーズである。運用効率ではない。意思決定の速度とコントロールである。 そしてその問題は、単独では解決できない。つまり、何を委任し、何を保持し、システムが間違った方向に進んだ際、誰が責任を持つのかを理解する組織構造が必要だ。

効率を解決するためにエージェントを雇い、分散型の意思決定のガバナンスをおろそかにする企業は、誤りを犯す能力を拡大することで、修正能力を拡大する前にスケールを追及することになってしまう。

---

この議論を通じて、企業は何に焦点を合わせ、どう進むべきかを再評価しなければならない。そして、単にエージェントを導入して意思決定の能力を高めるだけでなく、それを管理する能力を養うことも重要である。

共有
0
この記事に投票!

コメント

...

関連記事