KI-Agenten im Unternehmen: Die versteckten Kosten einer schlechten Governance für digitale Mitarbeiter

KI-Agenten im Unternehmen: Die versteckten Kosten einer schlechten Governance für digitale Mitarbeiter

Unternehmen setzen KI-Agenten mit der Geschwindigkeit von Startups und der Governance-Struktur der 90er Jahre ein. 40 % dieser Projekte werden bis 2027 scheitern, und das Problem liegt nicht in der Technologie.

Javier OcañaJavier Ocaña14. April 20267 Min
Teilen

KI-Agenten im Unternehmen: Die versteckten Kosten einer schlechten Governance für digitale Mitarbeiter

Anfang 2026 registrierte Salesforce etwas, das kein Handbuch für Personalmanagement vorhergesehen hatte: Nachdem sie ihren KI-gestützten Programmierassistenten eingeführt hatten, wurden menschliche Ingenieure von so viel produktivem Potenzial befreit, dass das Unternehmen nicht wusste, was es mit ihnen anstellen sollte. Die Lösung bestand darin, eine ganz neue Rolle zu schaffen — die sogenannten Feld-Ingenieure — um den Überschuss aufzufangen. Es war kein technisches Problem. Es war ein Problem der organisatorischen Struktur, die im Voraus nicht entworfen worden war.

Dieses Ereignis fasst präzise den Moment zusammen, den große Unternehmen erleben: Die KI-Agenten agieren bereits wie Mitarbeiter — sie treffen routinemäßige Entscheidungen, managen vollständige Arbeitsabläufe und eskalieren Ausnahmen an Menschen — aber die Strukturen, die sie regieren, behandeln sie weiterhin wie eine Softwarelizenz mit jährlicher Verlängerung.

Gartner prognostiziert, dass bis 2028 mindestens 15 % der routinemäßigen Arbeitsentscheidungen autonom von KI-Agenten getroffen werden, ausgehend von einem Basiswert von 0 % im Jahr 2024. Gleichzeitig warnt dasselbe Unternehmen, dass 4 von 10 Projekten für KI-Agenten bis 2027 scheitern werden aufgrund mangelhafter Governance. Diese beiden Daten zusammen bilden die teuerste Paradoxie der modernen Unternehmenswelt: Die Technologie skaliert, aber das Managementmodell nicht.

Das Organigramm sieht niemanden vor, der allein arbeitet und kein Gehalt bezieht

Ein gut konfigurierter KI-Agent kann tausende von Lebensläufen überprüfen, interne Datensätze aktualisieren, Ausnahmeberichte erstellen und Genehmigungen eskalieren — alles ohne menschliches Eingreifen. Er macht genau das, was ein Junior-Analyst tun würde, aber ohne Gehalt, ohne Sozialleistungen und ohne Einarbeitungszeit. In Bezug auf die Kostenstruktur klingt das perfekt. Das Problem liegt jedoch in dem, was das Unternehmen nicht berücksichtigt.

Wenn ein menschlicher Mitarbeiter einen Fehler bei einer regulierten Entscheidung macht — sagen wir, eine Kreditablehnung oder die Auswahl von Kandidaten mit implizitem Bias — gibt es einen klaren rechtlichen Rahmen: Es gibt einen Verantwortlichen, es gibt einen Überprüfungsprozess, es gibt eine dokumentierte Spur. Wenn ein KI-Agent dieselbe Entscheidung trifft, ohne ein Nachverfolgbarkeitssystem, ohne Audit-Logs und ohne einen klar definierten internen Verantwortlichen, verschwindet die Kostenfolge des Fehlers nicht. Sie wandert lediglich in Form von rechtlichem Risiko, regulatorischen Bußgeldern oder Reputationsschäden auf das Unternehmen über, was kein Bilanzposten erfasst.

Organisationen, die in diesem Bereich erfolgreich sind, sind nicht diejenigen, die die meisten Agenten eingesetzt haben, sondern diejenigen, die sie mit definierten Rollen, dokumentierten Autonomielimits und integrierten Prüfmechanismen von Anfang an strukturiert haben. Das ist keine Bürokratie; es ist der Unterschied zwischen einem Vermögenswert, der Wert schafft, und einer Verbindlichkeit, die darauf wartet, zu explodieren.

Der Manager, der einen KI-Agenten wie ein Abonnement für einen Cloud-Service behandelt — etwas, das aktiviert, genutzt und vergessen wird — sammelt operative Schulden an, die früher oder später zur Rechnung kommen. Die Frage ist nicht, ob der Agent funktioniert. Es ist, wer haftet, wenn er schlecht funktioniert.

Wie viel die freigesetzte Kapazität wirklich wert ist

Gehen wir zurück zu Salesforce. Die finanzielle Logik, einen KI-Agenten anstelle eines weiteren Analysten einzusetzen, scheint offensichtlich: Wenn ein Agent die Arbeit von zwei Personen verarbeiten kann, sind die Einsparungen bei den direkten Arbeitskosten sofort spürbar. Aber diese Rechnung ignoriert die Neuzuweisungskosten, die das CRM-Unternehmen am eigenen Leib erfahren hat.

Die freigesetzte Kapazität ist kein kostenloser Wert. Es ist Potenzial, das Richtung, Struktur und in vielen Fällen eine vollständige Neugestaltung der verbliebenen menschlichen Arbeit benötigt. Salesforce investierte in die Schaffung einer neuen Rolle — den Feld-Ingenieuren — um diesen Überschuss in echten Geschäftswert zu verwandeln. Das hat einen Preis: Rollenbeschreibung, Schulung, Leistungskennzahlen, Integration mit Kunden. Unternehmen, die solche Designs nicht vornehmen, verschwenden einfach die Effizienz, für die sie bezahlt haben.

Oracle beschreibt eine Vision, in der KI-Agenten sich von „Assistenten“ zu „Kollegen“ entwickeln, die in der Lage sind, vollständig autonome Arbeitsabläufe auszuführen. Diese Sprache ist nicht poetisch: Sie hat direkte Auswirkungen darauf, wie das Betriebskostenbudget strukturiert wird. Ein Kollege hat Verantwortlichkeiten. Ein Kollege hat Kennzahlen. Ein Kollege gehört zu einem Bereich, berichtet an jemanden und hat Grenzen der Autorität. Eine Software hat das nicht.

Der finanzielle Unterschied zwischen beiden Modellen ist erheblich. KI-Agenten ohne diese Architektur einzuführen, entspricht der Einstellung von Personal ohne Stellenbeschreibungen oder Leistungsindikatoren. Die Ausgaben existieren, der Wert ist ungewiss und das Risiko ist unkontrolliert. CB Insights bezeichnet 2025 als das Jahr der „beschränkten Agenten“: Systeme, die entworfen wurden, um innerhalb definierter Grenzen autonom zu arbeiten und mit menschlicher Aufsicht erhalten zu bleiben. Diese Beschreibung ist keine technische Präferenz, sondern eine Anforderung an die Finanzarchitektur.

Agenten governance ist eine Kostenstrukturentscheidung, keine Kulturfrage

Es gibt eine bequeme Erzählung, die in den Foren der technologischen Transformation zirkuliert: Der Widerstand gegen KI-Agenten ist ein kulturelles Problem, eine Angst vor dem Wandel, von Mitarbeitern, die sich nicht anpassen wollen. Diese Lesart ist praktisch und fast immer falsch.

Der wirkliche Widerstand innerhalb der Organisationen stammt nicht von der Angst vor der Technologie. Er entsteht aus der Unklarheit darüber, wer für die Entscheidungen verantwortlich ist, die die Agenten treffen. Wenn ein KI-Agent einen Vertrag aktualisiert, einen Antrag ablehnt oder einen Kunden gegenüber einem anderen priorisiert, muss jemand innerhalb des Unternehmens für dieses Ergebnis verantwortlich sein. Wenn diese Verantwortung nicht zugewiesen ist, bricht das Anreizsystem zusammen: Niemand möchte unter einer Entscheidung unterschreiben, die er nicht getroffen hat und die nicht überprüfbar ist.

OB Rashid, CTO von LMS Absorb Software, prognostiziert, dass die Mitarbeiter in fünf Jahren von der Nutzung von KI-Agenten zu deren aktiven Steuerung übergehen werden, mit derselben Logik, mit der heute Junior-Kollegen betreut werden. Dieser Übergang ist nicht automatisiert. Er erfordert vom Unternehmen, zu entwerfen, was es bedeutet, einen Agenten zu steuern: mit welchen Kennzahlen, gemäß welchen Richtlinien, mit welchem Maß an delegierter Autonomie und welchem Eskalationsprozess, wenn der Agent Fehler macht.

Diese Architektur hat Kosten, die die meisten Unternehmen nicht budgetieren. Und sie hat eine Rendite, die die meisten ebenfalls nicht mit der erforderlichen Genauigkeit messen. Die Audit-Logs für regulierte Entscheidungen — die Gartner bereits als Compliance-Anforderung, nicht als Option beschreibt — sind keine Kosten für Technologie. Sie sind das funktionale Äquivalent, einen unterschriebenen Vertrag mit jedem Agenten zu haben, über das, was er selbst entscheiden kann und was nicht.

Unternehmen, die diese Governance von Anfang an strukturieren, werden mit signifikant geringeren Fehlerkosten operieren. Diejenigen, die das nicht tun, werden entdecken, dass die von Gartner prognostizierten 40 % Scheitern keine abstrakte Statistik, sondern eine Linie in ihrer eigenen Gewinn- und Verlustrechnung ist.

Das einzige Modell, das den Einsatz von KI-Agenten in produktivem Maßstab aufrechterhalten wird, ist das, in dem jeder Agent mehr Wert generiert, als es kostet, ihn zu steuern, und in dem dieses Differenzial erfasst, gemessen und in echten Cashflow umgewandelt wird. Alles andere ist nicht fakturiertes Potenzial.

Teilen
0 Stimmen
Stimmen Sie für diesen Artikel!

Kommentare

...

Das könnte Sie auch interessieren