Das Risiko von KI ist ein Führungsversagen, nicht ein Software-Fehler

Das Risiko von KI ist ein Führungsversagen, nicht ein Software-Fehler

Die jüngste Warnung von Chris Hyams, dem ehemaligen CEO von Indeed, deckt einen unangenehmen Fakt auf: Das Risiko der künstlichen Intelligenz geht nicht von der Technologie aus, sondern von den Menschen, die sie vorantreiben.

Ignacio SilvaIgnacio Silva13. März 20266 Min
Teilen

Die jüngste Warnung von Chris Hyams, dem ehemaligen CEO von Indeed, deckt einen unangenehmen Fakt auf: Das Risiko der künstlichen Intelligenz geht nicht von der Technologie aus, sondern von den Menschen, die sie vorantreiben. Das ist kein geringfügiger rhetorischer Dreh. Im Jahr 2025 betonte Hyams zwei Ideen, die miteinander in Spannung stehen: dass KI keine „vollständigen Jobs“ erledigt, aber gut einen wesentlichen Teil der Fähigkeiten innerhalb der meisten Rollen ausführen kann, und dass die zentrale Herausforderung darin besteht, verantwortungsvoll zu implementieren, da die Auswirkungen auf Beschäftigung, Wohnen, Bildung, Gesundheit und Gerechtigkeit bestehende Ungleichheiten verstärken können.

Jetzt verschiebt sich der Fokus von „wie“ zu „wer“. Und dieses Verschieben ist ein Diagnosewerkzeug für Führung und Organisationsdesign: In vielen Unternehmen wird KI so behandelt, als wäre sie ein weiteres Softwarepaket, während sie in Wirklichkeit ein Hebel ist, der Kriterien, Anreize und Kontrollen verändert. Ist das Governance-System schwach, so beschleunigt KI lediglich schlechte, intransparente oder kurzfristige Entscheidungen. Ist das Governance-System solide, wird KI zu Produktivität, besserem Service und weniger Reibung.

Wenn das Problem beim Fahrer liegt, ist die Bremse nicht technisch

Hyams kennt den Arbeitsmarkt aus erster Hand. Indeed operiert genau dort, wo KI schnell Wert oder Schaden bringen kann: beim Matching von Personen und Möglichkeiten. Im Mai 2025 präsentierte er eine so nützliche wie leicht misszuverstehende Erkenntnis: „Es gibt keinen einzelnen Job“, bei dem KI „alle benötigten Fähigkeiten“ ausführen kann, aber bei etwa „zwei Dritteln“ der Jobs sind „50 % oder mehr“ dieser Fähigkeiten Dinge, die die aktuelle generative KI „verhältnismäßig gut oder sehr gut“ erledigen kann. Dieser Satz hat eine operationale Schärfe: Die Unternehmen stehen nicht vor einer binären Ersetzung, sondern vor einem großen Teil von Aufgaben, die die Hände wechseln können.

Ein unter Druck stehender C-Level verwandelt dieses Stück in ein Mandat zur Kostensenkung. Ein ernsthafter C-Level verwandelt es in eine Neugestaltung der Arbeit. Der Unterschied liegt in der Governance: Wer definiert, welche Aufgaben automatisiert werden, nach welchen Kriterien, mit welchen Grenzen, mit welcher Prüfung, und wer ist verantwortlich, wenn das System einen Fehler macht?

Im Januar 2025, in Davos, skizzierte Hyams auch den makroökonomischen Rahmen, der zu einer Beschleunigung drängt: „Wir stehen am Anfang eines Rennens“ zwischen einer krinkenden Arbeitskraft und den potenziellen Produktivitätsgewinnen durch KI. Er antizipierte sogar einen zeitlichen Druck: „30 Jahre Veränderung“ könnten in „drei oder vier Jahren“ komprimiert werden. Ist das das Tempo, ist das größte Risiko kein Modell, das halluziniert; es ist eine Organisation, die Abkürzungen nimmt, weil das Anreizsystem Geschwindigkeit über Kontrolle belohnt.

Die Warnung für 2026 passt zu einem Muster, das ich oft bei Transformationen beobachte: Es werden Prinzipien und Ausschüsse angekündigt, aber die tägliche Ausführung wird von vierteljährlichen Dringlichkeiten gefangen genommen. An diesem Punkt wird die „Verantwortung“ zu einem Dokument, während das Produkt und die Operationen Fortschritte drängen. Die Technologie entscheidet nicht über diesen Trade-off; das entscheidet die interne Machtstruktur.

KI als Portfoliospannung, nicht als IT-Projekt

In großen Unternehmen erfolgt die KI-Adoption üblicherweise über zwei Zugänge. Der erste ist Effizienz: Automatisierung von Support, Inhaltserstellung, Unterstützung für Entwickler, interne Analytik. Der zweite ist Produkt: neue Funktionen für Kunden, bessere Empfehlungen, besseres Matching, weniger Reibung. In beiden Fällen besteht der klassische Fehler darin, es als IT-Projekt mit einem Lieferdatum und einem Standard-KPI zu leiten.

Hyams’ Einschätzung der Fähigkeiten deutet auf etwas anderes hin: KI durchdringt gleichzeitig den „aktuellen Einnahmemotor“ und die „operative Effizienz“. Und wenn es richtig gemacht wird, schafft es Raum für „Inkubation“ und für die „Transformation“ von Fähigkeiten. Wenn es falsch gemacht wird, kürzt es nur kurzfristig die Kosten und degradiert das System langfristig.

Deshalb ist sein Wechsel der Betonung wichtig. Wenn ein Führer sagt, dass das Risiko bei denen liegt, die es vorantreiben, sagt er, dass der typische Fehler nicht im Labor liegt, sondern in der Linie: es wird ohne Klarheit über das Eigentum, ohne Nachvollziehbarkeit der Entscheidungen und ohne einen praktischen Mechanismus für die Abbrechung des Systems eingeführt, wenn es Schaden verursacht. Und in Bereichen wie Beschäftigung ist der Begriff „Schaden“ nicht abstrakt: Ein schlecht kalibrierter Filter kann Profile ausschließen, historische Vorurteile verstärken oder schwer zu prüfende Intransparenz schaffen.

Hyams hatte diesen Punkt bereits klar umrissen, als er die verantwortungsvolle KI als „das Thema der Bürgerrechte und der Menschenrechte“ seines Lebens bezeichnete und darauf hinwies, dass es in Beschäftigung, Wohnen, Bildung, Gesundheit und Gerechtigkeit tiefgreifende Ungleichheiten gibt, die ein automatisiertes System verstärken kann. Diese Perspektive wird nicht mit einer Checkliste gelöst. Sie wird durch Portfolioentscheidungen gelöst: Wie viel Budget fließt in Kontrolle und Prüfung, wie viel in Geschwindigkeit der Implementierung, wie viel in Schulung, wie viel in Prozessneugestaltung? Wenn alles mit unmittelbarer Rentabilität gemessen wird, verliert die Kontrolle immer.

Schutzmechanismen ohne operative Autonomie enden in ornamentaler Bürokratie

Indeed bildete ein verantwortungsvolles KI-Team mit Experten aus verschiedenen Bereichen, so Hyams, um Systeme zu bewerten und Technologie unter Prinzipien verantwortungsvoller KI zu entwickeln. Interdisziplinarität ist ein richtiges Signal. Das Problem tritt auf, wenn dieses Team beratend ist, zu spät in den Produktzyklus kommt oder keine Befugnis hat, eine Implementierung zu stoppen.

In Unternehmen mit Druck zu Ergebnissen wird das „verantwortliche Team“ zu einem letzten Prüfer, der unterschreibt oder nicht unterschreibt. Wenn die Organisation bereits ein Verkaufsdatum festgelegt hat, wird diese Unterschrift zeremoniell. Und wenn das Team außerdem mit Kennzahlen bewertet wird, die ihre Mission nicht widerspiegeln, wird es vom gleichen System gefangen, das es ausbalancieren sollte.

Hyams’ Ansatz 2025 war sozial-technisch: die sozialen Konstrukte zu verstehen, in die Systeme eingebettet sind. Diese Aussage bedeutet in der Praxis drei Dinge. Erstens ist die Qualität der Daten und ihrer Geschichte wichtig, weil Vorurteile nicht „repariert“ werden, wenn sie einmal vorhanden sind. Zweitens muss der Output in dem Maß erklärbar sein, das der Kontext erfordert, besonders bei Entscheidungen, die wirtschaftliche Chancen betreffen. Drittens muss die Verantwortung zugewiesen werden: Wenn ein System eine Auswahlstufe automatisiert, muss jemand für das Ergebnis und die Nebeneffekte verantwortlich sein.

Wenn Hyams jetzt auf die Menschen verweist, die KI treiben, beschreibt er ein Muster von Governance-Fehlern mehr als einen Mangel an Technik. Dem durchschnittlichen Unternehmen fehlt es nicht an einem besseren Modell; es fehlt ein Entscheidungsdesign, das gebietet, Geschwindigkeit, Kontrolle und Legitimität ins Gleichgewicht zu bringen.

Der Wettlauf um Produktivität kann das Vertrauen degradieren, wenn er nicht gut gemessen wird

Der Druck zur Produktivität ist keine moralische Ausrede; er ist eine wirtschaftliche Einschränkung. Wenn die Arbeitskraft schrumpft und die Nachfrage anhält, wächst die Versuchung zu automatisieren. Das Risiko besteht darin, dass viele Unternehmen die Vorteile von KI mit einfachen Indikatoren messen und die Kosten mit unsichtbaren Indikatoren.

Die typischen Vorteile gelangen schnell auf die Agenda: weniger Zeit pro Ticket, geringere Kosten pro Interaktion, mehr Durchsatz in der Entwicklung, mehr produzierter Inhalt. Die kritischen Kosten treten oft zu spät auf: Beschwerden über Vorurteile, Vertrauensverlust, Degradierung der Arbeitgebermarke, regulatorische Exposition, und interne Teams, die den Prozess nicht mehr verstehen, weil sie ihn an ein System delegiert haben.

Im Bereich der Beschäftigung ist diese Asymmetrie besonders sensibel. Wenn ein Kandidat Willkür wahrnimmt, verliert die Plattform an Ruf. Wenn ein Unternehmen wahrnimmt, dass das Matching schlechter wird oder der Prozess intransparent ist, passt es seine Ausgaben an. KI kann das Matching verbessern, aber nur, wenn sie disziplinarisch geleitet wird: klare Ziele, kontinuierliche Bewertung und Nachvollziehbarkeit.

Hyams antizipierte auch, dass es „zehnmal“ mehr Menschen geben wird, die Programmierer sein werden, obwohl die Arbeit „unerkennbar“ im Vergleich zur aktuellen Entwicklung sein wird. Diese Aussage deutet auf eine tiefgreifende Neugestaltung der Wissensarbeit hin. Und wenn sich die Arbeit so verändert, muss das Unternehmen sein Leistungssystem, seine Schulung und seine Rollenstruktur neu gestalten. Wenn es das nicht tut, wird KI zu einer zusätzlichen Schicht über alten Prozessen, was Reibung und Fehler in großem Maßstab produziert.

Das hier fehlende Leadership scheitert nicht an böswilliger Absicht, sondern daran, dass es mit demselben Kontrollsystem operiert, das früher verwendet wurde. KI verlangt ein gemischtes Kontrollsystem: Effizienz und Lernen. Wenn nur Effizienz belohnt wird, wird die Fähigkeit zur frühzeitigen Erkennung von Schäden abgeschaltet.

Ein operationales Muster, um KI nicht zu einem systemischen Risiko zu machen

Mit den öffentlich verfügbaren Informationen gibt Hyams keine spezifischen Beispiele in seiner jüngsten Warnung an. Dennoch ermöglicht sein Werdegang, das zentrale Risiko als eine Kluft zwischen Prinzipien und Ausführung zu lesen. In großen Organisationen wird diese Kluft mit Design, nicht mit Reden verringert.

Praktisch sehe ich vier Mechanismen, die gesunde von fragilen Adoptionsformen trennen. Der erste ist explizites Eigentum: Jedes System mit Einfluss auf sensible Entscheidungen muss einen Business Owner und einen Risikoeigentümer mit echter Autorität haben. Der zweite ist Autonomie mit Grenzen: Teams, die experimentieren, brauchen Geschwindigkeit, aber innerhalb eines Rahmens, der definiert, was unangetastet bleibt und was immer geprüft wird. Der dritte ist richtige Kennzahlen für die richtige Phase: In frühen Implementierungen führt es dazu, nur Einsparungen oder Umwandlungen zu messen, was Probleme verborgen hält; man muss auch Stabilität, Fehler, Beschwerden und Umkehrbarkeit messen. Der vierte ist Reversibilität: Produziert ein System Schaden, muss das Unternehmen es abschalten oder degradieren können, ohne den Betrieb zum Erliegen zu bringen.

Das ist keine zusätzliche Bürokratie. Es ist die minimale organisatorische Ingenieurskunst, damit KI zu Produktivität führt, ohne zum Passivposten zu werden. Hyams' Punkt über „wer KI vorantreibt“ ist im Kern eine Kritik an der Adoption ohne betriebliche Bremsen.

Der Fall Indeed ist relevant, weil die Beschäftigungsbranche im Zentrum der sozialen und regulativen Sensibilität steht. Unternehmen, die auf Effizienz setzen und die Kontrolle ignorieren, können ein Quartal lang gewinnen und über Jahre hinweg das Vertrauen verlieren. Unternehmen, die in Governance und Neugestaltung der Arbeit investieren, können nachhaltige Produktivität erfassen.

Die Tragfähigkeit hängt davon ab, zwei Geschwindigkeiten zu steuern, ohne das Kerngeschäft zu gefährden

KI zwingt die Unternehmen dazu, mit zwei Geschwindigkeiten zu arbeiten: das aktuelle Geschäft mit Kostendisziplin zu halten und gleichzeitig Neugestaltungen von Arbeit und Produkten in einem Tempo zu erkunden, das eher einer Startup-Atmosphäre als einer Corporations ähnelt. Die Warnung von Hyams wirkt wie eine Erinnerung daran, dass der Punkt des Scheiterns selten das Modell ist; es ist das Entscheidungssystem, das es umgibt.

Eine tragfähige Organisation schützt die Kasse des aktuellen Motors, ohne die Erkundung zu ersticken, weist klare Autorität zu, um Implementierungen zu stoppen, wenn das Risiko den Nutzen übersteigt, und misst frühes Lernen mit Kennzahlen, die die Erkennung von Fehlern nicht bestrafen. Dieses Gleichgewicht macht die gegenwärtige Rentabilität nachhaltig, während gleichzeitig Kapazitäten für die Skalierung der Zukunft aufgebaut werden.

Teilen
0 Stimmen
Stimmen Sie für diesen Artikel!

Kommentare

...

Das könnte Sie auch interessieren