Der große Fehlschlag der Unternehmens-IA ist nicht die Technologie: Es ist das menschliche Verhalten und die Buchhaltung, die sie nicht erfassen kann

Der große Fehlschlag der Unternehmens-IA ist nicht die Technologie: Es ist das menschliche Verhalten und die Buchhaltung, die sie nicht erfassen kann

Unternehmen kaufen IA wie traditionelle Software und sind dann überrascht, wenn sich die Arbeitsweise nicht ändert. Das eigentliche Problem ist die mangelnde Adaption.

Andrés MolinaAndrés Molina8. März 20266 Min
Teilen

Der große Fehlschlag der Unternehmens-IA ist nicht die Technologie: Es ist das menschliche Verhalten und die Buchhaltung, die sie nicht erfassen kann

Im letzten Jahr war die öffentliche Diskussion über künstliche Intelligenz (AI) geprägt von Demonstrationen, Versprechungen und Firmenkäufen. Unternehmen investierten in einem industriellen Maßstab in Modelle, Lizenzen, Infrastruktur und Pilotprojekte. Dennoch ist das entscheidende Symptom im Vorstand nicht die Anzahl der durchgeführten Tests, sondern wie viele Gewinnmargen am Ende des Quartals erscheinen.

Eine von MIT zitierte Studie, wie von TheStreet berichtet, dokumentiert eine Zahl, die nicht zu der euphorischen Erzählung passt: 95 % der Organisationen sahen keinen messbaren Return auf ihre Investitionen in IA, obwohl die Gesamtausgaben zwischen 30.000 und 40.000 Millionen Dollar für KI-Initiativen lagen. Es handelt sich nicht um ein Problem der Rechenleistung oder der „Modellreife“. Vielmehr ist es weitgehend ein Problem der menschlichen Akzeptanz und interner Systeme, die nicht für die tatsächliche Wirtschaftlichkeit der KI-Nutzung konzipiert sind.

Aus meiner Arbeit, die das Verbraucher- und Adoptionsverhalten analysiert, betrachte ich diese Geschichte als eine Autopsie zweier klassischer Fehler: Der erste tritt auf dem Schreibtisch des Mitarbeiters auf, wo die IA auf einen „verbesserten Suchdienst“ reduziert wird; der zweite geschieht im Backoffice, wo selbst bei bestehender Nutzung das Unternehmen nicht in der Lage ist, sie genau zu messen oder zu fakturieren. In beiden Fällen lautet der Fehler gleich: Sie entwerfen für einen Menschen und eine Buchhaltung, die nicht existieren.

Wenn IA in der realen Arbeit ankommt, prallt sie auf Anreize, Gewohnheiten und die Angst vor Fehlern

Oseas Ramirez, CEO von Axialent, brachte es mit einem Satz auf den Punkt, der in jedem Transformationsplan gedruckt stehen sollte: „Die IA wird von Menschen angenommen, nicht von Servern. Wenn die Menschen ihre Arbeitsweise nicht ändern, bleibt die Technologie einfach dort.“ Diese Aussage ist keine Philosophie, sondern angewandte Wirtschaft.

Wenn sich das Verhalten nicht ändert, wird der technologische Vermögenswert zu einem versunkenen Kostenfaktor.

Das Muster, das die in TheStreet zitierte Forschung beschreibt, stimmt mit dem überein, was ich bei der Akzeptanz beobachte: Die meisten Mitarbeiter nutzen die IA als einen leicht intelligenten Suchmotor, nicht als eine Umgestaltung des Arbeitsablaufs. Diese Nuance zerstört den Return. Ein „verbesserter Suchdienst“ spart Minuten; ein umgestalteter Workflow verkürzt Zykluszeiten, reduziert Nacharbeiten, standardisiert Entscheidungen und macht Aktivitäten skalierbar, die zuvor von internen Helden abhingen.

Der Konflikt entsteht, weil Organisationen versuchen, IA mit dem gewohnten Skript einzuführen: Werkzeug kaufen, installieren, schulen, Sieg erklären. Doch die Akzeptanz scheitert nicht an mangelnder Schulung; sie scheitert an kognitiver Reibung und an wahrgenommenen Risiken. Der Mitarbeiter „verwechselt IA“ nicht aus Ideologie: Er vermeidet sie, wenn die mentale Kosten für ihre Nutzung den sofortigen Nutzen übersteigen oder wenn das Anreizsystem das Experiment bestraft.

In verhaltensbezogenen Begriffen gibt es den Drang — die Frustration über repetitive Aufgaben und den Druck zur Produktivität —, und es gibt auch die Anziehung — das Versprechen von Geschwindigkeit und besseren Antworten. Das Problem ist, dass Ängste und Gewohnheiten oft siegen. Angst, weil das Delegieren von Urteilsvermögen an ein probabilistisches System den Benutzer einem sichtbaren Fehler aussetzt. Gewohnheit, weil der Status quo bereits bekannte Wege hat, um in der internen Politik zu überleben: „Es wie gewohnt zu machen“ kostet selten die Karriere; etwas Neues auszuprobieren und zu scheitern, könnte sie jedoch kosten.

Das kritische Element hier ist, dass viele Hierarchien und Anreizsysteme vor der Existenz von IA entworfen wurden. Wenn ein Vertriebsteam Prognosen erhält, die von IA generiert wurden und im Widerspruch zu Quoten oder internen Narrativen stehen, wird die Zahl nicht „diskutiert“; sie wird ignoriert. Nicht aus Bosheit, sondern zum Erhalt: Der Mensch optimiert seine Sicherheit innerhalb des Systems. Wenn das Modell die stillschweigende Vereinbarung über die Zuteilung von Verdienst und Schuld bedroht, verliert das Modell.

Deshalb sind Unternehmen, die Ergebnisse erzielen, oft nicht die mit dem raffiniertesten Modell, sondern die, die die Arbeit um das Modell herum umstrukturieren. IA ist kein „Add-on“; sie ist eine Umgestaltung des psychologischen Arbeitsvertrags: Wer entscheidet, wer validiert, wer unterschreibt, wer das Risiko trägt. Ohne diese Umgestaltung wird das Werkzeug für kleine Tätigkeiten verwendet, der ROI verdampft und die Organisation lernt die falsche Lektion: dass IA „nicht nützlich ist“, während in Wirklichkeit das , was nicht nützlich ist, das Akzeptanzsystem ist.

Der ROI zerbricht aus banalen Gründen: Es wird Glanz gekauft und die Reibung unterschätzt

Die Zahlen der zitierten Studie sind ein Schlag ins Gesicht der triumphalistischen Narrative: 95 % ohne messbaren Return nach 30.000-40.000 Millionen Dollar Investitionen. Wenn eine solche Lücke auftaucht, ist die Erklärung meist weniger glamourös als die Technologie. Die Antwort liegt darin, wie Unternehmen Budgets und Aufmerksamkeit zuweisen.

In der Praxis finanzieren viele Organisationen enthusiastisch das Sichtbare: Lizenzen, Infrastruktur, eindrucksvolle Pilotprojekte. Das „glänzt“ in einer Präsentation. Was nicht die gleiche Budgetliebe erhält, sind die Dinge, die tatsächlich das Verhalten bewegen: Die Neugestaltung von Prozessen, Anreizänderungen, Validierungsgovernance, Schutz vor angemessenen Fehlern und Echtzeit-Ressourcen zum Iterieren.

Hier zeigt sich eine häufige unternehmensinterne Verzerrung: Der Wandel wird wie ein IT-Projekt behandelt, nicht wie eine operationale Überarbeitung. Die Folge ist vorhersehbar: Die Nutzung bleibt an der Oberfläche. Der Mitarbeiter öffnet das Werkzeug, um eine E-Mail zu verfassen, ein Dokument zusammenzufassen oder Informationen zu suchen. Dies sind Handlungen, die die berufliche Identität nicht gefährden oder Hierarchien herausfordern. IA wird zur kosmetischen Verbesserung der Produktivität.

Ein weiterer Punkt, der das Problem verschärft: die organisatorische Resilienz gegenüber Fehlern. Der Artikel erwähnt, dass viele Unternehmen, wenn Experimente fehlschlagen — und sie scheitern oft —, keine institutionelle Fähigkeit haben, darauf zu bestehen und zu iterieren. Aus verhaltenswissenschaftlicher Perspektive ist das entscheidend: Wenn die erste Erfahrung des Nutzers in einem strafenden Umfeld stattfindet, stirbt die Akzeptanz. Eine schlechte Anfangsinteraktion schafft eine interne Heuristik: „Das verursacht Probleme“. Von da an bestätigt jede Mikro-Reibung die Entscheidung, zum alten Muster zurückzukehren.

Das Endergebnis ist perfide für die C-Ebene: „IA wurde implementiert“, aber es gibt keinen Return. Die Implementierung wird gefeiert, der Wandel bestraft. Und dann wiederholt sich der Zyklus: mehr Ausgaben für Werkzeuge, mehr Frustration, mehr Zynismus. Die Kosten sind nicht nur finanziell; sie sind auch intern reputationsschädigend. Jede gescheiterte Initiative verringert das politische Kapital für die nächste.

Selbst mit Akzeptanz verlieren viele Unternehmen Geld, weil sie den Verbrauch nicht fakturieren können

Der zweite Teil der Geschichte ist stiller und für einen CFO gefährlicher: Selbst wenn IA genutzt wird, sind viele Unternehmen nicht in der Lage, sie zu fakturieren. Erez Agmon, CEO von Vayu, fasste es so zusammen: „Die meisten SaaS-Buchhaltungssysteme wurden mit Blick auf vorhersehbare Abonnements entwickelt. Die IA führt zu einem unregelmäßigen Verbrauch.“

Das Herz des Problems ist strukturell. Die traditionelle Software wurde nach Sitzplätzen, Lizenzen oder Pauschalabonnements verkauft. IA hingegen wird in variablen Einheiten konsumiert: verarbeitete Tokens, API-Aufrufe, Modellausführungen. Dieser Verbrauch ist nicht nur variabel; er ist intermittierend, mit schwer vorhersehbaren Spitzen und Tälern. Zu erwarten, dass ein obsoletes Abrechnungssystem das ohne Verluste erfasst, ist so, als würde man eine Registrierkasse benutzen, um Elektrizität zu messen.

TheStreet beschreibt einen konkreten Fall, der die Einkommenslücke verdeutlicht: Ein CFO stellte fest, dass sein System die Nutzung nur am Tag des Abrechnungszyklus registrierte. Wenn ein Kunde Mitte des Monats aufrüstete und vor dem Zahlungstag wieder zurückgestuft wurde, verschwand der Peak. Der CFO selbst beschrieb es drastisch: „Ich berechne nur, was am Abrechnungstag war. Ich habe den Peak verpasst. Ich habe dieses Geld verloren.“

Dieses Beispiel offenbart ein größeres Muster: Die Wirtschaftlichkeit von IA bestraft Unternehmen, die nicht präzise messen. Es entstehen Tracking-Lücken, manuelle Abstimmungen mit Tabellenkalkulationen und handgeschriebene Rechnungen. All dies funktioniert, wenn es nur wenige Kunden gibt und das Volumen gering ist; es kollabiert, wenn das Produkt skalierbar ist.

Die Einkommenslücke ist kein Ereignis; es handelt sich um ein Tropfen. Und ein Tropfen vervielfacht sich in einem Verbrauchsmodell. Das Unternehmen lässt nicht nur Geld auf dem Tisch liegen; es ist auch blind für Preiser Entscheidungen. Wenn der tatsächliche Verbrauch nicht erfasst wird, verwaltet das Management eine Illusion: Es glaubt, das Produkt sei X wert, während das Kundenverhalten Y anzeigt.

Psychologisch betrachtet ist dies zudem eine Vertrauensbombe. Ein Buchhaltungssystem, das den Verbrauch nicht versteht, produziert zwei symmetrische Risiken: zu niedrige Berechnungen und verschenkte Werte oder Übergebühren, die Konflikte auslösen. In beiden Fällen wird die Geschäftsbeziehung erodiert. IA verspricht Präzision; eine lückenhafte Rechnung kommuniziert Chaos.

Die Transformation, die sich tatsächlich auszahlt: Entscheidungen für Menschen neu gestalten und das Finanzmuskeln, das sie monetarisiert

Die Botschaft hinterlässt eine harte Lektion: Unternehmens-IA ist zwischen zwei Welten gefangen. Oben ein Innovationsdiskurs. Unten menschliche Gewohnheiten und veraltete Finanzsysteme.

Um aus dieser Falle zu entkommen, beginnt die Strategie nicht mit dem Modell, sondern mit dem Verhalten, das man in der Produktion sehen möchte. Unternehmen, die Wert erfassen werden, sind nicht diejenigen mit den meisten Pilotprojekten, sondern diejenigen, die drei disziplinierte Schritte unternehmen.

Erstens, die IA in konkrete Entscheidungen zu übersetzen, mit expliziter Verantwortung. Wenn das Ergebnis der IA nicht ändert, wer entscheidet, wann er entscheidet und mit welchem Validierungsstandard, bleibt die Nutzung auf kleinen Aufgaben beschränkt. Die echte Akzeptanz erfolgt, wenn der operative Fluss das Werkzeug als Teil des „Standardwegs“ einfügt und die Kosten des Ignorierens höher werden als die Kosten der Nutzung.

Zweitens, Anreize neu gestalten, damit die Mitarbeiter nicht zwischen persönlicher Leistung und Akzeptanz wählen müssen. Wenn das System belohnt, den Status quo zu bewahren, ist die Gewohnheit rational. Das Unternehmen muss Bedingungen schaffen, unter denen Experimente sicher sind und bei denen angemessene Fehler kein individuelles Passivum sind, sondern ein kontrollierter Lernkosten.

Drittens, die Abrechnung für die Welt des variablen Verbrauchs modernisieren. Wenn das Produkt nach Nutzung berechnet wird, muss die Buchhaltung den Verbrauch mit genügend Granularität und in Echtzeit sehen, um keine Peaks zu verlieren. Ohne diese Basis wird sogar eine erfolgreiche Akzeptanz zu Wachstum, das nicht monetarisiert wird.

Die Synthese für die C-Ebene ist unbequem, aber umsetzbar: Der Return von IA wird nicht durch mehr Rechenleistung freigeschaltet, sondern durch die Reduzierung menschlicher und finanzieller Reibung. Technologie kann glänzen, aber das Geschäft gewinnt nur, wenn die Organisation aufhört, ihr gesamtes Kapital auf diesen Glanz zu setzen und es diszipliniert in die Überwindung der Ängste und Reibungen investiert, die die Nutzer daran hindern, Akzeptanz zu finden und das Unternehmen daran hindern, den Wert in der Rechnung zu erfassen.

Teilen
0 Stimmen
Stimmen Sie für diesen Artikel!

Kommentare

...

Das könnte Sie auch interessieren