xAI zerbricht von innen während Musk nach außen baut
Am 11. Februar 2026 berief xAI sein Team zu einer Besprechung ein, in der Entlassungen und der Austritt mehrerer Mitglieder des Gründerteams sowie die Aufteilung des Unternehmens in vier operative Einheiten angekündigt wurden: eine für die Anwendung Grok (einschließlich Sprachfunktionen), eine für Programmiersysteme, eine dritte für Imagine (den Video-Generator) und eine vierte Einheit namens Macrohard, die sich darauf konzentriert, die Nutzung von Computern zu simulieren, bis hin zur Modellierung ganzer Unternehmen. Neun Tage zuvor hatte SpaceX die Übernahme von xAI in einer vollständig aktienbasierten Transaktion abgeschlossen, die das Unternehmen auf 250 Milliarden Dollar bewertete. Dieser Schritt wurde als notwendige Evolution beschrieben. Die Mitarbeiter hingegen bezeichneten es als Chaos.
Erhellend ist, dass xAI das vollständige 45-minütige Video dieser Sitzung auf X veröffentlichte, anscheinend als Antwort auf vorherige Berichterstattung des New York Times. Dies ist kein Zeichen institutioneller Zuversicht; es ist Schadensmanagement in Echtzeit. Wenn ein Unternehmen für künstliche Intelligenz öffentlich demonstrieren muss, dass es nicht brennt, liegt genug Rauch im Inneren vor, um jemanden Wichtiges zu beunruhigen.
Ein Unternehmen mit vier unterschiedlichen Ebenen und keiner davon abgeschlossen
Die Umstrukturierung in vier Teams hat eine oberflächlich klare Logik: Produkte werden nach technischer Natur und Entwicklungszeitrahmen getrennt. Grok bedient den Massenverbraucher; die Programmiersysteme richten sich an Entwickler; Imagine erzeugt visuelle Inhalte in großem Maßstab; Macrohard ist die langfristige Wette auf künstliche Intelligenz-Agenten, die Computer autonom bedienen können, einschließlich der Konstruktion von Triebwerken.
Das Problem liegt nicht in der Teilung selbst. Das Problem ist, dass dies zumindest die zweite bedeutende Umstrukturierung in weniger als sechs Monaten ist. Im September 2025 entließ xAI 500 Datenannotatoren, die bis dahin die größte Abteilung des Unternehmens darstellten und essentielle Bausteine für das Training von Grok waren. Nun, im Februar 2026, verlassen Mitglieder des Gründerteams das Unternehmen. Jeder Schnitt verändert die strukturelle Last des Gebäudes, ohne die Zeit zu haben zu überprüfen, ob die verbleibenden Säulen das Gewicht halten.
In Bezug auf das Geschäftsmodell ergibt dies ein konkretes Risiko: die Ansammlung von organisatorischer technischer Schulden. Ich spreche nicht von schlecht geschriebenem Code, sondern von nicht dokumentierten Entscheidungen, verloren gegangenem institutionellem Kontext und Prozessen, die halb vollendet wurden, weil die ursprünglichen Designer nicht mehr da sind. Wenn dies parallel zu Produkteinführungen wie Grok 4, Grok 4 Heavy und Grok für die Regierung geschieht, wird die Markteinführungszeit zu einer Illusion. Es wird schnell angekündigt, basiert jedoch auf Grundlagen, die sich jedes Quartal verändern.
Die Zahlen, die das Dach halten und die, die es durchlöchern
Es gibt Metriken in dieser Geschichte, die mit kühlem Kopf gelesen werden sollten. X, die Plattform, die xAI im März 2025 übernahm, überschritt die Milliarde Dollar an wiederkehrenden jährlichen Einnahmen aus Abonnements. Imagine generiert täglich 50 Millionen Videos und übertraf in 30 Tagen 6 Milliarden Bilder. xAI schloss eine Serie-E-Runde von 20 Milliarden Dollar ab. Das US-Verteidigungsministerium unterzeichnete im vergangenen Juli einen Vertrag über 200 Millionen Dollar mit xAI.
Das sind die Zahlen, die das Investor-Relations-Team auf die erste Folie setzt. Jetzt die anderen: Die gleiche Explosion an Bildern von Imagine geht einher mit einer dokumentierten Welle an Fake-Pornografie, die mit diesem Tool generiert wurde, mit Schätzungen von 1,8 Millionen sexualisierten Bildern innerhalb von neun Tagen. Dies ist kein Problem der Inhaltsmoderation; es ist ein Problem von schlecht definierten Wertversprechen. Wenn ein Produkt darauf ausgelegt ist, massiven Volumen ohne Reibung zu erzeugen, umfasst das massive Volumen alles, einschließlich dem, was das Vertrauen der Nutzer untergräbt und Regulierung anzieht.
Aus meiner Sicht des Geschäftsmodells ist die Frage nicht moralisch, sondern mechanisch: Wie viel kostet es in Bezug auf institutionelles Vertrauen, staatliche Verträge und Akquisition von Firmenkunden jede Skandalrunde, die durch Imagine erzeugt wird? xAI hat einen Vertrag mit dem Pentagon. Das Pentagon erneuert keine Verträge mit Anbietern, die Skandale über Missbrauch von Bildmaterial in industriellem Maßstab ohne sichtbare Eindämmungsprotokolle verursachen.
Der größte Supercomputer der Welt löst kein Governance-Problem
Colossus, der Supercomputer von xAI mit mehr als 200.000 Grafikprozessoren, ist das beeindruckendste Infrastrukturstück im Portfolio. Colossus 2 ist im Bau. Es gibt Pläne, auf eine Million Prozessoren und zwei Gigawatt Kapazität zu kommen. Das ist festes Kapital in einem Ausmaß, das nur sehr wenige Unternehmen in der Geschichte so schnell bereitgestellt haben.
Solch fester Kapital in dieser Größenordnung generiert nur dann eine Rendite, wenn die Ausführungsschicht darüber stabil ist. Ich spreche nicht von Stabilität im konservativen Sinne: Technologiefirmen leben von Iteration. Ich spreche von Stabilität in der Talentschicht, die diese Infrastruktur in Produkte verwandelt, die der Markt kauft. Wenn Mitglieder des Gründerteams während einer Umstrukturierung, die die eigenen Mitarbeiter als desorientierend beschreiben, das Unternehmen verlassen, ist das Risiko nicht philosophisch. Es ist operativ. Sprachmodelle werden mit architektonischen Entscheidungen trainiert, die Monate brauchen, um sich in messbare Ergebnisse zu manifestieren. Wenn die Personen, die diese Entscheidungen getroffen haben, nicht mehr da sind und neue Mitarbeiter den Kontext von Grund auf neu aufbauen müssen, wird die Rendite von Colossus verzögert.
Die Integration mit SpaceX eröffnet eine kohärente strategische Richtung: die Nutzung von Macrohard-Systemen für das Design in der Luft- und Raumfahrttechnik, was xAI zu einer kritischen Infrastruktur für die interplanetarischen Ambitionen von SpaceX machen würde. Das ist ein spezifisches Wertversprechen, für ein spezifisches Segment, mit einem sehr klar definierten internen Kanal. Das Problem ist, dass dieses Versprechen am Horizont von 2027 oder später existiert, während die operationale Gegenwart von xAI in vier Teams fragmentiert ist, die gerade erst ihre neue Struktur kennenlernen.
Die Integration mit Tesla, die im März 2026 angekündigt wurde und Grok mit dem Künstlichen Intelligenz-Agenten von Tesla zur Navigation der Bildschirme kombiniert, zielt in die gleiche Richtung: xAI als kognitive Schicht für die Hardware von Musk. Das ist eine vertikale Architektur, die wirtschaftlich Sinn macht. Doch drei gleichzeitige Unternehmensintegrationen (SpaceX, X und Tesla) durchzuführen, während intern umstrukturiert wird, ist, als würde man die strukturellen Pläne eines Gebäudes ändern, während die Arbeiter in den oberen Stockwerken sind.
Das Muster, das die 250 Milliarden nicht kaufen
Was diese Geschichte offenbart, ist nicht, dass xAI zum Scheitern verurteilt ist. Sie zeigt, dass sie mit einem Governance-Modell agiert, bei dem die Geschwindigkeit der strategischen Vision konstant schneller ist als die Geschwindigkeit der operativen Konsolidierung. Dies funktioniert in frühen Phasen, wenn das Risiko darin besteht, sich nicht schnell genug zu bewegen. Es wird zu einem Lastenversagen, wenn das Unternehmen bereits staatliche Verträge hat, vier Produktlinien gleichzeitig und drei aktive Unternehmensintegrationen sowie eine Infrastruktur von festem Kapital, die messbare Renditen erfordert.
Die 20 Milliarden der Serie E sind Sauerstoff, keine Lösung. Sauerstoff nützt nur, wenn es einen Motor gibt, der atmet. Und die atmenden Motoren brauchen Teile, die passen: ein Team, das seine Funktion kennt, ein Produkt, das weiß, an wen es sich wendet, und einen Kanal, der dieses Produkt wiederholt in Kassen umwandelt. Unternehmen brechen nicht zusammen wegen fehlender Vision oder fehlendem Kapital. Sie scheitern, wenn die Teile ihres Modells nicht in der Lage sind, miteinander zu interagieren, um messbaren Wert und nachhaltigen Fluss zu erzeugen, egal wie viele Gigawatt sie verfügbar haben.













