Der Wettlauf um KI geht über Software hinaus: Jetzt zählt Strom und Beton
Über Jahre hinweg wurde die KI-Narrative als ein Wettstreit zwischen Modellen erzählt: Wer besser trainiert, wer schneller lanciert, wer mehr Talent hat. Diese Phase erweist sich als unzureichend. Die Zahlen, die bis 2026 auftauchen, schreiben die Wettbewerbslandschaft mit einer Brutalität um, die man von Schwerindustrien kennt: Meta, Microsoft, Alphabet, Amazon und Oracle planen, zwischen 660 und 690 Milliarden Dollar in Capex für KI-Infrastruktur zu investieren, fast doppelt so viel wie 2025, so der Bericht von TechCrunch. Parallel dazu prognostiziert Jensen Huang eine noch größere Größenordnung: 3 bis 4 Billionen Dollar Gesamtinvestition in KI-Infrastruktur bis zum Ende des Jahrzehnts.
Der Punkt, der viele Führungsteams beunruhigt, ist, dass dieser Sprung nicht durch eine "Vorausschauende Wette" erklärt wird. Er wird von gegenwärtigen Reibungen vorangetrieben: Kapazität von Rechenzentren, Verfügbarkeit von GPUs und vor allem Energie. Microsoft hat zum Beispiel eine Zahl, die als Marktthermometer fungiert: 80 Milliarden Dollar ausstehende Bestellungen bei Azure aufgrund von Leistungsbeschränkungen. Der Engpass liegt nicht mehr im Produkt-Roadmap, sondern im Stromnetz und in der Baukapazität.
Die neue Bilanz der KI: massives Capex und Nachfrage, die nicht erfüllt wird
Die erste strukturelle Änderung ist gleichzeitig buchhalterisch und strategisch. Was finanziert wird, ist nicht nur „Rechenleistung“, sondern industrielle Kapazität: Grundstücke, Umspannwerke, Energieverträge, Kühlung und Rechenzentren, die für KI-Lasten entworfen sind. TechCrunch beschreibt, wie sich die großen Akteure mit Summen bewegen, die früher mit öffentlichen Infrastrukturzyklen assoziiert wurden.
Die Investitionsprognosen für 2026 zeigen die Größe des Wandels: Amazon plant 200 Milliarden Dollar (von 131 Milliarden in 2025), Alphabet zwischen 175 und 185 Milliarden (von 91 Milliarden), Meta zwischen 115 und 135 Milliarden (von 71 Milliarden), Microsoft zielt auf 120 Milliarden oder mehr, und Oracle auf 50 Milliarden, ein Anstieg von 136% im Vergleich zu 2025. Diese Zahlen bilden gemeinsam den aggregierten Bereich von 660 bis 690 Milliarden.
Hinter dem Gesamtbetrag steht eine operative Botschaft: Die Hyperscaler akzeptieren, dass die KI vorübergehend wie eine Industrie verwaltet wird, bei der der Gewinner derjenige ist, der Liquidität in nutzbare physische Kapazität umwandelt, bevor es andere tun. In diesem Kontext wird die "Time to Market" in aktivierten Megawatt gemessen, nicht in Sprints.
Dieser Wandel hat unvermeidliche finanzielle Implikationen. Das Capex wird zu einem Hebel für die Positionierung, aber auch zu einer Quelle des Drucks: Wenn die Monetarisierung der KI nicht mithält, bleibt der Vermögenswert stehen, den er abwertet und ver competing for energy with other uses. Der Markt scheint derzeit die These der Knappheit zu validieren: Das Signal von Microsoft über Rückstände aufgrund von Leistung dient als Beweis, dass die Nachfrage das verfügbare Angebot übersteigt.
Rechenzentren als Produkt: Der Kunde kauft Sicherheit, nicht „Modelle“
Ich interessiere mich dafür, diesen Wettlauf durch die Brille des Verbraucherverhaltens zu betrachten, denn der „Kunde“ dieser Infrastruktur ist nicht nur der Endbenutzer eines Chatbots. Der relevante Kunde ist der, der bezahlt: Unternehmen, die KI in ihre Abläufe, Kundenservice, Programmierung, Marketing und Analysen integrieren müssen; und die heute „ein sehr spezifisches Ergebnis“ anfordern: sichere Rechenleistung.
Im Jahr 2024 oder 2025 wurden viele kommerzielle KI-Gespräche mit Demos und Versprechen über Produktivitätssteigerung gelöst. Im Jahr 2026 verlagert sich das Differenzial auf etwas Prosaïscheres: garantierte Verfügbarkeit. Wenn ein Anbieter Aufträge anhäuft, die er nicht bedienen kann (der Rückstand bei Azure), lernt der Unternehmenskunde eine pragmatische Lektion: Das Risiko besteht nicht mehr nur darin, „ob das Modell funktioniert“, sondern ob es Kapazität gibt, um es auszuführen, wenn ich es benötige.
Hier tritt eine weniger glamouröse, aber wesentlichere Innovation auf: die Umwandlung von Infrastruktur in ein explizites Wertangebot. Projekte wie Hyperion von Meta – ein 2.250 Acres großer Standort in Louisiana, der rund 10 Milliarden Dollar kostet und auf 5GW skalierbar ist, mit Plänen, die mit einem Kernkraftwerk verbunden sind, so die Berichte – sind kein Ingenieurgeist. Sie sind der Versuch, das am meisten Gefragte als „Produkt“ zu verpacken: Energie plus Computerleistung.
Und der Fall Stargate trägt diese Logik bis zum Extrem. Das Gemeinschaftsunternehmen von OpenAI, SoftBank, Oracle und MGX, das mit Unterstützung der Trump-Regierung angekündigt wurde, zielt auf 500 Milliarden Dollar bis 2029, mit einem anfänglichen Einsatz von 100 Milliarden und einer Planung von 7GW an fünf Standorten in Texas, New Mexico und Ohio (bis September 2025), zusätzlich zu mehr als 400 Milliarden, die in den ersten drei Jahren zugesagt sind. Dies scheint nicht mehr eine schrittweise Erweiterung der Cloud zu sein; es scheint der Bau einer neuen industriellen Schicht zu sein.
In Bezug auf den Unternehmensverbraucher sind die Muster klar: Es wird für betriebliche Kontinuität gezahlt. Wenn KI ein Bestandteil kritischer Prozesse wird, ist eine Unterbrechung durch mangelnde Kapazität nicht mehr akzeptabel. Der Kauf verlagert sich von „intelligenter Software“ zu „verlässlichem industriellen Dienst“.
Der Kampf um die Lieferkette: Nvidia, GPU-Vereinbarungen und Abkommen, die Abhängigkeiten schaffen
Die andere Dimension der Macht ist nicht das Rechenzentrum selbst, sondern die Lieferkette, die es nützlich macht. TechCrunch hat Vereinbarungen zusammengestellt, die aufgrund ihrer Größe eher wie Rohstoffverträge aussehen als wie technologische Allianzen.
OpenAI, zum Beispiel, erscheint in Verbindung mit einem Vereinbarung über 100 Milliarden Dollar in GPUs mit Nvidia, zusätzlich zu einem GPU-Aktienmodell mit AMD. Nvidia wiederum hat eine ähnliche Struktur mit xAI entwickelt. Parallel wird daran erinnert, dass Microsoft seit 2019 fast 14 Milliarden Dollar in OpenAI investiert hat, beginnend mit dem Vertrag über 1 Milliarde, der Exklusivität bei Azure beinhaltete (später gelockert für einen Multicloud-Ansatz mit „erster negativer Antwort“). Und Amazon investierte 8 Milliarden Dollar in Anthropic, um Hardware an seine Bedürfnisse anzupassen.
Finanziell wird dies als Versuch interpretiert, die Volatilität in drei Bereichen zu verringern:
1) Sicherstellung des Angebots: Wer keine GPUs festlegt, ist der Willkür von Warteschlangen und Preisen ausgeliefert.
2) Sicherstellung der Nachfrage: Wer finanziert oder sich mit einem relevanten Labor integriert, sichert sich Arbeitslasten, die das Capex füllen.
3) Umwandlung von Infrastruktur in Lock-in: nicht unbedingt durch Exklusivitätsklauseln, sondern durch operative Wechselkosten.
Der wichtige Punkt ist, dass sich die Verhandlungsstärke verschiebt. Bei Knappheit erfasst der Lieferant (GPUs, Energie, Baukapazität) mehr Wert. Die Cloud konkurriert, ist jedoch auch abhängig. Daher ist der Kommentar von Huang über energetische Engpässe von so großer Bedeutung: Das härteste Limit ist nicht der Algorithmus, sondern der Zugang zu elektrischer Energie.
Diese Umstrukturierung erklärt auch das atypische Wachstum von Oracle in der Geschichte: Ihr Ziel von 50 Milliarden Dollar Capex und ihre 523 Milliarden in verbleibenden Leistungsansprüchen deuten auf eine Neupositionierung hin, um die Nachfrage nach Infrastruktur im großen Maßstab zu erfassen, unterstützt durch ihre Rolle in Stargate.
Das stille Risiko: Überdimensionierte Infrastruktur und reduzierte Benutzererfahrung
Wenn eine Branche in den Modus „erst bauen, dann monetisieren“ übergeht, besteht das Risiko nicht immer im technologischen Scheitern. Oft ist es die Entkopplung von der echten Arbeit des Kunden.
Hier gibt es eine zentrale Spannung: Die aggregierten Ausgaben von 660 bis 690 Milliarden koexistieren mit einem in der Briefing erwähnten Fakt: Reine KI-Unternehmen zeigen schnelles Umsatzwachstum, sind aber immer noch ein Bruchteil der Gesamtausgaben für Infrastruktur. Dieses Ungleichgewicht bedeutet nicht, dass die Investition irrational ist; es bedeutet, dass sich das Wertschöpfungsmodell noch in der Konsolidierung befindet.
Auf dem Weg treten zwei betriebliche Gefahren auf:
Das Marktsignal ist, dass die Großen darauf setzen, dass „die KI die gesamte verfügbare Kapazität verbrauchen wird“, so fasst die zitierte Analyse von Futurum Group den Sprung von ~380 Milliarden in 2025 auf 660–690 Milliarden in 2026 zusammen. Wenn sich diese Hypothese bewahrheitet, wird das Capex gerechtfertigt. Wenn es nur teilweise zutrifft, wird der Gewinner derjenige sein, der mit der größten vertraglichen und energetischen Flexibilität gebaut hat.
Deshalb hat die bevorstehende öffentliche Diskussion – ein Treffen im Weißen Haus im März 2026 mit Amazon, Google, Meta, Microsoft, xAI, Oracle und OpenAI, so das Briefing – eine wirtschaftliche Lesart: Die Bereitstellung von Energie, Genehmigungen und Bauweise definiert den zukünftigen Marktanteil ebenso stark wie das beste Modell.
Die strategische Richtung ist bereits markiert: KI wird als garantierte Kapazität verkauft
Die Geschichte von 2026 zeigt, dass sich das entscheidende „Produkt“ verschoben hat. Die KI wird weiterhin im Wettbewerb um die Qualität von Modellen stehen, ja, aber die wirtschaftliche Macht konzentriert sich bei denjenigen, die das physische Nadelöhr kontrollieren: Rechenzentren, GPUs und Elektrizität.
Für einen CEO oder CFO sind die praktischen Implikationen, dass das Gespräch über KI nicht mehr nur eine Softwarediskussion ist, sondern zu einer Diskussion über Kostenstruktur, Abhängigkeit von Anbietern und operationale Risiken wird. Kurzfristig begünstigt die Skalierung diejenigen, die massives Capex absorbieren können. Mittelfristig wird der Wettbewerbsraum für Vorschläge geöffnet, die genügend KI zu geringeren Kosten und mit weniger Infrastrukturanforderungen liefern, insbesondere dort, wo der Kunde nicht die maximale Leistung benötigt.
Das Verbraucherverhalten, das dieser Wettlauf offenbart, ist eindeutig: Unternehmen stellen nicht „KI“ als Konzept ein; sie beauftragen Kontinuität und Sicherheit, um Prozesse zu transformieren, ohne dass die Infrastruktur im entscheidenden Moment versagt.










