Der chinesische KI-Boom und der Design-Tisch, den niemand prüft
Im Januar 2026 haben sechs chinesische Unternehmen aus den Bereichen Künstliche Intelligenz und Halbleiter an der Börse von Hongkong Notierung gefunden und insgesamt 3,6 Milliarden Dollar eingeworben – fast 60 % mehr als der Gesamtbetrag an IPOs im ersten Quartal 2025 auf demselben Markt. Die Aktien von MiniMax und Z.ai verdoppelten ihren Eröffnungspreis. Einzelinvestoren überzeichneten beide Emissionen über tausend Mal. IDG Capital, eines der großen Unterstützer hinter MiniMax, erzielte Papiervorteile von über 300 Millionen Dollar. HongShan, der früher als Sequoia Capital China operierte, war an drei der sechs Börsengänge beteiligt.
Die Schlagzeilen feiern die Geschwindigkeit. Ich bevorzuge es, die Architektur zu prüfen.
Was die Märkte belohnen, ohne es zu sehen
Das Argument hinter dieser Kapitalflut ist in seiner Einfachheit verführerisch: China hat eigene Sprachmodelle, entwickelt eigene Chips, hat einen Binnenmarkt von kontinentalem Maßstab und wird vom Staat unterstützt. Baidu berichtete im vierten Quartal 2025 von einem jährlichen Umsatzwachstum von 48 % im KI-gestützten Kerngeschäft. Alibaba lancierte Qwen 3.5 mit 397 Milliarden Parametern, Unterstützung für 201 Sprachen und über 700 Millionen Downloads auf Hugging Face. Cambricon plant, die Produktion seiner KI-Beschleuniger im Jahr 2026 auf 500.000 Einheiten zu verdreifachen. Apollo Go, der Robotaxi-Dienst von Baidu, hat weltweit 17 Millionen Fahrten abgeschlossen und ist bereits in Dubai aktiv und hat Vereinbarungen für London.
Diese Kennzahlen sind real. Aber die Kapitalmärkte haben eine dokumentierte Geschichte darin, die Skalierung zu belohnen, ohne die Fragilität der Annahmen zu prüfen, auf denen diese Skalierung basiert. Und die fragilste Annahme dieses Booms liegt weder in den Chips noch in den Parametern der Modelle. Sie liegt darin, wer entscheidet, welche Probleme gelöst werden sollten, für welche Benutzer und unter welchen Kriterien des Erfolgs.
Wenn ein großes Sprachmodell auf massiven Textkorpora trainiert wird, erscheinen die Verzerrungen nicht als offensichtliche Fehler. Sie zeigen sich als Designentscheidungen, die neutral erscheinen, bis das Produkt in Märkte gelangt, in denen die Annahmen des Entwicklungsteams nicht zutreffen. Qwen 3.5 unterstützt 201 Sprachen, eine beeindruckende technische Leistung. Aber es ist zwei verschiedene Phänomene, eine Sprache zu unterstützen und die kulturellen Rahmenbedingungen, Machtstrukturen und tatsächlichen wirtschaftlichen Bedürfnisse der Sprecher zu verstehen. Sprachvielfalt ersetzt nicht die Diversität am Design-Tisch.
Die soziale Architektur hinter 3,6 Milliarden Dollar
Was dieser Boom offenbart, mit einer Klarheit, die selten analysiert wird, ist das Modell des sozialen Kapitals, auf dem das KI-Ökosystem in China operiert. HongShan war an drei Börsengängen beteiligt, Qiming Venture Partners und IDG Capital jeweils an zweien. Das gleiche Vertrauensnetzwerk, die gleichen Validierungswege, die gleichen Investorenprofile genehmigen die gleichen Gründerprofile. Shen Meng, Direktor von Chanson & Co., erklärte, dass chinesische Regulierungsbehörden Hongkong für hochbewertete IPOs und hohe Unsicherheit bevorzugen, da institutionelle Anleger die Volatilität besser aufnehmen können als Einzelinvestoren an den kontinentalen Börsen. Es ist ein absolut vernünftiges Argument für das Management von finanziellen Risiken.
Aber es gibt ein weiteres Risiko, das diese Logik nicht erfasst: das Risiko, dass ein geschlossenes Validierungsnetzwerk in die Produktentscheidungen eingreift. Wenn die gleichen Fonds die gleichen Arten von Teams unterstützen, die für die gleichen imaginierten Benutzer bauen, finanziert das Kapital nicht nur die Technologie. Es finanziert eine bestimmte Sichtweise darauf, für wen diese Technologie gedacht ist. Und diese Sichtweise, wenn sie in Modelle mit 2,4 Billionen Parametern wie ERNIE 5.0 von Baidu oder in autonome Fahrsysteme wie Apollo Go kodiert wird, die bereits auf öffentlichen Straßen in Dubai operieren und ihren Eintritt in London vorbereiten, ist kein operatives Detail. Es ist eine Governance-Entscheidung mit globalen Folgen.
Homogene Netzwerke haben eine gut dokumentierte Eigenschaft: Sie sind außergewöhnlich effizient darin, sich schnell innerhalb des bekannten Territoriums zu bewegen. Und sie sind strukturell blind gegenüber Territorien, die sie nicht kennen. Das Problem liegt nicht in der Effizienz. Das Problem ist, dass KI-Modelle nicht nur innerhalb der von ihren Schöpfern bekannten Territorien operieren. Sie agieren weltweit.
Der echte Preis der blinden Flecken in der Skalierung
Erlauben Sie mir, spezifisch bezüglich der Mechanismen zu sein. Wenn ein KI-Modell mit Repräsentationsverzerrungen trainiert wird, verschwinden diese Verzerrungen nicht mit der Zeit. Sie werden amplifiziert. Ein autonomes Fahrsystem, das hauptsächlich auf Verkehrsmustern chinesischer Städte trainiert wurde und dann in Dubai oder London ausgerollt wird, ist nicht nur eine Ingenieursherausforderung der Anpassung. Es handelt sich um ein System, das in Bruchteilen von Sekunden Entscheidungen auf der Grundlage von impliziten Annahmen über das Verhalten von Fahrzeugen und Fußgängern trifft, die in diesen Umgebungen nicht von Personen validiert wurden, die diese Umgebungen verstehen.
Und das ist kein Argument gegen die globale Expansion von Apollo Go. Es ist ein Argument dafür zu fordern, dass die Teams, die diese Systeme entwerfen, ausreichend divers sind, um die blinden Flecken zu erkennen, bevor das System sie auf einer öffentlichen Straße entdeckt. Diversität im Denken und Hintergrund innerhalb eines KI-Ingenieurteams ist kein symbolischer Wert. Es ist ein Mechanismus zur Fehlererkennung. Ein homogenes Team teilt die gleichen blinden Flecken, was bedeutet, dass die Fehler des Teams die Fehler des Systems werden und die Fehler des Systems sich auf Millionen von Benutzern auswirken.
Der gleiche Analyseansatz gilt für Sprachmodelle. Qwen 3.5 wurde 700 Millionen Mal auf Hugging Face heruntergeladen und hat mehr als 180.000 abgeleitete Modelle generiert. Jedes abgeleitete Modell erbt die Verzerrungen des Basis-Modells, verstärkt oder abgeschwächt durch die Entscheidungen des Anpassungsteams. Die Frage, wer am Tisch sitzt, wenn die Qualitätskriterien für den Trainingskorpus von Qwen 3.5 definiert wurden, ist keine Frage der sozialen Verantwortung von Unternehmen. Es ist eine Frage der finanziellen Ingenieurkunst: Abgeleitete Modelle mit nicht erkannten Verzerrungen erzeugen Reputations- und regulatorische Verbindlichkeiten, die irgendwann in der Gewinn- und Verlustrechnung auftauchen.
Die 3,6 Milliarden Dollar, die in Hongkong eingenommen wurden, setzen, ganz erheblich, darauf, dass das nicht passieren wird. Oder zumindest, dass es nicht passieren wird, bevor die Fonds ihren Ausstieg finden.
Das soziale Kapital, das dieser Boom nicht aufbaut
Es gibt eine Art von Kapital, die in keinem IPO-Propekt auftaucht und die langfristige Resilienz eines jeden Technologieunternehmens bestimmt, das auf globaler Ebene agiert: die Fähigkeit, echtes Vertrauen mit Gemeinschaften aufzubauen, die sich nicht ähnlich wie die Gründer sind. Dieses Kapital wird nicht dadurch aufgebaut, dass man nach der Börsennotierung ein Diversitäts- und Inklusionsteam anheuert. Es wird aufgebaut, wenn die Kriterien dafür, wer entwirft, wer validiert und wer Produktentscheidungen trifft, Perspektiven beinhalten, die Probleme erkennen, bevor sie den Markt erreichen.
Die dominierende Erzählung über den chinesischen KI-Boom spricht von Geopolitik, Chips, Parametern und US-Exportkontrollen. Alle diese Variablen sind wichtig. Aber die Variable, die bestimmen wird, welche Unternehmen aus dieser Gruppe bis 2030 relevant bleiben, ist nicht, wie viele Beschleuniger Cambricon herstellt oder wie viele Parameter ERNIE hat. Es ist, ob die Teams, die diese Systeme bauen, ausreichend heterogen sind, um ihre eigenen Fehler zu erkennen, bevor diese Fehler in der Skalierung sichtbar werden.
Die Märkte bewerten das Potenzial dieser Modelle mit einer Prämie von 40 % gegenüber dem Nasdaq 100. Diese Prämie geht davon aus, dass die Technologie funktionieren wird. Sie berücksichtigt nicht die Kosten, dass sie für die Benutzer, die niemand im Designteam sich vorgestellt hat, schlecht funktioniert.
Das nächste Mal, wenn ein Manager den Investitions-Pipeline in KI seines Unternehmens überprüft, sollte die Due-Diligence-Analyse eine Frage umfassen, die derzeit nicht in keinem Standardfragebogen vorhanden ist: Wer sind die Mitglieder des Teams, das die Kriterien für den Erfolg des Modells definiert? Wenn alle aus der gleichen Art von Institution, aus dem gleichen Finanzierungsnetzwerk und vom gleichen Herkunftsmarkt stammen, hat das Produkt nicht nur ein Diversitätsproblem. Es hat ein Problem mit nicht überprüften Risikoflächen. Und dieses Problem verschwindet nicht, wenn das Modell skaliert. Es vervielfacht sich damit. Der Manager, der in seiner nächsten Strategie-Sitzung an seinen eigenen Tisch schaut und feststellt, dass alle gleich denken, ähnliche Erfahrungen gemacht haben und die gleichen Annahmen validieren, hat bereits die Antwort darauf, warum sein Unternehmen zu spät kommen wird, um den nächsten Produktfehler zu erkennen, den der Markt nicht verzeihen wird.









