L'essor de l'IA chinoise et la table de conception que personne n'a auditée

L'essor de l'IA chinoise et la table de conception que personne n'a auditée

La Chine a levé 3,6 milliards de dollars en IPOs d'IA en moins d'un mois. Derrière les chiffres se cache une question cruciale : qui conçoit ces modèles ?

Isabel RíosIsabel Ríos13 avril 20267 min
Partager

L'essor de l'IA chinoise et la table de conception que personne n'a auditée

En janvier 2026, six entreprises chinoises d'intelligence artificielle et de semi-conducteurs ont été cotées à la Bourse de Hong Kong, levant ensemble 3,6 milliards de dollars, soit près de 60 % de plus que le total des IPOs du premier trimestre 2025 sur le même marché. Les actions de MiniMax et Z.ai ont vu leur prix d'ouverture doubler. Les fonds de détail ont sursouscrit ces deux émissions plus de mille fois. IDG Capital, l'un des gros soutiens de MiniMax, a accumulé des plus-values de plus de 300 millions de dollars sur papier. HongShan, le gestionnaire qui opérait auparavant sous le nom de Sequoia Capital China, a participé à trois des six cotations.

Les titres célèbrent la vitesse. Je préfère auditer l’architecture.

Ce que les marchés récompensent sans voir

L'argument derrière cette vague de capital est séduisant par sa simplicité : la Chine dispose de ses propres modèles linguistiques, de ses puces en développement, a un marché domestique d'échelle continentale, et l'État pousse à l'arrière. Baidu a rapporté une croissance de 48 % de ses revenus dans son cœur d’activité alimenté par l'IA au quatrième trimestre 2025. Alibaba a lancé Qwen 3.5 avec 397 milliards de paramètres, supportant 201 langues et comptant plus de 700 millions de téléchargements sur Hugging Face. Cambricon prévoit de tripler sa production d'accélérateurs d'IA en 2026, atteignant 500 000 unités. Apollo Go, le service de robotaxi de Baidu, a complété 17 millions de trajets dans le monde et opère déjà à Dubaï avec des accords pour Londres.

Ces métriques sont réelles. Mais les marchés de capitaux ont une histoire documentée de récompense à l'échelle sans auditer la fragilité des hypothèses sur lesquelles cette échelle est construite. Et l'hypothèse la plus fragile de cette bulle n'est pas dans les puces ni dans les paramètres des modèles. Elle réside dans qui décide quels problèmes méritent d'être résolus, pour quels utilisateurs et selon quels critères de succès.

Lorsqu'un modèle de langage de grande taille est entraîné sur des corpus massifs de texte, les biais ne se manifestent pas sous forme d'erreurs évidentes. Ils apparaissent comme des décisions de conception qui semblent neutres jusqu'à ce que le produit atteigne des marchés où les hypothèses de l'équipe créatrice ne s'appliquent pas. Qwen 3.5 supporte 201 langues, un exploit d'ingénierie impressionnant. Mais soutenir une langue et comprendre les cadres culturels, les structures de pouvoir et les besoins économiques réels de ses locuteurs sont deux phénomènes distincts. La couverture linguistique ne remplace pas la diversité à la table de conception.

L'architecture sociale derrière 3,6 milliards de dollars

Ce que cette bulle révèle, avec une clarté rarement analysée, est le modèle de capital social sur lequel opère l'écosystème de l'IA en Chine. HongShan dans trois cotations, Qiming Venture Partners et IDG Capital dans deux chacune. Le même réseau de confiance, les mêmes circuits de validation, les mêmes profils d'investisseurs approuvant les mêmes profils de fondateurs. Shen Meng, directeur de Chanson & Co., a expliqué que les régulateurs chinois préfèrent Hong Kong pour les IPOs de haute valeur et d'incertitude élevée, car les investisseurs institutionnels absorbent mieux la volatilité que les amateurs de la bourse continentale. C'est un argument parfaitement raisonnable en matière de gestion des risques financiers.

Mais il existe un autre risque que cette logique ne capture pas : le risque qu'un réseau fermé de validation influence les décisions de produit. Lorsque les mêmes fonds soutiennent les mêmes types d'équipes qui construisent pour les mêmes utilisateurs imaginés, le capital ne finance pas seulement la technologie. Il finance une vision particulière de qui bénéficie de cette technologie. Et cette vision, lorsqu'elle est codée dans des modèles avec 2,4 billions de paramètres comme ERNIE 5.0 de Baidu, ou dans des systèmes de conduite autonome comme Apollo Go qui opèrent déjà sur des voies publiques à Dubaï et préparent leur entrée à Londres, n’est pas un détail opérationnel. C'est une décision de gouvernance avec des conséquences à l'échelle mondiale.

Les réseaux homogènes ont une propriété bien documentée : ils sont extraordinairement efficaces pour se déplacer rapidement dans des territoires connus. Et ils sont structurellement aveugles aux territoires inconnus. Le problème n'est pas l'efficacité. Le problème est que les modèles d'IA n'opèrent pas seulement dans le territoire connu de leurs créateurs. Ils opèrent sur le monde entier.

Le vrai prix des points aveugles à l'échelle

Permettez-moi d'être spécifique sur les mécaniques. Lorsqu'un modèle d'IA est formé avec des biais de représentation, ces biais ne disparaissent pas avec le temps. Ils s'amplifient. Un système de conduite autonome entraîné principalement sur des motifs de circulation de villes chinoises déployé ensuite à Dubaï ou à Londres n'est pas seulement un défi d'ingénierie d'adaptation. C'est un système qui prendra des décisions en une fraction de seconde sur des hypothèses implicites de comportement véhicule et piéton qui n'ont pas été validées dans ces environnements par des personnes connaissant ces milieux.

Et ce n'est pas un argument contre l'expansion mondiale d'Apollo Go. C'est un plaidoyer pour exiger que les équipes qui conçoivent ces systèmes soient suffisamment diverses pour détecter les points aveugles avant que le système ne les rencontre sur une voie publique. La diversité de pensée et d'origine dans une équipe d'ingénierie d'IA n'est pas un valeur symbolique. C'est un mécanisme de détection des erreurs. Une équipe homogène partage les mêmes points aveugles, ce qui signifie que les erreurs de l'équipe deviennent les erreurs du système, et que les erreurs du système sont amplifiées à des millions d'utilisateurs.

La même analyse s'applique aux modèles de langage. Qwen 3.5 a été téléchargé 700 millions de fois sur Hugging Face et a généré plus de 180 000 modèles dérivés. Chaque modèle dérivé hérite des biais du modèle de base, amplifiés ou atténués selon les décisions de l'équipe qui l'adapte. La question de savoir qui était assis à la table lorsque les critères de qualité du corpus d'entraînement de Qwen 3.5 ont été définis n'est pas une question de responsabilité sociale des entreprises. C'est une question d'ingénierie financière : les modèles dérivés avec des biais non détectés entraînent des passifs de réputation et réglementaires qui, à un moment donné, affecteront le compte de résultat.

Les 3,6 milliards levés à Hong Kong parient en grande partie sur le fait que cela n'arrivera pas. Ou au moins, que cela n'arrivera pas avant que les fonds ne trouvent une sortie.

Le capital social que cette bulle ne construit pas

Il existe un type de capital qui n'apparaît dans aucun prospectus d'IPO et qui détermine la résilience à long terme de toute entreprise technologique opérant à l'échelle mondiale : la capacité de construire une confiance réelle avec des communautés qui ne ressemblent pas aux fondateurs. Ce capital ne se construit pas en embauchant une équipe de diversité et d'inclusion après une introduction en bourse. Il se construit lorsque les critères de qui conçoit, qui valide et qui prend des décisions de produit incluent des perspectives qui détectent les problèmes avant qu'ils n'atteignent le marché.

La narration dominante sur l'essor de l'IA chinoise parle de géopolitique, de puces, de paramètres et de contrôles d'exportation américains. Toutes ces variables sont importantes. Mais la variable qui déterminera quelles entreprises de ce groupe resteront pertinentes en 2030 n'est pas combien d'accélérateurs Cambricon fabrique, ni combien de paramètres a ERNIE. C'est si les équipes qui construisent ces systèmes sont suffisamment hétérogènes pour détecter leurs propres erreurs avant que ces erreurs n'atteignent une échelle massive.

Les marchés évaluent le potentiel de ces modèles avec une prime de 40 % par rapport au Nasdaq 100. Cette prime suppose que la technologie fonctionnera. Elle ne prend pas en compte le coût d’un mauvais fonctionnement pour des utilisateurs que personne dans l'équipe de conception n'a imaginé.

La prochaine fois qu'un cadre examinera le pipeline d'investissement en IA de son entreprise, l'analyse de due diligence devrait inclure une question qui n'est pas actuellement dans aucun questionnaire standard : qui compose l'équipe qui définit les critères de succès du modèle ? Si tous proviennent du même type d'institution, du même circuit de financement et du même marché d'origine, le produit n’a pas seulement un problème de diversité. Il a un problème de surface de risque non auditée. Et ce problème ne disparaît pas lorsque le modèle s'agrandit. Il se multiplie avec lui. Le cadre qui observera sa propre table lors de la prochaine réunion de stratégie et constatera que tous pensent de la même manière, ont vécu des expériences similaires et valident les mêmes hypothèses, a déjà la réponse à la question de savoir pourquoi son entreprise arrivera en retard pour détecter le prochain défaut de produit que le marché ne pardonnera pas.

Partager
0 votes
Votez pour cet article !

Commentaires

...

Vous pourriez aussi aimer