La phrase qui devrait le plus inquiéter un directeur financier n'est pas la plus bruyante, mais la plus simple : plus de la moitié des revenus de Nvidia proviennent de cinq grands clients, les fameux hyperscalers. Ce constat, énoncé la même semaine où la société a rapporté 68,1 milliards de dollars de revenus pour le quatrième trimestre de l'exercice 2025, +73 % d'une année sur l'autre, est la clé pour interpréter la situation actuelle du marché et pour comprendre pourquoi Jensen Huang soutient que les investisseurs "ont mal compris" en évaluant la menace de l'IA sur les entreprises de logiciels. Il ne s'agit pas de savoir si l'IA "élimine" le logiciel. Il s'agit de qui finance le nouveau logiciel, dans quelles conditions, et avec quelle résilience.
Lors de l'appel sur les résultats, Huang a encadré le débat sur la durabilité avec une arithmétique brutale : le monde investissait 300 à 400 milliards de dollars par an dans le calcul classique, et avec l'IA, la nécessité de calcul sera "1 000 fois plus grande", donc le monde va investir pour "produire ce token". Sa conclusion était directe : 700 milliards de dollars de capex combiné prévu pour 2026 chez les grands acteurs ne serait pas un plafond, mais le début d'une capacité de génération de "tokens" qui continuera à se développer. Il a également parlé d'une décennie de construction pour cette industrie. Le message est clair : il n'y a pas de retour à l'informatique précédente ; l'investissement est structurel.
Le marché écoute cette confiance, observe le volume de capex et se demande quel sera l'issue. Si les cinq principaux doublaient leurs dépenses année après année, on atteindrait des trillions en quelques années. Cette mathématique ne correspond pas à la trésorerie actuelle, et les informations disponibles reconnaissent que ces acteurs dépensent déjà au-dessus de leur flux de trésorerie libre et s'endettent pour financer des centres de données. La discussion, alors, n'est pas philosophique. Elle concerne la structure du marché et la concentration des risques.
La durabilité du capex ne se joue pas dans le "si", mais dans le "qui paye"
Lorsque le capex combiné approche 700 milliards de dollars en 2026, avec des projets comme Meta jusqu'à 135 milliards de dollars (contre 72 milliards en 2025) et Google jusqu'à 185 milliards de dollars (contre 91 milliards), nous ne sommes pas face à des dépenses incrémentales. C'est un réajustement des priorités corporatives à l'échelle industrielle. Huang présente cela comme une "nouvelle façon" de calculer qui ne recule pas. Cette thèse a une cohérence interne : si la production économique de l'IA dépend des tokens générés, et que les tokens dépendent de l'infrastructure, l'investissement devient un préalable.
Mais d'un point de vue de gestion financière, la durabilité se décidera par la répartition des coûts et des retours, pas par l'inévitabilité technologique. Avec plus de la moitié des revenus de Nvidia concentrés sur cinq acheteurs, tout changement de rythme, d'architecture technique ou de politique d'achats dans ce quintette reconfigure l'ensemble du marché. Même si la demande agrégée croît, le pouvoir de négociation se déplace vers ceux qui contrôlent le capex et la demande finale.
Un angle mort fréquent apparaît ici : traiter la "bulle" comme un phénomène psychologique et non comme un phénomène de gouvernance. La dépendance à peu de budgets crée des cycles plus violents. Elle s'accélère lorsque les incitations sont alignées et ralentit lorsque le conseil d'administration exige des rachats, des dividendes ou une discipline de capital. En fait, certains analystes observent déjà le coût d'opportunité pour les actionnaires, notant que ce capex est un capital qui ne revient pas sous forme de dividendes ou de rachats. Ce conflit n'est pas négligeable : c'est le levier qui décide si les dépenses se transforment en investissement soutenu ou en pic.
La thèse de Huang peut coexister avec les préoccupations du marché. L'investissement peut être nécessaire et, en même temps, être fragilisé par une concentration excessive. Dans ce contexte, la variable critique pour 2026-2027 n'est pas seulement le nombre de puces vendues, mais combien de dépendance stratégique est construite dans une chaîne où l'acheteur final est un oligopole.
Si l'IA menace le logiciel, elle pousse aussi à faire évoluer son économie
L'interprétation superficielle est que l'IA "compresse" la valeur du logiciel traditionnel, en particulier le modèle SaaS, car elle automatise des tâches qui justifiaient auparavant des licences et des sièges. L'interprétation défendue par Huang, selon la couverture citée, est que les marchés exagèrent cette menace. La façon la plus utile de le comprendre en termes de business est différente : l'IA réorganise le coût de production et d'exploitation des logiciels, déplaçant le pouvoir vers ceux qui contrôlent le calcul, les données, la distribution et la capacité d'itération.
Cela ne détruit pas automatiquement les entreprises de logiciels, mais élimine le confort des marges par inertie. L'IA impose une auditabilité permanente des économies d'échelle. Si le client perçoit qu'une fonction est devenue "commoditisable" par un modèle, l'entreprise de logiciel doit répondre par une de trois solutions, toutes exigeantes : (1) se concentrer sur des résultats mesurables pour le business du client, (2) se spécialiser dans des domaines où les données, la régulation ou l'intégration créent de réelles barrières, ou (3) se battre sur le coût d'exploitation, ce qui nécessite des échelles et une excellence technique.
Dans cette transition, le discours de "tokenisation" de Huang a de l'importance car il suggère un nouveau dénominateur commun pour le prix de la valeur numérique : non le siège, mais le coût de production de travail computationnel. Si le marché adopte cette métrique, le logiciel cesse d'être vendu comme une promesse de productivité et commence à être vendu comme une efficacité vérifiable. Cela peut être une menace pour ceux qui vivent de la mise en paquet de processus, et une opportunité pour ceux qui peuvent démontrer un impact.
L'envers de la médaille est que de nombreuses entreprises seront piégées entre deux géants : les hyperscalers qui financent l'infrastructure et les fournisseurs de puces qui capturent la marge de performance. Au milieu, le logiciel aura besoin d'un avantage défendable qui ne soit pas juste esthétique. Cette part ne se résout pas avec du marketing, ni avec des "features". Elle se résout par une gouvernance de produit, des données d'adoption réelles et une discipline commerciale.
La nouvelle vague n'est pas technique, elle est organisationnelle : agents et adoption entreprise
Huang a souligné que l'IA agente a atteint un point de basculement au cours des 2 à 3 derniers mois, et que cela ouvre une nouvelle vague de demande. Il a également anticipé une séquence : d'abord les agents ; ensuite, "IA physique" dans la robotique et les équipements industriels ; et une croissance de l'utilisation dans les entreprises qui, selon lui, "ouvre des portes". En termes d'infrastructure, ce récit sert à justifier pourquoi le capex ne se tarit pas dans un cycle d'entraînement de modèles, mais s'étend vers l'inférence et l'opération continue.
Avec mon angle d'analyse du capital social, le changement est encore plus inconfortable pour les entreprises : les agents déplacent le travail vers la périphérie de l'organisation. La productivité cesse d'être un projet du département des systèmes et devient une capacité répartie : opérations, finances, ventes, service, conformité. Cela augmente la valeur des réseaux internes horizontaux où l'information circule et l'apprentissage devient collectif. Cela punit également les structures rigides où le savoir se concentre entre quelques rôles.
Ici apparaît le risque d'automatiser l'inégalité sans même s'en rendre compte. Si la conception des agents et des flux se fait uniquement à partir d'une table homogène, les cas d'utilisation qui sont priorisés reflètent souvent l'expérience de ceux qui décident, et non la réalité de ceux qui exécutent. Le résultat typique n'est pas un scandale éthique, mais un échec d'échelle : l'agent fonctionne en démo et échoue dans l'opération parce qu'il ne prend pas en compte les exceptions, le langage réel des utilisateurs, les frictions sur le terrain, ou les incitations des équipes.
L'adoption par les entreprises que Huang décrit comme croissante ne s'acquiert pas par des promesses de "transformation". Elle se gagne par la mise en œuvre qui comprend l'organisation comme un réseau vivant. Les équipes les plus diverses en origine et en fonction détectent souvent plus rapidement les angles morts opérationnels. Pas par vertu morale, mais par couverture de la réalité.
Le coût caché de l'homogénéité : fragilité stratégique sur un marché concentré
La concentration des dépenses chez cinq hyperscalers et la concentration du pouvoir de calcul sur peu de plateformes amplifient un problème classique pour les conseils d'administration : l'homogénéité. Lorsque le marché dépend de peu de décisions d'allocation de capital, les biais partagés deviennent macroéconomiques. Si ces décisions sont prises par des groupes qui pensent de manière similaire, l'ensemble du système devient plus susceptible à des erreurs synchronisées.
C'est à ce stade que la discussion sur la "bulle" devient insuffisante. Le risque systémique ne concerne pas seulement la surévaluation. Il s'agit de coordination : de nombreux acteurs pariant sur la même architecture, les mêmes délais et les mêmes hypothèses de demande. Le jour où le récit dominant change — sous la pression des actionnaires, par le coût de la dette, par la réglementation ou par une nouvelle efficacité technique — l'ajustement se propage immédiatement.
Huang a également abordé la question géopolitique : Nvidia a enregistré zéro revenu en Chine au trimestre actuel, et a mentionné qu'il y a des canaux ouverts pour certaines ventes mais qui dépendent des décisions d'achat des clients. Au-delà de ce détail, le message pour le leadership corporationnel est simple : le marché adressable peut se comprimer en raison de la politique publique, sans que cela invalide la technologie. Et lorsque le marché se comprime, la concurrence pour la marge s'intensifie.
Dans ce paysage, les entreprises qui survivent ne sont pas celles qui reprennent le bon récit, mais celles qui établissent desrelations de confiance et capacités d'exécution en dehors des centres traditionnels de pouvoir. Un capital social robuste signifie plus d'options : talents qui restent, partenaires qui coopèrent, clients qui co-conçoivent, fournisseurs qui priorisent. Dans des marchés concentrés, ce réseau est un avantage financier, pas un luxe culturel.
Mandat opérationnel pour le C-Level : diversifier le pouvoir avant que le marché ne le fasse
La défense de Huang sur la durabilité des dépenses en IA peut être correcte d'un point de vue technologique, et pourtant, elle laisse de nombreuses entreprises vulnérables pour des raisons non techniques : dépendance à cinq budgets, dettes finançant des infrastructures, et organisations qui ne sont pas conçues pour apprendre rapidement depuis leur périphérie.
Pour les dirigeants dans les entreprises de logiciels et celles utilisant l'IA, la démarche rationnelle est double. D'abord, construire une discipline des retours : chaque déploiement doit justifier le coût du calcul avec des métriques d'affaires, pas avec une adoption cosmétique. Ensuite, redessiner la gouvernance interne pour que le savoir opérationnel et la diversité fonctionnelle aient un pouvoir réel dans le cycle de produit, d'achats, et de gestion des risques.
Lors de la prochaine réunion du conseil d'administration, le C-Level doit regarder sa propre petite table et reconnaître que si tout le monde est tellement similaire, il partage inévitablement les mêmes angles morts, ce qui le rend victime imminente de la disruption.











