Le logiciel de 30 ans a atteint ses limites tarifaires
Il y a un chiffre qui n'apparaît dans aucun communiqué de presse mais qui explique tout : lorsque le PDG de Microsoft déclare que 30% du code de l'entreprise est désormais généré par une machine, il n'annonce pas une prouesse de productivité. Il admet, sans le dire, que la rareté qui justifiait des décennies de prix premium vient de s'évaporer.
C'est ce qui se passe dans le secteur que Wall Street appelle le Big Software, et la perte de capitalisation d'Oracle —plus de 463 milliards de dollars depuis septembre 2025— n'est pas une anomalie. C'est la première lecture visible d'une revalorisation qui n'est pas encore terminée.
La barrière d'entrée n'était pas la technologie, mais la difficulté de construction
Pendant trente ans, l'argument central de toute entreprise de logiciel d'entreprise était simple : construire ce que nous construisons nécessite des centaines d'ingénieurs, des dizaines de millions de dollars et des années d'itération. Ce coût d'entrée était le fossé protecteur. Ni la marque, ni la technologie en elle-même, mais la frictions considérable que représentait sa réplication.
L'intelligence artificielle générative ne concurrence pas ce logiciel. Elle attaque directement la friction qui le protégeait. Lorsque les modèles de code ouvert atteignent 90% des capacités des modèles à la pointe, le coût de construction d'un concurrent fonctionnel s'effondre. La startup qui avait besoin de cinq ans et de cinquante ingénieurs pour construire un CRM minimalement viable peut désormais parcourir cette distance en une fraction du temps et du capital. Le fossé n'a pas disparu parce que quelqu'un a construit un meilleur pont ; il a disparu parce qu'il s'est asséché.
Cela change radicalement ce que les entreprises achètent en contractant une plateforme comme Salesforce ou un service cloud de Microsoft. Pendant des décennies, elles achetaient une certitude d'exécution : la garantie que quelqu'un avait déjà résolu le problème de construction du logiciel, l'avait testé avec des milliers de clients et le maintiendrait opérationnel. Cet argument reste partiellement valable, mais son prix s'ajuste vers le bas à une vitesse que les modèles financiers des analystes n'avaient pas anticipée.
Lorsque la productivité devient un argument pour les réductions
Le mouvement qui révèle le plus la tension interne de ces entreprises n'est pas l'investissement dans l'intelligence artificielle. C'est la séquence de décisions qui en a résulté.
Microsoft a annoncé en mai 2025 une vague de licenciements où environ 40% des suppressions —plus de 800 postes— concernaient des ingénieurs logiciels à son siège de Redmond. Oracle et Block ont fait de même, citant explicitement l'automatisation comme justification. La narrative d'entreprise encadre ces mouvements comme une réaffectation vers des domaines à plus forte croissance. Mais la mécanique financière est plus directe : si 30% du code est déjà produit par une machine, maintenir le même nombre d'ingénieurs humains détruit l'argument du retour sur investissement en IA qui est présenté au conseil d'administration.
Il existe une paradoxe opérationnel dans ce raisonnement que les données commencent à mettre en évidence. Les outils de génération de code produisent plus d'erreurs que le code écrit par des ingénieurs expérimentés. Cela signifie que le gain de vitesse s'accompagne d'une augmentation du coût de supervision et de correction. Les entreprises sacrifient la profondeur de révision pour la vitesse de livraison, et cela aura des conséquences qui n'apparaîtront pas dans les états financiers au cours des prochains trimestres, mais qui commenceront à apparaître dans la satisfaction du client final.
La course pour prouver que l'investissement dans l'IA génère un retour —Microsoft a engagé 10 milliards de dollars dans OpenAI, Google 2 milliards dans Anthropic, Amazon 4 milliards de plus— crée une pression interne qui déforme les priorités des produits. Les projets qui n'ont pas de narration d'intelligence artificielle associée sont annulés ou dépriorisés, peu importe leur valeur pour le client.
Le déplacement de valeur que les bilans ne montrent pas encore
La question la plus utile pour un dirigeant qui évalue son exposition à ce secteur n'est pas si Salesforce ou Microsoft survivront. Probablement qu'ils le feront, du moins sous une forme. La question la plus utile est de savoir où se déplace la valeur que ces plateformes capturaient auparavant.
L'analyse de l'architecture concurrentielle pointe dans une direction cohérente : la valeur se déplace du logiciel vers l'infrastructure physique. Centres de données, semi-conducteurs, capacité énergétique. Les entreprises qui contrôlent ces actifs —et non celles qui vendent des licences de logiciels— sont celles qui consolident leur position. Les hyperscalers avec une infrastructure propre ont une défense que les pure players du SaaS ne peuvent pas répliquer rapidement.
Le cas d'Oracle illustre ce déplacement avec une clarté qui fait mal. La société a essayé de se positionner comme fournisseur d'infrastructure pour les plus grands modèles de langage du marché. Lorsque OpenAI a décidé de rediriger sa capacité vers Microsoft et Amazon, Oracle a perdu ce contrat et avec lui la narration qui soutenait sa valorisation. Plus de 463 milliards de dollars de capitalisation boursière se sont évaporés en quelques mois. Pas à cause d'un scandale, pas à cause d'une mauvaise décision comptable, mais parce que le marché a recalibré à quel point la position d'Oracle dans la chaîne de valeur de l'intelligence artificielle était solide.
Pour les dirigeants qui évaluent quels fournisseurs de logiciels d'entreprise resteront pertinents au cours des cinq prochaines années, la question n'est plus de savoir s'ils disposent d'une fonctionnalité d'IA. C'est de savoir si la couche d'IA qu'ils offrent crée une dépendance réelle ou est simplement un emballage sur des modèles auxquels le client pourrait accéder directement. La différence entre ces deux situations déterminera quelles entreprises peuvent maintenir leurs marges et lesquelles se retrouveront dans une spirale de réduction des prix pour retenir leurs clients.
Le travail que le client a toujours engagé n'était pas le logiciel
Il y a une lecture sous-jacente à tout cela que les rapports d'analystes tendent à esquiver car elle complique les modèles de valorisation.
Les entreprises qui achetaient Salesforce, Microsoft Dynamics ou n'importe quelle plateforme de logiciel d'entreprise de long cycle n'achetaient pas de technologie. Elles achetaient l'élimination d'une incertitude opérationnelle : la certitude que leurs processus critiques fonctionneraient, qu'il y aurait un support lorsqu'il y aurait un problème, que le fournisseur serait là dans trois ans. C'est cela qui justifiait les contrats pluriannuels et les prix premium.
L'intelligence artificielle n'élimine pas ce besoin. Ce qu'elle élimine, c'est la perception que seules les grandes plateformes consolidées peuvent le satisfaire. Lorsque une équipe interne peut construire et maintenir un outil de CRM fonctionnel pour une fraction du coût précédent, l'argument du fournisseur consolidé cesse d'être la seule route vers cette certitude opérationnelle.
Les entreprises de logiciels d'entreprise qui comprendront cela avant leurs concurrents ne vont pas rivaliser sur les fonctionnalités d'IA. Elles vont redéfinir quelle certitude spécifique elles vendent et à qui, et vont construire leur modèle de prix autour de cette certitude concrète, pas autour de la complexité technique qu'elles ne peuvent plus protéger.
L'échec des modèles de prix élevés dans ce cycle démontre que le travail que le client a toujours engagé n'était pas l'accès à un logiciel sophistiqué, mais la réduction du risque opérationnel de dépendre d'une technologie qu'il ne contrôle pas. Celui qui parviendra à vendre cette garantie de manière crédible dans un environnement où construire le logiciel n'est plus la barrière, aura résolu le véritable problème. Le reste continuera à baisser les prix jusqu'à ce que les marges ne justifient plus l'opération.












