Le grand échec de l'IA dans les entreprises : la technologie n'est pas le problème, mais le comportement humain et la facturation

Le grand échec de l'IA dans les entreprises : la technologie n'est pas le problème, mais le comportement humain et la facturation

Les entreprises investissent dans l'IA comme s'il s'agissait de logiciels traditionnels, mais restent déçues par les résultats. Le problème réside dans la culture d'adoption et la mesure des résultats.

Andrés MolinaAndrés Molina8 mars 20266 min
Partager

Le grand échec de l'IA dans les entreprises : la technologie n'est pas le problème, mais le comportement humain et la facturation

Au cours de la dernière année, la conversation publique autour de l'intelligence artificielle s'est remplie de démonstrations, de promesses et d'achats d'entreprises. Les investissements ont été réalisés à grande échelle dans des modèles, des licences, des infrastructures et des pilotes. Toutefois, le symptôme qui intéresse véritablement un conseil d'administration n'est pas le nombre de tests effectués, mais quel est le profit réalisé à la fin du trimestre.

Une étude citée par le MIT et relayée par TheStreet révèle un chiffre qui contredit l'euphorie ambiante : 95 % des organisations n'ont pas constaté de retour mesurable sur leurs investissements en IA, malgré un budget global compris entre 30 et 40 milliards de dollars pour les initiatives d'IA en entreprise. Ce n'est pas une question de puissance de calcul ni de "maturité du modèle". C'est, en grande partie, un problème d'adoption humaine et de systèmes internes qui ne sont pas adaptés à l'économie réelle liée à l'usage de l'IA.

Depuis mon travail d'analyse du comportement du consommateur et des frictions d'adoption, je lis cette histoire comme une autopsie de deux échecs classiques : le premier se produit au bureau de l'employé, où l'IA devient un "moteur de recherche amélioré" ; le second a lieu dans les bureaux arrière, où même quand l'usage existe, l'entreprise ne sait pas le mesurer ni le facturer avec précision. Dans les deux cas, l'erreur est la même : concevoir pour un humain et une comptabilité qui n'existent pas.

Lorsque l'IA rencontre le travail réel, elle se heurte aux incitations, aux habitudes et à la peur de l'erreur

Oseas Ramirez, PDG d'Axialent, l’a exprimé avec une phrase qui devrait figurer dans chaque plan de transformation : "L'IA est adoptée par les personnes, pas par les serveurs. Si les gens ne changent pas leur façon de travailler, la technologie reste à l'arrêt." Cette affirmation n'est pas de la philosophie ; c'est une économie appliquée. Si le comportement ne change pas, l'actif technologique devient un coût irrécupérable.

Le modèle décrit par l'étude citée par TheStreet est cohérent avec ce que j'observe en matière d'adoption : la plupart des employés utilisent l'IA comme un moteur de recherche légèrement plus intelligent, et non comme une refonte des flux de travail. Ce détail détruit le retour sur investissement. Un "moteur de recherche amélioré" fait gagner des minutes ; un flux de travail redessiné change les temps de cycle, réduit le travail en double, standardise les décisions et rend scalable des activités qui auparavant dépendaient de héros internes.

Le choc survient parce que les organisations tentent de déployer l'IA en suivant le même script : acheter un outil, installer, former, déclarer victoire. Mais l'adoption échoue non pas par manque de formation, mais à cause d'une friction cognitive et de risques perçus. L'employé ne "rejette pas l'IA" par idéologie : il l'évite quand le coût mental de son utilisation dépasse le bénéfice immédiat ou lorsque le système de récompense pénalise l'expérimentation.

Sur le plan comportemental, il existe un élan — la frustration face aux tâches répétitives et la pression pour la productivité — mais aussi un magnétisme — la promesse de rapidité et de meilleures réponses. Le problème est que l'anxiété et l'habitude l'emportent souvent. Anxiété, car déléguer le jugement à un système probabiliste expose l'utilisateur à une erreur visible. Habitude, car le statu quo a déjà des chemins connus pour survivre dans la politique interne : "faire comme d'habitude" coûte rarement un poste ; essayer quelque chose de nouveau et échouer peut en coûter un.

Un élément critique ici est que de nombreuses hiérarchies et incitations ont été conçues avant l'arrivée de l'IA. Si une équipe commerciale reçoit des prévisions générées par l'IA qui vont à l'encontre des quotas ou des récits internes, la donnée ne "se discute pas" ; elle est ignorée. Non pas par méchanceté, mais par préservation : l'humain optimise sa sécurité au sein du système. Si le modèle menace l'accord tacite sur la manière de distribuer le mérite et la responsabilité, le modèle perd.

C'est pourquoi les entreprises qui obtiennent des résultats ne sont pas nécessairement celles qui disposent du modèle le plus sophistiqué, mais celles qui réorganisent le travail autour du modèle. L'IA n'est pas un "ajout" ; c'est une refonte du contrat psychologique du travail : qui décide, qui valide, qui signe, qui prend le risque. Sans cette refonte, l'outil est utilisé pour des tâches mineures, le retour sur investissement s'évapore et l'organisation tire la mauvaise leçon : que l'IA "ne fonctionne pas", alors qu'en réalité, ce qui ne fonctionne pas, c'est le système d'adoption.

Le ROI se casse pour une raison banale : on achète du brillant, on sous-estime la friction

Les chiffres de l'étude citée sont un coup dur pour le récit triomphaliste : 95 % sans retour mesurable après 30 à 40 milliards de dollars investis. Lorsqu'une telle lacune apparaît, l'explication est souvent moins glamour que la technologie. La réponse se trouve dans la façon dont les entreprises allouent leur budget et leur attention.

Dans la pratique, de nombreuses organisations financent avec enthousiasme le visible : licences, infrastructures, pilotes avec des démonstrations spectaculaires. Cela "brille" lors d'une présentation. Ce qui ne reçoit pas le même soutien budgétaire, c'est ce qui dirige réellement le comportement : la refonte des processus, les changements d'incitations, la gouvernance d'utilisation, la protection contre l'erreur raisonnable, et le temps réel pour itérer.

On constate ici un biais corporate fréquent : on considère la transformation comme un projet informatique, et non comme une réécriture opérationnelle. La conséquence est prévisible : l'utilisation stagne en surface. L'employé ouvre l'outil pour rédiger un email, résumer un document ou rechercher des informations. Ce sont des actions qui ne mettent pas en péril leur identité professionnelle ni ne défient les hiérarchies. L'IA devient alors une cosmétique de la productivité.

Un autre détail aggrave le problème : la résilience organisationnelle face à l'échec. La note mentionne que lorsque les expériences échouent — et elles échouent souvent — beaucoup d'entreprises n'ont pas la capacité institutionnelle d'insister et d'itérer. D'un point de vue comportemental, cela est clé : si la première expérience d'un utilisateur se déroule dans un environnement punitif, l'adoption échoue. Une mauvaise interaction initiale crée une heuristique interne : "cela pose des problèmes". À partir de là, chaque micro-friction confirme la décision de revenir à l'habitude.

Le résultat final est pervers pour le niveau dirigeant : on déclare avoir "déployé l'IA", mais il n'y a pas de retour. On célèbre l'implémentation, on punit le changement. Et donc, le cycle recommence : plus de dépenses en outils, plus de frustration, plus de cynisme. Le coût n'est pas seulement financier ; il est également interne et réputationnel. Chaque initiative échouée réduit le capital politique pour la suivante.

Même avec l'adoption, de nombreuses entreprises perdent de l'argent en raison de leur incapacité à facturer la consommation

La deuxième partie de l'histoire est plus silencieuse et, pour un CFO, plus dangereuse : même lorsque l'IA est utilisée, beaucoup d'entreprises ne sont pas équipées pour la facturer. Erez Agmon, PDG de Vayu, le résume ainsi : "La plupart des systèmes de facturation SaaS ont été conçus en pensant à des abonnements prévisibles. L'IA entraîne une consommation erratique."

Le cœur du problème est structurel. Le logiciel traditionnel était vendu par sièges, licences ou abonnements plats. L'IA, en revanche, est consommée en unités variables : jetons traités, appels à l'API, exécutions de modèles. Cette consommation n'est pas seulement variable ; elle est également intermittente, avec des pics et des vallées difficiles à prévoir. Prétendre qu'un ancien système de facturation puisse saisir cela sans pertes revient à utiliser une caisse enregistreuse pour mesurer l'électricité.

TheStreet décrit un cas concret qui illustre la fuite de revenus : un CFO a découvert que son système ne servait à enregistrer l'utilisation que le jour du cycle de facturation. Si un client montait en niveau en milieu de mois et redescendait avant le jour de la facturation, le pic disparaissait. Le CFO l'a dit crûment : "Je ne facture que ce qui était là à la date du cycle de facturation. J'ai raté le pic. J'ai perdu cet argent."

Cet exemple expose un schéma récurrent : l'économie de l'IA punit l'entreprise qui ne mesure pas avec précision. Des lacunes dans le suivi apparaissent, des conciliations manuelles avec des feuilles de calcul et des factures créées à la main. Tout cela fonctionne lorsque le nombre de clients est faible ; cela s'effondre lorsque le produit prend de l'ampleur.

La fuite de revenus n'est pas un événement isolé ; c'est une fuite continue. Et une fuite, dans un modèle de consommation, se multiplie. L'entreprise ne laisse pas seulement de l'argent sur la table ; elle devient également aveugle pour fixer les prix. Si l'utilisation réelle n'est pas capturée, l'équipe dirigeante finit par gérer une illusion : elle pense que le produit vaut X, alors que le comportement des clients indique Y.

D'un point de vue psychologique, cela crée également une issue de confiance. Un système de facturation qui ne comprend pas la consommation présente deux risques symétriques : sous-facturer et offrir de la valeur, ou sur-facturer et entraîner un conflit. Dans les deux cas, la relation commerciale s'érode. L'IA promet précision ; une facture erratique communique le désordre.

La transformation qui rapporte : redéfinir les décisions humaines et le muscle financier qui les monétise

La nouvelle laisse une leçon difficile à digérer : l'IA d'entreprise est piégée entre deux mondes. D'un côté, un discours d'innovation. De l'autre, des habitudes humaines et des systèmes financiers hérités.

Pour sortir de ce piège, la stratégie ne commence pas par le modèle, mais par le comportement que l'on souhaite voir en production. Les entreprises qui vont capturer de la valeur ne seront pas celles qui réalisent le plus de pilotes, mais celles qui effectuent trois mouvements disciplinés.

Tout d'abord, traduire l'IA en décisions concrètes, avec une responsabilité explicite. Si le résultat de l'IA ne change pas qui décide, quand il décide et selon quel standard de validation, l'utilisation restera cantonnée à des tâches petites. L'adoption réelle se produit lorsque le flux opérationnel intègre l'outil comme faisant partie du "chemin par défaut", et lorsque le coût de l'ignorer devient plus élevé que le coût de l'utiliser.

Deuxièmement, reconstruire les incitations pour que l'employé n'ait pas à choisir entre performance personnelle et adoption. Lorsque le système récompense le maintien du statu quo, l'habitude est rationnelle. L'entreprise doit créer des conditions où expérimenter est sûr et où l'erreur raisonnable n'est pas un passif individuel, mais un coût contrôlé d'apprentissage.

Enfin, moderniser la facturation pour le monde de la consommation variable. Si le produit est facturé à l'usage, la comptabilité doit voir l'utilisation avec suffisamment de granularité et en temps réel pour ne pas perdre de pics. Sans cette base, même une adoption réussie se transforme en croissance non facturée.

La synthèse pour le niveau exécutif est inconfortable mais gérable : le retour sur investissement de l'IA ne se débloque pas en augmentant la puissance de calcul, mais en réduisant la friction humaine et financière. La technologie peut briller, mais l'entreprise ne gagne que lorsque l'organisation cesse de parier tout son capital sur ce scintillement et l'investit, de manière disciplinée, pour éteindre les peurs et les frictions qui empêchent l'utilisateur d'adopter et l'entreprise de capturer la valeur sur la facture.

Partager
0 votes
Votez pour cet article !

Commentaires

...

Vous pourriez aussi aimer