Le Pentagon entre en conflit avec Anthropic : la dépendance à l'IA ne se négocie pas
La séquence est à la fois rapide et révélatrice. En juillet 2025, Anthropic signe un contrat de 200 millions de dollars avec le Département de la Défense des États-Unis pour déployer Claude, décrit dans la couverture comme le premier modèle d'IA de pointe approuvé pour les réseaux classifiés. L'accord comprenait deux restrictions explicites : ne pas utiliser Claude pour la surveillance nationale massive sur les Américains et ne pas l'utiliser pour des armes totalement autonomes capables de sélectionner et d'attaquer des cibles sans intervention humaine.
En janvier 2026, un mémorandum de stratégie d'IA du Secrétaire de la Défense, Pete Hegseth, a conduit à un changement contractuel : exiger un langage de “toute utilisation légale” dans les contrats d'IA du Pentagone. Fin février, la pression a grimpé avec des ultimatums et des menaces de recours juridiques. Le 27 février, à l'expiration du délai sans accord, le président Donald Trump a publié une directive pour “cesser immédiatement” l'utilisation de la technologie d'Anthropic dans les agences fédérales, avec six mois de délai pour ceux déjà intégrés. Le même jour, Hegseth a désigné Anthropic comme “risque en chaîne d'approvisionnement pour la sécurité nationale”, ajoutant une restriction supplémentaire : qu'aucun contractant ou partenaire travaillant avec l'armée ne puisse avoir d'activité commerciale avec Anthropic.
Et alors est venu le tournant. Début mars 2026, des rapports ont indiqué que les négociations reprenaient. Parallèlement, une source a décrit un “moment whao” : les dirigeants de la défense auraient compris à quel point Anthropic était indispensable et le risque opérationnel de perdre l'accès. Dans une citation attribuée par Fortune à Emil Michael, un responsable du Pentagone, apparaît une phrase clé : “Je veux que tous soient. Je veux leur donner les mêmes termes parce que j'ai besoin de redondance”.
À travers mon prisme d'innovation et de comportement du “client” — dans ce cas, l'État — l'important n'est pas le drame politique. L'important est le mécanisme : lorsqu'une organisation intègre un modèle d'IA dans l'analyse, la planification et les opérations, elle ne se contente plus d'acheter un produit. Elle commence à acheter la continuité opérationnelle.
Le véritable conflit n'était pas “IA oui ou non”, mais la gouvernance de l'utilisation
La discussion publique peut être perçue comme un choc de principes, mais commercialement, il s'agissait d'un choc de droits d'utilisation. Anthropic a défendu deux garanties comme non négociables : l'interdiction de la surveillance nationale massive et l'interdiction d'utilisation dans des armes totalement autonomes. Le Pentagone a cherché à les remplacer par un parapluie de “toute utilisation légale”, qui, selon l'évaluation d'Anthropic, venait accompagné d'un langage permettant d'ignorer les garanties “à volonté”.
Dans une négociation d'entreprise typique, “utilisation autorisée” est une annexe. Ici, c'est le cœur du produit. Car dans le cadre des IA de pointe, l'interface de valeur ne se limite pas au modèle ; il s'agit du système de permissions, de traçabilité, d'audit et de responsabilité qui définit ce qu'il est possible de faire avec ce modèle dans des contextes à haut risque.
Le Pentagone a tenté quelque chose de similaire à ce que font de nombreuses grandes organisations lorsqu'elles estiment qu'un fournisseur est critique : transformer un contrat avec des limites claires en une licence large qui réduit les frictions internes futures. Dans sa logique, “toute utilisation légale” simplifie la gouvernance contractuelle et évite d'avoir à renégocier chaque fois que la doctrine, l'opération ou l'environnement géopolitique change.
Anthropic, en revanche, défendait une autre manière de protéger son actif. Pas seulement pour des raisons de réputation, mais aussi pour des raisons d'exposition commerciale et réglementaire. Si un fournisseur accepte que son produit puisse être utilisé dans des scénarios dépassant son cadre de sécurité, il finit par vendre quelque chose de plus cher que le modèle : il vend une responsabilité incertaine.
La nuance est que les deux parties optimisaient des risques différents. Le client voulait de l'élasticité et du contrôle ; le fournisseur voulait des limites vérifiables. Le choc ne prouve pas qu'une position soit “good” ou “bad”. Il prouve que, lorsque l'IA entre dans des missions critiques, les clauses cessent d'être juridiques et deviennent une architecture commerciale.
La désignation de “risque d'approvisionnement” a transformé un désaccord contractuel en un problème de continuité
L'étiquette de “risque d'approvisionnement pour la sécurité nationale” fonctionne comme un missile de signalisation : il n'est pas nécessaire qu'elle soit définitive pour générer un impact. À court terme, elle déclenche des incertitudes dans tout le réseau de contractants et sous-traitants qui ne peuvent se permettre d'ambiguïté sur la conformité.
Le briefing mentionne que des mécanismes tels que l'Defense Production Act et l'autorité sous 10 U.S.C. § 3252 ont été envisagés pour exclure Anthropic des sous contrats des systèmes de sécurité nationale. Il est également rapporté qu'Anthropic a soutenu que, même si la désignation était reconnue légalement, cela pourrait restreindre l'utilisation de Claude dans des travaux de contrats du Département de la Défense, et non nécessairement dans le travail commercial général.
D'un point de vue commercial, cette nuance importe moins que l'effet immédiat : une organisation qui dépend de Claude pour l'analyse, la planification, les cyberopérations et les simulations, et un ensemble de fournisseurs qui l'utilisent pour fournir au Pentagone, sont confrontés à un choc de trajectoire. Il n'est pas possible de remplacer du jour au lendemain un modèle déployé dans des environnements sensibles, non seulement en raison des coûts, mais aussi des délais de migration, de revalidation, d'adaptation des flux, de formation et de re-certification interne.
C'est pourquoi la phrase du “moment whao” est si crédible que dynamique, sans avoir besoin d'artifices. Lorsque l'accès à une pièce intégrée dans des processus critiques est coupé, le “client” découvre que ce qu'il a acheté n'était pas un outil. C'était un échafaudage opérationnel.
Dans la consommation, cela se produit lorsque qu'un service devient une habitude, puis une infrastructure. Dans la défense, cela se passe lorsque qu'une capacité devient la “colonne vertébrale” de l'analyse. La réaction du Pentagone suggère que Claude avait atteint ce seuil.
La leçon stratégique : l'État apprend à acheter l'IA comme une infrastructure critique
La citation attribuée à Emil Michael — “j'ai besoin de redondance” — révèle un schéma de maturité dans les achats technologiques : la priorité n'est plus “le meilleur modèle”, mais plutôt la résilience par diversification. En pratique, cela signifie maintenir des alternatives actives (Anthropic, OpenAI et d'autres) pour qu'aucune interruption, litige contractuel ou changement des conditions ne laisse l'organisation sans capacité.
Ce principe est ancien dans l'énergie, les télécommunications et la logistique. Dans le domaine de l'IA de pointe, il commence à s'appliquer avec retard car le marché se comporte encore comme s'il s'agissait d'acheter un logiciel traditionnel. L'affaire Anthropic prouve que cette analogue ne tient plus.
D'abord, car l'“IA” ici n'est pas un module isolé : elle est déployée dans des réseaux classifiés et utilisée pour des fonctions sensibles. Ensuite, car le pouvoir de négociation change lorsque le fournisseur est l'un des rares capables de répondre aux exigences techniques et de sécurité. Enfin, car la gouvernance de l'utilisation ne se résout pas avec un simple checkbox contractuel : elle devient partie intégrante de la conception du système.
Si le Pentagone insiste pour standardiser “toute utilisation légale” pour tous, il tente de transformer l'IA de pointe en une marchandise contractuelle. Le marché, pour l'heure, n'est pas une marchandise. Il y a peu de fournisseurs, et certains ont des lignes rouges explicites.
Le résultat probable est que l'achat public évolue vers des modèles d'acquisition à plusieurs niveaux :
Rien de tout cela ne garantit l'harmonie, mais cela réduit le risque qu'un litige contractuel se transforme en crise opérationnelle.
Le véritable “produit” d'Anthropic pour le Pentagone était la confiance opérationnelle, pas seulement la performance du modèle
Le briefing rappelle qu'Anthropic s'était déjà positionnée comme particulièrement “pro-défense” selon les normes de la Silicon Valley : elle a été pionnière dans le déploiement de modèles dans des réseaux classifiés, a proposé des modèles personnalisés pour des clients de sécurité nationale, et Claude était utilisé dans de multiples fonctions au sein de l'appareil de défense. Il est également mentionné que l'entreprise a refusé des revenus significatifs en coupant l'accès à des entreprises liées au Parti communiste chinois et en fermant des tentatives d'abus de Claude dans des cyberattaques parrainées.
Il n'est pas nécessaire de transformer cela en épopée pour en tirer l'apprentissage commercial : le Pentagone n'achetait pas seulement une “capacité de génération de texte”. Il achetait un package plus large de signaux d'alignement, de réponse et de contrôle. Dans des marchés à haut risque, ces signaux équivalent à une monnaie.
Lorsque le gouvernement ordonne ensuite de “cesser immédiatement” et désigne le fournisseur comme risque, la monnaie se dévalue pour les deux parties.
Ici apparaît un principe inconfortable pour les grands acheteurs : le pouvoir d'achat n'élimine pas la dépendance lorsque l'actif est rare et l'intégration est profonde. La clé n'est plus le volume, mais la conception du portefeuille et la capacité de migration.
Le “moment whao” est le signal que l'acheteur est confronté à la réalité de l'implémentation. C'est la différence entre menacer depuis un service achats et opérer depuis une mission.
La direction qui s'impose : concevoir des contrats qui achètent la capacité sans acheter de conflit
Cet épisode laisse une ligne directrice pour toute organisation — publique ou privée — qui intègre l'IA dans des processus essentiels.
1) Séparer le désir de contrôle total de la nécessité de continuité. Le contrôle contractuel absolu maximise souvent la friction avec des fournisseurs qui protègent les limites d'utilisation. La continuité se maximum grâce à la redondance et à des mécanismes de remplacement réalistes.
2) Traiter les garanties comme partie intégrante du produit. Dans le cadre des IA de pointe, les restrictions d'utilisation ne sont pas un caprice ; ce sont un composant de risque et de réputation. Pour l'acheteur, ce sont aussi une forme de discipline interne : elles obligent à documenter, justifier et auditer les usages sensibles.
3) Construire des “options” avant d'en avoir besoin. La redondance ne se bricole pas lorsqu'il y a déjà un ordre de sortie dans six mois. Cela nécessite une intégration parallèle, des essais, une validation et une formation opérationnelle.
La phrase attribuée à Emil Michael pointe dans cette direction : maintenir “tous” avec des termes comparables pour soutenir la redondance. Ce n'est pas du romantisme multivendeur ; c'est acheter de la liberté d'action.
Le comportement de “consommation” institutionnel dans cette affaire est transparent : le Pentagone achetait une capacité immédiate et fiable pour analyser et décider dans des contextes de haute pression. Le choc avec Anthropic démontre que, lorsque l'IA devient indispensable, le travail que l'utilisateur achète réellement n'est pas un modèle plus puissant, mais la continuité opérationnelle avec des limites d'utilisation claires et durables.












