Le Pentagone transforme la sécurité de l'IA en clause contractuelle

Le Pentagone transforme la sécurité de l'IA en clause contractuelle

La décision de retirer Claude des systèmes sensibles reflète un changement majeur dans la défense, où l'IA doit s'adapter à une structure rigide.

Clara MontesClara Montes11 mars 20266 min
Partager

J'écris cela avec une idée fixe : dans le domaine de la défense, l'IA ne concurrence pas uniquement la qualité du modèle. Elle doit également s'intégrer dans une chaîne de commandement, répondre à des processus d'achat publics et à un régime de responsabilité légale où le client ne peut pas négocier sa marge de manœuvre.

Le 27 février 2026, le Département de la Défense des États-Unis a émis un memo ordonnant à ses commandants de retirer les modèles Claude d'Anthropic de "systèmes clés" dans un délai de 180 jours, suite à l'annulation d'un contrat de 200 millions de dollars pour déployer l'IA dans des réseaux militaires classifiés, selon CBS News. La séquence décrite par la source est claire : le 24 février, le secrétaire à la Défense Pete Hegseth a soumis à Dario Amodei, CEO d'Anthropic, un ultimatum pour éliminer les sauvegardes interdisant l'utilisation pour la surveillance domestique de masse et les armes totalement autonomes. Amodei a refusé. Ce même jour, le président Donald Trump a publié sur Truth Social un ordre pour que toutes les agences fédérales cessent "immédiatement" d'utiliser la technologie d'Anthropic, le Pentagone bénéficiant d'une exception temporaire de six mois pour procéder à cette retrait.

L'escalade s'est poursuivie le 4 mars 2026, lorsque le Pentagone a désigné formellement Anthropic comme "risque pour la chaîne d'approvisionnement en matière de sécurité nationale", effectif immédiatement, limitant son utilisation dans des contrats du DoD. Anthropic a répondu par un procès contre l'administration Trump, alléguant des violations de l'Administrative Procedure Act, des représailles en vertu du Premier Amendement et un manque de procédure régulière en vertu du Cinquième. Dans une déclaration citée par CBS, le CFO Krishna Rao a averti d'une perte potentielle de revenus en 2026 de "multiples milliards de dollars", y compris 150 millions de dollars de revenus récurrents annuels liés à des contrats avec le Pentagone et un impact supplémentaire dû à l'exposition à des sous-traitants de défense.

Ce qui semble être un choc de principes est, au fond, un choc de définition du produit.

Quand le client achète marge de manœuvre, les sauvegardes deviennent une friction

Le Pentagone n'achetait pas "un modèle utile" de manière abstraite. Il achetait une capacité opérationnelle pour des environnements classifiés et des missions réelles, avec intégration dans des flux de renseignement, ciblage et commandement. CBS rapporte que l'utilisation de Claude était déjà profonde : le Commandement Indo-Pacifique (INDOPACOM) était l'utilisateur "principal" et des estimations internes indiquaient que le retrait nécessiterait entre trois et douze mois en raison de la nécessité de reconfigurer les entrées de données et les dépendances.

Du côté d'Anthropic, les "lignes rouges" étaient intégrées en tant que restrictions du produit : interdictions contre la surveillance domestique de masse et les armes totalement autonomes. Dans un marché traditionnel d'entreprise, ces restrictions peuvent se transformer en différenciation réputationnelle et en gestion de risque pour les clients qui craignent des dommages à leur marque ou des litiges. Dans le domaine de la défense, selon le cadre que rapporte CBS, le DoD exigeait "une flexibilité totale dans tout usage légal", arguant que la législation américaine, et non la politique d'une entreprise, devait régir l'emploi militaire.

Il y a là une nuance que de nombreuses équipes commerciales sous-estiment : lorsqu'une organisation "embauche" une technologie pour exécuter des décisions souveraines, la valeur perçue se mesure en contrôle, disponibilité et prévisibilité sous pression. Un système qui se réserve le droit de dire "non" dans des scénarios extrêmes introduit un coût non linéaire : ce n'est pas un coût par token ou par licence ; c'est un coût d'incertitude au moment de la demande maximale.

C'est pourquoi la discussion ne se résout pas par un débat abstrait sur la sécurité. Elle se résout comme un problème d'achats publics : si l'acheteur conclut que le fournisseur conditionne l'utilisation, alors il redéfinit le fournisseur comme un risque de fourniture. L'étiquette de "risque de chaîne d'approvisionnement" ne décrit pas un échec technique ; elle décrit une incompatibilité entre le contrat psychologique du client et le design du produit.

L'étiquette de "risque de chaîne d'approvisionnement" réécrit l'économie du fournisseur

La désignation du 4 mars marque un tournant. Selon CBS, la portée de l'interdiction était précise : Claude était prohibé uniquement "comme partie directe" des contrats du DoD, tandis qu'Amazon, Google et Microsoft pouvaient continuer à proposer Claude de manière commerciale, en excluant le travail de défense. Cette précision est importante pour deux raisons.

Tout d'abord, car elle crée un élément d'incitation à segmenter produit et canal. Les grands cloud peuvent isoler leur exposition à la défense, absorber des exigences spécifiques et protéger leur activité civile. Pour une entreprise comme Anthropic, dont la croissance dépend de contrats de haut volume et de crédibilité institutionnelle, cette étiquette de risque affecte moins la distribution commerciale et davantage le cœur qui valide la "sérénité" du produit : le déploiement en environnements classifiés.

Deuxièmement, car cela modifie la négociation avec le reste de l'industrie de la défense. CBS souligne l'impact sur des partenaires comme Palantir, qui avait utilisé Claude dans le système Maven Smart. En termes de pouvoir, cela fonctionne comme un ordre de réseau : lorsqu'un DoD restreint un composant, tout sous-traitant qui souhaite vendre au DoD doit reconfigurer son stack. En pratique, le gouvernement devient l'architecte de la demande et impose des coûts de migration que, rarement, il paie de manière explicite.

D'un point de vue financier, les 150 millions de dollars de revenus récurrents annuels en contrats avec le Pentagone ne représentent que la partie visible. Le plus grand risque est l'effet de second tour : si des sous-traitants et agences civiles (CBS mentionne les projets du Trésor et de la GSA d' arrêter les affaires) internalisent que le fournisseur peut être exclu par décret, le coût d'adoption augmente brutalement. Pas parce qu'il est devenu moins bon, mais parce que la continuité devient incertaine. Cette incertitude se traduit par des clauses, des audits, des "plans B" obligatoires et, finalement, par une moindre volonté de s'engager.

La demande d'Anthropic tente d'enrayer ce changement de statut. Mais, pendant que le processus judiciaire est en cours, l'économie quotidienne commande : les équipes d'acquisition et les intégrateurs se tournent vers ce qui présente le moins de friction politique.

Le changement de fournisseur expose un schéma de marché, pas seulement un incident

La chronologie rapportée par CBS est chirurgicale dans son symbolisme. Quelques heures après le memo du 27 février, OpenAI a signé un accord avec le Pentagone. Et même si l'interdiction formelle avançait, CBS rapporte que l'Opération Epic Fury, lancée le 28 février, a continué à utiliser Claude pour le renseignement et le ciblage sur l'Iran à court terme. Cette cohabitation de "prohibé" et "encore en usage" ne constitue pas une incohérence : c'est de la dépendance.

Lorsqu'une organisation se trouve prise dans cette dépendance technologique, le remplacement n'est jamais instantané, quelle que soit la dureté de l'ordre. Il y a des intégrations, des autorisations, des flux de données, de la formation d'utilisateurs et, surtout, des procédures opérationnelles où l'IA a déjà modifié les modes de fonctionnement. C'est pourquoi les estimations internes de retrait oscillaient entre trois et douze mois, même avec un délai officiel de 180 jours.

Cet épisode met en lumière un schéma que je vois se répéter en innovation : le client n'achète pas "une IA sécurisée" comme slogan. Il achète une combinaison de trois choses très concrètes : vitesse de déploiement, contrôle sur l'exécution et couverture politique lorsque quelque chose tourne mal. Anthropic offrait une IA avec des restrictions intégrées. Le DoD achetait une IA qui ne renégocie pas son comportement au moment critique.

Dans ce choc, gagne celui qui transforme son produit en une infrastructure obéissante. Cela ne signifie pas "sans contrôles" ; cela signifie des contrôles définis par l'acheteur, audités par l'acheteur et gouvernables par l'acheteur. Dans le secteur de la défense, l'entreprise qui cherche à maintenir des garde-fous en tant que politique unilatérale doit assumer que ce choix fonctionne comme une condition de service que le client peut classer comme un risque.

L'implication pour le reste du marché est inconfortable et opérationnelle. Si les grands acheteurs publics normalisent la catégorie "risque de chaîne d'approvisionnement" pour des raisons de restrictions d'utilisation, alors tout fournisseur d'IA d'entreprise avec des politiques de refus strictes fera face à un nouveau type d'évaluation : il ne sera plus mesuré uniquement sur la précision, la latence ou le coût ; sa capacité à s'aligner avec le cadre légal de l'acheteur sans imposer des veto propres sera mesurée.

La leçon pour les entreprises d'IA est de concevoir la gouvernance comme produit

CBS rapporte qu'Anthropic a continué à fournir Claude au DoD à coût nominal pendant la transition et qu'il y avait eu des conversations "productives" récentes sur les sauvegardes. Ce détail suggère que le pont n'est pas totalement brûlé : même en conflit, l'acheteur a besoin de continuité et le fournisseur a besoin de temps pour défendre sa position.

Mais le tournant structurel a déjà eu lieu. Le DoD a ordonné aux commandements de faire état de l'utilisation de Claude et de prioriser la transition. Cette pratique d'inventaire forcé est un mécanisme de contrôle de la dépendance. En termes de conception commerciale, la question qui reste est simple : le client veut que le fournisseur vende un composant, pas qu'il gouverne son usage.

Pour un CEO ou CFO dans l'IA, cela redistribue la carte des produits.

1) La gouvernance n'est plus un document, c'est une interface contractuelle. Si les restrictions se retrouvent "à l'intérieur" du modèle sans une couche d'administration acceptable pour le client, celui-ci considérera cette restriction comme une perte de souveraineté opérationnelle.

2) Le risque politique devient un risque de revenus. L'avertissement de Krishna Rao sur les pertes de "multiples milliards" ne dépend pas seulement d'un contrat, mais du contagion réputationnel dans les achats publics et la défense.

3) La migration fait partie de la valeur. Si le retrait d'un modèle prend entre trois et douze mois, le coût réel de l'adoption inclut la sortie, pas seulement l'entrée. Celui qui empaquette des outils de transition, des audits et de la compatibilité réduit la peur de l'acheteur et remporte des appels d'offres.

Le point aveugle typique des startups d'IA est de croire que le modèle est le produit. Dans des secteurs à haut risque, le produit est le système complet : autorisations, traçabilité, continuité opérationnelle, règles d'utilisation et qui a la clé finale.

Je termine par une affirmation technique sur le comportement du client : cet épisode montre que le Pentagone était en train de contracter une capacité d'IA pour augmenter sa marge de manœuvre sous loi et chaîne de commandement, et tout fournisseur dont la proposition inclut des veto unilatéraux finit par être considéré comme un intrant remplaçable, et non comme un partenaire stratégique.

Partager
0 votes
Votez pour cet article !

Commentaires

...

Vous pourriez aussi aimer