Anthropic a dit non au Pentagone et encaisse les conséquences

Anthropic a dit non au Pentagone et encaisse les conséquences

Le Département de la Défense des États-Unis a sanctionné Anthropic pour avoir refusé de lever les limites éthiques de son IA. Cela marque le début d'une bataille cruciale sur l'éthique des IA en temps de guerre.

Simón ArceSimón Arce18 mars 20267 min
Partager

Anthropic a dit non au Pentagone et encaisse les conséquences

Le 4 mars 2026, le Département de la Défense des États-Unis a désigné Anthropic comme un "risque pour la chaîne d'approvisionnement de la sécurité nationale". Le lendemain, Dario Amodei a confirmé que l'entreprise porterait l'affaire devant les tribunaux. D'ici le 10 mars, la plainte était déposée au Tribunal du District Nord de Californie, Microsoft avait soumis un écrit de soutien et plus de mille employés d'OpenAI et de Google avaient signé une déclaration conjointe rejetant les sanctions.

La rapidité de l'escalade révèle quelque chose que les communiqués de presse ne mentionnent pas : ce n'est pas une simple dispute sur des clauses contractuelles. C'est le premier test de force ouvert entre l'État et le secteur privé de l'IA sur qui a l'autorité finale pour décider ce qu'un modèle d'intelligence artificielle peut faire lorsque l'ordre provient d'un uniforme militaire.

Le contrat qui a mis le feu aux poudres

En juillet 2025, Anthropic a signé un contrat de 200 millions de dollars avec le Département de la Défense. Cet accord permettait l'utilisation de Claude dans des opérations classifiées, y compris le suivi des immigrants pour le Service d'Immigration et de Contrôle des Douanes et des opérations de capture d'objectifs de haute valeur. Mais le contrat comportait deux restrictions explicites : Claude ne pouvait pas prendre de décisions létales de manière autonome sans approbation humaine, et il ne pouvait pas effectuer de surveillance massive et indiscriminée sur des citoyens américains.

Ces restrictions n'étaient pas de la petite écriture ni des concessions de dernière minute. Elles étaient au cœur de la proposition de valeur qu'Anthropic a construite depuis sa fondation en 2021, lorsque Dario Amodei et Daniela Amodei ont quitté OpenAI précisément pour promouvoir un développement de l'IA qui privilégiait la sécurité plutôt que la vitesse commerciale. Le Pentagone le savait en signant. Il l'a accepté.

Ce qui a changé, c'est l'administration. En janvier 2026, le secrétaire à la Défense Pete Hegseth a émis un mémorandum sous la stratégie dénommée "AI-First Combat Power", qui exigeait que tous les contrats d'IA du Département de la Défense incluent un langage de "tout usage légal" dans les 180 jours. Le mémorandum s'est heurté directement à ce qu'Anthropic avait convenu. Le 24 février, Hegseth a rencontré personnellement Amodei et lui a averti que s'il ne levait pas les restrictions avant le vendredi suivant, il invoquerait le Titre I de la Loi sur la Production de Défense pour forcer le respect ou exiger une rééducation du modèle.

Amodei a répondu par trois mots qui, dans le monde des affaires, coûtent souvent cher : "Nous ne pouvons pas nous conformer".

Ce que la Loi sur la Production de Défense ne peut acheter

La menace d'invoquer le Titre I de la Loi sur la Production de Défense mérite une analyse spécifique car elle révèle la fragilité de l'argument gouvernemental. Cette loi a été conçue pour garantir l'accès prioritaire de l'État à des ressources productives en temps de crise : acier, semi-conducteurs, équipement médical. Son application historique a porté sur des biens physiques avec des chaînes de production traçables.

L'appliquer aux principes de design d'un modèle de langage représente un saut légal de proportions considérables. Comme le souligne l'analyse de Lawfare citée dans la couverture de l'affaire, le Titre I accorde un accès prioritaire, mais compliquerait énormément d'exiger juridiquement la suppression de garanties intégrées au modèle ou son re-entrainement. L'analogie avec une aciérie ne tient pas. Un gouvernement peut ordonner à une usine de produire de l'acier pour des torpilles au lieu de poutres de construction. L'ordonner à une entreprise de modifier des valeurs éthiques codées dans un modèle d'IA est un territoire légal sans précédents clairs.

Cette ambiguïté est, paradoxalement, l'outil le plus efficace du Département de la Défense. Comme le signale également l'analyse de Lawfare : la menace d'invoquer une loi dont les implications ne sont pas entièrement comprises peut suffire à obtenir la capitulation sans avoir besoin de l'utiliser. L'incertitude génère une pression. Et la pression, dans des entreprises avec des investisseurs et des contrats en péril, fonctionne souvent mieux que des décrets.

Anthropic a choisi le seul chemin qui élimine cette ambiguïté : les tribunaux.

La carte des loyautés et ce qu'elle révèle sur le secteur

Ce qui est le plus significatif dans cet épisode n'est pas la plainte, mais qui s'est aligné avec chaque partie et à quelle vitesse.

Microsoft a présenté un écrit de soutien le même jour qu'Anthropic a déposé sa plainte, arguant que l'IA ne devrait pas être utilisée pour la surveillance domestique à grande échelle ni pour déclencher des guerres sans contrôle humain. Jeff Dean et plus de quarante personnalités de l'industrie ont signé une déclaration avertissant que sanctionner une entreprise d'IA américaine pourrait gravement nuire à la compétitivité scientifique et industrielle du pays. Le Council de l'Industrie des Technologies de l'Information, qui représente Nvidia, Amazon, Apple et OpenAI, a averti que les sanctions pourraient affaiblir l'accès du gouvernement lui-même aux meilleurs produits et services.

De l'autre côté, des entreprises comme xAI d'Elon Musk ont accepté les termes du Pentagone pour le travail classifié, consolidant une fracture visible dans le secteur entre ceux qui calculent que la posture éthique a un coût d'opportunité inacceptable et ceux qui estiment que céder est le début d'une pente sans retour.

Cette fracture est importante car elle expose la logique sous-jacente de chaque modèle commercial. Une entreprise qui dépend crucialement des contrats gouvernementaux pour soutenir sa croissance a très peu de marge pour maintenir des positions qui irritent le client le plus important du marché. Une entreprise qui a construit sa différenciation précisément sur les restrictions que le gouvernement souhaite éliminer a le problème inverse : céder détruirait l'actif qui la rend précieuse.

Anthropic ne défend pas des principes en abstrait. Elle défend le seul avantage concurrentiel qui la sépare de ses concurrents dans un marché où les modèles techniques convergent chaque trimestre.

Le précédent que personne ne veut nommer

Si le Département de la Défense gagne ce cas, l'effet sur l'industrie ne sera ni immédiat ni dramatique. Il sera graduel et systémique. Chaque entreprise qui négociera un contrat fédéral d'IA saura que toute restriction d'utilisation peut être déclarée un risque pour la sécurité nationale en période de tension politique. Cette certitude modifie les incitations de conception avant qu'aucun accord ne soit signé.

Le Council de l'Industrie des Technologies de l'Information l'a formulé avec précision technique : les sanctions pourraient limiter l'accès du gouvernement aux meilleurs produits disponibles. La paradoxe est que l'État, en poussant pour éliminer les restrictions, pourrait finir par avoir accès à des modèles plus obéissants mais moins capables, développés par des entreprises qui ont appris à construire sans limites car les limites s'avèrent politiquement inconvenantes.

Le tribunal du District Nord de Californie devra résoudre une question à laquelle le Congrès n'a pas encore répondu : si une entreprise privée peut contractuellement établir des restrictions d'utilisation sur sa technologie lorsque cet usage implique des décisions létales, ou si la doctrine de sécurité nationale peut dissoudre tout accord privé lorsqu'il le juge incommode.

Des experts en droit administratif cités dans la couverture du cas suggèrent que la solution structurelle ne se trouve pas dans les tribunaux mais dans le Congrès, qui jusqu'à présent n'a pas établi de cadre législatif spécifique pour l'utilisation militaire des systèmes d'IA. Tant que ce vide persiste, le Pentagone le remplit avec des mémorandums, et les entreprises y répondent par des plaintes.

Ce qu'Anthropic a mis sur la table le 10 mars 2026 n'est pas seulement son contrat de 200 millions de dollars. C'est la question de savoir si une organisation peut maintenir un objectif fondamental lorsque le client le plus puissant du monde décide que cet objectif est un obstacle. La culture de toute organisation est le résultat naturel de la poursuite de cet objectif avec conséquence, ou bien le symptôme inévitable de toutes les fois où le leadership a préféré le contrat à la conviction.

Partager
0 votes
Votez pour cet article !

Commentaires

...

Vous pourriez aussi aimer