La causa di Anthropic contro il Pentagono svela il prezzo del controllo

La causa di Anthropic contro il Pentagono svela il prezzo del controllo

Il conflitto tra Anthropic e il Dipartimento della Difesa non è solo una contesa per un contratto da 200 milioni di dollari. È una battaglia su chi definisce i limiti dell'IA.

Andrés MolinaAndrés Molina13 marzo 20266 min
Condividi

La causa di Anthropic contro il Pentagono svela il prezzo del controllo

Quando un'azienda di IA vende a un governo, non sta vendendo solo capacità di calcolo e risposte utili. Sta vendendo una promessa di continuità: che il modello sarà disponibile domani, che la catena di fornitura non verrà interrotta per motivi politici e che l'acquirente non sarà esposto a un cambiamento brusco delle condizioni. In questa promessa risiede la fiducia.

Anthropic ha appena posto quella fiducia al centro di un confronto diretto con il Dipartimento della Difesa degli Stati Uniti. Secondo quanto riportato da Fortune, la compagnia ha firmato nel luglio 2025 un contratto di 200 milioni di dollari con il Pentagono e, otto mesi dopo, l'amministrazione Trump l'ha designata come "rischio per la catena di fornitura", ordinando alle agenzie federali di smettere di usare Claude e aumentando la pressione su chiunque lavorasse con l'apparato militare. La contesa è esplosa perché Anthropic si è rifiutata di rimuovere restrizioni di sicurezza che, secondo fonti citate, impedivano usi come armi autonome e vigilanza di massa sui cittadini americani. Anthropic ha risposto con due cause legali: una legata ai diritti del Primo Emendamento per presunta vendetta basata sulle sue posizioni e l'altra contro la stessa designazione di “rischio”.

A livello di titoli, sembra un episodio in più della politicizzazione del settore tecnologico. A livello di psicologia economica, è qualcosa di più scomodo: il promemoria che, in mercati in cui lo Stato è cliente e arbitro, il "prodotto" che realmente si acquista è la riduzione dell'ansia istituzionale. E quell'ansia non si mitiga con i benchmark.

Quando l'acquirente è il regolatore, il prodotto diventa obbedienza operativa

Sulla carta, l'equazione è semplice. Il governo necessita di modelli potenti per compiti di difesa e sicurezza. I fornitori competono per prezzo, prestazioni e capacità di rilascio. Fortune sottolinea persino che Claude superava ChatGPT in molteplici benchmark aziendali rilevanti, il che aiuta a spiegare perché Anthropic avesse guadagnato terreno nel segmento corporativo.

In pratica, il meccanismo di acquisto assomiglia meno a un concorso tecnico e più a una negoziazione sul rischio reputazionale. Un dipartimento governativo non valuta solo accuratezza o latenza: valuta quanto è probabile che il fornitore cambi le regole a metà partita, o che il legame diventi un conflitto pubblico. Quel calcolo non è "razionale" nel senso classico; è difensivo. In strutture gerarchiche, l'incentivo predominante è evitare incidenti che finiscano in prima pagina.

Secondo quella logica, le restrizioni di sicurezza di Anthropic funzionano come un segnale ambiguo. Per una parte del mercato, sono un'assicurazione: riducono la probabilità di usi catastrofici e, per estensione, di scandali. Per un'altra parte, sono una clausola di incertezza: indicano che il fornitore si riserva un diritto di veto su certe applicazioni. Il rapporto descrive che il Pentagono cercava “accesso senza restrizioni” e che il rifiuto ha portato a un'escalation.

Il punto fondamentale è che, quando l'acquirente ha la capacità di punire oltre il contratto, il rischio cessa di essere solo contrattuale. La designazione come “rischio per la catena di fornitura” non funziona come una semplice terminazione commerciale. Funziona come un'etichetta che contamina i terzi. E nei mercati con alta dipendenza dagli acquisti pubblici, quell'etichetta equivale ad aumentare il costo psicologico di scegliere te.

L'etichetta “rischio” è un'arma di frizione cognitiva in catena

Fortune descrive un effetto domino: appaltatori e grandi fornitori tecnologici potrebbero sentirsi costretti a certificare “zero esposizione” a prodotti di Anthropic per preservare relazioni con il governo. Qui emerge un fenomeno che mi interessa particolarmente come analista del comportamento del consumatore applicato agli affari: il cliente corporativo non decide solo per utilità, ma decide anche per facilità di giustificazione.

Negli scenari di ambiguità, le organizzazioni si rifugiano in euristiche. Una delle più comuni è quella di autorità: se lo Stato etichetta qualcosa come rischio, anche se il motivo è discusso in tribunale, l'etichetta diventa un'abbreviazione mentale per i comitati di acquisto, i team legali e le aree di conformità. Nessuno vuole essere la persona che ha firmato un rinnovo “contro la raccomandazione”, anche se il prodotto è superiore.

Questa è la tipologia di frizione che distrugge l'adozione senza necessità di divieti espliciti. Non è necessario che ogni azienda riceva un ordine formale. È sufficiente che percepisca un costo potenziale in audit, appalti futuri o rinnovo di contratti. In termini comportamentali, la paura di una perdita incerta tende a pesare di più della guadagno tecnico tangibile. Una migliore prestazione in compiti legali o di sicurezza informatica non compensa, per molti dirigenti, lo stress anticipato di difendere la decisione davanti a un regolatore.

Il risultato è un rischio esistenziale che il rapporto stesso inquadra con crudezza: il pericolo non è solo perdere 200 milioni di dollari, ma perdere l'impulso commerciale negli Stati Uniti se i clienti sentono che usare Claude li rende “complicati” per il governo.

Questo schema si ripete in altri settori: quando il costo di coordinamento interno per spiegare una scelta supera il beneficio incrementale del prodotto, vince il fornitore che riduce il lavoro mentale. Negli acquisti aziendali, “essere difendibile” è una caratteristica del prodotto, anche se non figura nella scheda tecnica.

La corsa con la Cina aggrava il dilemma perché l'avversario gioca senza barriere

L'angolo geopolitico fornito da Fortune aggiunge uno strato di ironia strategica. Sia Anthropic che OpenAI hanno accusato laboratori cinesi di distillare modelli tramite metodi non autorizzati, e quelle versioni, secondo il rapporto, circolano senza restrizioni per attori come l'Esercito Popolare di Liberazione, l'Iran e altri avversari.

Da un'ottica di incentivi, questo spinge i governi a massimizzare la capacità. Se l'avversario ha accesso a modelli potenti “senza barriere”, l'impulso naturale di un apparato di difesa è chiedere lo stesso o di più. Il conflitto con Anthropic, secondo le fonti citate, nasce esattamente lì: l'azienda vuole mantenere limiti; il cliente militare vuole eliminarli.

Qui emerge una tensione che molte giunte direttive sottovalutano: la sicurezza come attributo commerciale funziona quando l'acquirente paga per tranquillità. Ma nella sicurezza nazionale, l'acquirente paga per vantaggio operativo. Questa differenza cambia la percezione del valore.

Per Anthropic, le restrizioni cercano di evitare danni gravi e proteggere la società, compreso impedire la sorveglianza di massa sui cittadini. Per il Pentagono, quelle restrizioni possono apparire come perdita di opzioni, e l'opzionalità è un attivo strategico. In termini comportamentali, l'acquirente reagisce con avversione alla restrizione: quando si percepisce che qualcuno di esterno limita il menu di azioni disponibili, emerge il desiderio di riprendere il controllo, anche se il menu completo non viene utilizzato.

Da qui la risposta non è stata semplicemente cambiare fornitore. Secondo le fonti, è stata applicata l'etichetta di “rischio” e si è esteso il veto a tutte le agenzie federali. Quella intensità ha una lettura chiara: più che risolvere un acquisto, si cerca di disciplinare il mercato.

La lezione per il mercato corporativo di IA è che la fiducia si progetta

La storia viene spesso narrata come una battaglia etica tra “sicurezza” e “potere”. Io la vedo come una battaglia per l'architettura della fiducia in un mercato dove il prodotto è altamente replicabile e il costo di cambiamento, sebbene tecnico, finisce per essere politico.

OpenAI appare nel rapporto come il beneficiario naturale, “riempiendo il vuoto” del contratto. Non c'è bisogno di assumere nulla di più: quando un fornitore cade in zona di rischio, il concorrente non ha bisogno di essere perfetto; deve essere meno problematico per l'acquirente. Questa è una forma brutale di competizione.

Per il resto dell'industria, questo caso lascia tre implicazioni operative:

Primo, i limiti d'uso non vengono “dichiarati”, vengono negoziati come parte del pacchetto di adozione. Se un'azienda vuole mantenere barriere, deve convertirle in un vantaggio per l'acquirente, non in una restrizione morale. Questo richiede traduzione: meno discorsi, più progettazione contrattuale, metriche di audit e processi di eccezione chiari.

Secondo, vendere a un governo richiede una ridondanza reputazionale. Non basta essere bravi. Bisogna essere difficili da attaccare. L'etichetta di “rischio” funziona perché è semplice, incisiva e costosa da controbattere in una riunione di 30 minuti. Le aziende che competono in questi mercati devono investire in narrazioni verificabili, certificazioni, tracciabilità e governance che riducano lo spazio per semplificazioni.

Terzo, la causa stessa è un atto di prodotto. Litigare può proteggere principi e anche elevare l'ansia di terzi. La domanda finanziaria non riguarda solo se Anthropic vince o perde nei tribunali. Riguarda quanto tempo il mercato rimarrà in modalità attesa e quanti clienti preferiranno non esporsi mentre la disputa continua aperta.

In economia comportamentale, l'adozione avviene quando la spinta a uscire dallo stato attuale supera la paura del cambiamento e la forza dell'abitudine. In questo caso, la spinta a ottenere migliori prestazioni compete contro una paura istituzionale molto più potente: allinearsi con un fornitore etichettato come rischio dal governo più influente del paese.

Il tabellone si muoverà verso chi riduce la paura, non verso chi vince il benchmark

Questo conflitto lascia un avvertimento concreto per i leader dell'IA aziendale: la prestazione tecnica può costruire desiderio, ma raramente compra tranquillità. E nei settori regolati o con acquisti pubblici, la tranquillità è il componente dominante del valore.

Anthropic può avere motivi di sicurezza legittimi per mantenere restrizioni, e il governo può avere motivi strategici per volerle eliminare. Ciò che decide l'impatto economico non è la purezza dell'intenzione, ma come quella tensione si trasforma in frizione per il cliente aziendale che desidera solo stabilità operativa.

Il precedente in discussione nelle fonti spinge anche a una realtà scomoda: se lo Stato impara che può utilizzare le etichette della catena di fornitura come strumento disciplinare contro fornitori nazionali, tutta la categoria diventa più fragile. Gli acquirenti privati, percependo quella fragilità, tendono a concentrarsi sul fornitore che sembra meno esposto a ritorsioni. Questo può accelerare la consolidazione, indipendentemente da chi abbia il prodotto migliore.

La strategia che vince in questo mercato non si definisce per il fulgore del modello, ma per l'ingegneria di fiducia attorno al modello. E quell'ingegneria richiede di investire meno nel promettere capacità infinite e più nel dissipare paure verificabili: continuità, governance, tracciabilità e percorsi di utilizzo accettabili per gli attori con potere di veto. Alla fine, i team C-Level che sopravvivono sono quelli che rilevano in tempo quando stanno investendo tutto il loro capitale nel far brillare il loro prodotto, piuttosto che investire in modo disciplinato per dissipare le paure e le frizioni che impediscono al cliente di acquistarlo.

Condividi
0 voti
Vota per questo articolo!

Commenti

...

Potrebbe interessarti anche

Anthropic vs Pentagono: il prezzo del controllo | Sustainabl