Il memo che OpenAI non voleva scrivere
Il 9 aprile 2026, OpenAI ha distribuito tra i propri azionisti un memo che attaccava direttamente Anthropic, descrivendo il suo rivale come un’azienda che opera su una scala "significativamente più piccola". La frase è tecnicamente precisa: evoca le leggi di scalabilità dei modelli linguistici, l’argomento che le prestazioni crescono con il calcolo e i dati, e che Anthropic semplicemente non ha le risorse per raggiungere OpenAI. È un argomento corretto. E, paradossalmente, è anche un campanello d'allarme.
I leader di mercato con posizioni consolidate non hanno bisogno di spiegare ai propri azionisti perché il secondo attore sia inferiore. Lo fanno i leader che sentono che la distanza si sta accorciando. Il fatto che Anthropic abbia raggiunto una valutazione superiore a 60 miliardi di dollari, che i suoi modelli Claude stiano venendo integrati da aziende come Salesforce e Notion, e che più di 430 dipendenti di Google e dello stesso OpenAI abbiano firmato una lettera pubblica a sostegno delle linee rosse di Anthropic nei contratti con il Pentagono, sono dati che non possono essere risolti con un memo. Si risolvono con strategia.
La rinuncia che Anthropic ha trasformato in posizionamento
Il detonatore di questo ciclo di tensioni è stato un contratto con il Dipartimento della Difesa degli Stati Uniti. Anthropic ha rifiutato di firmare un accordo che consentiva l'uso della propria tecnologia per "qualsiasi fine lecito", esigendo invece due eccezioni specifiche: che la sua IA non fosse utilizzata per armi autonome complete né per sorveglianza domestica di massa. OpenAI ha accettato l'accordo sotto termini più ampi, anche se poi ha riconosciuto che il contratto iniziale "sembrava trascurato e opportunista" e ha negoziato restrizioni aggiuntive.
Questo momento è, dalla mia prospettiva come stratega, il più rivelatore di tutta la storia. Anthropic ha sacrificato un contratto governativo di 200 milioni di dollari. Non lo ha rinviato, non lo ha rinnegociato oltre il limite, non ha cercato un linguaggio ambiguo che gli consentisse di firmare con la coscienza tranquilla. Lo ha rifiutato. Questa rinuncia ha un costo finanziario immediato e concreto, ma ha anche un effetto di posizionamento che nessuna campagna di marketing può comprare: la percezione di coerenza tra ciò che l’azienda dichiara e ciò che l’azienda fa.
Il CEO di Anthropic, Dario Amodei, ha commesso l’errore tattico di convertire quel momento di forza in munizione per i suoi critici, filtrando un memo interno dove qualificava il team di OpenAI come "credulo" e i suoi sostenitori come "idioti di Twitter". Il memo è stato scritto, secondo la sua stessa spiegazione successiva, poche ore dopo una serie caotica di annunci. La sua scusa pubblica è stata diretta: ha riconosciuto che il tono non rifletteva le sue posizioni riflessive. Il danno reputazionale è stato reale, specialmente tra i 430 firmatari di quella lettera che lo avevano sostenuto pubblicamente giorni prima.
Ma c’è qualcosa di importante che non cambia con quel passo falso comunicativo: la decisione strategica fondamentale è rimasta in piedi. Anthropic non ha invertito la sua posizione. Non ha firmato il contratto dopo aver subìto pressioni. Quella coerenza tra decisione e principio guida è ciò che determina se un'azienda ha una strategia o semplicemente buone intenzioni.
Cosa dice il memo di OpenAI ai propri azionisti
Torniamo al memo di OpenAI, perché è il documento più interessante di questa storia. Un'azienda che in normali condizioni evita di nominare concorrenti nelle comunicazioni pubbliche ha deciso, in una comunicazione rivolta ai propri azionisti, di attaccare esplicitamente Anthropic per la sua scala. La logica apparente è rassicurante: "il nostro rivale è più piccolo, non può raggiungerci".
La logica reale è inversa. Gli azionisti erano già inquieti. L'esistenza del memo non crea l'inquietudine, risponde a essa. E l’argomento tecnico che utilizza OpenAI, che Anthropic opera su una curva di scala inferiore, ha un problema strutturale: è esattamente ciò che qualsiasi azienda dominante ha detto riguardo ai suoi sfidanti prima di perdere quota di mercato. IBM lo disse su Microsoft. Microsoft lo disse su Google. L’argomento di scala è valido in laboratorio; nel mercato aziendale, perde di fronte all’argomento di fiducia e adeguatezza.
Le aziende che stanno integrando Claude di Anthropic nelle loro piattaforme non lo fanno perché sia più economico o più grande. Lo fanno perché, in segmenti dove la governance dell'uso dell'IA è importante, il percorso decisionale di Anthropic costruisce un argomento di fiducia che OpenAI sta ancora cercando di articolare. Il vantaggio competitivo nel segmento aziendale non si misura in petaflops; si misura nella percezione di allineamento degli incentivi tra fornitore e cliente.
OpenAI ha un problema di coerenza interna che questo episodio pone in luce con chiarezza. Ha accettato un contratto che poi ha riconosciuto sembrare trascurato. Non è un incidente comunicativo; è un segnale che i processi decisionali riguardo contratti sensibili non erano allineati con il messaggio pubblico dell'azienda riguardo alla sicurezza. Quando lo stesso team di OpenAI ha dovuto rinnegociare termini per escludere esplicitamente la sorveglianza domestica di massa, stava, di fatto, avvicinandosi alle condizioni che Anthropic aveva esposto fin dall'inizio.
Un'industria che non può più fingere che la scala risolva tutto
Ciò che questa disputa rivela, oltre alle tensioni tra due aziende specifiche, è che il mercato aziendale dell'intelligenza artificiale sta entrando in una fase di maturazione in cui l’argomento di scala non è più sufficiente per vincere contratti grandi e sensibili. Le aziende con esposizione normativa, i governi che devono giustificare le loro decisioni di acquisto tecnologico di fronte ad audience interne ed esterne, e i team di tecnologia che devono rispondere a consigli di amministrazione sempre più allertati sui rischi reputazionali stanno iniziando a valutare i loro fornitori di IA con criteri che vanno oltre le prestazioni dei modelli.
In questo contesto, la posizione che Anthropic ha costruito, a costo di perdere un contratto di 200 milioni di dollari e di subire una crisi di pubbliche relazioni a causa del memo del suo stesso CEO, ha un valore strategico che la sua valutazione di 60 miliardi di dollari inizia appena a riflettere. Non perché Anthropic sia un’azienda perfetta, ma perché le sue rinunce sono coerenti con la sua proposta di valore, e quella coerenza è esattamente ciò che i clienti aziendali sono disposti a pagare per avere.
OpenAI, con tutto il suo vantaggio di scala, ha davanti a sé un compito più difficile di quanto il suo memo suggerisca: costruire la fiducia istituzionale che consente di vincere nel segmento più esigente del mercato. La scala amplifica le capacità di un modello. Non amplifica la credibilità delle decisioni dei suoi leader.
La lezione per qualsiasi C-Level che osservi questa disputa da fuori è diretta e senza fronzoli: il posizionamento strategico più duraturo non si costruisce scegliendo quali offrire, ma mantenendo con coerenza ciò che si è deciso di non fare, anche quando il costo di quella rinuncia appare nel bilancio del trimestre successivo. Le aziende che tentano di essere disponibili per tutti i clienti, in tutte le condizioni, con tutti gli usi possibili, non conquistano il mercato nel suo complesso. Alla fine risultano irrilevanti nel segmento che conta di più.









