Anthropic utilizza la propria IA come sistema nervoso centrale e i numeri lo giustificano
C'è una differenza tra un'azienda che vende palette durante la febbre dell'oro e una che usa quelle palette per estrarre il proprio minerale. Anthropic, valutata 380 miliardi di dollari a febbraio 2026, sta facendo entrambe le cose contemporaneamente, e questo dettaglio conta più di qualsiasi confronto con OpenAI o Google.
Secondo dati interni della compagnia pubblicati da Fast Company, i suoi dipendenti utilizzano Claude per circa il 60% del loro lavoro quotidiano, riportando guadagni di produttività vicini al 50%, e un 27% delle attività assistite da IA corrispondono a lavori che altrimenti non sarebbero stati tentati. Questa ultima cifra è quella che più mi interessa dal punto di vista economico: non si tratta solo di fare le stesse cose più velocemente, ma di espandere la capacità produttiva senza incrementare proporzionalmente il personale. Nel settore ingegneristico, l'effetto è stato ancora più pronunciato: l'introduzione di Claude Code ha generato un aumento del 200% nelle pull requests per ingegnere. Non si tratta di un miglioramento marginale; è una ristrutturazione del denominatore nell'equazione del costo per unità di output.
Ciò che Anthropic sta facendo internamente ha un nome preciso nella teoria dei portafogli: riduzione della correlazione tra asset. Quando un'azienda costruisce il proprio stack di strumenti sul prodotto che vende, i suoi costi operativi e le sue entrate si muovono nella stessa direzione in quasi tutti gli scenari di mercato. Se Claude migliora, i team interni producono di più con lo stesso organico. Se i team interni scoprono frizioni, quelle frizioni diventano segnale di prodotto. Il ciclo è strutturalmente virtuoso.
Il laboratorio più economico del mondo è il tuo ufficio
Mark Pike, avvocato interno di Anthropic, ha costruito in un pomeriggio uno strumento di revisione legale che analizza progetti rispetto alle politiche interne, segnala rischi e invia riepiloghi direttamente su Slack. Per calibrare quel modello, ha elaborato i pattern di 742 ticket di Jira in una sola conversazione. Il costo marginale di quel sviluppo è stato, nella pratica, vicino a zero in termini di infrastruttura aggiuntiva. Non ha richiesto un team di ingegneri, né un contratto con un fornitore esterno di software legale, e non ha necessitato settimane di specificazione dei requisiti.
Questo è ciò che trovo analiticamente interessante qui, non il fatto che l'IA sia potente, ma la struttura dei costi che abilita. Anthropic sta trasformando quello che in qualsiasi altra azienda sarebbe un costo fisso di consulenza o licenze software in un costo variabile che cresce con l'uso reale. La loro consigliera di IA applicata descrive l'integrazione di Claude con strumenti come Gmail, Slack e Salesforce attraverso un protocollo di connessione che ha già raggiunto 100 milioni di download mensili. Questo non è un demo interna: è un'infrastruttura che, una volta validata all'interno dell'azienda, viene impacchettata e venduta all'esterno.
Questa dinamica ha un precedente chiaro nell'industria del software: Amazon Web Services è nata perché Amazon doveva risolvere il proprio problema di infrastruttura su larga scala. Ciò che distingue Anthropic è la velocità del ciclo. Claude Code è passato da esperimento di ricerca a generare un fatturato annuale di miliardi di dollari in sei mesi. Cowork, il prodotto per la gestione autonoma di file e compiti d'ufficio, è stato lanciato a gennaio 2026, ispirato da come i dipendenti stavano adattando Claude Code per usi non legati alla programmazione. Il segnale di mercato è venuto da dentro.
Dove i dati mostrano fragilità strutturale
Il modello è elegante, ma presenta vettori di rischio che vale la pena nominare con precisione.
In primo luogo, la dipendenza da output non verificati. Satyen Sangani, CEO di Alation, lo articola bene: quando i sistemi diventano sufficientemente complessi e le persone smettono di esaminare i risultati, la conoscenza istituzionale si erode. Il rischio non è che l'IA fallisca in modo spettacolare, ma che fallisca silenziosamente e nessuno all'interno dell'organizzazione abbia più il discernimento per rilevarlo. Questo è ancora più rilevante per Anthropic perché le proprie metriche di produttività, il 200% di aumento nelle pull requests, potrebbero misurare il volume senza catturare la qualità o il debito tecnico accumulato.
In secondo luogo, la concentrazione del vantaggio nei team integrati contro quelli non integrati. I dati interni suggeriscono che i team che adottano Claude in modo profondo e trasversale generano guadagni molto superiori a quelli che lo utilizzano in modo frammentato. Questo crea una divergenza interna di produttività che, se non gestita attivamente attraverso gli strumenti di flusso di lavoro standardizzati che l'azienda sta sviluppando, finisce per generare attrito organizzativo. Un'azienda che produce software IA con una distribuzione bimodale di capacità interne non è un argomento di vendita, ma un problema di governance.
In terzo luogo, e questo è strutturale per l'intero settore: Senthil Muthiah di McKinsey segnala che la compressione del ciclo di apprendimento può generare una generazione di lavoratori che supervisionano i processi senza aver sviluppato il giudizio necessario per farlo bene. Per Anthropic, la cui proposta di valore dipende in modo critico dall'uso responsabile dello strumento da parte dei clienti, questo rischio non è astratto. Se le aziende che adottano Claude massicciamente producono output di bassa qualità perché nessuno nella catena ha il discernimento per rilevare l'errore, il danno reputazionale ricade sullo strumento, non sull'operatore.
Il vantaggio che i concorrenti non possono copiare rapidamente
Microsoft ha Copilot. Google ha Gemini integrato in Workspace. La differenza operativa di Anthropic non si trova nei benchmark, anche se nei SWE-bench i suoi modelli più recenti superano GPT-5.4 di OpenAI con un punteggio di 78.7% rispetto al 76.9%, ma nel ciclo di feedback tra uso interno e sviluppo del prodotto.
Shopify riporta che Claude Code consente a persone senza formazione tecnica di costruire strumenti funzionali in pochi minuti. Wiz ha migrato una base di codice di 50.000 linee in 20 ore, contro i due o tre mesi che sarebbero stati necessari con metodi convenzionali. Allianz sta espandendo l'uso oltre ingegneria. Questi non sono casi d'uso sperimentali: sono segnali di adozione in settori dove il costo dell'errore è elevato e la disponibilità a pagare è altrettanto alta. Deutsche Telekom sta implementando strumenti di Claude per i suoi 470.000 dipendenti.
Ciò che rende questo pipeline di clienti strutturalmente prezioso per Anthropic è che ognuno di questi dispiegamenti su scala genera dati di comportamento reali in produzione che nessun benchmark di laboratorio può replicare. L'azienda che usa il proprio prodotto come sistema nervoso interno e poi vende quel medesimo prodotto a clienti che operano in ambienti ad alta richiesta, sta comprimendo il ciclo di iterazione in un modo che le aziende che separano ricerca e prodotto non possono eguagliare facilmente.
Rimane un rischio di concentrazione: se Claude fallisce o se un concorrente raggiunge una differenza di prestazioni sufficientemente grande, l'azienda perde contemporaneamente il proprio vantaggio interno e la posizione di mercato. Ma questo è esattamente il rischio che Anthropic ha scelto di assumere e, per ora, l'architettura modulare dei suoi strumenti, Skills per flussi standardizzati, MCP per integrazioni, Cowork per automazione dei compiti, le offre una sufficiente superficie di adattamento per non dipendere da una sola scommessa monolitica.
La tesi dei 380 miliardi di dollari di valutazione poggia su una premessa verificabile: che il laboratorio più economico al mondo per addestrare e validare strumenti di IA su larga scala è l'operazione stessa di Anthropic, e che quel vantaggio si sostiene finché il ciclo tra uso interno e prodotto esterno rimane più breve di quello di qualsiasi concorrente.









