CoreWeave vince la corsa per il computing inferenziale ignorata dai giganti

CoreWeave vince la corsa per il computing inferenziale ignorata dai giganti

Mentre AWS, Azure e Google competono per l'addestramento dei modelli, CoreWeave ha costruito silenziosamente un business che nessuno voleva: il computing di produzione.

Clara MontesClara Montes11 aprile 20267 min
Condividi

CoreWeave vince la corsa per il computing inferenziale ignorata dai giganti

Il 10 aprile 2026, CoreWeave ha annunciato un accordo pluriennale con Anthropic per fornire capacità di GPU Nvidia nei data center statunitensi, specificamente destinata ai carichi di produzione che alimentano i modelli Claude. I termini finanziari non sono stati divulgati, ma la reazione del mercato è stata contundente: le azioni di CoreWeave sono aumentate di oltre il 10% nella stessa giornata.

Non è stato però questo il dato più rivelatore del giorno. Ciò che ha impressionato di più è stato che tale annuncio è arrivato appena 24 ore dopo che Meta ha confermato un ampliamento del suo impegno con CoreWeave per 21 miliardi di dollari aggiuntivi, portando il valore totale di questa relazione a circa 35 miliardi. Due dei dieci principali sviluppatori di modelli di IA del pianeta stanno puntando, con un giorno di differenza, sulla stessa infrastruttura. Per un’azienda che nel 2025 ha registrato un fatturato di 5,13 miliardi di dollari con una crescita del 168% anno su anno, non si tratta solo di trazione: è la prova che CoreWeave ha costruito qualcosa che i giganti del cloud non hanno saputo o voluto costruire.

Il nicchia lasciata vuota da Amazon, Microsoft e Google

Esiste una distinzione tecnica che per anni è sfuggita nelle sale strategie dei grandi provider cloud: addestrare un modello di IA è un problema di computing massivo e relativamente tollerante alla latenza; eseguirlo in produzione su scala aziendale è un problema completamente diverso. L'inferenza, che è il processo mediante il quale un modello come Claude risponde a milioni di utenti simultanei, richiede bassa latenza, alta disponibilità e un'architettura hardware specificamente ottimizzata per questo tipo di utilizzo.

AWS, Azure e Google Cloud hanno costruito le loro offerte di GPU principalmente attorno all'addestramento, dove i grandi clienti firmano contratti a lungo termine e consumano blocchi di capacità di computing in modo prevedibile. Questo mercato ha margini accettabili e una dinamica commerciale nota. L'inferenza in produzione, al contrario, è più imprevedibile, più complessa in termini di configurazione e richiede una specializzazione operativa che i giganti del cloud hanno trattato come un caso d'uso secondario. CoreWeave si è insediata esattamente in questo vuoto.

Oggi opera 32 data center con oltre 250.000 GPU e 1,3 gigawatt di capacità elettrica contrattata. Il suo portafoglio clienti include nove dei dieci principali sviluppatori di modelli di IA del mondo: Microsoft, Meta, OpenAI, Mistral, Cohere, IBM e Nvidia, tra gli altri. La somma di questi contratti si traduce in un backorder di 66 miliardi di dollari e previsioni di ricavi per il 2026 che superano i 12 miliardi. Questi non sono numeri di un’azienda che ha trovato un nicho marginale: sono i numeri di un’azienda che ha definito una categoria.

Perché Anthropic ha scelto di uscire dai cloud tradizionali

La decisione di Anthropic di firmare con CoreWeave dice qualcosa di specifico su come i sviluppatori di modelli maturi stiano ripensando il loro rapporto con l'infrastruttura. Anthropic aveva già impegnato 100 milioni di dollari per sviluppare la sua rete di partner aziendali attorno a Claude. Ciò implica che il modello ha bisogno di funzionare in modo coerente, a bassa latenza e su scala, per clienti aziendali che non tollerano degradazioni delle prestazioni.

I grandi cloud offrono quel tipo di computing, ma all'interno di piattaforme progettate per essere orizzontali, dove il cliente di IA compete per risorse con clienti di database relazionali, con clienti di streaming video e con clienti di elaborazione paga. CoreWeave offre un'infrastruttura progettata esclusivamente per carichi di lavoro di IA. Tale specificità non è solo un argomento di marketing: si traduce in metriche di prestazione che contano quando un modello sta rispondendo a 100.000 richieste simultanee in un'applicazione aziendale.

L’accordo con CoreWeave consente ad Anthropic di implementare il computing in maniera scalabile, con opzioni di espansione, garantendo flessibilità senza compromettere la capacità base necessaria per i suoi clienti attuali. In un mercato dove la scarsità di GPU Nvidia continua a essere strutturale, assicurare tale accesso tramite un fornitore specializzato riduce un rischio operativo concreto.

Il portavoce di CoreWeave lo ha espresso con una precisione insolita per un comunicato aziendale: "L’IA non riguarda più solo l'infrastruttura, ma le piattaforme che trasformano i modelli in impatto reale". Questa frase descrive esattamente il lavoro che Anthropic aveva bisogno di realizzare: non GPU generiche, ma la capacità di mettere Claude al lavoro in condizioni di produzione senza che le prestazioni crollino.

Il rischio strutturale che due accordi non risolvono

Il successo di CoreWeave presenta una crepa che gli investitori hanno identificato dalla sua quotazione in borsa e che il mercato continua a monitorare attentamente: Microsoft ha rappresentato circa il 67% dei suoi ricavi nel 2025. Questa concentrazione su un solo cliente trasforma qualsiasi cambiamento nella relazione commerciale con Microsoft in un rischio sistemico per l'azienda.

Gli accordi con Meta e Anthropic in 48 ore sono la prova più diretta che CoreWeave sta eseguendo una strategia deliberata di diversificazione. Ma il lavoro è ancora lontano dall’essere concluso. Se Meta ora rappresenta una porzione significativa del backlog pluriennale, CoreWeave avrà cambiato la concentrazione su un cliente con una concentrazione su due. Il rischio diminuisce, ma non scompare.

C'è anche un fattore operativo che i numeri proiettati non catturano: mantenere 32 centro di dati, incorporare nuova capacità per soddisfare 66 miliardi in contratti e farlo mentre i costi di energia e costruzione rimangono volatili richiede una precisione operativa che poche aziende di questa dimensione e velocità di crescita hanno dimostrato in modo sostenuto. La previsione di oltre 12 miliardi per il 2026 implica più che raddoppiare i ricavi in un solo anno. Questo non è impossibile, dato il backlog esistente, ma richiede che la catena di approvvigionamento dell'hardware, i contratti energetici e la costruzione dell'infrastruttura funzionino senza attriti significativi.

Il modello di CoreWeave trasforma i costi variabili del computing in impegni fissi a lungo termine per i suoi clienti, proteggendo così i ricavi futuri ma trasferendo la pressione di esecuzione all'interno. Se un data center ritarda o un acquisto di GPU viene ritardato a causa delle restrizioni di offerta di Nvidia, l'impatto non lo assorbe il cliente: lo assorbe CoreWeave.

Il lavoro svolto dietro l'accordo

La traiettoria di CoreWeave, dalla miniera di Ethereum al fornitore di computing per nove dei dieci principali sviluppatori di IA del mondo, è rilevante non perché sia una storia di resilienza aziendale, ma perché illustra come un'azienda possa ridefinire il proprio scopo attorno a un problema specifico del cliente che nessun altro stava risolvendo bene.

L'accordo con Anthropic non conferma che CoreWeave abbia una buona tecnologia. Conferma che ha identificato il lavoro concreto che Anthropic, Meta, OpenAI e altri necessitavano: non capacità di computing generica, ma infrastruttura di inferenza che faccia funzionare i modelli con affidabilità quando gli utenti li utilizzano, non quando gli ingegneri li testano. Questa distinzione, apparentemente tecnica, è in realtà la separazione tra un fornitore di commodity e un'azienda con potere di fissazione dei prezzi in un mercato dove la domanda supera strutturalmente l'offerta.

Il successo di questo modello dimostra che il lavoro che i grandi sviluppatori di IA stavano contrattando non era mai stato l'accesso a GPU: era la garanzia che i loro modelli funzionassero in produzione senza che l'infrastruttura diventasse il collo di bottiglia del business.

Condividi
0 voti
Vota per questo articolo!

Commenti

...

Potrebbe interessarti anche