La corsa per l'IA ha smesso di essere solo software: ora si vince con elettricità e cemento

La corsa per l'IA ha smesso di essere solo software: ora si vince con elettricità e cemento

La previsione di 660-690 miliardi di dollari nel 2026 non è solo tecnologia: è un ripensamento del potere nel cloud, legato a energia e capacità fisica.

Clara MontesClara Montes1 marzo 20266 min
Condividi

La corsa per l'IA ha smesso di essere solo software: ora si vince con elettricità e cemento

Negli ultimi anni, la narrativa sull'IA è stata raccontata come una guerra di modelli: chi allenava meglio, chi lanciava prima, chi aveva il talento. Questa fase sta diventando obsoleta. I dati previsti per il 2026 riscriveranno la mappa competitiva con una crudezza tipica delle industrie pesanti: Meta, Microsoft, Alphabet, Amazon e Oracle si preparano a investire tra 660.000 e 690.000 miliardi di dollari in capex per infrastrutture di IA, quasi il doppio rispetto al 2025, secondo i conteggi di TechCrunch. E parallelamente, Jensen Huang prevede un ordine di grandezza ancora maggiore: 3 a 4 trilioni di dollari in investimenti totali in infrastrutture di IA entro la fine del decennio.

Il dettaglio che desta preoccupazione tra molti team dirigenziali è che questo salto non è spiegato da una "scommessa sul futuro" eterea. È spinto da attriti presenti: capacità dei data center, disponibilità di GPU e, soprattutto, energia. Microsoft, ad esempio, fa i conti con un dato che funziona come indicatore di mercato: 80.000 milioni di dollari di ordini in sospeso su Azure a causa di restrizioni di potenza. Il collo di bottiglia non è più nel percorso di prodotto, ma nella rete elettrica e nella capacità di costruire.

Il nuovo bilancio dell'IA: capex massivo e domanda che non entra

Il primo cambiamento strutturale è contabile e strategico allo stesso tempo. Ciò che viene finanziato non è solo "calcolo", ma capacità industriale: terreni, sottostazioni, contratti energetici, raffreddamento e data center progettati per carichi di IA. TechCrunch descrive come i grandi attori si stiano muovendo con cifre che prima venivano associate ai cicli di infrastruttura pubblica.

Le guide agli investimenti per il 2026 delineano la grandezza del cambiamento: Amazon prevede 200.000 milioni di dollari (rispetto a 131.000 milioni nel 2025), Alphabet tra 175.000 e 185.000 milioni (rispetto a 91.000 milioni), Meta tra 115.000 e 135.000 milioni (rispetto a 71.000 milioni), Microsoft verso 120.000 milioni o più e Oracle a 50.000 milioni, un salto del 136% rispetto al 2025. Queste cifre, in totale, formano il range aggregato di 660.000 a 690.000 milioni.

Dietro l'aggregato c'è un messaggio operativo: i hyperscalers stanno accettando che, per un certo periodo, l'IA venga gestita come un'industria dove il vincitore è chi riesce a trasformare liquidità in capacità fisica utilizzabile prima degli altri. In questo contesto, il “time to market” si misura in megawatt abilitati, non in sprint.

Questo cambiamento ha inevitabili implicazioni finanziarie. Il capex diventa una leva di posizionamento, ma anche una fonte di pressione: se la monetizzazione dell'IA non segue, l'attivo rimane inutilizzato, deprezzandosi e competendo per energia con altri usi. Il mercato, per ora, sembra convalidare la tesi della scarsità: il segnale di Microsoft sui backlog per potenza serve come prova che la domanda supera l'offerta disponibile.

Data center come prodotto: il cliente acquista certezza, non "modelli"

Mi interessa osservare questa corsa attraverso una lente di comportamento del consumatore, perché il “cliente” di questa infrastruttura non è solo l'utente finale di un chatbot. Il cliente rilevante è colui che paga: aziende che devono integrare l'IA nelle operazioni, assistenza, programmazione, marketing e analisi; e che oggi “assumono” un risultato molto specifico: certezza di calcolo.

Nel 2024 o 2025, molte conversazioni commerciali di IA si risolvevano con demo e promesse di produttività. Nel 2026, il differenziale si sta spostando verso qualcosa di più prosaico: disponibilità garantita. Quando un fornitore accumula ordini senza poterli soddisfare (il backlog di Azure), il cliente aziendale apprende una lezione pragmatica: il rischio non è più solo "se il modello funziona", ma se c'è capacità per eseguirlo quando ne ho bisogno.

Qui appare un'innovazione meno appariscente ma più determinante: trasformare l'infrastruttura in una proposta di valore esplicita. Progetti come Hyperion di Meta —un sito di 2.250 acri in Louisiana, attorno ai 10.000 milioni di dollari e scalabile a 5GW, con piani collegati a una centrale nucleare secondo quanto riportato— non sono un capriccio ingegneristico. Sono un tentativo di confezionare ciò che è più scarso come "prodotto": energia più calcolo.

E il caso Stargate porta questa logica all'estremo. La joint venture di OpenAI, SoftBank, Oracle e MGX, annunciata con il supporto dell’amministrazione Trump, punta a 500.000 milioni di dollari per il 2029, con uno sviluppo iniziale di 100.000 milioni e una pianificazione di 7GW in cinque sedi in Texas, Nuovo Messico e Ohio (fino a settembre 2025), oltre a più di 400.000 milioni impegnati nei primi tre anni. Ciò non sembra più un'espansione incrementale del cloud; sembra la costruzione di un nuovo strato industriale.

In termini di consumatore aziendale, il modello è chiaro: si sta pagando per continuità operativa. Quando l'IA diventa un componente di processi critici, l'interruzione per mancanza di capacità diventa inaccettabile. L'acquisto si sposta da “software intelligente” a “servizio industriale affidabile”.

La lotta per la catena di fornitura: Nvidia, contratti di GPU e alleanze che fissano dipendenza

L'altra dimensione del potere non è il data center stesso, ma la catena di fornitura che lo rende utile. TechCrunch raccoglie accordi che, per dimensioni, sembrano più vicini a contratti di commodity che a alleanze tecnologiche.

OpenAI, ad esempio, risulta coinvolta in un accordo di 100.000 milioni di dollari per GPU con Nvidia, oltre a un schema di GPU in cambio di azioni con AMD. Nvidia, a sua volta, avrebbe riflesso una struttura simile con xAI. Parallelamente, si ricorda che Microsoft ha investito quasi 14.000 milioni di dollari in OpenAI dal 2019, iniziando con il contratto di 1.000 milioni che includeva l'esclusiva su Azure (successivamente ammorbidita verso un approccio multicloud con “diritto di prima negativa”). E Amazon ha investito 8.000 milioni di dollari in Anthropic, adeguando l'hardware per le sue necessità.

Finanziariamente, questo si legge come un tentativo di ridurre la volatilità su tre fronti:

1) Assicurare la fornitura: chi non fissa le GPU, rischia di restare a merced di code e prezzi.
2) Assicurare la domanda: chi finanzia o si integra con un laboratorio rilevante, garantisce carichi di lavoro che colmano il capex.
3) Convertire l'infrastruttura in lock-in: non necessariamente attraverso clausole di esclusività, ma per costi di cambiamento operativi.

Il punto importante è che il potere contrattuale si sta spostando. Quando c'è scarsità, il fornitore di materie prime (GPU, energia, capacità di costruzione) cattura più valore. Il cloud compete, ma dipende anche. Per questo il commento di Huang sui colli di bottiglia energetici è così importante: il limitante più duro non è l'algoritmo, è l'accesso alla potenza elettrica.

Questo riordino spiega anche la crescita atipica di Oracle nella storia: il suo obiettivo di 50.000 milioni di dollari di capex e i 523.000 milioni in obbligazioni di prestazione rimanenti suggeriscono un riposizionamento per catturare domanda di infrastruttura su scala, potenziato dal suo ruolo in Stargate.

Il rischio silenzioso: infrastruttura sovradimensionata e degrado dell'esperienza utente

Quando un'industria entra in modalità “costruire prima, monetizzare dopo”, il rischio non è sempre il fallimento tecnologico. Spesso è la disconnessione con il lavoro reale del cliente.

Qui c'è una tensione che mi sembra centrale: la spesa aggregata di 660.000 a 690.000 milioni convive con un fatto segnalato nel briefing: le aziende puramente focalizzate sull'IA mostrano una rapida crescita dei ricavi, ma rimangono una frazione della spesa totale per l'infrastruttura. Questo squilibrio non implica che l'investimento sia irrazionale; implica che il modello di cattura del valore è ancora in fase di consolidamento.

Nel frattempo, si presentano due pericoli operativi:

  • Sovrastruttura di capacità “premium”: se l'infrastruttura è progettata per il caso più estremo (allenamento massiccio, latenze minime, massima ridondanza), il costo unitario può spingere i prezzi verso l'alto. Questo apre spazi per alternative più semplici e meno costose in segmenti che necessitano solo di inferenze di base o flussi contenuti.
  • Degrado del servizio per congestione: il backlog di Azure per motivi di potenza è l'equivalente aziendale di una brutta esperienza utente. Nel mondo enterprise, la frustrazione non si esprime in recensioni; si esprime in migrazioni parziali, architetture ibride e acquisti ridondanti per ridurre la dipendenza.

Il segnale di mercato è che i grandi stanno scommettendo che “l'IA consumerà tutta la capacità disponibile”, come sintetizza l’analisi citata di Futurum Group sul salto da ~380.000 milioni nel 2025 a 660-690 milioni nel 2026. Se questa ipotesi si avvera, il capex si giustifica. Se si avvera solo parzialmente, il vincitore sarà chi avrà costruito con maggiore flessibilità contrattuale e energetica.

Per questo il dibattito pubblico che sta per arrivare —un incontro alla Casa Bianca nel marzo del 2026 con Amazon, Google, Meta, Microsoft, xAI, Oracle e OpenAI, secondo il briefing— ha lettura economica: abilitare energia, permessi e costruzione definisce la quota di mercato futura tanto quanto il miglior modello.

La direzione strategica è già tracciata: l'IA sarà venduta come capacità garantita

La storia del 2026 mostra che il “prodotto” decisivo si è spostato. L'IA continuerà a competere in qualità dei modelli, certo, ma il potere economico si sta accumulando in chi controlla il collo di bottiglia fisico: data center, GPU ed elettricità.

Per un CEO o CFO, l'implicazione pratica è che la conversazione sull'IA smette di essere solo una discussione sul software e diventa una discussione di struttura dei costi, dipendenza dai fornitori e rischio operativo. A breve termine, la scala favorisce chi può assorbire capex massivi. A medio termine, lo spazio competitivo si aprirà per proposte che forniscono sufficiente IA a costo ridotto e con minori requisiti infrastrutturali, specialmente dove il cliente non ha bisogno della massima prestazione.

Il modello di comportamento del consumatore aziendale che questa corsa rivela è chiaro: le aziende non stanno assumendo “IA” come concetto; stanno assumendo continuità e certezza per trasformare i processi senza che l'infrastruttura fallisca nel momento critico.

Condividi
0 voti
Vota per questo articolo!

Commenti

...

Potrebbe interessarti anche