Il vero rischio non è una bolla dell'IA, ma una dipendenza da cinque tesorerie

Il vero rischio non è una bolla dell'IA, ma una dipendenza da cinque tesorerie

Jensen Huang sostiene che investire nell'IA ha un senso economico decennale, non trimestrale. Tuttavia, il mercato guarda nel modo sbagliato: la fragilità risiede nella concentrazione della spesa e in chi rimane escluso dal nuovo ciclo di produttività.

Isabel RíosIsabel Ríos26 febbraio 20266 min
Condividi

La frase che più dovrebbe preoccupare un CFO non è quella più rumorosa, ma quella più semplice: oltre la metà dei ricavi di Nvidia proviene da cinque grandi clienti, i cosiddetti hyperscalers. Questo dato, comunicato nella stessa settimana in cui la compagnia ha riportato 68,1 miliardi di dollari di ricavi nel quarto trimestre fiscale 2025, +73% su base annua, è la chiave per interpretare il momento di mercato e per capire perché Jensen Huang afferma che gli investitori "hanno frainteso" nel valutare la minaccia dell'IA sulle aziende di software. Non si tratta di se l'IA "uccida" il software. Si tratta di chi sta finanziando il nuovo software, in quali condizioni, e con quale resilienza.

Durante la chiamata sugli utili, Huang ha inquadrato il dibattito sulla sostenibilità con una aritmetica brutale: il mondo ha investito 300-400 miliardi di dollari all'anno in calcolo classico, e con l'IA la necessità di calcolo sarà "mille volte maggiore", quindi il mondo investirà per "produrre quel token". La sua conclusione è stata diretta: 700 miliardi di dollari di capex combinato previsto per il 2026 nei grandi attori non sarebbe un tetto, ma l'inizio di una capacità di generazione di "token" che continuerà ad espandersi. Ha anche parlato di un decennio di costruzione per questa industria. La narrativa è chiara: non c'è ritorno al calcolo precedente; l'investimento è strutturale.

Il mercato ascolta quella fiducia, guarda il volume di capex e si chiede quale sarà il punto finale della curva. Se i cinque principali raddoppiassero la spesa anno dopo anno, si arriverebbe a trilioni in pochi anni. Questa matematica non tiene con il flusso di cassa attuale, e le stesse informazioni disponibili riconoscono che questi attori stanno già spendendo oltre il loro free cash flow e aumentando il debito per finanziare i centri dati. La discussione, quindi, non è filosofica. Riguarda la struttura di mercato e la concentrazione del rischio.

La sostenibilità del capex non si gioca nel "sì", ma nel "chi paga"

Quando il capex combinato si avvicina a 700 miliardi di dollari nel 2026, con piani come Meta fino a 135 miliardi di dollari (da 72 miliardi di dollari nel 2025) e Google fino a 185 miliardi di dollari (da 91 miliardi di dollari), non ci troviamo di fronte a una spesa incrementale. È un riordino delle priorità aziendali su scala industriale. Huang lo presenta come un "nuovo modo" di computare che non torna indietro. Questa tesi ha coerenza interna: se il risultato economico dell'IA dipende dai token generati, e i token dipendono dall'infrastruttura, l'investimento diventa un prerequisito.

Ma da una prospettiva di gestione finanziaria, la sostenibilità si decide per la distribuzione del costo e del ritorno, non per l'inevitabilità tecnologica. Con oltre la metà dei ricavi di Nvidia concentrati in cinque acquirenti, qualsiasi cambiamento di ritmo, di architettura tecnica o di politica di acquisti in quel quintetto riconfigura l'intero mercato. Anche se la domanda aggregata cresce, il potere di negoziazione si inclina verso coloro che controllano il capex e la domanda finale.

Qui emerge un punto cieco frequentemente ignorato: trattare la "bolla" come un fenomeno psicologico e non come un fenomeno di governance. La dipendenza da poche tesorerie crea cicli più violenti. Aumenta quando gli incentivi sono allineati e rallenta quando il consiglio richiede riacquisti, dividendi o disciplina di capitale. In effetti, ci sono già analisti che osservano il costo opportunità per gli azionisti, notando che quel capex è capitale che non torna in dividendi o buybacks. Quel conflitto non è da poco: è la leva che decide se la spesa si trasforma in investimento sostenuto o in picco.

La tesi di Huang può convivere con le preoccupazioni del mercato. L'investimento può essere necessario e, allo stesso tempo, essere concentrato in modo fragile. In questo contesto, la variabile critica per il 2026-2027 non è solo quanti chip vengono venduti, ma quanta dipendenza strategica si sta costruendo in una filiera dove l'acquirente finale è un oligopolio.

Se l'IA minaccia il software, lo obbliga anche a maturare la sua economia

La lettura superficiale è che l'IA "comprima" il valore del software tradizionale, in particolare il modello SaaS, perché automatizza compiti che prima giustificavano licenze e posti di lavoro. La lettura sostenuta da Huang, secondo la copertura citata, è che i mercati sovrastimano quella minaccia. La forma più utile di intenderlo in termini di business è distinta: l'IA riordina il costo di produzione e operazione del software, e sposta il potere verso chi controlla calcolo, dati, distribuzione e capacità di iterazione.

Questo non distrugge automaticamente le aziende di software, ma elimina la comodità dei margini per inerzia. L'IA impone una verifica permanente degli unit economics. Se il cliente percepisce che una funzione è diventata "commoditizzabile" per un modello, l'azienda di software deve rispondere con una delle tre uscite, tutte impegnative: (1) spostarsi verso risultati misurabili nel business del cliente, (2) specializzarsi in ambiti in cui i dati, la regolazione o l'integrazione creano barriere reali, o (3) competere in costo di operazione, il che richiede scala ed eccellenza tecnica.

In quella transizione, il discorso della "tokenizzazione" di Huang è rilevante perché suggerisce un nuovo denominatore comune per il prezzo del valore digitale: non il posto, ma il costo di generare lavoro computazionale. Se il mercato acquista quella metrica, il software smette di essere venduto come promessa di produttività e inizia a essere venduto come efficienza verificabile. Questo può rappresentare una minaccia per chi vive di imballare processi e un'opportunità per chi può dimostrare impatto.

L'altra faccia è che molte aziende si troveranno intrappolate tra due giganti: hyperscalers che finanziano l'infrastruttura e fornitori di chip che catturano il margine di rendimento. Nel mezzo, il software avrà bisogno di un vantaggio difensivo che non sia estetico. Questa è la parte che non si risolve con marketing, né con "funzionalità". Si risolve con governance del prodotto, dati di adozione reale e disciplina commerciale.

La nuova onda non è tecnica, è organizzativa: agenti e adozione aziendale

Huang ha sottolineato che l'IA agenziale ha raggiunto un punto di svolta negli ultimi 2-3 mesi, e che questo apre una nuova onda di domanda. Ha anche anticipato una sequenza: prima agenti; poi "IA fisica" in robotica e attrezzature industriali; e una crescita dell'uso aziendale che, secondo la sua lettura, "apre porte". In termini di infrastruttura, quella narrativa serve a giustificare perché il capex non si esaurisce in un ciclo di addestramento di modelli, ma si espande verso inferenza e operazione continua.

Dal mio punto di vista di capitale sociale, il cambiamento è ancora più scomodo per le aziende: gli agenti spostano il lavoro verso la periferia dell'organizzazione. La produttività smette di essere un progetto dell'area IT e diventa una capacità distribuita: operazioni, finanza, vendite, servizio, compliance. Ciò aumenta il valore di reti interne orizzontali dove l'informazione circola e l'apprendimento diventa collettivo. Inoltre, penalizza strutture rigide dove la conoscenza è concentrata in pochi ruoli.

Qui emerge il rischio di automatizzare la disuguaglianza senza nemmeno accorgersene. Se il design di agenti e flussi è fatto solo da un tavolo omogeneo, i casi d'uso che vengono privilegiati riflettono frequentemente l'esperienza di chi decide, non la realtà di chi esegue. Il risultato tipico non è uno scandalo etico, ma un fallimento di scala: l'agente funziona in demo e fallisce in operazione perché non contempla eccezioni, linguaggio reale degli utenti, frizioni sul campo, né incentivi dei team.

L'adozione aziendale che Huang descrive come crescente non si guadagna con promesse di "trasformazione". Si guadagna con implementazione che comprenda l'organizzazione come una rete viva. I team più diversificati in origine e funzione tendono a rilevare prima i punti ciechi operativi. Non per virtù morale, ma per copertura della realtà.

Il costo nascosto dell'omogeneità: fragilità strategica in un mercato concentrato

La concentrazione della spesa in cinque hyperscalers e la concentrazione del potere di calcolo in poche piattaforme amplificano un problema classico di direttorio: l'omogeneità. Quando il mercato dipende da poche decisioni di allocazione del capitale, i pregiudizi condivisi diventano macroeconomici. Se tali decisioni vengono prese in gruppi che pensano in modo simile, l'intero sistema diventa più incline a errori sincronizzati.

Questo è il punto in cui la discussione sulla "bolla" risulta scarsa. Il rischio sistemico non è solo sopravvalutazione. È coordinamento: molti attori scommettono sulla stessa architettura, sugli stessi termini e sugli stessi presupposti di domanda. Il giorno in cui la narrativa dominante cambia — a causa della pressione degli azionisti, dei costi del debito, della regolazione o di una nuova efficienza tecnica — l'aggiustamento si propagherà immediatamente.

Huang ha anche affrontato il fronte geopolitico: Nvidia ha riportato zero ricavi dalla Cina nel trimestre attuale, e ha accennato al fatto che ci sono canali aperti per alcune vendite, ma che dipendono dalle decisioni di acquisto dei clienti. Al di là del dettaglio, il messaggio per la leadership aziendale è semplice: il mercato indirizzabile può comprimirsi a causa della politica pubblica, senza che ciò invalidi la tecnologia. E quando il mercato si comprime, la competizione per il margine si intensifica.

In questo scenario, le aziende che sopravvivono non sono quelle che ripetono la narrativa corretta, ma quelle che costruiscono relazioni di fiducia e capacità di esecuzione al di fuori dei centri tradizionali di potere. Un capitale sociale robusto significa più opzioni: talenti che restano, partner che collaborano, clienti che co-progettano, fornitori che priorizzano. In mercati concentrati, quella rete è un vantaggio finanziario, non un lusso culturale.

Mandato operativo per il C-Level: diversificare il potere prima che il mercato si diversifichi

La difesa di Huang sulla sostenibilità della spesa in IA può essere corretta sul piano tecnologico e, comunque, lascia molte aziende vulnerabili per motivi non tecnici: dipendenza da cinque budget, debito a finanziare l'infrastruttura, e organizzazioni che non sono progettate per apprendere rapidamente dalla propria periferia.

Per i leader di software e per le aziende che utilizzeranno l'IA, la mossa razionale è duplice. Prima di tutto, costruire disciplina di ritorno: ogni distribuzione deve giustificare il costo di calcolo con metriche di business, non con adozione cosmetica. In secondo luogo, riprogettare la governance interna affinché la conoscenza operativa e la diversità funzionale abbiano potere reale nel ciclo di prodotto, acquisto e gestione del rischio.

Nella prossima riunione del consiglio, il C-Level deve guardare al proprio tavolo e riconoscere che se tutti sono così simili, inevitabilmente condividono gli stessi punti ciechi, il che li rende vittime imminenti della disruption.

Condividi
0 voti
Vota per questo articolo!

Commenti

...

Potrebbe interessarti anche