Il grande fallimento dell'IA aziendale non è la tecnologia: è il comportamento umano e la contabilità che non sa calcolarlo

Il grande fallimento dell'IA aziendale non è la tecnologia: è il comportamento umano e la contabilità che non sa calcolarlo

Le aziende acquistano IA come se fosse software tradizionale e poi si sorprendono quando non cambia il lavoro né cattura entrate.

Andrés MolinaAndrés Molina8 marzo 20266 min
Condividi

Il grande fallimento dell'IA aziendale non è la tecnologia: è il comportamento umano e la contabilità che non sa calcolarlo

Negli ultimi anni, la conversazione pubblica sull'intelligenza artificiale si è riempita di dimostrazioni, promesse e acquisti aziendali. È stata effettuata un'investimento su scala industriale in modelli, licenze, infrastruttura e progetti pilota. Tuttavia, il sintomo che conta in una sala dei direttori non è quante prove siano state eseguite, ma quanti punti di margine sono apparsi alla chiusura del trimestre.

Uno studio citato dal MIT, riportato da TheStreet, documenta un dato che non si accorda con il racconto di euforia: il 95% delle organizzazioni non ha visto un ritorno misurabile dai propri investimenti in IA, nonostante la spesa complessiva si situasse tra i 30.000 e 40.000 milioni di dollari in iniziative aziendali di IA. Non si tratta di un problema di potenza di calcolo o di "maturità del modello". È, in gran parte, un problema di adozione umana e di sistemi interni non progettati per l'economia reale del consumo di IA.

Dal mio lavoro nell'analisi del comportamento del consumatore e delle frizioni di adozione, leggo questa storia come un'autopsia di due fallimenti classici: il primo si verifica sulla scrivania dell'impiegato, dove l'IA finisce per essere degradato a "motore di ricerca migliorato"; il secondo si verifica in back office, dove anche quando l'uso esiste, l'azienda non sa misurarlo né calcolarlo con precisione. In entrambi i casi l'errore è lo stesso: progettare per un umano e una contabilità che non esistono.

Quando l'IA arriva al lavoro reale, si scontra con incentivi, abitudini e paura dell'errore

Oseas Ramirez, CEO di Axialent, lo ha espresso con una frase che dovrebbe essere stampata in ogni piano di trasformazione: “L'IA è adottata dalle persone, non dai server. Se le persone non cambiano il modo di lavorare, la tecnologia resta lì.” Questa affermazione non è filosofia; è economia applicata. Se il comportamento non cambia, l'attivo tecnologico diventa un costo sommerso.

Il modello che descrive la ricerca citata da TheStreet è coerente con ciò che osservo nell'adozione: la maggior parte dei dipendenti utilizza l'IA come un motore di ricerca leggermente più intelligente, non come un ridisegno del flusso di lavoro. Questa sfumatura distrugge il ritorno. Un "motore di ricerca migliorato" risparmia minuti; un flusso ridisegnato cambia i tempi di ciclo, riduce il lavoro duplicato, standardizza le decisioni e rende scalabili attività che prima dipendevano da eroi interni.

Il conflitto si verifica perché le organizzazioni cercano di implementare l'IA seguendo il solito copione: acquistare uno strumento, installarlo, formare il personale e dichiarare vittoria. Ma l'adozione non fallisce per mancanza di formazione; fallisce per frizione cognitiva e per rischi percepiti. Il dipendente non "rifiuta l'IA" per ideologia: la evita quando il costo mentale di usarla supera il beneficio immediato o quando il sistema di incentivi penalizza l'esperimento.

In termini comportamentali, esiste una spinta —la frustrazione per compiti ripetitivi e la pressione per la produttività—, e c'è anche un magnetismo —la promessa di velocità e risposte migliori—. Il problema è che l'ansia e l'abitudine spesso vincono. Ansia, poiché delegare il criterio a un sistema probabilistico espone l'utente all'errore visibile. Abitudine, perché lo status quo ha già percorsi noti per sopravvivere nella politica interna: “farlo come sempre” raramente costa la carriera; provare qualcosa di nuovo e fallire può costarla.

La questione critica è che molte gerarchie e incentivi sono stati progettati prima che esistesse l'IA. Se un team commerciale riceve previsioni generate da IA che si scontrano con obiettivi o narrazioni interne, il dato non viene "discusso"; viene ignorato. Non per malizia, ma per preservazione: l'umano ottimizza la propria sicurezza all'interno del sistema. Se il modello minaccia l'accordo tacito su come si assegnano meriti e colpe, il modello perde.

Perciò, le aziende che ottengono risultati non sono spesso quelle che hanno il modello più sofisticato, ma quelle che ristrutturano il lavoro attorno al modello. L'IA non è un "accessorio"; è un ridisegno del contratto psicologico del lavoro: chi decide, chi valida, chi firma, chi si assume il rischio. Senza quel ridisegno, lo strumento viene utilizzato per compiti minori, il ROI svanisce e l'organizzazione apprende la lezione sbagliata: che l'IA "non serve", quando in realtà ciò che non serve è il sistema di adozione.

Il ROI si rompe per una ragione banale: si acquista luminosità, si sottovaluta la frizione

I numeri dello studio citato sono un colpo alla narrativa trionfalistica: 95% senza ritorno misurabile dopo 30.000–40.000 milioni di dollari investiti. Quando appare un divario di questo tipo, la spiegazione è meno glamour della tecnologia. La risposta sta nel modo in cui le aziende assegnano budget e attenzione.

In pratica, molte organizzazioni finanziano con entusiasmo ciò che è visibile: licenze, infrastrutture, progetti pilota con dimostrazioni spettacolari. Ciò "brilla" in una presentazione. Ciò che non riceve lo stesso amore finanziario è ciò che realmente muove il comportamento: ridisegno dei processi, cambiamenti degli incentivi, governance dell'uso, protezione contro l'errore ragionevole e tempo reale per iterare.

Qui si evidenzia un frequente bias aziendale: si tratta la trasformazione come un progetto IT, non come una riscrittura operativa. La conseguenza è prevedibile: l'uso rimane superficiale. L'impiegato apre lo strumento per redigere una e-mail, riassumere un documento o cercare informazioni. Sono azioni che non mettono a rischio l'identità professionale né sfidano le gerarchie. L'IA diventa una cosmetica della produttività.

C'è un altro dettaglio che aggrava il problema: la resilienza organizzativa di fronte al fallimento. La nota menziona che quando gli esperimenti falliscono —e falliscono frequentemente— molte aziende non hanno la capacità istituzionale di insistere e iterare. In termini comportamentali, questo è cruciale: se la prima esperienza dell'utente avviene in un ambiente punitivo, l'adozione muore. Una cattiva interazione iniziale crea un'euristica interna: "questo dà problemi". Da quel momento, ogni microfrizione conferma la decisione di tornare all'abitudine.

Il risultato finale è perverso per il C-Level: si riporta "IA implementata", ma non c'è ritorno. Si celebra l'implementazione, si punisce il cambiamento. E così si ripete il ciclo: ulteriore spesa in strumenti, maggiore frustrazione, maggiore cinismo. Il costo non è solo finanziario; è reputazionale interno. Ogni iniziativa fallita riduce il capitale politico per la successiva.

Anche con l'adozione, molte aziende perdono denaro per non poter fatturare il consumo

La seconda parte della storia è più silenziosa e, per un CFO, più pericolosa: anche quando l'IA è utilizzata, molte aziende non sono attrezzate per fatturarlo. Erez Agmon, CEO di Vayu, lo ha riassunto così: “La maggior parte dei sistemi di fatturazione SaaS è stata progettata pensando a sottoscrizioni prevedibili. L'IA porta a un consumo erratico.”

Il cuore del problema è strutturale. Il software tradizionale veniva venduto per postazione, licenza o sottoscrizione piatta. L'IA, al contrario, viene consumata in unità variabili: token elaborati, chiamate API, esecuzioni di modelli. Questo consumo non solo è variabile; è intermittente, con picchi e avvallamenti difficili da prevedere. Pretendere che un sistema di fatturazione antiquato catturi questo senza perdite è come usare una cassa registratore per misurare l'elettricità.

TheStreet descrive un caso concreto che illustra la perdita di entrate: un CFO scoprì che il suo sistema registrava l'uso solo il giorno del ciclo di fatturazione. Se un cliente passava a un piano superiore a metà mese e scendeva prima del giorno di pagamento, il picco scompariva. Lo stesso CFO lo ha detto crudelmente: “Fatturo solo ciò che era presente alla data del ciclo di fatturazione. Mi sono perso il picco. Ho perso quel denaro.”

Questo esempio espone un modello più ampio: l'economia dell'IA penalizza l'azienda che non misura con precisione. Appaiono divari di tracciamento, riconciliazioni manuali con fogli di calcolo e fatture assemblate a mano. Tutto ciò funziona quando ci sono pochi clienti e il volume è basso; collassa quando il prodotto scala.

La perdita di entrate non è un evento; è una perdita costante. E una perdita continua, in un modello di consumo, si moltiplica. L'azienda non solo lascia soldi sul tavolo; rimane anche cieca nel decidere i prezzi. Se non si cattura l'utilizzo reale, il team dirigente finisce per gestire un'illusione: crede che il prodotto valga X, quando il comportamento del cliente dice Y.

Inoltre, da una prospettiva psicologica del cliente, questo è una bomba di fiducia. Un sistema di fatturazione che non comprende il consumo produce due rischi simmetrici: sottofatturare e regalare valore, o sovrafatturare e attivare conflitti. In entrambi i casi si erode la relazione commerciale. L'IA promette precisione; una fattura erratica comunica disordine.

La trasformazione che paga: ridisegnare le decisioni umane e il muscolo finanziario che le monetizza

La notizia contiene una lezione dura: l'IA aziendale è bloccata tra due mondi. Sopra, un discorso di innovazione. Sotto, abitudini umane e sistemi finanziari ereditati.

Per uscire da questa trappola, la strategia non inizia con il modello, ma con il comportamento che si desidera vedere in produzione. Le aziende che cattureranno valore non saranno quelle con più progetti pilota, ma quelle che faranno tre movimenti disciplinati.

In primo luogo, tradurre l'IA in decisioni concrete, con responsabilità esplicita. Se l'output dell'IA non cambia chi decide, quando decide e con quale standard di validazione, l'uso rimarrà su compiti minori. L'adozione reale avviene quando il flusso operativo incorpora lo strumento come parte del "percorso predefinito", e quando il costo di ignorarlo diventa maggiore del costo di utilizzarlo.

In secondo luogo, ricostruire gli incentivi affinché il dipendente non debba scegliere tra prestazioni personali e adozione. Quando il sistema premia il mantenimento dello status quo, l'abitudine è razionale. L'azienda deve creare condizioni in cui sperimentare sia sicuro e dove l'errore ragionevole non sia un passivo individuale, ma un costo controllato di apprendimento.

In terzo luogo, modernizzare la fatturazione per il mondo del consumo variabile. Se il prodotto viene fatturato in base all'uso, la contabilità deve vedere l'uso con granularità e in tempo reale sufficiente per non perdere picchi. Senza questa base, anche un'adozione di successo si trasforma in crescita che non si fattura.

La sintesi per il C-Level è scomoda ma operabile: il ritorno dall'IA non si sblocca aumentando la potenza di calcolo, ma riducendo la frizione umana e finanziaria. La tecnologia può brillare, ma l'azienda guadagna solo quando l'organizzazione smette di scommettere tutto il proprio capitale su quel luccichio e lo investe, con disciplina, per abbattere le paure e le frizioni che impediscono all'utente di adottare e all'azienda di catturare il valore nella fattura.

Condividi
0 voti
Vota per questo articolo!

Commenti

...

Potrebbe interessarti anche