I lavori meglio retribuiti sono i più esposti all'IA. I leader non l'hanno ancora elaborato.
Il 15 marzo 2026, Andrej Karpathy —cofondatore di OpenAI ed ex ricercatore di intelligenza artificiale in Tesla— pubblicò quello che ha descritto come un progetto di “due ore un sabato mattina”: una mappa interattiva che assegnava punteggi di esposizione all'IA a 342 occupazioni del Dipartimento del lavoro degli Stati Uniti. La scala andava da 0 a 10. I lavori fisici, come i copritetti o i manovali, si aggiravano tra lo 0 e l'1. Gli sviluppatori di software, analisti finanziari, avvocati, scrittori e matematici si raggruppavano tra il 9 e il 10. Il progetto venne rimosso poche ore dopo, con Karpathy che sostenne di essere stato “wildly misinterpreted”. Ma la mappa aveva già circolato. E i dati che aveva rivelato non sono scomparsi con essa.
Il risultato centrale non è che l'IA minacci posti di lavoro. Questo già lo sapevamo. Quello che Karpathy ha reso visibile, con una visualizzazione che qualsiasi dirigente poteva leggere in trenta secondi, è la correlazione diretta tra stipendio e vulnerabilità: i posti che generano più di 100.000 dollari all'anno hanno avuto una media di esposizione di 6.7, la più alta tra tutte le fasce salariali analizzate. Quelli che guadagnano meno di 35.000 dollari hanno avuto una media di 3.4. Circa 60 milioni di posti di lavoro negli Stati Uniti sono stati contrassegnati come altamente esposti, con stipendi annuali aggregati vicini ai 3.7 trilioni di dollari.
Questa non è solo una statistica di risorse umane. È un segnale dell'architettura organizzativa.
La mappa che nessuno voleva leggere ad alta voce
La prima cosa da capire sull'analisi di Karpathy è che non era prevista come una sentenza. Lui stesso la descriveva come uno strumento esplorativo, ispirato a un libro che stava leggendo, pensato affinché gli altri visualizzassero i dati del BLS in modo diverso. Non era un modello predittivo né una tabella di marcia per licenziamenti di massa. Era, nelle sue parole, un esperimento per il fine settimana.
Tuttavia, la reazione che ha suscitato è stata sproporzionata proprio perché ha toccato qualcosa che le organizzazioni evitano di riconoscere da anni: le funzioni di maggiore gerarchia intellettuale e remunerazione sono esattamente quelle che i modelli di linguaggio di grande scala replicano più facilmente. Analisi di dati, scrittura strutturata, revisione legale, modellazione finanziaria, generazione di codice. Tutte attività di schermo, tutte sequenziali, tutte documentate, tutte allenabili.
Elon Musk ha risposto lo stesso giorno su X con la sua predizione abituale: «Tutti i lavori saranno opzionali. Ci sarà un reddito universale alto». La frase è nota. Musk l'ha ripetuta da vari palchi, inclusa una pubblicazione di dicembre 2025 sull'abbondanza guidata da robot e IA. Ciò che risulta strategicamente rilevante non è se Musk abbia ragione nella sua visione utopica, ma che la sua risposta alla mappa di Karpathy è stata immediata e senza sfumature, il che dice di più sullo stato del dibattito esecutivo rispetto all'IA stessa: il C-Level oscilla tra il fatalismo di «tutto cambierà» e la negazione di «questo non riguarda il nostro core business».
Nessuna delle due posizioni è strategia. Entrambe sono modi per non decidere.
Il problema non è l'automazione. È la paralisi selettiva.
Lo studio di Anthropic pubblicato all'inizio di marzo 2026 — settimane prima della mappa di Karpathy — ha fornito una dimensione ulteriore che molti media hanno trascurato: i lavoratori più esposti all'IA tendono ad essere più grandi, con un livello educativo più elevato, meglio remunerati e, in molti settori, donne. E sebbene non si sia registrato un aumento sistematico della disoccupazione dalla fine del 2022, si è notata una decelerazione nell'assunzione di giovani in ruoli di alta esposizione. Non si tratta di licenziamenti di massa. È una sostituzione silenziosa in modo di non rimpiazzare posti vacanti.
Questa distinzione è più importante di quanto sembri. Un'azienda che smette di assumere analisti junior perché i suoi modelli di IA elaborano gli stessi report non sta realizzando un taglio visibile. Sta riorganizzando la sua piramide di talenti senza dichiararlo come politica. E questo ha conseguenze organizzative a medio termine che poche direzioni stanno misurando: erosione della cantera interna, concentrazione della conoscenza in livelli senior senza ricambio formato, e dipendenza crescente da strumenti che nessun team interno comprende a fondo.
Citadel Securities ha riportato una crescita del 11% anno su anno nella domanda di ingegneri software nel 2026, il che suggerisce che l'automazione non sta collassando immediatamente mercati del lavoro specifici. Ma quel dato coesiste senza reale contraddizione con quello di Anthropic: la domanda di profili senior persiste mentre la formazione di nuove generazioni in quei ruoli rallenta. Il mercato continua a comprare il prodotto finito; sta smettendo di investire nella catena di approvvigionamento che lo produce.
Per un CFO che guarda al trimestre, sembra efficienza. Per un CEO che guarda l'azienda tra cinque anni, è un modo di canibalizzare capacità future.
Ciò che la mappa di Karpathy richiede oggi dal C-Level
C'è una tentazione comprensibile di interpretare l'analisi di esposizione all'IA come un problema di talenti o di tecnologia. Non lo è. È un problema di allocazione delle risorse e di definizione delle scommesse. Quando i posti che concentrano il maggior capitale intellettuale di un'organizzazione sono simultaneamente i più replicabili da modelli di linguaggio, la domanda che deve rispondere la leadership non è «quando automatizziamo?», ma «in quali dimensioni del lavoro umano costruiremo vantaggi che non siano automatizzabili?».
Questa è una decisione che implica sacrifici reali. Implica smettere di investire in processi che l'IA può eseguire a una frazione del costo e reindirizzare quelle risorse verso capacità che i modelli attuali non raggiungono: capacità di giudizio in forte ambiguità, fiducia relazionale costruita nel tempo, leadership in contesti di alta incertezza, progettazione di quadri in cui i modelli di IA non hanno dati di addestramento sufficienti. Non sono funzioni romantiche. Sono funzioni che nessun modello di linguaggio del 2026 esegue in modo coerente senza supervisione umana significativa.
Le organizzazioni che continuano ad allocare il proprio miglior talento a compiti che un modello può completare in pochi secondi non stanno agendo con prudenza. Stanno pagando un prezzo per attivi strategici per ciò che sta diventando una merce. E il mercato alla fine regolerà questo differenziale, con o senza preavviso.
La media di esposizione in tutti i lavori analizzati è stata di 5.3 su 10. Non è apocalisse, ma nemmeno un margine comodo. È il segnale di una transizione già iniziata e che non aspetta che il prossimo ciclo di bilancio la prenda in considerazione.
La disciplina che separa le organizzazioni che navigano in questa transizione da quelle che la subiscono non è la velocità di adozione tecnologica. È la chiarezza nel decidere, senza ambiguità, quali funzioni proteggeranno come fonte di vantaggio differenziale e quali consegneranno deliberatamente all'automazione. Fare entrambe le cose a metà, per timore delle implicazioni di scegliere, è l'unica scommessa che garantisce irrilevanza.










