La recente avvertenza di Chris Hyams, ex CEO di Indeed, ha una precisione scomoda: il rischio dell'intelligenza artificiale non deriva dalla tecnologia, ma da chi la sta guidando. Non si tratta di un giro retorico da poco. Nel 2025, Hyams insisteva su due idee che coesistono con una certa tensione: che l'IA non realizza "lavori completi", ma che può ben svolgere una parte sostanziale delle competenze richieste nella maggior parte dei ruoli; e che la sfida centrale è implementare responsabilmente, poiché l'impatto su occupazione, abitazione, istruzione, salute e giustizia potrebbe amplificare le disuguaglianze esistenti.
Ora il focus si sposta dal "come" al "chi", e questo spostamento rappresenta un segnale di allerta sulla leadership e sul design organizzativo: in molte aziende, l'IA viene integrata come se fosse un pacchetto software qualunque, quando in realtà è un leva che altera criteri, incentivi e controlli. Se il sistema di governance è debole, l'IA accelera solo le decisioni sbagliate, opache o a breve termine. Se il sistema di governance è solido, l'IA diventa produttività, un servizio migliore e meno attriti.
Quando il problema è il conducente, il freno non è tecnico
Hyams conosce il mercato del lavoro dal centro della questione. Indeed opera proprio dove l'IA può generare valore o danno rapidamente: il matching tra persone e opportunità. Nel maggio del 2025, ha presentato un risultato tanto utile quanto facile da malinterpretare: "non esiste un solo lavoro" in cui l'IA possa fare "tutte le competenze" richieste, ma in circa "due terzi" dei lavori, "il 50% o più" di quelle competenze sono cose che l'IA generativa attuale può fare "ragionevolmente bene, o molto bene". Questa frase ha un significato operativo: le aziende non si trovano di fronte a una sostituzione binaria, ma a una grande porzione di compiti che possono cambiare di mano.Un dirigente affrettato trasforma quella porzione in un mandato di riduzione dei costi. Un dirigente serio la trasforma in riprogettazione del lavoro. La differenza sta nella governance: chi definisce quali compiti vengono automatizzati, con quali criteri, con quali limiti, con quale audit, e chi risponde quando il sistema sbaglia.
Nel gennaio del 2025, a Davos, Hyams ha anche tracciato il quadro macroeconomico che spinge ad accelerare: "siamo all'inizio di una corsa" tra una forza lavoro che si restringe e i potenziali guadagni di produttività legati all'IA. Ha persino previsto una compressione temporale: "30 anni di cambiamento" potrebbero essere racchiusi in "tre o quattro anni". Quando questo è il ritmo, il rischio maggiore non è un modello che allucina; è un'organizzazione che prende scorciatoie perché il sistema di incentivi premia la velocità sopra il controllo.
L'avvertenza del 2026 si inserisce in un modello che vedo spesso nelle trasformazioni: vengono annunciati principi e comitati, ma l'esecuzione quotidiana è catturata dalle urgenze trimestrali. A quel punto, la "responsabilità" si trasforma in un documento, mentre il prodotto e le operazioni spingono i due rilasci. La tecnologia non decide questo compromesso; a deciderlo è la struttura di potere interna.
L'IA come tensione di portafoglio, non come progetto IT
Nelle grandi aziende, l'adozione dell'IA di solito avviene per due vie. La prima è l'efficienza: automazione del supporto, generazione di contenuti, assistenza agli sviluppatori, analisi interne. La seconda è il prodotto: nuove funzioni per i clienti, migliori raccomandazioni, migliore matching, meno attriti. In entrambi i casi, l'errore classico è governarlo come un progetto IT con data di consegna e un KPI finanziario standard.La lettura di Hyams sulle competenze suggerisce altro: l'IA attraversa contemporaneamente il "motore di ricavi attuale" e l'"efficienza operativa". E, se fatto bene, apre spazio per "incubazione" e per "trasformazione" delle capacità. Se fatto male, riduce solo i costi nel breve termine e degrada il sistema nel lungo.
Ecco perché il suo cambio di accentuazione è rilevante. Quando un leader afferma che il rischio è in chi lo guida, sta dicendo che il fallimento tipico non è di laboratorio, ma di linea: si dispiega senza chiarezza di proprietà, senza tracciabilità delle decisioni e senza un meccanismo pratico per fermare il sistema quando genera danni. E nei settori come il lavoro, la nozione di "danno" non è astratta: un filtro mal calibrato può escludere profili, perpetuare pregiudizi storici o creare una opacità difficile da controllare.
Hyams aveva già affrontato questo punto con decisione, definendo l'IA responsabile come "il tema dei diritti civili e dei diritti umani" della propria vita, e sottolineando che in ambito lavorativo, abitativo, educativo, sanitario e di giustizia, esistono disuguaglianze profonde che un sistema automatizzato può amplificare. Questa prospettiva non viene risolta con una checklist. Si risolve con decisioni di portafoglio: quanto budget destiniamo a controllo e audit, quanto a velocità di implementazione, quanto a formazione, quanto a riprogettazione dei processi. Se tutto viene misurato con la redditività immediata, il controllo perde sempre.
Barriere senza autonomia operativa si traducono in burocrazia ornamentale
Indeed ha formato un team di IA responsabile con esperti di diverse aree, secondo Hyams, per valutare i sistemi e costruire tecnologia seguendo principi di IA responsabile. L'interdisciplinarietà è un segnale corretto. Il problema emerge quando quel team è consultivo, arriva tardi nel ciclo di prodotto, o non ha potere per fermare un'implementazione.Nelle aziende con pressione sui risultati, il "team responsabile" diventa un revisore finale che approva o non approva. Se l'organizzazione ha già fissato una scadenza commerciale, quell'approvazione diventa rituale. E se inoltre il team è valutato con metriche che non riflettono la sua missione, rimane catturato dallo stesso sistema che doveva bilanciare.
L'approccio di Hyams per il 2025 era socio-tecnico: comprendere i costrutti sociali in cui sono inseriti i sistemi. Questa affermazione, tradotta, significa tre cose pratiche. Primo, la qualità dei dati e la loro storia contano, perché il pregiudizio non si "aggiusta" dopo. Secondo, il risultato deve essere spiegabile al livello richiesto dal contesto, specialmente in decisioni che influiscono sulle opportunità economiche. Terzo, la responsabilità deve essere assegnata: se un sistema automatizza una fase di selezione, qualcuno deve essere responsabile del risultato e degli effetti collaterali.
Quando Hyams ora punta a chi guida l'IA, sta descrivendo un modello di guasti di governance piuttosto che una carenza tecnica. L'azienda media non manca di un modello migliore; le manca un design decisionale che costringa a bilanciare velocità, controllo e legittimità.
La corsa alla produttività può degradare la fiducia se non misurata bene
La pressione per aumentare la produttività non è una scusa morale, è una restrizione economica. Se la forza lavoro si riduce e la domanda resta, la tentazione di automatizzare cresce. Il rischio è che molte aziende misurano i benefici dell'IA con indicatori semplici e i costi con indicatori invisibili.I benefici tipici entrano rapidamente nella contabilizzazione: meno tempo per ticket, meno costo per interazione, maggiore throughput nello sviluppo, più contenuti prodotti. I costi critici tendono a emergere tardi: lamentele per pregiudizio, perdita di fiducia, degradazione della marca di datore di lavoro, esposizione normativa e team interni che smettono di comprendere il processo perché lo hanno delegato a un sistema.
Nel mondo del lavoro, questa asimmetria è particolarmente sensibile. Se un candidato percepisce arbitrarietà, la piattaforma perde reputazione. Se un'azienda percepisce che il matching peggiora o che il processo è opaco, adatta il proprio budget. L'IA può migliorare il matching, ma solo se è governata con disciplina: obiettivi chiari, valutazione continua e tracciabilità.
Hyams ha anche anticipato che ci saranno "dieci volte" più persone che saranno programmatori, anche se il lavoro sarà "irriconoscibile" rispetto allo sviluppo attuale. Questa affermazione punta a una profonda riprogettazione del lavoro intellettuale. E quando il lavoro cambia in questo modo, l'azienda deve riprogettare il proprio sistema di prestazione, la propria formazione e la propria struttura di ruoli. Se non lo fa, l'IA diventa uno strato aggiuntivo su processi obsoleti, generando attriti e errori su larga scala.
Il fallimento della leadership qui non avviene per cattive intenzioni, ma per operare con lo stesso cruscotto utilizzato in precedenza. L'IA richiede un cruscotto misto: efficienza e apprendimento. Se viene premiata solo l'efficienza, si uccide la capacità di rilevare danni precocemente.
Un modello operativo per non convertire l'IA in rischio sistemico
Con le informazioni pubbliche disponibili, Hyams non dettaglia esempi specifici nella sua più recente avvertenza. Tuttavia, il suo percorso consente di leggere il rischio centrale come un divario tra principi ed esecuzione. Nelle grandi organizzazioni, quel divario viene ridotto con il design, non con i discorsi.In termini pratici, vedo quattro meccanismi che separano le adozioni sane da quelle fragili. Il primo è proprietà esplicita: ogni sistema con impatto in decisioni sensibili deve avere un proprietario aziendale e un proprietario del rischio, con autorità reale. Il secondo è autonomia con limiti: i team che sperimentano hanno bisogno di velocità, ma all'interno di un quadro che fissa cosa non può essere toccato e cosa deve essere sempre auditato. Il terzo è metriche corrette per stadio corretto: nelle fasi iniziali di implementazione, misurare solo risparmi o conversioni porta a nascondere problemi; è necessario misurare anche stabilità, errori, contestazioni e reversibilità. Il quarto è capacità di reversibilità: se un sistema produce danno, l'azienda deve poterlo spegnere o degradarlo senza far collassare l'operazione.
Questa non è burocrazia aggiuntiva. È la minima ingegneria organizzativa necessaria affinché l'IA rappresenti produttività senza diventare un passivo. Il punto di Hyams su "chi guida" l'IA è, in sostanza, una critica all'adozione senza freni operativi.
Il caso di Indeed è rilevante perché l'industria del lavoro si trova al centro della sensibilità sociale e normativa. Le aziende che correranno per l'efficienza ignorando il controllo possono guadagnare un trimestre e perdere fiducia per anni. Le aziende che investiranno in governance e riprogettazione del lavoro possono catturare una produttività sostenuta.
La viabilità dipende dal governare due velocità senza compromettere il core
L'IA sta spingendo le aziende a operare a due velocità: mantenere l'attività attuale con disciplina dei costi e, allo stesso tempo, esplorare riprogettazioni di lavoro e prodotto a un ritmo più simile a quello di una startup che a quello di una corporazione. L'avvertenza di Hyams funziona come un promemoria che il punto di fallimento raramente è il modello; è il sistema decisionale che lo circonda.Un'organizzazione viabile protegge il motore attuale senza soffocare l'esplorazione, assegna autorità chiara per fermare implementazioni quando il rischio supera il beneficio e misura l'apprendimento precoce con metriche che non puniscono la rilevazione degli errori. Questo equilibrio rende sostenibile la redditività attuale mentre si costruisce la capacità di scalare il futuro.









