OpenAI spende milioni in relazioni pubbliche mentre il problema fondamentale rimane intatto
Questa settimana, OpenAI ha pubblicato un documento di 13 pagine intitolato Politica Industriale per l'Era dell'Intelligenza, ha acquisito una rete di podcast tecnologicamente affini chiamata TBPN e ha annunciato l'apertura di un ufficio a Washington D.C. dedicato a far "imparare i legislatori e le organizzazioni senza scopo di lucro sulla loro tecnologia". Tutto questo mentre le indagini continuano a documentare una tendenza costante: il disprezzo pubblico nei confronti dell'intelligenza artificiale continua a crescere.
La lettura superficiale di questi movimenti è quella di un'azienda matura che fa ciò che fanno le aziende mature: reclutare influenze, coltivare narrazioni e gestire la percezione. La lettura strategica, tuttavia, è decisamente più scomoda.
Quando il messaggio diventa il prodotto
C'è una differenza tra comunicare valore e crearlo. OpenAI sta facendo la seconda cosa, e il mercato alla fine noterà la distinzione.
Il documento di politica industriale appena pubblicato sostiene una "reimmaginazione del contratto sociale" con idee che loro stessi definiscono "orientate alle persone". È il tipo di linguaggio che suona bene in un panel a Davos e non cambia assolutamente nulla nell'esperienza di un utente il cui lavoro è stato sostituito, o di un creatore il cui contenuto è stato utilizzato per addestrare modelli senza il suo consenso. Il divario tra ciò che il documento proclama e ciò che le indagini registrano non è un problema di comunicazione. È un problema di architettura del valore.
Quello che trovo strategicamente rivelatore non è che OpenAI stia investendo in narrazione, ma ciò che quell'investimento indica sulla sua posizione competitiva. Le aziende con una proposta di valore solida non hanno bisogno di 13 pagine per spiegare perché meritano di esistere. Quelle che ne hanno bisogno, generalmente, stanno rispondendo a una pressione che i loro prodotti non sono riusciti a risolvere. L'acquisizione di TBPN rafforza questa lettura: quando compri accesso a un pubblico invece di guadagnartelo con il tuo prodotto, stai implicitamente riconoscendo che il tuo prodotto non genera sufficiente adesione organica.
L'approccio verso Washington D.C. ha una logica diversa, ma ugualmente sintomatica. Uno spazio fisico per consentire ai legislatori di "discutere la tecnologia della compagnia" è, in termini pratici, un'infrastruttura di lobbying con un design interno migliore. Ciò non è intrinsecamente negativo: ogni industria con impatto normativo ha bisogno di una presenza nei centri decisionali politici, ma posizionarlo come un gesto di apertura e educazione quando le indagini mostrano già una sfiducia attiva è una scommessa che può ritorcersi. Anche i legislatori leggono le indagini.
La variabile che nessuno sta eliminando
Il problema strutturale dell'industria dell'IA in questo momento non è la percezione pubblica. È che la maggior parte delle aziende del settore sta competendo sulle stesse variabili: velocità di elaborazione, volume di parametri, capacità multimodale, ignorando sistematicamente le variabili che interessano i segmenti che non hanno ancora adottato questi strumenti.
Le indagini di disapprovazione non sono rumore casuale. Sono segnali di domanda insoddisfatta. Ci sono interi segmenti di utenti, professionisti e organizzazioni che sarebbero disposti ad adottare strumenti di IA se la proposta fosse accompagnata da trasparenza sui dati di addestramento, meccanismi di compensazione per i creatori di contenuti originali, garanzie legali sui diritti d'autore e una curva di apprendimento che non richiede un dottorato in ingegneria per calibrare bene i risultati.
Nessuna di queste variabili appare nel documento di politica industriale di OpenAI. Quello che appare è un invito a "reimmaginare il contratto sociale", che è un modo elegante di chiedere alla società di adattare le proprie aspettative anziché adattare il prodotto.
La Dott.ssa Rebecca Swift, di Getty Images, lo articola con precisione dalla trincea del contenuto visivo: quando tutto inizia a sembrare uguale, le audience smettono di guardare. Ciò non è solo un problema estetico. È un problema di retention, e la retention è il motore di qualsiasi modello di abbonamento o piattaforma di dati. L'omogeneizzazione dei risultati dell'IA non è un bug, è il risultato prevedibile di ottimizzare per velocità e scala senza sacrificare nulla nella colonna dei costi. E la risposta dell'industria fino ad ora è stata quella di generare più output, più rapidamente, con meno attrito. Il ciclo si autoalimenta.
Il costo di validare tardi
Esiste una meccanica finanziaria che le grandi aziende tecnologiche tendono a ignorare fino a quando non è già troppo tardi: il costo di riposizionare un marchio che ha già generato anticorpi sul mercato è esponenzialmente più alto del costo di costruire fiducia fin dall'inizio.
OpenAI non è ancora a quel punto, ma la traiettoria importa. Ogni dollaro speso in podcast, documenti di politica e spazi di lobbying con design sofisticato è un dollaro che non è stato utilizzato per risolvere i problemi concreti che generano disapprovazione. E a differenza dell'infrastruttura tecnica, che genera attivi ammortizzabili, la spesa in narrazione ha una vita utile molto breve quando non è supportata da cambiamenti sostanziali nel prodotto o nel comportamento aziendale.
L'analista Brittany Ellich prevede che il sentiment anti-IA probabilmente peggiorerà prima di migliorare e che il recupero avverrà lungo il percorso dell'onestà pratica: riconoscere apertamente cosa non funziona e per cosa serve realmente la tecnologia. Questa tesi ha solidità empirica. I mercati rispondono bene alla specificità onesta e molto male alle promesse ampie che non si sostengono nell'uso quotidiano.
Quello che l'industria ha davanti non è un problema di immagine. È un'opportunità di riprogettare la propria proposta a partire dalle variabili che oggi stanno ignorando deliberatamente perché sembrano costose da implementare. Trasparenza nei dati di addestramento, compensazioni per i creatori, garanzie legali per le aziende che adottano questi strumenti: ognuna di queste variabili ha un costo reale, ma ha anche un mercato che sarebbe disposto a pagarla. Un mercato che oggi stesso sta scegliendo di non adottare l'IA perché nessuno nel settore ha avuto la disciplina di eliminare le frizioni che contano invece di accumulare capacità che nessuno può più distinguere tra loro.
La leadership che la situazione richiede non è quella di pubblicare un documento di 13 pagine sul contratto sociale. È quella di avere la convinzione di cambiare le variabili della proposta prima che il mercato lo obblighi a farlo, e farlo a partire da impegni concreti validati con utenti reali, non con legislatori in un ufficio ben decorato a Washington. Bruciare capitale in narrazione per difendere una posizione che il prodotto non giustifica ancora non è strategia; è gestione del tempo prima dell'aggiustamento inevitabile.









