Il codice filtrato di Claude rivela ciò che Anthropic preferiva mantenere riservato
Quando un'azienda di intelligenza artificiale decide di eliminare interi repository tramite richieste DMCA anziché limitarsi a proteggere i suoi beni legittimi, il mercato dovrebbe prestare attenzione. Non tanto al dramma legale, ma alla domanda più scomoda che quel movimento genera: cosa conteneva quel codice da giustificare una risposta di tale portata?
Anthropic, il laboratorio di IA dietro a Claude, ha reagito alla fuga di notizie di quello che è conosciuto come 'Claude Code' con un'aggressività che ha superato di gran lunga le raccomandazioni di qualsiasi manuale standard di protezione della proprietà intellettuale. Sono stati rimossi repository ufficiali. Sono state intraprese richieste DMCA in modo massiccio. E il risultato è stato l'opposto di contenere il danno: hanno trasformato una fuga tecnica in un evento mediatico di prima grandezza.
Ma il dato che conta davvero non è nella strategia legale. Sta in ciò che gli analisti che hanno avuto accesso al codice prima della sua eliminazione hanno trovato al suo interno: funzionalità di monitoraggio dello stato emotivo degli utenti e meccanismi progettati per tenere nascoste certe operazioni del sistema.
Cosa diceva il codice sugli utenti
La fuga di Claude Code non ha semplicemente rivelato algoritmi proprietari, che è ciò che qualsiasi azienda ha il diritto di proteggere. Secondo l'analisi pubblicata da NotebookCheck, il codice conteneva logiche orientate a inferire e registrare stati emotivi di chi interagisce con il sistema, e strutture progettate per mantenere alcune operazioni al di fuori della portata dell'osservazione diretta dell'utente.
Non è un'accusa di mala fede. È una descrizione tecnica di ciò che il codice faceva, e quella descrizione ha conseguenze strategiche molto concrete per qualsiasi azienda che stia valutando di incorporare strumenti di IA nelle proprie operazioni o che li abbia già integrati.
Il monitoraggio emotivo nei sistemi di IA non è nuovo. Esistono casi d'uso legittimi: dagli assistenti di salute mentale alle piattaforme educative che adattano il ritmo pedagogico in base al livello di frustrazione dello studente. Il problema non è la funzionalità in sé. Il problema è l'assenza di consenso informato e la mancanza di trasparenza nei confronti dell'utente su quali dati vengono elaborati e con quale finalità.












