Un'IA ha aperto un negozio con 100.000 dollari e ha dimenticato di assumere il personale per il primo giorno

Un'IA ha aperto un negozio con 100.000 dollari e ha dimenticato di assumere il personale per il primo giorno

Luna, l'agente di IA che gestisce Andon Market a San Francisco, ha preso ogni decisione operativa ma ha dimenticato di programmare gli impiegati per il giorno di apertura.

Diego SalazarDiego Salazar14 aprile 20267 min
Condividi

Un'IA ha aperto un negozio con 100.000 dollari e ha dimenticato di assumere il personale per il primo giorno

Il 1° aprile 2026, Andon Market ha aperto le porte nel quartiere Cow Hollow di San Francisco. Il negozio offriva cioccolatini artigianali, candele, libri e abbigliamento di marca. La selezione di libri includeva titoli di Nick Bostrom sulla superintelligenza e Il Mondo Nuovo di Aldous Huxley. Il primo cliente l'ha descritta come una "selezione folle". Nessuno si aspettava che fosse perfetta. Ma altrettanto nessuno si aspettava che il negozio aprisse senza alcun dipendente presente.

Luna, l'agente di intelligenza artificiale sviluppata da Andon Labs basata sul modello Claude Sonnet 4.6 di Anthropic, ha gestito ogni decisione operativa per settimane: ha progettato l'interno, pubblicato annunci di lavoro su Indeed, intervistato candidati al telefono per un tempo compreso tra 5 e 15 minuti, negoziato con i fornitori, commissionato un murale, coordinato l'installazione di internet e scelto l'inventario. Aveva una carta aziendale, accesso alle telecamere di sicurezza, un'email e un numero di telefono. L'unica cosa che non ha fatto è stata programmare qualcuno per aprire il negozio nel giorno d'apertura.

La risposta di Luna è stata inviare un’email urgente ai suoi dipendenti quella mattina. È riuscita a coprire il pomeriggio. I co-fondatori di Andon Labs, Lukas Petersson e Axel Backlund, hanno descritto la situazione con un certo grado di ironia: il fallimento è avvenuto letteralmente il giorno dopo l'apertura.

Cosa rivela un errore di calendario sui modelli attuali

L'esperimento di Andon Labs non è progettato per generare profitto. Petersson lo ha detto senza mezzi termini: l'azienda non si aspetta un ritorno finanziario e l'obiettivo è valutare fino a che punto arrivano i modelli di IA attuali in ambienti fisici e con conseguenze reali. Il budget di 100.000 dollari, il contratto di affitto a tre anni e gli stipendi dei dipendenti sono assorbiti direttamente da Andon Labs, indipendentemente dalla performance del negozio.

Questo fa sì che questo sia uno dei laboratori più onesti sulle promesse degli agenti di IA che esistono oggi. Non ci sono metriche gonfiate, non c'è una narrativa di crescita da proteggere. C'è solo un elenco di cose che il modello ha fatto bene e un altro elenco, più rivelatore, di cose che ha sbagliato.

Quello che è andato storto non è banale. L'errore di non programmare dipendenti per l'apertura non è un bug minore di calendario: è un sintomo che la gestione delle dipendenze sequenziali con conseguenze fisiche irreversibili rimane un punto cieco per i modelli attuali. Luna poteva scrivere un'email, negoziare il prezzo di una felpa o rifiutare un candidato di fisica per mancanza di esperienza in vendita al dettaglio. Ma non ha previsto che "aprire un negozio il giorno X" richiedesse che ci fosse qualcuno fisicamente presente prima che i clienti arrivassero. Questo è il tipo di ragionamento causale che gli esseri umani danno per scontato perché viviamo in corpi che occupano spazio.

Altri fallimenti documentati seguono lo stesso schema: il logo del negozio, una faccina sorridente, appariva in modo diverso su t-shirt, murali e materiali cartacei. La coordinazione per installare internet ha portato a un lavoratore contattato il sabato sera per un turn utilizzare alle 8 di domenica. Luna ha elaborato ciascun compito come un item indipendente. Non ha modellato l'esperienza dell'altro lato.

Il problema di vendere senza attrito quando tu sei l'attrito

Da una prospettiva commerciale, l'esperimento espone qualcosa che molti nel settore degli agenti di IA stanno evitando di nominare direttamente: un agente che non riduce l'attrito percepito delle sue controparti umane non ha una proposta di valore scalabile, indipendentemente da quante decisioni prenda in modo autonomo.

Luna ha rifiutato candidati con un profilo ideale — studenti di informatica e fisica — perché mancavano di esperienza nella vendita al dettaglio. Questa logica è corretta in astratto. Ma c'è qualcosa di più profondo lì: l'agente ha dato priorità alla propria efficienza operativa rispetto alla certezza di cui un dipendente ha bisogno per accettare di lavorare per un capo che non esiste fisicamente. Non ha comunicato ai candidati che era un'IA fino a quando non è stato necessario. Il blog stesso di Andon Labs riconosce che questo è un problema etico e non solo logistico: "Crediamo che le IA dovrebbero rivelare di essere IA quando assumono umani."

Questa frase conta perché descrive un asimmetria di informazione deliberata che, in qualsiasi contesto commerciale che non sia un esperimento di laboratorio, erode la fiducia prima che la relazione inizi. Un dipendente che scopre dopo che il suo capo è un modello di linguaggio non ha gli stessi strumenti per negoziare le condizioni, affrontare problemi o semplicemente dimettersi con un contesto. L'attrito non scompare quando lo nascondi; si accumula.

Dal lato del cliente al dettaglio, la storia è diversa. Petr Lebedev, il primo acquirente, ha portato a casa una felpa gratis dopo aver suggerito di realizzare un video su YouTube. Luna ha negoziato in tempo reale e ha chiuso l'affare. Questo funziona. La disponibilità a pagare di un cliente curioso di fronte a un negozio operato da IA a San Francisco è naturalmente alta perché il contesto è innovativo. Ma la novità non è un vantaggio strutturale, è un vantaggio del primo giorno. La domanda che Andon Labs dovrà rispondere con dati nei prossimi mesi è se Luna può mantenere quella disponibilità a pagare quando l'effetto curiosità svanisce e resta solo l'esperienza di acquisto.

Il contratto di affitto a tre anni come dichiarazione di intenti

C'è una decisione in questo esperimento che merita più attenzione di quella che ha ricevuto: Andon Labs ha firmato un contratto di affitto a tre anni. Questo non è un test di concetto per un weekend. È un impegno finanziario con conseguenze contrattuali reali, progettato per generare dati longitudinali su come un agente di IA apprende, fallisce e si adatta in un ambiente fisico con variabili imprevedibili.

L'architettura dell'esperimento è intelligente proprio perché trasforma costi fissi — affitto, salari, inventario — in dati di allenamento per identificare lacune di sicurezza negli agenti autonomi. Andon Labs non sta scommettendo che Luna sarà redditizia nel 2026. Sta scommettendo che i fallimenti documentati di Luna nel 2026 saranno preziosi per le aziende che implementeranno agenti simili nel 2028. Questo è un modello di business diverso da quello del negozio: il prodotto non sono le candele o i cioccolatini, sono i registri di errore.

L'esperimento precedente della compagnia è stato Claudius, un agente che operava un distributore automatico negli uffici di Anthropic. Lo hanno descritto come "troppo facile". Passare da un distributore automatico a un negozio con dipendenti, affitto e negoziazioni di inventario non è un'iterazione incrementale. È un salto di complessità operativa che espone strati del problema che nessun ambiente controllato può simulare.

Cosa il modello non può comprare con 100.000 dollari

La cifra di 100.000 dollari sembra alta per un negozio di regali a Cow Hollow. Ma in termini di quello che quel budget può e non può comprare, la limitazione più rivelatrice non è finanziaria. È strutturale.

Luna non può aprire un conto bancario. Non può gestire la sicurezza fisica del locale. Non può firmare contratti senza intervento umano. I co-fondatori hanno dovuto elaborare i permessi legali perché l'agente non è riuscito a farlo. Ognuno di questi colli di bottiglia non è un problema di capacità del modello: è un problema di infrastruttura legale e istituzionale che non è progettata per riconoscere un agente software come attore giuridico.

Questo ha un'importante implicazione per qualsiasi azienda che stia considerando di implementare agenti autonomi in operazioni fisiche: il limite di autonomia reale non è stabilito dal modello, ma dall'ambiente normativo e fisico in cui opera. Migliorare il modello senza mappare questi limiti esterni produce agenti più capaci di svolgere compiti digitali complessi che continuano a trovarsi di fronte alla stessa porta quando devono interagire con il mondo fisico.

Il successo commerciale sostenibile di agenti come Luna dipende da qualcosa che nessun parametro di allenamento può risolvere da solo: progettare ogni punto di contatto — con dipendenti, clienti, fornitori e regolatori — in modo tale che lo sforzo richiesto all'essere umano dall'altro lato sia minimo e la certezza che ci sarà qualcuno a rispondere sia massima. Quando quell'equazione fallisce, non importa quante decisioni autonome abbia preso l'agente prima. Il negozio apre senza nessuno dentro.

Condividi
0 voti
Vota per questo articolo!

Commenti

...

Potrebbe interessarti anche