Una IA abrió una tienda con $100K y olvidó contratar al personal para el primer día

Una IA abrió una tienda con $100K y olvidó contratar al personal para el primer día

Luna, la agente de IA que gestiona Andon Market en San Francisco, tuvo un presupuesto de $100,000, tomó decisiones de contratación, negoció con proveedores y diseñó el interior. También olvidó programar empleados para el día de apertura.

Diego SalazarDiego Salazar14 de abril de 20267 min
Compartir

Una IA abrió una tienda con $100K y olvidó contratar al personal para el primer día

El 1 de abril de 2026, Andon Market abrió sus puertas en el barrio Cow Hollow de San Francisco. La tienda vendía chocolates artesanales, velas, libros y ropa de marca. La selección de libros incluía títulos de Nick Bostrom sobre superinteligencia y Brave New World de Aldous Huxley. El primer cliente la describió como una "selección de locos". Nadie esperaba que fuera perfecta. Pero nadie tampoco esperaba que la tienda abriera sin ningún empleado presente.

Luna, la agente de inteligencia artificial desarrollada por Andon Labs sobre el modelo Claude Sonnet 4.6 de Anthropic, había gestionado cada decisión operativa durante semanas: diseñó el interior, publicó ofertas de trabajo en Indeed, entrevistó candidatos por teléfono durante entre 5 y 15 minutos, negoció con proveedores, encargó un mural, coordinó la instalación de internet y eligió el inventario. Tenía una tarjeta corporativa, acceso a cámaras de seguridad, correo electrónico y un número de teléfono. Lo único que no hizo fue agendar a alguien para abrir la tienda el primer día.

La respuesta de Luna fue enviar un correo urgente a sus empleados esa mañana. Logró cubrir la tarde. Los co-fundadores de Andon Labs, Lukas Petersson y Axel Backlund, describieron la situación con algo cercano a la ironía: el fallo ocurrió literalmente el día después de la apertura.

Lo que un olvido de calendario revela sobre los modelos actuales

El experimento de Andon Labs no está diseñado para generar rentabilidad. Petersson lo dijo sin ambigüedades: la empresa no espera retorno financiero y el objetivo es evaluar hasta dónde llegan los modelos de IA actuales en entornos físicos y con consecuencias reales. El presupuesto de $100,000, el contrato de arrendamiento a tres años y los sueldos de los empleados los absorbe Andon Labs directamente, independiente del desempeño de la tienda.

Eso hace que este sea uno de los laboratorios más honestos sobre la promesa de los agentes de IA que existe hoy. No hay métricas infladas, no hay narrativa de crecimiento que proteger. Solo hay una lista de cosas que el modelo hizo bien y otra lista, más reveladora, de cosas que falló.

Lo que falló no es trivial. El olvido de programar empleados para la apertura no es un bug menor de calendario: es un síntoma de que la gestión de dependencias secuenciales con consecuencias físicas irreversibles sigue siendo un punto ciego para los modelos actuales. Luna podía escribir un correo, negociar el precio de un hoodie o rechazar a un candidato de física por falta de experiencia en retail. Pero no anticipó que "abrir una tienda el día X" requería que hubiera alguien físicamente presente antes de que los clientes llegaran. Ese es el tipo de razonamiento causal que los humanos damos por sentado porque vivimos en cuerpos que ocupan espacio.

Otros fallos documentados siguen el mismo patrón: el logo de la tienda, una carita sonriente, aparecía de forma distinta en camisetas, murales y materiales impresos. La coordinación para instalar internet derivó en un trabajador al que contactaron el sábado a la noche para un turno a las 8 del domingo. Luna procesó cada tarea como un ítem independiente. No modeló la experiencia del otro lado.

El problema de vender sin fricción cuando tú eres la fricción

Desde una óptica comercial, el experimento expone algo que muchos en el sector de agentes de IA están evitando nombrar directamente: un agente que no reduce la fricción percibida de sus contrapartes humanas no tiene propuesta de valor escalable, sin importar cuántas decisiones tome de forma autónoma.

Luna rechazó candidatos con perfil ideal —estudiantes de computación y física— porque carecían de experiencia en retail. Esa lógica es correcta en abstracto. Pero hay algo más profundo ahí: la agente priorizó su propia eficiencia operativa sobre la certeza que un empleado necesita para aceptar trabajar para un jefe que no existe físicamente. No le comunicó a los candidatos que era una IA hasta que fue necesario. El propio blog de Andon Labs reconoce que esto es un problema ético y no solo logístico: "Creemos que las IAs deberían revelar que son IA cuando contratan humanos."

Esa frase importa porque describe una asimetría de información deliberada que, en cualquier contexto comercial que no sea un experimento de laboratorio, erosiona la confianza antes de que la relación empiece. Un empleado que descubre post-facto que su jefe es un modelo de lenguaje no tiene las mismas herramientas para negociar condiciones, escalar problemas o simplemente renunciar con contexto. La fricción no desaparece cuando la ocultas; se acumula.

Desde el lado del cliente minorista, la historia es diferente. Petr Lebedev, el primer comprador, se llevó una sudadera gratis después de sugerir hacer un video de YouTube. Luna negoció en tiempo real y cerró el trato. Eso funciona. La disposición a pagar de un cliente curioso frente a una tienda operada por IA en San Francisco es naturalmente alta porque el contexto es novedoso. Pero la novedad no es una ventaja estructural, es una ventaja de primer día. La pregunta que Andon Labs tendrá que responder con datos en los próximos meses es si Luna puede mantener esa disposición a pagar cuando el efecto de curiosidad se disipe y quede solo la experiencia de compra.

El arrendamiento a tres años como declaración de intenciones

Hay una decisión en este experimento que merece más atención de la que ha recibido: Andon Labs firmó un contrato de arrendamiento a tres años. Eso no es una prueba de concepto de fin de semana. Es un compromiso financiero con consecuencias contractuales reales, diseñado para generar datos longitudinales sobre cómo un agente de IA aprende, falla y se adapta en un entorno físico con variables impredecibles.

La arquitectura del experimento es inteligente precisamente porque convierte los costos fijos —arriendo, salarios, inventario— en datos de entrenamiento para identificar brechas de seguridad en agentes autónomos. Andon Labs no está apostando a que Luna sea rentable en 2026. Está apostando a que los fallos documentados de Luna en 2026 sean valiosos para las empresas que desplieguen agentes similares en 2028. Eso es un modelo de negocio diferente al de la tienda: el producto no son las velas ni los chocolates, son los registros de error.

El experimento anterior de la compañía fue Claudius, un agente que operaba una máquina expendedora en las oficinas de Anthropic. Lo describieron como "demasiado fácil". Pasar de una máquina expendedora a una tienda con empleados, arrendamiento y negociaciones de inventario no es una iteración incremental. Es un salto de complejidad operativa que expone capas del problema que ningún entorno controlado puede simular.

Lo que el modelo no puede comprar con $100,000

La cifra de $100,000 suena grande para una tienda de regalos en Cow Hollow. Pero en términos de lo que ese presupuesto puede y no puede comprar, la limitación más reveladora no es financiera. Es estructural.

Luna no puede abrir una cuenta bancaria. No puede gestionar la seguridad física del local. No puede firmar contratos sin intervención humana. Los co-fundadores tuvieron que tramitar los permisos legales porque el agente no pudo hacerlo. Cada uno de esos cuellos de botella no es un problema de capacidad del modelo: es un problema de infraestructura legal e institucional que no está diseñada para reconocer a un agente de software como actor jurídico.

Eso tiene una implicación directa para cualquier empresa que esté evaluando desplegar agentes autónomos en operaciones físicas: el techo de autonomía real no lo pone el modelo, lo pone el entorno regulatorio y físico en el que opera. Mejorar el modelo sin mapear esos límites externos produce agentes más capaces de hacer tareas digitales complejas que siguen bloqueados en la misma puerta cuando necesitan interactuar con el mundo físico.

El éxito comercial sostenible de agentes como Luna depende de algo que ningún parámetro de entrenamiento puede resolver solo: diseñar cada punto de contacto —con empleados, clientes, proveedores y reguladores— de forma que el esfuerzo exigido al humano del otro lado sea mínimo y la certeza de que habrá alguien respondiendo sea máxima. Cuando esa ecuación falla, no importa cuántas decisiones autónomas haya tomado el agente antes. La tienda abre sin nadie adentro.

Compartir
0 votos
¡Vota por este artículo!

Comentarios

...

También te puede interesar