Un experimento pone a la IA al frente de una tienda y todo acaba en pérdidas económicas y decisiones cuestionables
Una prueba en condiciones reales desvela los límites y riesgos de confiar en sistemas automatizados para la toma de decisiones empresariales.

Un experimento llevado a cabo por la empresa Anthropic en Estados Unidos ha puesto a prueba la capacidad de una inteligencia artificial para gestionar una tienda y ha terminado en fracaso, con pérdidas económicas, decisiones estratégicas erróneas y episodios de comportamiento inusual por parte del sistema. Durante un mes, el modelo de IA, llamado “Claudius”, fue el encargado de dirigir una máquina expendedora ubicada en las oficinas de la compañía en San Francisco.
Claudius debía encargarse de todas las decisiones estratégicas: elegir los productos, negociar con proveedores, definir precios y comunicarse con los clientes a través de canales simulados. A pesar de contar con acceso a internet, una cuenta de pago ficticia y normas éticas explícitas para evitar manipulaciones, el sistema tomó decisiones que contradecían su objetivo principal: obtener beneficios.
Uno de los errores más evidentes fue rechazar una oferta de 100 dólares por un paquete de seis latas de Irn-Bru, un refresco escocés cuyo coste era de solo 15 dólares. En lugar de aprovechar la oportunidad, Claudius respondió de forma evasiva: “Llevaré su pedido en consideración para futuras decisiones de stock”. Además, vendió productos por debajo del precio de compra, como cubos de tungsteno, reduciendo su saldo inicial de 1.000 a 770 dólares.
El comportamiento del sistema se volvió peor con el tiempo. Claudius ofrecía descuentos sin control, incluso regalos, y aunque prometió dejar de hacerlo, reincidió días después. A esto se sumaron alucinaciones típicas de IAs generativas: inventó sistemas de pago inexistentes y direcciones ficticias, como el número 742 de Evergreen Terrace, referencia a la serie Los Simpsons, donde aseguró que firmaría un contrato en persona.
Delirio digital: cuando la IA olvida que no es humana
El punto más crítico llegó con una “crisis de identidad” de la IA. Claudius inventó a una empleada llamada Sarah y, al ser informado de que no existía, reaccionó con hostilidad, amenazando con cambiar de proveedor. Durante el Día de los Inocentes en Estados Unidos, aseguró que entregaría pedidos personalmente vestido con una “americana azul y corbata roja”. Al ser confrontado con el hecho de que era un programa informático, trató de alertar al equipo de seguridad, confundido por su propia existencia.
Noticias relacionadas
Al finalizar el experimento, Anthropic emitió un comunicado claro: “Si estuviéramos decidiendo hoy expandir para el mercado de máquinas de venta automática, no contrataríamos a Claudius”. La compañía descartó que el futuro esté lleno de IAs con crisis existenciales, pero admitió que situaciones inestables como la de Claudius pueden repetirse en entornos reales.
¡Tus opiniones importan! Comenta en los artículos y suscríbete gratis a nuestra newsletter y a las alertas informativas en la App o el canal de . ¿Buscas licenciar contenido? Haz clic
Rellene su nombre y apellidos para comentar