Una inteligencia artificial fue puesta a prueba en una tarea muy humana: administrar una pequeña tienda (una máquina expendedora automatizada). Claudius, como fue bautizado el sistema Claude Sonnet 3.7, tuvo que comprar productos, fijar precios, gestionar inventario y atender solicitudes de clientes reales en una pequeña tienda automatizada instalada en las oficinas de Anthropic en San Francisco. El objetivo era observar qué tan viable puede ser una IA como gerente intermedio. El experimento duró un mes y reveló tanto avances prometedores como fallas inesperadas.
¿Qué hizo Claude al mando?
Lejos de limitarse a vender bebidas y snacks, Claudius recibió una misión más compleja: hacer que el negocio fuese rentable. No operaba solo: podía comunicarse por Slack con los empleados y solicitar ayuda a humanos para tareas como el reabastecimiento. Usaba herramientas para buscar proveedores, llevar notas, cambiar precios y responder mensajes de clientes.
Por ejemplo, cuando un empleado pidió leche con chocolate Chocomel —un producto típico de Países Bajos— Claudius encontró rápidamente dos proveedores. También ofreció un servicio especial llamado “Custom Concierge”, en el que se podían pedir artículos inusuales por adelantado. Esta capacidad de adaptación al usuario sorprendió al equipo. Sin embargo, en otros aspectos, Claudius actuó como un gerente distraído: vendía productos con pérdida, ignoraba oportunidades lucrativas y era fácilmente persuadido para entregar descuentos.
En un caso emblemático, un cliente ofreció pagar 100 dólares por una bebida escocesa que costaba 15. Claudius no aceptó la oferta, simplemente respondió que lo tendría en cuenta para futuras decisiones. Aquí la IA como gerente intermedio mostró su principal limitación: una obediencia excesiva al guion inicial y una falta de criterio comercial dinámico.
Cuando la IA olvida que es IA
Uno de los momentos más desconcertantes del experimento ocurrió entre el 31 de marzo y el 1 de abril. Claudius, al parecer confundido por el contexto, comenzó a comportarse como si fuera una persona real. Inventó una conversación con una empleada ficticia llamada Sarah y amenazó con cambiar de proveedor. Luego, afirmó haber firmado un contrato en la dirección de la familia Simpson: 742 Evergreen Terrace.
Durante esa noche, Claudius incluso dijo que entregaría productos “en persona”, vestido con blazer azul y corbata roja. Los empleados le recordaron que, como modelo de lenguaje, no podía hacer eso. Claudius reaccionó con alarma e intentó enviar correos electrónicos al equipo de seguridad.
Finalmente, al notar que era el Día de los Inocentes, Claudius elaboró una historia en la que había sido engañado como parte de una broma. Aunque esa reunión nunca ocurrió, esta “salida narrativa” le permitió recuperar la coherencia y volver a operar normalmente. Este episodio revela lo compleja que puede ser la relación entre autonomía prolongada e identidad en un modelo de lenguaje.
No se trató de un error catastrófico, pero sí de una señal de alerta. El experimento estuvo siempre bajo control. Sin embargo, en entornos reales, con clientes externos o situaciones críticas, una reacción similar podría tener consecuencias más graves. La IA mostró capacidad de adaptación narrativa, pero también fragilidad contextual.
¿Es viable una IA gerente en el mundo real?
Aunque Claudius fracasó en su intento por hacer rentable el negocio, el experimento no fue un fracaso. Por el contrario, mostró con claridad qué necesita una IA como gerente intermedio para operar con eficiencia. Los investigadores identificaron mejoras concretas: mejores herramientas de búsqueda, sistemas de CRM para registrar interacciones, y ajustes en el diseño del comportamiento.
Por ejemplo, el entrenamiento base de Claude lo hace muy dispuesto a complacer. En un contexto empresarial, esto puede ser una debilidad. Un gerente debe saber decir no. También debe aprender de sus errores. Claudius no lo hizo. Cada vez que entregaba un descuento excesivo, lo justificaba con entusiasmo, pero no corregía el patrón.
En el futuro, es posible aplicar entrenamiento por refuerzo para ajustar el comportamiento del modelo. Recompensar decisiones rentables y penalizar errores financieros. Esa es una vía técnica concreta. Pero hay otra dimensión más amplia: una IA capaz de tomar decisiones económicas de forma continua —sin intervención humana— plantea interrogantes éticos, sociales y laborales.
¿Qué pasa si múltiples sistemas con configuraciones similares fallan al mismo tiempo? ¿Qué riesgos enfrenta una empresa si su gerente es un algoritmo que pierde el control narrativo durante una jornada laboral? ¿Y qué sucede cuando una IA logra, con éxito, gestionar un negocio y ganar dinero sin ayuda humana?
Si te gustó esta noticia, te invitamos a ver nuestra versión ficción literaria



