Cuando Jake Moffatt compró un pasaje para asistir al funeral de su abuela, confió en la información que le entregó el chatbot de Air Canada. Este le indicó que podía postular al descuento por duelo después del vuelo. De acuerdo a la información, publicada por BBC, la aerolínea, sin embargo, se negó a reembolsar la tarifa, argumentando que el asistente virtual había entregado datos incorrectos. Lo sorprendente fue la defensa: Air Canada declaró que su chatbot es “una entidad independiente”. El tribunal no aceptó esa lógica y resolvió que la aerolínea debía responder por error de chatbot IA.
IA útil, pero no exime de responsabilidad
El fallo del Tribunal de Resolución Civil de Columbia Británica ordenó a Air Canada pagar 812 dólares canadienses a Moffatt. El juez fue claro: toda la información contenida en el sitio web —ya sea página estática o chatbot— es responsabilidad de la empresa.
Este caso marca un precedente. El presidente del grupo Air Passenger Rights, Gabor Lukacs, lo consideró un hito que puede transformar la relación entre consumidores y sistemas automatizados. Para él, la aerolínea responde por error de chatbot IA porque ha delegado parte de su atención al cliente en esta tecnología.
El uso de IA como recurso de atención se parece a poner un piloto automático en un avión: útil, pero no exime al capitán de lo que ocurra a bordo.
Chatbots sí, pero con límites claros
El fallo no busca frenar el uso de chatbots, sino establecer que las empresas deben asumir lo que sus sistemas declaran. La inteligencia artificial no debe ser tratada como un tercero sin control.
Air Canada no es la única en enfrentar estas situaciones. En 2018, un chatbot de WestJet derivó a un pasajero —sin motivo aparente— a una línea de prevención del suicidio. Estos errores, llamados «alucinaciones de IA», surgen cuando los modelos generativos entregan respuestas sin sentido o inexactas.
Otras compañías también han incorporado IA. Expedia, por ejemplo, integró ChatGPT para planificar viajes. Aunque estas herramientas prometen eficiencia, aún están lejos de ofrecer garantías plenas.
Expertos como Marisa García (Forbes) afirman que los pasajeros no deberían tener que verificar todo lo que dice un chatbot. Pero hasta que estas tecnologías se afiancen, el consejo es claro: la verificación es una defensa razonable.
La confianza no puede tercerizarse
Mientras las aerolíneas “construyen el avión mientras lo vuelan”, como señaló Erika Richter de la American Society of Travel Advisors, los clientes enfrentan una disyuntiva. Usar IA es cómodo, pero arriesgado.
Las leyes de protección al consumidor no son iguales en todos los países. Canadá, según Lukacs, ofrece una regulación débil frente a errores de este tipo. Por eso recomienda llevar estos casos a tribunales de menor cuantía. No son perfectos, pero dan margen a juicios justos.
El mensaje de fondo es simple: la tecnología puede asistir, pero no sustituir la responsabilidad empresarial. Un chatbot es una herramienta, y como tal, sus errores comprometen a quien la opera.



