Un tribunal canadiense ha dictaminado que Air Canada debe pagar daños y perjuicios a uno de sus pasajeros por consejos engañosos brindados por su chatbot de servicio al cliente. lo que resultó en que el pasajero pagara casi el doble por sus boletos de avión.
El caso centrado en la experiencia de Jake Moffatt, quien voló de ida y vuelta desde Vancouver a Toronto después de que su abuela muriera en 2022. En ese momento, Moffatt visitó Air Sitio web de Canadá para reservar un vuelo utilizando las tarifas de duelo de la compañía. Según documentos del tribunal, Moffatt preguntó específicamente al chatbot de apoyo de Air Canada sobre el duelo tarifas y recibí la siguiente respuesta:
“Air Canada ofrece reducciones tarifas de duelo si necesita viajar debido a una muerte inminente o una muerte de su familiar inmediato», declaró el chatbot, incluyendo un subrayado hipervínculo a la política de la aerolínea. “Si necesita viajar inmediatamente o ya ha viajado y le gustaría enviar su boleto para un tarifa reducida por duelo, hágalo dentro de los 90 días posteriores a la fecha en que se emitió su boleto completando nuestro formulario de Solicitud de reembolso de boleto”.
Moffatt no visitó el enlace proporcionado por el chatbot, que decía que, contrariamente a lo que decía el chatbot, los clientes no podían solicitar tasas de duelo después de completar su viaje.
El mismo día que habló con el chatbot, Moffatt llamó a Air Canada para obtener más información sobre el posible monto del descuento en el vuelo. Afirma que un representante de servicio al cliente humano le dijo que recibiría un descuento de aproximadamente 440 dólares canadienses ($326 dólares estadounidenses) por vuelo, pero no le dijeron que el descuento no se podía aplicar retroactivamente. Según la información del chatbot y el representante humano de servicio al cliente , Moffatt reservó sus vuelos.
Unos días después, Moffatt presentó su solicitud de reembolso parcial de lo que había pagado por sus vuelos, que ascendieron a 1.630 dólares canadienses. dólares ($1,210 dólares estadounidenses). Después de debatir con la aerolínea durante semanas, Moffatt envió a Air Canada una captura de pantalla de la respuesta del chatbot en febrero. 2023. En respuesta, el representante de servicio al cliente humano le dijo que el consejo del chatbot había sido “engañoso” y le dijo que tomarían nota de el problema para que Air Canada pudiera actualizar el chatbot.
Los idas y venidas de Moffatt con Air Canada continuaron y finalmente terminaron en el Tribunal de Resolución Civil, también conocido como CRT, un cuasi- tribunal judicial del sistema de justicia pública de Columbia Británica que se ocupa de disputas de derecho civil como reclamaciones de menor cuantía. Moffatt se representó a sí mismo en el caso, mientras que Air Canada estuvo representada por un empleado.
En su defensa, Air Canada negó todas las afirmaciones de Moffatt y dijo que no podía ser considerada responsable de la información proporcionada por sus empleados. agentes, representantes o chatbots, un argumento que desconcertó al miembro del Tribunal Christopher C. Rivers. En una decisión publicada esta semana, Rivers dijo que Air La sugerencia de Canadá de que su chatbot era una “entidad legal separada responsable de sus propias acciones” no tenía ningún sentido.
“Si bien un chatbot tiene un componente interactivo, sigue siendo solo una parte del sitio web de Air Canada”, escribió Christopher C. Rivers, miembro del Tribunal . “Debe ser obvio para Air Canada que es responsable de toda la información contenida en su sitio web. No hace ninguna diferencia si la información proviene de una página estática o un chatbot».
Rivers agregó que Air Canada no tomó un cuidado razonable para garantizar que su chatbot fuera preciso. Tampoco explicó por qué los clientes deberían tiene que verificar la información que se encuentra en una parte de su sitio web, el chatbot, con otra parte de su sitio web. Al final, Rivers ordenó a Air Canada que pagara a Moffatt el reembolso por el que había pasado casi un año y medio luchando.
En general, la historia pretende mostrar a las grandes empresas que errores como “mi chatbot lo hizo, no yo” no aparecerán tribunal.
This article originally appeared on Gizmodo.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.