Close

Inteligencia artificial confusa y protección del consumidor : El caso AIR CANADÁ. Consecuencias para nuestro Ordenamiento y, en particular, en el contrato de seguro

La prensa internacional del pasado día 16 de febrero nos daba cuenta de un caso paradigmático de responsabilidad civil empresarial derivada del mal funcionamiento de un sistema de inteligencia artificial. Se trata de la noticia condensada en el titular de “Air Canada debe cumplir la política de reembolsos inventada por el chatbot de la aerolínea. Air Canada parece haber matado silenciosamente a su costoso chatbot de apoyo» (“Air Canada must honor refund policy invented by airline’s chatbot. Air Canada appears to have quietly killed its costly chatbot support”, Ashley Belanger). La noticia resume que, tras meses de resistencia, AIR CANADA se vio obligada a reembolsar parte del dinero a un pasajero en duelo que fue engañado por un chatbot de la aerolínea que le explicaba incorrectamente la política de viajes por duelo de la aerolínea.

Pues bien, dado que tanto en este blog como fuera de él hemos venido prestando una particular atención a la responsabilidad civil derivada de la inteligencia artificial (remitimos al lector a la entrada de 13.12.2023 sobre los “Principios regulatorios de la Ley Europea de Inteligencia Artificial a la vista del consenso alcanzado por el Parlamento Europeo y el Consejo el 8 de diciembre de 2023: ¿quo vadis Europa?”) y una vez repuestos de la zozobra que, en materia de imputación civil por la IA, han arrojado las revolucionarias declaraciones de la vicepresidenta del gobierno en el FMI en Washington donde parece haber declarado que “los algoritmos no caminan por las aceras ni despiden a trabajadoras o trabajadores”; abordamos la noticia y sus implicaciones para nuestro Ordenamiento y el europeo.

A) Supuesto de hecho

Estamos ante el funcionamiento defectuoso de un sistema de IA que se concreta en la emisión de información confusa por contradictoria con política de la compañía y, por lo tanto, engañosa que provoca una decisión racional del consumidor que incurre en un gasto que no le resulta parcialmente reembolsado.

La cronología de los hechos fue la siguiente:

a) El día en el que murió su abuela, Jake Moffatt visitó el sitio web de Air Canada para reservar un vuelo de Vancouver a Toronto.

b) Dado que Moffatt no estaba seguro de cómo funcionaban las tarifas por duelo de Air Canada, solicito al chatbot de Air Canada que se lo explicara.

c) El chatbot proporcionó información inexacta, animando a Moffatt a reservar un vuelo inmediatamente y solicitar el reembolso en un plazo de 90 días.

d) En realidad, la política de Air Canada establecía explícitamente que la aerolínea no reembolsaría los gastos de viaje por duelo una vez reservado el vuelo.

B) Conflicto jurídico

Podemos sintetizarlo del siguiente modo:

a) Moffatt, siguiendo el consejo del chatbot, solicitó un reembolso.

b) En lugar de un reembolso, Air Canada le prometió que actualizaría el chatbot y ofreció a Moffatt un cupón de 200 dólares para utilizar en un futuro vuelo.

c) Moffatt rechazó el cupón y presentó una reclamación de menor cuantía ante el Tribunal de Resolución Civil de Canadá.

d) El miembro del Tribunal,  Christopher Rivers, que decidió el caso a favor de Moffatt, afirmó: «Air Canada argumenta que no puede ser considerada responsable por la información proporcionada por uno de sus agentes, servidores o representantes -incluido un chatbot» pero «no explica por qué cree que ese es el caso» o «por qué la página web titulada ‘Viaje de duelo’ era inherentemente más confiable que su chatbot».

e) El Tribunal dictaminó que Moffatt tenía derecho a un reembolso parcial de 650,88 dólares canadienses (CAD) de la tarifa original (unos 482 USD), que ascendía a 1.640,36 CAD (unos 1.216 USD), así como una indemnización adicional por daños y perjuicios para cubrir los intereses del billete de avión y los honorarios del tribunal.

f) Air Canada afirmó que acataría la sentencia y consideraba el asunto cerrado; con el resultado práctico del cierre del chatbot de Air Canada.

g) A este respecto, es pertinente recordar que, en el pasado mes de marzo de 2023, el director de información de Air Canada, declaró que la aerolínea había lanzado el chatbot como un «experimento» de IA. Inicialmente, el chatbot se utilizó para aligerar la carga del centro de llamadas de Air Canada cuando los vuelos sufrían retrasos o cancelaciones inesperadas. Por ejemplo, una situación típica de gestión eficiente con IA sería el caso de una tormenta de nieve, cuando un pasajero que todavía no hubiera emitido su nueva tarjeta de embarque, solo quisiera confirmar si tiene un asiento disponible en otro vuelo. Air Canada confiaba que el chatbot «adquiriera la capacidad de resolver problemas de atención al cliente aún más complejos«, con el objetivo final de la aerolínea de automatizar todos los servicios que no requirieran un «toque humano». Al parecer, Air Canada estaba tan interesada en experimentar con la IA que «la inversión inicial en tecnología de IA para el servicio de atención al cliente fue mucho mayor que el coste de seguir pagando a trabajadores para atender consultas sencillas«. En todo caso, el director de información de Air Canada, declaró que mereció la pena porque «la aerolínea cree que invertir en tecnología de automatización y aprendizaje automático reducirá sus gastos y fundamentalmente creará una mejor experiencia para el cliente”.

C) Aspectos implicados

Podemos diferenciar las siguientes tres fases:

C.1) La imputabilidad de la Compañía

Según Air Canada, Moffatt nunca debería haber confiado en el chatbot y la aerolínea no debería ser responsable de la información engañosa del chatbot porque “el chatbot es una entidad legal separada que es responsable de sus propias acciones».

Frente a ello, el Tribunal dictaminó que «Air Canada no tuvo un cuidado razonable para garantizar que su chatbot fuera preciso (…) Debería ser obvio para Air Canada que es responsable de toda la información en su sitio web (…) No hay diferencia si la información proviene de una página estática o de un chatbot«.

C.2) La interpretación aislada del mensaje

Moffatt intentó durante meses convencer a Air Canada de que se le debía un reembolso, compartiendo una captura de pantalla del chatbot que decía claramente: «Si necesita viajar inmediatamente o ya ha viajado y desea presentar su billete para que se le aplique una tarifa reducida por duelo, le rogamos que lo haga en un plazo de 90 días a partir de la fecha de emisión de su billete cumplimentando nuestro formulario de solicitud de reembolso de billetes».

La interpretación aislada de este mensaje no dejaba lugar a ninguna duda razonable sobre el derecho a la bonificación por duelo que solicitada el consumidor.

C.3) La remisión a otras webs de compañía

Air Canada rechazo la solicitud argumentando que, dado que la respuesta del chatbot en otro lugar enlazaba a una página con la política real de viajes por duelo, Moffatt debería haber sabido que las tarifas por duelo no podían solicitarse con carácter retroactivo

Frente al argumento anterior, el Tribunal consideró que Moffatt no tenía «ninguna razón para creer que una parte del sitio web de Air Canada fuera exacta y otra no (…)  Air Canada no explica por qué los clientes deben comprobar dos veces la información«.

Reflexión final: Proyección general del principio de congruencia de la información proporcionada por los sistemas de IA, responsabilidad del empresario por su contenido y liberación del consumidor de comprobar aquella congruencia. El caso del contrato de seguro

Este último razonamiento del Tribunal nos invita a traer a colación una posición que llevamos patrocinando hace ya bastante tiempo para proteger al asegurado. En concreto, quedo reflejada en el artículo 591-3 de la Propuesta de Código Mercantil elaborada por la Sección de Derecho Mercantil de la Comisión General de Codificación y publicada por el Ministerio de Justicia el 20 de junio de 2013 (Secretaría General Técnica, Ministerio de Justicia, Madrid , 2013) dedicado a las “Condiciones del contrato de seguro” que simplificaba notablemente el régimen vigente mediante la remisión a la regulación general y común de las cláusulas abusivas al decir: “1. Serán aplicables a las condiciones generales del contrato de seguro las normas sobre las condiciones generales de contratación.2. La póliza del contrato de seguro deberá contener únicamente las condiciones generales, especiales o particulares que sean aplicables al contrato de seguro que suscriba el tomador del seguro. 3. Las cláusulas que sean calificadas como abusivas por la Ley o los jueces o Tribunales serán nulas, sin perjuicio de la eficacia del resto de las condiciones válidas del contrato”.

Destacaba particularmente la exigencia de limitar el contenido del documento exclusivamente a las condiciones aplicables; liberando al asegurado de la penosa e impropia labor de interpretar que clausulas se le aplicarían de entre la multitud de condiciones generales, especiales y particulares, algunas veces contradictorias entre sí (el lector interesado puede consultar nuestra “Guía del Contrato de Seguro”, 2ª ed., Colección Monografías Aranzadi, Aranzadi, Cizur Menor (2022), pág. 53 y ss. sobre el seguro como un contrato de adhesión, sus condiciones generales y su clasificación en cláusulas lesivas, limitativas y delimitadoras).