Air Canada a été sommée de se conformer à une politique de remboursement créée par erreur par son chatbot.
Cette affaire a commencé lorsque Jake Moffatt, en proie au chagrin après le décès de sa grand-mère, a consulté le système de chatbot d'Air Canada pour comprendre la politique tarifaire de la compagnie en cas de deuil.
Le chatbot lui a indiqué qu'il pouvait réserver son vol et demander un tarif préférentiel dans les 90 jours suivant la réservation.
Mais cette information était erronée car la politique actuelle d'Air Canada stipule qu'il n'est pas possible d'obtenir un remboursement pour un voyage de deuil après avoir réservé le vol.
Cette information est en contradiction directe avec la politique actuelle d'Air Canada, qui stipule clairement que les remboursements pour les voyages de deuil ne sont pas possibles une fois que le vol a été réservé.
Le chatbot indiquait notamment : "Si vous devez voyager immédiatement ou si vous avez déjà voyagé et que vous souhaitez soumettre votre billet pour bénéficier d'un tarif réduit, veuillez le faire dans les 90 jours suivant la date d'émission de votre billet en remplissant notre formulaire de demande de remboursement de billet".
C'est ainsi que s'est engagée la bataille juridique qui a suivi.
Air Canada a fait valoir que le chatbot, en tant qu'entité autonome, était responsable de la désinformation, ce qui l'exonérait de toute responsabilité. Cet argument a été accueilli avec scepticisme par le tribunal.
Christopher Rivers, le membre du tribunal qui a présidé l'affaire, a critiqué la position d'Air Canada en déclarant : "Air Canada soutient qu'elle ne peut être tenue responsable des informations fournies par l'un de ses agents, préposés ou représentants, y compris un chatbot".
Il s'est interrogé sur le fait que la compagnie aérienne attendait des clients qu'ils vérifient les informations fournies par le chatbot par rapport à d'autres sections du site web d'Air Canada, soulignant le caractère déraisonnable d'une telle attente.
La décision rendue en faveur de M. Moffatt lui a accordé un remboursement partiel s'élevant à $650,88 CAD par rapport à son tarif initial de $1 640,36 CAD, ainsi qu'une compensation pour les dommages supplémentaires, y compris les intérêts sur le prix du billet d'avion et les frais de justice.
Pour ceux qui ne connaissent pas les tarifs de deuil, il s'agit de tarifs aériens spéciaux offerts aux passagers qui doivent voyager d'urgence en raison de la mort imminente ou du décès récent d'un membre de leur famille proche.
Ces tarifs sont conçus pour offrir un certain soulagement financier en cas d'urgence personnelle, compte tenu du coût élevé des voyages de dernière minute. Toutes les compagnies aériennes ne proposent pas de tarifs pour les personnes en deuil, et celles qui le font ont des politiques spécifiques, notamment en ce qui concerne les critères d'éligibilité, la preuve requise de l'urgence (comme un certificat de décès ou une lettre d'une entreprise de pompes funèbres) et l'étendue de la réduction.
Cela démontre les responsabilités juridiques et éthiques des entreprises lorsqu'elles emploient des chatbots d'IA dans des rôles de service à la clientèle, en soulignant la nécessité d'exactitude et de responsabilité dans les informations que ces outils numériques fournissent.
$650 est une valeur nominale comparée à ce que l'on pourrait imaginer si un système d'IA donnait de mauvais conseils en matière d'investissement, demandait à quelqu'un d'effectuer une transaction frauduleuse, etc.
Air Canada s'est déjà lancé dans une "expérience" d'IA pour réduire la charge de travail de ses centres d'appels pendant les périodes de forte demande, comme les interruptions de vols liées aux conditions météorologiques.
Mel Crocker, directeur de l'information d'Air Canada, avait imaginé que ce service client pourrait traiter des problèmes complexes. Il faudra peut-être revoir cette idée.
D'autres entreprises y réfléchiront à deux fois avant de confier des conseils juridiques à l'IA.