Air Canada wurde aufgefordert, sich an eine Erstattungsrichtlinie zu halten, die fälschlicherweise von seinem Chatbot erstellt wurde.
Dieser Fall begann damit, dass Jake Moffatt in seiner Trauer über den Tod seiner Großmutter das KI-Chatbot-System von Air Canada konsultierte, um die Tarifpolitik des Unternehmens im Trauerfall zu verstehen.
Der Chatbot sagte ihm, dass er seinen Flug buchen und dann innerhalb von 90 Tagen nach der Buchung einen Sondertarif beantragen könne.
Diese Information war jedoch falsch, denn die aktuellen Richtlinien von Air Canada besagen, dass Sie nach der Buchung Ihres Fluges keine Rückerstattung für Trauerflüge erhalten können.
Diese Information stand in direktem Widerspruch zu den tatsächlichen Richtlinien von Air Canada, die eindeutig besagen, dass Erstattungen für Trauerreisen nach der Buchung des Fluges nicht mehr möglich sind.
Der Chatbot erklärte ausdrücklich: "Wenn Sie sofort verreisen müssen oder bereits verreist sind und Ihr Ticket für einen ermäßigten Trauertarif einreichen möchten, tun Sie dies bitte innerhalb von 90 Tagen nach dem Ausstellungsdatum Ihres Tickets, indem Sie unser Formular für die Ticketrückerstattung ausfüllen."
Damit war der Grundstein für den darauf folgenden Rechtsstreit gelegt.
Air Canada argumentierte, dass der Chatbot als autonome Einheit für die Fehlinformation verantwortlich sei und Air Canada somit von der Haftung befreit sei. Dieses Argument wurde vom Gericht mit Skepsis aufgenommen.
Christopher Rivers, das Mitglied des Gerichts, das den Fall leitete, kritisierte die Haltung von Air Canada: "Air Canada argumentiert, dass es nicht für Informationen haftbar gemacht werden kann, die von einem seiner Agenten, Bediensteten oder Vertreter - einschließlich eines Chatbots - bereitgestellt werden."
Er stellte die Erwartung der Fluggesellschaft in Frage, dass die Kunden die Informationen des Chatbots mit anderen Bereichen der Website von Air Canada abgleichen, und wies darauf hin, dass eine solche Erwartung unangemessen sei.
Das Urteil zu Gunsten von Moffatt gewährte ihm eine Teilrückerstattung in Höhe von $650,88 CAD von seinem ursprünglichen Flugpreis von $1.640,36 CAD sowie eine Entschädigung für zusätzliche Schäden, einschließlich Zinsen auf den Flugpreis und Gerichtsgebühren.
Für diejenigen, die mit Trauertarifen nicht vertraut sind, handelt es sich um spezielle ermäßigte Flugtarife, die Fluggästen angeboten werden, die sich in einer Situation befinden, in der sie aufgrund des bevorstehenden Todes oder des kürzlichen Ablebens eines nahen Familienmitglieds dringend reisen müssen.
Diese Tarife sollen in persönlichen Notfällen eine gewisse finanzielle Erleichterung bieten, da sie die hohen Kosten von Last-Minute-Reisen berücksichtigen. Nicht alle Fluggesellschaften bieten Trauerfalltarife an, und für diese gelten besondere Bestimmungen, einschließlich der Anspruchsvoraussetzungen, des erforderlichen Nachweises des Notfalls (z. B. eine Sterbeurkunde oder ein Schreiben eines Bestattungsunternehmens) und der Höhe der Ermäßigung.
Dies verdeutlicht die rechtliche und ethische Verantwortung von Unternehmen beim Einsatz von KI-Chatbots im Kundenservice und unterstreicht die Notwendigkeit von Genauigkeit und Verantwortlichkeit bei den Informationen, die solche digitalen Tools liefern.
$650 ist ein geringer Wert im Vergleich zu dem, was man sich vorstellen kann, wenn ein KI-System schlechte Anlageempfehlungen gibt, jemanden anweist, eine betrügerische Transaktion durchzuführen usw.
Air Canada hat bereits ein KI-Experiment" gestartet, um die Arbeitsbelastung seiner Callcenter in Zeiten hoher Nachfrage, z. B. bei wetterbedingten Flugunterbrechungen, zu verringern.
Mel Crocker, der Chief Information Officer von Air Canada, hatte sich diesen Kundendienst für die Bearbeitung komplexer Kundendienstfragen vorgestellt. Das muss vielleicht noch einmal überdacht werden.
Andere Unternehmen werden es sich nun zweimal überlegen, bevor sie KI mit der Rechtsberatung betrauen.