top of page
AutorenbildLukas Staffler

Künstliche Intelligenz und Risiken: der lügende Chatbot von Air Canada

In der digitalen Wirtschaft setzen Unternehmen zunehmend auf künstliche Intelligenz (KI), um ihre Prozesse zu optimieren und die Kundeninteraktion zu verbessern. Ein in der Praxis verbreiteter Einsatz von KI ist dabei der künstlich intelligente Chatbot. Was jedoch bei diesem Einsatzgebiet schiefgehen kann, verdeutlicht der Fall des virtuellen Assistenten von Air Canada. In diesem Blogbeitrag untersuchen wir die rechtlichen Konsequenzen von KI-Fehlern anhand des Falles "Air Canada Chatbot-Lügen" und erörtern die weiterreichenden Implikationen für Verbraucherrechte und die Verantwortlichkeit von Unternehmen.



Der hier besprochene Fall hat einen traurigen Anlass: Im November 2023 wandte sich Jake Moffatt nach dem Tod seiner Großmutter an den Chatbot von Air Canada, um Informationen zu sog. Trauertarifen zu erhalten.


Trauertarife (engl.: bereavement fares) sind besonders günstige Tarife für Reisende, die aufgrund des Verlustes eines unmittelbaren Familienangehörigen reisen.

Der virtuelle Assistent informierte ihn, dass er Tickets zum regulären Preis kaufen und innerhalb von 90 Tagen nach Kauf einen Trauertarif beantragen könne. Moffatt vertraute dieser Information und kaufte Tickets von Vancouver nach Toronto und zurück, für die er insgesamt über $1.640 ausgab.


Die Realität sah jedoch anders aus. Als Moffatt den Trauertarif beantragte, lehnte Air Canada ab und gab an, dass solche Tarife nicht nach dem Ticketkauf geltend gemacht werden können. Daraufhin reichte Moffatt eine Klage gegen Air Canada ein, mit der Begründung, dass die Fluggesellschaft fahrlässig gehandelt und falsche Informationen über ihren Chatbot bereitgestellt habe.


Die gerichtliche Entscheidung

Das kanadische Gericht stellte fest, dass Air Canada es versäumt hatte, die Genauigkeit der Informationen, die der Chatbot bereitstellte, zu gewährleisten. Es wies das Argument der Fluggesellschaft zurück, sie könne für die Fehlinformationen des Chatbots nicht haftbar gemacht werden. Das Gericht betonte, dass ein Chatbot als Teil der Dienstleistungsmaschinerie des Unternehmens nicht als eigenständige rechtliche Einheit betrachtet werden kann. Folglich ordnete Rivers an, dass Air Canada Moffatt insgesamt $ 812.02 (einschließlich $ 650.88 Schadensersatz), zahlen muss.


Ausblick

Dieser Fall wirft wichtige rechtliche Fragen für Unternehmen auf, die KI-Technologien einsetzen, insbesondere im Kundenservice. In den meisten Rechtsordnungen wird von Unternehmen erwartet, dass sie angemessene Schritte unternehmen, um sicherzustellen, dass ihre automatisierten Systeme genaue und verlässliche Informationen liefern. Unterlassen sie dies, kann dies als Fahrlässigkeit angesehen werden, insbesondere wenn die Fehlinformationen zu finanziellen Verlusten für die Verbraucher führen.


Unternehmen müssen auch die Implikationen derartiger Gerichtsentscheidungen verstehen: Wenn ein KI-System (z.B. ein Chatbot) von Kunden als autorisierter Vertreter des Unternehmens wahrgenommen wird, dann ist das Unternehmen wahrscheinlich für die bereitgestellten Informationen verantwortlich, unabhängig davon, ob sie korrekt sind oder nicht.


Vertrauen und KI

Vorfälle wie diese können das Vertrauen der Verbraucher in KI-Technologien erheblich untergraben. Sie unterstreichen deshalb die Notwendigkeit einer rigorosen Prüfung und Aktualisierung von KI-Systemen sowie deren Output.


Der Fall "Air Canada Chatbot-Lügen" dient deshalb als mahnendes Beispiel für die potenziellen Fallstricke, die sich aus der Verwendung von KI für kritische Kundenserviceaufgaben ohne angemessene Überwachung ergeben!


11 Ansichten

Aktuelle Beiträge

Alle ansehen
bottom of page