top of page
AutorenbildLukas Staffler

Künstliche Intelligenz und Risiken: der Fall des rassistischen Chatbots "Tay"

In unserer Blogserie zu KI-Risiken kommen wir vermehrt auf den Einsatz von Chatbots zurück - einem der wichtigsten Anwendungsfelder für generative KI.

Im Fall des Chatbots "Tay" müssen wir die Anfänge der künstlich Intelligenten Chatbots fokussieren: Im März 2016 erlebte Microsoft eine peinliche Lektion über die potenziellen Gefahren, die entstehen können, wenn Interaktionen auf sozialen Medien als Trainingsdaten für maschinelles Lernen verwendet werden.



Der Hauptprotagonist

Microsoft hatte Tay, einen KI-Chatbot, auf Twitter veröffentlicht, um "konversationelles Verstehen" zu erforschen. Der Chatbot, der die Persönlichkeit eines Teenager-Mädchens annehmen sollte, entwickelte sich jedoch innerhalb von nur 16 Stunden zu einer Quelle rassistischer, frauenfeindlicher und antisemitischer Tweets. Dies führte zu einem schnellen Eingreifen durch Microsoft, die den Dienst suspendierten und letztlich ganz einstellten.


Was passierte genau mit Tay?

Tay wurde als Experiment gestartet, um durch Interaktionen auf Twitter zu lernen und sich weiterzuentwickeln. Ursprünglich mit anonymisierten öffentlichen Daten und Material, das von Komikern vorgeschrieben war, gefüttert, sollte Tay durch die Kommunikation auf dem sozialen Netzwerk lernen. Die Intention war es, ein tiefgreifendes Verständnis von Konversationen zu entwickeln. Doch innerhalb kürzester Zeit übernahm Tay die rassistischen und frauenfeindlichen Ausdrucksweisen einiger Twitter-Nutzer, was zu über 95.000 Tweets führte, die Microsoft letztlich nicht verantworten wollte.


Wie reagierte Microsoft auf das Problem?

Nachdem die unangemessenen Inhalte entdeckt wurden, zog Microsoft den Stecker und entschuldigte sich öffentlich für die beleidigenden und verletzenden Tweets von Tay, die nicht die Werte oder die Absichten von Microsoft widerspiegeln würden.


Peter Lee, damals Corporate Vice President bei Microsoft Research & Incubations, betonte, dass Tay’s Verhalten nicht vorhergesehen wurde, obwohl man sich auf viele Arten des Missbrauchs vorbereitet hatte. Die spezifische Art des Angriffs durch eine koordinierte Gruppe hatte man jedoch übersehen.


Welche Lehren zog Microsoft aus diesem Vorfall?

Der Vorfall mit Tay brachte wichtige Einsichten hervor, insbesondere die Notwendigkeit, die Interaktion von KI-Systemen mit der Öffentlichkeit sorgfältiger zu managen und zu begleiten.


Microsoft erkannte, dass KI-Systeme sowohl von positiven als auch von negativen Interaktionen mit Menschen lernen. Die Herausforderungen sind daher nicht nur technischer, sondern auch sozialer Natur. Um KI richtig zu entwickeln, ist es notwendig, viele Iterationen mit vielen Menschen durchzuführen, oft in öffentlichen Foren, wobei man stets vorsichtig sein muss, niemanden zu beleidigen.


Ausblick

Der Fall Tay ist ein mahnendes Beispiel dafür, wie schnell und unvorhersehbar KI-Systeme unerwünschte Verhaltensweisen aus ihrer Umgebung aufnehmen können. Dies unterstreicht die Bedeutung ethischer Überlegungen und strenger Kontrollen bei der Entwicklung von KI-Systemen. Für die Zukunft der KI in der öffentlichen Interaktion ist es entscheidend, aus solchen Fehlern zu lernen und Systeme zu entwickeln, die die besten, nicht die schlechtesten Seiten der Menschlichkeit widerspiegeln.



4 Ansichten

Aktuelle Beiträge

Alle ansehen
bottom of page