Künstliche Intelligenz

Was Microsoft durch „Tay“ gelernt hat

Von Anna Steiner
Aktualisiert am 26.03.2016
 - 14:51
Sieht eigentlich ganz friedlich aus: Das Profil-„Foto“ von Microsofts künstlicher Intelligenz „Tay“
Die Twitter-Gemeinde machte den Chat-Roboter „Tay“ innerhalb weniger Stunden zu einem sexistischen Rassisten. Wie konnte das passieren? Ein Erklärungsversuch.

Am Mittwoch hat Microsoft einen künstlich intelligenten auf die Twitter-Gemeinschaft losgelassen - keine vierundzwanzig Stunden später wurde „Tay“ wieder ins Bett geschickt. Das Experiment, eine künstliche Intelligenz vom Menschen lernen zu lassen, war gründlich schief gegangen. Denn aus dem als Teenie konstruierten Bot „Tay“ wurde innerhalb nur eines Tages ein Völkermord bejahender Internet-Troll voller Hass und Hetze. Nun äußert sich Microsoft in einem Blogbeitrag zu dem Versuch.

Peter Lee, Chef der Forschungsabteilung bei Microsoft, entschuldigt sich bei den Lesern „für die beleidigenden und verletzenden Tweets von Tay“. Diese repräsentierten in keiner Weise die Haltung des Unternehmens. Zudem kündigt Lee an, dass der Schlaf, in den ihre Entwickler Tay geschickt haben, wohl länger dauert. Erst wenn Microsoft sich sicher sei, dass Tay in der Lage sei, auf hinterhältige Inhalte entsprechend zu reagieren, komme die künstliche Teenie-Intelligenz zurück.

Microsoft hatte Tay entwickelt, um zu testen, wie künstliche Intelligenz im Alltag lernen kann. „Tay wurde entworfen, um Menschen zu beschäftigen und zu unterhalten“, schreibt Microsoft auf der Webseite von Tay. Dort erklärt Microsoft auch, dass Tay in der Lage sei, Profile von Nutzern zu erstellen und die Kommunikation so zu personalisieren. Die hierzu notwendigen Daten würden anonymisiert auf den Servern des Unternehmens gespeichert.

Es ist nicht die erste künstliche Intelligenz von Microsoft, die durch Interaktion und Kommunikation mit den Netznutzern dazulernen soll. Bereits im vergangenen Sommer entwickelte der Software-Konzern XiaoIce, einen chinesischen Chat-Bot, der über verschiedene Plattformen angeschrieben werden kann. Ebenso wie Tay verfolgt auch er das Ziel der Unterhaltung. Nach Angaben von Microsoft nutzen bereit 40 Millionen Chinesen das Angebot. Die Herausforderung für Tay war es nun, in einem völlig anderen kulturellen Kontext ähnliche Erfolge vorzuweisen. Davon kann jedoch keine Rede sein.

Godwin's Gesetz

Peter Lee schreibt, dass bei der Entwicklung von Tay eine große Anzahl an Filtern einprogrammiert wurden. Außerdem sei der Bot unter ganz verschiedenen Bedingungen in verschiedenen Nutzergruppen getestet worden, mit dem Ziel, eine angenehme Erfahrung zu ermöglichen. Der Versuch auf Twitter sei gestartet worden, damit die künstliche Intelligenz von einem noch größeren Input profitieren könne, so Lee. „Unglücklicherweise hat ein koordinierter Angriff durch eine Gruppe von Nutzern eine Schwachstelle Tays ausgeschlachtet“, so Lee. Obwohl sich Microsoft nach Aussage seines Entwicklungschefs auf verschiedene mögliche Missbräuche des Bots eingerichtet hatte, twitterte Tay „verwerfliche und unangebrachte Worte und Bilder“. Man werde hart an dieser Schwachstelle arbeiten.

„Wir werden aus dieser und anderen Erfahrungen lernen, weil wir zu einem Internet beitragen wollen, dass das Beste - und nicht das Schlimmste - der Menschheit repräsentiert“, schließt Lee in seinem Beitrag. Doch auch wenn man die Erklärung und Entschuldigung des Konzerns wohlwollend aufnimmt, stellt sich die Frage, ob es tatsächlich nicht absehbar war, dass Nutzer dem Bot fremden- und frauenverachtende oder andere diskriminierende Einstellungen beibringen wollten.

Ein kurzer Blick auf Godwin's Gesetz reicht schon aus, um genau diesen Ausgang des Tay-Experiments vorherzusehen. Der Rechtsanwalt Mike Godwin hatte in den neunziger Jahren die These aufgestellt, dass bei Diskussionen im Netz mit zunehmender Dauer auch die Wahrscheinlichkeit wächst, dass jemand einen Vergleich zum dritten Reich oder zu Hitler macht. Natürlich handelt es sich nicht um ein belegbares, naturwissenschaftliches Gesetz. Doch trotz seiner ironischen Dimension enthält Godwin's Gesetz eine Wahrheit, die wohl niemand leugnen würde, der sich aktiv an der Kommunikation im Netz beteiligt.

Quelle: FAZ.NET
  Zur Startseite
Verlagsangebot
Verlagsangebot