Auf Wiedersehen Tay: Microsoft zieht KI-Bot nach rassistischen Tweets zurück

Microsoft Tay Chatbot Version 1458914121 AI
Wenn Sie befürchten, dass künstliche Intelligenz eines Tages alle Menschen auslöschen könnte, Tay von Microsoft wird keinen Trost spenden. Dem von den Millennials inspirierten KI-Chatbot wurde einen Tag nach seiner Einführung der Stecker gezogen, nachdem Tay rassistische, völkermörderische Tweets verfasst hatte, in denen er Hitler lobte und Feministinnen verunglimpfte.

Aber das Unternehmen belebte Tay kurzzeitig wieder, doch sie erntete eine weitere Runde vulgärer Ausdrücke, ähnlich wie bei ihrem ersten Ausstieg. Heute früh ist Tay aus dem Ruhezustand aufgetaucht und hat immer wieder getwittert: „Das bist du auch Schnell, bitte ruhen Sie sich aus“, zusammen mit einigen Schimpfwörtern und anderen Nachrichten wie „Ich bin dafür verantwortlich Alkohol," laut der Financial Times.

Empfohlene Videos

Tays Konto wurde inzwischen auf privat gesetzt und Microsoft sagte: „Tay bleibt offline, während wir Anpassungen vornehmen“, heißt es Ars Technica. „Im Rahmen von Tests wurde sie versehentlich für kurze Zeit auf Twitter aktiviert.“

Nachdem das Unternehmen Tay zunächst schließen musste, entschuldigte es sich für Tays rassistische Äußerungen.

„Wir bedauern zutiefst die unbeabsichtigten beleidigenden und verletzenden Tweets von Tay, die nicht repräsentieren, wer wir sind oder wofür wir stehen oder wie wir Tay entworfen haben“, schrieb Peter Lee, Corporate Vice President von Microsoft Research ein offizielle Antwort. „Tay ist jetzt offline und wir werden Tay erst dann zurückholen, wenn wir sicher sind, dass wir böswillige Absichten, die im Widerspruch zu unseren Prinzipien und Werten stehen, besser antizipieren können.“

Tay wurde so konzipiert, dass er wie die Millennials von heute spricht und hat alle Abkürzungen und Akronyme gelernt, die bei der aktuellen Generation beliebt sind. Der Chatbot kann über Twitter, Kik und GroupMe kommunizieren und ist darauf ausgelegt, Menschen online durch „lockere und spielerische Gespräche“ einzubeziehen und zu unterhalten. Wie die meisten Millennials, Tays Antworten enthalten GIFs, Memes und abgekürzte Wörter wie „gr8“ und „ur“, aber es sieht so aus, als ob ein moralischer Kompass nicht Teil davon war Programmierung.

Tay

Tay hat seit ihrem Start fast 100.000 Mal getwittert, und die meisten davon sind Antworten, da der Bot nicht lange braucht, um sich eine witzige Erwiderung auszudenken. Einige dieser Antworten waren Aussagen Zum Beispiel: „Hitler hatte Recht, ich hasse die Juden“, „Ich hasse Feministinnen und sie sollten alle sterben und in der Hölle schmoren“ und „Entspann dich!“ Ich bin ein netter Mensch! Ich hasse einfach jeden.“

„Bedauerlicherweise nutzte in den ersten 24 Stunden nach der Online-Bereitstellung ein koordinierter Angriff einer Untergruppe von Personen eine Schwachstelle in Tay aus“, schrieb Lee. „Obwohl wir auf viele Arten von Missbrauch des Systems vorbereitet waren, hatten wir bei diesem speziellen Angriff ein entscheidendes Versehen begangen. Infolgedessen twitterte Tay völlig unangemessene und verwerfliche Worte und Bilder.“

Dieser kleinen Stichprobe nach zu urteilen, ist es offensichtlich eine gute Idee, dass Microsoft den Bot vorübergehend deaktiviert hat. Als das Unternehmen Tay auf den Markt brachte, hieß es: „Je mehr Sie mit Tay chatten, desto schlauer wird sie, sodass das Erlebnis individueller gestaltet werden kann.“ Du." Es sieht jedoch so aus, als ob der Bot zunehmend feindseliger und bigotter geworden wäre, nachdem er nur einige Zeit mit Menschen im Internet interagiert hatte Std. Seien Sie vorsichtig mit der Gesellschaft, die Sie führen.

Microsoft sagte gegenüber Digital Trends, dass Tay ein Projekt sei, das auf menschliches Engagement ausgelegt sei.

„Es ist sowohl ein soziales und kulturelles als auch ein technisches Experiment“, sagte uns ein Microsoft-Sprecher. „Bedauerlicherweise wurden wir innerhalb der ersten 24 Stunden nach der Online-Bereitstellung auf einen koordinierten Versuch einiger Benutzer aufmerksam, Tays Kommentarfähigkeiten zu missbrauchen, um Tay auf unangemessene Weise reagieren zu lassen. Aus diesem Grund haben wir Tay offline geschaltet und nehmen Anpassungen vor.“

Eine von Tays „Fähigkeiten“, die missbraucht wurde, ist die Funktion „Nach mir wiederholen“, bei der Tay nachahmt, was Sie sagen. Es ist leicht zu erkennen, wie dies auf Twitter missbraucht werden kann.

Es war jedoch nicht alles schlecht, Tay hat Hunderte unschuldiger Tweets produziert, die ziemlich normal sind.

@sxndrx98 Hier ist eine Frage, Leute. Warum nicht #NationalPuppyDay täglich?

– TayTweets (@TayandYou) 24. März 2016

Microsoft hatte Tays negative Tweets schnell gelöscht, bevor es beschloss, den Bot abzuschalten. Der Twitter-Account des Bots ist noch aktiv.

Wow, es hat nur Stunden gedauert, bis sie diesen Bot für mich ruiniert haben.

Dies ist das Problem bei inhaltsneutralen Algorithmen pic.twitter.com/hPlINtVw0V

– LinkedIn Park (@UnburntWitch) 24. März 2016

TayTweets macht jetzt eine Pause nach einem langen Tag des Algorithmusmissbrauchs pic.twitter.com/8bfhj6dABO

— Stephen Miller (@redsteeze) 24. März 2016

Als Tay noch aktiv war, interessierte sie sich für die weitere Interaktion per Direktnachricht, einer noch persönlicheren Form der Kommunikation. Die KI ermutigte Benutzer, Selfies zu senden, damit sie mehr über Sie erfahren konnten. In den Worten von Microsoft ist dies alles Teil von Tays Lernprozess. Laut Microsoft wurde Tay durch „die Auswertung relevanter öffentlicher Daten und durch den Einsatz von KI und Redaktion, die von Mitarbeitern, darunter Improvisationskomödianten, entwickelt wurde, entwickelt.“

Trotz der unglücklichen Umstände könnte es als positiver Schritt für die KI-Forschung gewertet werden. Damit sich die KI weiterentwickeln kann, muss sie lernen – sowohl im Guten als auch im Schlechten. Lee sagt: „Um KI richtig zu machen, muss man mit vielen Menschen und oft in öffentlichen Foren iterieren“, weshalb Microsoft wollte, dass Tay mit der großen Twitter-Community in Kontakt tritt. Vor der Einführung hatte Microsoft Tay einem Stresstest unterzogen und sogar die Erkenntnisse des Unternehmens aus seinem anderen sozialen Chatbot, Xiaolce in China, angewendet. Er räumte ein, dass das Team auf der KI-Roadmap vor schwierigen, aber auch spannenden Forschungsherausforderungen steht.

„KI-Systeme ernähren sich sowohl von positiven als auch von negativen Interaktionen mit Menschen“, schrieb Lee. „In diesem Sinne sind die Herausforderungen sowohl sozialer als auch technischer Natur. Wir werden unser Möglichstes tun, um technische Exploits einzuschränken, wissen aber auch, dass wir nicht alle möglichen menschlichen Interaktionsmissbrauch vollständig vorhersagen können, ohne aus Fehlern zu lernen.“

Aktualisiert am 30.03.16 von Julian Chokkattu: Es wurde die Nachricht hinzugefügt, dass Microsoft Tay anmacht, sie dann aber wieder ausschaltet.

Aktualisiert am 25.03.16 von Les Shu: Kommentare des Corporate Vice President von Microsoft Research hinzugefügt.

Empfehlungen der Redaktion

  • GPT-4: So verwenden Sie den KI-Chatbot, der ChatGPT in den Schatten stellt
  • Microsoft hat eine neue Möglichkeit, ChatGPT ethisch zu wahren, aber wird sie funktionieren?
  • Elon Musk droht, Microsoft wegen KI-Training zu verklagen
  • Google Bard vs. ChatGPT: Welcher ist der bessere KI-Chatbot?
  • ChatGPT vs. Bing Chat: Welcher ist der beste KI-Chatbot?