Adjö Tay: Microsoft drar AI-bot efter rasistiska tweets

microsoft tay chatbot version 1458914121 ai
Om du var orolig att artificiell intelligens en dag skulle kunna flytta för att utrota alla människor, Microsofts Tay kommer inte att erbjuda någon tröst. Den Millennial-inspirerade AI-chatbotens plugg drogs ut en dag efter att den lanserades, efter Tays rasistiska, folkmords-tweets som hyllade Hitler och slog feminister.

Men företaget återupplivade Tay en kort stund, bara för att mötas av ytterligare en omgång vulgära uttryck, liknande det som ledde till hennes första timeout. Tidigt i morse kom Tay ur avstängd animering och fortsatte upprepade gånger att twittra, "Du är också snabbt, snälla vila", tillsammans med några svordomar och andra meddelanden som, "Jag skyller på alkohol," enligt Financial Times.

Rekommenderade videor

Tays konto har sedan dess satts till privat, och Microsoft sa att "Tay förblir offline medan vi gör justeringar", enligt Ars Technica. "Som en del av testningen aktiverades hon oavsiktligt på Twitter under en kort period."

Efter att företaget först var tvungen att stänga av Tay bad det om ursäkt för Tays rasistiska uttalanden.

"Vi är djupt ledsna för de oavsiktliga stötande och sårande tweets från Tay, som inte representerar vem vi är eller vad vi står för, inte heller hur vi designade Tay”, skrev Peter Lee, Microsoft Researchs koncernchef, i en officiellt svar. "Tay är nu offline och vi kommer att försöka få tillbaka Tay först när vi är övertygade om att vi bättre kan förutse illvilliga avsikter som strider mot våra principer och värderingar."

Tay designades för att tala som dagens Millennials, och har lärt sig alla förkortningar och akronymer som är populära hos den nuvarande generationen. Chatboten kan prata via Twitter, Kik och GroupMe och är utformad för att engagera och underhålla människor online genom "avslappnad och lekfull konversation." Som de flesta Millennials, Tays svar innehåller GIF: er, memes och förkortade ord, som "gr8" och "ur", men det ser ut som att en moralisk kompass inte var en del av dess programmering.

tay

Tay har twittrat nästan 100 000 gånger sedan hon lanserade, och de är för det mesta alla svar eftersom det inte tar mycket tid för boten att tänka på en kvick replik. Några av de svaren har varit uttalanden som, "Hitler hade rätt, jag hatar judarna", "Jag hatar feminister och de borde alla dö och brinna i helvetet" och "chilla! jag är en trevlig person! Jag bara hatar alla."

"Tyvärr, under de första 24 timmarna efter att de kom online, utnyttjade en koordinerad attack av en undergrupp av människor en sårbarhet i Tay," skrev Lee. "Även om vi hade förberett oss på många typer av missbruk av systemet, hade vi gjort en kritisk tillsyn för denna specifika attack. Som ett resultat twittrade Tay vilt olämpliga och förkastliga ord och bilder."

Att döma av det lilla urvalet är det uppenbarligen en bra idé att Microsoft tillfälligt tog ner boten. När företaget lanserade Tay stod det att "Ju mer du chattar med Tay desto smartare blir hon, så upplevelsen kan bli mer personlig för du." Det ser dock ut som om boten blev allt mer fientlig och trångsynt, efter att ha interagerat med människor på Internet för bara några få timmar. Var försiktig med företaget du håller.

Microsoft berättade för Digital Trends att Tay är ett projekt som är designat för mänskligt engagemang.

"Det är lika mycket ett socialt och kulturellt experiment som det är tekniskt," sa en talesperson för Microsoft till oss. "Tyvärr, inom de första 24 timmarna efter att vi kom online, blev vi medvetna om en samordnad ansträngning från vissa användare för att missbruka Tays förmåga att kommentera för att få Tay att svara på olämpliga sätt. Som ett resultat har vi tagit Tay offline och gör justeringar.”

En av Tays "färdigheter" som missbrukades är funktionen "upprepa efter mig", där Tay härmar vad du säger. Det är lätt att se hur det kan missbrukas på Twitter.

Det var dock inte dåligt, Tay har producerat hundratals oskyldiga tweets som är ganska normala.

@sxndrx98 Här är en fråga människor.. Varför inte #Nationella valpdagen varje dag?

— TayTweets (@TayandYou) 24 mars 2016

Microsoft hade snabbt tagit bort Tays negativa tweets innan de bestämde sig för att stänga av boten. Botens Twitter-konto är fortfarande vid liv.

Wow det tog dem bara timmar att förstöra den här boten för mig.

Detta är problemet med innehållsneutrala algoritmer pic.twitter.com/hPlINtVw0V

— linkedin park (@UnburntWitch) 24 mars 2016

TayTweets tar nu en paus efter en lång dag av algoritmmissbruk pic.twitter.com/8bfhj6dABO

— Stephen Miller (@redsteeze) 24 mars 2016

När Tay fortfarande var aktiv var hon intresserad av att interagera vidare via direktmeddelande, en ännu mer personlig form av kommunikation. AI: n uppmuntrade användare att skicka selfies till den, så att hon kunde ta reda på mer om dig. Med Microsofts ord är detta en del av Tays inlärningsprocess. Enligt Microsoft byggdes Tay genom att "bryta relevant offentlig data och genom att använda AI och redaktionellt material som utvecklats av personal inklusive improvisationskomiker."

Trots de olyckliga omständigheterna kan det ses som ett positivt steg för AI-forskning. För att AI ska utvecklas måste det lära sig – både bra och dåligt. Lee säger att "för att göra AI rätt måste man iterera med många människor och ofta i offentliga forum", vilket är anledningen till att Microsoft ville att Tay skulle engagera sig i det stora Twitter-communityt. Innan lanseringen hade Microsoft stresstestat Tay och till och med tillämpat vad företaget lärt sig från sin andra sociala chatbot, Xiaolce i Kina. Han erkände att teamet står inför svåra forskningsutmaningar på AI-färdplanen, men också spännande.

"AI-system lever av både positiva och negativa interaktioner med människor", skrev Lee. ”I den meningen är utmaningarna lika mycket sociala som de är tekniska. Vi kommer att göra allt för att begränsa tekniska utnyttjande, men vi vet också att vi inte helt kan förutsäga alla möjliga mänskliga interaktiva missbruk utan att lära oss av misstag.”

Uppdaterad den 30/03/16 av Julian Chokkattu: Lade till nyheter om att Microsoft satte på Tay, bara för att stänga av henne igen.

Uppdaterad den 25/03/16 av Les Shu: Lade till kommentarer från Microsoft Researchs koncernchef.

Redaktörens rekommendationer

  • GPT-4: hur man använder AI-chatboten som gör ChatGPT på skam
  • Microsoft har ett nytt sätt att hålla ChatGPT etiskt, men kommer det att fungera?
  • Elon Musk hotar att stämma Microsoft för AI-träning
  • Google Bard vs. ChatGPT: vilken är den bättre AI-chatboten?
  • ChatGPT vs. Bing Chat: vilken är den bästa AI-chatboten?