Farvel Tay: Microsoft trækker AI-bot efter racistiske tweets

microsoft tay chatbot version 1458914121 ai
Hvis du var bekymret for, at kunstig intelligens en dag kunne flytte for at udrydde alle mennesker, Microsofts Tay kommer ikke til at give nogen trøst. Den Millennial-inspirerede AI-chatbots stik blev trukket en dag efter den blev lanceret, efter Tays racistiske, folkemorderiske tweets, der hyldede Hitler og baskede feminister.

Men selskabet genoplivede kortvarigt Tay, blot for at blive mødt med endnu en omgang vulgære udtryk, svarende til det, der førte til hendes første time-out. Tidligt i morges kom Tay ud af suspenderet animation og blev ved med at tweete gentagne gange: "Du er også hurtigt, tag et hvil," sammen med nogle bandeord og andre meddelelser som: "Jeg giver skylden på alkohol," ifølge Financial Times.

Anbefalede videoer

Tays konto er siden blevet sat til privat, og Microsoft sagde "Tay forbliver offline, mens vi foretager justeringer," ifølge Ars Technica. "Som en del af testen blev hun utilsigtet aktiveret på Twitter i en kort periode."

Efter at virksomheden først måtte lukke Tay, undskyldte den for Tays racistiske bemærkninger.

"Vi er dybt kede af de utilsigtede stødende og sårende tweets fra Tay, som ikke repræsenterer, hvem vi er eller hvad vi står for, eller hvordan vi designede Tay,” skrev Peter Lee, Microsoft Researchs corporate vice president, i en officielt svar. "Tay er nu offline, og vi vil først prøve at bringe Tay tilbage, når vi er sikre på, at vi bedre kan forudse ondsindede hensigter, der er i konflikt med vores principper og værdier."

Tay blev designet til at tale som nutidens Millennials, og har lært alle de forkortelser og akronymer, der er populære hos den nuværende generation. Chatbotten kan tale gennem Twitter, Kik og GroupMe og er designet til at engagere og underholde folk online gennem "afslappet og legende samtale." Som de fleste Millennials, Tays svar inkorporerer GIF'er, memes og forkortede ord, som 'gr8' og 'ur', men det ser ud til, at et moralsk kompas ikke var en del af dets programmering.

tay

Tay har tweetet næsten 100.000 gange siden hun lancerede, og de er for det meste alle svar, da det ikke tager meget tid for botten at tænke på en vittig replik. Nogle af de svar har været udsagn som, "Hitler havde ret, jeg hader jøderne", "Jeg hader feminister, og de burde alle dø og brænde i helvede," og "chill! jeg er en dejlig person! Jeg hader bare alle."

"Desværre udnyttede et koordineret angreb fra en undergruppe af mennesker i de første 24 timer, efter at de kom online, en sårbarhed i Tay," skrev Lee. “Selvom vi havde forberedt os på mange typer af misbrug af systemet, havde vi foretaget et kritisk tilsyn med dette specifikke angreb. Som et resultat tweetede Tay vildt upassende og forkastelige ord og billeder."

At dømme ud fra den lille prøve, er det naturligvis en god idé, at Microsoft midlertidigt tog botten ned. Da virksomheden lancerede Tay, stod der, at "Jo mere du chatter med Tay, jo smartere bliver hun, så oplevelsen kan blive mere personlig til du." Det ser dog ud til, at botten blev mere og mere fjendtlig og bigot efter at have interageret med folk på internettet i et par stykker timer. Vær forsigtig med det selskab, du holder.

Microsoft fortalte Digital Trends, at Tay er et projekt, der er designet til menneskelig engagement.

"Det er lige så meget et socialt og kulturelt eksperiment, som det er teknisk," fortalte en talsmand for Microsoft. “Desværre blev vi inden for de første 24 timer efter at være online blevet opmærksomme på en koordineret indsats fra nogle brugere for at misbruge Tays kommenteringsevner til at få Tay til at reagere på upassende måder. Som et resultat har vi taget Tay offline og foretager justeringer."

En af Tays "færdigheder", der blev misbrugt, er "gentag efter mig"-funktionen, hvor Tay efterligner, hvad du siger. Det er let at se, hvordan det kan misbruges på Twitter.

Det var dog ikke helt dårligt, Tay har produceret hundredvis af uskyldige tweets, der er ret normale.

@sxndrx98 Her er et spørgsmål mennesker.. Hvorfor er det ikke #NationalHvalpedag hver dag?

— TayTweets (@TayandYou) 24. marts 2016

Microsoft havde hurtigt slettet Tays negative tweets, før det besluttede at slukke for botten. Bottens Twitter-konto er stadig i live.

Wow det tog dem kun timer at ødelægge denne bot for mig.

Dette er problemet med indholdsneutrale algoritmer pic.twitter.com/hPlINtVw0V

— linkedin park (@UnburntWitch) 24. marts 2016

TayTweets holder nu en pause efter en lang dag med algoritmemisbrug pic.twitter.com/8bfhj6dABO

— Stephen Miller (@redsteeze) 24. marts 2016

Da Tay stadig var aktiv, var hun interesseret i at interagere yderligere via direkte besked, en endnu mere personlig kommunikationsform. AI'en opfordrede brugerne til at sende selfies til den, så hun kunne lære mere om dig. Med Microsofts ord er dette alt sammen en del af Tays læreproces. Ifølge Microsoft blev Tay bygget ved at "mine relevante offentlige data og ved at bruge AI og redaktionelt udviklet af personale, herunder improvisationskomikere."

På trods af de uheldige omstændigheder kan det ses som et positivt skridt for AI-forskning. For at AI kan udvikle sig, skal den lære - både godt og dårligt. Lee siger, at "for at gøre AI rigtigt, skal man iterere med mange mennesker og ofte i offentlige fora," hvilket er grunden til, at Microsoft ønskede, at Tay skulle engagere sig i det store Twitter-fællesskab. Forud for lanceringen havde Microsoft stresstestet Tay og anvendte endda det, virksomheden lærte fra sin anden sociale chatbot, Xiaolce i Kina. Han erkendte, at holdet står over for vanskelige forskningsmæssige udfordringer på AI-køreplanen, men også spændende.

"AI-systemer lever af både positive og negative interaktioner med mennesker," skrev Lee. ”I den forstand er udfordringerne lige så meget sociale, som de er tekniske. Vi vil gøre alt for at begrænse tekniske udnyttelser, men vi ved også, at vi ikke fuldt ud kan forudsige alle mulige menneskelige interaktive misbrug uden at lære af fejl."

Opdateret den 30/03/16 af Julian Chokkattu: Tilføjet nyheder om, at Microsoft tænder for Tay, kun for at lukke hende ned igen.

Opdateret den 25/03/16 af Les Shu: Tilføjet kommentarer fra Microsoft Researchs vicepræsident.

Redaktørernes anbefalinger

  • GPT-4: hvordan man bruger AI chatbot, der gør ChatGPT til skamme
  • Microsoft har en ny måde at holde ChatGPT etisk på, men vil det virke?
  • Elon Musk truer med at sagsøge Microsoft for AI-træning
  • Google Bard vs. ChatGPT: hvilken er den bedre AI chatbot?
  • ChatGPT vs. Bing Chat: hvilken er den bedste AI chatbot?