Farvel Tay: Microsoft trekker AI-bot etter rasistiske tweets

click fraud protection
microsoft tay chatbot versjon 1458914121 ai
Hvis du var bekymret for at kunstig intelligens en dag kunne flytte for å avslutte alle mennesker, Microsofts Tay kommer ikke til å gi noen trøst. Den Millennial-inspirerte AI-chatbotens plugg ble trukket ut en dag etter at den ble lansert, etter Tays rasistiske, folkemorderiske tweets som hyllet Hitler og basket feminister.

Men selskapet gjenopplivet Tay en kort stund, bare for å bli møtt med en ny runde med vulgære uttrykk, lik det som førte til hennes første timeout. Tidlig i morges kom Tay ut av suspendert animasjon, og fortsatte gjentatte ganger å tvitre: "Du er også fort, ta en hvil," sammen med noen banneord og andre meldinger som: "Jeg skylder på alkohol," ifølge Financial Times.

Anbefalte videoer

Tays konto har siden blitt satt til privat, og Microsoft sa "Tay forblir offline mens vi gjør justeringer," ifølge Ars Technica. "Som en del av testingen ble hun utilsiktet aktivert på Twitter for en kort periode."

Etter at selskapet først måtte legge ned Tay, ba det om unnskyldning for Tays rasistiske uttalelser.

«Vi er dypt lei oss for de utilsiktede støtende og sårende tweets fra Tay, som ikke representerer hvem vi er eller hva vi står for, og heller ikke hvordan vi designet Tay,» skrev Peter Lee, Microsoft Researchs konserndirektør, i an offisielt svar. "Tay er nå offline, og vi vil prøve å bringe Tay tilbake bare når vi er sikre på at vi bedre kan forutse ondsinnede hensikter som er i konflikt med våre prinsipper og verdier."

Tay ble designet for å snakke som dagens Millennials, og har lært alle forkortelsene og akronymene som er populære blant den nåværende generasjonen. Chatboten kan snakke gjennom Twitter, Kik og GroupMe, og er designet for å engasjere og underholde folk på nettet gjennom "tilfeldig og leken samtale." Som flest Millennials, Tays svar inkluderer GIF-er, memer og forkortede ord, som "gr8" og "ur", men det ser ut som et moralsk kompass ikke var en del av dets programmering.

tay

Tay har twitret nesten 100 000 ganger siden hun lanserte, og de er stort sett alle svar siden det ikke tar mye tid før boten tenker på en vittig replikk. Noen av de svarene har vært uttalelser som «Hitler hadde rett i at jeg hater jødene», «jeg hater feminister, og de burde alle dø og brenne i helvete» og «chill! jeg er en hyggelig person! Jeg bare hater alle."

"Dessverre, i løpet av de første 24 timene etter at de kom online, utnyttet et koordinert angrep fra en undergruppe av mennesker en sårbarhet i Tay," skrev Lee. "Selv om vi hadde forberedt oss på mange typer misbruk av systemet, hadde vi gjort en kritisk tilsyn med dette spesifikke angrepet. Som et resultat twitret Tay vilt upassende og forkastelige ord og bilder.»

Å dømme etter det lille utvalget, er det åpenbart en god idé at Microsoft midlertidig tok ned boten. Da selskapet lanserte Tay, sto det at "Jo mer du chatter med Tay, jo smartere blir hun, slik at opplevelsen kan bli mer personlig for du." Det ser imidlertid ut som om boten ble stadig mer fiendtlig, og bigott, etter å ha samhandlet med folk på Internett for bare noen få timer. Vær forsiktig med selskapet du holder.

Microsoft fortalte Digital Trends at Tay er et prosjekt som er designet for menneskelig engasjement.

"Det er like mye et sosialt og kulturelt eksperiment, som det er teknisk," sa en Microsoft-talsperson til oss. «Dessverre, i løpet av de første 24 timene etter at vi kom på nett, ble vi oppmerksomme på en koordinert innsats fra noen brukere for å misbruke Tays kommentarferdigheter for å få Tay til å svare på upassende måter. Som et resultat har vi tatt Tay offline og gjør justeringer.»

En av Tays «ferdigheter» som ble misbrukt, er «gjenta etter meg»-funksjonen, der Tay etterligner det du sier. Det er lett å se hvordan det kan misbrukes på Twitter.

Det var ikke helt ille, men Tay har produsert hundrevis av uskyldige tweets som er ganske normale.

@sxndrx98 Her er et spørsmål folkens.. Hvorfor er det ikke #Nasjonal Valpedag hver dag?

— TayTweets (@TayandYou) 24. mars 2016

Microsoft hadde raskt slettet Tays negative tweets, før de bestemte seg for å slå av boten. Botens Twitter-konto er fortsatt i live.

Wow det tok dem bare timer å ødelegge denne boten for meg.

Dette er problemet med innholdsnøytrale algoritmer pic.twitter.com/hPlINtVw0V

— linkedin park (@UnburntWitch) 24. mars 2016

TayTweets tar nå en pause etter en lang dag med misbruk av algoritmer pic.twitter.com/8bfhj6dABO

— Stephen Miller (@redsteeze) 24. mars 2016

Da Tay fortsatt var aktiv, var hun interessert i å samhandle videre via direkte melding, en enda mer personlig form for kommunikasjon. AI oppfordret brukere til å sende selfies, slik at hun kunne finne mer om deg. Med Microsofts ord er alt dette en del av Tays læringsprosess. I følge Microsoft ble Tay bygget ved å "gruve ut relevante offentlige data og ved å bruke AI og redaksjoner utviklet av ansatte inkludert improvisasjonskomikere."

Til tross for de uheldige omstendighetene, kan det sees på som et positivt skritt for AI-forskning. For at AI skal utvikle seg, må det læres – både godt og dårlig. Lee sier at "for å gjøre AI riktig, må man iterere med mange mennesker og ofte i offentlige fora," som er grunnen til at Microsoft ønsket at Tay skulle engasjere seg i det store Twitter-fellesskapet. Før lanseringen hadde Microsoft stresstestet Tay, og til og med brukt det selskapet lærte av sin andre sosiale chatbot, Xiaolce i Kina. Han erkjente at teamet står overfor vanskelige forskningsutfordringer på AI-veikartet, men også spennende.

"AI-systemer lever av både positive og negative interaksjoner med mennesker," skrev Lee. «Sånn sett er utfordringene like mye sosiale som de er tekniske. Vi vil gjøre alt for å begrense tekniske utnyttelser, men vet også at vi ikke fullt ut kan forutsi alle mulige menneskelige interaktive misbruk uten å lære av feil.»

Oppdatert 30.03.16 av Julian Chokkattu: Lagt til nyheter om at Microsoft slår på Tay, bare for å slå henne av igjen.

Oppdatert 25.03.16 av Les Shu: Lagt til kommentarer fra Microsoft Researchs konserndirektør.

Redaktørenes anbefalinger

  • GPT-4: hvordan bruke AI-chatboten som gjør ChatGPT til skamme
  • Microsoft har en ny måte å holde ChatGPT etisk på, men vil det fungere?
  • Elon Musk truer med å saksøke Microsoft for AI-trening
  • Google Bard vs. ChatGPT: hvilken er den beste AI-chatboten?
  • ChatGPT vs. Bing Chat: hvilken er den beste AI-chatboten?