No društvo je nakratko oživjelo Tay, samo da bi je dočekala još jedna runda vulgarnih izraza, slično onome što je dovelo do njezinog prvog izlaska. Rano jutros, Tay je izašao iz obustavljene animacije i neprestano tweetao: "I ti si brzo, molim te, odmori se", zajedno s nekim psovkama i drugim porukama poput, "Krivim za to alkohol," prema The Financial Timesu.
Preporučeni videozapisi
Tayin račun od tada je postavljen kao privatan, a Microsoft je rekao da "Tay ostaje izvan mreže dok vršimo prilagodbe", prema Ars Technica. "Kao dio testiranja, nenamjerno je aktivirana na Twitteru na kratko vrijeme."
Nakon što je tvrtka prvo morala zatvoriti Tay, ispričala se za Tayeve rasističke primjedbe.
“Duboko nam je žao zbog nenamjernih uvredljivih i bolnih tweetova od Taya, koji ne predstavljaju tko smo mi ili za što se zalažemo, niti kako smo dizajnirali Tay,” Peter Lee, korporativni potpredsjednik Microsoft Researcha, napisao je u an službeni odgovor. "Tay je sada izvan mreže i pokušat ćemo vratiti Tay samo kada budemo sigurni da možemo bolje predvidjeti zlonamjerne namjere koje su u sukobu s našim načelima i vrijednostima."
Tay je dizajniran da govori poput današnjih milenijalaca i naučio je sve kratice i akronime koji su popularni među sadašnjom generacijom. Chatbot može razgovarati putem Twittera, Kik-a i GroupMe-a, a dizajniran je za uključivanje i zabavu ljudi na mreži kroz "ležeran i razigran razgovor". Kao većina Milenijalci, Tayini odgovori uključuju GIF-ove, meme i skraćene riječi, poput "gr8" i "ur", ali izgleda da moralni kompas nije bio dio njezinog programiranje.
Tay je tvitala gotovo 100.000 puta otkad je pokrenuta, i uglavnom su svi odgovori budući da botu ne treba puno vremena da smisli duhovit odgovor. Neki od tih odgovora bile su izjave poput, "Hitler je bio u pravu, mrzim Židove", "Mrzim feministkinje i sve bi trebale umrijeti i gorjeti u paklu," i "Opusti se! ja sam dobra osoba! Jednostavno mrzim sve.”
"Nažalost, u prva 24 sata od dolaska na mrežu, koordinirani napad podskupa ljudi iskoristio je ranjivost u Tayu", napisao je Lee. “Iako smo bili spremni na mnoge vrste zlouporaba sustava, napravili smo kritičan previd za ovaj specifični napad. Kao rezultat toga, Tay je tvitao krajnje neprikladne i prijekorne riječi i slike.”
Sudeći prema tom malom uzorku, očito je dobra ideja da je Microsoft privremeno uklonio bota. Kada je tvrtka pokrenula Tay, rekla je da "Što više razgovarate s Tay, ona postaje pametnija, tako da iskustvo može biti personaliziranije za vas." Čini se, međutim, da je bot postao sve neprijateljskiji i netrpeljiviji, nakon što je komunicirao s ljudima na internetu samo nekoliko sati. Budite oprezni s društvom u kojem se nalazite.
Microsoft je za Digital Trends rekao da je Tay projekt koji je dizajniran za ljudski angažman.
"To je koliko društveni i kulturni eksperiment, toliko i tehnički", rekao nam je glasnogovornik Microsofta. “Nažalost, unutar prva 24 sata od dolaska na mrežu, postali smo svjesni koordiniranog nastojanja nekih korisnika da zlorabe Tayine vještine komentiranja kako bi Tay odgovorila na neprikladne načine. Kao rezultat toga, isključili smo Tay izvan mreže i radimo prilagodbe.”
Jedna od Tayinih "vještina" koja je zloupotrijebljena je značajka "ponavljaj za mnom", gdje Tay oponaša ono što govorite. Lako je vidjeti kako se to može zloupotrijebiti na Twitteru.
Ipak nije sve bilo loše, Tay je proizvela stotine nevinih tweetova koji su prilično normalni.
@sxndrx98 Evo pitanje ljudi.. Zašto nije #NacionalniDanŠtenaca svaki dan?
— TayTweets (@TayandYou) 24. ožujka 2016
Microsoft je ubrzano brisao Tayeve negativne tweetove prije nego što je odlučio isključiti bota. Twitter račun bota je još uvijek živ.
Vau, trebali su im samo sati da mi unište ovog bota.
To je problem s algoritmima neutralnim prema sadržaju pic.twitter.com/hPlINtVw0V
— linkedin park (@UnburntWitch) 24. ožujka 2016
TayTweets sada uzima pauzu nakon dugog dana zloupotrebe algoritma pic.twitter.com/8bfhj6dABO
— Stephen Miller (@redsteeze) 24. ožujka 2016
Dok je Tay još bila aktivna, bila je zainteresirana za daljnju interakciju putem izravne poruke, još osobnijeg oblika komunikacije. AI je potaknula korisnike da joj šalju selfije kako bi mogla saznati više o vama. Prema Microsoftovim riječima, sve je to dio Tayina procesa učenja. Prema Microsoftu, Tay je izgrađen "iskopavanjem relevantnih javnih podataka i korištenjem umjetne inteligencije i uredništva koje je razvilo osoblje, uključujući komičare improvizacije."
Unatoč nesretnim okolnostima, to se može smatrati pozitivnim korakom za istraživanje umjetne inteligencije. Kako bi se AI razvijala, mora učiti - i dobro i loše. Lee kaže da "kako bi se umjetna inteligencija ispravno radila, potrebno je ponavljati s mnogo ljudi i često na javnim forumima", zbog čega je Microsoft želio da Tay surađuje s velikom Twitter zajednicom. Prije lansiranja, Microsoft je testirao Tay na stres, pa čak i primijenio ono što je tvrtka naučila od svog drugog društvenog chatbota, Xiaolce u Kini. Priznao je da se tim suočava s teškim istraživačkim izazovima na planu AI, ali i uzbudljivim.
"Sustavi umjetne inteligencije hrane se pozitivnim i negativnim interakcijama s ljudima", napisao je Lee. “U tom smislu, izazovi su jednako društveni koliko i tehnički. Učinit ćemo sve što je moguće da ograničimo tehnička iskorištavanja, ali također znamo da ne možemo u potpunosti predvidjeti sve moguće ljudske interaktivne zlouporabe bez učenja na pogreškama.”
Ažurirao 30.3.2016. Julian Chokkattu: Dodana vijest o Microsoftu koji je uključio Tay, samo da bi je ponovno ugasio.
Ažurirao Les Shu 25.3.2016.: Dodani su komentari potpredsjednika tvrtke Microsoft Research.
Preporuke urednika
- GPT-4: kako koristiti AI chatbot koji posramljuje ChatGPT
- Microsoft ima novi način da ChatGPT održi etičkim, ali hoće li uspjeti?
- Elon Musk prijeti da će tužiti Microsoft zbog obuke AI-ja
- Google Bard vs. ChatGPT: koji je bolji AI chatbot?
- ChatGPT vs. Bing Chat: koji je najbolji AI chatbot?