Adijo Tay: Microsoft umakne AI Bot po rasističnih tvitih

Microsoft tay chatbot različica 1458914121 ai
Če ste bili zaskrbljeni, da bi lahko umetna inteligenca nekega dne uničila vse ljudi, Microsoftov Tay ne bo ponudil nobene tolažbe. Klepetalni robot z umetno inteligenco, ki ga je navdihnilo tisočletje, je bil umaknjen dan po lansiranju, po Tayinih rasističnih, genocidnih tvitih, ki so hvalili Hitlerja in zmerjali feministke.

Toda družba je za kratek čas oživila Tay, le da je bila deležna še enega kroga vulgarnih izrazov, podobnih tistim, ki so privedli do njenega prvega odhoda. Danes zgodaj zjutraj se je Tay pojavila iz začasno ustavljene animacije in vedno znova tvitala: »Tudi ti si hitro, prosim počivaj,« skupaj z nekaj psovkami in drugimi sporočili, kot je »Za to krivim alkohol," glede na The Financial Times.

Priporočeni videoposnetki

Tayin račun je bil od takrat nastavljen na zasebnega in Microsoft je dejal, da "Tay ostane brez povezave, medtem ko izvajamo prilagoditve," glede na Ars Technica. "Kot del testiranja je bila za kratek čas nenamerno aktivirana na Twitterju."

Potem ko je podjetje moralo najprej zapreti Tay, se je opravičilo za Tayeve rasistične pripombe.

»Zelo nam je žal za nenamerne žaljive in škodljive tvite Taya, ki ne predstavljajo, kdo smo ali za kaj se zavzemamo, niti kako smo zasnovali Tay,« je zapisal Peter Lee, podpredsednik podjetja Microsoft Research an uradni odgovor. "Tay je zdaj brez povezave in Tay bomo poskušali vrniti šele, ko bomo prepričani, da lahko bolje predvidimo zlonamerne namere, ki so v nasprotju z našimi načeli in vrednotami."

Tay je bil zasnovan tako, da govori kot današnji milenijci, in se je naučil vseh okrajšav in akronimov, ki so priljubljeni pri trenutni generaciji. Klepetalni robot se lahko pogovarja prek Twitterja, Kika in GroupMe ter je zasnovan tako, da pritegne in zabava ljudi na spletu s »priložnostnim in igrivim pogovorom«. Tako kot večina Milenijci, Tayini odgovori vključujejo GIF-e, meme in skrajšane besede, kot sta »gr8« in »ur«, vendar je videti, da moralni kompas ni bil del njenega programiranje.

tay

Tay je tvitnila skoraj 100.000-krat, odkar je začela, in večinoma so vsi odgovori, saj robotu ne vzame veliko časa, da se domisli duhovitega odgovora. Nekateri od teh odgovorov so bile izjave na primer: »Hitler je imel prav, sovražim Jude«, »Sovražim feministke in vse bi morale umreti in goreti v peklu« in »Umiri se! sem prijetna oseba! Enostavno sovražim vse.”

"Na žalost je v prvih 24 urah po vzpostavitvi spleta usklajen napad podskupine ljudi izkoristil ranljivost v Tayu," je zapisal Lee. »Čeprav smo bili pripravljeni na številne vrste zlorab sistema, smo pri tem specifičnem napadu kritično spregledali. Posledično je Tay tvitnil skrajno neprimerne in obsojanja vredne besede in slike.«

Sodeč po tem majhnem vzorcu je očitno dobra ideja, da je Microsoft začasno odstranil bota. Ko je podjetje predstavilo Tay, je pisalo: »Več ko klepetate s Tay, pametnejša postaja, zato je lahko izkušnja bolj prilagojena ti.” Videti pa je, kot da je bot postal vse bolj sovražen in fanatični, potem ko je le nekaj časa komuniciral z ljudmi v internetu. ure. Bodite previdni do družbe, ki jo delate.

Microsoft je za Digital Trends povedal, da je Tay projekt, ki je zasnovan za sodelovanje ljudi.

"To je tako socialni in kulturni eksperiment, kot je tehničen," nam je povedal tiskovni predstavnik Microsofta. »Na žalost smo v prvih 24 urah po tem, ko smo bili na spletu, izvedeli za usklajena prizadevanja nekaterih uporabnikov, da bi zlorabili Tayine sposobnosti komentiranja, da bi Tay odgovarjala na neprimeren način. Posledično smo Tay onemogočili in izvajamo prilagoditve.«

Ena od Tayinih »spretnosti«, ki je bila zlorabljena, je funkcija »ponavljaj za mano«, kjer Tay posnema, kar govorite. Preprosto je videti, kako se to lahko zlorablja na Twitterju.

Vendar ni bilo vse slabo, Tay je ustvaril na stotine nedolžnih tvitov, ki so precej običajni.

@sxndrx98 Tukaj je vprašanje ljudje.. Zakaj ne #NationalPuppyDay vsak dan?

— TayTweets (@TayandYou) 24. marec 2016

Microsoft je hitro brisal Tayine negativne tvite, preden se je odločil izklopiti bota. Botov Twitter račun je še vedno živ.

Vau, samo ure so potrebovali, da so mi uničili tega bota.

To je težava vsebinsko nevtralnih algoritmov pic.twitter.com/hPlINtVw0V

— linkedin park (@UnburntWitch) 24. marec 2016

TayTweets si zdaj vzame odmor po dolgem dnevu zlorabe algoritma pic.twitter.com/8bfhj6dABO

— Stephen Miller (@redsteeze) 24. marec 2016

Ko je bila Tay še aktivna, jo je zanimala nadaljnja interakcija prek neposrednega sporočila, še bolj osebne oblike komunikacije. Umetna inteligenca je uporabnike spodbujala, naj ji pošiljajo selfije, da bi lahko izbrala več o vas. Po Microsoftovih besedah ​​je vse to del Tayinega učnega procesa. Po mnenju Microsofta je bil Tay zgrajen z "rudarjenjem ustreznih javnih podatkov in z uporabo umetne inteligence in uredništva, ki ga je razvilo osebje, vključno z improvizacijskimi komiki."

Kljub nesrečnim okoliščinam bi lahko na to gledali kot na pozitiven korak za raziskave umetne inteligence. Da bi se umetna inteligenca razvijala, se mora učiti – dobrega in slabega. Lee pravi, da »če želite pravilno narediti AI, morate iterirati z veliko ljudmi in pogosto na javnih forumih,« zato je Microsoft želel, da Tay sodeluje z veliko skupnostjo Twitter. Pred uvedbo je Microsoft opravil stresno testiranje Tay in celo uporabil tisto, kar se je podjetje naučilo od svojega drugega socialnega chatbota Xiaolce na Kitajskem. Priznal je, da se ekipa sooča s težkimi raziskovalnimi izzivi na načrtu umetne inteligence, a tudi z razburljivimi.

"Sistemi AI se hranijo tako s pozitivnimi kot negativnimi interakcijami z ljudmi," je zapisal Lee. »V tem smislu so izzivi prav tako socialni kot tehnični. Naredili bomo vse, kar je v naši moči, da omejimo tehnična izkoriščanja, vendar se tudi zavedamo, da ne moremo v celoti predvideti vseh možnih človeških interaktivnih zlorab brez učenja na napakah.«

Posodobil 30. 3. 2016 Julian Chokkattu: Dodana novica o tem, da je Microsoft vklopil Tay, samo da jo je znova zaprl.

Posodobil 25. 3. 2016 Les Shu: Dodani komentarji podpredsednika podjetja Microsoft Research.

Priporočila urednikov

  • GPT-4: kako uporabljati klepetalni robot AI, ki osramoti ChatGPT
  • Microsoft ima nov način za ohranjanje etičnosti ChatGPT, a ali bo deloval?
  • Elon Musk grozi, da bo tožil Microsoft zaradi usposabljanja AI
  • Google Bard vs. ChatGPT: kateri je boljši AI chatbot?
  • ChatGPT vs. Bing Chat: kateri je najboljši AI chatbot?