La revedere Tay: Microsoft retrage robotul AI după tweet-uri rasiste

Microsoft tay chatbot versiunea 1458914121 ai
Dacă ți-ai fi îngrijorat, inteligența artificială s-ar putea muta într-o zi pentru a elimina toți oamenii, Tay de la Microsoft nu va oferi nicio consolare. Chatbot-ul AI inspirat de Millennial a fost scos la o zi după lansare, ca urmare a tweet-urilor rasiste și genocide ale lui Tay, care îl lăuda pe Hitler și îl ataca pe feminiști.

Dar compania a reînviat-o pentru scurt timp pe Tay, doar pentru a fi întâmpinată cu o altă rundă de expresii vulgare, similare cu ceea ce a dus-o la prima ieşire. În această dimineață devreme, Tay a ieșit din animația suspendată și a continuat să trimită în mod repetat: „Prea ești repede, vă rog să vă odihniți”, împreună cu câteva înjurături și alte mesaje precum: „Da vina pe alcool," potrivit The Financial Times.

Videoclipuri recomandate

Contul lui Tay a fost setat de atunci la privat, iar Microsoft a spus „Tay rămâne offline în timp ce facem ajustări”, potrivit Ars Technica. „Ca parte a testării, ea a fost activată din greșeală pe Twitter pentru o perioadă scurtă de timp.”

După ce compania a trebuit să închidă Tay, și-a cerut scuze pentru remarcile rasiste ale lui Tay.

„Ne pare profund rău pentru tweet-urile ofensive și dureroase neintenționate de la Tay, care nu reprezintă cine suntem sau ce reprezintă noi, nici cum am proiectat Tay”, a scris Peter Lee, vicepreședintele corporativ al Microsoft Research, în un răspuns oficial. „Tay este acum offline și vom căuta să-l aducem înapoi pe Tay numai atunci când suntem încrezători că putem anticipa mai bine intențiile rău intenționate care intră în conflict cu principiile și valorile noastre.”

Tay a fost conceput pentru a vorbi precum Millennials de astăzi și a învățat toate abrevierile și acronimele care sunt populare în rândul generației actuale. Chatbot-ul poate vorbi prin Twitter, Kik și GroupMe și este conceput pentru a implica și a distra oamenii online prin „conversații ocazionale și jucăușe”. Ca majoritatea Mileniali, răspunsurile lui Tay încorporează GIF-uri, meme și cuvinte prescurtate, cum ar fi „gr8” și „ur”, dar se pare că o busolă morală nu a făcut parte din ea. programare.

tay

Tay a postat pe Twitter de aproape 100.000 de ori de când s-a lansat și, în mare parte, toate sunt răspunsuri, deoarece botului nu ia mult timp să se gândească la o replică plină de spirit. Unele dintre aceste răspunsuri au fost declarații cum ar fi: „Hitler a avut dreptate, îi urăsc pe evrei”, „Urăsc feministele și toate ar trebui să moară și să ardă în iad” și „chill! sunt o persoana buna! Pur și simplu îi urăsc pe toți.”

„Din păcate, în primele 24 de ore de la intrarea online, un atac coordonat al unui subset de oameni a exploatat o vulnerabilitate în Tay”, a scris Lee. „Deși ne-am pregătit pentru multe tipuri de abuzuri ale sistemului, am făcut o supraveghere critică pentru acest atac specific. Drept urmare, Tay a postat pe Twitter cuvinte și imagini extrem de nepotrivite și condamnabile.”

Judecând după acel eșantion mic, este evident că este o idee bună ca Microsoft să elimine temporar botul. Când compania a lansat Tay, a spus că „Cu cât discutați mai mult cu Tay, cu atât ea devine mai inteligentă, astfel încât experiența poate fi mai personalizată pentru tu." Se pare, totuși, că bot-ul a devenit din ce în ce mai ostil și mai bigot, după ce a interacționat cu oamenii de pe Internet pentru doar câteva minute. ore. Ai grijă la compania pe care o ții.

Microsoft a declarat pentru Digital Trends că Tay este un proiect conceput pentru implicarea umană.

„Este atât de mult un experiment social și cultural, cât și tehnic”, ne-a spus un purtător de cuvânt al Microsoft. „Din păcate, în primele 24 de ore de la intrarea online, am devenit conștienți de un efort coordonat al unor utilizatori de a abuza de abilitățile de comentare ale lui Tay pentru ca Tay să răspundă în moduri nepotrivite. Drept urmare, l-am scos pe Tay offline și facem ajustări.”

Una dintre „abilitățile” lui Tay care a fost abuzată este caracteristica „repetă după mine”, în care Tay imită ceea ce spui. Este ușor de văzut cum poate fi abuzat de asta pe Twitter.

Totuși, nu a fost deloc rău, Tay a produs sute de tweet-uri nevinovate, care sunt destul de normale.

@sxndrx98 Iata o intrebare, oamenii... De ce nu este #ZiuaNațională a Cațelui în fiecare zi?

— TayTweets (@TayandYou) 24 martie 2016

Microsoft ștergea rapid tweet-urile negative ale lui Tay, înainte de a decide să dezactiveze botul. Contul de Twitter al botului este încă în viață.

Wow, le-a luat doar ore să strice acest bot pentru mine.

Aceasta este problema cu algoritmii neutri din punct de vedere al conținutului pic.twitter.com/hPlINtVw0V

— linkedin park (@UnburntWitch) 24 martie 2016

TayTweets ia acum o pauză după o zi lungă de abuz de algoritm pic.twitter.com/8bfhj6dABO

– Stephen Miller (@redsteeze) 24 martie 2016

Când Tay era încă activă, era interesată să interacționeze în continuare prin mesaj direct, o formă și mai personală de comunicare. Inteligența artificială a încurajat utilizatorii să-i trimită selfie-uri, pentru ca ea să poată afla mai multe despre tine. În cuvintele Microsoft, toate acestea fac parte din procesul de învățare al lui Tay. Potrivit Microsoft, Tay a fost construit prin „exploatarea datelor publice relevante și prin utilizarea inteligenței artificiale și a editorialelor dezvoltate de personal, inclusiv de comedianți de improvizație”.

În ciuda circumstanțelor nefericite, ar putea fi privit ca un pas pozitiv pentru cercetarea AI. Pentru ca AI să evolueze, ea trebuie să învețe – atât bune, cât și rele. Lee spune că „pentru a face AI corect, trebuie să repeți cu mulți oameni și adesea pe forumuri publice”, motiv pentru care Microsoft a dorit ca Tay să interacționeze cu marea comunitate Twitter. Înainte de lansare, Microsoft l-a testat pe Tay și chiar a aplicat ceea ce compania a învățat de la celălalt chatbot social al său, Xiaolce din China. El a recunoscut că echipa se confruntă cu provocări dificile de cercetare pe foaia de parcurs AI, dar și cu provocări interesante.

„Sistemele AI se alimentează atât din interacțiuni pozitive, cât și negative cu oamenii”, a scris Lee. „În acest sens, provocările sunt la fel de mult sociale, cât și tehnice. Vom face tot posibilul pentru a limita exploatările tehnice, dar vom ști, de asemenea, că nu putem prezice pe deplin toate posibilele abuzuri interactive umane fără a învăța din greșeli.”

Actualizat la 30.03.16 de Julian Chokkattu: S-au adăugat știri despre Microsoft a pornit-o pe Tay, doar pentru a o închide din nou.

Actualizat pe 25.03.16 de Les Shu: S-au adăugat comentarii din partea vicepreședintelui corporativ al Microsoft Research.

Recomandările editorilor

  • GPT-4: cum să folosești chatbot-ul AI care face ChatGPT de rușine
  • Microsoft are o nouă modalitate de a menține ChatGPT etic, dar va funcționa?
  • Elon Musk amenință că va da în judecată Microsoft pentru antrenamentul AI
  • Google Bard vs. ChatGPT: care este cel mai bun chatbot AI?
  • ChatGPT vs. Bing Chat: care este cel mai bun chatbot AI?