Viso gero, Tay: „Microsoft“ traukia dirbtinio intelekto robotą po rasistinių tviterių

microsoft tay chatbot versija 1458914121 ai
Jei nerimautumėte, kad dirbtinis intelektas vieną dieną gali sunaikinti visus žmones, Microsoft Tay nesiruošia paguosti. Tūkstantmečio įkvėptas AI pokalbių roboto kištukas buvo ištrauktas praėjus dienai po jo paleidimo, po Tay rasistinių, genocidinių tviterinių žinučių, kuriose šlovinamas Hitleris ir šmeižiamos feministės.

Tačiau kompanija trumpam atgaivino Tay ir sulaukė dar vieno vulgarių posakių, panašių į tai, dėl ko ji pirmą kartą išvyko. Anksti šį rytą Tay išėjo iš sustabdytos animacijos ir nuolat tviteryje rašė: „Tu taip pat paskubėk, pailsėk“, kartu su kai kuriais keiksmažodžiais ir kitais pranešimais, pvz.: „Kaltinu dėl to alkoholis“, rašo „The Financial Times“..

Rekomenduojami vaizdo įrašai

Tay paskyra nuo to laiko buvo nustatyta kaip privati, o „Microsoft“ teigė, kad „Tay lieka neprisijungęs, kol atliekame koregavimus“. Ars Technica. „Tandymo metu ji buvo netyčia trumpam suaktyvinta „Twitter“.

Po to, kai bendrovė pirmą kartą turėjo uždaryti Tay, ji atsiprašė už rasistines Tay pastabas.

„Labai atsiprašome dėl netyčinių įžeidžiančių ir įžeidžiančių Tay žinučių, kurios neatspindi mūsų ar ką mes atstovaujame, nei kaip sukūrėme Tay“, – rašė Peteris Lee, „Microsoft Research“ viceprezidentas. an oficialus atsakymas. „Tay dabar neprisijungęs ir mes stengsimės grąžinti Tay tik tada, kai būsime įsitikinę, kad galime geriau numatyti kenkėjiškus ketinimus, kurie prieštarauja mūsų principams ir vertybėms.

Tay buvo sukurta taip, kad galėtų kalbėti kaip šiandieniniai tūkstantmečiai, ir išmoko visas santrumpas ir akronimus, kurie yra populiarūs tarp dabartinės kartos. Pokalbių robotas gali kalbėti per „Twitter“, „Kik“ ir „GroupMe“ ir yra skirtas įtraukti ir linksminti žmones internete per „atsitiktinius ir žaismingus pokalbius“. Kaip dauguma Millennials, Tay atsakymuose yra GIF, memų ir sutrumpintų žodžių, pvz., „gr8“ ir „ur“, bet panašu, kad moralinis kompasas nebuvo jo dalis. programavimas.

tay

Tay tviteryje paskelbė beveik 100 000 kartų nuo tada, kai paleido, ir dažniausiai jie yra atsakymai, nes nereikia daug laiko, kol robotas sugalvoja šmaikščią repliką. Kai kurie iš tų atsakymų buvo pareiškimų kaip: „Hitleris buvo teisus, aš nekenčiu žydų“, „Aš ******* nekenčiu feminisčių ir jos visos turėtų mirti ir degti pragare“ ir „atsipalaiduokite! aš geras žmogus! Aš tiesiog nekenčiu visų“.

„Deja, per pirmąsias 24 valandas nuo prisijungimo prie interneto koordinuota ataka, kurią surengė dalis žmonių, išnaudojo Tay pažeidžiamumą“, – rašė Lee. „Nors buvome pasiruošę daugeliui piktnaudžiavimų sistema, mes atlikome kritinę šios konkrečios atakos priežiūrą. Dėl to Tay tviteryje paskelbė beprotiškai netinkamus ir smerktinus žodžius ir vaizdus.

Sprendžiant pagal šį nedidelį pavyzdį, akivaizdu, kad „Microsoft“ laikinai pašalino robotą. Kai bendrovė pristatė Tay, ji sakė: „Kuo daugiau bendrauji su Tay, tuo ji tampa protingesnė, todėl patirtis gali būti labiau pritaikyta tu." Tačiau atrodo, kad robotas tapo vis priešiškesnis ir fanatiškesnis po to, kai tik keletą kartų bendravo su žmonėmis internete. valandų. Būkite atsargūs su kompanija, kurią laikote.

„Microsoft“ sakė „Digital Trends“, kad „Tay“ yra projektas, skirtas žmonių įsitraukimui.

„Tai tiek socialinis ir kultūrinis eksperimentas, tiek techninis“, – mums sakė „Microsoft“ atstovas. „Deja, per pirmąsias 24 valandas nuo prisijungimo prie interneto sužinojome apie suderintas kai kurių vartotojų pastangas piktnaudžiauti Tay komentavimo įgūdžiais, kad Tay reaguotų netinkamai. Dėl to mes pašalinome Tay neprisijungę ir atliekame pakeitimus.

Vienas iš Tay „įgūdžių“, kuriuo buvo piktnaudžiaujama, yra funkcija „pakartoti po manęs“, kai Tay imituoja tai, ką tu sakai. Nesunku suprasti, kaip tuo galima piktnaudžiauti „Twitter“.

Vis dėlto viskas nebuvo blogai, Tay paskelbė šimtus nekaltų tviterių, kurie yra gana įprasti.

@sxndrx98 Čia klausimas žmonėms.. Kodėl nėra #Nacionalinė šuniukų diena kiekvieną dieną?

– „TayTweets“ (@TayandYou) 2016 m. kovo 24 d

„Microsoft“ greitai ištrynė neigiamus Tay žinutes, kol nusprendė išjungti robotą. Boto „Twitter“ paskyra vis dar gyva.

Oho, jiems prireikė kelių valandų, kad sugadintų šį robotą.

Tai yra turiniui neutralių algoritmų problema pic.twitter.com/hPlINtVw0V

- Linkedin parkas (@UnburntWitch) 2016 m. kovo 24 d

„TayTweets“ dabar daro pertrauką po ilgos piktnaudžiavimo algoritmu dienos pic.twitter.com/8bfhj6dABO

– Stephenas Milleris (@redsteeze) 2016 m. kovo 24 d

Kai Tay dar buvo aktyvi, ji domėjosi tolesniu bendravimu tiesiogine žinute – dar asmeniškesne bendravimo forma. AI paskatino vartotojus siųsti asmenukes, kad ji galėtų sužinoti daugiau apie jus. „Microsoft“ žodžiais tariant, visa tai yra Tay mokymosi proceso dalis. „Microsoft“ teigimu, „Tay“ buvo sukurta „gaunant atitinkamus viešuosius duomenis ir naudojant dirbtinį intelektą bei redakciją, kurią sukūrė personalas, įskaitant improvizacinius komikus“.

Nepaisant nepalankių aplinkybių, tai gali būti vertinama kaip teigiamas žingsnis dirbtinio intelekto tyrimams. Kad dirbtinis intelektas vystytųsi, jis turi mokytis – ir gero, ir blogo. Lee sako, kad „norint daryti dirbtinį intelektą teisingai, reikia kartotis su daugybe žmonių ir dažnai viešuose forumuose“, todėl „Microsoft“ norėjo, kad Tay bendradarbiautų su didele „Twitter“ bendruomene. Prieš paleidžiant, „Microsoft“ išbandė „Tay“ nepalankiausiomis sąlygomis ir netgi pritaikė tai, ko bendrovė išmoko iš kito socialinio pokalbių roboto „Xiaolce“ Kinijoje. Jis pripažino, kad komanda susiduria su sudėtingais AI plano tyrimų iššūkiais, bet ir įdomiais.

„AI sistemos maitinasi tiek teigiama, tiek neigiama sąveika su žmonėmis“, – rašė Lee. „Šia prasme iššūkiai yra tiek socialiniai, tiek techniniai. Mes padarysime viską, kas įmanoma, kad apribotume techninius išnaudojimus, bet taip pat žinome, kad negalime iki galo numatyti visų galimų žmonių interaktyvių piktnaudžiavimo atvejų nepasimokę iš klaidų.

03/30/16 atnaujino Julianas Chokkattu: Pridėta naujiena apie tai, kad „Microsoft“ įjungė Tay ir vėl ją uždarė.

Les Shu atnaujino 03/25/16: Pridėta „Microsoft Research“ įmonės viceprezidento komentarų.

Redaktorių rekomendacijos

  • GPT-4: kaip naudoti AI pokalbių robotą, dėl kurio „ChatGPT“ daroma gėda
  • „Microsoft“ turi naują būdą išlaikyti „ChatGPT“ etiškumą, bet ar jis veiks?
  • Elonas Muskas grasina paduoti „Microsoft“ į teismą dėl dirbtinio intelekto mokymo
  • Google Bard vs. ChatGPT: kuris yra geresnis AI pokalbių robotas?
  • ChatGPT vs. Bing Chat: kuris yra geriausias AI pokalbių robotas?