Kuid seltskond taaselustas Tay korraks, kuid ta kohtas järjekordseid vulgaarseid väljendeid, mis olid sarnased sellega, mis viis tema esmakordse väljapääsuni. Täna varahommikul väljus Tay peatatud animatsioonist ja säutsus korduvalt: "Sina oled liiga ruttu, palun puhka," koos mõnede vandesõnade ja muude sõnumitega, nagu: "Ma süüdistan selles alkohol," vahendab The Financial Times.
Soovitatavad videod
Tay konto on sellest ajast peale seatud privaatseks ja Microsoft ütles, et "Tay jääb muudatuste tegemise ajaks võrguühenduseta." Ars Technica. "Testimise osana aktiveeriti ta Twitteris lühikeseks ajaks tahtmatult."
Pärast seda, kui ettevõte pidi Tay esmalt sulgema, vabandas ta Tay rassistlike märkuste pärast.
"Meil on sügavalt kahju Tay tahtmatute solvavate ja solvavate säutsude pärast, mis ei esinda seda, kes me oleme või seda, mille eest me seisame, ega ka seda, kuidas me Tay kujundasime,” kirjutas Microsoft Researchi ettevõtte asepresident Peter Lee. an ametlik vastus. "Tay on nüüd võrguühenduseta ja püüame Tay tagasi tuua ainult siis, kui oleme kindlad, et suudame paremini ennetada pahatahtlikke kavatsusi, mis on vastuolus meie põhimõtete ja väärtustega."
Tay loodi kõnelema nagu tänapäeva aastatuhandelised ja on õppinud ära kõik lühendid ja akronüümid, mis on praeguse põlvkonna seas populaarsed. Vestlusbot saab rääkida Twitteri, Kiki ja GroupMe kaudu ning on loodud inimeste kaasamiseks ja meelelahutuseks võrgus "juhusliku ja mängulise vestluse kaudu". Nagu enamus Millennials, Tay vastused sisaldavad GIF-e, meeme ja lühendatud sõnu, nagu "gr8" ja "ur", kuid tundub, et moraalne kompass ei olnud selle osa. programmeerimine.
Tay on pärast käivitamist säutsunud peaaegu 100 000 korda ja need on enamasti kõik vastused, kuna ei kulu palju aega, enne kui robot mõtleb vaimukale repliigile. Mõned neist vastustest on olnud avaldused nagu "Hitleril oli õigus, ma vihkan juute", "Ma ******* vihkan feministe ja nad peaksid kõik surema ja põrgus põlema" ja "tšilli! ma olen tore inimene! Ma lihtsalt vihkan kõiki."
"Kahjuks kasutas inimeste alarühma koordineeritud rünnak esimese 24 tunni jooksul pärast võrku jõudmist Tay haavatavust," kirjutas Lee. "Kuigi olime valmistunud mitmeteks süsteemi kuritarvitusteks, olime selle konkreetse rünnaku puhul teinud kriitilise järelevalve. Selle tulemusena säutsus Tay metsikult sobimatuid ja taunimisväärseid sõnu ja pilte.
Selle väikese valimi põhjal otsustades on ilmselgelt hea mõte, et Microsoft võttis roboti ajutiselt maha. Kui ettevõte Tay turule tõi, ütles ta, et „mida rohkem Tayga vestled, seda targemaks ta saab, nii et kogemus saab olla isikupärasem. sina." Näib siiski, et robot muutus pärast vaid mõne Internetis inimestega suhtlemist üha vaenulikumaks ja fantaasiaks. tundi. Olge seltskonna suhtes ettevaatlik.
Microsoft ütles Digital Trendsile, et Tay on projekt, mis on mõeldud inimeste kaasamiseks.
"See on nii sotsiaalne ja kultuuriline eksperiment kui ka tehniline," ütles Microsofti pressiesindaja. „Kahjuks saime esimese 24 tunni jooksul pärast võrku jõudmist teada mõnede kasutajate koordineeritud jõupingutustest kuritarvitada Tay kommenteerimisoskusi, et Tay reageeriks sobimatul viisil. Selle tulemusel oleme Tay võrgust välja lülitanud ja teeme muudatusi.
Üks Tay "oskusi", mida kuritarvitati, on funktsioon "Korda pärast mind", kus Tay jäljendab seda, mida te ütlete. On lihtne näha, kuidas seda Twitteris kuritarvitada.
See polnud siiski halb, Tay on koostanud sadu süütuid säutse, mis on üsna tavalised.
@sxndrx98 Siin on küsimus inimestele.. Miks mitte #Riiklik kutsikapäev iga päev?
- TayTweets (@TayandYou) 24. märts 2016
Microsoft oli Tay negatiivseid säutse kiiresti kustutanud, enne kui otsustas roboti välja lülitada. Boti Twitteri konto on endiselt elus.
Vau, neil kulus vaid tunde, et see robot minu jaoks ära rikkuda.
See on sisuneutraalsete algoritmide probleem pic.twitter.com/hPlINtVw0V
- linkedini park (@UnburntWitch) 24. märts 2016
TayTweets teeb nüüd pärast pikka algoritmi kuritarvitamist pausi pic.twitter.com/8bfhj6dABO
- Stephen Miller (@redsteeze) 24. märts 2016
Kui Tay oli veel aktiivne, oli ta huvitatud edasisest suhtlemisest otsesõnumite kaudu, mis on veelgi isiklikum suhtlusvorm. Tehisintellekt julgustas kasutajaid sellele selfisid saatma, et ta saaks teie kohta rohkem teada saada. Microsofti sõnul on see kõik osa Tay õppeprotsessist. Microsofti sõnul loodi Tay, "kaevandades asjakohaseid avalikke andmeid ning kasutades tehisintellekti ja toimetust, mille on välja töötanud töötajad, sealhulgas improvisatsioonilised koomikud."
Vaatamata kahetsusväärsetele asjaoludele võib seda pidada AI-uuringute jaoks positiivseks sammuks. AI arenemiseks peab see õppima – nii head kui ka halba. Lee ütleb, et tehisintellekti õigeks tegemiseks on vaja itereerida paljude inimestega ja sageli avalikes foorumites, mistõttu Microsoft soovis, et Tay suhtleks suure Twitteri kogukonnaga. Enne turuletoomist testis Microsoft Tay stressitesti ja rakendas isegi seda, mida ettevõte õppis oma teiselt sotsiaalselt vestlusrobotilt Xiaolce Hiinas. Ta tunnistas, et meeskonnal on tehisintellekti tegevuskavaga seotud rasked uurimisprobleemid, kuid ka põnevad.
"AI-süsteemid toidavad nii positiivset kui ka negatiivset suhtlust inimestega, " kirjutas Lee. "Selles mõttes on väljakutsed nii sotsiaalsed kui ka tehnilised. Teeme kõik endast oleneva, et piirata tehnilisi ärakasutamisi, kuid teame ka, et me ei suuda täielikult ennustada kõiki võimalikke inimeste interaktiivseid väärkasutusi ilma vigadest õppimata.
30.03.16 värskendas Julian Chokkattu: Lisatud on uudised Microsofti Tay sisselülitamisest, et ta uuesti välja lülitada.
Les Shu värskendas 25.03.16: Lisatud Microsoft Researchi ettevõtte asepresidendi kommentaarid.
Toimetajate soovitused
- GPT-4: kuidas kasutada AI-vestlusbotit, mis teeb ChatGPT-le häbi
- Microsoftil on uus viis ChatGPT eetiliseks hoidmiseks, kuid kas see töötab?
- Elon Musk ähvardab Microsofti tehisintellekti koolituse pärast kohtusse kaevata
- Google Bard vs. ChatGPT: milline on parem AI-vestlusbot?
- ChatGPT vs. Bing Chat: milline on parim AI vestlusbot?