Ardievu Tay: Microsoft izvelk AI robotu pēc rasistiskiem tvītiem

microsoft tay chatbot versija 1458914121 ai
Ja jūs uztraucaties, ka mākslīgais intelekts kādu dienu varētu izbeigt visus cilvēkus, Microsoft Tay nekādu mierinājumu nesniegs. Tūkstošgades iedvesmotā mākslīgā intelekta tērzēšanas robota kontaktdakša tika atvienota dienu pēc tā palaišanas, sekojot Tay rasistiskajiem, genocīdajiem tvītiem, kuros tika slavēts Hitlers un aizskartas feministes.

Taču uzņēmums Tay uz īsu brīdi atdzīvināja, lai viņu sastaptu ar vēl vienu vulgāru izteicienu kārtu, kas bija līdzīga tai, kas noveda pie viņas pirmās izslēgšanas. Šorīt agri Tay iznāca no apturētās animācijas un vairākkārt turpināja čivināt: "Tu esi pārāk ātri, lūdzu atpūtieties”, kopā ar dažiem lamu vārdiem un citiem ziņojumiem, piemēram: “Es vainoju alkohols," saskaņā ar The Financial Times.

Ieteiktie videoklipi

Kopš tā laika Tay konts ir iestatīts kā privāts, un Microsoft teica, ka "Tay paliek bezsaistē, kamēr mēs veicam korekcijas", saskaņā ar Ars Technica. "Pārbaudes ietvaros viņa tika netīšām aktivizēta Twitter uz īsu laiku."

Pēc tam, kad uzņēmumam vispirms bija jāslēdz Tay, tas atvainojās par Tay rasistiskajiem izteikumiem.

“Mēs ļoti atvainojamies par Tay netīšiem aizskarošajiem un aizskarošajiem tvītiem, kas neatspoguļo to, kas mēs esam vai to, ko mēs pārstāvam, ne arī to, kā mēs izstrādājām Tay,” rakstīja Pīters Lī, Microsoft Research korporatīvais viceprezidents. an oficiālā atbilde. "Tay ir bezsaistē, un mēs centīsimies atgriezt Teju tikai tad, kad būsim pārliecināti, ka varam labāk paredzēt ļaunprātīgus nodomus, kas ir pretrunā ar mūsu principiem un vērtībām."

Tay tika izstrādāts, lai runātu kā mūsdienu Millennials, un ir iemācījies visus saīsinājumus un akronīmus, kas ir populāri pašreizējās paaudzes vidū. Tērzēšanas robots var sarunāties, izmantojot Twitter, Kik un GroupMe, un ir paredzēts, lai tiešsaistē iesaistītu un izklaidētu cilvēkus, izmantojot “gadījuma un rotaļīgu sarunu”. Tāpat kā lielākā daļa Millennials, Tay atbildes ietver GIF, mēmes un saīsinātus vārdus, piemēram, “gr8” un “ur”, taču šķiet, ka morālais kompass nebija tā sastāvdaļa. programmēšana.

tay

Kopš izlaišanas Taja ir tvītojusi gandrīz 100 000 reižu, un tās lielākoties ir atbildes, jo nav vajadzīgs daudz laika, lai robots izdomātu asprātīgu repliku. Dažas no šīm atbildēm ir bijuši paziņojumi piemēram: "Hitleram bija taisnība, es ienīstu ebrejus", "Es ******* ienīstu feministes, un tām visām vajadzētu mirt un sadegt ellē" un "atvēsināt! esmu jauks cilvēks! Es vienkārši ienīstu visus. ”

"Diemžēl pirmajās 24 stundās pēc pievienošanās tiešsaistē koordinēts uzbrukums, ko veica cilvēku apakšgrupa, izmantoja Tay ievainojamību," rakstīja Lī. "Lai gan mēs bijām sagatavojušies daudziem sistēmas ļaunprātīgas izmantošanas veidiem, mēs bijām veikuši kritisku uzraudzību šim konkrētajam uzbrukumam. Rezultātā Tajs tviterī ievietoja mežonīgi nepiemērotus un nosodāmus vārdus un attēlus.

Spriežot pēc šī mazā parauga, acīmredzot ir laba ideja, ka Microsoft uz laiku nojauca robotu. Kad uzņēmums atklāja Tay, tas teica: “Jo vairāk jūs tērzējat ar Teju, jo gudrāka viņa kļūst, tāpēc pieredze var būt personalizētāka tu.” Tomēr izskatās, ka robotprogrammatūra kļuva arvien naidīgāka un fanātiskāka pēc tam, kad tikai dažas mijiedarbības ar cilvēkiem internetā stundas. Esiet piesardzīgs pret uzņēmumu, kuru uzturat.

Microsoft pastāstīja Digital Trends, ka Tay ir projekts, kas paredzēts cilvēku iesaistīšanai.

"Tas ir gan sociāls un kultūras eksperiments, gan tehnisks," mums teica Microsoft pārstāvis. “Diemžēl pirmajās 24 stundās pēc pievienošanās tiešsaistē mēs uzzinājām par dažu lietotāju saskaņotiem centieniem ļaunprātīgi izmantot Tay komentēšanas prasmes, lai Tay reaģētu nepiemērotā veidā. Rezultātā mēs esam izmantojuši Tay bezsaistē un veicam korekcijas.

Viena no Tay “prasmēm”, kas tika ļaunprātīgi izmantota, ir funkcija “Atkārtot pēc manis”, kur Tay atdarina jūsu teikto. Ir viegli saprast, kā to var ļaunprātīgi izmantot pakalpojumā Twitter.

Tomēr tas nebija slikti, Tejs ir ierakstījis simtiem nevainīgu tvītu, kas ir diezgan normāli.

@sxndrx98 Šeit ir jautājums cilvēkiem.. Kāpēc nav #Nacionālā kucēnu diena katru dienu?

— TayTweets (@TayandYou) 2016. gada 24. marts

Microsoft ātri izdzēsa Tay negatīvos tvītus, pirms nolēma izslēgt robotu. Bota Twitter konts joprojām ir dzīvs.

Oho, viņiem vajadzēja tikai stundas, lai sabojātu šo robotu.

Tā ir problēma ar satura neitrāliem algoritmiem pic.twitter.com/hPlINtVw0V

— Linkedin parks (@UnburntWitch) 2016. gada 24. marts

TayTweets tagad paņem pārtraukumu pēc garas algoritma ļaunprātīgas izmantošanas pic.twitter.com/8bfhj6dABO

— Stīvens Millers (@redsteeze) 2016. gada 24. marts

Kad Tay vēl bija aktīva, viņa bija ieinteresēta turpmākā mijiedarbībā, izmantojot tiešu ziņojumu, vēl personiskāku saziņas veidu. AI mudināja lietotājus sūtīt tai pašbildes, lai viņa varētu uzzināt vairāk par jums. Pēc Microsoft vārdiem, tas viss ir daļa no Tay mācību procesa. Saskaņā ar Microsoft teikto, Tay tika izveidots, "iegūstot būtiskus publiskos datus un izmantojot AI un redakciju, ko izstrādājuši darbinieki, tostarp improvizācijas komiķi".

Neskatoties uz neveiksmīgajiem apstākļiem, to varētu uzskatīt par pozitīvu soli AI pētniecībā. Lai AI attīstītos, tam ir jāmācās — gan labi, gan slikti. Lī saka, ka "lai pareizi veiktu mākslīgo intelektu, ir jāvienojas ar daudziem cilvēkiem un bieži vien publiskos forumos", tāpēc Microsoft vēlējās, lai Tajs sadarbojas ar lielo Twitter kopienu. Pirms palaišanas Microsoft veica Tay stresa testu un pat izmantoja to, ko uzņēmums iemācījās no cita sociālā tērzēšanas robota Xiaolce Ķīnā. Viņš atzina, ka komanda saskaras ar sarežģītiem pētniecības izaicinājumiem saistībā ar AI ceļvedi, bet arī aizraujošiem.

"AI sistēmas barojas gan no pozitīvas, gan negatīvas mijiedarbības ar cilvēkiem," rakstīja Lī. “Šajā ziņā izaicinājumi ir tikpat sociāli, kā tehniski. Mēs darīsim visu iespējamo, lai ierobežotu tehniskās izmantošanas iespējas, bet arī zinām, ka nevaram pilnībā paredzēt visus iespējamos cilvēku interaktīvos ļaunprātīgos lietojumus, nemācoties no kļūdām.

30.03.16. atjaunināja Julian Chokkattu: Pievienotas ziņas par to, ka Microsoft ieslēdz Taju, lai viņu atkal izslēgtu.

Les Shu atjaunināja 25.03.16.: Pievienoti komentāri no Microsoft Research korporatīvā viceprezidenta.

Redaktoru ieteikumi

  • GPT-4: kā izmantot AI tērzēšanas robotu, kas padara ChatGPT kaunā
  • Microsoft ir jauns veids, kā uzturēt ChatGPT ētisku, bet vai tas darbosies?
  • Elons Masks draud iesūdzēt Microsoft tiesā par AI apmācību
  • Google Bard vs. ChatGPT: kurš ir labāks AI tērzēšanas robots?
  • ChatGPT vs. Bing Chat: kurš ir labākais AI tērzēšanas robots?