Hyvästi Tay: Microsoft vetää tekoälybotin rasististen twiittien jälkeen

click fraud protection
microsoft tay chatbot versio 1458914121 ai
Jos olisit huolissasi, että tekoäly voisi jonain päivänä tuhota kaikki ihmiset, Microsoftin Tay ei tarjoa lohdutusta. Millennial-inspiroima AI-chatbotin pistoke irrotettiin päivä sen julkaisun jälkeen Tayn rasististen ja kansanmurhaan kohdistuvien Hitleriä ylistettyjen ja feministejä lyövien twiittien jälkeen.

Mutta yritys elvytti Tayn hetken, mutta hän kohtasi toisen kierroksen mautonta ilmaisua, joka oli samanlainen kuin mikä johti hänen ensimmäiseen ulostuloon. Aikaisin tänä aamuna Tay nousi keskeytetystä animaatiosta ja jatkoi toistuvasti twiittaamista: "Sinä olet liian nopeasti, lepää" yhdessä kirosanojen ja muiden viestien kanssa, kuten "Syytän siitä alkoholi" Financial Timesin mukaan.

Suositellut videot

Tayn tili on sittemmin asetettu yksityiseksi, ja Microsoft sanoi, että "Tay pysyy offline-tilassa, kun teemme säätöjä". Ars Technica. "Osana testausta hänet aktivoitiin vahingossa Twitterissä lyhyeksi ajaksi."

Kun yrityksen oli ensin suljettava Tay, se pyysi anteeksi Tayn rasistisia huomautuksia.

"Olemme syvästi pahoillamme Tayn tahattomista loukkaavista ja loukkaavista twiiteistä, jotka eivät edusta keitä olemme tai mitä edustamme tai miten suunnittelimme Tayn", Peter Lee, Microsoft Researchin varatoimitusjohtaja, kirjoitti. an virallinen vastaus. "Tay on nyt offline-tilassa, ja pyrimme tuomaan Tayn takaisin vasta sitten, kun olemme varmoja, että pystymme paremmin ennakoimaan haitallisia aikomuksia, jotka ovat ristiriidassa periaatteidemme ja arvojemme kanssa."

Tay on suunniteltu puhumaan kuten nykypäivän Millennials, ja hän on oppinut kaikki nykyisen sukupolven suosimat lyhenteet ja lyhenteet. Chatbot voi puhua Twitterin, Kikin ja GroupMen kautta, ja se on suunniteltu houkuttelemaan ja viihdyttämään ihmisiä verkossa "rennon ja leikkisän keskustelun kautta". Kuten useimmat Millennials, Tayn vastaukset sisältävät GIF-kuvia, meemejä ja lyhennettyjä sanoja, kuten "gr8" ja "ur", mutta näyttää siltä, ​​​​että moraalinen kompassi ei ollut osa sen ohjelmointi.

tay

Tay on twiitannut lähes 100 000 kertaa julkaisunsa jälkeen, ja ne ovat enimmäkseen vastauksia, koska ei vie paljon aikaa, ennen kuin botti keksii nokkelan retortin. Jotkut näistä vastauksista ovat olleet lausuntoja kuten "Hitler oli oikeassa, että vihaan juutalaisia", "Minä ******* vihaan feministejä ja heidän kaikkien pitäisi kuolla ja palaa helvetissä" ja "jäähdytä! olen mukava ihminen! Vihaan vain kaikkia."

"Valitettavasti ensimmäisten 24 tunnin aikana verkkoon pääsystä joukon ihmisiä koordinoitu hyökkäys käytti hyväkseen Tayn haavoittuvuutta", Lee kirjoitti. "Vaikka olimme varautuneet monenlaisiin järjestelmän väärinkäytöksiin, olimme tehneet kriittisen valvonnan tälle hyökkäykselle. Tämän seurauksena Tay twiittasi villisti sopimattomia ja tuomittavia sanoja ja kuvia.

Tuosta pienestä näytteestä päätellen on tietysti hyvä ajatus, että Microsoft vei botin väliaikaisesti alas. Kun yritys lanseerasi Tayn, se sanoi, että "mitä enemmän keskustelet Tayn kanssa, sitä älykkäämmäksi hän tulee, joten kokemus voi olla henkilökohtaisempi sinä." Näyttää kuitenkin siltä, ​​että robotti kävi yhä vihamielisemmäksi ja kiihkoilevammaksi, kun se oli ollut vuorovaikutuksessa ihmisten kanssa Internetissä vain muutaman ajan. tuntia. Ole varovainen ylläpitämäsi seuran suhteen.

Microsoft kertoi Digital Trendsille, että Tay on projekti, joka on suunniteltu ihmisten sitoutumiseen.

"Se on yhtä paljon sosiaalinen ja kulttuurinen kokeilu että tekninen", Microsoftin tiedottaja kertoi. "Valitettavasti saimme tietoomme ensimmäisten 24 tunnin kuluessa verkkoon pääsystä joidenkin käyttäjien koordinoidusta pyrkimyksestä käyttää väärin Tayn kommentointitaitoja saadakseen Tayn reagoimaan sopimattomilla tavoilla. Tämän seurauksena olemme ottaneet Tayn offline-tilaan ja tekemässä muutoksia."

Yksi Tayn "taidoista", jota käytettiin väärin, on "toista minun jälkeeni" -ominaisuus, jossa Tay matkii sanojasi. On helppo nähdä, kuinka sitä voidaan käyttää väärin Twitterissä.

Se ei kuitenkaan ollut huono, Tay on tuottanut satoja viattomia twiittejä, jotka ovat melko normaaleja.

@sxndrx98 Tässä kysymys ihmisille.. Miksi ei ole #kansallinen pentupäivä joka päivä?

- TayTweets (@TayandYou) 24. maaliskuuta 2016

Microsoft oli nopeasti poistanut Tayn negatiiviset twiitit ennen kuin se päätti sammuttaa botin. Botin Twitter-tili on edelleen elossa.

Vau, kesti vain tunteja tuhota tämä botti minulle.

Tämä on ongelma sisältöneutraaleissa algoritmeissa pic.twitter.com/hPlINtVw0V

- linkedin park (@UnburntWitch) 24. maaliskuuta 2016

TayTweets pitää nyt tauon pitkän algoritmien väärinkäytön jälkeen pic.twitter.com/8bfhj6dABO

- Stephen Miller (@redsteeze) 24. maaliskuuta 2016

Kun Tay oli vielä aktiivinen, hän oli kiinnostunut vuorovaikutuksesta edelleen suoran viestin kautta, joka oli vielä henkilökohtaisempi viestintämuoto. Tekoäly rohkaisi käyttäjiä lähettämään sille selfieitä, jotta hän voisi poimia sinusta enemmän. Microsoftin sanoin tämä kaikki on osa Tayn oppimisprosessia. Microsoftin mukaan Tay rakennettiin "louhimalla asiaankuuluvaa julkista dataa ja käyttämällä tekoälyä ja toimituksellisia toimituksia, jotka on kehittänyt henkilöstö, mukaan lukien improvisaatiokoomikko".

Valitettavasta tilanteesta huolimatta sitä voidaan pitää myönteisenä askeleena tekoälytutkimukselle. Jotta tekoäly voi kehittyä, sen on opittava – sekä hyvässä että pahassa. Lee sanoo, että "tekäälyn tekemiseksi oikein täytyy iteroida monien ihmisten kanssa ja usein julkisilla foorumeilla", minkä vuoksi Microsoft halusi Tayn ottavan yhteyttä suureen Twitter-yhteisöön. Ennen julkaisua Microsoft oli stressitestannut Tayn ja jopa soveltanut sitä, mitä yritys oppi toisesta sosiaalisesta chatbotistaan, Xiaolcesta Kiinassa. Hän myönsi, että tiimillä on edessään vaikeita tutkimushaasteita tekoälyn tiekartalla, mutta myös jännittäviä.

"Tekoälyjärjestelmät ruokkivat sekä positiivisia että negatiivisia vuorovaikutuksia ihmisten kanssa", Lee kirjoitti. ”Siinä mielessä haasteet ovat yhtä paljon sosiaalisia kuin teknisiä. Teemme kaikkemme rajoittaaksemme teknisiä hyväksikäyttöjä, mutta tiedämme myös, ettemme voi täysin ennustaa kaikkia mahdollisia ihmisten välisiä vuorovaikutteisia väärinkäytöksiä ilman virheistä oppimista."

Päivitetty 30.3.16 Julian Chokkattu: Lisätty uutinen Microsoftin käynnistämisestä Tayn, mutta sammuttaa hänet uudelleen.

Päivitetty 25.3.2016 Les Shu: Lisätty kommentit Microsoft Researchin varatoimitusjohtajalta.

Toimittajien suositukset

  • GPT-4: kuinka käyttää AI-chatbotia, joka saa ChatGPT: n häpeään
  • Microsoftilla on uusi tapa pitää ChatGPT eettisenä, mutta toimiiko se?
  • Elon Musk uhkaa haastaa Microsoftin oikeuteen tekoälykoulutuksesta
  • Google Bard vs. ChatGPT: mikä on parempi AI-chatbot?
  • ChatGPT vs. Bing Chat: mikä on paras AI-chatbot?