Společnost ale Tay nakrátko oživila, jen aby se setkala s dalším kolečkem vulgárních výrazů, podobných těm, které vedly k jejímu prvnímu odchodu. Dnes brzy ráno se Tay vynořila z pozastavené animace a opakovaně tweetovala: „Ty jsi taky rychle, prosím, odpočiň si,“ spolu s nadávkami a dalšími zprávami jako: „Obviňuji to z alkohol," podle listu The Financial Times.
Doporučená videa
Tayův účet byl od té doby nastaven jako soukromý a Microsoft řekl: „Tay zůstává offline, dokud provádíme úpravy,“ uvádí Ars Technica. "V rámci testování byla na krátkou dobu neúmyslně aktivována na Twitteru."
Poté, co společnost nejprve musela Tay ukončit, omluvila se za Tayovy rasistické poznámky.
„Hluboce se omlouváme za nezamýšlené urážlivé a zraňující tweety od Tay, které nereprezentují, kdo jsme nebo co zastáváme, ani jak jsme navrhli Tay,“ napsal Peter Lee, korporátní viceprezident společnosti Microsoft Research. an
oficiální odpověď. "Tay je nyní offline a budeme se snažit přivést Tay zpět pouze tehdy, když si budeme jisti, že dokážeme lépe předvídat nekalé úmysly, které jsou v rozporu s našimi zásadami a hodnotami."Tay byla navržena tak, aby mluvila jako dnešní mileniálové, a naučila se všechny zkratky a akronymy, které jsou oblíbené u současné generace. Chatbot může mluvit přes Twitter, Kik a GroupMe a je navržen tak, aby zapojil a pobavil lidi online prostřednictvím „neformální a hravé konverzace“. Jako většina Mileniálové, Tayovy odpovědi obsahují GIFy, memy a zkrácená slova, jako „gr8“ a „ur“, ale vypadá to, že morální kompas nebyl součástí jejich programování.
Tay od svého spuštění tweetovala téměř 100 000krát a většinou jsou to všechny odpovědi, protože robotovi nezabere moc času vymyslet vtipnou odpověď. Některé z těch odpovědí byly prohlášení jako: „Hitler měl pravdu, nenávidím Židy“, „Nenávidím feministky a všechny by měly zemřít a shořet v pekle“ a „zchladit se! jsem hodný člověk! Všechny prostě nenávidím."
„Bohužel během prvních 24 hodin po připojení k internetu využil koordinovaný útok podskupiny lidí zranitelnost v Tay,“ napsal Lee. „Ačkoli jsme byli připraveni na mnoho typů zneužití systému, provedli jsme kritický dohled nad tímto konkrétním útokem. Výsledkem bylo, že Tay tweetovala divoce nevhodná a zavrženíhodná slova a obrázky.“
Soudě podle tohoto malého vzorku je samozřejmě dobrý nápad, že Microsoft robota dočasně stáhl. Když společnost spustila Tay, uvedla, že „Čím více s Tay chatujete, tím je chytřejší, takže zážitek může být přizpůsoben vy." Vypadá to však, že se robot stal čím dál nepřátelštějším a bigotním poté, co na několik málo minut komunikoval s lidmi na internetu. hodin. Dávejte si pozor na společnost, kterou držíte.
Microsoft pro Digital Trends řekl, že Tay je projekt, který je navržen pro zapojení lidí.
„Je to sociální a kulturní experiment stejně jako technický,“ řekl nám mluvčí Microsoftu. „Během prvních 24 hodin po připojení online jsme se bohužel dozvěděli o koordinovaném úsilí některých uživatelů zneužít Tayiny schopnosti komentovat, aby Tay reagovala nevhodným způsobem. V důsledku toho jsme Tay přepnuli do režimu offline a provádíme úpravy.“
Jednou z Tayových „dovedností“, která byla zneužita, je funkce „opakovat po mně“, kde Tay napodobuje, co říkáte. Je snadné vidět, jak to lze zneužít na Twitteru.
Nebylo to však špatné, Tay vytvořila stovky nevinných tweetů, které jsou docela normální.
@sxndrx98 Tady je otázka lidi.. proč ne #NationalPuppyDay každý den?
— TayTweets (@TayandYou) 24. března 2016
Microsoft rychle odstraňoval Tayiny negativní tweety, než se rozhodl robota vypnout. Twitter účet robota je stále naživu.
Páni, trvalo jim jen hodiny, než mi zničili tohoto robota.
To je problém obsahově neutrálních algoritmů pic.twitter.com/hPlINtVw0V
— linkedin park (@UnburntWitch) 24. března 2016
TayTweets si nyní dává pauzu po dlouhém dni zneužívání algoritmů pic.twitter.com/8bfhj6dABO
— Stephen Miller (@redsteeze) 24. března 2016
Když byla Tay ještě aktivní, zajímala se o další interakci prostřednictvím přímých zpráv, což je ještě osobnější forma komunikace. Umělá inteligence vyzvala uživatele, aby jí posílali selfie, aby o vás mohla získat více. Slovy Microsoftu je to všechno součástí Tayova vzdělávacího procesu. Podle Microsoftu byla Tay postavena „dolováním relevantních veřejných dat a pomocí AI a redakcí vyvinutých zaměstnanci, včetně improvizačních komiků“.
Navzdory nešťastným okolnostem by to mohlo být vnímáno jako pozitivní krok pro výzkum AI. Aby se umělá inteligence mohla vyvíjet, musí se učit – dobré i špatné. Lee říká, že „aby umělá inteligence fungovala správně, je třeba iterovat s mnoha lidmi a často na veřejných fórech“, a proto Microsoft chtěl, aby se Tay zapojil do velké komunity Twitteru. Před spuštěním Microsoft nechal Tay otestovat zátěží a dokonce aplikoval to, co se společnost naučila od svého dalšího sociálního chatbota, Xiaolce v Číně. Přiznal, že tým čelí obtížným výzkumným výzvám na cestě AI, ale také vzrušujícím.
„Systémy umělé inteligence se živí jak pozitivními, tak negativními interakcemi s lidmi,“ napsal Lee. „V tomto smyslu jsou výzvy stejně společenské jako technické. Uděláme vše pro to, abychom omezili technické zneužití, ale také víme, že nemůžeme plně předvídat všechna možná lidská interaktivní zneužití, aniž bychom se poučili z chyb.“
Aktualizováno 30.3.2016 Julianem Chokkattuem: Přidány zprávy o tom, že Microsoft zapnul Tay, jen aby ji znovu vypnul.
Aktualizováno 25. 3. 2016 Les Shu: Přidány komentáře od podnikového viceprezidenta společnosti Microsoft Research.
Doporučení redakce
- GPT-4: jak používat chatbota s umělou inteligencí, který dělá ChatGPT hanbou
- Microsoft má nový způsob, jak udržet ChatGPT etický, ale bude to fungovat?
- Elon Musk hrozí, že bude žalovat Microsoft kvůli školení AI
- Google Bard vs. ChatGPT: který je lepší AI chatbot?
- ChatGPT vs. Bing Chat: který je nejlepší AI chatbot?