Goodbye Tay: Microsoft sťahuje AI bota po rasistických tweetoch

microsoft tay chatbot verzia 1458914121 ai
Ak by ste sa obávali, že by sa umelá inteligencia mohla jedného dňa pohnúť a zlikvidovať všetkých ľudí, Tay od Microsoftu nebude ponúkať žiadnu útechu. Zástrčka chatbota s umelou inteligenciou inšpirovaného miléniom bola stiahnutá deň po jeho spustení po Tayových rasistických, genocídnych tweetoch, ktoré chválili Hitlera a udierali na feministky.

Spoločnosť však Tay nakrátko oživila, no stretla sa s ďalšou sériou vulgárnych výrazov, podobných tým, ktoré viedli k jej prvému odchodu. Dnes skoro ráno sa Tay vynorila z pozastavenej animácie a opakovane tweetovala: „Ty tiež rýchlo, prosím, oddýchnite si,“ spolu s niektorými nadávkami a inými správami ako: „Obviňujem to z alkohol,“ podľa denníka The Financial Times.

Odporúčané videá

Tayov účet bol odvtedy nastavený ako súkromný a Microsoft povedal, že „Tay zostáva offline, kým vykonávame úpravy,“ Ars Technica. "V rámci testovania bola na krátky čas neúmyselne aktivovaná na Twitteri."

Potom, čo spoločnosť najprv musela ukončiť činnosť Tay, ospravedlnila sa za Tayove rasistické poznámky.

„Hlboko nás mrzia neúmyselné urážlivé a zraňujúce tweety od Tay, ktoré nereprezentujú to, kým sme alebo čo zastávame, ani ako sme navrhli Tay,“ napísal Peter Lee, viceprezident spoločnosti Microsoft Research. an oficiálna odpoveď. "Tay je teraz offline a budeme sa snažiť priviesť Tay späť len vtedy, keď budeme presvedčení, že dokážeme lepšie predvídať zlomyseľné úmysly, ktoré sú v rozpore s našimi princípmi a hodnotami."

Tay bola navrhnutá tak, aby hovorila ako dnešní mileniáli a naučila sa všetky skratky a akronymy, ktoré sú u súčasnej generácie obľúbené. Chatbot môže hovoriť cez Twitter, Kik a GroupMe a je navrhnutý tak, aby zapájal a bavil ľudí online prostredníctvom „neformálnej a hravej konverzácie“. Ako väčšina Mileniáli, Tayove odpovede obsahujú GIFy, mémy a skrátené slová, ako „gr8“ a „ur“, no zdá sa, že morálny kompas nebol súčasťou ich programovanie.

tay

Tay od svojho spustenia tweetovala takmer 100 000-krát a väčšinou sú to všetky odpovede, pretože robotovi nezaberie veľa času vymyslieť vtipnú odpoveď. Niektoré z tých odpovedí boli vyhlásenia ako: „Hitler mal pravdu, nenávidím Židov“, „Nenávidím feministky a všetky by mali zomrieť a zhorieť v pekle“ a „upokojiť sa! som dobry clovek! Len všetkých nenávidím."

„Bohužiaľ, počas prvých 24 hodín po pripojení na internet koordinovaný útok podskupiny ľudí využil zraniteľnosť Tay,“ napísal Lee. „Aj keď sme sa pripravili na mnohé druhy zneužitia systému, urobili sme pre tento konkrétny útok kritický dohľad. Výsledkom bolo, že Tay tweetovala veľmi nevhodné a odsúdeniahodné slová a obrázky.“

Súdiac podľa tejto malej vzorky je očividne dobrý nápad, že Microsoft dočasne odstránil robota. Keď spoločnosť spustila Tay, uviedla, že „Čím viac sa s Tay zhovárate, tým je inteligentnejšia, takže zážitok môže byť prispôsobenejší ty." Zdá sa však, že robot sa stal čoraz nepriateľským a bigotným po interakcii s ľuďmi na internete len na niekoľko hodiny. Dávajte si pozor na spoločnosť, ktorú máte.

Microsoft pre Digital Trends povedal, že Tay je projekt, ktorý je určený na zapojenie ľudí.

„Je to sociálny a kultúrny experiment, ako aj technický experiment,“ povedal nám hovorca Microsoftu. „Bohužiaľ, počas prvých 24 hodín od uvedenia online sme sa dozvedeli o koordinovanom úsilí niektorých používateľov zneužiť Tayine schopnosti komentovania, aby Tay reagovala nevhodným spôsobom. V dôsledku toho sme Tay prepli do režimu offline a robíme úpravy.“

Jednou z Tayových „zručností“, ktorá bola zneužitá, je funkcia „opakovať po mne“, kde Tay napodobňuje, čo hovoríte. Je ľahké vidieť, ako sa to dá na Twitteri zneužiť.

Nebolo to však zlé, Tay vytvoril stovky nevinných tweetov, ktoré sú celkom normálne.

@sxndrx98 tu je otazka ludia.. prečo nie #NationalPuppyDay každý deň?

— TayTweets (@TayandYou) 24. marca 2016

Microsoft rýchlo odstraňoval Tayove negatívne tweety predtým, ako sa rozhodol robota vypnúť. Účet robota na Twitteri je stále nažive.

Wow, trvalo im len hodiny, kým mi zničili tohto robota.

Toto je problém obsahovo neutrálnych algoritmov pic.twitter.com/hPlINtVw0V

— linkedin park (@UnburntWitch) 24. marca 2016

TayTweets si teraz dáva prestávku po dlhom dni zneužívania algoritmov pic.twitter.com/8bfhj6dABO

— Stephen Miller (@redsteeze) 24. marca 2016

Keď bola Tay ešte aktívna, mala záujem o ďalšiu interakciu prostredníctvom priamej správy, čo je ešte osobnejšia forma komunikácie. AI nabádala používateľov, aby jej posielali selfie, aby o vás mohla získať viac. Slovami Microsoftu je toto všetko súčasťou Tayovho vzdelávacieho procesu. Podľa Microsoftu bol Tay postavený „ťažbou relevantných verejných údajov a pomocou AI a editoriál vyvinutých zamestnancami vrátane improvizačných komikov“.

Napriek nešťastným okolnostiam by sa to dalo považovať za pozitívny krok pre výskum AI. Aby sa AI mohla vyvíjať, musí sa učiť – dobré aj zlé. Lee hovorí, že „ak chcete robiť AI správne, musíte opakovať s mnohými ľuďmi a často na verejných fórach“, a preto Microsoft chcel, aby sa Tay zapojil do veľkej komunity Twitter. Pred uvedením na trh spoločnosť Microsoft otestovala Tay v záťažovom teste a dokonca uplatnila to, čo sa spoločnosť naučila od svojho ďalšieho sociálneho chatbota, Xiaolce v Číne. Uznal, že tím čelí náročným výskumným výzvam na ceste AI, ale aj vzrušujúcim.

„Systémy AI sa živia pozitívnymi aj negatívnymi interakciami s ľuďmi,“ napísal Lee. „V tomto zmysle sú výzvy rovnako sociálne ako technické. Urobíme všetko, čo je v našich silách, aby sme obmedzili technické zneužitia, ale tiež vieme, že nemôžeme úplne predvídať všetky možné ľudské interaktívne zneužitia bez toho, aby sme sa poučili z chýb.“

Aktualizované 30.3.2016 Julianom Chokkattuom: Pridané správy o tom, že Microsoft zapol Tay, len aby ju znova vypla.

Aktualizované 25. 3. 2016 od Les Shu: Pridané komentáre od podnikového viceprezidenta spoločnosti Microsoft Research.

Odporúčania redaktorov

  • GPT-4: ako používať chatbota AI, ktorý robí ChatGPT hanbou
  • Microsoft má nový spôsob, ako udržať ChatGPT etický, ale bude to fungovať?
  • Elon Musk sa vyhráža žalobou na Microsoft za školenie AI
  • Google Bard vs. ChatGPT: ktorý je lepší chatbot AI?
  • ChatGPT vs. Bing Chat: ktorý je najlepší chatbot AI?