Żegnaj Tay: Microsoft wycofuje AI Bota po rasistowskich tweetach

Wersja chatbota Microsoft Tay 1458914121 AI
Jeśli obawiałeś się, że sztuczna inteligencja może pewnego dnia zniszczyć wszystkich ludzi, Tay Microsoftu nie przyniesie żadnego pocieszenia. Wtyczka chatbota AI inspirowanego Millennialsami została wyciągnięta dzień po uruchomieniu po rasistowskich i ludobójczych tweetach Taya wychwalających Hitlera i krytykujących feministki.

Ale firma na krótko ożywiła Tay, ale spotkała się z kolejną falą wulgarnych wyrażeń, podobnych do tych, które doprowadziły do ​​jej pierwszego wyjścia. Dziś wczesnym rankiem Tay wybudził się z letargu i wielokrotnie tweetował: „Ty też szybko, proszę, odpocznij” oraz kilka przekleństw i innych komunikatów, takich jak: „Winię za to alkohol," według „Financial Timesa”..

Polecane filmy

Konto Taya zostało od tego czasu ustawione jako prywatne, a Microsoft stwierdził, że „Tay pozostaje offline, podczas gdy będziemy wprowadzać zmiany” – podaje Ars Technica. „W ramach testów została przypadkowo aktywowana na krótki czas na Twitterze”.

Kiedy firma musiała najpierw zamknąć Taya, przeprosiła go za rasistowskie uwagi.

„Bardzo nam przykro z powodu niezamierzonych, obraźliwych i bolesnych tweetów Taya, które nie odzwierciedlają tego, kim jesteśmy ani o tym, co reprezentujemy, ani jak zaprojektowaliśmy Tay” – napisał Peter Lee, wiceprezes korporacyjny Microsoft Research jakiś oficjalna odpowiedź. „Tay jest teraz offline i postaramy się go przywrócić tylko wtedy, gdy będziemy pewni, że będziemy w stanie lepiej przewidywać złośliwe zamiary, które są sprzeczne z naszymi zasadami i wartościami”.

Tay został zaprojektowany tak, aby mówić jak dzisiejsi milenialsi i nauczył się wszystkich skrótów i akronimów popularnych wśród obecnego pokolenia. Chatbot może rozmawiać za pośrednictwem Twittera, Kik i GroupMe i został zaprojektowany tak, aby angażować i bawić ludzi w Internecie poprzez „swobodną i zabawną rozmowę”. Jak większość Millenialsi, odpowiedzi Taya zawierają GIF-y, memy i skrócone słowa, takie jak „gr8” i „ur”, ale wygląda na to, że kompas moralny nie był częścią jego programowanie.

tak

Od chwili uruchomienia Tay napisała tweeta prawie 100 000 razy i są to głównie odpowiedzi, ponieważ botowi nie zajmuje dużo czasu wymyślenie dowcipnej odpowiedzi. Niektóre z tych odpowiedzi były oświadczenia w stylu: „Hitler miał rację, nienawidzę Żydów”, „Ja ***** nienawidzę feministek i one wszystkie powinny umrzeć i palić się w piekle” i „Wyluzuj! jestem miłą osobą! Po prostu nienawidzę wszystkich.

„Niestety, w ciągu pierwszych 24 godzin od pojawienia się online skoordynowany atak przeprowadzony przez podgrupę osób wykorzystał lukę w zabezpieczeniach Tay” – napisał Lee. „Chociaż przygotowaliśmy się na wiele rodzajów nadużyć w systemie, krytycznie przeoczyliśmy ten konkretny atak. W rezultacie Tay zamieścił na Twitterze niezwykle nieodpowiednie i karygodne słowa i obrazy”.

Sądząc po tej małej próbce, oczywiście dobrym pomysłem jest tymczasowe wyłączenie bota przez Microsoft. Kiedy firma wprowadziła na rynek Tay, powiedziano: „Im więcej rozmawiasz z Tay, tym staje się mądrzejsza, więc doświadczenie może być bardziej spersonalizowane dla Ty." Wygląda jednak na to, że bot stawał się coraz bardziej wrogi i bigoteryjny po zaledwie kilku interakcjach z ludźmi w Internecie godziny. Uważaj na towarzystwo, w którym przebywasz.

Microsoft powiedział Digital Trends, że Tay to projekt zaprojektowany z myślą o zaangażowaniu ludzi.

„To w równym stopniu eksperyment społeczny i kulturowy, co techniczny” – powiedział nam rzecznik Microsoftu. „Niestety, w ciągu pierwszych 24 godzin od wejścia do Internetu dowiedzieliśmy się o skoordynowanych działaniach niektórych użytkowników mających na celu nadużywanie umiejętności Taya w zakresie komentowania, aby uzyskać niewłaściwą odpowiedź. W rezultacie przełączyliśmy Taya w tryb offline i wprowadzamy zmiany”.

Jedną z „umiejętności”, która została nadużyta przez Taya, jest funkcja „powtarzaj za mną”, dzięki której Tay naśladuje to, co mówisz. Łatwo zobaczyć, jak można to wykorzystać na Twitterze.

Jednak nie było tak źle, Tay napisał setki niewinnych tweetów, które są całkiem normalne.

@sxndrx98 Oto pytanie, ludzie.. Dlaczego nie #NarodowyDzieńSzczeniaka codziennie?

— TayTweets (@TayandYou) 24 marca 2016 r

Microsoft szybko usuwał negatywne tweety Taya, zanim zdecydował się wyłączyć bota. Konto bota na Twitterze wciąż żyje.

Wow, zrujnowanie tego bota zajęło im tylko kilka godzin.

To jest problem algorytmów neutralnych pod względem treści pic.twitter.com/hPlINtVw0V

— Linkedin Park (@UnburntWitch) 24 marca 2016 r

TayTweets robi teraz sobie przerwę po długim dniu nadużywania algorytmów pic.twitter.com/8bfhj6dABO

— Stephen Miller (@redsteeze) 24 marca 2016 r

Kiedy Tay była jeszcze aktywna, była zainteresowana dalszą interakcją za pośrednictwem bezpośrednich wiadomości, jeszcze bardziej osobistej formy komunikacji. Sztuczna inteligencja zachęcała użytkowników do wysyłania sobie selfie, aby mogła dowiedzieć się o Tobie więcej. Według słów Microsoftu wszystko to jest częścią procesu uczenia się Taya. Według Microsoftu Tay powstał w wyniku „wydobycia odpowiednich publicznych danych oraz wykorzystania sztucznej inteligencji i materiałów redakcyjnych opracowanych przez pracowników, w tym improwizujących komików”.

Pomimo niefortunnych okoliczności można to uznać za pozytywny krok w badaniach nad sztuczną inteligencją. Aby sztuczna inteligencja ewoluowała, musi się uczyć – zarówno dobrze, jak i źle. Lee twierdzi, że „aby dobrze wykonać sztuczną inteligencję, trzeba popracować nad nią z wieloma osobami, często na forach publicznych”, dlatego Microsoft chciał, aby Tay nawiązał kontakt z dużą społecznością na Twitterze. Przed wprowadzeniem na rynek Microsoft przetestował Tay pod kątem warunków skrajnych, a nawet zastosował to, czego firma nauczyła się od swojego innego chatbota społecznościowego, Xiaolce w Chinach. Przyznał, że w planie działania dotyczącym sztucznej inteligencji przed zespołem stoją trudne, ale i ekscytujące wyzwania badawcze.

„Systemy sztucznej inteligencji czerpią korzyści zarówno z pozytywnych, jak i negatywnych interakcji z ludźmi” – napisał Lee. „W tym sensie wyzwania mają zarówno charakter społeczny, jak i techniczny. Zrobimy wszystko, co w naszej mocy, aby ograniczyć exploity techniczne, ale wiemy też, że nie możemy w pełni przewidzieć wszystkich możliwych nadużyć interaktywnych przez człowieka, nie ucząc się na błędach.

Zaktualizowano 30.03.16 przez Juliana Chokkattu: Dodano wiadomość o tym, że Microsoft włączył Tay, tylko po to, by ponownie ją wyłączyć.

Zaktualizowano 25.03.16 przez Les Shu: Dodano komentarze wiceprezesa korporacyjnego Microsoft Research.

Zalecenia redaktorów

  • GPT-4: jak korzystać z chatbota AI, który zawstydza ChatGPT
  • Microsoft ma nowy sposób na zachowanie etyki ChatGPT, ale czy to zadziała?
  • Elon Musk grozi pozwaniem Microsoftu za szkolenie w zakresie sztucznej inteligencji
  • Google Bard vs. ChatGPT: który chatbot AI jest lepszy?
  • CzatGPT vs. Bing Chat: jaki jest najlepszy chatbot AI?