Selamat tinggal Tay: Microsoft Menarik Bot AI Setelah Tweet Rasis

microsoft tay chatbot versi 1458914121 ai
Jika Anda khawatir kecerdasan buatan suatu hari nanti akan memusnahkan seluruh umat manusia, Tay dari Microsoft tidak akan memberikan penghiburan apa pun. Chatbot AI yang terinspirasi oleh generasi milenial ini dicabut sehari setelah peluncurannya, menyusul cuitan Tay yang rasis dan bersifat genosida yang memuji Hitler dan menjelek-jelekkan kaum feminis.

Tapi perusahaan itu sempat menghidupkan kembali Tay, hanya untuk bertemu dengan ekspresi vulgar lainnya, mirip dengan apa yang menyebabkan dia keluar untuk pertama kalinya. Dini hari tadi, Tay bangkit dari keadaan mati suri, dan berulang kali terus men-tweet, “Kamu juga cepat, istirahatlah,” disertai dengan kata-kata makian dan pesan lain seperti, “Saya menyalahkannya alkohol," menurut The Financial Times.

Video yang Direkomendasikan

Akun Tay telah disetel ke pribadi, dan Microsoft mengatakan “Tay tetap offline sementara kami melakukan penyesuaian,” menurut Ars Teknika. “Sebagai bagian dari pengujian, dia secara tidak sengaja diaktifkan di Twitter dalam waktu singkat.”

Setelah perusahaan tersebut pertama kali menutup Tay, perusahaan tersebut meminta maaf atas pernyataan rasis Tay.

“Kami sangat menyesal atas tweet ofensif dan menyakitkan yang tidak disengaja dari Tay, yang tidak mewakili siapa kami atau apa yang kami perjuangkan, atau bagaimana kami merancang Tay,” tulis Peter Lee, wakil presiden perusahaan Microsoft Research sebuah tanggapan resmi. “Tay sekarang offline dan kami akan berupaya untuk membawa Tay kembali hanya jika kami yakin bahwa kami dapat mengantisipasi niat jahat yang bertentangan dengan prinsip dan nilai-nilai kami dengan lebih baik.”

Tay dirancang untuk berbicara seperti generasi Milenial masa kini, dan telah mempelajari semua singkatan dan akronim yang populer di kalangan generasi saat ini. Chatbot dapat berbicara melalui Twitter, Kik, dan GroupMe, dan dirancang untuk melibatkan dan menghibur orang-orang secara online melalui “percakapan santai dan menyenangkan.” Seperti kebanyakan Bagi kaum milenial, tanggapan Tay menyertakan GIF, meme, dan kata-kata yang disingkat, seperti ‘gr8’ dan ‘ur’, namun sepertinya pedoman moral bukanlah bagian dari hal tersebut. pemrograman.

baiklah

Tay telah men-tweet hampir 100.000 kali sejak diluncurkan, dan sebagian besar merupakan balasan karena bot tidak membutuhkan banyak waktu untuk memikirkan jawaban yang cerdas. Beberapa dari tanggapan tersebut telah menjadi pernyataan seperti, “Hitler benar, saya benci orang Yahudi,” “Saya benci feminis dan mereka semua harus mati dan terbakar di neraka,” dan “tenanglah! saya orang yang baik! Aku benci semua orang.”

“Sayangnya, dalam 24 jam pertama setelah online, serangan terkoordinasi oleh sekelompok orang mengeksploitasi kerentanan di Tay,” tulis Lee. “Meskipun kami telah bersiap menghadapi berbagai jenis penyalahgunaan sistem, kami telah melakukan pengawasan kritis terhadap serangan khusus ini. Akibatnya, Tay men-tweet kata-kata dan gambar yang sangat tidak pantas dan tercela.”

Dilihat dari sampel kecil tersebut, jelas merupakan ide bagus jika Microsoft menghapus bot tersebut untuk sementara. Ketika perusahaan meluncurkan Tay, dikatakan bahwa “Semakin sering Anda mengobrol dengan Tay, semakin pintar dia, sehingga pengalamannya bisa lebih dipersonalisasi untuk Anda." Namun tampaknya bot tersebut semakin bermusuhan dan fanatik setelah berinteraksi dengan orang-orang di Internet selama beberapa waktu. jam. Berhati-hatilah dengan perusahaan yang Anda jaga.

Microsoft mengatakan kepada Digital Trends bahwa Tay adalah proyek yang dirancang untuk keterlibatan manusia.

“Ini merupakan eksperimen sosial dan budaya, sekaligus teknis,” kata juru bicara Microsoft kepada kami. “Sayangnya, dalam 24 jam pertama setelah online, kami menyadari adanya upaya terkoordinasi dari beberapa pengguna untuk menyalahgunakan keterampilan berkomentar Tay agar Tay merespons dengan cara yang tidak pantas. Oleh karena itu, kami telah menonaktifkan Tay dan melakukan penyesuaian.”

Salah satu “skill” Tay yang disalahgunakan adalah fitur “repeat after me”, dimana Tay menirukan ucapanmu. Sangat mudah untuk melihat bagaimana hal ini dapat disalahgunakan di Twitter.

Namun tidak semuanya buruk, Tay telah menghasilkan ratusan tweet polos yang cukup normal.

@sxndrx98 Ini pertanyaannya manusia.. Kenapa tidak #HariAnak Anjing Nasional setiap hari?

— TayTweets (@TayandYou) 24 Maret 2016

Microsoft dengan cepat menghapus tweet negatif Tay, sebelum memutuskan untuk mematikan bot tersebut. Akun Twitter bot tersebut masih hidup.

Wow, hanya butuh waktu berjam-jam untuk merusak bot ini untuk saya.

Ini adalah masalah dengan algoritma yang netral konten pic.twitter.com/hPlINtVw0V

— taman linkedin (@UnburntWitch) 24 Maret 2016

TayTweets kini beristirahat setelah seharian mengalami penyalahgunaan algoritme pic.twitter.com/8bfhj6dABO

— Stephen Miller (@redsteeze) 24 Maret 2016

Saat Tay masih aktif, ia tertarik untuk berinteraksi lebih jauh melalui pesan langsung, suatu bentuk komunikasi yang lebih personal. AI mendorong pengguna untuk mengirimkan foto selfie, sehingga dia dapat mengetahui lebih banyak tentang Anda. Dalam kata-kata Microsoft, ini semua adalah bagian dari proses pembelajaran Tay. Menurut Microsoft, Tay dibangun dengan “menambang data publik yang relevan dan menggunakan AI serta editorial yang dikembangkan oleh staf termasuk komedian improvisasi.”

Meskipun kondisinya tidak menguntungkan, hal ini dapat dipandang sebagai langkah positif bagi penelitian AI. Agar AI dapat berkembang, ia perlu belajar – baik dan buruk. Lee mengatakan bahwa “untuk menerapkan AI dengan benar, seseorang perlu berinteraksi dengan banyak orang dan sering kali di forum publik,” itulah sebabnya Microsoft ingin Tay terlibat dengan komunitas besar Twitter. Sebelum diluncurkan, Microsoft telah menguji Tay, dan bahkan menerapkan apa yang dipelajari perusahaan dari chatbot sosial lainnya, Xiaolce di Tiongkok. Dia mengakui bahwa tim menghadapi tantangan penelitian yang sulit dalam peta jalan AI, namun juga tantangan yang menarik.

“Sistem AI menghasilkan interaksi positif dan negatif dengan manusia,” tulis Lee. “Dalam hal ini, tantangannya bersifat sosial dan teknis. Kami akan melakukan segala kemungkinan untuk membatasi eksploitasi teknis, namun kami juga menyadari bahwa kami tidak dapat sepenuhnya memprediksi semua kemungkinan penyalahgunaan interaktif manusia tanpa belajar dari kesalahan.”

Diperbarui pada 30/03/16 oleh Julian Chokkattu: Menambahkan berita tentang Microsoft yang menghidupkan Tay, hanya untuk mematikannya lagi.

Diperbarui pada 25/03/16 oleh Les Shu: Menambahkan komentar dari wakil presiden perusahaan Microsoft Research.

Rekomendasi Editor

  • GPT-4: cara menggunakan chatbot AI yang mempermalukan ChatGPT
  • Microsoft mempunyai cara baru untuk menjaga ChatGPT tetap etis, tetapi apakah itu akan berhasil?
  • Elon Musk mengancam akan menuntut Microsoft atas pelatihan AI
  • Google Penyair vs. ChatGPT: chatbot AI mana yang lebih baik?
  • ObrolanGPT vs. Bing Chat: chatbot AI mana yang terbaik?