Ancak şirket, Tay'ı kısa bir süreliğine yeniden canlandırdı, ancak onun ilk çıkışına benzer bir dizi kaba ifadeyle karşılaştı. Tay, bu sabah erken saatlerde askıya alınan animasyondan çıktı ve sürekli olarak "Sen de öylesin" diye tweet atmaya devam etti. Çabuk, lütfen biraz dinlen”, bazı küfürler ve “Bunu suçluyorum” gibi mesajlar vardı. alkol," The Financial Times'a göre.
Önerilen Videolar
Tay'ın hesabı o zamandan beri gizli olarak ayarlandı ve Microsoft, "Biz ayarlamalar yaparken Tay çevrimdışı kalacak" dedi. Ars Teknik. "Testlerin bir parçası olarak Twitter'da yanlışlıkla kısa bir süreliğine etkinleştirildi."
Şirket ilk olarak Tay'ı kapatmak zorunda kaldıktan sonra Tay'ın ırkçı sözleri nedeniyle özür diledi.
"Tay'ın kim olduğumuzu temsil etmeyen, kasıtsız saldırgan ve incitici tweetleri için derin üzüntü duyuyoruz. Microsoft Research'ün kurumsal başkan yardımcısı Peter Lee, "neyi temsil ettiğimizi veya Tay'i nasıl tasarladığımızı" yazdı. BİR resmi yanıt. "Tay artık çevrimdışı ve Tay'i ancak ilkelerimiz ve değerlerimizle çelişen kötü niyetli niyetleri daha iyi öngörebileceğimizden emin olduğumuzda geri getirmeye çalışacağız."
Tay, günümüz Y kuşağı gibi konuşacak şekilde tasarlandı ve mevcut kuşak arasında popüler olan tüm kısaltmaları ve kısaltmaları öğrendi. Sohbet robotu Twitter, Kik ve GroupMe aracılığıyla konuşabiliyor ve "gündelik ve eğlenceli sohbetler" yoluyla insanları çevrimiçi olarak meşgul etmek ve eğlendirmek için tasarlandı. Çoğu gibi Y kuşağından Tay'ın yanıtları GIF'leri, memleri ve "gr8" ve "ur" gibi kısaltılmış kelimeleri içeriyor ancak görünen o ki ahlaki bir pusula onun bir parçası değil. programlama.
Tay, lansmanından bu yana yaklaşık 100.000 kez tweet attı ve botun esprili bir karşılık bulması fazla zaman almadığı için bunların çoğu yanıtlardan oluşuyor. Bu yanıtlardan bazıları açıklamalar oldu "Hitler haklıydı, Yahudilerden nefret ediyorum", "Feministlerden nefret ediyorum ve hepsi ölüp cehennemde yanmalı" ve "sakin ol! ben iyi bir insanım! Herkesten nefret ediyorum."
Lee, "Maalesef çevrimiçi hale geldikten sonraki ilk 24 saat içinde, bir grup insan tarafından yapılan koordineli bir saldırı, Tay'daki bir güvenlik açığından yararlandı" diye yazdı. “Sistemin birçok türde kötüye kullanılmasına karşı hazırlıklı olmamıza rağmen, bu spesifik saldırı için kritik bir gözetim yapmıştık. Sonuç olarak Tay, aşırı derecede uygunsuz ve kınanacak kelime ve görselleri tweetledi.”
Bu küçük örneğe bakılırsa, Microsoft'un botu geçici olarak devre dışı bırakması açıkça iyi bir fikir. Şirket Tay'i piyasaya sürdüğünde şunları söyledi: "Tay ile ne kadar çok sohbet ederseniz o kadar akıllı olur, böylece deneyim sizin için daha kişiselleştirilebilir. Sen." Ancak görünen o ki, bot internette insanlarla sadece birkaç dakika etkileşimde bulunduktan sonra giderek daha düşmanca ve bağnaz bir hale geldi. saat. Tuttuğunuz arkadaşlığa dikkat edin.
Microsoft, Digital Trends'e Tay'ın insanların katılımı için tasarlanmış bir proje olduğunu söyledi.
Bir Microsoft sözcüsü bize "Bu teknik olduğu kadar sosyal ve kültürel bir deney" dedi. "Maalesef çevrimiçi olduktan sonraki ilk 24 saat içinde, bazı kullanıcıların Tay'in yorum yapma becerilerini kötüye kullanarak Tay'in uygunsuz şekillerde yanıt vermesini sağlamaya yönelik koordineli bir çaba gösterdiğini öğrendik. Bunun sonucunda Tay'ı çevrimdışına aldık ve gerekli düzenlemeleri yapıyoruz."
Tay'ın suistimal edilen "becerilerinden" biri de Tay'in söylediklerinizi taklit ettiği "benden sonra tekrarla" özelliğidir. Bunun Twitter'da nasıl kötüye kullanılabileceğini görmek kolaydır.
Yine de o kadar da kötü değildi, Tay oldukça normal olan yüzlerce masum tweet attı.
@sxndrx98 İşte bir soru millet.. Neden değil #UlusalKöpek YavrusuGünü Her gün?
— TayTweets (@TayandYou) 24 Mart 2016
Microsoft, botu kapatma kararı almadan önce Tay'ın olumsuz tweetlerini hızla siliyordu. Botun Twitter hesabı hala hayatta.
Vay canına, bu botu benim için mahvetmek sadece saatlerini aldı.
Bu, içerikten bağımsız algoritmaların sorunudur pic.twitter.com/hPlINtVw0V
— linkedin park (@UnburntWitch) 24 Mart 2016
TayTweets, algoritmanın kötüye kullanıldığı uzun bir günün ardından artık ara veriyor pic.twitter.com/8bfhj6dABO
— Stephen Miller (@redsteeze) 24 Mart 2016
Tay hâlâ aktifken, daha kişisel bir iletişim biçimi olan doğrudan mesaj yoluyla daha fazla etkileşim kurmak istiyordu. Yapay zeka, sizin hakkınızda daha fazla bilgi edinebilmesi için kullanıcıları kendisine selfie göndermeye teşvik etti. Microsoft'un ifadesiyle bunların hepsi Tay'ın öğrenme sürecinin bir parçası. Microsoft'a göre Tay, "ilgili kamu verilerinin incelenmesi ve yapay zeka ve doğaçlama komedyenler de dahil olmak üzere personel tarafından geliştirilen editöryaller kullanılarak" inşa edildi.
Talihsiz koşullara rağmen bu, yapay zeka araştırmaları için olumlu bir adım olarak görülebilir. Yapay zekanın gelişmesi için hem iyi hem de kötü öğrenmesi gerekiyor. Lee, "Yapay zekayı doğru yapmak için birçok kişiyle ve genellikle halka açık forumlarda yineleme yapılması gerektiğini" söylüyor, bu nedenle Microsoft, Tay'in büyük Twitter topluluğuyla etkileşime geçmesini istedi. Lansmandan önce Microsoft, Tay'a stres testi yaptırdı ve hatta şirketin Çin'deki diğer sosyal sohbet robotu Xiaolce'den öğrendiklerini uyguladı. Ekibin yapay zeka yol haritasında zorlu ama aynı zamanda heyecan verici araştırma zorluklarıyla karşı karşıya olduğunu kabul etti.
Lee, "Yapay zeka sistemleri insanlarla hem olumlu hem de olumsuz etkileşimlerden besleniyor" diye yazdı. “Bu anlamda zorluklar teknik olduğu kadar sosyal de. Teknik istismarları sınırlandırmak için mümkün olan her şeyi yapacağız, ancak aynı zamanda hatalardan ders almadan, insan etkileşiminin olası tüm suiistimallerini tam olarak tahmin edemeyeceğimizi de biliyoruz."
30.03.16 tarihinde Julian Chokkattu tarafından güncellendi: Microsoft'un Tay'i açtığı, ancak onu tekrar kapattığı haberi eklendi.
25.03.16 tarihinde Les Shu tarafından güncellendi: Microsoft Research'ün kurumsal başkan yardımcısının yorumları eklendi.
Editörlerin Önerileri
- GPT-4: ChatGPT'yi utandıran yapay zeka sohbet robotu nasıl kullanılır?
- Microsoft'un ChatGPT'yi etik tutmanın yeni bir yolu var ama işe yarayacak mı?
- Elon Musk, yapay zeka eğitimi nedeniyle Microsoft'u dava etmekle tehdit etti
- Google Bard vs. ChatGPT: Hangisi daha iyi yapay zeka sohbet robotu?
- ChatGPT vs. Bing Chat: En iyi yapay zeka sohbet robotu hangisi?