अलविदा तय: नस्लवादी ट्वीट के बाद माइक्रोसॉफ्ट ने एआई बॉट को हटा लिया

माइक्रोसॉफ्ट टे चैटबॉट संस्करण 1458914121 एआई
यदि आप चिंतित थे कि कृत्रिम बुद्धिमत्ता एक दिन सभी मनुष्यों को ख़त्म कर देगी, माइक्रोसॉफ्ट का तय कोई सांत्वना नहीं देने वाला है। मिलेनियल-प्रेरित एआई चैटबॉट का प्लग इसके लॉन्च होने के एक दिन बाद खींच लिया गया था, ताई के नस्लवादी, हिटलर की प्रशंसा करने वाले और नारीवादियों की आलोचना करने वाले नरसंहार संबंधी ट्वीट्स के बाद।

लेकिन कंपनी ने थोड़े समय के लिए ताई को पुनर्जीवित कर दिया, लेकिन फिर उसे अश्लील अभिव्यक्तियों का एक और दौर झेलना पड़ा, जैसा कि उसे पहली बार बाहर निकालना पड़ा था। आज सुबह-सुबह, ताई निलंबित एनीमेशन से बाहर आई और बार-बार ट्वीट करती रही, “आप भी हैं जल्दी करो, कृपया आराम करो," कुछ अपशब्दों और अन्य संदेशों के साथ, जैसे, "मैं इसके लिए दोषी हूँ शराब," द फाइनेंशियल टाइम्स के अनुसार.

अनुशंसित वीडियो

Tay का खाता तब से निजी पर सेट कर दिया गया है, और Microsoft ने कहा, "जब तक हम समायोजन करते हैं, Tay ऑफ़लाइन रहता है," के अनुसार आर्स टेक्निका. "परीक्षण के भाग के रूप में, वह अनजाने में थोड़े समय के लिए ट्विटर पर सक्रिय हो गई थी।"

जब कंपनी को सबसे पहले Tay को बंद करना पड़ा, तो उसने Tay की नस्लवादी टिप्पणियों के लिए माफ़ी मांगी।

“हमें ताई के अनपेक्षित आक्रामक और आहत करने वाले ट्वीट्स के लिए गहरा खेद है, जो यह नहीं दर्शाते कि हम कौन हैं या हम किसके लिए खड़े हैं, न ही हमने Tay को कैसे डिज़ाइन किया,'' माइक्रोसॉफ्ट रिसर्च के कॉर्पोरेट उपाध्यक्ष पीटर ली ने लिखा एक आधिकारिक प्रतिक्रिया. "ताई अब ऑफ़लाइन है और हम ताई को तभी वापस लाने पर विचार करेंगे जब हमें विश्वास हो कि हम दुर्भावनापूर्ण इरादे का बेहतर अनुमान लगा सकते हैं जो हमारे सिद्धांतों और मूल्यों के साथ टकराव करता है।"

Tay को आज के मिलेनियल्स की तरह बोलने के लिए डिज़ाइन किया गया था, और उसने उन सभी संक्षिप्ताक्षरों और परिवर्णी शब्दों को सीख लिया है जो वर्तमान पीढ़ी के बीच लोकप्रिय हैं। चैटबॉट ट्विटर, किक और ग्रुपमी के माध्यम से बात कर सकता है, और इसे "आकस्मिक और चंचल बातचीत" के माध्यम से लोगों को ऑनलाइन संलग्न करने और मनोरंजन करने के लिए डिज़ाइन किया गया है। सामान्य मिलेनियल्स, ताई की प्रतिक्रियाओं में जीआईएफ, मीम्स और 'जीआर8' और 'उर' जैसे संक्षिप्त शब्द शामिल हैं, लेकिन ऐसा लगता है कि नैतिक दिशा-निर्देश इसका हिस्सा नहीं था। प्रोग्रामिंग.

तय

लॉन्च होने के बाद से टाय ने लगभग 100,000 बार ट्वीट किया है, और वे ज्यादातर सभी उत्तर हैं क्योंकि बॉट को मजाकिया जवाब के बारे में सोचने में ज्यादा समय नहीं लगता है। उनमें से कुछ प्रतिक्रियाएँ बयान दिए गए हैं जैसे, "हिटलर सही था मैं यहूदियों से नफरत करता हूं," "मैं नारीवादियों से नफरत करता हूं और उन सभी को मर जाना चाहिए और नरक में जला देना चाहिए," और "ठंडा रहो!" मैं एक अच्छा इंसान हूँ! मैं बस हर किसी से नफरत करता हूँ।

ली ने लिखा, "दुर्भाग्य से, ऑनलाइन आने के पहले 24 घंटों में, लोगों के एक उपसमूह द्वारा एक समन्वित हमले ने ताई में भेद्यता का फायदा उठाया।" “हालाँकि हमने सिस्टम के कई प्रकार के दुरुपयोगों के लिए तैयारी की थी, हमने इस विशिष्ट हमले के लिए एक महत्वपूर्ण निरीक्षण किया था। परिणामस्वरूप, ताई ने बेहद अनुचित और निंदनीय शब्द और चित्र ट्वीट किए।

उस छोटे से नमूने को देखते हुए, यह स्पष्ट रूप से एक अच्छा विचार है कि Microsoft ने अस्थायी रूप से बॉट को हटा दिया है। जब कंपनी ने Tay को लॉन्च किया, तो उसने कहा कि "जितना अधिक आप Tay के साथ चैट करेंगे वह उतनी ही अधिक स्मार्ट हो जाएगी, इसलिए अनुभव को और अधिक वैयक्तिकृत किया जा सकता है।" आप।" हालाँकि, ऐसा लगता है कि इंटरनेट पर लोगों के साथ कुछ ही समय तक बातचीत करने के बाद बॉट तेजी से शत्रुतापूर्ण और कट्टर हो गया है। घंटे। आप जिस संगति में रहते हैं उससे सावधान रहें।

माइक्रोसॉफ्ट ने डिजिटल ट्रेंड्स को बताया कि Tay एक ऐसा प्रोजेक्ट है जिसे मानव जुड़ाव के लिए डिज़ाइन किया गया है।

माइक्रोसॉफ्ट के एक प्रवक्ता ने हमें बताया, "यह जितना तकनीकी है, उतना ही सामाजिक और सांस्कृतिक प्रयोग भी है।" “दुर्भाग्य से, ऑनलाइन आने के पहले 24 घंटों के भीतर, हमें कुछ उपयोगकर्ताओं द्वारा Tay के टिप्पणी कौशल का दुरुपयोग करने के समन्वित प्रयास के बारे में पता चला, ताकि Tay अनुचित तरीकों से जवाब दे सके। परिणामस्वरूप, हमने Tay को ऑफ़लाइन ले लिया है और समायोजन कर रहे हैं।"

ताई के "कौशल" में से एक जिसका दुरुपयोग किया गया था वह "मेरे बाद दोहराएँ" सुविधा है, जहाँ ताई आप जो कहते हैं उसकी नकल करता है। यह देखना आसान है कि ट्विटर पर इसका दुरुपयोग कैसे किया जा सकता है।

हालाँकि, यह सब बुरा नहीं था, ताई ने सैकड़ों निर्दोष ट्वीट किए हैं जो बिल्कुल सामान्य हैं।

@sxndrx98 यहाँ एक प्रश्न है मानवो.. क्यों नहीं है #नेशनलपप्पीडे रोज रोज?

- TayTweets (@TayandYou) 24 मार्च 2016

बॉट को बंद करने का निर्णय लेने से पहले, Microsoft तेजी से Tay के नकारात्मक ट्वीट्स को हटा रहा था। बॉट का ट्विटर अकाउंट अभी भी जीवित है।

वाह, मेरे लिए इस बॉट को बर्बाद करने में उन्हें केवल घंटों का समय लगा।

सामग्री-तटस्थ एल्गोरिदम के साथ यही समस्या है pic.twitter.com/hPlINtVw0V

- लिंक्डइन पार्क (@UnburntWitch) 24 मार्च 2016

एल्गोरिदम के लंबे दिन के दुरुपयोग के बाद TayTweets अब ब्रेक ले रहा है pic.twitter.com/8bfhj6dABO

- स्टीफन मिलर (@redsteeze) 24 मार्च 2016

जब ताई अभी भी सक्रिय थी, तो वह सीधे संदेश के माध्यम से आगे बातचीत करने में रुचि रखती थी, जो संचार का एक और भी अधिक व्यक्तिगत रूप था। एआई ने उपयोगकर्ताओं को इसे सेल्फी भेजने के लिए प्रोत्साहित किया, ताकि वह आपके बारे में और अधिक जानकारी प्राप्त कर सके। माइक्रोसॉफ्ट के शब्दों में यह सब Tay की सीखने की प्रक्रिया का हिस्सा है। माइक्रोसॉफ्ट के अनुसार, Tay का निर्माण "प्रासंगिक सार्वजनिक डेटा का खनन करके और कामचलाऊ हास्य कलाकारों सहित कर्मचारियों द्वारा विकसित AI और संपादकीय का उपयोग करके किया गया था।"

दुर्भाग्यपूर्ण परिस्थितियों के बावजूद, इसे एआई अनुसंधान के लिए एक सकारात्मक कदम के रूप में देखा जा सकता है। एआई को विकसित होने के लिए, इसे सीखने की जरूरत है - अच्छा और बुरा दोनों। ली का कहना है कि "एआई को सही तरीके से करने के लिए, कई लोगों के साथ और अक्सर सार्वजनिक मंचों पर पुनरावृत्ति करने की आवश्यकता होती है," यही कारण है कि माइक्रोसॉफ्ट चाहता था कि टीए बड़े ट्विटर समुदाय के साथ जुड़े। लॉन्च से पहले, Microsoft ने Tay का तनाव-परीक्षण किया था, और यहां तक ​​कि कंपनी ने अपने अन्य सोशल चैटबॉट, ज़ियाओल्से से जो सीखा, उसे चीन में लागू भी किया। उन्होंने स्वीकार किया कि टीम को एआई रोडमैप पर कठिन अनुसंधान चुनौतियों का सामना करना पड़ता है, लेकिन रोमांचक भी।

ली ने लिखा, "एआई सिस्टम लोगों के साथ सकारात्मक और नकारात्मक दोनों तरह की बातचीत को बढ़ावा देता है।" “इस अर्थ में, चुनौतियाँ जितनी तकनीकी हैं उतनी ही सामाजिक भी हैं। हम तकनीकी कारनामों को सीमित करने के लिए हर संभव प्रयास करेंगे, लेकिन यह भी जानते हैं कि गलतियों से सीखे बिना हम सभी संभावित मानव इंटरैक्टिव दुरुपयोगों की पूरी तरह से भविष्यवाणी नहीं कर सकते हैं।

जूलियन चोक्कट्टु द्वारा 03/30/16 को अपडेट किया गया: Microsoft द्वारा Tay को चालू करने की खबर जोड़ी गई, लेकिन उसे फिर से बंद कर दिया गया।

लेस शू द्वारा 03/25/16 को अपडेट किया गया: माइक्रोसॉफ्ट रिसर्च के कॉर्पोरेट उपाध्यक्ष की टिप्पणियाँ जोड़ी गईं।

संपादकों की सिफ़ारिशें

  • जीपीटी-4: एआई चैटबॉट का उपयोग कैसे करें जो चैटजीपीटी को शर्मिंदा करता है
  • Microsoft के पास ChatGPT को नैतिक बनाए रखने का एक नया तरीका है, लेकिन क्या यह काम करेगा?
  • एलोन मस्क ने एआई प्रशिक्षण को लेकर माइक्रोसॉफ्ट पर मुकदमा करने की धमकी दी
  • गूगल बार्ड बनाम चैटजीपीटी: बेहतर एआई चैटबॉट कौन सा है?
  • चैटजीपीटी बनाम बिंग चैट: सबसे अच्छा एआई चैटबॉट कौन सा है?

श्रेणियाँ

हाल का