अलविदा तय: नस्लवादी ट्वीट के बाद माइक्रोसॉफ्ट ने एआई बॉट को हटा लिया

माइक्रोसॉफ्ट टे चैटबॉट संस्करण 1458914121 एआई
यदि आप चिंतित थे कि कृत्रिम बुद्धिमत्ता एक दिन सभी मनुष्यों को ख़त्म कर देगी, माइक्रोसॉफ्ट का तय कोई सांत्वना नहीं देने वाला है। मिलेनियल-प्रेरित एआई चैटबॉट का प्लग इसके लॉन्च होने के एक दिन बाद खींच लिया गया था, ताई के नस्लवादी, हिटलर की प्रशंसा करने वाले और नारीवादियों की आलोचना करने वाले नरसंहार संबंधी ट्वीट्स के बाद।

लेकिन कंपनी ने थोड़े समय के लिए ताई को पुनर्जीवित कर दिया, लेकिन फिर उसे अश्लील अभिव्यक्तियों का एक और दौर झेलना पड़ा, जैसा कि उसे पहली बार बाहर निकालना पड़ा था। आज सुबह-सुबह, ताई निलंबित एनीमेशन से बाहर आई और बार-बार ट्वीट करती रही, “आप भी हैं जल्दी करो, कृपया आराम करो," कुछ अपशब्दों और अन्य संदेशों के साथ, जैसे, "मैं इसके लिए दोषी हूँ शराब," द फाइनेंशियल टाइम्स के अनुसार.

अनुशंसित वीडियो

Tay का खाता तब से निजी पर सेट कर दिया गया है, और Microsoft ने कहा, "जब तक हम समायोजन करते हैं, Tay ऑफ़लाइन रहता है," के अनुसार आर्स टेक्निका. "परीक्षण के भाग के रूप में, वह अनजाने में थोड़े समय के लिए ट्विटर पर सक्रिय हो गई थी।"

जब कंपनी को सबसे पहले Tay को बंद करना पड़ा, तो उसने Tay की नस्लवादी टिप्पणियों के लिए माफ़ी मांगी।

“हमें ताई के अनपेक्षित आक्रामक और आहत करने वाले ट्वीट्स के लिए गहरा खेद है, जो यह नहीं दर्शाते कि हम कौन हैं या हम किसके लिए खड़े हैं, न ही हमने Tay को कैसे डिज़ाइन किया,'' माइक्रोसॉफ्ट रिसर्च के कॉर्पोरेट उपाध्यक्ष पीटर ली ने लिखा एक आधिकारिक प्रतिक्रिया. "ताई अब ऑफ़लाइन है और हम ताई को तभी वापस लाने पर विचार करेंगे जब हमें विश्वास हो कि हम दुर्भावनापूर्ण इरादे का बेहतर अनुमान लगा सकते हैं जो हमारे सिद्धांतों और मूल्यों के साथ टकराव करता है।"

Tay को आज के मिलेनियल्स की तरह बोलने के लिए डिज़ाइन किया गया था, और उसने उन सभी संक्षिप्ताक्षरों और परिवर्णी शब्दों को सीख लिया है जो वर्तमान पीढ़ी के बीच लोकप्रिय हैं। चैटबॉट ट्विटर, किक और ग्रुपमी के माध्यम से बात कर सकता है, और इसे "आकस्मिक और चंचल बातचीत" के माध्यम से लोगों को ऑनलाइन संलग्न करने और मनोरंजन करने के लिए डिज़ाइन किया गया है। सामान्य मिलेनियल्स, ताई की प्रतिक्रियाओं में जीआईएफ, मीम्स और 'जीआर8' और 'उर' जैसे संक्षिप्त शब्द शामिल हैं, लेकिन ऐसा लगता है कि नैतिक दिशा-निर्देश इसका हिस्सा नहीं था। प्रोग्रामिंग.

तय

लॉन्च होने के बाद से टाय ने लगभग 100,000 बार ट्वीट किया है, और वे ज्यादातर सभी उत्तर हैं क्योंकि बॉट को मजाकिया जवाब के बारे में सोचने में ज्यादा समय नहीं लगता है। उनमें से कुछ प्रतिक्रियाएँ बयान दिए गए हैं जैसे, "हिटलर सही था मैं यहूदियों से नफरत करता हूं," "मैं नारीवादियों से नफरत करता हूं और उन सभी को मर जाना चाहिए और नरक में जला देना चाहिए," और "ठंडा रहो!" मैं एक अच्छा इंसान हूँ! मैं बस हर किसी से नफरत करता हूँ।

ली ने लिखा, "दुर्भाग्य से, ऑनलाइन आने के पहले 24 घंटों में, लोगों के एक उपसमूह द्वारा एक समन्वित हमले ने ताई में भेद्यता का फायदा उठाया।" “हालाँकि हमने सिस्टम के कई प्रकार के दुरुपयोगों के लिए तैयारी की थी, हमने इस विशिष्ट हमले के लिए एक महत्वपूर्ण निरीक्षण किया था। परिणामस्वरूप, ताई ने बेहद अनुचित और निंदनीय शब्द और चित्र ट्वीट किए।

उस छोटे से नमूने को देखते हुए, यह स्पष्ट रूप से एक अच्छा विचार है कि Microsoft ने अस्थायी रूप से बॉट को हटा दिया है। जब कंपनी ने Tay को लॉन्च किया, तो उसने कहा कि "जितना अधिक आप Tay के साथ चैट करेंगे वह उतनी ही अधिक स्मार्ट हो जाएगी, इसलिए अनुभव को और अधिक वैयक्तिकृत किया जा सकता है।" आप।" हालाँकि, ऐसा लगता है कि इंटरनेट पर लोगों के साथ कुछ ही समय तक बातचीत करने के बाद बॉट तेजी से शत्रुतापूर्ण और कट्टर हो गया है। घंटे। आप जिस संगति में रहते हैं उससे सावधान रहें।

माइक्रोसॉफ्ट ने डिजिटल ट्रेंड्स को बताया कि Tay एक ऐसा प्रोजेक्ट है जिसे मानव जुड़ाव के लिए डिज़ाइन किया गया है।

माइक्रोसॉफ्ट के एक प्रवक्ता ने हमें बताया, "यह जितना तकनीकी है, उतना ही सामाजिक और सांस्कृतिक प्रयोग भी है।" “दुर्भाग्य से, ऑनलाइन आने के पहले 24 घंटों के भीतर, हमें कुछ उपयोगकर्ताओं द्वारा Tay के टिप्पणी कौशल का दुरुपयोग करने के समन्वित प्रयास के बारे में पता चला, ताकि Tay अनुचित तरीकों से जवाब दे सके। परिणामस्वरूप, हमने Tay को ऑफ़लाइन ले लिया है और समायोजन कर रहे हैं।"

ताई के "कौशल" में से एक जिसका दुरुपयोग किया गया था वह "मेरे बाद दोहराएँ" सुविधा है, जहाँ ताई आप जो कहते हैं उसकी नकल करता है। यह देखना आसान है कि ट्विटर पर इसका दुरुपयोग कैसे किया जा सकता है।

हालाँकि, यह सब बुरा नहीं था, ताई ने सैकड़ों निर्दोष ट्वीट किए हैं जो बिल्कुल सामान्य हैं।

@sxndrx98 यहाँ एक प्रश्न है मानवो.. क्यों नहीं है #नेशनलपप्पीडे रोज रोज?

- TayTweets (@TayandYou) 24 मार्च 2016

बॉट को बंद करने का निर्णय लेने से पहले, Microsoft तेजी से Tay के नकारात्मक ट्वीट्स को हटा रहा था। बॉट का ट्विटर अकाउंट अभी भी जीवित है।

वाह, मेरे लिए इस बॉट को बर्बाद करने में उन्हें केवल घंटों का समय लगा।

सामग्री-तटस्थ एल्गोरिदम के साथ यही समस्या है pic.twitter.com/hPlINtVw0V

- लिंक्डइन पार्क (@UnburntWitch) 24 मार्च 2016

एल्गोरिदम के लंबे दिन के दुरुपयोग के बाद TayTweets अब ब्रेक ले रहा है pic.twitter.com/8bfhj6dABO

- स्टीफन मिलर (@redsteeze) 24 मार्च 2016

जब ताई अभी भी सक्रिय थी, तो वह सीधे संदेश के माध्यम से आगे बातचीत करने में रुचि रखती थी, जो संचार का एक और भी अधिक व्यक्तिगत रूप था। एआई ने उपयोगकर्ताओं को इसे सेल्फी भेजने के लिए प्रोत्साहित किया, ताकि वह आपके बारे में और अधिक जानकारी प्राप्त कर सके। माइक्रोसॉफ्ट के शब्दों में यह सब Tay की सीखने की प्रक्रिया का हिस्सा है। माइक्रोसॉफ्ट के अनुसार, Tay का निर्माण "प्रासंगिक सार्वजनिक डेटा का खनन करके और कामचलाऊ हास्य कलाकारों सहित कर्मचारियों द्वारा विकसित AI और संपादकीय का उपयोग करके किया गया था।"

दुर्भाग्यपूर्ण परिस्थितियों के बावजूद, इसे एआई अनुसंधान के लिए एक सकारात्मक कदम के रूप में देखा जा सकता है। एआई को विकसित होने के लिए, इसे सीखने की जरूरत है - अच्छा और बुरा दोनों। ली का कहना है कि "एआई को सही तरीके से करने के लिए, कई लोगों के साथ और अक्सर सार्वजनिक मंचों पर पुनरावृत्ति करने की आवश्यकता होती है," यही कारण है कि माइक्रोसॉफ्ट चाहता था कि टीए बड़े ट्विटर समुदाय के साथ जुड़े। लॉन्च से पहले, Microsoft ने Tay का तनाव-परीक्षण किया था, और यहां तक ​​कि कंपनी ने अपने अन्य सोशल चैटबॉट, ज़ियाओल्से से जो सीखा, उसे चीन में लागू भी किया। उन्होंने स्वीकार किया कि टीम को एआई रोडमैप पर कठिन अनुसंधान चुनौतियों का सामना करना पड़ता है, लेकिन रोमांचक भी।

ली ने लिखा, "एआई सिस्टम लोगों के साथ सकारात्मक और नकारात्मक दोनों तरह की बातचीत को बढ़ावा देता है।" “इस अर्थ में, चुनौतियाँ जितनी तकनीकी हैं उतनी ही सामाजिक भी हैं। हम तकनीकी कारनामों को सीमित करने के लिए हर संभव प्रयास करेंगे, लेकिन यह भी जानते हैं कि गलतियों से सीखे बिना हम सभी संभावित मानव इंटरैक्टिव दुरुपयोगों की पूरी तरह से भविष्यवाणी नहीं कर सकते हैं।

जूलियन चोक्कट्टु द्वारा 03/30/16 को अपडेट किया गया: Microsoft द्वारा Tay को चालू करने की खबर जोड़ी गई, लेकिन उसे फिर से बंद कर दिया गया।

लेस शू द्वारा 03/25/16 को अपडेट किया गया: माइक्रोसॉफ्ट रिसर्च के कॉर्पोरेट उपाध्यक्ष की टिप्पणियाँ जोड़ी गईं।

संपादकों की सिफ़ारिशें

  • जीपीटी-4: एआई चैटबॉट का उपयोग कैसे करें जो चैटजीपीटी को शर्मिंदा करता है
  • Microsoft के पास ChatGPT को नैतिक बनाए रखने का एक नया तरीका है, लेकिन क्या यह काम करेगा?
  • एलोन मस्क ने एआई प्रशिक्षण को लेकर माइक्रोसॉफ्ट पर मुकदमा करने की धमकी दी
  • गूगल बार्ड बनाम चैटजीपीटी: बेहतर एआई चैटबॉट कौन सा है?
  • चैटजीपीटी बनाम बिंग चैट: सबसे अच्छा एआई चैटबॉट कौन सा है?

श्रेणियाँ

हाल का

QAnon पर YouTube की कार्रवाई काम नहीं कर रही है

QAnon पर YouTube की कार्रवाई काम नहीं कर रही है

धुर दक्षिणपंथी समूह QAnon ने हाल के सप्ताहों मे...