एक से एक आत्महत्या पीड़िता का वीडियो यूट्यूब पर "यहूदी नफरत करने वालों" को लक्षित करने वाले विज्ञापन पर फेसबुक, सोशल मीडिया प्लेटफ़ॉर्म अनुपयुक्त सामग्री से ग्रस्त हैं जो दरारों से फिसलने का प्रबंधन करती है। कई मामलों में, प्लेटफ़ॉर्म की प्रतिक्रिया अनुचित सामग्री को बेहतर ढंग से पहचानने के लिए बेहतर एल्गोरिदम लागू करना है। लेकिन कृत्रिम बुद्धिमत्ता वास्तव में क्या पकड़ने में सक्षम है, हमें इस पर कितना भरोसा करना चाहिए और यह कहाँ बुरी तरह विफल होती है?
“ए.आई. आपत्तिजनक भाषा पकड़ सकता है और यह छवियों को बहुत अच्छी तरह से पहचान सकता है। छवि को पहचानने की शक्ति मौजूद है,'' के मुख्य डिजिटल अधिकारी विंस्टन बिंच कहते हैं
deutsch, एक रचनात्मक एजेंसी जो ए.आई. का उपयोग करती है। टारगेट से टैको बेल तक ब्रांडों के लिए डिजिटल अभियान बनाने में। "ग्रे एरिया इरादा बन जाता है।"ए.आई. पाठ और छवि दोनों को पढ़ सकता है, लेकिन सटीकता भिन्न होती है
प्राकृतिक भाषा प्रसंस्करण का उपयोग करते हुए, ए.आई. कई भाषाओं में पाठ को पहचानने के लिए प्रशिक्षित किया जा सकता है। उदाहरण के लिए, सामुदायिक दिशानिर्देशों का उल्लंघन करने वाली पोस्टों का पता लगाने के लिए डिज़ाइन किया गया एक कार्यक्रम, नस्लीय अपमान या चरमपंथी प्रचार से जुड़े शब्दों का पता लगाना सिखाया जा सकता है।
ए.आई. छवियों को पहचानने, कुछ प्रकार की नग्नता को रोकने या स्वस्तिक जैसे प्रतीकों को पहचानने के लिए भी प्रशिक्षित किया जा सकता है। यह कई मामलों में अच्छा काम करता है, लेकिन यह फुलप्रूफ नहीं है। उदाहरण के लिए, गहरे रंग के लोगों की छवियों को कीवर्ड के साथ टैग करने के लिए Google फ़ोटो की आलोचना की गई थी "गोरिल्ला।" वर्षों बाद भी, Google को अभी भी समस्या का कोई समाधान नहीं मिला है, बल्कि उसने इसे हटाने का विकल्प चुना है बंदरों और गोरिल्लाओं को टैग करने की कार्यक्रम की क्षमता पूरी तरह से.
जैसे-जैसे किसी शब्द का अर्थ विकसित होता है, या यह समझने के लिए कि संदर्भ में किसी शब्द का उपयोग कैसे किया जाता है, एल्गोरिदम को भी अद्यतन करने की आवश्यकता होती है। उदाहरण के लिए, एलजीबीटी ट्विटर उपयोगकर्ताओं ने हाल ही में अन्य शब्दों के अलावा #समलैंगिक और #उभयलिंगी के लिए खोज परिणामों की कमी देखी, जिससे कुछ लोगों को लगा कि सेवा उन्हें सेंसर कर रही है। ट्विटर ने गलती के लिए खुद को जिम्मेदार ठहराते हुए माफी मांगी एक पुराना एल्गोरिदम वह संभावित रूप से आपत्तिजनक शब्दों के साथ टैग किए गए पोस्ट की गलत पहचान कर रहा था। ट्विटर ने कहा कि उसके एल्गोरिदम को पोस्ट के संदर्भ में शब्द पर विचार करना चाहिए था, लेकिन वह उन कीवर्ड के साथ ऐसा करने में विफल रहा।
ए.आई. पक्षपातपूर्ण है
गोरिल्ला टैगिंग की विफलता एक और महत्वपूर्ण कमी सामने लाती है - ए.आई. पक्षपातपूर्ण है. आपको आश्चर्य हो सकता है कि एक कंप्यूटर कैसे पक्षपाती हो सकता है, लेकिन ए.आई. लोगों को कार्यों को पूरा करते हुए देखकर, या उन कार्यों के परिणामों को इनपुट करके प्रशिक्षित किया जाता है। उदाहरण के लिए, किसी तस्वीर में वस्तुओं की पहचान करने के कार्यक्रमों को अक्सर सिस्टम में उन हजारों छवियों को फीड करके प्रशिक्षित किया जाता है जिन्हें शुरू में हाथ से टैग किया गया था।
मानवीय तत्व ही ए.आई. को संभव बनाता है। कार्य करने के लिए लेकिन साथ ही यह मानवीय पूर्वाग्रह भी देता है।
मानवीय तत्व ही ए.आई. को संभव बनाता है। विशिष्ट सॉफ़्टवेयर पर पहले असंभव कार्यों को पूरा करना, लेकिन वही मानवीय तत्व अनजाने में कंप्यूटर को मानवीय पूर्वाग्रह भी देता है। एक ए.आई. कार्यक्रम केवल प्रशिक्षण डेटा जितना ही अच्छा है - उदाहरण के लिए, यदि सिस्टम में बड़े पैमाने पर श्वेत पुरुषों की छवियां डाली गईं, तो कार्यक्रम को अन्य त्वचा टोन वाले लोगों की पहचान करने में कठिनाई होगी।
“एआई की एक कमी, सामान्य तौर पर, जब टिप्पणियों से लेकर उपयोगकर्ता तक किसी भी चीज़ को मॉडरेट करने की बात आती है सामग्री, यह है कि यह स्वाभाविक रूप से डिज़ाइन द्वारा तय की गई है, ”कार्यकारी तकनीकी पीजे अहलबर्ग ने कहा के निर्देशक स्टिंक स्टूडियो न्यूयॉर्क, एक एजेंसी जो ए.आई. का उपयोग करती है। सोशल मीडिया बॉट बनाने और ब्रांड अभियानों को मॉडरेट करने के लिए।
एक बार प्रशिक्षण सेट विकसित हो जाने के बाद, वह डेटा अक्सर डेवलपर्स के बीच साझा किया जाता है, जिसका अर्थ है कि पूर्वाग्रह कई कार्यक्रमों में फैल जाता है। अहलबर्ग का कहना है कि कारक का मतलब है कि डेवलपर्स एकाधिक ए.आई. का उपयोग करके प्रोग्राम में उन डेटा सेटों को संशोधित करने में असमर्थ हैं। सिस्टम, जिससे किसी भी पूर्वाग्रह की खोज के बाद उसे दूर करना मुश्किल हो जाता है।
ए.आई. इरादा निर्धारित नहीं कर सकता
ए.आई. किसी तस्वीर में स्वस्तिक का पता लगा सकता है - लेकिन सॉफ़्टवेयर यह निर्धारित नहीं कर सकता कि इसका उपयोग कैसे किया जा रहा है। उदाहरण के लिए, फेसबुक ने हाल ही में माफी मांगी है उस पोस्ट को हटाना जिसमें स्वस्तिक था लेकिन इसके साथ नफरत के प्रसार को रोकने के लिए एक लिखित अनुरोध भी था।
यह A.I की विफलता का उदाहरण है. इरादे को पहचानना. फेसबुक ने इसकी एक तस्वीर भी टैग की है नेप्च्यून की मूर्ति यौन रूप से स्पष्ट. इसके अतिरिक्त, छवियों में दिखाई देने वाले घृणा प्रतीकों या हिंसा के कारण एल्गोरिदम अनजाने में फोटोजर्नलिस्टिक कार्य को चिह्नित कर सकता है।
शैक्षिक उद्देश्यों के लिए साझा की गई ऐतिहासिक छवियां एक और उदाहरण हैं - 2016 में, फेसबुक ने इसके बाद विवाद पैदा कर दिया था ऐतिहासिक "नेपलम गर्ल" तस्वीर हटा दी गई पहले भी कई बार उपयोगकर्ताओं के दबाव के कारण कंपनी को नग्नता पर अपना सख्त रुख बदलने और फोटो को बहाल करने के लिए मजबूर होना पड़ा।
ए.आई. प्रारंभिक स्क्रीनिंग के रूप में काम करता है, लेकिन यह निर्धारित करने के लिए मानव मध्यस्थों की अक्सर आवश्यकता होती है कि सामग्री वास्तव में सामुदायिक मानकों का उल्लंघन करती है या नहीं। ए.आई. में सुधार के बावजूद, यह कोई ऐसा तथ्य नहीं है जो बदल रहा हो। उदाहरण के लिए, फेसबुक इस साल अपनी समीक्षा टीम का आकार बढ़ाकर 20,000 कर रहा है, जो पिछले साल की तुलना में दोगुना है।
ए.आई. इंसानों को तेजी से काम करने में मदद कर रहा है
एक मानव मस्तिष्क की अभी भी आवश्यकता हो सकती है, लेकिन ए.आई. ने प्रक्रिया को और अधिक कुशल बना दिया है। ए.आई. यह निर्धारित करने में मदद कर सकता है कि किन पोस्टों के लिए मानवीय समीक्षा की आवश्यकता है, साथ ही उन पोस्टों को प्राथमिकता देने में भी मदद मिल सकती है। 2017 में फेसबुक ने उसे शेयर किया था ए.आई. आत्महत्या की प्रवृत्ति का पता लगाने के लिए डिज़ाइन किया गया इसके परिणामस्वरूप एक महीने में आपातकालीन उत्तरदाताओं को 100 कॉलें आईं। उन दिनों,
गेटी इमेजेज़/ब्लैकज़ीप
“[ए.आई. ने एक लंबा सफर तय किया है और यह निश्चित रूप से प्रगति कर रहा है, लेकिन वास्तविकता यह है कि आपको अभी भी एक मानवीय तत्व की पुष्टि की बहुत आवश्यकता है स्टिंक के प्रबंध निदेशक क्रिस मेले ने कहा, "आप सही शब्दों, सही सामग्री और सही संदेश को संशोधित कर रहे हैं।" स्टूडियो. “जहां ऐसा लगता है ए.आई. सबसे अच्छा काम मानव मध्यस्थों को सुविधा प्रदान करना और उन्हें तेजी से और बड़े पैमाने पर काम करने में मदद करना है। मुझे नहीं लगता कि ए.आई. यह किसी भी प्लेटफ़ॉर्म पर 100 प्रतिशत स्वचालित होने के करीब है।"
ए.आई. तेज़ है, लेकिन नैतिकता धीमी है
प्रौद्योगिकी, सामान्य तौर पर, कानून और नैतिकता की तुलना में तेजी से बढ़ती है - और सोशल मीडिया मॉडरेशन कोई अपवाद नहीं है। बिंच का सुझाव है कि उस कारक का मतलब मानविकी या नैतिकता की पृष्ठभूमि वाले कर्मचारियों की बढ़ती मांग हो सकता है, जो कि अधिकांश प्रोग्रामर के पास नहीं है।
जैसा कि उन्होंने कहा, "अब हम एक ऐसे स्थान पर हैं जहां गति, गति इतनी तेज है कि हमें यह सुनिश्चित करने की ज़रूरत है कि नैतिक घटक बहुत पीछे न चले।"
संपादकों की सिफ़ारिशें
- जब कॉपीराइट के कारण वीडियो साउंडट्रैक ढूंढना कठिन हो जाता है, तो यह ए.आई. संगीतकार मदद कर सकता है
- 8K से A.I. तक, यह 2019 में कैमरों में आ सकता है
- कंप्यूटर जल्द ही हमें मात दे देंगे। क्या इससे ए.आई. बनता है? विद्रोह अपरिहार्य?