गूगल के दो अधिकारियों ने शुक्रवार को कहा कि कृत्रिम बुद्धिमत्ता में पूर्वाग्रह अमेरिका में पहले से ही हाशिए पर मौजूद समुदायों को नुकसान पहुंचा रहा है और यह सुनिश्चित करने के लिए और अधिक प्रयास करने की जरूरत है कि ऐसा न हो। एक्स। आँख, Google में जिम्मेदार नवप्रवर्तन के लिए आउटरीच नेतृत्व, और एंजेला विलियम्स, Google में नीति प्रबंधक ने बात की (आईआरएल नहीं) गौरव शिखर सम्मेलन, दुनिया भर में महिलाओं, गैर-बाइनरी और ट्रांस लोगों के लिए दुनिया के सबसे बड़े प्रौद्योगिकी-केंद्रित एलजीबीटीक्यू संगठन, लेस्बियन्स हू टेक एंड एलीज़ द्वारा आयोजित एक कार्यक्रम।
में अलगबाते, उन्होंने उन तरीकों को संबोधित किया जिनसे मशीन लर्निंग तकनीक का उपयोग अमेरिका में काले समुदाय और अन्य समुदायों को नुकसान पहुंचाने के लिए किया जा सकता है - और दुनिया भर में अधिक व्यापक रूप से।
अनुशंसित वीडियो
एल्गोरिदम में पूर्वाग्रह सिर्फ एक डेटा समस्या नहीं है। एआई का उपयोग करने का विकल्प पक्षपातपूर्ण हो सकता है, जिस तरह से एल्गोरिदम सीखता है वह पक्षपाती हो सकता है, और जिस तरह से उपयोगकर्ता सिस्टम को प्रभावित करते हैं / उसके साथ बातचीत करते हैं / समझते हैं वह पूर्वाग्रह को मजबूत कर सकता है! चेक आउट @timnitGebruअधिक जानने का काम!
- एक्स। आँख??? (@TechWithX) 26 जून 2020
विलियम्स ने ए.आई. के उपयोग पर चर्चा की। व्यापक निगरानी के लिए, इसकी भूमिका अत्यधिक पुलिसिंग, और पक्षपातपूर्ण सजा के लिए इसका कार्यान्वयन। "[ऐसा नहीं है] कि तकनीक नस्लवादी है, लेकिन हम प्रौद्योगिकी में अपने स्वयं के अचेतन पूर्वाग्रह को कोड कर सकते हैं," उसने कहा। विलियम्स ने प्रकाश डाला रॉबर्ट जूलियन-बोरचक विलियम्स का मामलाडेट्रॉइट का एक अफ़्रीकी-अमेरिकी व्यक्ति, जिसे हाल ही में गलत तरीके से गिरफ्तार कर लिया गया था, क्योंकि चेहरे की पहचान प्रणाली ने उसकी तस्वीर को एक दुकानदार के सुरक्षा फुटेज के साथ गलत तरीके से मिलान कर दिया था। पिछले अध्ययनों से पता चला है कि चेहरे की पहचान प्रणाली को संघर्ष करना पड़ सकता है विभिन्न काले लोगों के बीच अंतर करना. “यह वह जगह है जहां ए.आई. ...वास्तविक दुनिया में निगरानी बहुत गलत हो सकती है,'' विलियम्स ने कहा।
एक्स। आई ने यह भी चर्चा की कि कैसे ए.आई. "अनुचित पूर्वाग्रह को बढ़ाने और सुदृढ़ करने" में मदद कर सकता है। अधिक अर्ध-डिस्टोपियन के अलावा, ध्यान खींचने वाले उपयोग ए.आई., आई ने उस तरीके पर ध्यान केंद्रित किया जिसमें पूर्वाग्रह प्रौद्योगिकी के अधिक प्रतीत होने वाले सांसारिक, रोजमर्रा के उपयोग में आ सकता है - जिसमें Google का अपना भी शामिल है औजार। आई ने कहा, "Google में, हम इन चुनौतियों से अछूते नहीं हैं।" "हाल के वर्षों में... हम इस बात को लेकर कई बार सुर्खियों में रहे हैं कि हमारे एल्गोरिदम ने लोगों पर कैसे नकारात्मक प्रभाव डाला है।" उदाहरण के लिए, Google ने एक टूल विकसित किया है ऑनलाइन टिप्पणियों की विषाक्तता को वर्गीकृत करना. हालाँकि यह बहुत मददगार हो सकता है, यह समस्याग्रस्त भी था: "मैं एक अश्वेत समलैंगिक महिला हूँ" जैसे वाक्यांशों को शुरू में अधिक के रूप में वर्गीकृत किया गया था "मैं एक श्वेत व्यक्ति हूँ" से भी अधिक विषैला। यह प्रशिक्षण डेटा सेट में अंतराल के कारण था, जिसमें कुछ पहचानों के बारे में अधिक बातचीत हुई थी अन्य।
Google के दो अधिकारियों ने कहा कि इन समस्याओं का कोई व्यापक समाधान नहीं है। जहां भी समस्याएं पाई जाती हैं, Google पूर्वाग्रह को दूर करने के लिए काम करता है। लेकिन संभावित स्थानों का दायरा जहां पूर्वाग्रह सिस्टम में प्रवेश कर सकते हैं - एल्गोरिदम के डिजाइन से लेकर उनके तक जिस सामाजिक संदर्भ में डेटा तैयार किया जाता है, उस पर तैनाती का मतलब है कि वहां हमेशा समस्या रहेगी उदाहरण। मुख्य बात यह है कि इसके बारे में जागरूक रहें, ताकि ऐसे उपकरणों की जांच की जा सके, और विविध समुदायों को इन प्रौद्योगिकियों के उपयोग के बारे में अपनी आवाज उठाने में सक्षम बनाया जा सके।
संपादकों की सिफ़ारिशें
- क्या ए.आई. माइक्रोचिप्स डिज़ाइन करने में मानव इंजीनियरों को हराया? Google ऐसा सोचता है
- बिगस्लीप ए.आई. उन चित्रों के लिए Google छवि खोज की तरह है जो अभी तक मौजूद नहीं हैं
- Google A.I से YouTube सामग्री को मॉडरेट करने के लिए मनुष्यों को वापस लाता है।
- फर्जी खबर? ए.आई. एल्गोरिथम आपके द्वारा पढ़ी जाने वाली कहानियों में राजनीतिक पूर्वाग्रह को प्रकट करता है
- ए.आई. अपस्केलिंग से 1896 की यह फिल्म ऐसी लगती है जैसे इसे चकाचौंध 4K में शूट किया गया हो
अपनी जीवनशैली को उन्नत करेंडिजिटल ट्रेंड्स पाठकों को सभी नवीनतम समाचारों, मजेदार उत्पाद समीक्षाओं, व्यावहारिक संपादकीय और एक तरह की अनूठी झलक के साथ तकनीक की तेज़ गति वाली दुनिया पर नज़र रखने में मदद करता है।