आपकी पसंद के वॉयस असिस्टेंट में संभवत: महिला जैसी आवाज है। हालाँकि आप इसके बारे में ज़्यादा नहीं सोचेंगे, संयुक्त राष्ट्र शैक्षिक, वैज्ञानिक और सांस्कृतिक संगठन (यूनेस्को) का मानना है कि ए.आई.-संचालित सहायक हो सकते हैं नकारात्मक लैंगिक रूढ़िवादिता को मजबूत करने के साथ-साथ हिंसक और अपमानजनक भाषा का उचित रूप से खंडन करने में भी असफल हो रहे हैं, जिससे कुछ संभावित हानिकारक परिणाम हो सकते हैं।
शीर्षक वाले एक पेपर मेंयदि हो सका तो मैं शर्माऊंगा, यूनेस्को के शोधकर्ताओं ने कृत्रिम बुद्धिमत्ता अनुसंधान में होने वाले कुछ अंतर्निहित पूर्वाग्रहों का पता लगाया। पेपर के लेखकों का सुझाव है कि आवाज सहायकों को पारंपरिक रूप से महिला नाम देकर उन्हें निर्दिष्ट किया जाए डिफ़ॉल्ट रूप से महिला-ध्वनि वाली आवाज़ों के बारे में कंपनियों ने अनजाने में नकारात्मक और प्रतिगामी विचारों को मजबूत किया है औरत। यह उन्हें अधीनस्थ और ऐसी भूमिका में रखता है जहां उनसे वही करने की अपेक्षा की जाती है जो उनसे कहा जाता है।
अनुशंसित वीडियो
इसके अतिरिक्त, पेपर ने इस बात पर भी ध्यान दिया कि अपमानजनक भाषा प्रस्तुत किए जाने पर वॉयस असिस्टेंट कैसे प्रतिक्रिया देते हैं। उन्होंने जो पाया वह ए.आई. है। उन्हें हतोत्साहित करने के लिए किसी भी प्रकार की कार्रवाई करने के बजाय ऐसी टिप्पणियों से ध्यान हटाएं। यदि कोई उपयोगकर्ता वॉयस असिस्टेंट को धमकी देता है, तो यह अक्सर एक मूर्खतापूर्ण मजाक या खारिज करने वाला संदेश उत्पन्न करता है। यूनेस्को के शोधकर्ताओं का मानना है कि तकनीकी कंपनियों को इन प्रणालियों में सुरक्षा उपायों का निर्माण करना चाहिए जो महिला-ध्वनि वाली आवाज़ों के प्रति निर्देशित अपमानजनक भाषा को कम करने में मदद करेंगे। शोधकर्ताओं का मानना है कि ऐसा करने में विफल रहने पर, कंपनियां महिलाओं के खिलाफ हिंसक धमकियां देने जैसे व्यवहार को सामान्य बनाने का जोखिम उठाती हैं।
संबंधित
- स्मार्ट असिस्टेंट पर अपने माता-पिता को कैसे बेचें
- क्या आपका स्मार्ट होम गृहस्वामी बीमा पर आपका पैसा बचा सकता है?
- ऐप ब्रेविल जूल ओवन एयर फ्रायर प्रो को वास्तव में स्मार्ट बनाता है
यूनेस्को के अनुसार, इस समस्या का एक हिस्सा यह है कि अधिकांश तकनीकी कंपनियों में इंजीनियरिंग टीमें होती हैं जिनमें बड़े पैमाने पर और भारी संख्या में पुरुष कर्मचारी होते हैं। क्योंकि संभवतः उनके पास इस प्रकार की भाषा से निपटने का प्रत्यक्ष अनुभव नहीं है और न ही वे इस प्रकार के शिकार हुए हैं नकारात्मक रूढ़िवादिता और पुरातन लैंगिक भूमिकाएँ जिनसे महिलाएँ निपटती हैं, ए.आई. डिज़ाइन करते समय वे आवश्यक रूप से इन चीज़ों के बारे में नहीं सोचती हैं। सिस्टम.
“एप्पल और अमेज़ॅन जैसी कंपनियों ने, जिनमें भारी संख्या में पुरुष इंजीनियरिंग टीमें कार्यरत हैं, ए.आई. का निर्माण किया है। सिस्टम जो उनका कारण बनते हैं शोधकर्ताओं ने अपने लेख में लिखा है, नारीकृत डिजिटल सहायक मौखिक दुर्व्यवहार का स्वागत कैच-मी-इफ-यू-फ्लर्टेशन के साथ कर सकते हैं। प्रतिवेदन। “चूँकि अधिकांश आवाज सहायकों का भाषण महिला है, यह एक संकेत भेजता है कि महिलाएं... विनम्र और हैं खुश करने के लिए उत्सुक सहायक, एक बटन के स्पर्श पर या 'हे' या जैसे कुंद आवाज आदेश के साथ उपलब्ध हैं 'ठीक है'। सहायक के पास कमांडर की अपेक्षा से अधिक एजेंसी की कोई शक्ति नहीं होती। यह आदेशों का सम्मान करता है और प्रश्नों के स्वर या शत्रुता की परवाह किए बिना उनका जवाब देता है।''
यूनेस्को का मानना है कि समस्या का सबसे अच्छा समाधान एक बनाना है लिंग-तटस्थ आवाज वह ए.आई. सहायक उपयोग कर सकते हैं। संगठन ऐसी प्रतिक्रियाएँ और प्रणालियाँ बनाने का भी सुझाव देता है जो आक्रामक और हिंसक भाषा और अपमान को रोकेंगी और हतोत्साहित करेंगी। शोधकर्ताओं का मानना है कि तकनीकी कंपनियों को हानिकारक रूढ़िवादिता से बचने के प्रयास में आवाज सहायकों को अधीनस्थ मनुष्यों के रूप में रखना बंद कर देना चाहिए।
संपादकों की सिफ़ारिशें
- विशेषज्ञों ने चेतावनी दी है कि एआई सहायक बच्चों के सामाजिक विकास को नुकसान पहुंचा रहे हैं
- Google और Alexa के साथ खिलवाड़ करने वाले पालतू जानवरों का राउंडअप
- होम डिपो के नए हबस्पेस-संगत आइटम में स्मार्ट प्लग शामिल है
- क्या एक ही स्मार्ट होम इकोसिस्टम के साथ सब कुछ करना संभव है?
- Google होम (नेस्ट ऑडियो) बनाम। अमेज़ॅन इको
अपनी जीवनशैली को उन्नत करेंडिजिटल ट्रेंड्स पाठकों को सभी नवीनतम समाचारों, मजेदार उत्पाद समीक्षाओं, व्यावहारिक संपादकीय और एक तरह की अनूठी झलक के साथ तकनीक की तेज़ गति वाली दुनिया पर नज़र रखने में मदद करता है।