छवि पहचान ए.आई. एक कमजोरी है. यह इसे ठीक कर सकता है

आप शायद परिचित हैं डीपफेक, डिजिटल रूप से परिवर्तित "सिंथेटिक मीडिया" जो लोगों को उन चीजों को देखने या सुनने के लिए बेवकूफ बनाने में सक्षम है जो वास्तव में कभी नहीं हुईं। प्रतिकूल उदाहरण छवि-पहचान ए.आई. के लिए डीपफेक की तरह हैं। सिस्टम - और हालांकि वे हमें थोड़ा भी अजीब नहीं लगते, फिर भी वे मशीनों को चकमा देने में सक्षम हैं।

अंतर्वस्तु

  • प्रतिकूल हमलों से बचाव
  • अभी और काम किया जाना बाकी है

कई साल पहलेमैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी के कंप्यूटर साइंस एंड आर्टिफिशियल इंटेलिजेंस लेबोरेटरी (CSAIL) के शोधकर्ताओं ने यह पाया वे परिष्कृत छवि पहचान एल्गोरिदम को भी वस्तुओं की सतह में थोड़ा सा बदलाव करके भ्रमित कर सकते हैं बनावट। ये कोई छोटी-मोटी गड़बड़ियां भी नहीं थीं।

छवि पहचान कछुए को एक राइफल के रूप में पहचाना गया

शोधकर्ताओं के प्रदर्शन में, उन्होंने दिखाया कि 3डी-मुद्रित कछुए को देखने और उसके बजाय एक राइफल देखने के लिए एक अत्याधुनिक तंत्रिका नेटवर्क प्राप्त करना संभव है। या किसी बेसबॉल को देखकर यह निष्कर्ष निकालना कि यह एक एस्प्रेसो है। यदि इस तरह का दृश्य एग्नोसिया किसी मानव में प्रकट होता है, तो यह एक प्रकार का न्यूरोलॉजिकल केस अध्ययन होगा जो ओलिवर सैक्स की क्लासिक किताब की तरह अपना रास्ता खोज लेगा।

वह आदमी जिसने अपनी पत्नी को टोपी समझ लिया.

अनुशंसित वीडियो

जब दृश्य ए.आई. की बात आती है तो प्रतिकूल उदाहरण एक आकर्षक भेद्यता का प्रतिनिधित्व करते हैं। सिस्टम दुनिया को देखते हैं। लेकिन वे भी, जैसा कि आप उस दोष से उम्मीद कर सकते हैं जो एक नवीनता वाले खिलौने वाले कछुए को राइफल के साथ भ्रमित करता है, संभावित रूप से चिंताजनक प्रतिनिधित्व करता है। यह वह चीज़ है जिसे शोधकर्ता बड़ी उत्सुकता से पता लगा रहे हैं कि इसे कैसे ठीक किया जाए।

अब, एमआईटी के शोधकर्ताओं का एक और समूह एक नई प्रणाली लेकर आया है जो "प्रतिकूल" इनपुट से बचने में मदद कर सकता है। इस प्रक्रिया में, उन्होंने प्रतिकूल उदाहरणों के लिए एक स्पष्ट रूप से भयानक उपयोग के मामले की कल्पना की है, जिसे यदि हैकर्स द्वारा कार्यान्वित किया जाता है, तो घातक प्रभाव के लिए उपयोग किया जा सकता है।

परिदृश्य यह है: स्वायत्त कारें अपने आसपास की दुनिया को समझने में बेहतर से बेहतर होती जा रही हैं। लेकिन क्या होगा अगर, अचानक, कार में विज़ुअल इनपुट-आधारित ऑनबोर्ड कैमरे या तो जानबूझकर या गलती से यह पहचानने में असमर्थ हो जाएं कि उनके सामने क्या है? सड़क पर किसी वस्तु को गलत तरीके से वर्गीकृत करना - जैसे कि पैदल यात्री को सही ढंग से पहचानने और रखने में असफल होना - वास्तव में बहुत, बहुत बुरी तरह से समाप्त हो सकता है।

प्रतिकूल हमलों से बचाव

“हमारा समूह कई वर्षों से गहन शिक्षण, रोबोटिक्स और नियंत्रण सिद्धांत के इंटरफेस पर काम कर रहा है पैदल चलने वालों के आसपास सामाजिक रूप से जागरूक तरीके से नेविगेट करने के लिए रोबोट को प्रशिक्षित करने के लिए गहन आरएल [सुदृढीकरण सीखने] का उपयोग करने पर काम करें," माइकल एवरेटएमआईटी के एयरोनॉटिक्स और एस्ट्रोनॉटिक्स विभाग में एक पोस्टडॉक्टरल शोधकर्ता ने डिजिटल ट्रेंड्स को बताया। “जैसा कि हम सोच रहे थे कि उन विचारों को बड़े और तेज़ वाहनों पर कैसे लाया जाए, सुरक्षा और मजबूती के सवाल सबसे बड़ी चुनौती बन गए। हमने मजबूत नियंत्रण और मजबूत अनुकूलन के परिप्रेक्ष्य से गहन शिक्षण में इस समस्या का अध्ययन करने का एक शानदार अवसर देखा।

गहन सुदृढीकरण शिक्षण के साथ सामाजिक रूप से जागरूक मोशन योजना

सुदृढीकरण सीखना मशीन सीखने के लिए एक परीक्षण-और-त्रुटि-आधारित दृष्टिकोण है, जिसका उपयोग शोधकर्ताओं द्वारा प्रसिद्ध रूप से किया गया है वीडियो गेम खेलना सीखने के लिए कंप्यूटर प्राप्त करें बिना स्पष्ट रूप से सिखाए कि कैसे। टीम के नए सुदृढीकरण शिक्षण और गहन तंत्रिका नेटवर्क-आधारित एल्गोरिदम को CARRL कहा जाता है, जो गहन सुदृढीकरण शिक्षण के लिए प्रमाणित प्रतिकूल मजबूती का संक्षिप्त रूप है। संक्षेप में, यह एक है तंत्रिका नेटवर्क जब वह जो देख रहा है उसके बारे में संदेह की एक अतिरिक्त खुराक के साथ।

अपने काम के एक प्रदर्शन में, जिसे फोर्ड मोटर कंपनी द्वारा समर्थित किया गया था, शोधकर्ताओं ने क्लासिक अटारी गेम खेलने में सक्षम एक सुदृढीकरण सीखने वाला एल्गोरिदम बनाया। पांग. लेकिन, पिछले आरएल गेम खिलाड़ियों के विपरीत, उनके संस्करण में, उन्होंने एक प्रतिकूल हमला किया जिसने ए.आई. को ख़त्म कर दिया। गेम की गेंद की स्थिति के बारे में एजेंट के आकलन से उसे लगा कि यह वास्तव में उससे कुछ पिक्सेल कम है था। आम तौर पर, यह ए.आई. लगाएगा। खिलाड़ी एक बड़े नुकसान में है, जिसके कारण उसे कंप्यूटर प्रतिद्वंद्वी से बार-बार हारना पड़ रहा है। हालाँकि, इस मामले में, आरएल एजेंट गेंद के सभी स्थानों के बारे में सोचता है सकना हो, और फिर पैडल को किसी ऐसे स्थान पर रखें जहां स्थिति में बदलाव के बावजूद वह चूक न जाए।

“मजबूत गहन शिक्षण एल्गोरिदम की यह नई श्रेणी आशाजनक ए.आई. लाने के लिए आवश्यक होगी।” वास्तविक दुनिया में तकनीकें।"

बेशक, खेल वास्तविक दुनिया की तुलना में बहुत अधिक सरल हैं, जैसा कि एवरेट आसानी से स्वीकार करता है।

"वास्तविक दुनिया में वीडियो गेम की तुलना में अपूर्ण सेंसर या प्रतिकूल हमलों से कहीं अधिक अनिश्चितता है, जो गहन शिक्षा को चकमा देने के लिए पर्याप्त हो सकता है खतरनाक निर्णय लेने के लिए प्रणालियाँ - [जैसे] सड़क पर एक बिंदु को स्प्रे-पेंट करना [जिसके कारण सेल्फ-ड्राइविंग कार दूसरी लेन में जा सकती है," उन्होंने कहा व्याख्या की। “हमारा काम एक गहन आरएल एल्गोरिदम प्रस्तुत करता है जो अपूर्ण मापों के लिए प्रमाणित रूप से मजबूत है। मुख्य नवाचार यह है कि, इसके मापों पर आँख बंद करके भरोसा करने के बजाय, जैसा कि आज किया जाता है, हमारा एल्गोरिदम सोचता है सभी संभावित मापों के माध्यम से जो किए जा सकते थे, और एक निर्णय लेता है जो सबसे खराब स्थिति पर विचार करता है नतीजा।"

एक अन्य प्रदर्शन में, उन्होंने दिखाया कि एल्गोरिदम, एक सिम्युलेटेड ड्राइविंग संदर्भ में, टकराव से बच सकता है, तब भी जब इसके सेंसर पर एक प्रतिद्वंद्वी द्वारा हमला किया जा रहा हो जो एजेंट से टकराना चाहता हो। “मजबूत गहन शिक्षण एल्गोरिदम की यह नई श्रेणी आशाजनक ए.आई. लाने के लिए आवश्यक होगी।” वास्तविक दुनिया में तकनीकें," एवरेट ने कहा।

अभी और काम किया जाना बाकी है

इस कार्य के लिए अभी शुरुआती दिन हैं और अभी और भी बहुत कुछ करने की आवश्यकता है। यह भी संभावित मुद्दा है कि यह, कुछ परिदृश्यों में, ए.आई. का कारण बन सकता है। एजेंट बहुत अधिक रूढ़िवादी व्यवहार करता है, जिससे यह कम कुशल हो जाता है। बहरहाल, यह शोध का एक मूल्यवान नमूना है जिसका आगे चलकर गहरा प्रभाव पड़ सकता है।

"[अन्य अनुसंधान परियोजनाएं हैं] जो प्रतिकूल उदाहरण के [कुछ प्रकार] से सुरक्षा पर ध्यान केंद्रित करती हैं, जहां तंत्रिका नेटवर्क का काम है एक छवि को वर्गीकृत करें और यह या तो सही [या] गलत है, और कहानी वहीं समाप्त हो जाती है, "एवरेट ने कहा, जब क्लासिक कछुए-बनाम-राइफल के बारे में पूछा गया संकट। “हमारा काम उनमें से कुछ विचारों पर आधारित है, लेकिन सुदृढीकरण सीखने पर केंद्रित है, जहां एजेंट को कार्रवाई करनी होती है और अगर वह अच्छा करता है तो उसे कुछ इनाम मिलता है। इसलिए हम एक दीर्घकालिक प्रश्न पर विचार कर रहे हैं कि 'अगर मैं कहूं कि यह एक कछुआ है, तो उस निर्णय के भविष्य के निहितार्थ क्या होंगे?' और यहीं पर हमारा एल्गोरिदम वास्तव में मदद कर सकता है। हमारा एल्गोरिदम कछुए या राइफल में से किसी एक को चुनने के सबसे खराब भविष्य के प्रभावों के बारे में सोचेगा महत्वपूर्ण सुरक्षा मुद्दों को हल करने की दिशा में एक महत्वपूर्ण कदम हो सकता है जब ए.आई. एजेंटों के निर्णय दीर्घकालिक होते हैं प्रभाव।"

शोध का वर्णन करने वाला एक पेपर है इलेक्ट्रॉनिक प्रीप्रिंट रिपॉजिटरी arXiv पर पढ़ने के लिए उपलब्ध है.

संपादकों की सिफ़ारिशें

  • एनालॉग ए.आई.? यह पागलपन जैसा लगता है, लेकिन यह भविष्य हो सकता है
  • यहाँ एक प्रवृत्ति-विश्लेषण करने वाला ए.आई. है। सोचता है कि टेक में अगली बड़ी चीज़ होगी
  • कैलिफ़ोर्निया में ब्लैकआउट की समस्या है। क्या विशाल प्रवाह बैटरियां इसका समाधान हो सकती हैं?
  • एल्गोरिथम वास्तुकला: क्या हमें ए.आई. को अनुमति देनी चाहिए? हमारे लिए इमारतें डिज़ाइन करें?
  • भावना-संवेदन ए.आई. यहाँ है, और यह आपके अगले नौकरी साक्षात्कार में हो सकता है

श्रेणियाँ

हाल का

एसर कैसे विश्व को कोविड-19 से निपटने में मदद कर रहा है

एसर कैसे विश्व को कोविड-19 से निपटने में मदद कर रहा है

दुनिया के सबसे बड़े कंप्यूटर निर्माताओं में से ...

सोनी के फरवरी 2023 स्टेट ऑफ प्ले में सब कुछ घोषित किया गया

सोनी के फरवरी 2023 स्टेट ऑफ प्ले में सब कुछ घोषित किया गया

निंटेंडो और माइक्रोसॉफ्ट के शो के बाद, सोनी ने ...