გამოსახულების ამოცნობა A.I. აქვს სისუსტე. ეს შეიძლება გამოსწორდეს

თქვენ ალბათ იცნობთ ღრმაფეიქსიციფრულად შეცვლილი „სინთეზური მედია“, რომელსაც შეუძლია მოატყუოს ხალხი, დაინახოს ან გაიგოს ის, რაც სინამდვილეში არასდროს მომხდარა. საპირისპირო მაგალითები ჰგავს ღრმა ფეიქს სურათების ამოცნობის A.I. სისტემები - და მიუხედავად იმისა, რომ ისინი ჩვენთვის ოდნავ უცნაურადაც კი არ გამოიყურებიან, მათ შეუძლიათ მანქანების გაფუჭება.

შინაარსი

  • მოწინააღმდეგეების თავდასხმების თავიდან აცილება
  • კიდევ მეტი სამუშაოა გასაკეთებელი

Რამდენიმე წლის წინმასაჩუსეტსის ტექნოლოგიური ინსტიტუტის კომპიუტერული მეცნიერებისა და ხელოვნური ინტელექტის ლაბორატორიის (CSAIL) მკვლევარებმა დაადგინეს, რომ მათ შეუძლიათ მოატყუონ სურათების ამოცნობის დახვეწილი ალგორითმებიც კი, რომ დააბნიონ ობიექტები უბრალოდ მათი ზედაპირის ოდნავ შეცვლით. ტექსტურა. არც ეს იყო უმნიშვნელო შერევები.

გამოსახულების ამოცნობის კუს თოფად აღიარეს

მკვლევართა დემონსტრაციაში მათ აჩვენეს, რომ შესაძლებელი იყო უახლესი ნერვული ქსელის მოპოვება 3D პრინტერის კუს დასათვალიერებლად და ნაცვლად თოფის დასანახად. ან შეხედე ბეისბოლს და გამოვიდე დასკვნა, რომ ეს ესპრესოა. ასეთი ვიზუალური აგნოზია რომ გამოვლინდეს ადამიანში, ეს იქნებოდა ნევროლოგიური შემთხვევის შესწავლა, რომელიც იპოვის გზას ოლივერ საქსის კლასიკის მსგავს წიგნში.

კაცი, რომელმაც ცოლი ქუდად აიყვანა.

რეკომენდებული ვიდეოები

საპირისპირო მაგალითები წარმოადგენს მომხიბლავ დაუცველობას, როდესაც საქმე ეხება ვიზუალურ A.I. სისტემები ხედავენ სამყაროს. მაგრამ ისინი ასევე, როგორც შეიძლება მოელოდეთ ხარვეზიდან, რომელიც აბნევს სიახლეს სათამაშო კუს შაშხანასთან, წარმოადგენს პოტენციურად საგანგაშოს. ეს არის ის, რაც მკვლევარები სასოწარკვეთილად ხვდებიან, თუ როგორ უნდა გაასწორონ.

ახლა, MIT-ის მკვლევართა კიდევ ერთმა ჯგუფმა გამოუშვა ახალი სისტემა, რომელიც დაგეხმარებათ თავიდან აიცილოთ „მოწინააღმდეგეები“. ამ პროცესში, მათ წარმოიდგინეს საპირისპირო მაგალითების აშკარად შემზარავი გამოყენების შემთხვევა, რომელიც შეიძლება, ჰაკერების მიერ განხორციელების შემთხვევაში, სასიკვდილო ეფექტისთვის გამოიყენონ.

სცენარი ასეთია: ავტონომიური მანქანები უკეთესად აღიქვამენ მათ გარშემო არსებულ სამყაროს. მაგრამ რა მოხდება, თუ მოულოდნელად ვიზუალური შეყვანის ბორტზე დაფუძნებული კამერები მანქანაში ან განზრახ ან შემთხვევით ვერ შეძლებენ იმის დადგენას, თუ რა იყო მათ წინ? გზაზე ობიექტის არასწორი კატეგორიზაცია - როგორიცაა ფეხით მოსიარულეების სწორად ამოცნობა და განთავსება - შესაძლოა, მართლაც ძალიან, ძალიან ცუდად დასრულდეს.

მოწინააღმდეგეების თავდასხმების თავიდან აცილება

„ჩვენი ჯგუფი რამდენიმე წელია მუშაობს ღრმა სწავლების, რობოტიკისა და კონტროლის თეორიის ინტერფეისზე, მათ შორის იმუშავეთ ღრმა RL-ის [გაძლიერების სწავლის] გამოყენებაზე რობოტების მოსამზადებლად ფეხით მოსიარულეთა გარშემო სოციალურად გაცნობიერებული ნავიგაციისთვის. მაიკლ ევერეტიგანუცხადა Digital Trends-ს MIT-ის აერონავტიკისა და ასტრონავტიკის დეპარტამენტის პოსტდოქტორანტმა. „როდესაც ჩვენ ვფიქრობდით, როგორ გადაგვეტანა ეს იდეები უფრო დიდ და სწრაფ მანქანებზე, უსაფრთხოებისა და გამძლეობის საკითხები ყველაზე დიდ გამოწვევად იქცა. ჩვენ დავინახეთ შესანიშნავი შესაძლებლობა, შეგვესწავლა ეს პრობლემა ღრმა სწავლაში ძლიერი კონტროლისა და ძლიერი ოპტიმიზაციის პერსპექტივიდან. ”

სოციალურად გაცნობიერებული მოძრაობის დაგეგმვა ღრმა განმტკიცების სწავლით

განმტკიცების სწავლა არის საცდელ-შეცდომებზე დაფუძნებული მიდგომა მანქანათმცოდნეობისადმი, რომელიც ცნობილია მკვლევარების მიერ. მიიღეთ კომპიუტერები, რომ ისწავლონ ვიდეო თამაშების თამაში ცალსახად სწავლების გარეშე როგორ. გუნდის ახალ გაძლიერების სწავლებას და ღრმა ნერვულ ქსელზე დაფუძნებულ ალგორითმს ეწოდება CARRL, მოკლედ Certified Adversarial Robustness ღრმა გაძლიერების სწავლისთვის. არსებითად, ეს არის ა ნერვული ქსელი სკეპტიციზმის დამატებითი დოზით, როდესაც საქმე ეხება იმას, რასაც ის ხედავს.

მათი მუშაობის ერთ-ერთ დემონსტრირებაში, რომელსაც მხარს უჭერდა Ford Motor Company, მკვლევარებმა შექმნეს გაძლიერებული სწავლის ალგორითმი, რომელსაც შეუძლია კლასიკური Atari თამაშის თამაში. პონგი. მაგრამ, წინა RL თამაშის მოთამაშეებისგან განსხვავებით, მათ ვერსიაში მათ მიმართეს საპირისპირო შეტევა, რომელმაც ჩამოაგდო A.I. აგენტის შეფასება თამაშის ბურთის პოზიციის შესახებ, რაც აფიქრებინებს, რომ ის იყო რამდენიმე პიქსელით დაბალი ვიდრე რეალურად იყო. ჩვეულებრივ, ეს აყენებს A.I. მოთამაშე დიდ მინუსშია, რის გამოც ის არაერთხელ წააგებს კომპიუტერის მოწინააღმდეგეს. თუმცა, ამ შემთხვევაში, RL აგენტი ფიქრობს ბურთის ყველა ადგილს შეეძლო იყოს, და შემდეგ განათავსებს პადლს სადმე, სადაც არ გამოტოვებს პოზიციის ცვლის მიუხედავად.

„მძლავრი ღრმა სწავლის ალგორითმების ეს ახალი კატეგორია არსებითი იქნება პერსპექტიული A.I. ტექნიკა რეალურ სამყაროში“.

რა თქმა უნდა, თამაშები ბევრად უფრო გამარტივებულია, ვიდრე რეალურ სამყაროში, როგორც ამას ევერეტი ადვილად აღიარებს.

„რეალურ სამყაროში გაცილებით მეტი გაურკვევლობაა, ვიდრე ვიდეო თამაშები, არასრულყოფილი სენსორებისგან ან მოწინააღმდეგეების თავდასხმებისგან, რაც შეიძლება საკმარისი იყოს ღრმა სწავლის მოსატყუებლად. სისტემები სახიფათო გადაწყვეტილებების მისაღებად - [როგორიცაა] გზაზე წერტილის სპრეით დახატვა [რამაც შეიძლება გამოიწვიოს თვითმართვადი მანქანის] სხვა ზოლში გადახვევა. განმარტა. „ჩვენი ნამუშევარი წარმოგიდგენთ ღრმა RL ალგორითმს, რომელიც დადასტურებულად მდგრადია არასრულყოფილი გაზომვებისთვის. მთავარი ინოვაცია ის არის, რომ, ვიდრე ბრმად ვენდოთ მის გაზომვებს, როგორც ეს დღეს ხდება, ჩვენი ალგორითმი ფიქრობს ყველა შესაძლო გაზომვის მეშვეობით, რაც შეიძლებოდა გაკეთებულიყო და იღებს გადაწყვეტილებას, რომელიც ითვალისწინებს ყველაზე უარეს შემთხვევაში შედეგი.”

სხვა დემონსტრირებაში მათ აჩვენეს, რომ ალგორითმს შეუძლია, სიმულირებული მართვის კონტექსტში, თავიდან აიცილოს შეჯახება მაშინაც კი, როდესაც მის სენსორებს თავს დაესხმება მოწინააღმდეგე, რომელსაც სურს აგენტის შეჯახება. „მძლავრი ღრმა სწავლის ალგორითმების ეს ახალი კატეგორია არსებითი იქნება პერსპექტიული A.I. ტექნიკა რეალურ სამყაროში“, - თქვა ევერეტმა.

კიდევ მეტი სამუშაოა გასაკეთებელი

ჯერ კიდევ ადრეა ამ სამუშაოსთვის და კიდევ არის გასაკეთებელი. ასევე არსებობს პოტენციური საკითხი, რომ ამან შეიძლება, ზოგიერთ სცენარში, გამოიწვიოს A.I. აგენტი მოიქცეს ზედმეტად კონსერვატიულად, რითაც მას ნაკლებად ეფექტური გახდის. მიუხედავად ამისა, ეს არის ღირებული კვლევა, რომელსაც შეიძლება ჰქონდეს ღრმა გავლენა მომავალში.

„[არსებობს სხვა კვლევითი პროექტები], რომლებიც ფოკუსირებულია დაცვაზე [გარკვეული ტიპის] წინააღმდეგობრივი მაგალითისგან, სადაც ნერვული ქსელის ამოცანაა დაალაგეთ სურათი და ის ან სწორია [ან] არასწორი და ამბავი მთავრდება“, - თქვა ევერეტმა, როდესაც ჰკითხეს კლასიკური კუს თოფის შესახებ. პრობლემა. „ჩვენი ნამუშევარი ეფუძნება ზოგიერთ ამ იდეას, მაგრამ ფოკუსირებულია განმამტკიცებელ სწავლაზე, სადაც აგენტმა უნდა განახორციელოს ქმედებები და მიიღებს გარკვეულ ჯილდოს, თუ ის კარგად მუშაობს. ასე რომ, ჩვენ ვუყურებთ უფრო გრძელვადიან კითხვას: „თუ მე ვიტყვი, რომ ეს კუა, რა არის ამ გადაწყვეტილების სამომავლო შედეგები?“ და ეს არის ის, სადაც ჩვენი ალგორითმი ნამდვილად დაგეხმარებათ. ჩვენი ალგორითმი იფიქრებს კუს ან თოფის არჩევის ყველაზე ცუდ შემთხვევაში მომავალ შედეგებზე, შეიძლება მნიშვნელოვანი ნაბიჯი იყოს უსაფრთხოების მნიშვნელოვანი საკითხების გადასაჭრელად, როდესაც A.I. აგენტების გადაწყვეტილებებს გრძელვადიანი აქვს ეფექტი.”

ნაშრომი, რომელიც აღწერს კვლევას ხელმისაწვდომია წასაკითხად ელექტრონულ წინასწარ ბეჭდურ საცავში arXiv.

რედაქტორების რეკომენდაციები

  • ანალოგი A.I.? ეს გიჟურად ჟღერს, მაგრამ ეს შეიძლება იყოს მომავალი
  • აი, რა ტენდენციას აანალიზებს A.I. ფიქრობს, რომ იქნება შემდეგი დიდი რამ ტექნოლოგიაში
  • კალიფორნიას აქვს გამორთვის პრობლემა. შეიძლება გიგანტური ნაკადის ბატარეები იყოს გამოსავალი?
  • ალგორითმული არქიტექტურა: უნდა დავუშვათ A.I. შენობების დიზაინი ჩვენთვის?
  • ემოციების აღმძვრელი A.I. აქ არის და ეს შეიძლება იყოს თქვენს შემდეგ სამუშაო ინტერვიუში

კატეგორიები

Ბოლო