Probabil ești familiarizat cu deepfakes, „media sintetică” modificată digital, care este capabilă să păcălească oamenii să vadă sau să audă lucruri care nu s-au întâmplat niciodată. Exemplele adverse sunt ca deepfake-urile pentru recunoașterea imaginilor A.I. sisteme - și, deși nu ni se par puțin ciudate, sunt capabile să încurce mașinile.
Cuprins
- Apărarea de atacurile adverse
- Mai multă muncă de făcut
Câțiva ani în urmă, cercetătorii de la Laboratorul de Informatică și Inteligență Artificială (CSAIL) al Institutului de Tehnologie din Massachusetts au descoperit că ar putea păcăli chiar și algoritmii sofisticați de recunoaștere a imaginii în obiecte confuze, pur și simplu modificându-le ușor suprafața textură. Nici acestea nu au fost confuzii minore.
![Recunoașterea imaginii Broasca țestoasă recunoscută ca pușcă](/f/16681b7efe12bc6d25a262f1d5a15e1b.jpg)
În demonstrația cercetătorilor, ei au arătat că este posibil să se obțină o rețea neuronală de ultimă oră pentru a se uita la o țestoasă imprimată 3D și pentru a vedea o pușcă. Sau să privești o minge de baseball și să ajungi la concluzia că este un espresso. Dacă o astfel de agnozie vizuală s-ar manifesta la un om, ar fi genul de studiu de caz neurologic care și-ar găsi drum într-o carte precum clasicul lui Oliver Sacks.
Bărbatul care și-a confundat soția cu o pălărie.Videoclipuri recomandate
Exemplele adverse reprezintă o vulnerabilitate fascinantă când vine vorba de modul în care I.A. vizuală. sistemele privesc lumea. Dar, de asemenea, așa cum v-ați aștepta dintr-un defect care confundă o broască țestoasă de jucărie cu o pușcă, reprezintă unul potențial alarmant. Este unul pe care cercetătorii au descoperit cu disperare cum să-l corecteze.
Acum, un alt grup de cercetători de la MIT a venit cu un nou sistem care ar putea ajuta la evitarea intrărilor „adversariale”. În acest proces, ei și-au imaginat un caz de utilizare sincer terifiant pentru exemplele adverse, unul care, dacă ar fi implementat de hackeri, ar putea fi folosit cu efecte mortale.
Scenariul este următorul: mașinile autonome percep din ce în ce mai bine lumea din jurul lor. Dar ce se întâmplă dacă, dintr-o dată, camerele de la bord, bazate pe intrări vizuale, dintr-o mașină, ar fi fost fie intenționat, fie accidental, în imposibilitatea de a identifica ceea ce se afla în fața lor? Clasificarea greșită a unui obiect pe drum - cum ar fi neidentificarea și plasarea corectă a unui pieton - s-ar putea termina foarte, foarte rău.
Apărarea de atacurile adverse
„Grupul nostru a lucrat la interfața de deep learning, robotică și teoria controlului de câțiva ani, inclusiv lucrează la utilizarea RL profundă [învățare prin consolidare] pentru a antrena roboții să navigheze într-un mod conștient social în jurul pietonilor.” Michael Everett, un cercetător postdoctoral în cadrul Departamentului de Aeronautică și Astronautică al MIT, a declarat pentru Digital Trends. „În timp ce ne gândim cum să aducem acele idei pe vehicule mai mari și mai rapide, întrebările legate de siguranță și robustețe au devenit cea mai mare provocare. Am văzut o oportunitate excelentă de a studia această problemă în învățarea profundă din perspectiva controlului robust și a optimizării robuste.”
Planificarea mișcării conștientă din punct de vedere social cu învățare de întărire profundă
Învățarea prin consolidare este o abordare bazată pe încercări și erori a învățării automate care, celebru, a fost folosită de cercetători pentru a obțineți computere pentru a învăța să jucați jocuri video fără a fi învățat în mod explicit cum. Noul algoritm al echipei de învățare prin consolidare și bazat pe rețea neuronală profundă se numește CARRL, prescurtare de la Certified Adversarial Robustness for Deep Reinforcement Learning. În esență, este un Retea neurala cu o doză suplimentară de scepticism când vine vorba de ceea ce vede.
Într-o demonstrație a muncii lor, care a fost susținută de Ford Motor Company, cercetătorii au construit un algoritm de învățare prin întărire capabil să joace jocul clasic Atari. Pong. Dar, spre deosebire de jucătorii anterioare de joc RL, în versiunea lor, aceștia au aplicat un atac adversar care a aruncat A.I. evaluarea agentului asupra poziției mingii din joc, făcându-l să creadă că era cu câțiva pixeli mai jos decât în realitate a fost. În mod normal, acest lucru ar pune A.I. jucător într-un dezavantaj major, făcându-l să piardă în mod repetat în fața adversarului computerului. În acest caz, însă, agentul RL se gândește la toate locurile în care se află mingea ar putea fie și apoi plasează paleta într-un loc unde nu va rata indiferent de schimbarea poziției.
„Această nouă categorie de algoritmi robusti de învățare profundă va fi esențială pentru a aduce I.A. promițătoare. tehnici în lumea reală.”
Desigur, jocurile sunt mult mai simplificate decât lumea reală, așa cum recunoaște cu ușurință Everett.
„Lumea reală are mult mai multă incertitudine decât jocurile video, din cauza senzorilor imperfecți sau a atacurilor adverse, care pot fi suficiente pentru a păcăli învățarea profundă. sisteme pentru a lua decizii periculoase — [cum ar fi] vopsirea cu spray a unui punct pe drum [care poate determina ca o mașină cu conducere autonomă] să viraze pe o altă bandă”, el explicat. „Lucrarea noastră prezintă un algoritm RL profund, care este robust pentru măsurători imperfecte. Inovația cheie este că, în loc să se încreadă orbește în măsurătorile sale, așa cum se face astăzi, algoritmul nostru crede că prin toate măsurătorile posibile care ar fi putut fi făcute și ia o decizie care ia în considerare cel mai rău caz rezultat."
Într-o altă demonstrație, ei au arătat că algoritmul poate, într-un context de condus simulat, să evite coliziunile chiar și atunci când senzorii săi sunt atacați de un adversar care dorește ca agentul să se ciocnească. „Această nouă categorie de algoritmi robusti de învățare profundă va fi esențială pentru a aduce I.A. promițătoare. tehnici în lumea reală”, a spus Everett.
Mai multă muncă de făcut
Este încă devreme pentru această lucrare și mai sunt multe de făcut. Există, de asemenea, potențiala problemă că acest lucru ar putea, în unele scenarii, să provoace A.I. agentul să se comporte prea conservator, făcându-l astfel mai puțin eficient. Cu toate acestea, este o cercetare valoroasă care ar putea avea un impact profund în viitor.
![](/f/dc9d51731445d9b0a02cdb7b6314a650.jpg)
„[Există și alte proiecte de cercetare] care se concentrează pe protejarea împotriva [anumite tipuri] de exemple adverse, în care sarcina rețelei neuronale este de a clasifică o imagine și este fie corectă [sau] greșită, iar povestea se termină aici”, a spus Everett, când a fost întrebat despre clasicul țestoasă versus pușcă. problemă. „Munca noastră se bazează pe unele dintre aceste idei, dar se concentrează pe învățarea prin consolidare, în care agentul trebuie să ia măsuri și să primească o anumită recompensă dacă se descurcă bine. Așa că ne uităm la o întrebare pe termen mai lung: „Dacă spun că aceasta este o broască țestoasă, care sunt implicațiile viitoare ale acestei decizii?” și aici algoritmul nostru poate ajuta cu adevărat. Algoritmul nostru s-ar gândi la cele mai rele implicații viitoare ale alegerii fie a unei țestoase, fie a unei puști, care ar putea fi un pas important spre rezolvarea unor probleme importante de securitate atunci când A.I. deciziile agenților au un termen lung efect."
O lucrare care descrie cercetarea este disponibil pentru citire în depozitul electronic de pretipărire arXiv.
Recomandările editorilor
- I.A. analogic? Sună nebunesc, dar ar putea fi viitorul
- Iată ce analizează tendințele A.I. crede că va fi următorul lucru important în tehnologie
- California are o problemă de întrerupere. Bateriile cu flux gigant ar putea fi soluția?
- Arhitectura algoritmică: Ar trebui să lăsăm A.I. proiectați clădiri pentru noi?
- A.I. care sesizează emoții. este aici și ar putea fi la următorul interviu de angajare