Verjetno poznate deepfakes, digitalno spremenjeni »sintetični medij«, ki je sposoben preslepiti ljudi, da vidijo ali slišijo stvari, ki se v resnici nikoli niso zgodile. Kontradiktorni primeri so kot globoki ponaredki za AI za prepoznavanje slik. sistemi – in čeprav se nam ne zdijo niti malo nenavadni, so sposobni popolnoma zmešati stroje.
Vsebina
- Odvračanje nasprotniških napadov
- Še več dela je treba opraviti
Pred nekaj leti, so raziskovalci Laboratorija za računalništvo in umetno inteligenco (CSAIL) Inštituta za tehnologijo v Massachusettsu ugotovili, da celo sofisticirane algoritme za prepoznavanje slik bi lahko preslepili, da bi zmešali predmete preprosto tako, da bi rahlo spremenili njihovo površino tekstura. Tudi to niso bile manjše zmede.
![Prepoznavanje slike Želva prepoznana kot puška](/f/16681b7efe12bc6d25a262f1d5a15e1b.jpg)
V predstavitvi raziskovalcev so pokazali, da je mogoče doseči, da vrhunska nevronska mreža pogleda 3D-natisnjeno želvo in namesto tega vidi puško. Ali pa pogledati v žogico za baseball in ugotoviti, da je to espresso. Če bi se taka vizualna agnozija pokazala pri človeku, bi bila to vrsta nevrološke študije primera, ki bi se znašla v knjigi, kot je klasika Oliverja Sacksa
Moški, ki je svojo ženo zamenjal za klobuk.Priporočeni videoposnetki
Nasprotni primeri predstavljajo fascinantno ranljivost, ko gre za to, kako vizualni A.I. sistemi gledajo na svet. Toda tudi, kot bi lahko pričakovali od napake, ki zmede novo igračo želvo s puško, predstavljajo tudi potencialno zaskrbljujočo. To je tisti, ki so ga raziskovalci obupano ugotavljali, kako ga popraviti.
Zdaj je druga skupina raziskovalcev z MIT prišla do novega sistema, ki bi lahko pomagal izogniti se "nasprotnim" vnosom. V tem procesu so si zamislili odkrito grozljiv primer uporabe kontradiktornih primerov, ki bi ga lahko, če bi ga izvajali hekerji, uporabili za smrtonosen učinek.
Scenarij je naslednji: avtonomni avtomobili postajajo vse boljši pri dojemanju sveta okoli sebe. Kaj pa, če nenadoma vgrajene kamere v avtomobilu, ki temeljijo na vizualnem vnosu, namenoma ali po nesreči ne morejo prepoznati, kaj je pred njimi? Napačna kategorizacija predmeta na cesti – na primer nepravilna identifikacija in umestitev pešca – bi se lahko končala res zelo, zelo slabo.
Odvračanje nasprotniških napadov
»Naša skupina že več let dela na vmesniku globokega učenja, robotike in teorije nadzora – vključno z delo na uporabi globokega RL [okrepitvenega učenja] za usposabljanje robotov za navigacijo na družbeno ozaveščen način okoli pešcev,« Michael Everett, podoktorski raziskovalec na oddelku za aeronavtiko in astronavtiko MIT, je povedal za Digital Trends. »Ko smo razmišljali o tem, kako bi te zamisli prenesli na večja in hitrejša vozila, sta vprašanji varnosti in robustnosti postali največji izziv. Videli smo odlično priložnost za preučevanje tega problema v globokem učenju z vidika robustnega nadzora in robustne optimizacije.«
Družbeno ozaveščeno načrtovanje gibanja z globokim krepitvenim učenjem
Okrepljeno učenje je pristop k strojnemu učenju, ki temelji na poskusih in napakah, ki so ga raziskovalci uporabljali za pridobite računalnike, da se naučite igrati video igre ne da bi bili izrecno poučeni, kako. Novo okrepljeno učenje in algoritem, ki temelji na globoki nevronski mreži, se imenuje CARRL, okrajšava za Certified Adversarial Robustness for Deep Reinforcement Learning. V bistvu gre za a zivcno omrezje z dodanim odmerkom skepticizma, ko gre za to, kar vidi.
V eni predstavitvi svojega dela, ki jo je podprlo podjetje Ford Motor Company, so raziskovalci zgradili algoritem za učenje z okrepitvijo, ki lahko igra klasično igro Atari Pong. Toda za razliko od prejšnjih igralcev iger RL so v svoji različici uporabili kontradiktorni napad, ki je odvrgel A.I. agentova ocena položaja žogice v igri, zaradi česar je mislil, da je bila nekaj slikovnih pik nižja, kot je dejansko je bil. Običajno bi to postavilo A.I. igralec v zelo slabšem položaju, zaradi česar večkrat izgublja proti računalniškemu nasprotniku. V tem primeru pa agent RL razmišlja o vseh mestih žoge lahko in nato postavi veslo nekam, kjer ne bo zgrešilo ne glede na premik položaja.
»Ta nova kategorija robustnih algoritmov globokega učenja bo bistvenega pomena za uvedbo obetavnega AI. tehnike v resnični svet."
Seveda so igre veliko bolj poenostavljene kot resnični svet, kot Everett takoj prizna.
»Resnični svet ima veliko več negotovosti kot videoigre, zaradi nepopolnih senzorjev ali kontradiktornih napadov, kar je lahko dovolj, da pretentajo globoko učenje. sisteme za sprejemanje nevarnih odločitev – [kot je] barvanje pike na cesti [kar lahko povzroči, da samovozeči avto] zavije na drug vozni pas,« je pojasnil. »Naše delo predstavlja globok algoritem RL, ki je certificirano robusten do nepopolnih meritev. Ključna novost je, da naš algoritem namesto da bi slepo zaupal svojim meritvam, kot to počne danes, razmišlja skozi vse možne meritve, ki bi jih lahko opravili, in sprejme odločitev, ki upošteva najslabši možni primer izid."
V drugi predstavitvi so pokazali, da se lahko algoritem v simuliranem kontekstu vožnje izogne trčenju, tudi če njegove senzorje napade nasprotnik, ki želi, da agent trči. »Ta nova kategorija robustnih algoritmov globokega učenja bo bistvenega pomena za uvedbo obetavnega AI. tehnike v resnični svet,« je dejal Everett.
Še več dela je treba opraviti
Za to delo je še zgodaj in treba je narediti še več. Obstaja tudi potencialna težava, da bi to lahko v nekaterih scenarijih povzročilo A.I. agent obnaša preveč konzervativno, zaradi česar je manj učinkovit. Kljub temu je to dragocena raziskava, ki bi lahko močno vplivala na prihodnost.
![](/f/dc9d51731445d9b0a02cdb7b6314a650.jpg)
»[Obstajajo drugi raziskovalni projekti], ki se osredotočajo na zaščito pred [določenimi vrstami] kontradiktornih primerov, kjer je naloga nevronske mreže razvrstite sliko in je ali pravilna [ali] napačna, in zgodba se konča tam,« je dejal Everett, ko so ga vprašali o klasični igri želva proti puški problem. »Naše delo temelji na nekaterih od teh idej, vendar je osredotočeno na učenje s krepitvijo, kjer mora agent ukrepati in prejme nekaj nagrade, če mu uspe. Torej gledamo na dolgoročnejše vprašanje: »Če rečem, da je to želva, kakšne so prihodnje posledice te odločitve?« in tu lahko naš algoritem resnično pomaga. Naš algoritem bi razmišljal o najslabših prihodnjih posledicah izbire želve ali puške, ki bi lahko bil pomemben korak k reševanju pomembnih varnostnih vprašanj, ko bi A.I. odločitve agentov so dolgoročne učinek.”
Prispevek, ki opisuje raziskavo, je na voljo za branje v elektronskem repozitoriju predtiska arXiv.
Priporočila urednikov
- Analogni AI? Sliši se noro, a morda je prihodnost
- Evo, kaj je A.I., ki analizira trende. meni, da bo naslednja velika stvar v tehnologiji
- Kalifornija ima težave z izpadom električne energije. Ali so lahko rešitev velike pretočne baterije?
- Algoritemska arhitektura: Ali naj pustimo A.I. projektirati zgradbe za nas?
- A.I., ki zaznava čustva je tukaj in bi lahko bil na vašem naslednjem razgovoru za službo