Vjerojatno ste upoznati s deepfakes, digitalno izmijenjeni "sintetički medij" koji je u stanju prevariti ljude da vide ili čuju stvari koje se zapravo nikada nisu dogodile. Kontradicijski primjeri su poput deepfakeova za prepoznavanje slike A.I. sustavi - i iako nam ne izgledaju ni malo čudno, sposobni su zavarati strojeve.
Sadržaj
- Odbijanje suparničkih napada
- Ostaje još posla
Prije nekoliko godina, istraživači s Laboratorija za računalne znanosti i umjetnu inteligenciju Massachusetts Institute of Technology (CSAIL) otkrili su da mogli bi prevariti čak i sofisticirane algoritme za prepoznavanje slike tako da zbune objekte jednostavnim mijenjanjem njihove površine tekstura. Nisu to bile ni manje zabune.
U demonstraciji istraživača pokazali su da je moguće postići da vrhunska neuronska mreža gleda u 3D ispisanu kornjaču i umjesto toga vidi pušku. Ili zuriti u bejzbolsku loptu i zaključiti da je to espresso. Da se takva vizualna agnozija manifestira kod čovjeka, bila bi to vrsta neurološke studije slučaja koja bi našla svoj put u knjigu poput klasika Olivera Sacksa
Čovjek koji je svoju ženu zamijenio za šešir.Preporučeni videozapisi
Suparnički primjeri predstavljaju fascinantnu ranjivost kada je riječ o tome kako vizualni A.I. sustavi gledaju na svijet. Ali oni također, kao što biste mogli očekivati od greške koja brka novu igračku kornjaču s puškom, predstavljaju potencijalno alarmantnu grešku. To je onaj koji su istraživači očajnički smišljali kako zakrpati.
Sada je druga skupina istraživača s MIT-a osmislila novi sustav koji bi mogao pomoći u izbjegavanju "suparničkih" unosa. U procesu su zamislili iskreno zastrašujući slučaj upotrebe suparničkih primjera, koji bi, ako ga implementiraju hakeri, mogao biti iskorišten sa smrtonosnim učinkom.
Scenarij je sljedeći: Autonomni automobili postaju sve bolji i bolji u percepciji svijeta oko sebe. Ali što ako se iznenada ugrađene kamere u automobilu koje se temelje na vizualnom unosu ili namjerno ili slučajno učine nesposobnima da identificiraju što je ispred njih? Pogrešna kategorizacija objekta na cesti - kao što je neuspjeh u ispravnom identificiranju i postavljanju pješaka - potencijalno bi mogla završiti vrlo, vrlo loše.
Odbijanje suparničkih napada
„Naša grupa već nekoliko godina radi na sučelju dubokog učenja, robotike i teorije kontrole — uključujući raditi na korištenju dubokog RL [učenja s potkrepljenjem] za treniranje robota da se kreću na društveno svjestan način oko pješaka,” Michael Everett, postdoktorand na Odjelu za aeronautiku i astronautiku MIT-a, rekao je za Digital Trends. “Dok smo razmišljali o tome kako te ideje prenijeti na veća i brža vozila, pitanja sigurnosti i robusnosti postala su najveći izazov. Vidjeli smo sjajnu priliku za proučavanje ovog problema u dubokom učenju iz perspektive robusne kontrole i robusne optimizacije.”
Društveno osviješteno planiranje kretanja s dubokim podupirućim učenjem
Učenje s pojačanjem je pristup strojnom učenju temeljen na pokušajima i pogreškama koji su istraživači koristili za dobiti računala za učenje igranja video igrica a da niste izričito poučeni kako. Timov novi algoritam za učenje s pojačanjem i dubokim neuronskim mrežama zove se CARRL, skraćeno od Certified Adversarial Robustness for Deep Reinforcement Learning. U biti, to je a živčana mreža s dodatnom dozom skepse kada je u pitanju ono što se vidi.
U jednoj demonstraciji svog rada, koju je podržala tvrtka Ford Motor Company, istraživači su izgradili algoritam za učenje s pojačanjem koji može igrati klasičnu igricu Atari tenis. No, za razliku od prethodnih igrača RL igre, u svojoj su verziji primijenili suparnički napad koji je izbacio A.I. agentova procjena položaja lopte u igri, zbog čega se mislilo da je bila nekoliko piksela niža nego što je zapravo bila bio je. Uobičajeno, ovo bi stavilo A.I. igrač u velikom nedostatku, zbog čega opetovano gubi od računalnog protivnika. U ovom slučaju, međutim, RL agent razmišlja o svim mjestima gdje je lopta mogao biti, a zatim postavlja veslo negdje gdje neće promašiti bez obzira na promjenu položaja.
„Ova nova kategorija robusnih algoritama dubokog učenja bit će ključna za dovođenje obećavajućeg A.I. tehnike u stvarni svijet.”
Naravno, igre su puno jednostavnije od stvarnog svijeta, kao što Everett spremno priznaje.
“Stvarni svijet ima puno više neizvjesnosti od videoigara, od nesavršenih senzora ili kontradiktornih napada, što može biti dovoljno da prevari duboko učenje sustave za donošenje opasnih odluka — [kao što je] bojenje točkice na cesti [što može uzrokovati da samovozeći automobil] skrene u drugu traku,” rekao je objasnio. “Naš rad predstavlja duboki RL algoritam koji je potvrđeno robustan do nesavršenih mjerenja. Ključna inovacija je da, umjesto da slijepo vjeruje svojim mjerenjima, kao što se danas radi, naš algoritam misli kroz sva moguća mjerenja koja su se mogla napraviti i donosi odluku koja uzima u obzir najgori mogući slučaj ishod."
U drugoj demonstraciji, pokazali su da algoritam može, u simuliranom kontekstu vožnje, izbjeći sudare čak i kada su njegovi senzori napadnuti od strane protivnika koji želi da se agent sudari. „Ova nova kategorija robusnih algoritama dubokog učenja bit će ključna za dovođenje obećavajućeg A.I. tehnike u stvarni svijet,” rekao je Everett.
Ostaje još posla
Još je rano za ovaj posao i ima još toga što treba učiniti. Također postoji potencijalni problem da bi to moglo, u nekim scenarijima, uzrokovati A.I. da se agent ponaša previše konzervativno, što ga čini manje učinkovitim. Unatoč tome, to je vrijedan dio istraživanja koji bi mogao imati duboke utjecaje u budućnosti.
“[Postoje drugi istraživački projekti] koji su usmjereni na zaštitu od [određenih vrsta] kontradiktornih primjera, gdje je posao neuronske mreže klasificirati sliku i ona je ili točna [ili] pogrešna, i priča tu završava,” rekao je Everett, upitan o klasičnoj borbi kornjača protiv puške problem. “Naš rad se temelji na nekim od tih ideja, ali je usredotočen na učenje s potkrepljenjem, gdje agent mora poduzeti radnje i dobiva nagradu ako to učini dobro. Dakle, gledamo na dugoročnije pitanje 'Ako kažem da je ovo kornjača, koje su buduće implikacije te odluke?' i tu naš algoritam stvarno može pomoći. Naš bi algoritam razmišljao o budućim implikacijama u najgorem slučaju odabira kornjače ili puške, što mogao biti važan korak prema rješavanju važnih sigurnosnih problema kada A.I. odluke agenata su dugoročne posljedica."
Rad koji opisuje istraživanje je dostupno za čitanje u elektroničkom repozitoriju pretiska arXiv.
Preporuke urednika
- Analogni AI? Zvuči ludo, ali to bi mogla biti budućnost
- Evo što A.I. za analizu trendova. misli da će biti sljedeća velika stvar u tehnologiji
- Cailifornia ima problem s nestankom struje. Mogu li baterije s velikim protokom biti rješenje?
- Algoritamska arhitektura: Trebamo li pustiti A.I. projektirati zgrade za nas?
- Umjetna inteligencija koja osjeća emocije je ovdje, a moglo bi biti na vašem sljedećem razgovoru za posao