Rozpoznávanie obrazu A.I. Má Slabosť. Toto by to mohlo opraviť

Pravdepodobne je vám známe deepfakes, digitálne zmenené „syntetické médiá“, ktoré dokážu ľudí oklamať, aby videli alebo počuli veci, ktoré sa v skutočnosti nikdy nestali. Nepriaznivé príklady sú ako deepfakes pre rozpoznávanie obrazu A.I. systémy – a hoci sa nám nezdajú ani trochu zvláštne, sú schopné pomýliť si stroje.

Obsah

  • Odraziť nepriateľské útoky
  • Ešte treba urobiť viac práce

Pred niekoľkými rokmiVedci z Laboratória počítačovej vedy a umelej inteligencie (CSAIL) Massachusetts Institute of Technology zistili, že mohli oklamať aj sofistikované algoritmy na rozpoznávanie obrázkov, aby zmätili objekty jednoduchou miernou zmenou ich povrchu textúra. Neboli to ani menšie zámeny.

Rozpoznanie obrazu Korytnačka rozpoznaná ako puška

V demonštrácii výskumníkov ukázali, že je možné získať špičkovú neurónovú sieť, aby sa pozrela na 3D vytlačenú korytnačku a namiesto toho videla pušku. Alebo sa pozrieť na bejzbalovú loptičku a prísť so záverom, že je to espresso. Ak by sa takáto vizuálna agnózia prejavila u človeka, bol by to druh neurologickej prípadovej štúdie, ktorá by si našla cestu do knihy, ako je klasika Olivera Sacksa

Muž, ktorý si pomýlil svoju manželku s klobúkom.

Odporúčané videá

Protichodné príklady predstavujú fascinujúcu zraniteľnosť, pokiaľ ide o to, ako vizuálny A.I. systémy vidia svet. Ale tiež, ako by ste mohli očakávať od chyby, ktorá si mýli novú hračku korytnačky s puškou, predstavujú potenciálne alarmujúce. Je to ten, ktorý výskumníci zúfalo zisťovali, ako ho opraviť.

Teraz ďalšia skupina výskumníkov z MIT prišla s novým systémom, ktorý by mohol pomôcť vyhnúť sa „nepriateľským“ vstupom. V tomto procese si predstavili úprimne desivý prípad použitia pre protichodné príklady, ktorý by, ak by ho implementovali hackeri, mohol použiť so smrteľným účinkom.

Scenár je takýto: Autonómne autá sú čoraz lepšie vo vnímaní sveta okolo seba. Ale čo ak by sa náhle palubné kamery v aute, založené na vizuálnom vstupe, úmyselne alebo náhodne stali neschopnými identifikovať, čo bolo pred nimi? Nesprávna kategorizácia objektu na ceste – napríklad nesprávne identifikovanie a umiestnenie chodca – môže potenciálne skončiť naozaj veľmi, veľmi zle.

Odraziť nepriateľské útoky

„Naša skupina už niekoľko rokov pracuje na rozhraní hlbokého učenia, robotiky a teórie riadenia – vrátane pracovať na používaní hlbokého RL [posilňovacie učenie] na trénovanie robotov, aby sa sociálne uvedomelým spôsobom pohybovali okolo chodcov,“ Michael Everett, postdoktorandský výskumník na oddelení letectva a astronautiky MIT, povedal pre Digital Trends. „Keď sme premýšľali o tom, ako preniesť tieto nápady do väčších a rýchlejších vozidiel, najväčšou výzvou sa stali otázky bezpečnosti a robustnosti. Videli sme skvelú príležitosť študovať tento problém v hlbokom učení z perspektívy robustného riadenia a robustnej optimalizácie.“

Sociálne uvedomelé plánovanie pohybu s hlbokým posilňovacím učením

Posilňovacie učenie je prístup k strojovému učeniu založený na pokusoch a omyloch, ktorý, ako je známe, použili výskumníci na aby sa počítače naučili hrať videohry bez toho, aby bol výslovne poučený ako. Nový tímový algoritmus posilňovania a hlbokej neurónovej siete sa nazýva CARRL, skratka pre Certified Adversarial Robustness for Deep Reinforcement Learning. V podstate ide o a neurónová sieť s pridanou dávkou skepticizmu, pokiaľ ide o to, čo vidí.

V jednej ukážke svojej práce, ktorú podporila spoločnosť Ford Motor Company, výskumníci vytvorili posilňovací algoritmus učenia schopný hrať klasickú hru Atari. Pong. Ale na rozdiel od predchádzajúcich hráčov RL hry vo svojej verzii použili nepriateľský útok, ktorý odhodil A.I. agentovo hodnotenie pozície lopty v hre, vďaka čomu si myslí, že bola o niekoľko pixelov nižšia ako v skutočnosti bol. Za normálnych okolností by to A.I. hráč vo veľkej nevýhode, čo spôsobuje, že opakovane prehráva s počítačovým protivníkom. V tomto prípade však agent RL myslí na všetky miesta lopty mohol a potom umiestnite pádlo niekam, kde neminie bez ohľadu na posun v polohe.

„Táto nová kategória robustných algoritmov hlbokého učenia bude nevyhnutná na to, aby priniesla sľubnú AI. techniky do reálneho sveta."

Samozrejme, hry sú oveľa jednoduchšie ako skutočný svet, ako Everett ochotne pripúšťa.

„Skutočný svet má oveľa väčšiu neistotu ako videohry, a to z nedokonalých senzorov alebo nepriateľských útokov, čo môže stačiť na oklamanie hlbokého učenia. systémy na prijímanie nebezpečných rozhodnutí – [ako] nastriekanie bodky na cestu [čo môže spôsobiť, že samoriadiace auto] prejde do iného jazdného pruhu,“ vysvetlil. „Naša práca predstavuje hlboký algoritmus RL, ktorý je preukázateľne odolný voči nedokonalým meraniam. Kľúčovou inováciou je, že namiesto toho, aby sme slepo dôverovali svojim meraniam, ako sa to robí dnes, náš algoritmus si myslí prostredníctvom všetkých možných meraní, ktoré bolo možné vykonať, a urobí rozhodnutie, ktoré zvažuje najhorší prípad výsledok.”

V ďalšej demonštrácii ukázali, že algoritmus sa dokáže v kontexte simulovanej jazdy vyhnúť kolíziám, aj keď sú jeho senzory napadnuté protivníkom, ktorý chce, aby sa agent zrazil. „Táto nová kategória robustných algoritmov hlbokého učenia bude nevyhnutná na to, aby priniesla sľubnú AI. techniky do skutočného sveta,“ povedal Everett.

Ešte treba urobiť viac práce

Na túto prácu je ešte priskoro a je potrebné urobiť ešte viac. Existuje tiež potenciálny problém, ktorý by to mohlo v niektorých scenároch spôsobiť A.I. správať sa príliš konzervatívne, čím by bola menej efektívna. Napriek tomu je to cenný kus výskumu, ktorý by mohol mať v budúcnosti hlboký vplyv.

„[Existujú ďalšie výskumné projekty], ktoré sa zameriavajú na ochranu pred [určitými typmi] príkladov protivníka, kde úlohou neurónovej siete je klasifikovať obrázok a ten je buď správny [alebo] nesprávny, a tým sa príbeh končí,“ odpovedal Everett, keď sa ho pýtali na klasickú korytnačku verzus pušku. problém. „Naša práca stavia na niektorých z týchto myšlienok, ale je zameraná na posilňovanie učenia, kde agent musí konať a ak sa mu darí, dostane nejakú odmenu. Pozeráme sa teda na dlhodobejšiu otázku „Ak poviem, že toto je korytnačka, aké budú budúce dôsledky tohto rozhodnutia?“ a práve tu môže náš algoritmus skutočne pomôcť. Náš algoritmus by myslel na najhoršie možné budúce dôsledky výberu buď korytnačky alebo pušky, môže byť dôležitým krokom k riešeniu dôležitých bezpečnostných problémov, keď A.I. rozhodnutia agentov sú dlhodobé účinok.”

Dokument popisujúci výskum je k dispozícii na čítanie na elektronickom predtlačovom archíve arXiv.

Odporúčania redaktorov

  • Analógová A.I.? Znie to šialene, ale môže to byť budúcnosť
  • Tu je to, čo A.I. si myslí, že to bude ďalšia veľká vec v oblasti techniky
  • Kalifornia má problém s výpadkom prúdu. Mohli by byť riešením obrovské prietokové batérie?
  • Algoritmická architektúra: Mali by sme nechať A.I. navrhovať budovy pre nás?
  • A.I. je tu a mohlo by to byť na vašom ďalšom pracovnom pohovore