Pravděpodobně je vám známo deepfakes, digitálně pozměněná „syntetická média“, která jsou schopna oklamat lidi, aby viděli nebo slyšeli věci, které se ve skutečnosti nikdy nestaly. Protichůdné příklady jsou jako deepfakes pro rozpoznávání obrazu A.I. systémy – a i když nám nepřipadají ani trochu divné, dokážou zmást stroje.
Obsah
- Odrážení nepřátelských útoků
- Ještě zbývá udělat
Před několika lety, výzkumníci z Massachusetts Institute of Technology’s Computer Science and Artificial Intelligence Laboratory (CSAIL) zjistili, že mohli oklamat i sofistikované algoritmy rozpoznávání obrazu do matoucích objektů jednoduše tím, že mírně pozměnili jejich povrch textura. Nebyly to ani drobné záměny.
V demonstraci vědců ukázali, že je možné získat špičkovou neuronovou síť, aby se podívala na 3D vytištěnou želvu a místo toho viděla pušku. Nebo se podívat na baseballový míček a dojít k závěru, že je to espresso. Pokud by se taková vizuální agnosie projevila u člověka, byl by to druh neurologické případové studie, který by si našel cestu do knihy, jako je klasika Olivera Sackse
Muž, který si spletl svou ženu s kloboukem.Doporučená videa
Protichůdné příklady představují fascinující zranitelnost, pokud jde o to, jak vizuální A.I. systémy vidí svět. Ale také, jak byste mohli očekávat od chyby, která zaměňuje novou hračku želvy s puškou, představují potenciálně alarmující chybu. Je to ta, kterou výzkumníci zoufale zjišťovali, jak ji opravit.
Nyní další skupina výzkumníků z MIT přišla s novým systémem, který by mohl pomoci vyhnout se „nepříznivým“ vstupům. V tomto procesu si představili upřímně děsivý případ použití pro nepřátelské příklady, který by mohl být, pokud by byl implementován hackery, použit se smrtícím účinkem.
Scénář je tento: Autonomní auta jsou stále lepší ve vnímání světa kolem sebe. Ale co když najednou palubní kamery v autě založené na vizuálním vstupu byly záměrně nebo náhodně zneschopněny identifikovat, co je před nimi? Špatná kategorizace předmětu na silnici – například nesprávná identifikace a umístění chodce – může potenciálně skončit opravdu velmi, velmi špatně.
Odrážení nepřátelských útoků
„Naše skupina již několik let pracuje na rozhraní hlubokého učení, robotiky a teorie řízení – včetně pracovat na používání hlubokého RL [učení zesilování] k trénování robotů, aby se společensky uvědomělým způsobem pohybovali kolem chodců,“ Michael Everett, postdoktorský výzkumný pracovník na katedře letectví a kosmonautiky MIT, řekl Digital Trends. „Když jsme přemýšleli o tom, jak tyto nápady přenést do větších a rychlejších vozidel, největší výzvou se staly otázky bezpečnosti a robustnosti. Viděli jsme skvělou příležitost studovat tento problém v hlubokém učení z pohledu robustního řízení a robustní optimalizace.“
Sociálně uvědomělé plánování pohybu s hlubokým učením
Posílené učení je přístup ke strojovému učení založený na pokusech a omylech, který, jak je známo, použili vědci k přimět počítače, aby se naučili hrát videohry aniž by byl výslovně učen jak. Nový týmový algoritmus posilování a algoritmus založený na hluboké neuronové síti se nazývá CARRL, což je zkratka pro Certified Adversarial Robustness for Deep Reinforcement Learning. V podstatě se jedná o a nervová síť s přidanou dávkou skepse, pokud jde o to, co vidí.
V jedné ukázce své práce, kterou podpořila Ford Motor Company, výzkumníci vytvořili posilovací učební algoritmus schopný hrát klasickou hru Atari. Pong. Ale na rozdíl od předchozích hráčů RL hry ve své verzi použili nepřátelský útok, který shodil A.I. agentovo hodnocení pozice míče ve hře, takže si myslí, že je o několik pixelů nižší, než ve skutečnosti byl. Normálně by to dalo A.I. hráč ve velké nevýhodě, což způsobuje, že opakovaně prohrává s počítačovým protivníkem. V tomto případě však RL agent myslí na všechna místa míče mohl být a poté umístí pádlo někam, kde nemine bez ohledu na posun v poloze.
„Tato nová kategorie robustních algoritmů hlubokého učení bude zásadní pro to, aby přinesla slibnou AI. techniky do reálného světa."
Jak Everett ochotně připouští, hry jsou samozřejmě mnohem jednodušší než skutečný svět.
„Skutečný svět má mnohem větší nejistotu než videohry, způsobenou nedokonalými senzory nebo nepřátelskými útoky, které mohou stačit k oklamání hlubokého učení. systémy k přijímání nebezpečných rozhodnutí — [jako] nastříkání tečky na vozovku [což může způsobit, že samořídící auto] sjede do jiného pruhu,“ vysvětlil. „Naše práce představuje hluboký RL algoritmus, který je certifikovaně odolný vůči nedokonalým měřením. Klíčovou inovací je, že náš algoritmus si myslí, že místo toho, aby slepě důvěřoval svým měřením, jak se to dělá dnes prostřednictvím všech možných měření, která mohla být provedena, a učiní rozhodnutí, které zvažuje nejhorší možný případ výsledek."
V další ukázce ukázali, že algoritmus se dokáže v kontextu simulované jízdy vyhnout kolizi, i když na jeho senzory útočí protivník, který chce, aby se agent srazil. „Tato nová kategorie robustních algoritmů hlubokého učení bude zásadní pro to, aby přinesla slibnou AI. techniky do reálného světa,“ řekl Everett.
Ještě zbývá udělat
Na tuto práci je ještě brzy a je potřeba udělat ještě víc. Existuje také potenciální problém, který by to mohlo v některých scénářích způsobit A.I. aby se agent choval příliš konzervativně, čímž by byl méně účinný. Nicméně je to cenný kus výzkumu, který by mohl mít hluboký dopad do budoucna.
„[Existují další výzkumné projekty], které se zaměřují na ochranu proti [určitým typům] příkladů protivníka, kde je úkolem neuronové sítě klasifikovat obrázek a ten je buď správný [nebo] špatný, a tím příběh končí,“ odpověděl Everett, když byl dotázán na klasickou želvu proti pušce. problém. „Naše práce staví na některých z těchto myšlenek, ale zaměřuje se na posilování učení, kdy agent musí jednat a získat nějakou odměnu, pokud se mu daří. Takže se díváme na dlouhodobou otázku ‚Pokud řeknu, že je to želva, jaké budou budoucí důsledky tohoto rozhodnutí?‘ a v tom může náš algoritmus skutečně pomoci. Náš algoritmus by myslel na nejhorší možné budoucí důsledky výběru želvy nebo pušky, které může být důležitým krokem k řešení důležitých bezpečnostních problémů, když A.I. rozhodnutí agentů je dlouhodobé účinek."
Článek popisující výzkum je k dispozici ke čtení na elektronickém předtiskovém úložišti arXiv.
Doporučení redakce
- Analogové A.I.? Zní to šíleně, ale může to být budoucnost
- Zde je to, co A.I. si myslí, že to bude další velká věc v technice
- Kalifornie má problém s výpadkem proudu. Mohly by být řešením obří průtokové baterie?
- Algoritmická architektura: Měli bychom nechat A.I. navrhovat budovy pro nás?
- Snímání emocí A.I. je tady a mohlo by to být na vašem příštím pracovním pohovoru