Kuvantunnistus A.I. On Heikkous. Tämä voisi korjata sen

Olet luultavasti tuttu syvät väärennökset, digitaalisesti muunneltu "synteettinen media", joka pystyy huijaamaan ihmiset näkemään tai kuulemaan asioita, joita ei ole koskaan tapahtunut. Vastuulliset esimerkit ovat kuin syväväärennöksiä kuvantunnistukseen A.I. järjestelmät – ja vaikka ne eivät näytä edes hieman oudolta, ne pystyvät hämmentämään koneita.

Sisällys

  • Vastakkaisten hyökkäysten torjuminen
  • Lisää työtä on vielä tehtävä

Useita vuosia sittenMassachusetts Institute of Technologyn tietojenkäsittelytieteen ja tekoälylaboratorion (CSAIL) tutkijat havaitsivat, että ne voisivat huijata jopa hienostuneita kuvantunnistusalgoritmeja hämmentäviä esineitä yksinkertaisesti muuttamalla niiden pintaa hieman rakenne. Nämäkään eivät olleet pieniä sekaannuksia.

Kuvantunnistus Kilpikonna tunnistettu kivääriksi

Tutkijoiden esittelyssä he osoittivat, että oli mahdollista saada huippuluokan hermoverkko katsomaan 3D-tulostettua kilpikonnaa ja näkemään sen sijaan kiväärin. Tai katsoa baseballia ja päätyä siihen johtopäätökseen, että se on espresso. Jos tällainen visuaalinen agnosia ilmenisi ihmisessä, se olisi sellainen neurologinen tapaustutkimus, joka löytäisi tiensä Oliver Sacksin klassikon kaltaiseen kirjaan

Mies, joka luuli vaimoaan hatuksi.

Suositellut videot

Vastakkaiset esimerkit edustavat kiehtovaa haavoittuvuutta, kun kyse on siitä, miten visuaalinen A.I. järjestelmät katsovat maailmaa. Mutta ne ovat myös mahdollisesti hälyttävä, kuten voit odottaa virheestä, joka sekoittaa uuden lelukilpikonnan kiväärin. Se on sellainen, jota tutkijat ovat epätoivoisesti keksineet, kuinka korjata.

Nyt toinen ryhmä MIT: n tutkijoita on keksinyt uuden järjestelmän, joka voisi auttaa välttämään "vastarintaisia" panoksia. Prosessin aikana he ovat kuvitelleet suoraan sanoen pelottavan käyttötapauksen vastakkaisille esimerkeille, joita voitaisiin käyttää tappaviin vaikutuksiin, jos hakkerit toteuttaisivat sen.

Skenaario on seuraava: Autonomiset autot hahmottavat ympäröivää maailmaa yhä paremmin. Mutta entä jos yhtäkkiä auton visuaaliseen tuloon perustuvat sisäiset kamerat joko tarkoituksella tai vahingossa eivät pysty tunnistamaan edessä olevaa? Tiellä olevan kohteen virheellinen luokittelu – kuten jalankulkijan oikean tunnistamisen ja sijoittamisen epäonnistuminen – voi mahdollisesti päättyä todella, erittäin huonosti.

Vastakkaisten hyökkäysten torjuminen

”Ryhmämme on työskennellyt syväoppimisen, robotiikan ja ohjausteorian rajapinnassa useiden vuosien ajan – mukaan lukien työskennellä syvän RL: n [vahvistusoppimisen] avulla robottien kouluttamiseksi navigoimaan sosiaalisesti tietoisella tavalla jalankulkijoiden ympärillä. Michael EverettMIT: n ilmailu- ja astronautiikkaosaston post doc -tutkija kertoi Digital Trendsille. "Kun pohdimme, kuinka tuoda nämä ideat suurempiin ja nopeampiin ajoneuvoihin, turvallisuus- ja kestävyyskysymyksistä tuli suurin haaste. Näimme loistavan mahdollisuuden tutkia tätä ongelmaa syvässä oppimisessa vankan ohjauksen ja vankan optimoinnin näkökulmasta."

Sosiaalisesti tietoinen liikesuunnittelu ja syvällinen vahvistusoppiminen

Vahvistusoppiminen on yritys-ja virhe-pohjainen lähestymistapa koneoppimiseen, jota tutkijat ovat tunnetusti käyttäneet saada tietokoneet oppimaan pelaamaan videopelejä ilman, että heille on erikseen opetettu miten. Tiimin uusi vahvistusoppimis- ja syvähermoverkkopohjainen algoritmi on nimeltään CARRL, lyhenne sanoista Certified Adversarial Robustness for Deep Enforcement Learning. Pohjimmiltaan se on a hermoverkko lisätyllä annoksella skeptisyyttä sen suhteen, mitä se näkee.

Eräässä Ford Motor Companyn tukemassa esittelyssä tutkijat rakensivat vahvistusoppimisalgoritmin, joka pystyy pelaamaan klassista Atari-peliä. Pong. Mutta toisin kuin aiemmat RL-pelin pelaajat, heidän versiossaan he käyttivät vastustavaa hyökkäystä, joka heitti A.I. agentin arvio pelin pallon sijainnista, mikä saa sen ajattelemaan, että se oli muutaman pikselin pienempi kuin se todellisuudessa oli. Normaalisti tämä saattaisi A.I. pelaaja on erittäin huonossa asemassa, jolloin se häviää toistuvasti tietokonevastustajalle. Tässä tapauksessa RL-agentti kuitenkin ajattelee kaikkia pallon paikkoja voisi olla, ja aseta sitten mela paikkaan, josta se ei katoa asentomuutoksesta huolimatta.

"Tämä uusi vahva syväoppimisalgoritmien luokka on olennainen lupaavan A.I: n tuomiseksi. tekniikoita todelliseen maailmaan."

Tietenkin pelit ovat huomattavasti yksinkertaisempia kuin todellinen maailma, kuten Everett helposti myöntää.

"Reaalimaailmassa on paljon enemmän epävarmuutta kuin videopeleissä epätäydellisistä antureista tai vastakkaisista hyökkäyksistä, mikä voi riittää huijaamaan syvää oppimista järjestelmät vaarallisten päätösten tekemiseen – [kuten] pisteen ruiskumaalaaminen tiellä [joka voi aiheuttaa itseajavan auton] ajautumisen toiselle kaistalle”, hän selitti. "Työmme esittelee syvän RL-algoritmin, joka on todistetusti vankka epätäydellisiin mittauksiin. Keskeinen innovaatio on, että algoritmimme ajattelee sen sijaan, että luottaisi sokeasti mittauksiinsa, kuten nykyään tehdään. kaikki mahdolliset mittaukset, jotka olisi voitu tehdä, ja tekee päätöksen, joka ottaa huomioon pahimman tapauksen tulokset."

Toisessa demonstraatiossa he osoittivat, että algoritmi voi simuloidussa ajokontekstissa välttää törmäykset, vaikka vastustaja hyökkää sen antureiden kimppuun, joka haluaa agentin törmäävän. "Tämä uusi vahva syväoppimisalgoritmien luokka on olennainen lupaavan A.I: n tuomiseksi. tekniikoita todelliseen maailmaan", Everett sanoi.

Lisää työtä on vielä tehtävä

Tämä työ on vielä alkuvaiheessa, ja vielä on tehtävää. On myös mahdollista, että tämä saattaa joissakin skenaarioissa aiheuttaa A.I. toimia liian konservatiivisesti, mikä heikentää sen tehokkuutta. Siitä huolimatta se on arvokas tutkimus, jolla voi olla syvällisiä vaikutuksia eteenpäin.

"[On muitakin tutkimusprojekteja], jotka keskittyvät suojaamiseen [tietyntyyppisiltä] vastakkainasettelumerkeiltä, ​​joissa hermoverkon tehtävänä on luokittele kuva ja se on joko oikein [tai] väärin, ja tarina päättyy siihen", Everett sanoi, kun kysyttiin klassisesta kilpikonna vastaan ​​kivääri. ongelma. ”Työmme perustuu joihinkin näistä ideoista, mutta keskittyy vahvistusoppimiseen, jossa agentin on ryhdyttävä toimiin ja hän saa palkkion, jos se onnistuu hyvin. Tarkastelemme siis pitkän aikavälin kysymystä "Jos sanon, että tämä on kilpikonna, mitkä ovat tämän päätöksen seuraukset tulevaisuudessa?", ja siinä algoritmimme voi todella auttaa. Algoritmimme pohtisi pahimman mahdollisen tulevaisuuden seurauksia joko kilpikonnan tai kiväärin valinnalla, mikä voi olla tärkeä askel kohti tärkeiden turvallisuusongelmien ratkaisemista, kun A.I. agenttien päätökset ovat pitkäaikaisia vaikutus."

Tutkimusta kuvaava paperi on luettavissa sähköisessä esitulostusarkistossa arXiv.

Toimittajien suositukset

  • Analoginen A.I.? Kuulostaa hullulta, mutta se saattaa olla tulevaisuutta
  • Tässä on trendejä analysoiva A.I. uskoo olevan seuraava iso asia tekniikassa
  • Cailifornialla on sähkökatkosongelma. Voisiko jättiläisvirtaakut olla ratkaisu?
  • Algoritminen arkkitehtuuri: Pitäisikö meidän antaa A.I. suunnitteletko rakennuksia meille?
  • Tunteita tunnistava A.I. on täällä, ja se voi olla seuraavassa työhaastattelussasi