Képfelismerés A.I. Van egy gyengesége. Ez javíthatja

click fraud protection

Valószínűleg ismered mélyhamisítványok, a digitálisan módosított „szintetikus média”, amely képes rávenni az embereket, hogy olyan dolgokat lássanak vagy halljanak, amelyek valójában meg sem történtek. Az ellenséges példák olyanok, mint a mélyhamisítások a képfelismerő A.I. rendszerek – és bár számunkra még csak kicsit sem tűnnek furcsának, képesek a gépek fenébe is összezavarni.

Tartalom

  • Ellenkező támadások kivédése
  • Még több munka vár ránk

Több évvel ezelőtt, a Massachusetts Institute of Technology Számítástechnikai és Mesterséges Intelligencia Laboratóriumának (CSAIL) kutatói megállapították, hogy még a kifinomult képfelismerő algoritmusokat is zavaró tárgyakká téveszthetik, pusztán a felületük enyhe megváltoztatásával struktúra. Ezek sem voltak kisebb összekeverések.

Képfelismerés Puskaként felismert teknős

A kutatók demonstrációja során megmutatták, hogy lehetséges rávenni egy élvonalbeli neurális hálózatot, hogy egy 3D-nyomtatott teknősre nézzen, és helyette puskát lásson. Vagy nézni egy baseball-labdát, és arra a következtetésre jutni, hogy az egy eszpresszó. Ha egy ilyen vizuális agnózia megnyilvánulna egy emberben, ez egy olyan neurológiai esettanulmány lenne, amely egy olyan könyvbe kerülne, mint Oliver Sacks klasszikusa.

A férfi, aki a feleségét kalapnak tartotta.

Ajánlott videók

A kontradiktórius példák lenyűgöző sebezhetőséget jelentenek, amikor a vizuális A.I. rendszerek látják a világot. De ezek egyben potenciálisan riasztót is jelentenek, amint azt egy olyan hibától várhatnánk, amely összekeveri az újszerű játékteknőst a puskával. Ez az, amit a kutatók kétségbeesetten azon törték a fejüket, hogyan javítsák ki.

Az MIT kutatóinak egy másik csoportja most egy új rendszerrel állt elő, amely segíthet elkerülni az „ellenkező” bemeneteket. A folyamat során őszintén félelmetes felhasználási esetet képzeltek el az ellentmondásos példák számára, amelyet ha hackerek megvalósítanak, halálos hatást fejthetnek ki.

A forgatókönyv a következő: Az autonóm autók egyre jobban érzékelik az őket körülvevő világot. De mi van akkor, ha hirtelen egy autó vizuális bemeneten alapuló fedélzeti kamerái szándékosan vagy véletlenül képtelenek lesznek azonosítani, mi van előttük? Az úton lévő tárgyak helytelen besorolása – például a gyalogos azonosításának és elhelyezésének elmulasztása – valóban nagyon-nagyon rosszul végződhet.

Ellenkező támadások kivédése

„Csoportunk több éve dolgozik a mély tanulás, a robotika és az irányításelmélet interfészén – többek között dolgozzunk a mély RL [megerősítő tanulás] használatán, hogy robotokat tanítsanak arra, hogy társadalmilag tudatosan navigáljanak a gyalogosok körül” Michael Everett, az MIT Repülési és Űrhajózási Tanszékének posztdoktori kutatója elmondta a Digital Trendsnek. „Miközben azon gondolkodtunk, hogyan vihetjük át ezeket az ötleteket a nagyobb és gyorsabb járművekre, a biztonság és a robusztusság kérdései váltak a legnagyobb kihívássá. Nagyszerű lehetőséget láttunk ennek a problémának a mély tanulásban történő tanulmányozására a robusztus vezérlés és a robusztus optimalizálás szemszögéből.”

Társadalmilag tudatos mozgástervezés mélyreható tanulással

A megerősítő tanulás a gépi tanulás próba és hiba alapú megközelítése, amelyet a kutatók híresen használtak szerezzen számítógépet, hogy megtanuljon videojátékokat játszani anélkül, hogy kifejezetten megtanították volna, hogyan. A csapat új megerősítő tanulási és mély neurális hálózat alapú algoritmusának neve CARRL, a Certified Adversarial Robustness for Deep Reforcement Learning rövidítése. Lényegében ez a neurális hálózat hozzáadott adag szkepticizmussal, amikor arról van szó, hogy mit lát.

Munkájuk egyik bemutatóján, amelyet a Ford Motor Company támogatott, a kutatók megerősítő tanulási algoritmust építettek, amely képes játszani a klasszikus Atari játékkal. Pong. Ám a korábbi RL-játékosokkal ellentétben az ő verziójukban olyan ellenséges támadást alkalmaztak, amely eldobta az A.I. az ügynök értékelése a játék labdapozíciójáról, és azt gondolja, hogy az néhány képponttal alacsonyabb volt, mint valójában volt. Általában ez az A.I. játékos jelentős hátrányba kerül, ami miatt többször is veszít a számítógépes ellenféllel szemben. Ebben az esetben azonban az RL ügynök a labda minden helyére gondol tudott legyen, majd helyezze a lapátot olyan helyre, ahol nem fog hiányozni, függetlenül attól, hogy eltolódik-e a helyzet.

„A robusztus mély tanulási algoritmusok új kategóriája elengedhetetlen lesz az ígéretes A.I. technikákat a való világba.”

Természetesen a játékok sokkal egyszerűbbek, mint a való világban, ahogy Everett készséggel elismeri.

"A valós világban sokkal több a bizonytalanság, mint a videojátékokban, a tökéletlen érzékelők vagy az ellenséges támadások miatt, ami elég lehet a mély tanulás becsapásához. veszélyes döntések meghozatalára szolgáló rendszerek – [például] egy pont felfestése az úton [ami miatt az önvezető autó egy másik sávba kanyarodhat]” magyarázta. „Munkánk egy mély RL algoritmust mutat be, amely bizonyíthatóan robusztus a tökéletlen mérésekhez. A kulcsfontosságú újítás az, hogy algoritmusunk ahelyett, hogy vakon bízna a méréseiben, mint ahogy ma tesszük, minden lehetséges mérésen keresztül, amit meg lehetett volna tenni, és a legrosszabb esetet figyelembe vevő döntést hoz eredmény."

Egy másik demonstrációban megmutatták, hogy az algoritmus szimulált vezetési környezetben képes elkerülni az ütközéseket még akkor is, ha az érzékelőit olyan ellenfél támadja meg, aki azt akarja, hogy az ügynök ütközzen. „A robusztus mély tanulási algoritmusok új kategóriája elengedhetetlen lesz az ígéretes A.I. technikákat a való világba – mondta Everett.

Még több munka vár ránk

Ez a munka még korai szakaszban van, és van még mit tenni. Az is lehetséges probléma, hogy ez bizonyos forgatókönyvekben az A.I. túl konzervatívan viselkedik, ezáltal kevésbé hatékony. Mindazonáltal ez egy értékes kutatás, amelynek mélyreható hatásai lehetnek a jövőben.

„[Vannak más kutatási projektek], amelyek a [bizonyos típusú] ellentétes példák elleni védelemre összpontosítanak, ahol a neurális hálózat feladata, hogy osztályozzon egy képet, és az vagy helyes [vagy] helytelen, és a történet ezzel véget is ér” – mondta Everett, amikor a klasszikus teknős kontra puskáról kérdezték. probléma. „Munkánk néhány ilyen ötletre épül, de a megerősítő tanulásra összpontosítunk, ahol az ügynöknek cselekednie kell, és ha jól teljesít, jutalmat kell kapnia. Tehát egy hosszabb távú kérdést vizsgálunk: „Ha azt mondom, hogy ez egy teknős, milyen jövőbeli következményei lesznek ennek a döntésnek?”, és ez az, ahol az algoritmusunk valóban segíthet. Algoritmusunk a teknős vagy a puska kiválasztásának legrosszabb jövőbeli következményeire gondolna. fontos lépés lehet a fontos biztonsági kérdések megoldása felé, amikor az A.I. Az ügynökök döntései hosszú távúak hatás."

A kutatást leíró papír az olvasható az arXiv elektronikus előnyomtatási adattárban.

Szerkesztői ajánlások

  • Analóg A.I.? Őrülten hangzik, de lehet, hogy ez a jövő
  • Itt van egy trendelemző A.I. szerint ez lesz a következő nagy dolog a technikában
  • Cailiforniának áramszüneti problémája van. Az óriás flow akkumulátorok jelenthetik a megoldást?
  • Algoritmikus architektúra: Hagyjuk, hogy A.I. épületeket tervez nekünk?
  • Érzelemérzékelő A.I. itt van, és ez lehet a következő állásinterjún