Attēla atpazīšana A.I. Ir Vājums. Tas varētu to labot

Jūs droši vien esat pazīstams ar dziļi viltojumi, digitāli pārveidots “sintētiskais medijs”, kas spēj muļķot cilvēkus redzēt vai dzirdēt lietas, kas patiesībā nekad nav notikušas. Pretendenti piemēri ir kā dziļi viltojumi attēla atpazīšanai A.I. sistēmas — un, lai gan tās mums nešķiet pat nedaudz dīvainas, tās spēj izjaukt mašīnas.

Saturs

  • Pretendentu uzbrukumu atvairīšana
  • Vēl jāpaveic vairāk darba

Pirms vairākiem gadiemMasačūsetsas Tehnoloģiju institūta Datorzinātņu un mākslīgā intelekta laboratorijas (CSAIL) pētnieki atklāja, ka tie varētu maldināt pat sarežģītus attēlu atpazīšanas algoritmus, lai sajauktu objektus, vienkārši nedaudz mainot to virsmu tekstūra. Tās arī nebija nelielas sajaukšanās.

Attēla atpazīšana Bruņurupucis atpazīts kā šautene

Pētnieku demonstrācijā viņi parādīja, ka ir iespējams iegūt visprogresīvāko neironu tīklu, lai paskatītos uz 3D drukātu bruņurupuci un tā vietā redzētu šauteni. Vai paskatīties uz beisbolu un nonākt pie secinājuma, ka tas ir espresso. Ja šāda vizuāla agnosija izpaustos cilvēkā, tā būtu tāda veida neiroloģiska gadījuma izpēte, kas nonāktu tādā grāmatā kā Olivera Saksa klasika.

Vīrietis, kurš savu sievu uzskatīja par cepuri.

Ieteiktie videoklipi

Pretendenti piemēri ir aizraujoša ievainojamība, kad runa ir par to, kā vizuālais A.I. sistēmas redz pasauli. Bet tie arī, kā jūs varētu sagaidīt no defekta, kas jauc jaunu rotaļlietu bruņurupuci ar šauteni, ir potenciāli satraucošs. Pētnieki ir izmisīgi izdomājuši, kā to salabot.

Tagad cita MIT pētnieku grupa ir nākusi klajā ar jaunu sistēmu, kas varētu palīdzēt izvairīties no “pretrunīgiem” ievadiem. Šajā procesā viņi ir iztēlojušies atklāti šausminošu pretrunīgu piemēru izmantošanas gadījumu, ko, ja to ieviesīs hakeri, varētu izmantot nāvējošai iedarbībai.

Scenārijs ir šāds: autonomās automašīnas arvien labāk uztver apkārtējo pasauli. Bet ko tad, ja pēkšņi uz vizuālo ievadi balstītās automašīnas iebūvētās kameras tīši vai nejauši padarītas nespējīgas noteikt, kas atrodas tām priekšā? Uz ceļa esoša objekta nepareiza klasificēšana, piemēram, nespēja pareizi identificēt un novietot gājēju, potenciāli var beigties ļoti, ļoti slikti.

Pretendentu uzbrukumu atvairīšana

"Mūsu grupa vairākus gadus strādā pie dziļās mācīšanās, robotikas un vadības teorijas saskarnes, tostarp strādāt pie dziļās RL [pastiprināšanas mācīšanās] izmantošanas, lai apmācītu robotus sociāli apzināti pārvietoties ap gājējiem. Maikls EveretsMIT Aeronautikas un astronautikas departamenta pēcdoktorantūras pētnieks pastāstīja Digital Trends. “Kamēr mēs domājām par to, kā šīs idejas īstenot lielākos un ātrākos transportlīdzekļos, drošības un robustuma jautājumi kļuva par lielāko izaicinājumu. Mēs redzējām lielisku iespēju izpētīt šo problēmu dziļās mācībās no spēcīgas kontroles un stingras optimizācijas perspektīvas.

Sociāli apzināta kustību plānošana ar padziļinātu apmācību

Mācību pastiprināšana ir uz izmēģinājumiem un kļūdām balstīta pieeja mašīnmācībai, ko pētnieki ir izmantojuši, lai iegūt datorus, lai iemācītos spēlēt videospēles bez skaidras mācības, kā. Komandas jaunais pastiprināšanas mācīšanās un dziļā neironu tīkla algoritms tiek saukts par CARRL, kas ir saīsinājums no Certified Adversarial Robustness for Deep Reinforcement Learning. Būtībā tas ir a neironu tīkls ar papildu skepticisma devu, kad runa ir par to, ko tā redz.

Vienā sava darba demonstrācijā, ko atbalstīja Ford Motor Company, pētnieki izveidoja pastiprināšanas mācīšanās algoritmu, kas spēj spēlēt klasisko Atari spēli. Pongs. Bet, atšķirībā no iepriekšējiem RL spēļu spēlētājiem, viņi savā versijā pielietoja pretinieku uzbrukumu, kas atmeta A.I. aģenta vērtējums par spēles bumbas pozīciju, liekot tai domāt, ka tā bija par dažiem pikseļiem zemāka nekā patiesībā bija. Parasti tas nozīmētu, ka A.I. spēlētājam ir ļoti neizdevīgā stāvoklī, liekot tam atkārtoti zaudēt datora pretiniekam. Šajā gadījumā RL aģents tomēr domā par visām bumbas vietām varētu būt, un pēc tam novietojiet lāpstiņu vietā, kur tā netiks garām neatkarīgi no pozīcijas maiņas.

“Šī jaunā robusto dziļās mācīšanās algoritmu kategorija būs būtiska, lai nodrošinātu daudzsološu A.I. metodes reālajā pasaulē.

Protams, spēles ir daudz vienkāršākas nekā reālā pasaule, kā Everetts labprāt atzīst.

"Reālajā pasaulē ir daudz vairāk nenoteiktības nekā videospēlēs, jo nepilnīgi sensori vai pretinieku uzbrukumi var būt pietiekami, lai apmānītu dziļu mācīšanos sistēmas, lai pieņemtu bīstamus lēmumus — [piemēram,] uz ceļa krāsojot punktu, [kas var izraisīt pašbraucošas automašīnas novirzīšanos uz citu joslu. paskaidroja. "Mūsu darbs piedāvā dziļu RL algoritmu, kas ir apliecināmi izturīgs pret nepilnīgiem mērījumiem. Galvenais jauninājums ir tāds, ka mūsu algoritms domā, ka tā vietā, lai akli uzticētos mērījumiem, kā tas tiek darīts šodien veicot visus iespējamos mērījumus, ko varēja veikt, un pieņem lēmumu, ņemot vērā sliktāko gadījumu iznākums."

Citā demonstrācijā viņi parādīja, ka algoritms simulētā braukšanas kontekstā var izvairīties no sadursmēm pat tad, ja tā sensoriem uzbrūk pretinieks, kurš vēlas, lai aģents saduras. “Šī jaunā robusto dziļās mācīšanās algoritmu kategorija būs būtiska, lai nodrošinātu daudzsološu A.I. metodes reālajā pasaulē, ”sacīja Everets.

Vēl jāpaveic vairāk darba

Vēl ir sākums šim darbam, un vēl ir jāpaveic. Pastāv arī iespējamā problēma, kas dažos gadījumos var izraisīt A.I. aģents izturas pārāk konservatīvi, tādējādi padarot to mazāk efektīvu. Neskatoties uz to, tas ir vērtīgs pētījums, kam varētu būt dziļa ietekme uz priekšu.

"[Ir arī citi pētniecības projekti], kas koncentrējas uz aizsardzību pret [noteikta veida] pretrunīgiem piemēriem, kur neironu tīkla uzdevums ir klasificē attēlu, un tas ir vai nu pareizi [vai] nepareizi, un stāsts ar to arī beidzas,” Everets sacīja, jautāts par klasisko bruņurupuču pret šauteni. problēma. "Mūsu darbs balstās uz dažām no šīm idejām, bet ir vērsts uz pastiprināšanas mācīšanos, kur aģentam ir jāveic darbības un viņš saņem atlīdzību, ja tas labi padodas. Tāpēc mēs skatāmies uz ilgtermiņa jautājumu: “Ja es saku, ka tas ir bruņurupucis, kāda ir šī lēmuma turpmākā ietekme?”, un šeit mūsu algoritms var patiešām palīdzēt. Mūsu algoritms domātu par vissliktākajām nākotnes sekām, izvēloties bruņurupuci vai šauteni, kas varētu būt nozīmīgs solis svarīgu drošības jautājumu risināšanā, kad A.I. aģentu lēmumiem ir ilgtermiņa efekts."

Papīrs, kurā aprakstīts pētījums, ir pieejams lasīšanai elektroniskajā priekšdrukas repozitorijā arXiv.

Redaktoru ieteikumi

  • Analogais A.I.? Tas izklausās traki, bet tā varētu būt nākotne
  • Lūk, ko tendenču analīzē A.I. domā, ka tā būs nākamā lielā lieta tehnoloģiju jomā
  • Kailifornijā ir aptumšošanās problēma. Vai risinājums varētu būt milzīgas plūsmas baterijas?
  • Algoritmiskā arhitektūra: vai mums vajadzētu ļaut A.I. projektēt ēkas mums?
  • Emociju sensors A.I. ir šeit, un tas varētu būt jūsu nākamajā darba intervijā