Probabilmente hai familiarità con deepfake, i “media sintetici” alterati digitalmente che sono in grado di ingannare le persone facendole vedere o sentire cose che non sono mai realmente accadute. Gli esempi contraddittori sono come deepfake per il riconoscimento delle immagini A.I. sistemi - e anche se non ci sembrano nemmeno leggermente strani, sono in grado di confondere le macchine.
Contenuti
- Respingere gli attacchi avversari
- C'è ancora molto lavoro da fare
Diversi anni faLo hanno scoperto i ricercatori del Laboratorio di informatica e intelligenza artificiale (CSAIL) del Massachusetts Institute of Technology potrebbero ingannare anche sofisticati algoritmi di riconoscimento delle immagini inducendoli a confondere oggetti semplicemente alterandone leggermente la superficie struttura. Anche questi non erano piccoli errori.
Nella dimostrazione dei ricercatori, hanno dimostrato che era possibile ottenere una rete neurale all’avanguardia per guardare una tartaruga stampata in 3D e vedere invece un fucile. Oppure guardare una palla da baseball e giungere alla conclusione che si tratti di un espresso. Se tale agnosia visiva si manifestasse in un essere umano, sarebbe il tipo di caso di studio neurologico che troverebbe la sua strada in un libro come il classico di Oliver Sacks.
L'uomo che scambiò sua moglie per un cappello.Video consigliati
Gli esempi contraddittori rappresentano un’affascinante vulnerabilità quando si tratta di come l’I.A. I sistemi vedono il mondo. Ma, come ci si potrebbe aspettare da un difetto che confonde una tartaruga giocattolo con un fucile, rappresentano un difetto potenzialmente allarmante. È un problema che i ricercatori stanno cercando disperatamente di capire come correggere.
Ora, un altro gruppo di ricercatori del MIT ha ideato un nuovo sistema che potrebbe aiutare a schivare gli input “antagonisti”. Nel processo, hanno immaginato un caso d’uso francamente terrificante per esempi contraddittori, che potrebbe, se implementato dagli hacker, essere utilizzato con effetti mortali.
Lo scenario è questo: le auto autonome stanno migliorando sempre di più nella percezione del mondo che le circonda. Ma cosa succederebbe se, all’improvviso, le telecamere di bordo di un’auto basate su input visivi fossero intenzionalmente o accidentalmente rese incapaci di identificare ciò che c’è davanti a loro? Classificare erroneamente un oggetto sulla strada, come non riuscire a identificare e posizionare correttamente un pedone, potrebbe potenzialmente finire molto, molto male.
Respingere gli attacchi avversari
“Il nostro gruppo lavora da diversi anni all’interfaccia tra deep learning, robotica e teoria del controllo lavorare sull’utilizzo del deep RL [apprendimento per rinforzo] per addestrare i robot a muoversi in modo socialmente consapevole attorno ai pedoni”, Michael Everett, un ricercatore post-dottorato presso il Dipartimento di Aeronautica e Astronautica del MIT, ha dichiarato a Digital Trends. “Mentre pensavamo a come portare queste idee su veicoli più grandi e più veloci, le questioni relative alla sicurezza e alla robustezza sono diventate la sfida più grande. Abbiamo visto una grande opportunità per studiare questo problema nel deep learning dal punto di vista di un controllo robusto e di una solida ottimizzazione”.
Pianificazione del movimento socialmente consapevole con apprendimento per rinforzo profondo
L'apprendimento per rinforzo è un approccio all'apprendimento automatico basato su tentativi ed errori che, notoriamente, è stato utilizzato dai ricercatori per far sì che i computer imparino a giocare ai videogiochi senza che gli venga esplicitamente insegnato come farlo. Il nuovo algoritmo basato sull’apprendimento per rinforzo e sulla rete neurale profonda del team si chiama CARRL, abbreviazione di Certified Adversarial Robustness for Deep Reinforcement Learning. In sostanza, è un rete neurale con una dose aggiuntiva di scetticismo quando si tratta di ciò che vede.
In una dimostrazione del loro lavoro, supportata dalla Ford Motor Company, i ricercatori hanno costruito un algoritmo di apprendimento per rinforzo in grado di riprodurre il classico gioco Atari Pongo. Ma, a differenza dei precedenti giocatori di giochi RL, nella loro versione, applicavano un attacco avversario che respingeva l'A.I. valutazione da parte dell’agente della posizione della palla nel gioco, facendogli credere che fosse qualche pixel più bassa di quella reale era. Normalmente, questo metterebbe l'A.I. giocatore in grave svantaggio, facendolo perdere ripetutamente contro l'avversario controllato dal computer. In questo caso, però, l'agente RL pensa a tutti i posti in cui si trova la palla Potevo essere, quindi posiziona la paletta in un punto dove non mancherà, indipendentemente dallo spostamento di posizione.
“Questa nuova categoria di robusti algoritmi di deep learning sarà essenziale per portare la promettente A.I. tecniche nel mondo reale”.
Naturalmente, i giochi sono molto più semplificati del mondo reale, come ammette prontamente Everett.
“Il mondo reale presenta molte più incertezze rispetto ai videogiochi, a causa di sensori imperfetti o attacchi avversari, che possono essere sufficienti per ingannare il deep learning sistemi per prendere decisioni pericolose – [come] dipingere con lo spray un punto sulla strada [che potrebbe far sì che un’auto a guida autonoma] sbandi in un’altra corsia”, ha spiegato. “Il nostro lavoro presenta un algoritmo RL profondo che è certificabilmente robusto rispetto a misurazioni imperfette. L’innovazione chiave è che, invece di fidarsi ciecamente delle sue misurazioni, come avviene oggi, il nostro algoritmo pensa attraverso tutte le possibili misurazioni che avrebbero potuto essere effettuate e prende una decisione che considera il caso peggiore risultato."
In un'altra dimostrazione, hanno dimostrato che l'algoritmo può, in un contesto di guida simulato, evitare collisioni anche quando i suoi sensori vengono attaccati da un avversario che vuole che l'agente entri in collisione. “Questa nuova categoria di robusti algoritmi di deep learning sarà essenziale per portare la promettente A.I. tecniche nel mondo reale", ha detto Everett.
C'è ancora molto lavoro da fare
È ancora agli inizi per questo lavoro e c’è ancora molto da fare. C'è anche il potenziale problema che ciò potrebbe, in alcuni scenari, far sì che l'A.I. comportarsi in modo troppo conservativo, rendendolo quindi meno efficiente. Tuttavia, si tratta di un prezioso pezzo di ricerca che potrebbe avere profondi impatti in futuro.
“[Ci sono altri progetti di ricerca] che si concentrano sulla protezione contro [alcuni tipi] di esempi contraddittori, in cui il compito della rete neurale è quello di classificare un'immagine e o è giusta [o] sbagliata, e la storia finisce lì", ha detto Everett, quando gli è stato chiesto del classico gioco tartaruga-contro-fucile problema. “Il nostro lavoro si basa su alcune di queste idee, ma si concentra sull’apprendimento per rinforzo, in cui l’agente deve intraprendere azioni e ottiene una ricompensa se funziona bene. Quindi stiamo esaminando una domanda a lungo termine del tipo “Se dico che questa è una tartaruga, quali sono le implicazioni future di tale decisione?” ed è qui che il nostro algoritmo può davvero aiutare. Il nostro algoritmo penserebbe alle implicazioni future nel caso peggiore della scelta di una tartaruga o di un fucile, che potrebbe essere un passo importante verso la risoluzione di importanti problemi di sicurezza quando A.I. Le decisioni degli agenti hanno una durata a lungo termine effetto."
Un documento che descrive la ricerca è disponibile per la lettura nel repository elettronico di prestampa arXiv.
Raccomandazioni degli editori
- IA analogica? Sembra pazzesco, ma potrebbe essere il futuro
- Ecco cosa fa un'A.I. che analizza le tendenze. pensa che sarà la prossima grande novità nel campo della tecnologia
- La California ha un problema di blackout. Le batterie a flusso gigante potrebbero essere la soluzione?
- Architettura algoritmica: dovremmo lasciare che l’A.I. progettare edifici per noi?
- A.I. sensibile alle emozioni è qui e potrebbe essere nel tuo prossimo colloquio di lavoro