Immagina un film tortuoso su un maestro criminale impegnato in una guerra di ingegno con il più grande detective del mondo.
Contenuti
- Il problema del deepfake
- Ingannare i rilevatori
- Un gioco del gatto e del topo deepfake
Il criminale cerca di mettere a segno un enorme trucco di fiducia, utilizzando un esperto gioco di prestigio e una straordinaria capacità di camuffarsi praticamente come chiunque sul pianeta. È così bravo in quello che fa che riesce a far credere alle persone di aver visto cose che non sono mai realmente accadute.
Video consigliati
Ma poi incontriamo il detective. È una persona brillante, che non si ferma davanti a nulla, in grado di individuare il "racconto" di qualsiasi ladro. Sa esattamente cosa cercare, e anche il più piccolo comportamento – un sopracciglio alzato qui, una vocale abbassata là – è sufficiente per avvisarla quando qualcosa non va. È l’unica persona che abbia mai catturato il nostro antagonista, e ora è di nuovo sulle sue tracce.
Imparentato
- Premi Tech For Change CES 2023 di Digital Trends
- Meta vuole potenziare Wikipedia con un aggiornamento dell'intelligenza artificiale
- Come faremo a sapere quando un'intelligenza artificiale diventerà effettivamente senziente?
Tuttavia, c’è un problema: il nostro ladro lo sa Lei sa cosa cercare. Di conseguenza, ha cambiato il suo gioco, senza che il protagonista se ne accorga.
Il problema del deepfake
Questa è, in sostanza, la storia dei deepfake e del loro rilevamento finora. Deepfakes, una forma di media sintetico in cui le sembianze delle persone possono essere alterate digitalmente come un Faccia/Spento remake diretto da A.I. ricercatori, sono stati motivo di preoccupazione da quando sono entrati in scena nel 2017. Mentre molti deepfake sono spensierati (scambiando out Arnie per Sly Stallone Il Terminator), rappresentano anche una potenziale minaccia. I deepfake sono stati utilizzati per creare falsi video pornografici che sembrano reali e sono stati utilizzati in bufale politiche e frodi finanziarie.
Per evitare che tali bufale diventino un problema ancora più grande, qualcuno deve essere in grado di intervenire e dire, in modo definitivo, quando viene utilizzato un deepfake e quando no.
"I rilevatori di deepfake funzionano cercando quei dettagli di un deepfake che non sono del tutto corretti, esaminando le immagini non solo per valli misteriose, ma anche per le più piccole buche misteriose."
Non c’è voluto molto prima che apparissero i primi rilevatori di deepfake. Ad aprile 2018, ho coperto uno dei primi tentativi in tal senso, che è stato costruito dai ricercatori dell’Università Tecnica di Monaco in Germania. Proprio come la stessa tecnologia deepfake, utilizzava l’A.I. - solo che questa volta i suoi creatori lo hanno utilizzato non per creare falsi, ma per individuarli.
I rilevatori di deepfake funzionano cercando quei dettagli di un deepfake che non lo sono abbastanza proprio perlustrando le immagini non solo per le valli misteriose, ma anche per la più piccola buca misteriosa. Ritagliano i dati dei volti dalle immagini e poi li passano attraverso una rete neurale per capirne la legittimità. I dettagli del giveaway potrebbero includere cose come il battito delle palpebre riprodotto male.
Ma ora i ricercatori dell’Università della California a San Diego hanno escogitato un modo per sconfiggere i rilevatori di deepfake inserendo quelli che vengono chiamati esempi contraddittori nei fotogrammi video. Gli esempi contraddittori sono un problema affascinante, ma terrificante, nell'A.I. Matrice. Sono in grado di ingannare anche i sistemi di riconoscimento più intelligenti, ad esempio, pensare che una tartaruga sia una pistola, oppure un espresso è una palla da baseball. Lo fanno aggiungendo sottilmente rumore a un'immagine in modo che la rete neurale effettui una classificazione errata.
Come scambiare un fucile per un rettile sgusciato. O un video falso per uno vero.
Ingannare i rilevatori
"C'è stata una recente ondata di metodi per generare video deepfake realistici," Paarth Neekhara, uno studente laureato in ingegneria informatica della UC San Diego, ha detto a Digital Trends. “Poiché questi video manipolati possono essere utilizzati per scopi dannosi, è stato compiuto uno sforzo significativo nello sviluppo di rilevatori in grado di rilevare in modo affidabile i video deepfake. Per esempio, Facebook ha recentemente lanciato la Deepfake Detection Challenge per accelerare la ricerca sullo sviluppo di rilevatori di deepfake. [Ma] sebbene questi metodi di rilevamento possano raggiungere una precisione superiore al 90% su un set di dati di video falsi e reali, il nostro lavoro dimostra che possono essere facilmente aggirati da un utente malintenzionato. Un aggressore può iniettare un rumore accuratamente realizzato, che è abbastanza impercettibile all’occhio umano, in ogni fotogramma di un video in modo che venga classificato erroneamente da un rilevatore di vittime”.
Gli aggressori possono creare questi video anche se non possiedono una conoscenza specifica dell’architettura e dei parametri del rilevatore. Questi attacchi continuano a funzionare anche dopo che i video sono stati compressi, come succederebbero se fossero condivisi online su una piattaforma come YouTube.
Una volta testato, il metodo era in grado di ingannare i sistemi di rilevamento per oltre il 99% quando veniva dato accesso al modello di rilevatore. Tuttavia, anche ai livelli di successo più bassi – per i video compressi in cui non si conoscevano informazioni sui modelli di rilevatori – li ha comunque sconfitti il 78,33% delle volte. Non è una bella notizia.
I ricercatori si rifiutano di pubblicare il loro codice perché potrebbe essere utilizzato in modo improprio, ha osservato Neekhara. "I video contraddittori generati utilizzando il nostro codice possono potenzialmente aggirare altri rilevatori di deepfake invisibili utilizzati nella produzione da alcune [piattaforme] di social media", ha spiegato. "Stiamo collaborando con team che stanno lavorando alla creazione di questi sistemi di rilevamento dei deepfake e stiamo utilizzando la nostra ricerca per creare sistemi di rilevamento più robusti."
Un gioco del gatto e del topo deepfake
Questa non è la fine della storia, ovviamente. Per tornare alla nostra analogia con il film, sarebbero comunque passati solo circa 20 minuti dall'inizio del film. Non siamo ancora arrivati alla scena in cui il detective si rende conto che il ladro pensa di averla ingannata. O fino al punto in cui il ladro si rende conto che il detective sa che lui sa che lei sa. O.. hai capito bene.
Questo gioco del gatto col topo per il rilevamento dei deepfake, che probabilmente continuerà indefinitamente, è ben noto a chiunque abbia lavorato nel campo della sicurezza informatica. Gli hacker malintenzionati trovano le vulnerabilità, che vengono poi bloccate dagli sviluppatori, prima che gli hacker trovino le vulnerabilità nella loro versione fissa, che viene poi nuovamente modificata dagli sviluppatori. Continua all'infinito.
“Sì, i sistemi di generazione e rilevamento dei deepfake seguono da vicino le dinamiche dei virus e degli antivirus,” Shehzeen Hussain, un dottorato di ricerca in ingegneria informatica dell'UC San Diego. studente, ha detto a Digital Trends. “Attualmente, i rilevatori di deepfake vengono addestrati su un set di dati di video reali e falsi generati utilizzando le tecniche di sintesi deepfake esistenti. Non vi è alcuna garanzia che tali rilevatori siano infallibili contro i futuri sistemi di generazione di deepfake… Per restare al passo nella corsa agli armamenti, i metodi di rilevamento devono essere regolarmente aggiornati e addestrati sulle imminenti tecniche di sintesi dei deepfake. [Essi] devono anche essere resi robusti rispetto agli esempi contraddittori incorporando video contraddittori durante la formazione.
UN articolo che descrive questo lavoro, intitolato “Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Esempi”, è stato recentemente presentato alla conferenza virtuale WACV 2021.
Raccomandazioni degli editori
- L’intelligenza artificiale ha trasformato Breaking Bad in un anime – ed è terrificante
- Perché l’intelligenza artificiale non governerà mai il mondo
- Le illusioni ottiche potrebbero aiutarci a costruire la prossima generazione di intelligenza artificiale
- Tocco finale: come gli scienziati stanno dando ai robot sensi tattili simili a quelli umani
- IA analogica? Sembra pazzesco, ma potrebbe essere il futuro
Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.