Inside the War Between Deepfakes och Deepfake Detectors

Föreställ dig en snurrig film om en mästerbrottsling som är inlåst i ett förståndskrig med världens främsta detektiv.

Innehåll

  • Deepfake-problemet
  • Lurar detektorerna
  • Ett spel med deepfake katt och mus

Brottslingen försöker få till ett enormt självförtroendetrick, med hjälp av expertspets och en kuslig förmåga att maskera sig som praktiskt taget vem som helst på planeten. Han är så bra på det han gör att han kan få folk att tro att de såg saker som aldrig faktiskt hände.

Rekommenderade videor

Men så träffar vi detektiven. Hon är en lysande sorts stopp vid ingenting som kan upptäcka "berätta" om vilken tjuv som helst. Hon vet precis vad hon ska leta efter, och även det minsta beteende - ett höjt ögonbryn här, en tappad vokal där - räcker för att varna henne när något är fel. Hon är den enda personen som någonsin fångat vår antagonist, och nu är hon het på hans spår igen.

Relaterad

  • Digital Trends Tech For Change CES 2023 Awards
  • Meta vill ladda Wikipedia med en AI-uppgradering
  • Hur ska vi veta när en AI faktiskt blir kännande?

Men det finns ett problem: Vår tjuv vet det hon vet vad man ska leta efter. Som ett resultat har han ändrat sitt spel, utan att huvudpersonen inser det.

Deepfake-problemet

Detta är i huvudsak historien om deepfakes och deepfake-detektering hittills. Deepfakes, en form av syntetisk media där människors likheter kan ändras digitalt som en Face/Off nyinspelning regisserad av A.I. forskare, har varit en anledning till oro sedan de dök upp på scenen 2017. Medan många deepfakes är lättsamma (byter ut Arnie för Sly Stallone in Terminatorn), utgör de också ett potentiellt hot. Deepfakes har använts för att skapa falska pornografiska videor som verkar verkliga och de har använts i politiska bluff, såväl som i ekonomiskt bedrägeri.

För att sådana bluffar inte ska bli ett ännu större problem måste någon kunna gå in och definitivt säga när en deepfake används och när den inte gör det.

"Deepfake-detektorer fungerar genom att leta efter de detaljerna i en djupfake som inte är helt rätt genom att skura bilder efter inte bara kusliga dalar, utan den minsta kusliga gropen."

Det tog inte lång tid för de första deepfake-detektorerna att dyka upp. I april 2018 täckte jag ett av de tidigare försöken att göra detta, som byggdes av forskare vid Tysklands tekniska universitet i München. Precis som deepfake-teknologin i sig använde den A.I. - bara den här gången använde dess skapare det inte för att skapa förfalskningar, utan för att upptäcka dem.

Deepfake-detektorer fungerar genom att leta efter de detaljerna om en deepfake som inte är det ganska rätt genom att skura bilder efter inte bara kusliga dalar, utan den minsta kusliga gropen. De beskär ansiktsdata från bilder och skickar dem sedan genom ett neuralt nätverk för att ta reda på dess legitimitet. Giveaway-detaljer kan inkludera saker som dåligt reproducerat ögonblinkande.

Men nu har forskare från University of California San Diego kommit på ett sätt att besegra deepfake-detektorer genom att infoga vad som kallas motstridiga exempel i videoramar. Motstridiga exempel är ett fascinerande – men skrämmande – fel i A.I. Matris. De är kapabla att lura även de smartaste av igenkänningssystem till t.ex. tror att en sköldpadda är en pistol, eller en espresso är en baseboll. De gör detta genom att subtilt lägga till brus i en bild så att det får det neurala nätverket att göra fel klassificering.

Som att missta ett gevär för en skalad reptil. Eller en falsk video för en riktig.

Lurar detektorerna

"Det har nyligen skett en ökning av metoder för att skapa realistiska deepfake-videor," Paarth Neekhara, en student vid UC San Diego datorteknik, berättade för Digital Trends. "Eftersom dessa manipulerade videor kan användas i skadliga syften har det gjorts en betydande ansträngning för att utveckla detektorer som på ett tillförlitligt sätt kan upptäcka deepfake-videor. Till exempel, Facebook lanserade nyligen Deepfake Detection Challenge för att påskynda forskningen om att utveckla deepfake-detektorer. [Men] medan dessa upptäcktsmetoder kan uppnå mer än 90 % noggrannhet på en datauppsättning av falska och riktiga videor, visar vårt arbete att de enkelt kan kringgås av en angripare. En angripare kan injicera ett noggrant utformat ljud, som är ganska omärkligt för det mänskliga ögat, i varje bildruta i en video så att det blir felklassificerat av en offerdetektor."

Facebook Deepfake Challenge

Angripare kan skapa dessa videor även om de inte har specifik kunskap om detektorns arkitektur och parametrar. Dessa attacker fungerar också fortfarande efter att videor har komprimerats, som de skulle vara om de delades online på en plattform som YouTube.

När den testades var metoden mer än 99 % kapabel att lura detektionssystem när den gavs tillgång till detektormodellen. Men även på de lägsta framgångsnivåerna - för komprimerade videor där ingen information var känd om detektormodellerna - besegrade den dem fortfarande 78,33% av tiden. Det är inga bra nyheter.

Forskarna vägrar att publicera sin kod på grund av att den kan missbrukas, noterade Neekhara. "De motstridiga videorna som genereras med vår kod kan potentiellt kringgå andra osynliga djupfakedetektorer som används i produktionen av vissa sociala medier [plattformar]", förklarade han. "Vi samarbetar med team som arbetar med att bygga dessa deepfake-detekteringssystem och använder vår forskning för att bygga mer robusta detektionssystem."

Ett spel med deepfake katt och mus

Detta är naturligtvis inte slutet på historien. För att återgå till vår filmanalogi skulle det fortfarande bara vara cirka 20 minuter in i filmen. Vi har inte kommit till platsen ännu där detektiven inser att tjuven tror att han har lurat henne. Eller till biten där tjuven inser att detektiven vet att han vet att hon vet. Eller.. du får bilden.

Ett sådant katt-och-mus-spel för deepfake-detektering, som sannolikt kommer att fortsätta på obestämd tid, är välkänt för alla som har arbetat med cybersäkerhet. Skadliga hackare hittar sårbarheter, som sedan blockeras av utvecklare, innan hackare hittar sårbarheter i sin fasta version, som sedan tweakas av utvecklarna igen. Fortsätt i det oändliga.

"Ja, deepfake-genererings- och detektionssystemen följer noga virus- och antivirusdynamiken," Shehzeen Hussain, en doktorsexamen inom datorteknik vid UC San Diego. student, berättade för Digital Trends. "För närvarande tränas deepfake-detektorer på en datauppsättning av verkliga och falska videor som genereras med hjälp av befintliga deepfake-syntestekniker. Det finns ingen garanti för att sådana detektorer kommer att vara idiotsäkra mot framtida system för deepfake-generering... För att ligga i framkant i kapprustningen måste detektionsmetoderna uppdateras regelbundet och tränas på kommande tekniker för deepfake-syntes. [De] måste också göras robusta för kontradiktoriska exempel genom att införliva motstridiga videor under träningen."

A papper som beskriver detta arbete, med titeln "Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples", presenterades nyligen på den virtuella WACV 2021-konferensen.

Redaktörens rekommendationer

  • AI gjorde Breaking Bad till en anime - och det är skrämmande
  • Varför AI aldrig kommer att styra världen
  • Optiska illusioner kan hjälpa oss att bygga nästa generations AI
  • Finishing touch: Hur forskare ger robotar mänskliga taktila sinnen
  • Analog A.I.? Det låter galet, men det kanske är framtiden

Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.