Inde i krigen mellem Deepfakes og Deepfake-detektorer

click fraud protection

Forestil dig en snoet film om en mesterkriminel, der er fanget i en forstandskrig med verdens største detektiv.

Indhold

  • Det deepfake-problem
  • Narre detektorerne
  • Et spil med deepfake kat og mus

Forbryderen søger at udføre et massivt selvtillidstrick ved at bruge ekspertens fingerfærdighed og en uhyggelig evne til at forklæde sig som praktisk talt enhver på planeten. Han er så god til det, han gør, at han kan få folk til at tro, at de så ting, der aldrig rent faktisk skete.

Anbefalede videoer

Men så møder vi detektiven. Hun er en genial, stop-ved-nothing-type, der kan få øje på "fortælle" fra enhver tyv. Hun ved lige, hvad hun skal kigge efter, og selv den mindste adfærd - et løftet øjenbryn her, en tabt vokal der - er nok til at advare hende, når noget er galt. Hun er den eneste person, der nogensinde har fanget vores antagonist, og nu er hun endnu en gang varm på hans spor.

Relaterede

  • Digital Trends' Tech For Change CES 2023 Awards
  • Meta vil overlade Wikipedia med en AI-opgradering
  • Hvordan ved vi, hvornår en AI rent faktisk bliver sansende?

Der er dog et problem: Vores tyv ved det hun ved hvad man skal kigge efter. Som et resultat har han ændret sit spil, uden at hovedpersonen er klar over det.

Det deepfake-problem

Dette er i bund og grund historien om deepfakes og deepfake-detektion indtil videre. Deepfakes, en form for syntetiske medier, hvor folks ligheder kan ændres digitalt som en Face/Off genindspilning instrueret af A.I. forskere, har været en grund til bekymring, siden de dukkede op på scenen i 2017. Mens mange deepfakes er glade (bytter ud Arnie for Sly Stallone i Terminatoren), udgør de også en potentiel trussel. Deepfakes er blevet brugt til at skabe falske pornografiske videoer, der ser ægte ud, og de er blevet brugt i politiske fupnumre, såvel som i økonomisk bedrageri.

For at sådanne svindelnumre ikke bliver et endnu større problem, skal nogen være i stand til at træde ind og endeligt sige, hvornår en deepfake bliver brugt, og hvornår den ikke er det.

"Dybfalske detektorer virker ved at lede efter de detaljer om en dybfalsk, der ikke er helt rigtige, ved at gennemsøge billeder for ikke bare uhyggelige dale, men det mindste uhyggelige hul."

Det tog ikke lang tid, før de første deepfake-detektorer dukkede op. I april 2018 dækkede jeg en af ​​de tidligere bestræbelser på at gøre dette, som blev bygget af forskere ved Tysklands tekniske universitet i München. Ligesom selve deepfake-teknologien brugte den A.I. - kun denne gang brugte dets skabere det ikke til at skabe forfalskninger, men for at få øje på dem.

Deepfake-detektorer virker ved at lede efter de detaljer om en deepfake, som ikke er det temmelig lige ved at gennemsøge billeder for ikke bare uhyggelige dale, men det mindste uhyggelige hul. De beskærer ansigtsdata fra billeder og sender dem derefter gennem et neuralt netværk for at finde ud af deres legitimitet. Giveaway-detaljer kan omfatte ting som dårligt gengivet øjenblink.

Men nu har forskere fra University of California San Diego fundet på en måde at besejre deepfake-detektorer ved at indsætte det, der kaldes modstridende eksempler, i videoframes. Modstridende eksempler er en fascinerende - men alligevel skræmmende - fejl i A.I. Matrix. De er i stand til at narre selv de smarteste genkendelsessystemer til f.eks. at tro, at en skildpadde er en pistol, eller en espresso er en baseball. Det gør de ved subtilt at tilføje støj i et billede, så det får det neurale netværk til at foretage den forkerte klassificering.

Som at forveksle en riffel for et afskallet krybdyr. Eller en falsk video for en rigtig.

Narre detektorerne

"Der har for nylig været en stigning i metoder til at generere realistiske deepfake-videoer," Paarth Neekhara, en UC San Diego computeringeniørstuderende, fortalte Digital Trends. "Da disse manipulerede videoer kan bruges til ondsindede formål, har der været en betydelig indsats i at udvikle detektorer, der pålideligt kan detektere deepfake-videoer. For eksempel, Facebook lancerede for nylig Deepfake Detection Challenge for at accelerere forskningen i udvikling af deepfake-detektorer. [Men] selvom disse detektionsmetoder kan opnå mere end 90 % nøjagtighed på et datasæt af falske og rigtige videoer, viser vores arbejde, at de let kan omgås af en angriber. En angriber kan injicere en omhyggeligt udformet støj, der er temmelig umærkelig for det menneskelige øje, ind i hver frame af en video, så den bliver fejlklassificeret af en offerdetektor."

Facebook Deepfake Challenge

Angribere kan lave disse videoer, selvom de ikke har specifik viden om detektorens arkitektur og parametre. Disse angreb virker også stadig, efter at videoer er komprimeret, som de ville være, hvis de blev delt online på en platform som YouTube.

Da den blev testet, var metoden mere end 99 % i stand til at narre detektionssystemer, når den fik adgang til detektormodellen. Men selv på de laveste succesniveauer - for komprimerede videoer, hvor der ikke var kendt information om detektormodellerne - besejrede den dem stadig 78,33% af tiden. Det er ikke nogen god nyhed.

Forskerne afviser at offentliggøre deres kode på baggrund af, at den kan blive misbrugt, bemærkede Neekhara. "De modstridende videoer, der er genereret ved hjælp af vores kode, kan potentielt omgå andre usete deepfake-detektorer, der bliver brugt i produktionen af ​​nogle sociale medier [platforme]," forklarede han. "Vi samarbejder med teams, der arbejder på at bygge disse deepfake-detektionssystemer og bruger vores forskning til at bygge mere robuste detektionssystemer."

Et spil med deepfake kat og mus

Dette er selvfølgelig ikke slutningen på historien. For at vende tilbage til vores filmanalogi, ville dette stadig kun være omkring 20 minutter inde i filmen. Vi er endnu ikke nået til scenen, hvor detektiven indser, at tyven tror, ​​han har narret hende. Eller til det stykke, hvor tyven indser, at detektiven ved, at han ved, at hun ved. Eller.. du får billedet.

Sådan et kat-og-mus-spil til deepfake-detektion, som sandsynligvis vil fortsætte i det uendelige, er velkendt for alle, der har arbejdet med cybersikkerhed. Ondsindede hackere finder sårbarheder, som derefter blokeres af udviklere, før hackere finder sårbarheder i deres faste version, som så bliver justeret af udviklerne igen. Fortsæt i det uendelige.

"Ja, deepfake-genererings- og detektionssystemerne følger tæt virus- og antivirusdynamikken," Shehzeen Hussain, en UC San Diego computeringeniør Ph.D. studerende, fortalte Digital Trends. "I øjeblikket trænes deepfake-detektorer på et datasæt af ægte og falske videoer, der er genereret ved hjælp af eksisterende deepfake-synteseteknikker. Der er ingen garanti for, at sådanne detektorer vil være idiotsikre mod fremtidige deepfake-genereringssystemer... For at være på forkant i våbenkapløbet skal detektionsmetoder regelmæssigt opdateres og trænes i kommende deepfake-synteseteknikker. [De] skal også gøres robuste over for modstridende eksempler ved at inkorporere modstridende videoer under træning."

EN papir, der beskriver dette arbejde, med titlen "Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples," blev for nylig præsenteret på den virtuelle WACV 2021-konference.

Redaktørens anbefalinger

  • AI forvandlede Breaking Bad til en anime - og det er skræmmende
  • Hvorfor AI aldrig vil regere verden
  • Optiske illusioner kan hjælpe os med at bygge den næste generation af kunstig intelligens
  • Prikken over i'et: Hvordan videnskabsmænd giver robotter menneskelignende taktile sanser
  • Analog A.I.? Det lyder skørt, men det er måske fremtiden

Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.