Se for deg en svingete film om en mesterforbryter som er innesluttet i en krig med verdens største detektiv.
Innhold
- Deepfake-problemet
- Lure detektorene
- Et spill med dypfalske katt og mus
Forbryteren forsøker å få til et massivt selvtillitstriks, ved å bruke ekspertslipp og en uhyggelig evne til å forkle seg som praktisk talt hvem som helst på planeten. Han er så god på det han gjør at han kan få folk til å tro at de så ting som aldri skjedde.
Anbefalte videoer
Men så møter vi detektiven. Hun er en briljant, stoppe-ved-nothing-type som kan se "fortelle" til enhver tyv. Hun vet akkurat hva hun skal se etter, og selv den minste oppførselen - et hevet øyenbryn her, en tapt vokal der - er nok til å varsle henne når noe er galt. Hun er den eneste personen som noensinne har fanget vår antagonist, og nå er hun på sporet hans igjen.
I slekt
- Digital Trends' Tech For Change CES 2023 Awards
- Meta ønsker å overlade Wikipedia med en AI-oppgradering
- Hvordan vil vi vite når en AI faktisk blir sansende?
Det er imidlertid et problem: Tyven vår vet det
hun vet hva du skal se etter. Som et resultat har han endret spillet sitt, uten at hovedpersonen er klar over det.Deepfake-problemet
Dette er i hovedsak historien om deepfakes og deepfake-deteksjon så langt. Deepfakes, en form for syntetiske medier der folks likheter kan endres digitalt som en Face Off nyinnspilling regissert av A.I. forskere, har vært en grunn til bekymring siden de dukket opp i 2017. Mens mange deepfakes er muntre (bytte ut Arnie for Sly Stallone inn Terminatoren), utgjør de også en potensiell trussel. Deepfakes har blitt brukt til å lage falske pornografiske videoer som ser ekte ut, og de har blitt brukt i politiske bløff, så vel som i økonomisk svindel.
For at slike bløffer ikke skal bli et enda større problem, må noen kunne gå inn og si definitivt når en dypfalsk blir brukt og når den ikke er det.
"Deepfake-detektorer fungerer ved å lete etter de detaljene til en deepfake som ikke er helt riktige ved å skure bilder for ikke bare uhyggelige daler, men den minste uhyggelige jettegryten."
Det tok ikke lang tid før de første deepfake-detektorene dukket opp. I april 2018 dekket jeg en av de tidligere forsøkene på å gjøre dette, som ble bygget av forskere ved Tysklands tekniske universitet i München. Akkurat som selve deepfake-teknologien brukte den A.I. - bare denne gangen brukte skaperne det ikke til å lage forfalskninger, men for å oppdage dem.
Deepfake-detektorer fungerer ved å se etter de detaljene til en deepfake som ikke er det ganske rett ved å skure bilder for ikke bare uhyggelige daler, men den minste uhyggelige jettegryten. De beskjærer ansiktsdata fra bilder og sender dem deretter gjennom et nevralt nettverk for å finne ut deres legitimitet. Giveaway-detaljer kan inkludere ting som dårlig gjengitt øyeblink.
Men nå har forskere fra University of California San Diego kommet opp med en måte å bekjempe deepfake-detektorer ved å sette inn det som kalles motstridende eksempler i videorammer. Motstridende eksempler er en fascinerende – men likevel skremmende – feil i A.I. Matrise. De er i stand til å lure selv de smarteste gjenkjenningssystemer inn i, for eksempel, tror en skilpadde er en pistol, eller en espresso er en baseball. De gjør dette ved å subtilt legge til støy i et bilde slik at det får det nevrale nettverket til å gjøre feil klassifisering.
Som å forveksle en rifle for et avskallet reptil. Eller en falsk video for en ekte en.
Lure detektorene
"Det har nylig vært en økning i metoder for å generere realistiske dypfalske videoer," Paarth Neekhara, en UC San Diego dataingeniørstudent, fortalte Digital Trends. "Siden disse manipulerte videoene kan brukes til ondsinnede formål, har det vært en betydelig innsats i å utvikle detektorer som pålitelig kan oppdage dypfalske videoer. For eksempel, Facebook lanserte nylig Deepfake Detection Challenge for å akselerere forskningen på utvikling av deepfake-detektorer. [Men] mens disse deteksjonsmetodene kan oppnå mer enn 90 % nøyaktighet på et datasett med falske og ekte videoer, viser vårt arbeid at de lett kan omgås av en angriper. En angriper kan injisere en nøye utformet støy, som er ganske umerkelig for det menneskelige øyet, inn i hver frame av en video, slik at den blir feilklassifisert av en offerdetektor.»
Angripere kan lage disse videoene selv om de ikke har spesifikk kunnskap om detektorens arkitektur og parametere. Disse angrepene fungerer også fortsatt etter at videoer er komprimert, slik de ville vært hvis de ble delt online på en plattform som YouTube.
Når den ble testet, var metoden mer enn 99 % i stand til å lure deteksjonssystemer når den ble gitt tilgang til detektormodellen. Men selv på de laveste suksessnivåene - for komprimerte videoer der ingen informasjon var kjent om detektormodellene - beseiret den dem 78,33 % av tiden. Det er ikke gode nyheter.
Forskerne nekter å publisere koden sin på bakgrunn av at den kan bli misbrukt, bemerket Neekhara. "De motstridende videoene som genereres ved hjelp av koden vår, kan potensielt omgå andre usynlige dypfalske detektorer som brukes i produksjon av noen sosiale medier [plattformer]," forklarte han. "Vi samarbeider med team som jobber med å bygge disse deepfake-deteksjonssystemene, og bruker forskningen vår til å bygge mer robuste deteksjonssystemer."
Et spill med dypfalske katt og mus
Dette er ikke slutten på historien, selvfølgelig. For å gå tilbake til vår filmanalogi, vil dette fortsatt bare være rundt 20 minutter inn i filmen. Vi har ikke kommet til scenen ennå hvor detektiven innser at tyven tror han har lurt henne. Eller til den biten hvor tyven innser at detektiven vet at han vet at hun vet. Eller.. du får bildet.
Et slikt katt-og-mus-spill for deepfake-deteksjon, som sannsynligvis vil fortsette i det uendelige, er velkjent for alle som har jobbet med cybersikkerhet. Ondsinnede hackere finner sårbarheter, som deretter blokkeres av utviklere, før hackere finner sårbarheter i sin faste versjon, som deretter blir finjustert av utviklerne igjen. Fortsett i det uendelige.
"Ja, deepfake generasjons- og deteksjonssystemene følger virus- og antivirusdynamikken nøye," Shehzeen Hussain, en UC San Diego dataingeniør Ph.D. student, fortalte Digital Trends. "For tiden trenes dypfalske detektorer på et datasett med ekte og falske videoer generert ved hjelp av eksisterende dypfalske synteseteknikker. Det er ingen garanti for at slike detektorer vil være idiotsikre mot fremtidige deepfake-generasjonssystemer... For å ligge i forkant i våpenkappløpet må deteksjonsmetoder jevnlig oppdateres og trenes på kommende dypfalske synteseteknikker. [De] må også gjøres robuste for motstridende eksempler ved å innlemme motstridende videoer under trening.»
EN papir som beskriver dette arbeidet, med tittelen "Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples," ble nylig presentert på den virtuelle WACV 2021-konferansen.
Redaktørenes anbefalinger
- AI gjorde Breaking Bad til en anime - og det er skremmende
- Hvorfor AI aldri vil styre verden
- Optiske illusjoner kan hjelpe oss med å bygge neste generasjon AI
- Finishing touch: Hvordan forskere gir roboter menneskelignende taktile sanser
- Analog A.I.? Det høres sprøtt ut, men det kan være fremtiden
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.