V vojni med Deepfake in detektorji Deepfake

click fraud protection

Predstavljajte si zapleten film o mojstrskem zločincu, ki je vklenjen v vojno pameti z največjim detektivom na svetu.

Vsebina

  • Problem deepfake
  • Prevara detektorjev
  • Igra deepfake mačke in miši

Zločinec poskuša izvesti ogromen trik samozavesti, pri čemer uporablja strokovno spretnost in nenavadno sposobnost, da se preobleče v skoraj kogarkoli na planetu. Tako dober je v tem, kar počne, da zna ljudi prepričati, da so videli stvari, ki se v resnici nikoli niso zgodile.

Priporočeni videoposnetki

Potem pa srečamo detektiva. Je briljantna, neustavljiva sorta, ki lahko opazi "napoved" vsakega tatu. Dobro ve, kaj mora iskati, in že najmanjše vedenje – dvignjena obrv tukaj, izpuščen samoglasnik tam – je dovolj, da jo opozori, ko je nekaj narobe. Ona je edina oseba, ki je kdaj ujela našega antagonista, in zdaj mu je spet na sledi.

Povezano

  • Nagrade Digital Trends Tech For Change CES 2023
  • Meta želi Wikipedijo nadgraditi z nadgradnjo AI
  • Kako bomo vedeli, kdaj umetna inteligenca dejansko postane čuteča?

Vendar pa obstaja težava: naš tat to ve ona ve, kaj iskati. Posledično je spremenil svojo igro, ne da bi se protagonist tega zavedal.

Problem deepfake

To je v bistvu zgodba o globokih ponaredkih in dosedanjem odkrivanju globokih ponaredkov. Deepfakes, oblika sintetičnega medija, v katerem je mogoče podobe ljudi digitalno spremeniti, kot Pomerijo remake v režiji A.I. raziskovalcev, so razlog za skrb, odkar so se pojavili leta 2017. Medtem ko je veliko globokih ponaredkov lahkotnih (zamenjava Arnie za Slyja Stallona v Terminator), predstavljajo tudi potencialno nevarnost. Deepfakes so bili uporabljeni za ustvarjanje lažnih pornografskih videoposnetkov, ki se zdijo resnični, in so bili uporabljeni v političnih potegavščinah in finančnih goljufijah.

Da takšne potegavščine ne postanejo še večji problem, mora imeti nekdo možnost, da stopi vmes in dokončno pove, kdaj se uporablja deepfake in kdaj ne.

"Detektorji globokih ponaredkov delujejo tako, da iščejo tiste podrobnosti globokih ponaredkov, ki niso povsem pravilni, tako da ne iščejo le grozljivih dolin, temveč tudi najmanjše grozljive luknje."

Ni trajalo dolgo, da so se pojavili prvi detektorji deepfake. Do aprila 2018 sem pokrival eno od prejšnjih prizadevanj za to, ki so ga zgradili raziskovalci na nemški tehnični univerzi v Münchnu. Tako kot sama tehnologija deepfake je uporabljala A.I. — le da ga ustvarjalci tokrat niso uporabljali za ustvarjanje ponaredkov, temveč za njihovo odkrivanje.

Detektorji globokih ponaredkov delujejo tako, da iščejo tiste podrobnosti globokih ponaredkov, ki niso precej prav z brskanjem po slikah ne samo za čudne doline, ampak tudi za najmanjšo grozljivo luknjo. Podatke o obrazih obrežejo s slik in jih nato posredujejo skozi nevronsko mrežo, da ugotovijo njihovo legitimnost. Podrobnosti o nagradni igri lahko vključujejo stvari, kot je slabo reproducirano mežikanje z očmi.

Zdaj pa so raziskovalci s kalifornijske univerze v San Diegu našli način, kako premagati detektorje globokih ponaredkov z vstavljanjem tako imenovanih kontradiktornih primerov v video okvirje. Adversarial primeri so fascinantna – a grozljiva – napaka v A.I. Matrix. Tudi najpametnejše sisteme za prepoznavanje so sposobni preslepiti, da na primer misliti, da je želva pištola, ali espresso je baseball. To naredijo tako, da sliki subtilno dodajo šum, tako da povzroči, da nevronska mreža naredi napačno klasifikacijo.

Kot bi zamenjali puško za obstreljenega plazilca. Ali ponarejen videoposnetek za pravega.

Prevara detektorjev

"Nedavno je prišlo do porasta metod za ustvarjanje realističnih videoposnetkov deepfake," Paarth Neekhara, študent računalniškega inženirstva UC San Diego, je povedal za Digital Trends. »Ker se ti manipulirani videoposnetki lahko uporabljajo za zlonamerne namene, je bilo veliko truda vloženega v razvoj detektorjev, ki lahko zanesljivo zaznajo globoko lažne videoposnetke. na primer Facebook je pred kratkim začela izziv Deepfake Detection Challenge, da bi pospešila raziskave o razvoju detektorjev globokih ponaredkov. [Toda] čeprav lahko te metode odkrivanja dosežejo več kot 90-odstotno natančnost na naboru podatkov lažnih in resničnih videoposnetkov, naše delo kaže, da jih lahko napadalec zlahka zaobide. Napadalec lahko v vsak okvir videoposnetka vbrizga skrbno oblikovan šum, ki je za človeško oko dokaj neopazen, tako da ga detektor žrtev napačno razvrsti.«

Facebook Deepfake izziv

Napadalci lahko izdelajo te videoposnetke, tudi če nimajo posebnega znanja o arhitekturi in parametrih detektorja. Ti napadi delujejo tudi po stiskanju videoposnetkov, kot bi bili, če bi jih delili v spletu na platformi, kot je YouTube.

Pri testiranju je bila metoda več kot 99-odstotno sposobna preslepiti sisteme zaznavanja, ko je bila dana dostop do modela detektorja. Toda tudi pri najnižjih stopnjah uspešnosti - za stisnjene videoposnetke, v katerih niso bile znane nobene informacije o modelih detektorjev - jih je vseeno premagal v 78,33 % časa. To ni dobra novica.

Raziskovalci zavračajo objavo svoje kode na podlagi tega, da bi jo lahko zlorabili, je opozoril Neekhara. "Nasprotni videoposnetki, ustvarjeni z uporabo naše kode, lahko potencialno zaobidejo druge nevidne detektorje globokih ponaredkov, ki jih v proizvodnji uporabljajo [platforme] družbenih medijev," je pojasnil. "Sodelujemo z ekipami, ki delajo na izgradnji teh sistemov za odkrivanje globokih ponaredkov, in uporabljajo naše raziskave za izdelavo bolj robustnih sistemov za odkrivanje."

Igra deepfake mačke in miši

To seveda ni konec zgodbe. Če se vrnemo k naši filmski analogiji, bi bilo to še vedno le približno 20 minut filma. Nismo še prišli do prizorišča, kjer detektiv ugotovi, da tat misli, da jo je preslepil. Ali do trenutka, ko tat spozna, da detektivka ve, da on ve, da ona ve. ali.. dobiš sliko.

Takšno igro mačke z mišjo za odkrivanje globokih ponaredkov, ki se bo verjetno nadaljevala v nedogled, dobro poznajo vsi, ki so delali na področju kibernetske varnosti. Zlonamerni hekerji najdejo ranljivosti, ki jih razvijalci nato blokirajo, preden hekerji odkrijejo ranljivosti v njihovi fiksni različici, ki jo nato razvijalci znova prilagodijo. Nadaljuj ad infinitum.

"Da, sistemi za ustvarjanje in odkrivanje globokih ponaredkov natančno sledijo dinamiki virusov in protivirusnih programov," Shehzeen Hussain, doktorat računalniškega inženirstva UC San Diego. študent, je povedal za Digital Trends. »Trenutno se detektorji deepfake usposabljajo na naboru podatkov resničnih in lažnih videoposnetkov, ustvarjenih z uporabo obstoječih tehnik sinteze deepfake. Nobenega zagotovila ni, da bodo takšni detektorji varni pred prihodnjimi sistemi za ustvarjanje globokih ponaredkov … Da ostanemo v prednosti v oboroževalni tekmi je treba metode odkrivanja redno posodabljati in jih usposabljati o prihajajočih tehnikah sinteze deepfake. [Prav tako jih] je treba narediti robustne za kontradiktorne primere z vključitvijo kontradiktornih videoposnetkov med usposabljanjem.”

A dokument, ki opisuje to delo, z naslovom »Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples,« je bil nedavno predstavljen na virtualni konferenci WACV 2021.

Priporočila urednikov

  • Umetna inteligenca je Breaking Bad spremenila v anime - in to je grozljivo
  • Zakaj AI nikoli ne bo zavladal svetu
  • Optične iluzije bi nam lahko pomagale zgraditi naslednjo generacijo umetne inteligence
  • Končni dotik: Kako znanstveniki dajejo robotom človeška otipna čutila
  • Analogni AI? Sliši se noro, a morda je prihodnost

Nadgradite svoj življenjski slogDigitalni trendi bralcem pomagajo slediti hitremu svetu tehnologije z vsemi najnovejšimi novicami, zabavnimi ocenami izdelkov, pronicljivimi uvodniki in enkratnimi vpogledi v vsebine.