Vnútri vojny medzi Deepfake a Deepfake detektormi

Predstavte si kľukatý film o majstrovskom zločincovi uzavretom vo vojne dôvtipov s najväčším svetovým detektívom.

Obsah

  • Problém hlbokých falošných správ
  • Oklamanie detektorov
  • Hra s hlbokou falošnou mačkou a myšou

Zločinec sa snaží predviesť obrovský trik s dôverou, pričom využíva šikovnosť odborníkov a neuveriteľnú schopnosť prezliecť sa prakticky za kohokoľvek na planéte. Je taký dobrý v tom, čo robí, že dokáže ľudí presvedčiť, že videli veci, ktoré sa v skutočnosti nikdy nestali.

Odporúčané videá

Potom však stretneme detektíva. Je to brilantný typ, ktorý sa nezastaví pred ničím, ktorý dokáže rozpoznať „rozprávanie“ každého zlodeja. Vie, čo má hľadať, a dokonca aj to najmenšie správanie – tu zdvihnuté obočie, tam vypadnutá samohláska – stačí na to, aby ju upozornilo, keď sa niečo pokazí. Je jedinou osobou, ktorá kedy chytila ​​nášho protivníka, a teraz je mu opäť na stope.

Súvisiace

  • Ocenenia CES 2023 Tech For Change od Digital Trends
  • Meta chce prebiť Wikipédiu inováciou AI
  • Ako budeme vedieť, kedy sa AI skutočne stane vnímavou?

Je tu však problém: Náš zlodej to vie ona vie, čo hľadať. V dôsledku toho zmenil svoju hru bez toho, aby si to hlavný hrdina uvedomil.

Problém hlbokých falošných správ

Toto je v podstate doterajší príbeh deepfakes a deepfake detekcie. Deepfakes, forma syntetických médií, v ktorých je možné podobizne ľudí digitálne meniť ako a Face/Off remake v réžii A.I. výskumníci, sú dôvodom na obavy od ich vstupu na scénu v roku 2017. Zatiaľ čo mnohé deepfakes sú bezstarostné (výmena Arnie pre Sly Stallone v Terminátor), predstavujú aj potenciálnu hrozbu. Deepfakes sa používali na vytváranie falošných pornografických videí, ktoré sa javia ako skutočné, a používali sa v politických hoaxoch, ako aj pri finančných podvodoch.

Aby sa takéto hoaxy nestali ešte väčším problémom, niekto musí byť schopný zakročiť a definitívne povedať, kedy sa deepfake používa a kedy nie.

"Deepfake detektory fungujú tak, že hľadajú tie detaily deepfake, ktoré nie sú úplne správne, a to tak, že hľadajú na obrázkoch nielen tajomné údolia, ale aj ten najmenší tajomný výmoľ."

Netrvalo dlho a objavili sa prvé deepfake detektory. Do apríla 2018 som pokryl jeden z predchádzajúcich pokusov o to, ktorý postavili výskumníci z nemeckej Technickej univerzity v Mníchove. Rovnako ako samotná technológia deepfake, používala A.I. - len tentoraz to jeho tvorcovia nevyužili na vytváranie falzifikátov, ale na ich odhalenie.

Deepfake detektory fungujú tak, že hľadajú tie detaily deepfake, ktoré nie sú celkom práve tým, že hľadáte nielen tajomné údolia, ale aj ten najmenší tajomný výmoľ. Z obrázkov orezávajú údaje o tvári a potom ich prenášajú cez neurónovú sieť, aby zistili ich legitimitu. Podrobnosti o darčekoch môžu zahŕňať veci ako zle reprodukované žmurkanie očí.

Teraz však vedci z Kalifornskej univerzity v San Diegu prišli na spôsob, ako poraziť detektory hlbokého falošného obrazu vložením takzvaných protichodných príkladov do video snímok. Protichodné príklady sú fascinujúcou, no desivou chybou v A.I. Matrix. Sú schopní oklamať aj tie najinteligentnejšie rozpoznávacie systémy, napr. myslieť si, že korytnačka je zbraň, alebo espresso je bejzbal. Robia to jemným pridávaním šumu do obrázka, takže neurónová sieť robí nesprávnu klasifikáciu.

Ako keď si pomýlite pušku s ostreľovaným plazom. Alebo falošné video za skutočné.

Oklamanie detektorov

„Nedávno došlo k prudkému nárastu metód na vytváranie realistických hlboko falošných videí,“ Paarth Neekhara, študent počítačového inžinierstva na UC San Diego, povedal pre Digital Trends. „Keďže tieto zmanipulované videá môžu byť použité na škodlivé účely, vynaložilo sa značné úsilie na vývoj detektorov, ktoré dokážu spoľahlivo odhaliť hlboko falošné videá. Napríklad, Facebook nedávno spustila výzvu Deepfake Detection Challenge s cieľom urýchliť výskum vývoja detektorov hlbokých falošných správ. [Ale] zatiaľ čo tieto metódy detekcie môžu dosiahnuť viac ako 90% presnosť na súbore údajov falošných a skutočných videí, naša práca ukazuje, že ich môže útočník ľahko obísť. Útočník môže do každej snímky videa vstreknúť starostlivo vytvorený zvuk, ktorý je ľudským okom dosť nepostrehnuteľný, takže detektor obetí ho nesprávne klasifikuje.“

Facebook Deepfake Challenge

Útočníci môžu tieto videá vytvoriť, aj keď nemajú špecifické znalosti o architektúre a parametroch detektora. Tieto útoky stále fungujú aj po komprimovaní videí, ako by to bolo, keby boli zdieľané online na platforme, ako je YouTube.

Pri testovaní bola metóda na viac ako 99 % schopná oklamať detekčné systémy, keď bol poskytnutý prístup k modelu detektora. Avšak aj pri najnižšej úspešnosti – pre komprimované videá, v ktorých neboli známe žiadne informácie o modeloch detektorov – ich stále porazil v 78,33 % prípadov. to nie je skvelá správa.

Výskumníci odmietajú zverejniť svoj kód na základe toho, že by mohol byť zneužitý, poznamenal Neekhara. „Protivníky generované pomocou nášho kódu môžu potenciálne obísť iné neviditeľné detektory hlbokého falošného obrazu, ktoré používajú pri výrobe niektoré [platformy] sociálnych médií,“ vysvetlil. „Spolupracujeme s tímami, ktoré pracujú na budovaní týchto systémov na detekciu hlbokých falošných správ, a využívame náš výskum na vybudovanie robustnejších detekčných systémov.“

Hra s hlbokou falošnou mačkou a myšou

Toto samozrejme nie je koniec príbehu. Aby som sa vrátil k našej filmovej analógii, stále by to bolo len asi 20 minút filmu. Ešte sme sa nedostali na miesto, kde si detektív uvedomí, že zlodej si myslí, že ju oklamal. Alebo do tej časti, kde si zlodej uvedomí, že detektív vie, že on vie, že ona vie. alebo.. dostanete obrázok.

Takáto hra na mačku a myš na detekciu deepfake, ktorá bude pravdepodobne pokračovať donekonečna, je dobre známa každému, kto pracoval v oblasti kybernetickej bezpečnosti. Škodliví hackeri nájdu zraniteľné miesta, ktoré potom zablokujú vývojári, skôr než hackeri nájdu zraniteľné miesta v ich opravenej verzii, ktorú potom vývojári znova upravia. Pokračovať donekonečna.

„Áno, systémy generovania a detekcie hlbokých falošných správ presne sledujú dynamiku vírusov a antivírusov,“ Shehzeen Hussain, doktor počítačového inžinierstva UC San Diego Ph. D. študent, povedal pre Digital Trends. „V súčasnosti sú detektory hlbokých falošných údajov trénované na súbore údajov skutočných a falošných videí generovaných pomocou existujúcich techník syntézy hlbokých falošných správ. Neexistuje žiadna záruka, že takéto detektory budú úplne odolné voči systémom budúcej generácie deepfake... Aby sme zostali vpredu v pretekoch v zbrojení je potrebné pravidelne aktualizovať metódy detekcie a trénovať ich o pripravovaných technikách hĺbkovej syntézy. [Tie] musia byť odolné voči príkladom protivníka začlenením videí protivníka počas tréningu.“

A dokument popisujúci túto prácu, s názvom „Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples“, bol nedávno predstavený na virtuálnej konferencii WACV 2021.

Odporúčania redaktorov

  • AI premenila Breaking Bad na anime – a je to desivé
  • Prečo AI nikdy neovládne svet
  • Optické ilúzie by nám mohli pomôcť vybudovať ďalšiu generáciu AI
  • Finishing touch: Ako vedci dávajú robotom ľudské hmatové zmysly
  • Analógová A.I.? Znie to šialene, ale môže to byť budúcnosť

Zlepšite svoj životný štýlDigitálne trendy pomáhajú čitateľom mať prehľad o rýchlo sa rozvíjajúcom svete technológií so všetkými najnovšími správami, zábavnými recenziami produktov, užitočnými úvodníkmi a jedinečnými ukážkami.