Uvnitř války mezi Deepfake a Deepfake detektory

Představte si napínavý film o hlavním zločinci, který je uzavřen ve válce důvtipů s největším světovým detektivem.

Obsah

  • Hluboký problém
  • Oklamání detektorů
  • Hra hluboké falešné kočky a myši

Zločinec se snaží předvést obrovský trik sebedůvěry pomocí zkušeného triku a zázračné schopnosti přestrojit se prakticky za kohokoli na planetě. V tom, co dělá, je tak dobrý, že dokáže lidi přesvědčit, že viděli věci, které se ve skutečnosti nikdy nestaly.

Doporučená videa

Ale pak potkáme detektiva. Je to geniální typ, který se nezastaví před ničím, který dokáže rozpoznat „vyprávění“ každého zloděje. Ví, co má hledat, a i to nejmenší chování – zde zvednuté obočí, tam vypadlá samohláska – stačí, aby ji upozornilo, když je něco v nepořádku. Je jedinou osobou, která kdy chytila ​​našeho protivníka, a teď je mu znovu na stopě.

Příbuzný

  • Ocenění CES 2023 Tech For Change společnosti Digital Trends
  • Meta chce přebít Wikipedii upgradem AI
  • Jak budeme vědět, kdy se AI skutečně stane vnímavou?

Je tu však problém: Náš zloděj to ví

ona ví, co hledat. V důsledku toho změnil svou hru, aniž by si to hlavní hrdina uvědomoval.

Hluboký problém

Toto je v podstatě dosavadní příběh deepfakes a deepfake detekce. Deepfakes, forma syntetických médií, ve kterých lze podoby lidí digitálně měnit jako a Face/Off remake v režii A.I. výzkumníci, jsou důvodem k obavám od svého vstupu na scénu v roce 2017. Zatímco mnoho deepfakeů je bezstarostných (výměna Arnie za Sly Stallone Terminátor), představují také potenciální hrozbu. Deepfakes byly použity k vytvoření falešných pornografických videí, která vypadají jako skutečná, a byly použity v politických hoaxech a také ve finančních podvodech.

Aby se takové hoaxy nestaly ještě větším problémem, někdo musí být schopen zasáhnout a s konečnou platností říci, kdy se používá deepfake a kdy ne.

"Deepfake detektory pracují tak, že hledají ty detaily deepfake, které nejsou úplně v pořádku, tím, že prohledávají obrázky nejen tajemná údolí, ale i ten nejmenší tajemný výmol."

Netrvalo dlouho a objevily se první deepfake detektory. Do dubna 2018 jsem pokryl jeden z dřívějších pokusů o to, který postavili vědci z německé Technické univerzity v Mnichově. Stejně jako samotná technologie deepfake, používala A.I. — jen tentokrát to jeho tvůrci nevyužili k vytvoření padělků, ale k jejich odhalení.

Deepfake detektory fungují tak, že hledají ty detaily deepfake, které nejsou docela právě hledáním obrázků nejen tajemných údolí, ale i těch nejnepatrnějších tajemných výmolů. Z obrázků oříznou data obličejů a poté je projdou neuronovou sítí, aby zjistili jejich legitimitu. Podrobnosti prozradí mohou zahrnovat věci jako špatně reprodukované mrkání očí.

Nyní však vědci z Kalifornské univerzity v San Diegu přišli na způsob, jak porazit detektory hlubokého falešného obrazu tím, že do video snímků vloží to, čemu se říká nepřátelské příklady. Protichůdné příklady jsou fascinující – a přesto děsivá – závada v A.I. Matice. Jsou schopni oklamat i ty nejchytřejší rozpoznávací systémy, např. myslet si, že želva je zbraňnebo espresso je baseballový míček. Dělají to nenápadným přidáním šumu do obrázku, takže neuronová síť způsobí nesprávnou klasifikaci.

Jako když si splete pušku s ostřelovaným plazem. Nebo falešné video za skutečné.

Oklamání detektorů

"V poslední době došlo k prudkému nárůstu metod pro generování realistických hluboce falešných videí," Paarth Neekhara, student počítačového inženýrství UC San Diego, řekl Digital Trends. „Protože tato zmanipulovaná videa mohou být použita pro škodlivé účely, bylo vynaloženo značné úsilí na vývoj detektorů, které dokážou spolehlivě detekovat hluboce falešná videa. Například, Facebook nedávno zahájila soutěž Deepfake Detection Challenge s cílem urychlit výzkum vývoje detektorů hlubokého falšování. [Ale] zatímco tyto detekční metody mohou dosáhnout více než 90% přesnosti na datové sadě falešných a skutečných videí, naše práce ukazuje, že je může útočník snadno obejít. Útočník může do každého snímku videa vnést pečlivě vytvořený zvuk, který je lidským okem poměrně nepostřehnutelný, takže jej detektor obětí špatně klasifikuje.“

Facebook Deepfake Challenge

Útočníci mohou tato videa vytvořit, i když nemají konkrétní znalosti o architektuře a parametrech detektoru. Tyto útoky stále fungují i ​​po komprimaci videí, jako by tomu bylo, kdyby byla sdílena online na platformě, jako je YouTube.

Při testování byla metoda z více než 99 % schopna oklamat detekční systémy, když jim byl poskytnut přístup k modelu detektoru. Nicméně i na nejnižších úrovních úspěšnosti – u komprimovaných videí, ve kterých nebyly známy žádné informace o modelech detektorů – je stále porazil v 78,33 % případů. To není skvělá zpráva.

Výzkumníci odmítají zveřejnit svůj kód na základě toho, že by mohl být zneužit, poznamenal Neekhara. „Protivníková videa generovaná pomocí našeho kódu mohou potenciálně obejít jiné neviditelné detektory hlubokého falešného obsahu, které používají při výrobě některé [platformy] sociálních médií,“ vysvětlil. „Spolupracujeme s týmy, které pracují na budování těchto hluboce falešných detekčních systémů, a využíváme náš výzkum k budování robustnějších detekčních systémů.“

Hra hluboké falešné kočky a myši

Toto samozřejmě není konec příběhu. Abychom se vrátili k naší filmové analogii, stále by to bylo jen asi 20 minut filmu. Ještě jsme se nedostali na místo, kde si detektiv uvědomí, že si zloděj myslí, že ji oklamal. Nebo do té části, kdy si zloděj uvědomí, že detektiv ví, že on ví, že ona ví. Nebo.. dostanete obrázek.

Takovou hru na kočku a myš na detekci deepfake, která bude pravděpodobně pokračovat donekonečna, zná každý, kdo se věnoval kybernetické bezpečnosti. Škodliví hackeři najdou zranitelnosti, které jsou pak blokovány vývojáři, než hackeři najdou zranitelnosti v jejich opravené verzi, kterou pak vývojáři znovu vyladí. Pokračovat donekonečna.

„Ano, generování a detekční systémy deepfake přesně sledují dynamiku virů a antivirů,“ Shehzeen Hussain, doktor počítačového inženýrství UC San Diego Ph. D. student, řekl Digital Trends. „V současné době jsou detektory deepfake trénovány na datovém souboru skutečných a falešných videí generovaných pomocí stávajících technik deepfake syntézy. Neexistuje žádná záruka, že takové detektory budou spolehlivě odolné proti systémům budoucí generace deepfake... Abychom zůstali napřed v závodech ve zbrojení je třeba metody detekce pravidelně aktualizovat a trénovat v nadcházejících technikách deepfake syntézy. [Ti] musí být také odolní vůči příkladům protivníka začleněním videí protivníka během tréninku.“

A dokument popisující tuto práci, s názvem „Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples“, byl nedávno představen na virtuální konferenci WACV 2021.

Doporučení redakce

  • AI proměnila Breaking Bad v anime – a je to děsivé
  • Proč AI nikdy neovládne svět
  • Optické iluze by nám mohly pomoci vybudovat další generaci AI
  • Finishing touch: Jak vědci dávají robotům lidské hmatové smysly
  • Analogové A.I.? Zní to šíleně, ale může to být budoucnost

Upgradujte svůj životní stylDigitální trendy pomáhají čtenářům mít přehled o rychle se měnícím světě technologií se všemi nejnovějšími zprávami, zábavnými recenzemi produktů, zasvěcenými úvodníky a jedinečnými náhledy.