Iedomājieties vērienīgu filmu par galveno noziedznieku, kas ir iesaistīts prātu karā ar pasaules izcilāko detektīvu.
Saturs
- Deepfake problēma
- Detektoru maldināšana
- Deepfake kaķa un peles spēle
Noziedznieks cenšas realizēt milzīgu pašpārliecinātības triku, izmantojot profesionālu roku viltību un neparastu spēju pārģērbties par praktiski jebkuru uz planētas. Viņš ir tik labi savā darbībā, ka spēj likt cilvēkiem noticēt, ka viņi ir redzējuši lietas, kas patiesībā nekad nav notikušas.
Ieteiktie videoklipi
Bet tad mēs satiekam detektīvu. Viņa ir izcila, pieturīga, kas spēj pamanīt jebkura zagļa “paziņojumu”. Viņa zina, ko meklēt, un pat ar mazāko uzvedību — ar paceltām uzacīm šeit, ar nomestu patskaņu — pietiek, lai brīdinātu viņu, ja kaut kas nav kārtībā. Viņa ir vienīgā persona, kas jebkad ir noķērusi mūsu antagonistu, un tagad viņa atkal ir iepatikusies viņa pēdās.
Saistīts
- Digital Trends' Tech For Change CES 2023 balvas
- Meta vēlas papildināt Wikipedia ar AI jaunināšanu
- Kā mēs uzzināsim, kad mākslīgais intelekts patiešām kļūst jūtīgs?
Tomēr pastāv problēma: mūsu zaglis to zina viņa zina, ko meklēt. Rezultātā viņš ir mainījis savu spēli, galvenajam varonim to neapzinoties.
Deepfake problēma
Tas būtībā ir stāsts par dziļo viltojumu un dziļo viltojumu atklāšanu līdz šim. Dziļi viltojumi — sintētisku datu nesēju veids, kurā cilvēku līdzības var digitāli pārveidot, piemēram, Face/Off rimeiks, kura režisors ir A.I. pētnieki, ir radījuši bažas, kopš viņi ieradās 2017. gadā. Lai gan daudzi dziļi viltojumi ir vieglprātīgi (nomaiņa Ārnijs par viltīgo Staloni Terminators), tie arī rada potenciālus draudus. Deepfakes ir izmantotas, lai izveidotu viltotus pornogrāfiskus videoklipus, kas šķiet īsti, un tie ir izmantoti politiskajos māņos, kā arī finanšu krāpniecībā.
Lai šāda viltošana nekļūtu par vēl lielāku problēmu, kādam ir jāspēj iejaukties un noteikti pateikt, kad tiek izmantots dziļais viltojums un kad nē.
"Dziļās viltojumu detektori darbojas, meklējot tās dziļās viltošanas detaļas, kas nav gluži pareizas, meklējot attēlus ne tikai neparastās ielejās, bet arī mazākajā, neparastajā bedrē."
Nepagāja ilgs laiks, līdz parādījās pirmie dziļo viltojumu detektori. Līdz 2018. gada aprīlim es pārklāju viens no agrākajiem centieniem to izdarīt, kuru uzbūvēja Vācijas Minhenes Tehniskās universitātes pētnieki. Tāpat kā pati deepfake tehnoloģija, tā izmantoja A.I. — tikai šoreiz tās veidotāji to izmantoja nevis viltojumu radīšanai, bet gan to pamanīšanai.

Deepfake detektori darbojas, meklējot tās dziļās viltošanas detaļas, kuras nav diezgan tieši, meklējot attēlus, lai atrastu ne tikai neparastas ielejas, bet arī mazākās neparastās bedres. Viņi apgriež seju datus no attēliem un pēc tam nodod tos caur neironu tīklu, lai noskaidrotu to leģitimitāti. Dati par dāvanu var ietvert tādas lietas kā slikti atveidota acu mirkšķināšana.
Taču tagad pētnieki no Kalifornijas Universitātes Sandjego ir izdomājuši veidu, kā uzveikt dziļo viltojumu detektorus, video kadros ievietojot tā dēvētos pretrunīgos piemērus. Pretendentu piemēri ir aizraujoša, taču biedējoša kļūda A.I. Matrica. Viņi spēj apmānīt pat visgudrākās atpazīšanas sistēmas, piemēram, domā, ka bruņurupucis ir ierocis, vai espresso ir beisbols. Viņi to dara, attēlam smalki pievienojot troksni, kas liek neironu tīklam veikt nepareizu klasifikāciju.
Tāpat kā šauteni sajaukt ar lobītu rāpuli. Vai viltotu video par īstu.
Detektoru maldināšana
"Nesen ir pieaudzis metožu pieaugums reālistisku dziļi viltotu videoklipu ģenerēšanai," Pārs Neekhara, UC Sandjego datortehnikas maģistrantūras students, pastāstīja Digital Trends. "Tā kā šos manipulētos videoklipus var izmantot ļaunprātīgiem nolūkiem, ir pieliktas ievērojamas pūles, lai izstrādātu detektorus, kas var droši noteikt dziļi viltotus videoklipus. Piemēram, Facebook nesen uzsāka Deepfake Detection Challenge, lai paātrinātu dziļo viltojumu detektoru izstrādes izpēti. [Bet], lai gan šīs noteikšanas metodes var sasniegt vairāk nekā 90% precizitāti viltotu un īstu videoklipu datu kopā, mūsu darbs liecina, ka uzbrucējs tās var viegli apiet. Uzbrucējs katrā video kadrā var ievadīt rūpīgi izstrādātu troksni, kas cilvēka acij ir diezgan nemanāms, lai upura detektors to nepareizi klasificētu.

Uzbrucēji var izveidot šos videoklipus pat tad, ja viņiem nav īpašu zināšanu par detektora arhitektūru un parametriem. Šie uzbrukumi joprojām darbojas arī pēc videoklipu saspiešanas, kā tas būtu, ja tie tiktu kopīgoti tiešsaistē tādā platformā kā YouTube.
Pārbaudot, metode vairāk nekā 99% spēja apmānīt noteikšanas sistēmas, ja tai tika piešķirta piekļuve detektora modelim. Tomēr pat pie zemākajiem panākumu līmeņiem — saspiestiem videoklipiem, kuros nebija zināma informācija par detektoru modeļiem — tas joprojām tos pārspēja 78,33% gadījumu. Tās nav lieliskas ziņas.
Pētnieki atsakās publicēt savu kodu, pamatojoties uz to, ka to varētu ļaunprātīgi izmantot, atzīmēja Neekhara. "Pretendējošie videoklipi, kas ģenerēti, izmantojot mūsu kodu, potenciāli var apiet citus neredzētus dziļo viltojumu detektorus, kurus ražošanā izmanto daži sociālie mediji [platformas]," viņš paskaidroja. "Mēs sadarbojamies ar komandām, kas strādā pie šo dziļo viltojumu noteikšanas sistēmu izveides, un izmantojam mūsu pētījumus, lai izveidotu spēcīgākas noteikšanas sistēmas."
Deepfake kaķa un peles spēle
Tas, protams, nav stāsta beigas. Atgriežoties pie mūsu filmas analoģijas, tas joprojām būtu tikai aptuveni 20 minūtes pēc filmas. Mēs vēl neesam tikuši līdz notikuma vietai, kur detektīvs saprot, ka zaglis domā, ka ir viņu piemānījis. Vai līdz vietai, kur zaglis saprot, ka detektīvs zina, ka viņš zina, ka viņa zina. Vai.. jūs saņemat attēlu.
Šāda kaķa un peles spēle dziļo viltojumu noteikšanai, kas, visticamāk, turpināsies bezgalīgi, ir labi zināma ikvienam, kas ir strādājis kiberdrošības jomā. Ļaunprātīgi hakeri atrod ievainojamības, kuras pēc tam bloķē izstrādātāji, pirms hakeri atrod ievainojamības savā fiksētajā versijā, kuru pēc tam izstrādātāji atkal pielāgo. Turpināt līdz bezgalībai.
"Jā, dziļo viltojumu ģenerēšanas un noteikšanas sistēmas cieši seko vīrusu un pretvīrusu dinamikai," Shehzeen Hussain, UC Sandjego datortehnikas doktors. students, pastāstīja Digital Trends. “Pašlaik dziļo viltojumu detektori tiek apmācīti, izmantojot īstu un viltotu video datu kopu, kas ģenerēta, izmantojot esošās dziļās viltojumu sintēzes metodes. Nav garantijas, ka šādi detektori būs droši pret nākotnes dziļo viltojumu ģenerēšanas sistēmām… Lai paliktu priekšā bruņošanās sacīkstēs noteikšanas metodes ir regulāri jāatjaunina un jāapmāca par gaidāmajām dziļās viltojumu sintēzes metodēm. [Tie] arī ir jāpadara izturīgi pret pretrunīgiem piemēriem, apmācību laikā iekļaujot pretrunīgus video.
A papīrs, kurā aprakstīts šis darbs, ar nosaukumu “Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples”, nesen tika prezentēts WACV 2021 virtuālajā konferencē.
Redaktoru ieteikumi
- AI pārvērta Breaking Bad par anime — un tas ir biedējoši
- Kāpēc AI nekad nevaldīs pasauli
- Optiskās ilūzijas varētu palīdzēt mums izveidot nākamās paaudzes AI
- Apdare: kā zinātnieki robotiem piešķir cilvēkiem līdzīgas taustes sajūtas
- Analogais A.I.? Tas izklausās traki, bet tā varētu būt nākotne
Uzlabojiet savu dzīvesveiduDigitālās tendences palīdz lasītājiem sekot līdzi steidzīgajai tehnoloģiju pasaulei, izmantojot visas jaunākās ziņas, jautrus produktu apskatus, ieskatu saturošus rakstus un unikālus ieskatus.