Kujutage ette keerulist filmi meisterkurjategijast, kes on sattunud mõistusõtta maailma suurima detektiiviga.
Sisu
- Deepfake probleem
- Andurite petmine
- Deepfake kassi ja hiire mäng
Kurjategija püüab teha tohutut enesekindlustrikki, kasutades asjatundlikku näpunäidet ja veidrat võimet maskeerida end peaaegu igaüheks planeedil. Ta on oma tegemistes nii hea, et suudab panna inimesi uskuma, et nad nägid asju, mida tegelikult pole juhtunud.
Soovitatavad videod
Aga siis kohtume detektiiviga. Ta on geniaalne, mittemidagiütlev inimene, kes suudab märgata mis tahes varga "juttu". Ta teab täpselt, mida otsida, ja isegi pisimast käitumisest – kergitatud kulmudest siin, langenud täishäälikust – piisab, et teda hoiatada, kui midagi on viltu. Ta on ainus inimene, kes on kunagi meie antagonisti tabanud, ja nüüd on ta taas tema jälil.
Seotud
- Digital Trendsi Tech For Change CES 2023 auhinnad
- Meta soovib Wikipediat tehisintellekti versiooniuuendusega täiendada
- Kuidas me teame, millal AI tegelikult tundlikuks muutub?
Siiski on probleem: meie varas teab seda ta teab, mida otsida. Selle tulemusena on ta oma mängu muutnud, ilma et peategelane sellest arugi saaks.
Deepfake probleem
Sisuliselt on see lugu sügavatest võltsingutest ja sügavvõltsingute tuvastamisest. Deepfakes, sünteetilise meedia vorm, milles inimeste sarnasusi saab digitaalselt muuta nagu Näo/väljas uusversioon, mille režissöör on A.I. teadlased, on olnud muret tekitanud alates sellest, kui nad 2017. aastal sündmuskohale tulid. Kuigi paljud süvavõltsingud on kerged (vahetatakse välja Arnie Sly Stallone'i eest Terminaator), kujutavad nad endast ka potentsiaalset ohtu. Sügavvõltsinguid on kasutatud võltspornograafiliste videote loomiseks, mis näivad tõelised, ning neid on kasutatud poliitilistes pettustes ja finantspettustes.
Et sellised pettused veelgi suuremaks probleemiks ei muutuks, peab keegi saama sekkuda ja kindlalt öelda, millal sügavvõltsingut kasutatakse ja millal mitte.
"Süvavõltsingu detektorid otsivad neid sügavvõltsingu detaile, mis pole päris õiged, otsides pilte mitte ainult veidratest orgudest, vaid ka kõige väiksematest veidratest aukudest."
Ei läinud kaua, kui ilmusid esimesed sügavvõltsimisdetektorid. 2018. aasta aprilliks katsin üks varasemaid jõupingutusi selleks, mille ehitasid Saksamaa Müncheni tehnikaülikooli teadlased. Nii nagu deepfake tehnoloogia ise, kasutas see A.I. - ainult seekord kasutasid selle loojad seda mitte võltsingute loomiseks, vaid nende tuvastamiseks.
Deepfake detektorid otsivad sügava võltsimise üksikasju, mida pole päris otse otsides pilte mitte ainult imelike orgude, vaid ka kõige väiksemate veidrate aukude leidmiseks. Nad kärbivad piltidelt näoandmeid ja edastavad need seejärel närvivõrgu kaudu, et välja selgitada nende õiguspärasus. Kingituse üksikasjad võivad hõlmata näiteks halvasti reprodutseeritud silmade pilgutamist.
Kuid nüüd on California San Diego ülikooli teadlased leidnud viisi, kuidas sügavalt võltsitud detektorid lüüa, lisades videokaadritesse nn võistlevaid näiteid. Konkurentsipõhised näited on põnev, kuid samas hirmutav tõrge A.I. Maatriks. Nad suudavad petta isegi kõige targemaid tuvastussüsteeme näiteks arvates, et kilpkonn on relvvõi espresso on pesapall. Nad teevad seda, lisades pildile delikaatselt müra, nii et see põhjustab närvivõrgu vale klassifikatsiooni.
Nagu seaks vintpüssi kokku kestaga roomajaga. Või võltsitud video päriseks.
Andurite petmine
"Viimasel ajal on realistlike sügavvõltsitud videote loomise meetodid kasvanud," Paarth Neekhara, UC San Diego arvutiinseneri eriala üliõpilane, rääkis Digital Trendsile. "Kuna neid manipuleeritud videoid saab kasutada pahatahtlikel eesmärkidel, on tehtud märkimisväärseid jõupingutusi detektorite väljatöötamisel, mis suudavad usaldusväärselt tuvastada sügavvõltsitud videoid. Näiteks, Facebook käivitas hiljuti Deepfake Detection Challenge'i, et kiirendada sügavvõltsingudetektorite väljatöötamist. [Kuid] kuigi need tuvastamismeetodid võivad võlts- ja pärisvideote andmestiku puhul saavutada enam kui 90% täpsuse, näitab meie töö, et ründaja saab neist hõlpsasti mööda minna. Ründaja võib video igasse kaadrisse süstida hoolikalt loodud müra, mis on inimsilmale üsna märkamatu, nii et ohvridetektor klassifitseerib selle valesti.
Ründajad saavad neid videoid koostada isegi siis, kui neil ei ole spetsiifilisi teadmisi detektori arhitektuuri ja parameetrite kohta. Need rünnakud toimivad ka pärast videote tihendamist, nagu oleks, kui neid jagataks võrgus sellisel platvormil nagu YouTube.
Katsetamisel oli meetod enam kui 99% võimeline detektorimudelile juurdepääsu korral tuvastussüsteeme petta. Kuid isegi kõige madalamal edutasemel – tihendatud videote puhul, milles detektorimudelite kohta teavet polnud – alistas see siiski 78,33% ajast. See pole suurepärane uudis.
Neekhara märkis, et teadlased keelduvad oma koodi avaldamast, kuna seda võidakse kuritarvitada. "Meie koodi abil loodud võistlevad videod võivad potentsiaalselt mööda minna teistest nähtamatutest sügavvõltsingudetektoritest, mida mõned sotsiaalmeedia [platvormid] tootmises kasutavad," selgitas ta. "Teeme koostööd meeskondadega, kes töötavad nende sügavate võltsingute tuvastamise süsteemide loomisel, ja kasutame oma uuringuid tugevamate tuvastamissüsteemide loomiseks."
Deepfake kassi ja hiire mäng
See pole muidugi loo lõpp. Kui naasta meie filmi analoogia juurde, oleks see ikkagi vaid umbes 20 minutit filmist. Me pole veel jõudnud sündmuskohale, kus detektiiv mõistab, et varas arvab, et on ta lolli ajanud. Või sinna, kus varas mõistab, et detektiiv teab, et ta teab, et naine teab. Või.. saad pildi.
Selline süvavõltsingute tuvastamise kassi-hiire mäng, mis tõenäoliselt jätkub lõputult, on kõigile, kes on küberturvalisusega tegelenud, hästi teada. Pahatahtlikud häkkerid leiavad turvaauke, mille arendajad seejärel blokeerivad, enne kui häkkerid avastavad turvaauke nende fikseeritud versioonis, mida seejärel arendajad uuesti kohandavad. Jätka lõpmatuseni.
"Jah, süvavõltsingute genereerimise ja tuvastamise süsteemid järgivad täpselt viiruse ja viirusetõrje dünaamikat," Shehzeen Hussain, UC San Diego arvutiinseneri doktor. õpilane, rääkis Digital Trendsile. "Praegu koolitatakse sügavvõltsingudetektoreid tõeliste ja võltsitud videote andmestiku põhjal, mis on loodud olemasolevate sügavvõltsitud sünteesitehnikate abil. Ei ole mingit garantiid, et sellised detektorid on tulevaste sügavate võltsingute genereerimise süsteemide vastu lollikindelad… Et olla ees võidurelvastumises tuleb tuvastamismeetodeid regulaarselt ajakohastada ja treenida tulevaste süvavõltsingu sünteesi tehnikate osas. [Need] tuleb muuta ka vastupidavaks konkureerivate näidete suhtes, lisades treeningu ajal võistlevaid videoid.
A seda tööd kirjeldav paber, pealkirjaga "Vastlevad süvavõltsingud: Deepfake Detectors haavatavuse hindamine vastuoluliste näidete suhtes", esitleti hiljuti WACV 2021 virtuaalkonverentsil.
Toimetajate soovitused
- AI muutis Breaking Badi animeks – ja see on hirmutav
- Miks AI kunagi maailma ei valitse
- Optilised illusioonid võivad aidata meil luua järgmise põlvkonna tehisintellekti
- Viimistlus: kuidas teadlased annavad robotitele inimlikke puutetundlikkusi
- Analoog A.I? See kõlab hullumeelselt, kuid see võib olla tulevik
Uuenda oma elustiiliDigitaalsed suundumused aitavad lugejatel hoida silma peal kiirel tehnikamaailmal kõigi viimaste uudiste, lõbusate tooteülevaadete, sisukate juhtkirjade ja ainulaadsete lühiülevaadetega.