Įsivaizduokite sudėtingą filmą apie pagrindinį nusikaltėlį, įsitraukusį į proto karą su didžiausiu pasaulyje detektyvu.
Turinys
- Deepfake problema
- Detektorių apgaudinėjimas
- Deepfake katės ir pelės žaidimas
Nusikaltėlis siekia išvilioti didžiulį pasitikėjimo triuką, pasitelkdamas profesionalų gudrumą ir nepaprastą sugebėjimą užmaskuoti save praktiškai bet kuriuo planetos gyventoju. Jis taip gerai išmano tai, ką daro, kad gali priversti žmones patikėti, kad matė dalykus, kurių iš tikrųjų niekada nebuvo.
Rekomenduojami vaizdo įrašai
Bet tada susitinkame detektyvą. Ji yra nuostabi, nieko nesustojusi, galinti pastebėti bet kurio vagies „pasakojimą“. Ji tiesiog žino, ko ieškoti, ir net menkiausio elgesio – pakelto antakio čia, nukritusio balsio – pakanka, kad įspėtų ją, kai kas nors negerai. Ji yra vienintelis žmogus, kuris kada nors pagavo mūsų priešininką, ir dabar ji vėl seka jo pėdsaką.
Susijęs
- „Digital Trends“ „Tech For Change CES 2023“ apdovanojimai
- „Meta“ nori papildyti „Wikipedia“ AI atnaujinimu
- Kaip mes žinosime, kada AI iš tikrųjų tampa jautrus?
Tačiau yra problema: mūsų vagis tai žino ji žino, ko ieškoti. Dėl to jis pakeitė savo žaidimą, pagrindiniam veikėjui to nesuvokiant.
Deepfake problema
Iš esmės tai iki šiol istorija apie gilius klastojimus ir gilių padirbinių aptikimą. Deepfakes – sintetinės medijos forma, kurioje žmonių panašumai gali būti skaitmeniniu būdu pakeisti kaip Face/Off perdarymas, režisuotas A.I. tyrėjai, kėlė susirūpinimą nuo tada, kai jie pasirodė 2017 m. Nors daugelis padirbinių yra lengvabūdiški (keičiami Arnie už Sly Stallone Terminatorius), jie taip pat kelia potencialią grėsmę. Gilios klastotės buvo naudojamos kuriant netikrus pornografinius vaizdo įrašus, kurie atrodo tikri, ir buvo naudojami politinėms apgaulėtoms, taip pat finansinėms sukčiavimo priemonėms.
Kad tokios apgaulės netaptų dar didesne problema, kažkas turi turėti galimybę įsikišti ir galutinai pasakyti, kada naudojamas gilus padirbinėjimas, o kada ne.
„Deepfake detektoriai ieško tų giliųjų klastotės detalių, kurios nėra visiškai teisingos, ieškodami vaizdų ne tik nepaprastų slėnių, bet ir mažiausių nepaprastų duobių.
Neilgai trukus pasirodė pirmieji „deepfake“ detektoriai. Iki 2018 m. balandžio mėn viena iš ankstesnių pastangų tai padaryti, kurį pastatė Vokietijos Miuncheno technikos universiteto mokslininkai. Kaip ir pati „deepfake“ technologija, ji naudojo A.I. – tik šį kartą jo kūrėjai panaudojo ne klastotėms kurti, o jas pastebėti.
Deepfake detektoriai ieško tų detalių apie gilią klastotę, kurios nėra gana tiesiog ieškodami vaizdų, ieškodami ne tik nepaprastų slėnių, bet ir mažiausios nepaprastos duobės. Jie apkarpo veido duomenis iš vaizdų ir perduoda juos per neuroninį tinklą, kad išsiaiškintų jų teisėtumą. Išsami informacija apie dovanas gali apimti tokius dalykus kaip blogai atkurtas akių mirksėjimas.
Tačiau dabar mokslininkai iš Kalifornijos universiteto San Diego sugalvojo būdą, kaip nugalėti giliųjų klastotės detektorius, į vaizdo kadrus įterpdami vadinamuosius prieštaringus pavyzdžius. Priešingi pavyzdžiai yra žavus, bet ir bauginantis A.I. trūkumas. Matrica. Jie gali apgauti net pačias protingiausias atpažinimo sistemas, pavyzdžiui, manydamas, kad vėžlys yra ginklas, arba espresas yra beisbolas. Jie tai daro subtiliai įtraukdami į vaizdą triukšmo, kad dėl to neuroninis tinklas atliktų neteisingą klasifikaciją.
Kaip šautuvą supainioti su ropliu su sviediniu. Arba netikras vaizdo įrašas tikram.
Detektorių apgaudinėjimas
„Pastaruoju metu labai išaugo metodai, skirti sukurti tikroviškus giliai padirbtus vaizdo įrašus“, Paarthas NeekharaUC San Diego kompiuterių inžinerijos absolventas pasakojo „Digital Trends“. „Kadangi šie manipuliuojami vaizdo įrašai gali būti naudojami kenkėjiškiems tikslams, buvo dedama daug pastangų kuriant detektorius, galinčius patikimai aptikti netikrus vaizdo įrašus. Pavyzdžiui, Facebook neseniai pradėjo Deepfake Detection Challenge, siekdamas paspartinti giliųjų klastotės detektorių kūrimo tyrimus. [Tačiau] nors šiais aptikimo metodais galima pasiekti daugiau nei 90 % tikslumą netikrų ir tikrų vaizdo įrašų duomenų rinkinyje, mūsų darbas rodo, kad užpuolikas gali juos lengvai apeiti. Užpuolikas gali į kiekvieną vaizdo įrašo kadrą įterpti kruopščiai sukurtą triukšmą, kuris žmogaus akiai gana nepastebimas, todėl aukos detektorius jį neteisingai klasifikuoja.
Užpuolikai gali kurti šiuos vaizdo įrašus, net jei neturi konkrečių žinių apie detektoriaus architektūrą ir parametrus. Šios atakos vis dar veikia ir suglaudinus vaizdo įrašus, kaip būtų, jei jais būtų dalijamasi internete tokioje platformoje kaip „YouTube“.
Išbandžius metodą, daugiau nei 99 % pavyko apgauti aptikimo sistemas, kai buvo suteikta prieiga prie detektoriaus modelio. Tačiau net ir esant žemiausiam sėkmės lygiui – suspaustiems vaizdo įrašams, kuriuose nebuvo žinoma jokios informacijos apie detektorių modelius – jis vis tiek nugalėjo juos 78,33 % laiko. Tai nėra puiki žinia.
Neekhara pažymėjo, kad mokslininkai atsisako skelbti savo kodą, remdamiesi tuo, kad juo galima piktnaudžiauti. „Konkurentingi vaizdo įrašai, sukurti naudojant mūsų kodą, gali apeiti kitus neregėtus giliųjų klastotės detektorius, kurie yra naudojami kai kurių socialinių tinklų [platformų] gamyboje“, – aiškino jis. „Mes bendradarbiaujame su komandomis, kurios kuria šias giliųjų klastotės aptikimo sistemas, ir naudojame savo tyrimus, kad sukurtume patikimesnes aptikimo sistemas.
Deepfake katės ir pelės žaidimas
Tai, žinoma, dar ne istorijos pabaiga. Grįžtant prie mūsų filmo analogijos, tai vis tiek būtų tik maždaug 20 minučių nuo filmo. Dar neatvykome į įvykio vietą, kur detektyvas suprato, kad vagis mano, kad ją apgavo. Arba iki tos vietos, kur vagis supranta, kad detektyvas žino, kad jis žino, kad ji žino. Arba.. gausite paveikslėlį.
Toks katės ir pelės žaidimas, skirtas giliai aptikti klastotes, kuris greičiausiai tęsis neribotą laiką, yra gerai žinomas visiems, kurie dirbo kibernetinio saugumo srityje. Piktybiški įsilaužėliai randa pažeidžiamumą, kurį vėliau užblokuoja kūrėjai, o vėliau įsilaužėliai randa spragas jų fiksuotoje versijoje, kurią vėliau kūrėjai vėl koreguoja. Tęsti iki begalybės.
„Taip, giliųjų klastotės generavimo ir aptikimo sistemos atidžiai seka virusų ir antivirusinių programų dinamiką“, Shehzeenas Hussainas, UC San Diego kompiuterių inžinerijos mokslų daktaras. studentas, pasakojo „Digital Trends“. „Šiuo metu giliųjų klastotės detektoriai mokomi remiantis tikrų ir netikrų vaizdo įrašų duomenų rinkiniu, sugeneruotu naudojant esamas gilios klastotės sintezės technologijas. Nėra jokios garantijos, kad tokie detektoriai bus patikimi prieš ateities giliųjų klastotės generavimo sistemas… Kad išliktume priekyje ginklavimosi varžybose aptikimo metodai turi būti reguliariai atnaujinami ir mokomi apie būsimus giliosios klastotės sintezės metodus. [Jie] taip pat turi būti atsparūs priešpriešiniams pavyzdžiams, treniruočių metu įtraukiant priešingą vaizdo įrašą.
A šį darbą aprašantis dokumentas, pavadintas „Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples“, neseniai buvo pristatytas WACV 2021 virtualioje konferencijoje.
Redaktorių rekomendacijos
- AI pavertė „Breaking Bad“ anime – ir tai kelia siaubą
- Kodėl AI niekada nevaldys pasaulio
- Optinės iliuzijos gali padėti mums sukurti naujos kartos AI
- Apdaila: kaip mokslininkai robotams suteikia žmogiškus lytėjimo pojūčius
- Analoginis A.I.? Skamba beprotiškai, bet tai gali būti ateitis
Atnaujinkite savo gyvenimo būdąSkaitmeninės tendencijos padeda skaitytojams stebėti sparčiai besivystantį technologijų pasaulį – pateikiamos visos naujausios naujienos, smagios produktų apžvalgos, įžvalgūs vedamieji leidiniai ir unikalūs žvilgsniai.