Kuvittele käänteentekevä elokuva mestaririkollisesta, joka on joutunut järkisotaan maailman suurimman etsivän kanssa.
Sisällys
- Deepfake-ongelma
- Ilmaisimien huijaaminen
- Deepfake kissan ja hiiren peli
Rikollinen yrittää saada aikaan massiivisen itseluottamustempun käyttämällä asiantuntevaa taitoa ja uskomatonta kykyä naamioitua melkein keneksi tahansa planeetalla. Hän on niin hyvä siinä, mitä hän tekee, että hän voi saada ihmiset uskomaan nähneensä asioita, joita ei koskaan tapahtunut.
Suositellut videot
Mutta sitten tapaamme etsivän. Hän on nerokas, pysähdyttävä tyyppi, joka voi havaita minkä tahansa varkaan "kerran". Hän tietää vain, mitä etsiä, ja pieninkin käytös – kohotettu kulmakarva täällä, pudonnut vokaali siellä – riittää hälyttämään, kun jokin on pielessä. Hän on ainoa henkilö, joka on koskaan saanut antagonistimme kiinni, ja nyt hän on jälleen hänen jäljillä.
Liittyvät
- Digital Trendsin Tech For Change CES 2023 -palkinnot
- Meta haluaa täydentää Wikipediaa tekoälypäivityksellä
- Mistä tiedämme, milloin tekoäly todella tulee tuntevaksi?
On kuitenkin ongelma: varasmme tietää sen hän tietää mitä etsiä. Tämän seurauksena hän on muuttanut peliään päähenkilön huomaamatta sitä.
Deepfake-ongelma
Tämä on pohjimmiltaan tarina syväväärennöksistä ja syväväärennösten havaitsemisesta tähän mennessä. Deepfakes, synteettisen median muoto, jossa ihmisten kaltaisia voidaan muuttaa digitaalisesti. Face/Off remake, jonka on ohjannut A.I. Tutkijat ovat olleet huolestuttavia siitä lähtien, kun he tulivat paikalle vuonna 2017. Vaikka monet syväväärennökset ovat kevyitä (vaihdetaan pois Arnie Sly Stallonelle Terminaattori), ne muodostavat myös mahdollisen uhan. Deepfakeilla on tehty väärennettyjä pornografisia videoita, jotka vaikuttavat todellisilta, ja niitä on käytetty poliittisissa huijauksissa sekä talouspetoksissa.
Jotta tällaisista huijauksista tulisi vielä suurempi ongelma, jonkun on voitava puuttua asiaan ja sanoa lopullisesti, milloin syväväärennöstä käytetään ja milloin ei.
"Deepfake-ilmaisimet etsivät niitä syvän väärennösten yksityiskohtia, jotka eivät ole aivan oikeita, etsimällä kuvia paitsi kummallisista laaksoista myös pienimmistä kummallisista kuopista."
Ei kestänyt kauan, kun ensimmäiset syväväärennösilmaisimet ilmestyivät. Huhtikuuhun 2018 mennessä kattelin yksi aikaisemmista yrityksistä tehdä tämä, jonka rakensivat Saksan Münchenin teknisen yliopiston tutkijat. Aivan kuten itse deepfake-tekniikka, se käytti A.I. - vain tällä kertaa sen tekijät eivät käyttäneet sitä väärennösten luomiseen, vaan niiden havaitsemiseen.
Deepfake-ilmaisimet toimivat etsimällä niitä yksityiskohtia syväväärennöksestä, joita ei ole melko etsimällä kuvia ei vain ihmeellisistä laaksoista, vaan pienimmistäkin kummallisista kuopista. He rajaavat kuvien kasvotiedot ja välittävät sen sitten neuroverkon läpi selvittääkseen sen oikeutuksen. Arvonnan yksityiskohtia voivat olla esimerkiksi huonosti jäljennetty silmien räpyttely.
Mutta nyt Kalifornian yliopiston San Diegon tutkijat ovat keksineet tavan voittaa syvän väärennösilmaisimet lisäämällä videokehyksiin niin kutsuttuja vastustavia esimerkkejä. Vastakkaiset esimerkit ovat kiehtova – mutta pelottava – häiriö A.I. Matriisi. Ne pystyvät huijaamaan älykkäimmätkin tunnistusjärjestelmät esim. luulla, että kilpikonna on ase, tai espresso on pesäpallo. He tekevät tämän lisäämällä kuvaan hienovaraisesti kohinaa, jotta se saa hermoverkon tekemään väärän luokituksen.
Kuin sekoittaisit kiväärin kuorituiseen matelijaan. Tai väärennetty video oikeaksi.
Ilmaisimien huijaaminen
"Todenmukaisten deepfake-videoiden luontimenetelmät ovat viime aikoina lisääntyneet." Paarth Neekhara, UC San Diegon tietokonetekniikan grad-opiskelija kertoi Digital Trendsille. "Koska näitä manipuloituja videoita voidaan käyttää haitallisiin tarkoituksiin, on tehty merkittäviä ponnisteluja sellaisten ilmaisimien kehittämiseksi, jotka pystyvät tunnistamaan syvästi väärennetyt videot luotettavasti. Esimerkiksi, Facebook käynnisti äskettäin Deepfake Detection Challengen nopeuttaakseen syväväärennösten ilmaisimien kehittämistä. [Mutta] vaikka näillä tunnistusmenetelmillä voidaan saavuttaa yli 90 %:n tarkkuus väärennettyjen ja oikeiden videoiden tietojoukossa, työmme osoittaa, että hyökkääjä voi helposti ohittaa ne. Hyökkääjä voi pistää videon jokaiseen ruutuun huolellisesti muotoiltua, ihmissilmälle melko huomaamatonta kohinaa, jolloin uhritunnistin luokittelee sen väärin."
Hyökkääjät voivat luoda näitä videoita, vaikka heillä ei olisi erityistä tietoa ilmaisimen arkkitehtuurista ja parametreista. Nämä hyökkäykset toimivat edelleen myös videoiden pakkaamisen jälkeen, kuten ne olisivat, jos ne jaettaisiin verkossa YouTuben kaltaisella alustalla.
Testattaessa menetelmä pystyi yli 99-prosenttisesti huijaamaan tunnistusjärjestelmiä, kun sille annettiin pääsy ilmaisinmalliin. Kuitenkin jopa alhaisimmillaan menestystasoillaan – pakatuissa videoissa, joissa ei tiedetty mitään ilmaisinmalleista – se voitti ne silti 78,33 % ajasta. Se ei ole hieno uutinen.
Tutkijat kieltäytyvät julkaisemasta koodiaan sillä perusteella, että sitä voitaisiin käyttää väärin, Neekhara huomautti. "Koodimme avulla luodut vastustavalliset videot voivat mahdollisesti ohittaa muut näkymätöntä syväväärennösten ilmaisimet, joita jotkut sosiaalisen median [alustan] tuotannossa käyttävät", hän selitti. "Teemme yhteistyötä ryhmien kanssa, jotka työskentelevät näiden syvän väärennösten havaitsemisjärjestelmien rakentamiseksi, ja käytämme tutkimustamme rakentaakseen tehokkaampia tunnistusjärjestelmiä."
Deepfake kissan ja hiiren peli
Tämä ei tietenkään ole tarinan loppu. Palatakseni elokuvaanalogiimme, tämä olisi silti vain noin 20 minuuttia elokuvasta. Emme ole vielä päässeet paikalle, jossa etsivä tajuaa, että varas luulee saaneensa hänet huijatuksi. Tai siihen pisteeseen, jossa varas tajuaa, että etsivä tietää, että hän tietää, että hän tietää. Tai.. saat kuvan.
Tällainen kissa-hiiri-peli syvän väärennösten havaitsemiseen, joka todennäköisesti jatkuu loputtomiin, on tuttu kaikille kyberturvallisuuden parissa työskenteleville. Haitalliset hakkerit löytävät haavoittuvuuksia, jotka kehittäjät sitten estävät, ennen kuin hakkerit löytävät haavoittuvuuksia niiden kiinteässä versiossa, jota kehittäjät muokkaavat jälleen. Jatka loputtomiin.
"Kyllä, syväväärennösten luonti- ja tunnistusjärjestelmät seuraavat tarkasti virus- ja virustorjuntadynamiikkaa." Shehzeen Hussain, UC San Diego tietokonetekniikan Ph. D. opiskelija, kertoi Digital Trendsille. "Tällä hetkellä deepfake-ilmaisimia koulutetaan todellisten ja väärennettyjen videoiden tietojoukon perusteella, joka on luotu olemassa olevien syväväärennössynteesitekniikoiden avulla. Ei ole mitään takeita siitä, että tällaiset ilmaisimet ovat idioottivarmoja tulevia syväväärennösten sukupolvijärjestelmiä vastaan… Pysyäksesi edellä kilpavarusteluissa havaitsemismenetelmiä on päivitettävä säännöllisesti ja koulutettava tuleviin syvän väärennössynteesitekniikoihin. [Niistä] on myös tehtävä kestäviä vastustavia esimerkkejä varten sisällyttämällä vastustavia videoita harjoituksen aikana."
A tätä työtä kuvaava paperi, jonka otsikko on "Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples", esiteltiin äskettäin WACV 2021 -virtuaalikonferenssissa.
Toimittajien suositukset
- Tekoäly muutti Breaking Badista animeksi – ja se on pelottavaa
- Miksi tekoäly ei koskaan hallitse maailmaa
- Optiset illuusiot voivat auttaa meitä rakentamaan seuraavan sukupolven tekoälyä
- Viimeistely: Kuinka tiedemiehet antavat roboteille ihmismäisiä tuntoaisteja
- Analoginen A.I.? Kuulostaa hullulta, mutta se saattaa olla tulevaisuutta
Päivitä elämäntapasiDigital Trends auttaa lukijoita pysymään tekniikan nopeatempoisessa maailmassa uusimpien uutisten, hauskojen tuotearvostelujen, oivaltavien toimitusten ja ainutlaatuisten kurkistusten avulla.