Ali so Deepfake nevarne? Ustvarjalci in regulatorji se ne strinjajo

click fraud protection

V zadnjih nekaj letih, deepfakes so se pojavili kot najnovejši internet za meme in parodično vsebino.

Vsebina

  • Z veliko močjo prihaja velika možnost ponovnega objavljanja
  • Gibanje za reševanje globokih ponaredkov
  • Ali je treba globoke ponaredke regulirati?

Preprosto je razumeti, zakaj: ustvarjalcem omogočajo, da upogibajo pravila realnosti kot nobena druga tehnologija doslej. Skozi magijo globokih ponaredkov lahko gledate Jennifer Lawrence ima govor v obrazu Steva Buscemija, videti, kaj Ryan Reynolds bi bil videti kot Willy Wonka, in celo ulov Hitler in Stalin pojetaVideo Killed The Radio Star v duetu.

Priporočeni videoposnetki

Za nepoznavalce je tehnologija deepfake oblika sintetičnega medija, ki uporabnikom omogoča, da drug obraz nanesejo na obraz nekoga drugega na način, ki se skoraj ne razlikuje od izvirnika. To stori tako, da prebere kopice podatkov, da razume obrise in druge značilnosti obraza ter jih naravno zlije in animira v prizor.

Povezano

  • Ta zagon želi globoko ponarediti klon vašega glasu in ga prodati najboljšemu ponudniku
  • Znotraj hitro naraščajoče vojne med deepfake in detektorji deepfake
  • Elon Musk opozarja, da je ves A.I. mora biti reguliran, tudi pri Tesli
Ryan Reynolds kot Willy Wonka Deepfake iz NextFace
NextFace/Youtube

Na tej točki ste verjetno naleteli na takšne posnetke na platformah, kot je TikTok (kjer ima hashtag "#deepfake" približno 200 milijonov ogledov), YouTube in drugod. Ne glede na to, ali gre za izpolnitev fan fiction in ponovite prizore z zvezdami želijo, da bi film prvotno postavil mrtvo osebo v sodoben, virusni meme, so bili deepfake sprejeti kot ustvarjalni izhod za namene, ki so bili prej skoraj nemogoči.

Premik je ustvaril ligo novih ustvarjalcev, kot je Ctrl Shift obraz, čigar videoposnetki deepfake redno zbirajo milijone ogledov in so pogosto glavna tema razprav v nočnih pogovornih oddajah.

"To je povsem nov način ustvarjanja smešnih spletnih videoposnetkov ali pripovedovanja zgodb, kot jih še nismo videli," pravi nizozemski ustvarjalec za uspešnico "Maščevalci iz Oza” posnetek deepfake, ki je zahteval, da se njegovo pravo ime ne uporablja. »To je čudovita kombinacija fascinacije za AI. tehnologija in humor."

Vendar obstaja grozeče tveganje, ki v celoti ogroža prihodnost tehnologije deepfake: njen omadeževan ugled.

Z veliko močjo prihaja velika možnost ponovnega objavljanja

Na žalost imajo globoke ponaredke poleg svojega potenciala ustvarjalnega orodja za dobronamerne video umetnike tudi ogromen potencial za škodo.

Nedavna študija Dawesovega centra za prihodnji kriminal na UCL Jill Dando Institute of Security and Crime Science označil deepfakes za najresnejšo grožnjo, ki jo podpira AI. sen. Ben Sasse, republikanec iz Nebraske, ki je vložil predlog zakona za kriminalizacijo zlonamernega ustvarjanja globokih ponaredkov, opozorili lani, da bi tehnologija lahko "uničila človeška življenja", "razburkala finančne trge" in celo "spodbudila vojaške konflikte po vsem svetu".

Do neke mere so te skrbi upravičene. Navsezadnje je širjenje tehnologije deepfake že omogočilo stvari, kot je produkcija lažne vsebine za odrasle s slavnimi osebnostmi in realističnih imitacij politikov za satiro. V začetku tega leta je Dan Scavino, direktor družbenih medijev Bele hiše, tvitnil slabo prirejen posnetek Trumpovega tekmeca Joeja Bidna, ki ga je retvital tudi predsednik Donald Trump, poziva ljudi, naj ponovno izvolijo Trumpa.

Trump je retvital zmontiran videoposnetek Bidna. Evo, kaj je Biden dejansko rekel.

Vendar pa so bile te premalo prepričljive potegavščine hitro razkrite, preden so dosegle množice. Še pomembneje pa je, da strokovnjaki menijo, da videoposnetki globokega ponarejanja doslej niso imeli vpliva na družbo le malo ali nič in da trenutno ne predstavljajo nobene neposredne grožnje. Na primer, raziskava, ki jo je opravil Občutljivost, podjetje za kibernetsko varnost, ki se osredotoča na vizualne grožnje, trdi, da je velika večina videoposnetkov deepfake pornografski (96 %) in da si tehnologija še ni utrla poti v pomembnejše dezinformacije akcije.

Podobno, a Poročilo univerze Georgetown zaključili, da čeprav so globoke ponaredke »impresivna tehnična podviga«, oblikovalci politik ne bi smeli hiteti hype, saj tehnologija trenutno ni popolna in ne more samo vplivati ​​na dogodke v resničnem svetu še.

Ustvarjalec, ki stoji za najbolj priljubljenim deepfake kanalom Ctrl Shift Face, katerega videe si ogledajo milijoni, meni, da je "histerija" kroženje okoli teme deepfake odvrača pozornost zakonodajalcev stran od resničnih vprašanj, kot je slabo reguliran oglas omrežja vklopljena Facebook ki so dejansko odgovorni za zavajanje ljudi.

"Če bo kdaj prišlo do škodljivega globokega ponarejanja, je Facebook kraj, kjer se bo razširil," je dejal Ctrl Shift Face v intervjuju za Digital Trends. »Kaj je v tem primeru večji problem? Medij ali platforma?"

Lastnik BabyZone, kanal za igre na YouTubu z več kot pol milijona naročnikov, ki pogosto ponareja znane osebnosti v videu iger, odmeva podoben pomislek: »Mislim, da so deepfake tehnologija kot vse druge obstoječe tehnologije. Uporabljajo se lahko v dobre in v slabe namene.«

Gibanje za reševanje globokih ponaredkov

V zadnjem letu ali dveh, ko vlade in tehnološka podjetja preiskujejo možna tveganja tega tehnologije, so se zagovorniki deepfake trudili odpraviti te skrbi in popraviti javnost tehnologije slika. Reddit skupnosti ki skušajo »prilagoditi to stigmo«, nekateri neodvisni raziskovalci pa aktivno gradijo sisteme, ki lahko odkrijejo globoke ponaredke, preden postanejo virusni.

Roman Mogylnyi, izvršni direktor in soustanovitelj Reface, priljubljene aplikacije, ki vam omogoča hitro zamenjavo obraza v kateri koli GIF, pravi, da njegovo zagonsko podjetje zdaj razvija orodje za odkrivanje, ki lahko pove, ali je bil videoposnetek narejen z Refaceovim tehnologija. »Verjamemo, da bo širok dostop do sintetiziranih medijskih orodij, kot je naše, povečal človeško empatijo in creativit in bo pomagal spremeniti dojemanje tehnologije na bolje,« je Mogylnyi povedal za Digital Trendi.

Eran Dagan, ustanovitelj in izvršni direktor Botike, startupa, ki stoji za priljubljeno aplikacijo za zamenjavo obrazov Jiggy, ima podoben pogled proti globokim ponaredkom in verjame, da se bodo ljudje, ko bodo postali bolj razširjeni, veliko bolj zavedali njihove pozitivne uporabe primeri."

Glede na morebitne nevarnosti globokih ponaredkov pa je verjetno, da bo kongres sčasoma posegel. Glavne tehnološke platforme vključno s Facebookom, Twitterjem in YouTubom so že posodobili svoje pravilnike za označevanje ali odstranjevanje manipuliranih medijev, ki so zasnovani za zavajanje. Več držav, kot je Kalifornija in New York sta sprejela zakone, ki bodo kaznovali ustvarjalce namerno zavajajočih globokih ponaredkov, pa tudi tiste, ki so objavljeni brez privolitve osebe, katere obraz je uporabljen.

Ali je treba globoke ponaredke regulirati?

Medtem ko ti pravilniki izključujejo parodično vsebino, strokovnjaki, ki se bojijo slabo opredeljenih zakonov ali popolne prepovedi tehnologije, še vedno verjamejo, da bi se moral kongres izogibati temu in pustiti, da globoke ponaredke tečejo po naravni poti, po kateri gre vsaka nova oblika medijev skozi.

David Greene, direktor za državljanske svoboščine pri Electronic Frontier Foundation, pravi, da »vsak poskus kongresa, da bi regulirati globoke ponaredke ali res kakršno koli vizualno komunikacijo bo ureditev govora in implicirala Prvo Dopolnitev.

"Družba mora zgraditi nove mehanizme za potrjevanje, čemu lahko zaupamo, in kako preprečiti negativne vplive sintetičnih vsebin na posameznike in organizacije."

Greene dodaja, da morajo biti ti zakoni natančni in morajo – v dobro opredeljenih in lahko razumljivih izrazih – obravnavati škodo, ki jo poskušajo zmanjšati. »Kar smo videli do zdaj … regulativni poskusi na državni ravni so nejasni in preobsežni zakoni, ki nimajo natančnosti, ki jo zahteva prvi amandma. Nimajo zahtevanih izjem za parodijo in politične komentarje.«

Giorgio Patrini, izvršni direktor podjetja Sensity, meni, da je prepoved algoritmov in programske opreme »brez pomena v dobi interneta«. Patrini to uganko primerja z zlonamerno programsko opremo zaščito in kako je skoraj nemogoče odpraviti vse računalniške viruse ali njihove avtorje, zato je bolje preprosto vlagati v mehanizme proti zlonamerni programski opremi namesto tega. "Družba mora zgraditi nove mehanizme za potrjevanje, čemur je mogoče zaupati, in kako preprečiti negativne vplive sintetičnih vsebin na posameznike in organizacije," je dejal.

Tim Whang je v poročilu univerze Georgetown zapisal, da je s poblagovljenjem orodij deepfake tehnologija za odkrivanje in filtriranje samodejno se bo posledično razvilo in postalo natančnejše – s čimer bo nevtralizirana njihova zmožnost predstavitve kakršnih koli resnih grožnje.

Microsoft je nedavno predstavil orodje za odkrivanje globokih ponaredkov, na primer, analizira videoposnetke, da vam ponudi oceno zaupanja, ki kaže, kako verjetno je, da je bil videoposnetek spremenjen.

»Deepfakes so nova oblika medijske manipulacije, vendar nismo prvič soočeni s tovrstnim izzivom. Raziskujemo in vlagamo v načine za reševanje sintetičnih medijev,« je povedal tiskovni predstavnik YouTuba.

Raziskovalci zadaj CtrlShiftLab, napredna programska oprema za ustvarjanje deepfake, ki jo uporabljajo številni uporabniki YouTuba, vključno s Ctrl Shift Face, je zdaj dela tudi v smeri odprtokodnih projektov za ozaveščanje in izgradnjo celovitejšega odkrivanja storitve.

»Edini način za preprečitev tega [zlorabe deepfake] je ustanovitev odprtokodnega projekta, povezanega z deepfakeom, in pritegniti pozornost javnosti. Tako lahko javni uporabniki interneta spoznajo, da globoke ponaredke obstajajo,« je za Digital Trends povedal Kunlin Liu, eden od raziskovalcev CtrlShiftLab.

Več ustvarjalcev globokih ponaredkov Digital Trends je govorilo, da ostanejo optimistični in menijo, da je odpor držav proti globokim ponaredkom preuranjen. Strinjajo se, da bo vse večja vloga deepfakea v kulturi memov in parodij ključnega pomena pri popravljanju klavrnega ugleda te nastajajoče tehnologije. In dokler imajo videoposnetki izjave o zavrnitvi odgovornosti in platforme vlagajo v učinkovitejše sloje zaznavanja, so dodali, globoke ponaredke ostajajo.

»Mislim, da se ugled globokih ponaredkov znatno izboljšuje. Pred dvema letoma je beseda deepfake samodejno pomenila pornografijo,« je povedal ustvarjalec Ctrl Shift Face. "Zdaj večina ljudi pozna deepfake zaradi teh zabavnih videoposnetkov, ki krožijo po internetu."

Priporočila urednikov

  • Nagrade Digital Trends Tech For Change CES 2023
  • V smešnem projektu Gucciberg globoko ponarejeni Gucci Mane bere klasične romane
  • Kako umetniki in aktivisti uporabljajo deepfake kot silo za dobro
  • Twitter pred volitvami leta 2020 prepoveduje globoke ponaredke, ki 'povzročajo škodo'
  • Kalifornija zatira globoke ponaredke za politiko in pornografijo