Naredite svet boljši kraj z uporabo Deepfakes

click fraud protection

V nedavno objavljenem videoposnetku se zdi, da je napet Brett Kavanaugh govori pred člani kongresa Združenih držav. "Čas je, da postavimo rekord," začne. V naslednjih nekaj minutah sodnik vrhovnega sodišča prizna, da je možno, da je zagrešil spolni napad in izraža obžalovanje zaradi načina, kako se je odzval na obtožbe Christine Blasey Ford v svojem pričevanje. "Za to prevzemam odgovornost in se opravičujem."

Stvar je v tem, da ta prizor ni resničen. Posnetek je prirejen in Kavanaugh teh stvari nikoli ni rekel.

Vsebina

  • Globoko ponarejajte, dokler vam ne uspe
  • Več kot memi in dezinformacije
  • Prevrnitev tehtnice

Kaj če bi Brett Kavanaugh imel obračun? | Infinite Lunchbox

V resnici je Kavanaugh zanikal obtožbe in jih ni upošteval ter igral žrtev. Zgoraj opisan videoposnetek je iz serije globoko ponarejenih posnetkov, ki predvidevajo prihodnost, v kateri se javnost deli osebe, kot so Kavanaugh, Alex Jones in Mark Zuckerberg, prevzamejo odgovornost za svojo preteklost pregrehe.

Priporočeni videoposnetki

Serija z naslovom Globoki obračuni, je zamisel Stephanie Lepp — umetnice, ki si prizadeva izzvati pozitivne spremembe v svetu z uporabo tehnologije deepfake, da bi ljudem pomagala videti in si predstavljati boljše različice sebe.

Gre za vzvišen in nekoliko abstrakten projekt, vendar Leppova ni sama v svojih prizadevanjih. Je del rastoče lige ustvarjalcev, ki želijo uporabljati tehnologijo deepfake za dobro delo.

Globoko ponarejajte, dokler vam ne uspe

Deepfakes so imeli doslej kontroverzno pot. Tehnologija se pogosto uporablja za zlobne namene, kot so ustvarjanje pornografije in dezinformacijske kampanje, zaradi česar je bila pod ostrim nadzorom tako vlad kot tehnoloških podjetij, ki se bojijo tehnologije oboroževanje.

»Glede na to, da je velika večina globokih ponaredkov zlobne narave, je razumljivo, da smo se osredotočili na njihovo orožje,« pravi Lepp. »Toda ta osredotočenost nam je preprečila, da bi uresničili njihov prosocialni potencial. Natančneje, deepfake se lahko uporabljajo za namene izobraževanja, zdravstva in družbenih sprememb.«

Stephanie Lepp
Stephanie Lepp

Trdi, da podobno kot se je virtualna resničnost uporabljala za pomoč bolnikom pri okrevanju po možganskih poškodbah ker jim omogočimo interakcijo z virtualnimi spomini, se lahko globoke ponaredke uporabijo za psihološko zdravljenje travm žrtve. Predstavljajte si na primer scenarij, v katerem bi lahko zdravniki napisali globoke ponaredke treznega prihodnjega jaza odvisnika in jih uporabili, da bi jih spodbudili na pot okrevanja.

Koncept je, vsaj v teoriji, dober. Jonathan Gratch, direktor virtualnih človeških raziskav na Inštitutu za kreativne tehnologije Univerze Južne Kalifornije, je ugotovil, da je videti sebe v VR lahko zelo motivirajoče in da bi isti koncept zlahka uporabili za deepfake posnetek. Predlaga, da bi bolnik bolj verjetno upošteval zdravnikov nasvet, če bi bil pacientov obraz subtilno pomešan z zdravnikovim obrazom.

Več kot memi in dezinformacije

Kljub dejstvu, da negativne aplikacije globokih ponaredkov običajno pritegnejo več pozornosti, so pozitivne aplikacije, kot je Leppova, v porastu. V zadnjih nekaj letih se je tehnologija pojavila na področjih pripovedovanja zgodb, prosocialnih projektov in še več.

Project Revoice: pomagati ustanovitelju Ice Bucket Challenge, da se vrne svoj glas iz ALS

Združenje ALS Projekt Revoice, na primer, omogoča bolnikom z amiotrofično lateralno sklerozo, ki so izgubili sposobnost govora, da še naprej uporabljajo svoj glas. kako Z uporabo globokih ponaredkov za ustvarjanje prilagojenih sintetičnih vokalnih skladb, ki jih je mogoče predvajati na zahtevo z zvočno ploščo.

V ločenem projektu neprofitne organizacije proti malariji Malarija mora umreti, Slavni športnik David Beckham je posredoval sporočilo v devetih različnih jezikih (in glasovih) zahvaljujoč globoko ponarejenemu zvoku in videu, zaradi katerega so se njegove ustnice ujemale z besedami.

David Beckham govori devet jezikov, da bi predstavil glasovno peticijo Malaria Must Die

V eni posebej osupljivi kampanji iz začetka leta 2020 je Center za napredno virtualnost Massachusetts Institute of Technology poskušal poučiti javnost o dezinformacijah s tem, da je izdal globoko ponaredek nekdanjega predsednika ZDA Richarda M. Nixon govori o nepredvidljivih dogodkih, napisanih leta 1969, v primeru, da se posadka Apolla 11 ne more vrniti z Lune.

Tovrstna javna obvestila in kampanje ozaveščanja so le vrh ledene gore. Orodja Deepfake so pripomogla tudi k poenostavitvi procesov v zabavni industriji, ki sicer zahtevajo vrhunsko opremo in zamudne vire, kot so odpravljanje staranja, kloniranje glasu in veliko več. Vsak obraz v a najnovejši glasbeni video skupine The Strokes je bil na primer ponarejen, tako da bi lahko približno 40-letni člani skupine izgledali, kot da jih imajo 20.

Ohad Fried, višji predavatelj računalništva na izraelskem interdisciplinarnem centru Herzliya, pravi, da zahvaljujoč deepfakes, »to, kar je nekoč trajalo leta umetnikov, lahko zdaj doseže neodvisni mali studii. To je vedno dobra novica za raznolikost in kakovost medijev, ki jih uporabljamo.«

Prevrnitev tehtnice

vendar potencial tehnologije deepfake, da povzroči škodo — zlasti ker postaja vse bolj dostopen — ostaja zaskrbljujoč. Aviv Ovadya, ustanovitelj projekta Thoughtful Technology Project, se strinja, da ima lahko zmožnost ustvarjanja sintetičnih medijev »številne pozitivne vplive, za pripovedovanje zgodb, za osebe s posebnimi potrebami in z omogočanjem bolj nemotene komunikacije med jeziki.« Toda hkrati, opozarja, da bo še vedno veliko prostora za škodo, ko bo tehnologija prešla na trg, in da je treba narediti veliko dela, da bi jih zmanjšali tveganja.

"Tudi ti pozitivni primeri uporabe lahko nenamerno povzročijo resnično in znatno škodo," je povedal za Digital Trends. "Odlomke iz umetniških del, ki poskušajo ustvariti empatijo, je mogoče tudi vzeti iz konteksta in zlorabiti."

"Cilj bi moral biti zgraditi to tehnologijo na način, ki čim bolj ublaži te negativne vplive."

Strokovnjaki so večkrat zatrobili za usmerjanje več sredstev v programe odkrivanja in uradne etične smernice – čeprav bi pravni poseg lahko na koncu oviral svobodo govora. Toda nihče še ni povsem prepričan o tem, v katero smer bodo globoki ponaredki na koncu šli. Kot katera koli nastajajoča tehnologija bo prišla točka, ko bodo globoke ponaredke dosegle ravnovesje in odgovornost bo padlo na tehnološka podjetja, oblikovalce politik in ustvarjalce, da bi zagotovili, da bo tehtnica ostala nagnjena na dobro stran.

Ovadya predlaga tudi omejitev dostopnosti orodij deepfake za množice, dokler raziskovalci tega ne bodo sposobni »dokončati nekaj utrdb, ki jih potrebujemo za zaščito naše družbe pred morebitnim negativnim vplivi. Cilj bi moral biti zgraditi to tehnologijo na način, ki vsaj v največji možni meri ublaži te negativne vplive.«

Za zdaj pa se bo Lepp posvetila svojemu naslednjemu protagonistu deepfake: Donaldu Trumpu in njegovemu govoru o popuščanju.

Priporočila urednikov

  • Nagrade Digital Trends Tech For Change CES 2023
  • Končni dotik: Kako znanstveniki dajejo robotom človeška otipna čutila
  • IBM-ova nova baterija morda prekaša litij-ionsko in ne uporablja konfliktnih mineralov
  • Čakanje na svoja vrata: Kako droni revolucionirajo boj proti lakoti
  • Stallone v Terminatorju 2? Kako en deepfake šaljivec spreminja zgodovino kinematografije