U nedavno objavljenom videu, čini se da je napeti Brett Kavanaugh govori pred članovima Kongresa Sjedinjenih Država. “Vrijeme je da ispravimo sve”, počinje on. Tijekom sljedećih nekoliko minuta, sudac Vrhovnog suda priznaje da je moguće da je počinio seksualni napad te izražava kajanje zbog načina na koji je odgovorio na optužbe Christine Blasey Ford u svom svjedočanstvo. "Za to preuzimam odgovornost i ispričavam se."
Stvar je u tome što ova scena nije stvarna. Snimka je lažirana, a Kavanaugh zapravo nikada nije rekao te stvari.
Sadržaj
- Laži dok ne uspiješ
- Više od memea i dezinformacija
- Prevrnuti vagu
Što ako je Brett Kavanaugh imao računicu? | Infinite Lunchbox
U stvarnosti, Kavanaugh je negirao i zanemario optužbe i glumio žrtvu. Gore opisani video je iz niza deepfaked isječaka koji predviđaju budućnost koja izaziva podjele u javnosti ličnosti poput Kavanaugha, Alexa Jonesa i Marka Zuckerberga preuzimaju odgovornost za svoju prošlost prijestupe.
Preporučeni videozapisi
Serija pod nazivom Duboki obračuni
, zamisao je Stephanie Lepp — umjetnice koja ima za cilj izazvati pozitivne promjene u svijetu koristeći tehnologiju deepfake kako bi pomogla ljudima da vide i zamisle bolje verzije sebe.To je uzvišen i pomalo apstraktan projekt, ali Lepp nije sama u svojim nastojanjima. Ona je dio rastuće lige kreatora koji imaju za cilj koristiti tehnologiju deepfake da bi činili dobro.
Laži dok ne uspiješ
Deepfakes je do sada imao kontroverzan put. Tehnologija se naširoko koristila u opake svrhe poput stvaranja pornografije i kampanja dezinformiranja, što ju je dovelo pod oštru pozornost i vlada i tehnoloških tvrtki koje se boje tehnologije naoružavanje.
“S obzirom na to da je velika većina deepfakeova opake prirode, razumljivo je da smo se usredotočili na njihovo predstavljanje oružjem”, kaže Lepp. “Ali ovaj fokus nas je spriječio da ostvarimo njihov prosocijalni potencijal. Konkretno, deepfakeovi se mogu koristiti u svrhu obrazovanja, zdravlja i društvenih promjena.”
Ona tvrdi da, slično kao što se virtualna stvarnost koristi za pomoć pacijentima u oporavku od ozljeda mozga dopuštajući im interakciju s virtualnim sjećanjima, deepfake se mogu koristiti za psihološko iscjeljivanje traume žrtve. Na primjer, zamislite scenarij u kojem bi liječnici mogli skriptirati deepfakeove trezvenog budućeg ja ovisnika i upotrijebiti to da ih potaknu na put oporavka.
Koncept je, barem u teoriji, dobar. Jonathan Gratch, direktor virtualnog istraživanja ljudi na Institutu za kreativne tehnologije Sveučilišta Južne Kalifornije, je otkrio da vidjeti sebe u VR-u može biti vrlo motivirajuće i da se isti koncept lako može primijeniti na deepfake snimka. On sugerira da bi bilo vjerojatnije da će pacijent poslušati liječnikov savjet ako je lice pacijenta suptilno uklopljeno u lice njegovog liječnika.
Više od memea i dezinformacija
Unatoč činjenici da negativne primjene deepfakeova imaju tendenciju da privuku više pažnje, pozitivne aplikacije poput Leppovih su u porastu. U proteklih nekoliko godina tehnologija se pojavila u područjima pripovijedanja, prosocijalnih projekata itd.
Project Revoice: Pomaganje osnivaču Ice Bucket Challengea da vrati svoj glas nakon ALS-a
Udruga za ALS Projekt Revoice, na primjer, omogućuje pacijentima s amiotrofičnom lateralnom sklerozom koji su izgubili sposobnost govora da nastave koristiti svoj glas. Kako? Korištenjem deepfakea za stvaranje personaliziranih sintetičkih vokalnih pjesama koje se mogu reproducirati na zahtjev pomoću zvučne ploče.
U zasebnom projektu neprofitne organizacije za borbu protiv malarije Malarija mora umrijeti, Slavni sportaš David Beckham isporučio je poruku na devet različitih jezika (i glasova) zahvaljujući deepfaked audio i videu koji su njegove usne uskladili s riječima.
David Beckham govori devet jezika kako bi pokrenuo glasovnu peticiju Malaria Must Die
U jednoj posebno upečatljivoj kampanji s početka 2020., Centar za naprednu virtualnost Massachusetts Institute of Technology pokušao je educirati javnost o dezinformacijama stvaranjem deepfakea bivšeg predsjednika SAD-a Richarda M. Nixon drži govor za slučaj opasnosti napisan 1969. u slučaju da se posada Apolla 11 ne može vratiti s Mjeseca.
Ovakve objave javnih službi i kampanje podizanja svijesti samo su vrh ledenog brijega. Deepfake alati također su pomogli pojednostaviti procese u industriji zabave zahtijevaju vrhunsku opremu i dugotrajne resurse, kao što su uklanjanje starenja, kloniranje glasa i mnogo toga više. Svako lice u a nedavni glazbeni video od The Strokes bio je lažan, na primjer, tako da članovi benda od oko 40 godina mogu izgledati kao da im je 20.
Ohad Fried, viši predavač informatike u Izraelskom interdisciplinarnom centru Herzliya, kaže da zahvaljujući deepfakeovima, “ono za što su prije bile potrebne godine vremena umjetnika sada mogu postići nezavisni mali studija. To je uvijek dobra vijest za raznolikost i kvalitetu medija koje konzumiramo.”
Prevrnuti vagu
Međutim, potencijal tehnologije deepfake da nanese štetu — pogotovo kako postaje dostupniji — ostaje problem. Aviv Ovadya, osnivač Thoughtful Technology Project, slaže se da sposobnost stvaranja sintetičkih medija može imati “brojne pozitivne utjecaja, za pripovijedanje, za osobe s invaliditetom i omogućavanjem besprijekornije komunikacije na različitim jezicima.” Ali u isto vrijeme, upozorava da će još uvijek biti puno prostora za štetu kada tehnologija postane mainstream i potrebno je učiniti mnogo posla kako bi se to svelo na najmanju moguću mjeru. rizicima.
"Čak i ovi pozitivni slučajevi upotrebe mogu nenamjerno dovesti do stvarne i značajne štete", rekao je za Digital Trends. "Ulomci iz umjetničkih djela koji pokušavaju stvoriti empatiju također se mogu izvući iz konteksta i zloupotrijebiti."
"Cilj bi trebao biti izgraditi ovu tehnologiju na način koji umanjuje te negativne utjecaje što je više moguće."
Stručnjaci su opetovano zatrubili za usmjeravanje više resursa u programe detekcije i službene etičke smjernice - iako bi pravna intervencija mogla na kraju ometati slobodu govora. Ali još nitko nije sasvim siguran u kojem smjeru će deepfakeovi na kraju krenuti. Kao i svaka tehnologija u nastajanju, postojat će točka u kojoj će deepfakes postići ravnotežu i odgovornost pasti će na tehnološke tvrtke, kreatore politika i kreatore kako bi osigurali da vaga ostane nagnuta na dobru stranu.
Ovadya također predlaže ograničavanje dostupnosti alata deepfake za mase dok istraživači to ne budu mogli “dovršiti neke od utvrda koje su nam potrebne kako bismo zaštitili naše društvo od potencijalnog negativnog utjecaji. Cilj bi trebao biti izgraditi ovu tehnologiju na način koji umanjuje te negativne utjecaje što je više moguće.”
Za sada će, međutim, Lepp provesti svoje vrijeme fokusirajući se na svog sljedećeg protagonista deepfakea: Donalda Trumpa i njegov govor o ustupku.
Preporuke urednika
- Nagrade Digital Trends Tech For Change CES 2023
- Završni dodir: Kako znanstvenici daju robotima ljudska osjetila za dodir
- IBM-ova nova baterija mogla bi biti bolja od litij-ionske, a ne koristi konfliktne minerale
- Čekanje na kraj: Kako dronovi revolucionariziraju bitku protiv gladi
- Stallone u Terminatoru 2? Kako jedan deepfake šaljivdžija mijenja povijest kina