I en nylig utgitt video snakker det som ser ut til å være en spent Brett Kavanaugh foran medlemmer av USAs kongress. "Det er på tide å sette rekorden," begynner han. I løpet av de neste minuttene innrømmer høyesterettsdommer at det er mulig at han begikk seksuelle overgrep og uttrykker anger for måten han reagerte på påstandene fra Christine Blasey Ford i sin vitnesbyrd. "For det tar jeg ansvar og jeg beklager."
Saken er at denne scenen ikke er ekte. Opptaket er behandlet, og Kavanaugh sa faktisk aldri disse tingene.
Innhold
- Deepfake det til du klarer det
- Mer enn memer og feilinformasjon
- Tipper vekten
Hva om Brett Kavanaugh hadde et oppgjør? | Uendelig matboks
I virkeligheten benektet og ignorerte Kavanaugh anklagene og spilte offeret. Videoen beskrevet ovenfor er fra en serie dyptfalskede klipp som ser for seg en fremtid hvor offentligheten er splittende skikkelser som Kavanaugh, Alex Jones og Mark Zuckerberg tar ansvar for sin fortid overtredelser.
Anbefalte videoer
Serien, med tittelen Deep Reckonings
, er hjernebarnet til Stephanie Lepp - en kunstner som har som mål å fremkalle positiv endring i verden ved å utnytte dypfalsk teknologi for å hjelpe folk å se og forestille seg bedre versjoner av seg selv.Det er et høyt og litt abstrakt prosjekt, men Lepp er ikke alene om sin innsats. Hun er en del av en voksende liga av skapere som har som mål å bruke dypfalsk teknologi for å gjøre godt.
Deepfake det til du klarer det
Deepfakes har hatt en kontroversiell reise så langt. Teknologien har blitt brukt mye til ondsinnede formål som pornografi og desinformasjonskampanjer, som har brakt den under skarp gransking fra både myndigheter og teknologiselskaper som frykter teknologiens bevæpning.
"Gitt at det overveldende flertallet av deepfakes er ondskapsfulle av natur, er det forståelig at vi har fokusert på deres våpen," sier Lepp. "Men dette fokuset har hindret oss i å realisere deres prososiale potensiale. Spesielt kan deepfakes brukes til formål med utdanning, helse og sosial endring."
Hun argumenterer for at, i likhet med hvordan virtuell virkelighet har blitt brukt til å hjelpe pasienter med å komme seg fra hjerneskader ved ved å la dem samhandle med virtuelle minner, kan deepfakes brukes for psykologisk helbredelse ved traumer ofre. Tenk deg for eksempel et scenario der leger kan skrive ut dype forfalskninger av en rusavhengigs nøkterne fremtidige selv og bruke det til å oppmuntre dem til å komme seg tilbake.
Konseptet, i det minste i teorien, er forsvarlig. Jonathan Gratch, direktør for virtuell menneskelig forskning ved University of South Californias Institute for Creative Technologies, har funnet ut at det å se deg selv i VR kan være svært motiverende, og at det samme konseptet lett kan brukes på deepfake opptakene. Han foreslår at hvis en pasients ansikt ble subtilt blandet inn i legens ansikt, ville pasienten være mer sannsynlig å følge legens råd.
Mer enn memer og feilinformasjon
Til tross for at negative applikasjoner av deepfakes har en tendens til å få mer oppmerksomhet, er positive applikasjoner som Lepps på vei oppover. I løpet av de siste par årene har teknologien dukket opp innen historiefortelling, prososiale prosjekter og mer.
Project Revoice: Hjelper denne Ice Bucket Challenge-grunnleggeren med å ta stemmen tilbake fra ALS
ALS-foreningens Prosjekt Revoice, for eksempel gjør det mulig for pasienter med amyotrofisk lateral sklerose som har mistet evnen til å snakke, å fortsette å bruke stemmen. Hvordan? Ved å bruke deepfakes for å lage personlig tilpassede syntetiske vokalspor som kan spilles på forespørsel med en lydplanke.
I et eget prosjekt fra den ideelle organisasjonen mot malaria Malaria må dø, kjendisidrettsutøveren David Beckham leverte en melding på ni forskjellige språk (og stemmer) takket være dypt forfalsket lyd og video som fikk leppene hans til å matche ordene.
David Beckham snakker ni språk for å lansere Malaria Must Die Voice Petition
I en spesielt slående kampanje fra tidligere i 2020 Massachusetts Institute of Technologys senter for avansert virtualitet forsøkte å utdanne offentligheten om feilinformasjon ved å produsere en dyp fake av den tidligere amerikanske presidenten Richard M. Nixon holdt beredskapstalen skrevet i 1969 i tilfelle Apollo 11-mannskapet ikke var i stand til å returnere fra månen.
Slike offentlige kunngjøringer og bevisstgjøringskampanjer er bare toppen av isfjellet. Deepfake-verktøy har også bidratt til å forenkle prosesser i underholdningsindustrien enn ellers krever avansert utstyr og tidkrevende ressurser, som avaldring, stemmekloning og mye mer. Hvert ansikt i en nylig musikkvideo av The Strokes var for eksempel falsk, slik at bandets rundt 40 år gamle medlemmer ser ut som om de er 20.
Ohad Fried, seniorlektor i informatikk ved Israels tverrfaglige senter Herzliya, sier at takket være deepfakes, «det som pleide å ta år med artisttid kan nå oppnås av uavhengige små studioer. Dette er alltid gode nyheter for mangfoldet og kvaliteten på mediene vi bruker.»
Tipper vekten
Derimot, deepfake-teknologiens potensial til å gjøre skade - spesielt ettersom det blir mer tilgjengelig - er fortsatt en bekymring. Aviv Ovadya, grunnlegger av Thoughtful Technology Project, er enig i at evnen til å lage syntetiske medier kan ha "mange positive virkninger, for historiefortelling, for funksjonshemmede, og ved å muliggjøre mer sømløs kommunikasjon på tvers av språk.» Men samtidig, han advarer om at det fortsatt er mye rom for skade når teknologien blir mainstream og mye arbeid som må gjøres for å minimere disse risikoer.
"Selv disse positive brukstilfellene kan utilsiktet føre til reell og betydelig skade," sa han til Digital Trends. "Utdrag fra kunstverk som forsøker å skape empati kan også tas ut av kontekst og misbrukes."
"Målet bør være å bygge denne teknologien på en måte som reduserer de negative konsekvensene så mye som mulig."
Eksperter har gjentatte ganger slått på hornet for å kanalisere flere ressurser til oppdagelsesprogrammer og offisielle etiske retningslinjer - selv om juridisk inngripen kan ende opp med å hemme ytringsfriheten. Men ingen er helt sikre ennå på hvilken retning deepfakes til slutt vil ta. Som enhver fremvoksende teknologi, vil det være et punkt hvor dype falske vil nå en balanse og ansvaret vil falle på teknologiselskaper, beslutningstakere og skapere for å sikre at vekten forblir tippet mot den gode siden.
Ovadya foreslår også å begrense deepfake-verktøyets tilgjengelighet for massene til forskere er i stand til det «Fullfør noen av befestningene vi trenger for å beskytte samfunnet vårt mot det potensielle negative innvirkninger. Målet bør være å bygge denne teknologien på en måte som reduserer de negative konsekvensene så mye som mulig i det minste."
Foreløpig vil Lepp imidlertid bruke tiden sin på å fokusere på sin neste dypfalske hovedperson: Donald Trump og hans konsesjonstale.
Redaktørenes anbefalinger
- Digital Trends' Tech For Change CES 2023 Awards
- Finishing touch: Hvordan forskere gir roboter menneskelignende taktile sanser
- IBMs nye batteri kan overgå litium-ion, og det bruker ikke konfliktmineraler
- Waiting in the wings: Hvordan droner revolusjonerer kampen mot sult
- Stallone i Terminator 2? Hvordan en deepfake skøyer endrer kinohistorien