Gør verden til et bedre sted ved at bruge Deepfakes

I en nyligt udgivet video taler det, der ser ud til at være en anspændt Brett Kavanaugh, foran medlemmer af den amerikanske kongres. "Det er tid til at sætte rekorden," begynder han. I løbet af de næste par minutter indrømmer højesteretsdommeren, at det er muligt, at han begik seksuelle overgreb og udtrykker anger over den måde, han reagerede på påstandene fra Christine Blasey Ford i sin vidnesbyrd. "For det tager jeg ansvar og undskylder."

Sagen er, at denne scene ikke er ægte. Optagelserne er behandlet, og Kavanaugh sagde faktisk aldrig de ting.

Indhold

  • Deepfake det, indtil du klarer det
  • Mere end memes og misinformation
  • Vipper vægten

Hvad hvis Brett Kavanaugh havde en regning? | Uendelig madkasse

I virkeligheden afviste og ignorerede Kavanaugh anklagerne og spillede offeret. Videoen beskrevet ovenfor er fra en serie dybt forfalskede klip, der forestiller sig en fremtid, hvor offentligheden er splittende figurer som Kavanaugh, Alex Jones og Mark Zuckerberg tager ansvar for deres fortid overtrædelser.

Anbefalede videoer

Serien med titlen Dybe opgørelser, er udtænkt af Stephanie Lepp - en kunstner, der har til formål at fremkalde positive forandringer i verden ved at udnytte deepfake-teknologi til at hjælpe folk med at se og forestille sig bedre versioner af sig selv.

Det er et ophøjet og lidt abstrakt projekt, men Lepp er ikke alene i sin indsats. Hun er en del af en voksende liga af skabere, der har til formål at bruge deepfake-teknologi til at gøre godt.

Deepfake det, indtil du klarer det

Deepfakes har hidtil haft en kontroversiel rejse. Teknologien er blevet brugt i vid udstrækning til ondsindede formål som pornografi og desinformationskampagner, hvilket har bragt det under skarpt lup fra både regeringer og teknologivirksomheder, der frygter teknologiens våbengørelse.

"I betragtning af, at det overvældende flertal af deepfakes er ufarlige i naturen, er det forståeligt, at vi har fokuseret på deres våbengørelse," siger Lepp. "Men dette fokus har forhindret os i at realisere deres prosociale potentiale. Specifikt kan deepfakes bruges til uddannelsesformål, sundhed og sociale forandringer."

Stephanie Lepp
Stephanie Lepp

Hun hævder, at i lighed med hvordan virtual reality er blevet brugt til at hjælpe patienter med at komme sig fra hjerneskader ved ved at lade dem interagere med virtuelle minder, kan deepfakes bruges til psykologisk helbredelse i traumer ofre. Forestil dig for eksempel et scenarie, hvor læger kunne skrive deepfakes af en misbrugers ædru fremtidige selv og bruge det til at opmuntre dem på vej mod bedring.

Konceptet er i det mindste i teorien forsvarligt. Jonathan Gratch, direktør for virtuel menneskelig forskning ved University of Southern California's Institute for Creative Technologies, har fundet ud af, at det kan være meget motiverende at se sig selv i VR, og at det samme koncept nemt kunne anvendes på deepfake optagelser. Han foreslår, at hvis en patients ansigt var subtilt blandet ind i deres læges ansigt, ville patienten være mere tilbøjelig til at følge lægens råd.

Mere end memes og misinformation

På trods af at negative applikationer af deepfakes har en tendens til at få mere opmærksomhed, er positive applikationer som Lepps stigende. Inden for de seneste par år har teknologien dukket op inden for historiefortælling, prosociale projekter og mere.

Project Revoice: Hjælper denne Ice Bucket Challenge-grundlægger med at tage sin stemme tilbage fra ALS

ALS-foreningens Projekt Revoice, for eksempel gør det muligt for patienter med amyotrofisk lateral sklerose, som har mistet deres evne til at tale, at fortsætte med at bruge deres stemme. Hvordan? Ved at bruge deepfakes til at skabe personlige syntetiske vokalspor, der kan afspilles på efterspørgsel med et soundboard.

I et separat projekt fra nonprofit antimalaria-organisationen Malaria skal dø, Den kendte atlet David Beckham leverede en besked på ni forskellige sprog (og stemmer) takket være dybt forfalsket lyd og video, der fik hans læber til at matche ordene.

David Beckham taler ni sprog for at lancere Malaria Must Die Voice Petition

I en særligt slående kampagne fra tidligere i 2020 Massachusetts Institute of Technologys Center for Advanced Virtuality forsøgte at oplyse offentligheden om misinformation ved at producere en dyb falsk forfalskning af den tidligere amerikanske præsident Richard M. Nixon holdt beredskabstalen skrevet i 1969 i tilfælde af, at Apollo 11-besætningen ikke var i stand til at vende tilbage fra månen.

Den slags public service-meddelelser og oplysningskampagner er kun toppen af ​​isbjerget. Deepfake værktøjer har også været med til at forenkle processer i underholdningsindustrien end ellers kræve avanceret udstyr og tidskrævende ressourcer, såsom de-aging, stemmekloning og meget mere. Hvert ansigt i en seneste musikvideo af The Strokes var for eksempel falsk, så bandets omkring 40-årige medlemmer ser ud som om de er 20.

Ohad Fried, en lektor i datalogi ved Israels tværfaglige center Herzliya, siger, at takket være deepfakes, “det, der plejede at tage år af kunstnertid, kan nu opnås af selvstændige små studier. Dette er altid gode nyheder for mangfoldigheden og kvaliteten af ​​de medier, vi bruger."

Vipper vægten

Imidlertid, deepfake teknologis potentiale til at gøre skade - især efterhånden som det bliver mere tilgængeligt - er fortsat en bekymring. Aviv Ovadya, grundlægger af Thoughtful Technology Project, er enig i, at evnen til at skabe syntetiske medier kan have "mange positive påvirkninger, for historiefortælling, for personer med handicap og ved at muliggøre mere problemfri kommunikation på tværs af sprog." Men samtidig, han advarer om, at der stadig er meget plads til skade, når teknologien bliver mainstream, og der skal gøres meget arbejde for at minimere disse risici.

"Selv disse positive use cases kan utilsigtet føre til reel og betydelig skade," sagde han til Digital Trends. "Uddrag fra kunstværker, der forsøger at skabe empati, kan også tages ud af kontekst og misbruges."

"Målet bør være at bygge denne teknologi på en måde, der afbøder disse negative påvirkninger så meget som muligt."

Eksperter har gentagne gange slået på hornet for at kanalisere flere ressourcer til opdagelsesprogrammer og officielle etiske retningslinjer - selvom juridisk indgreb kan ende med at hæmme ytringsfriheden. Men ingen er endnu helt sikre på, hvilken retning deepfakes i sidste ende vil tage. Som enhver ny teknologi vil der være et punkt, hvor deepfakes vil nå en balance og ansvaret vil falde på tech-virksomheder, politiske beslutningstagere og skabere for at sikre, at vægten forbliver vippet mod den gode side.

Ovadya foreslår også at begrænse deepfake-værktøjers tilgængelighed for masserne, indtil forskerne er i stand til det "fuldfør nogle af de befæstninger, som vi har brug for for at beskytte vores samfund mod det potentielle negative påvirkninger. Målet bør være at bygge denne teknologi på en måde, der afbøder disse negative påvirkninger så meget som muligt i det mindste."

For nu vil Lepp dog bruge sin tid på at fokusere på sin næste dybfalske hovedperson: Donald Trump og hans koncessionstale.

Redaktørens anbefalinger

  • Digital Trends' Tech For Change CES 2023 Awards
  • Prikken over i'et: Hvordan videnskabsmænd giver robotter menneskelignende taktile sanser
  • IBMs nye batteri kan overgå lithium-ion, og det bruger ikke konfliktmineraler
  • Venter i vingerne: Hvordan droner revolutionerer kampen mod sult
  • Stallone i Terminator 2? Hvordan en deepfake prankster ændrer biografhistorien