Într-un videoclip recent lansat, ceea ce pare a fi un încordat Brett Kavanaugh vorbește în fața membrilor Congresului Statelor Unite. „Este timpul să clarificăm recordul”, începe el. În următoarele câteva minute, judecătorul Curții Supreme admite că este posibil să fi comis agresiune sexuală și își exprimă remușcare pentru modul în care a răspuns la acuzațiile lui Christine Blasey Ford mărturie. „Pentru asta, îmi asum responsabilitatea și îmi cer scuze.”
Ideea este că această scenă nu este reală. Filmările sunt falsificate, iar Kavanaugh nu a spus niciodată acele lucruri.
Cuprins
- Deepfake până când reușești
- Mai mult decât meme și dezinformare
- Înclinarea cântarului
Și dacă Brett Kavanaugh ar fi avut un socoteală? | Cutie de prânz infinită
În realitate, Kavanaugh a negat și a ignorat acuzațiile și a jucat rolul victimei. Videoclipul descris mai sus este dintr-o serie de clipuri falsificate care vizează un viitor în care publicul divizionar figuri precum Kavanaugh, Alex Jones și Mark Zuckerberg își asumă responsabilitatea pentru trecutul lor abaterile.
Videoclipuri recomandate
Seria, intitulată Socoteli profunde, este creația lui Stephanie Lepp — o artistă care își propune să provoace schimbări pozitive în lume prin folosirea tehnologiei deepfake pentru a ajuta oamenii să vadă și să-și imagineze versiuni mai bune ale lor.
Este un proiect înalt și oarecum abstract, dar Lepp nu este singura în eforturile ei. Face parte dintr-o ligă în creștere de creatori care își propun să folosească tehnologia deepfake pentru a face bine.
Deepfake până când reușești
Deepfake-urile au avut o călătorie controversată până acum. Tehnologia a fost folosită pe scară largă în scopuri nefaste, cum ar fi crearea de pornografie și campanii de dezinformare, ceea ce a adus-o sub o atenție atentă atât din partea guvernelor, cât și a companiilor tehnologice care se tem de tehnologie armonizarea.
„Având în vedere că majoritatea covârșitoare a deepfake-urilor sunt de natură nefastă, este de înțeles că ne-am concentrat pe armonizarea lor”, spune Lepp. „Dar această concentrare ne-a împiedicat să realizăm potențialul lor prosocial. În mod specific, deepfake-urile pot fi folosite în scopuri de educație, sănătate și schimbare socială.”
![Stephanie Lepp](/f/7150cdfd4a57abc2c53d5571efebd5c4.jpg)
Ea susține că, similar cu modul în care realitatea virtuală a fost folosită pentru a ajuta pacienții să se recupereze după leziuni cerebrale lăsându-le să interacționeze cu amintirile virtuale, deepfake-urile pot fi folosite pentru vindecarea psihologică a traumei victime. De exemplu, imaginați-vă un scenariu în care medicii ar putea scrie deepfake-uri ale viitorului sobru al unui dependent și să le folosească pentru a-l încuraja pe calea recuperării.
Conceptul, cel puțin în teorie, este solid. Jonathan Gratch, director de cercetare umană virtuală la Institutul pentru Tehnologii Creative al Universității din California de Sud, a descoperit că a te vedea în VR poate fi foarte motivant și că același concept ar putea fi aplicat cu ușurință la deepfake filmare. El sugerează că, dacă fața unui pacient a fost amestecată subtil cu fața medicului său, pacientul ar fi mai probabil să urmeze sfatul medicului.
Mai mult decât meme și dezinformare
În ciuda faptului că aplicațiile negative ale deepfake-urilor tind să atragă mai multă atenție, aplicațiile pozitive precum cele ale lui Lepp sunt în creștere. În ultimii doi ani, tehnologia a făcut apariții în domeniile povestirii, proiectelor prosociale și multe altele.
Project Revoice: Ajutând acest fondator al Ice Bucket Challenge să-și reia vocea de la ALS
Asociația ALS Proiect Revoice, de exemplu, permite pacienților cu scleroză laterală amiotrofică care și-au pierdut capacitatea de a vorbi să continue să-și folosească vocea. Cum? Folosind deepfakes pentru a crea piese vocale sintetice personalizate care pot fi redate la cerere cu o placă de sunet.
Într-un proiect separat de organizația nonprofit antimalarie Malaria trebuie să moară, Atletul celebru David Beckham a transmis un mesaj în nouă limbi (și voci) diferite datorită sunetului și videoului falsificat care i-au făcut buzele să se potrivească cu cuvintele.
David Beckham vorbește nouă limbi pentru a lansa Petiția vocală a Malaria Must Die
Într-o campanie deosebit de izbitoare de la începutul anului 2020, The Centrul pentru Virtualitate Avansată al Institutului de Tehnologie din Massachusetts a căutat să educe publicul cu privire la dezinformare prin producerea unui deepfake al fostului președinte al SUA Richard M. Nixon a rostit discursul de urgență scris în 1969 în cazul în care echipajul Apollo 11 nu s-a putut întoarce de pe Lună.
Aceste tipuri de anunțuri de serviciu public și campanii de conștientizare sunt doar vârful aisbergului. Instrumentele deepfake au ajutat, de asemenea, la simplificarea proceselor din industria divertismentului care altfel solicită echipamente de ultimă generație și resurse consumatoare de timp, cum ar fi de-aging, clonarea vocii și multe Mai mult. Fiecare chip într-un videoclip muzical recent de The Strokes a fost fals, de exemplu, astfel încât membrii trupei în vârstă de aproximativ 40 de ani arăta că ar avea 20 de ani.
Ohad Fried, lector superior de informatică la Centrul Interdisciplinar Herzliya din Israel, spune că mulțumită deepfake-urilor, „ceea ce obișnuia să dureze ani de timp artist poate fi acum realizat de mici independente garsoniere. Aceasta este întotdeauna o veste bună pentru diversitatea și calitatea mass-media pe care le consumăm.”
Înclinarea cântarului
In orice caz, potențialul tehnologiei deepfake de a face rău – mai ales că devine mai accesibil – rămâne o preocupare. Aviv Ovadya, fondatorul Thoughtful Technology Project, este de acord că capacitatea de a crea medii sintetice poate avea „numeroase pozitive impact, pentru povestiri, pentru cei cu dizabilități și prin permiterea unei comunicări mai fluide între limbi.” Dar in acelasi timp, el avertizează că există încă mult loc pentru rău atunci când tehnologia devine mainstream și trebuie făcută multă muncă pentru a le minimiza. riscuri.
„Chiar și aceste cazuri de utilizare pozitive pot duce în mod neintenționat la daune reale și semnificative”, a spus el pentru Digital Trends. „Fragmente din piese de artă care încearcă să creeze empatie pot fi, de asemenea, scoase din context și utilizate greșit.”
„Obiectivul ar trebui să fie de a construi această tehnologie într-un mod care să atenueze acele impacturi negative cât mai mult posibil.”
Experții au sunat în mod repetat pentru a canaliza mai multe resurse în programele de detectare și în liniile directoare oficiale de etică – deși intervenția legală ar putea ajunge să împiedice libertatea de exprimare. Dar nimeni nu este încă sigur în ce direcție vor lua în cele din urmă deepfake-urile. Ca orice tehnologie emergentă, va exista un punct în care deepfake-urile vor atinge un echilibru și responsabilitate va cădea în sarcina companiilor de tehnologie, a factorilor de decizie și a creatorilor pentru a se asigura că balanța rămâne înclinată spre partea bună.
Ovadya sugerează, de asemenea, limitarea accesibilității instrumentelor deepfake pentru mase până când cercetătorii sunt capabili să „Terminați unele dintre fortificațiile de care avem nevoie pentru a ne proteja societatea de potențialul negativ impacturi. Scopul ar trebui să fie de a construi această tehnologie într-un mod care să atenueze acele impacturi negative pe cât posibil, cel puțin.”
Deocamdată, însă, Lepp își va petrece timpul concentrându-se pe următorul ei protagonist deepfake: Donald Trump și discursul său de concesiune.
Recomandările editorilor
- Premiile Digital Trends Tech For Change CES 2023
- Atingerea finală: modul în care oamenii de știință le oferă roboților simțuri tactile asemănătoare oamenilor
- Noua baterie a IBM poate depăși litiu-ion și nu folosește minerale de conflict
- Așteptând în aripi: cum revoluționează dronele lupta împotriva foametei
- Stallone în Terminator 2? Cum un fars deepfake schimbă istoria cinematografiei