Urobte zo sveta lepšie miesto pomocou Deepfakes

V nedávno zverejnenom videu to, čo sa zdá byť napäté, Brett Kavanaugh hovorí pred členmi Kongresu Spojených štátov. "Je čas uviesť rekord na pravú mieru," začína. Počas niekoľkých nasledujúcich minút sudca Najvyššieho súdu pripúšťa, že je možné, že sa dopustil sexuálneho napadnutia a vyjadruje ľútosť nad tým, ako reagoval na obvinenia Christine Blasey Fordovej vo svojom svedectvo. "Za to beriem zodpovednosť a ospravedlňujem sa."

Ide o to, že táto scéna nie je skutočná. Záznam je upravený a Kavanaugh tieto veci v skutočnosti nikdy nepovedal.

Obsah

  • Predstierajte to, kým sa vám to nepodarí
  • Viac ako memy a dezinformácie
  • Preklápanie váh

Čo keby mal Brett Kavanaugh zúčtovanie? | Nekonečný obedár

V skutočnosti Kavanaugh poprel a ignoroval obvinenia a hral sa na obeť. Vyššie popísané video pochádza zo série hlboko falošných klipov, ktoré si predstavujú budúcnosť, kde verejnosť rozdelí postavy ako Kavanaugh, Alex Jones a Mark Zuckerberg preberajú zodpovednosť za svoju minulosť prehrešky.

Odporúčané videá

Séria s názvom Hlboké účty, je duchovným dieťaťom Stephanie Leppovej – umelkyne, ktorej cieľom je vyvolať pozitívnu zmenu vo svete pomocou technológie deepfake, ktorá ľuďom pomôže vidieť a predstaviť si lepšie verzie seba samých.

Je to vznešený a trochu abstraktný projekt, ale Lepp nie je vo svojom úsilí sama. Je súčasťou rastúcej ligy autorov, ktorých cieľom je používať technológiu deepfake na robenie dobra.

Predstierajte to, kým sa vám to nepodarí

Deepfakes mali doteraz kontroverznú cestu. Táto technológia bola široko používaná na hanebné účely, ako je vytváranie pornografie a dezinformačné kampane, čo ho dostalo pod ostrú kontrolu zo strany vlád aj technologických spoločností, ktoré sa obávajú technológie zbrojenie.

„Vzhľadom na to, že drvivá väčšina hlbokých falzifikátov je svojou povahou hanebná, je pochopiteľné, že sme sa zamerali na ich zbrojenie,“ hovorí Lepp. „Toto zameranie nám však zabránilo realizovať ich prosociálny potenciál. Konkrétne, deepfakes možno použiť na účely vzdelávania, zdravia a sociálnych zmien.“

Stephanie Lepp
Stephanie Lepp

Tvrdí, že podobne ako virtuálna realita bola použitá na pomoc pacientom zotaviť sa z poranení mozgu ak im umožníte interakciu s virtuálnymi spomienkami, deepfakes sa dajú využiť na psychologické liečenie traumy obetí. Predstavte si napríklad scenár, v ktorom by lekári mohli napísať hlboké falošné predstavy o triezvom budúcom ja narkomana a použiť to na povzbudenie na ceste k uzdraveniu.

Koncept, aspoň teoreticky, je dobrý. Jonathan Gratch, riaditeľ výskumu virtuálnych ľudí na Inštitúte kreatívnych technológií Univerzity v južnej Kalifornii, zistil, že vidieť seba vo VR môže byť veľmi motivujúce a že rovnaký koncept možno ľahko použiť aj na deepfake zábery. Tvrdí, že ak by bola tvár pacienta jemne začlenená do tváre jeho lekára, pacient by s väčšou pravdepodobnosťou poslúchol radu lekára.

Viac ako memy a dezinformácie

Napriek skutočnosti, že negatívne aplikácie deepfakes majú tendenciu získať viac pozornosti, pozitívne aplikácie, ako je Lepp's, sú na vzostupe. Za posledných pár rokov sa táto technológia objavila v oblasti rozprávania príbehov, prosociálnych projektov a ďalších.

Project Revoice: Pomáhame tomuto zakladateľovi Ice Bucket Challenge získať späť svoj hlas z ALS

Asociácia ALS Project Revoice, napríklad umožňuje pacientom s amyotrofickou laterálnou sklerózou, ktorí stratili schopnosť hovoriť, pokračovať v používaní hlasu. Ako? Pomocou deepfakes na vytvorenie prispôsobených syntetických vokálnych skladieb, ktoré možno na požiadanie prehrať pomocou zvukovej dosky.

V samostatnom projekte od neziskovej organizácie proti malárii Malária musí zomrieť, slávny atlét David Beckham doručil správu v deviatich rôznych jazykoch (a hlasoch) vďaka sfalšovanému zvuku a videu, vďaka ktorému sa jeho pery zhodovali so slovami.

David Beckham hovorí deviatimi jazykmi na spustenie hlasovej petície malária musí zomrieť

V jednej mimoriadne nápadnej kampani zo začiatku roka 2020, Centrum pre pokročilú virtualitu v Massachusetts Institute of Technology sa snažil vzdelávať verejnosť o dezinformáciách tým, že vytvoril hlboký falošný obraz bývalého prezidenta USA Richarda M. Nixon predniesol pohotovostný prejav napísaný v roku 1969 pre prípad, že by sa posádka Apolla 11 nemohla vrátiť z Mesiaca.

Tieto druhy verejných oznámení a kampaní na zvyšovanie povedomia sú len špičkou ľadovca. Nástroje Deepfake tiež pomohli zjednodušiť procesy v zábavnom priemysle vyžadujú špičkové vybavenie a časovo náročné zdroje, ako je starnutie, klonovanie hlasu a mnohé ďalšie viac. Každá tvár v a najnovšie hudobné video od The Strokes bol napríklad falošný, takže približne 40-roční členovia kapely by mohli vyzerať ako 20-roční.

Ohad Fried, hlavný lektor informatiky v izraelskom interdisciplinárnom centre Herzliya, hovorí, že vďaka deepfakes „to, čo kedysi trvalo umelcovi roky, môže teraz dosiahnuť nezávislý malý ateliéry. To je vždy dobrá správa pre rozmanitosť a kvalitu médií, ktoré konzumujeme.“

Preklápanie váh

však potenciál technológie deepfake škodiť – najmä keď sa stáva dostupnejším – zostáva problémom. Aviv Ovadya, zakladateľ projektu Thoughtful Technology Project, súhlasí s tým, že schopnosť vytvárať syntetické médiá môže mať „početné pozitívne vplyv na rozprávanie príbehov, pre ľudí so zdravotným postihnutím a tým, že umožňuje bezproblémovú komunikáciu medzi jazykmi.“ Ale v rovnakom čase, varuje, že stále existuje veľa priestoru na poškodenie, keď sa technológia dostane do hlavného prúdu, a treba urobiť veľa práce, aby sa to minimalizovalo riziká.

„Aj tieto pozitívne prípady použitia môžu neúmyselne viesť k skutočnej a významnej škode,“ povedal pre Digital Trends. "Úryvky z umeleckých diel, ktoré sa pokúšajú vytvoriť empatiu, môžu byť tiež vytrhnuté z kontextu a zneužité."

"Cieľom by malo byť vybudovať túto technológiu spôsobom, ktorý čo najviac zmierni tieto negatívne dopady."

Odborníci opakovane zatrúbili na to, aby nasmerovali viac zdrojov do detekčných programov a oficiálnych etických usmernení – hoci právny zásah by mohol skončiť obmedzovaním slobody prejavu. Ale zatiaľ si nikto nie je celkom istý, akým smerom sa deepfakes nakoniec uberú. Ako každá nová technológia, aj tu bude bod, v ktorom deepfakes dosiahnu rovnováhu a zodpovednosť padne na technologické spoločnosti, politikov a tvorcov, aby zabezpečili, že miska váh zostane naklonená na stranu dobra.

Ovadya tiež navrhuje obmedziť dostupnosť hlbokých falošných nástrojov pre masy, kým to výskumníci nedokážu „dokončiť niektoré z opevnení, ktoré potrebujeme na ochranu našej spoločnosti pred potenciálnym negatívom dopady. Cieľom by malo byť vybudovať túto technológiu spôsobom, ktorý aspoň čo najviac zmierni tieto negatívne dopady.“

Zatiaľ sa však Lepp bude sústrediť na svojho ďalšieho hlbokého hrdinu: Donalda Trumpa a jeho ústupkovú reč.

Odporúčania redaktorov

  • Ocenenia CES 2023 Tech For Change od Digital Trends
  • Finishing touch: Ako vedci dávajú robotom ľudské hmatové zmysly
  • Nová batéria IBM môže prekonať lítium-iónovú batériu a nepoužíva konfliktné minerály
  • Čakanie v krídlach: Ako drony prinášajú revolúciu v boji proti hladu
  • Stallone v Terminátorovi 2? Ako jeden deepfake vtipálek mení históriu kinematografie