Udělejte ze světa lepší místo pomocí Deepfakes

V nedávno zveřejněném videu to, co se zdá být napjaté, Brett Kavanaugh hovoří před členy Kongresu Spojených států. "Je čas uvést rekord na pravou míru," začíná. Během několika příštích minut soudce Nejvyššího soudu připouští, že je možné, že se dopustil sexuálního napadení a vyjadřuje lítost nad tím, jak reagoval na obvinění Christine Blasey Fordové ve svém svědectví. "Za to přebírám zodpovědnost a omlouvám se."

Věc je, že tato scéna není skutečná. Záběry jsou zfalšované a Kavanaugh tyto věci ve skutečnosti nikdy neřekl.

Obsah

  • Předstírejte to, dokud to nezvládnete
  • Více než memy a dezinformace
  • Překlápění vah

Co kdyby měl Brett Kavanaugh zúčtování? | Nekonečný obědový box

Ve skutečnosti Kavanaugh obvinění popřel a ignoroval a hrál oběť. Výše popsané video pochází ze série hluboce falešných klipů, které si představují budoucnost, kde veřejnost rozděluje postavy jako Kavanaugh, Alex Jones a Mark Zuckerberg přebírají odpovědnost za svou minulost prohřešky.

Doporučená videa

Série s názvem Hluboké zúčtování

, je duchovním dítětem Stephanie Leppové – umělkyně, která si klade za cíl vyvolat pozitivní změnu ve světě pomocí technologie deepfake, která lidem pomůže vidět a představit si lepší verze sebe sama.

Je to vznešený a poněkud abstraktní projekt, ale Lepp není ve svém úsilí sama. Je součástí rostoucí ligy tvůrců, jejichž cílem je používat technologii deepfake ke konání dobra.

Předstírejte to, dokud to nezvládnete

Deepfakes měli zatím kontroverzní cestu. Tato technologie byla široce používána pro hanebné účely, jako je tvorba pornografie a dezinformační kampaně, což ji přivedlo pod ostrou kontrolu ze strany vlád i technologických společností, které se obávají této technologie zbrojení.

„Vzhledem k tomu, že drtivá většina deepfakes je svou povahou hanebná, je pochopitelné, že jsme se zaměřili na jejich zbraně,“ říká Lepp. "Ale toto zaměření nám zabránilo realizovat jejich prosociální potenciál." Konkrétně deepfakes lze použít pro účely vzdělávání, zdraví a sociálních změn.“

Stephanie Lepp
Stephanie Lepp

Tvrdí, že podobně jako virtuální realita byla použita k pomoci pacientům zotavit se z poranění mozku Pokud je necháte interagovat s virtuálními vzpomínkami, lze deepfakes využít k psychologickému léčení traumatu obětí. Představte si například scénář, ve kterém by lékaři mohli nakreslit hluboké padělky o střízlivém budoucím já závislého a použít je k povzbuzení na cestě k uzdravení.

Koncept, alespoň teoreticky, je správný. Jonathan Gratch, ředitel výzkumu virtuálních lidí na Institutu pro kreativní technologie University of Southern California, zjistil, že vidět sebe ve VR může být vysoce motivující a že stejný koncept lze snadno aplikovat na deepfake záběry. Navrhuje, že pokud by byla tvář pacienta nenápadně sladěna s obličejem jeho lékaře, pacient by se s větší pravděpodobností řídil radou lékaře.

Více než memy a dezinformace

Navzdory skutečnosti, že negativní aplikace deepfakes mají tendenci získat více pozornosti, pozitivní aplikace, jako je Lepp's, jsou na vzestupu. Během posledních několika let se tato technologie objevila v oblasti vyprávění příběhů, prosociálních projektů a dalších.

Project Revoice: Pomáháme tomuto zakladateli Ice Bucket Challenge získat zpět svůj hlas z ALS

Asociace ALS Projekt Revoice, například umožňuje pacientům s amyotrofickou laterální sklerózou, kteří ztratili schopnost mluvit, nadále používat svůj hlas. Jak? Pomocí deepfakes k vytvoření personalizovaných syntetických vokálních stop, které lze na požádání přehrávat pomocí zvukové desky.

V samostatném projektu neziskové organizace proti malárii Malárie musí zemřít, slavný sportovec David Beckham doručil zprávu v devíti různých jazycích (a hlasech) díky hluboce zfalšovanému zvuku a videu, díky kterému jeho rty odpovídaly slovům.

David Beckham mluví devíti jazyky, aby zahájil hlasovou petici na malárie musí zemřít

V jedné obzvláště pozoruhodné kampani ze začátku roku 2020 Centrum pro pokročilou virtualitu Massachusetts Institute of Technology snažil se vzdělávat veřejnost o dezinformacích tím, že vytvořil deepfake bývalého prezidenta USA Richarda M. Nixon přednesl pohotovostní projev napsaný v roce 1969 pro případ, že by se posádka Apolla 11 nemohla vrátit z Měsíce.

Tyto druhy oznámení veřejné služby a informačních kampaní jsou jen špičkou ledovce. Nástroje Deepfake také pomohly zjednodušit procesy v zábavním průmyslu vyžadují špičkové vybavení a časově náročné zdroje, jako je de-aging, klonování hlasu a mnoho dalšího více. Každá tvář v a nedávné hudební video od The Strokes byl například falešný, takže zhruba 40letí členové kapely vypadali, jako by jim bylo 20.

Ohad Fried, docent informatiky v izraelském Interdisciplinárním centru Herzliya, říká, že díky deepfakes „to, co dříve trvalo umělci roky, lze nyní dosáhnout nezávislým malým ateliéry. To je vždy dobrá zpráva pro rozmanitost a kvalitu médií, která konzumujeme.“

Překlápění vah

Nicméně, potenciál deepfake technologie škodit – zvláště když se stává dostupnější – zůstává problémem. Aviv Ovadya, zakladatel projektu Thoughtful Technology Project, souhlasí s tím, že schopnost vytvářet syntetická média může mít „četné pozitivní dopady na vyprávění příběhů, pro osoby se zdravotním postižením a umožněním bezproblémovější komunikace napříč jazyky.“ Ale v tu samou dobu, varuje, že stále existuje velký prostor pro poškození, když se technologie dostane do hlavního proudu, a mnoho práce, kterou je třeba udělat, aby se to minimalizovalo rizika.

„Dokonce i tyto pozitivní případy použití mohou neúmyslně vést ke skutečné a významné škodě,“ řekl Digital Trends. "Výňatky z uměleckých děl pokoušejících se vytvořit empatii mohou být také vytrženy z kontextu a zneužity."

"Cílem by mělo být vybudovat tuto technologii způsobem, který tyto negativní dopady co nejvíce zmírní."

Odborníci opakovaně troubili na to, aby nasměrovali více zdrojů do detekčních programů a oficiálních etických pokynů – ačkoli právní zásah by mohl skončit omezováním svobody projevu. Ale nikdo si zatím není zcela jistý, jakým směrem se deepfakes nakonec vydají. Jako každá nově vznikající technologie bude existovat bod, kdy deepfakes dosáhnou rovnováhy a odpovědnosti padne na technologické společnosti, politiky a tvůrce, aby zajistili, že misky vah zůstanou nakloněny na stranu dobra.

Ovadya také navrhuje omezit dostupnost deepfake nástrojů pro masy, dokud to výzkumníci nebudou schopni „dokončit některé z opevnění, které potřebujeme k ochraně naší společnosti před potenciálním negativním dopady. Cílem by mělo být vybudovat tuto technologii způsobem, který tyto negativní dopady co nejvíce zmírní.“

Lepp se však prozatím soustředí na svého dalšího hluboce falešného protagonistu: Donalda Trumpa a jeho ústupkovou řeč.

Doporučení redakce

  • Ocenění CES 2023 Tech For Change společnosti Digital Trends
  • Finishing touch: Jak vědci dávají robotům lidské hmatové smysly
  • Nová baterie IBM může překonat lithium-iontovou baterii a nepoužívá konfliktní minerály
  • Čekání v křídlech: Jak drony revolucionizují v boji proti hladu
  • Stallone v Terminátorovi 2? Jak jeden deepfake vtipálek mění historii kinematografie