Na niedawno opublikowanym filmie widać, że Brett Kavanaugh przemawia przed członkami Kongresu Stanów Zjednoczonych. „Czas wyjaśnić sprawę” – zaczyna. W ciągu następnych kilku minut sędzia Sądu Najwyższego przyznaje, że możliwe jest, że dopuścił się napaści na tle seksualnym i wyraża skruchę za sposób, w jaki odpowiedział w swoim piśmie na zarzuty Christine Blasey Ford świadectwo. „Biorę za to odpowiedzialność i przepraszam”.
Rzecz w tym, że ta scena nie jest prawdziwa. Materiał jest sfabrykowany, a Kavanaugh nigdy tak naprawdę nie powiedział takich rzeczy.
Zawartość
- Udawaj głęboko, aż ci się uda
- Więcej niż memy i dezinformacja
- Przechylając wagę
Co by było, gdyby Brett Kavanaugh się rozliczył? | Nieskończone pudełko śniadaniowe
W rzeczywistości Kavanaugh zaprzeczył oskarżeniom, zlekceważył je i odegrał rolę ofiary. Opisany powyżej film pochodzi z serii głęboko sfałszowanych klipów, które przedstawiają przyszłość, w której społeczeństwo dzieli postacie takie jak Kavanaugh, Alex Jones i Mark Zuckerberg biorą odpowiedzialność za swoją przeszłość przestępstwa.
Polecane filmy
Seria pt Głębokie rozliczenia, to pomysł Stephanie Lepp — artystki, której celem jest wywołanie pozytywnych zmian w świecie poprzez wykorzystanie technologii deepfake, aby pomóc ludziom zobaczyć i wyobrazić sobie lepsze wersje siebie.
To wzniosły i nieco abstrakcyjny projekt, ale Lepp nie jest w swoich wysiłkach osamotniony. Należy do rosnącej ligi twórców, których celem jest wykorzystywanie technologii deepfake do czynienia dobra.
Udawaj głęboko, aż ci się uda
Jak dotąd Deepfakes przebyło kontrowersyjną podróż. Technologia ta jest szeroko wykorzystywana do nikczemnych celów, takich jak tworzenie materiałów pornograficznych i kampanie dezinformacyjne, co spowodowało, że został on poddany ostrej analizie zarówno ze strony rządów, jak i firm technologicznych, które boją się tej technologii uzbrojenie.
„Biorąc pod uwagę, że przeważająca większość deepfake’ów ma nikczemny charakter, zrozumiałe jest, że skupiliśmy się na ich uzbrojeniu” – mówi Lepp. „Ale to skupienie nie pozwoliło nam wykorzystać ich prospołecznego potencjału. W szczególności deepfakes mogą być wykorzystywane do celów edukacyjnych, zdrowotnych i zmian społecznych”.
Twierdzi, że podobnie jak rzeczywistość wirtualna jest wykorzystywana do pomocy pacjentom w rekonwalescencji po urazach mózgu pozwalając im na interakcję z wirtualnymi wspomnieniami, deepfakes można wykorzystać do psychologicznego leczenia traumy ofiary. Wyobraźmy sobie na przykład scenariusz, w którym lekarze mogliby stworzyć fałszywe scenariusze przedstawiające przyszłe, trzeźwe ja osoby uzależnionej i wykorzystać je, aby zachęcić ich na ścieżkę zdrowienia.
Koncepcja, przynajmniej w teorii, jest słuszna. Jonathan Gratch, dyrektor ds. wirtualnych badań nad ludźmi w Instytucie Technologii Kreatywnych Uniwersytetu Południowej Kalifornii, odkrył, że oglądanie siebie w rzeczywistości wirtualnej może być bardzo motywujące i że tę samą koncepcję można z łatwością zastosować w przypadku deepfake'ów materiał filmowy. Sugeruje, że gdyby twarz pacjenta była subtelnie wtopiona w twarz lekarza, pacjent byłby bardziej skłonny zastosować się do jego rad.
Więcej niż memy i dezinformacja
Pomimo faktu, że negatywne zastosowania deepfakes cieszą się większym zainteresowaniem, liczba pozytywnych zastosowań, takich jak Lepp, rośnie. W ciągu ostatnich kilku lat technologia ta pojawiła się w obszarach opowiadania historii, projektów prospołecznych i nie tylko.
Project Revoice: Pomoc założycielowi Ice Bucket Challenge w odzyskaniu głosu po ALS
Stowarzyszenie ALS Recenzja projektuna przykład umożliwia pacjentom ze stwardnieniem zanikowym bocznym, którzy utracili zdolność mówienia, dalsze używanie głosu. Jak? Używając deepfakes do tworzenia spersonalizowanych syntetycznych ścieżek wokalnych, które można odtwarzać na żądanie za pomocą płyty rezonansowej.
W odrębnym projekcie organizacji non-profit zajmującej się zwalczaniem malarii Malaria musi umrzeć, znany sportowiec David Beckham przekazał wiadomość w dziewięciu różnych językach (i głosach) dzięki sfałszowanemu materiałowi audio i wideo, dzięki któremu jego usta pasowały do słów.
David Beckham włada dziewięcioma językami, aby wystosować petycję głosową Malaria Must Die Voice
W jednej szczególnie uderzającej kampanii z początku 2020 r Centrum zaawansowanej wirtualności Massachusetts Institute of Technology starał się edukować opinię publiczną na temat dezinformacji, tworząc fałszywą wersję byłego prezydenta USA Richarda M. Nixon wygłasza przemówienie awaryjne napisane w 1969 r. na wypadek, gdyby załoga Apollo 11 nie mogła wrócić z Księżyca.
Tego rodzaju ogłoszenia o usługach publicznych i kampanie uświadamiające to tylko wierzchołek góry lodowej. Narzędzia Deepfake pomogły także w uproszczeniu procesów w branży rozrywkowej wymagają wysokiej klasy sprzętu i czasochłonnych zasobów, takich jak usuwanie starzenia, klonowanie głosu i wiele innych więcej. Każda twarz w najnowszy teledysk na przykład The Strokes był fałszywy, tak że mniej więcej 40-letni członkowie zespołu wyglądali, jakby mieli 20 lat.
Tak twierdzi Ohad Fried, starszy wykładowca informatyki w izraelskim Interdyscyplinarnym Centrum Herzliya dzięki deepfakes „to, co kiedyś zajmowało artystom lata, może teraz zostać osiągnięte przez niezależnych małych twórców studia. To zawsze dobra wiadomość dla różnorodności i jakości mediów, które konsumujemy.”
Przechylając wagę
Jednakże, potencjał technologii deepfake do wyrządzania szkód – zwłaszcza, że staje się bardziej dostępna – pozostaje problemem. Aviv Ovadya, założyciel Thoughtful Technology Project, zgadza się, że umiejętność tworzenia syntetycznych mediów może mieć „liczne pozytywne skutki” wpływu, na opowiadanie historii, na osoby niepełnosprawne oraz umożliwiając bardziej płynną komunikację między językami”. Ale w tym samym czasie, ostrzega, że gdy technologia wejdzie do głównego nurtu, nadal pozostaje wiele miejsca na szkody i trzeba włożyć wiele pracy, aby je zminimalizować ryzyko.
„Nawet te pozytywne przypadki użycia mogą w sposób niezamierzony prowadzić do rzeczywistych i znaczących szkód” – powiedział Digital Trends. „Fragmenty dzieł sztuki próbujące wzbudzić empatię również mogą zostać wyrwane z kontekstu i niewłaściwie wykorzystane”.
„Celem powinno być zbudowanie tej technologii w sposób, który w jak największym stopniu złagodzi te negatywne skutki”.
Eksperci wielokrotnie nawoływali do przeznaczenia większych środków na programy wykrywania i oficjalne wytyczne dotyczące etyki, choć interwencja prawna może w efekcie utrudnić wolność słowa. Ale nikt nie jest jeszcze do końca pewien, w jakim kierunku ostatecznie pójdą deepfakes. Jak w przypadku każdej nowej technologii, nadejdzie moment, w którym deepfakes osiągną równowagę i odpowiedzialność spadnie na firmy technologiczne, decydentów i twórców, aby szala pozostała przechylona na dobrą stronę.
Ovadya sugeruje również ograniczenie dostępności narzędzi deepfake dla mas, dopóki badacze nie będą w stanie tego zrobić „Ukończyć niektóre fortyfikacje, których potrzebujemy, aby chronić nasze społeczeństwo przed potencjalnymi negatywami wpływy. Celem powinno być zbudowanie tej technologii w sposób, który przynajmniej w jak największym stopniu złagodzi te negatywne skutki.
Na razie jednak Lepp skupi się na swoim kolejnym bohaterze deepfake: Donaldzie Trumpie i jego przemówieniu dotyczącym koncesji.
Zalecenia redaktorów
- Nagrody Digital Trends „Tech For Change” na targach CES 2023
- Wykończenie: jak naukowcy nadają robotom zmysły dotyku przypominające ludzkie
- Nowa bateria IBM może przewyższać wydajnością litowo-jonową i nie wykorzystuje minerałów z regionów konfliktowych
- Czekanie na skrzydłach: jak drony rewolucjonizują walkę z głodem
- Stallone w Terminatorze 2? Jak jeden fałszywy dowcipniś zmienia historię kina