В наскоро пуснато видео, което изглежда напрегнато Брет Кавано говори пред членове на Конгреса на Съединените щати. „Време е да изясним нещата“, започва той. През следващите няколко минути съдията от Върховния съд признава, че е възможно той да е извършил сексуално насилие и изразява съжаление за начина, по който отговори на обвиненията на Кристин Блейзи Форд в своя свидетелство. „За това поемам отговорност и се извинявам.“
Работата е там, че тази сцена не е реална. Кадрите са подправени и Кавано всъщност никога не е казвал тези неща.
Съдържание
- Дълбоко фалшифицирайте, докато не успеете
- Повече от мемета и дезинформация
- Накланяне на везните
Ами ако Брет Кавано имаше сметка? | Безкрайна кутия за обяд
В действителност Кавано отрича и пренебрегва обвиненията и играе жертвата. Видеото, описано по-горе, е от поредица дълбоко фалшифицирани клипове, които предвиждат бъдеще, където обществото се разделя личности като Кавано, Алекс Джоунс и Марк Зукърбърг поемат отговорност за миналото си прегрешения.
Препоръчани видеоклипове
Сериалът, озаглавен Дълбоки сметки, е плод на въображението на Стефани Леп — художник, който има за цел да предизвика положителна промяна в света, като използва технологията deepfake, за да помогне на хората да видят и да си представят по-добри версии на себе си.
Това е възвишен и донякъде абстрактен проект, но Леп не е сама в усилията си. Тя е част от нарастваща лига от творци, които се стремят да използват технологията deepfake, за да правят добро.
Дълбоко фалшифицирайте, докато не успеете
Deepfakes имаха противоречиво пътуване досега. Технологията се използва широко за нечестиви цели като създаване на порнография и кампании за дезинформация, което го постави под остър контрол както от правителства, така и от технологични компании, които се страхуват от технологията въоръжаване.
„Като се има предвид, че преобладаващата част от дълбоките фалшификати са престъпни по природа, разбираемо е, че сме се съсредоточили върху тяхното въоръжаване“, казва Леп. „Но този фокус ни попречи да реализираме техния просоциален потенциал. По-конкретно, deepfakes могат да се използват за целите на образованието, здравеопазването и социалната промяна.
Тя твърди, че подобно на това как виртуалната реалност е била използвана, за да помогне на пациентите да се възстановят от мозъчни наранявания чрез оставяйки ги да взаимодействат с виртуални спомени, deepfakes могат да се използват за психологическо изцеление при травма жертви. Например, представете си сценарий, при който лекарите биха могли да напишат дълбоки фалшификати на трезвото бъдещо аз на зависимия и да го използват, за да го насърчат по пътя на възстановяването.
Концепцията, поне на теория, е здрава. Джонатан Грач, директор на виртуалните човешки изследвания в Института за творчески технологии на Университета на Южна Калифорния, установи, че да се видите във VR може да бъде силно мотивиращо и че същата концепция може лесно да се приложи към deepfake кадри. Той предполага, че ако лицето на пациента е леко смесено с лицето на неговия лекар, пациентът е по-вероятно да следва съветите на лекаря.
Повече от мемета и дезинформация
Въпреки факта, че отрицателните приложения на deepfakes са склонни да привличат повече внимание, положителните приложения като тези на Lepp се увеличават. През последните няколко години технологията се появи в областта на разказването на истории, просоциалните проекти и др.
Project Revoice: Помагане на този основател на Ice Bucket Challenge да си върне гласа от ALS
Асоциацията на ALS Проект Revoice, например, позволява на пациентите с амиотрофична латерална склероза, които са загубили способността си да говорят, да продължат да използват гласа си. как? Чрез използване на deepfakes за създаване на персонализирани синтетични вокални песни, които могат да се възпроизвеждат при поискване със звукова дъска.
В отделен проект от неправителствената организация за борба с маларията Маларията трябва да умре, известният спортист Дейвид Бекъм предаде съобщение на девет различни езика (и гласове) благодарение на дълбоко фалшиво аудио и видео, което накара устните му да съвпаднат с думите.
Дейвид Бекъм говори девет езика, за да стартира гласовата петиция Malaria Must Die
В една особено забележителна кампания от по-рано през 2020 г Център за усъвършенствана виртуалност на Масачузетския технологичен институт се опита да образова обществеността относно дезинформацията, като създаде дълбока фалшива информация за бившия президент на САЩ Ричард М. Никсън произнася речта за извънредни ситуации, написана през 1969 г., в случай че екипажът на Аполо 11 не успее да се върне от Луната.
Тези видове съобщения за обществени услуги и кампании за осведомяване са само върхът на айсберга. Инструментите на Deepfake също помогнаха за опростяване на процесите в развлекателната индустрия, отколкото иначе изискват оборудване от висок клас и отнемащи време ресурси, като премахване на стареенето, гласово клониране и много Повече ▼. Всяко лице в a скорошен музикален видеоклип от The Strokes беше фалшив, например, така че приблизително 40-годишните членове на групата да изглеждат като на 20.
Охад Фрид, старши преподавател по компютърни науки в Израелския интердисциплинарен център Херцлия, казва, че благодарение на deepfakes, „това, което преди отнемаше години време на артисти, сега може да бъде постигнато от независими малки ателиета. Това винаги е добра новина за разнообразието и качеството на медиите, които консумираме.“
Накланяне на везните
Въпреки това, потенциалът на технологията deepfake да навреди — особено след като става все по-достъпен — остава проблем. Авив Овадя, основател на Thoughtful Technology Project, е съгласен, че способността за създаване на синтетични медии може да има „много положителни въздействия, за разказване на истории, за хора с увреждания и чрез позволяване на по-безпроблемна комуникация на различни езици.“ Но в същото време, той предупреждава, че все още има много място за вреда, когато технологията стане масова и трябва да се свърши много работа, за да се минимизират тези рискове.
„Дори тези положителни случаи на употреба могат неволно да доведат до реална и значителна вреда“, каза той пред Digital Trends. „Откъси от произведения на изкуството, които се опитват да създадат емпатия, също могат да бъдат извадени от контекста и злоупотребени.“
„Целта трябва да бъде да се изгради тази технология по начин, който смекчава тези негативни въздействия колкото е възможно повече.“
Експертите многократно са натискали клаксона за насочване на повече ресурси към програми за откриване и официални етични насоки - въпреки че правната намеса може да доведе до възпрепятстване на свободата на словото. Но все още никой не е съвсем сигурен в каква посока в крайна сметка ще поемат deepfakes. Като всяка нововъзникваща технология, ще има момент, в който deepfakes ще достигнат баланс и отговорност ще падне върху технологичните компании, политиците и създателите, за да гарантира, че везните остават наклонени към добрата страна.
Ovadya също така предлага ограничаване на достъпността на инструментите за deepfake за масите, докато изследователите не успеят „завършете някои от укрепленията, от които се нуждаем, за да защитим обществото си от потенциалния негатив въздействия. Целта трябва да бъде да се изгради тази технология по начин, който смекчава тези негативни въздействия най-малкото, доколкото е възможно.“
Засега обаче Леп ще прекара времето си, като се съсредоточи върху следващия си дълбоко фалшив герой: Доналд Тръмп и неговата реч за отстъпка.
Препоръки на редакторите
- Награди Tech For Change на CES 2023 на Digital Trends
- Завършващ щрих: Как учените дават на роботите човекоподобни тактилни сетива
- Новата батерия на IBM може да превъзхожда литиево-йонната и не използва конфликтни минерали
- Чакане на края: Как дроновете революционизират битката срещу глада
- Сталоун в Терминатор 2? Как един дълбоко фалшив майтапчия променя историята на киното