У нещодавно оприлюдненому відео Бретт Кавано, здається, напружений, виступає перед членами Конгресу Сполучених Штатів. «Настав час встановити рекорд», — починає він. Протягом наступних кількох хвилин суддя Верховного суду визнає можливим, що він вчинив сексуальне насильство і висловлює жаль через те, як він відповів на звинувачення Крістін Блейзі Форд у своєму свідчення. «За це я беру на себе відповідальність і прошу вибачення».
Справа в тому, що ця сцена нереальна. Відео підроблено, і Кавано ніколи цього не говорив.
Зміст
- Deepfake це, поки не вийде
- Більше ніж меми та дезінформація
- Перехилити чашу терезів
Що, якби Бретт Кавано мав розрахунок? | Infinite Lunchbox
Насправді Кавано заперечував і ігнорував звинувачення, граючи роль жертви. Відео, описане вище, походить із серії кліпів із глибокими фейками, які передбачають майбутнє, яке викликає розбіжності у громадськості такі фігури, як Кавано, Алекс Джонс і Марк Цукерберг, беруть відповідальність за своє минуле провини.
Рекомендовані відео
Серіал під назвою
Глибокі розрахунки, є дітищем Стефані Лепп — художниці, яка прагне викликати позитивні зміни у світі, використовуючи технологію deepfake, щоб допомогти людям побачити й уявити себе кращими версіями.Це високий і дещо абстрактний проект, але Лепп не самотня у своїх зусиллях. Вона є частиною зростаючої ліги творців, які прагнуть використовувати технологію deepfake, щоб творити добро.
Deepfake це, поки не вийде
Досі Deepfakes пройшли суперечливий шлях. Цю технологію широко використовували для підлих цілей, таких як створення порнографії та кампанії дезінформації, що поставило його під пильну увагу як з боку урядів, так і технологічних компаній, які бояться цих технологій озброєння.
«З огляду на те, що переважна більшість дипфейків є мерзотною за своєю природою, цілком зрозуміло, що ми зосередилися на їх озброєнні», — говорить Лепп. «Але цей фокус завадив нам реалізувати їхній просоціальний потенціал. Зокрема, дипфейки можна використовувати для цілей освіти, охорони здоров’я та соціальних змін».

Вона стверджує, що подібно до того, як віртуальна реальність використовується для допомоги пацієнтам у відновленні після травм головного мозку дозволяючи їм взаємодіяти з віртуальними спогадами, deepfakes можна використовувати для психологічного зцілення травми жертви. Наприклад, уявіть собі сценарій, за якого лікарі могли б написати глибокі фейки тверезого майбутнього «я» залежного і використати це, щоб заохотити його на шлях одужання.
Концепція, принаймні в теорії, обґрунтована. Джонатан Ґратч, директор відділу віртуальних досліджень людини в Інституті креативних технологій Університету Південної Каліфорнії, виявив, що побачити себе у віртуальній реальності може бути дуже мотивуючим, і що ту саму концепцію можна легко застосувати до deepfake кадри. Він припускає, що якби обличчя пацієнта було тонко злито з обличчям лікаря, пацієнт, швидше за все, дослухався б до порад лікаря.
Більше ніж меми та дезінформація
Незважаючи на те, що негативні додатки дипфейків, як правило, привертають більше уваги, позитивні додатки, такі як Лепп, зростають. За останні пару років ця технологія з’явилася в сферах оповідання історій, просоціальних проектів тощо.
Project Revoice: допомога цьому засновнику Ice Bucket Challenge повернути свій голос із ALS
Асоціація ALS Проект Revoice, наприклад, дозволяє пацієнтам з бічним аміотрофічним склерозом, які втратили здатність говорити, продовжувати використовувати свій голос. як? Використовуючи deepfakes для створення персоналізованих синтетичних вокальних треків, які можна відтворювати на вимогу за допомогою деки.
В окремому проекті від некомерційної протималярійної організації Малярія повинна померти, Знаменитий спортсмен Девід Бекхем виголосив повідомлення дев’ятьма різними мовами (і голосами) завдяки глибокому підробленню аудіо та відео, яке змусило його губи збігатися зі словами.
Девід Бекхем розмовляє дев'ятьма мовами, щоб запустити голосову петицію від малярії
В одній особливо яскравій кампанії на початку 2020 року Центр вдосконаленої віртуальності Массачусетського технологічного інституту прагнув проінформувати громадськість про дезінформацію, створивши глибокий фейк колишнього президента США Річарда М. Ніксон виголошує промову на випадок непередбачених обставин, написану в 1969 році, у випадку, якщо екіпаж Аполлона-11 не зможе повернутися з Місяця.
Подібні суспільні оголошення та інформаційні кампанії є лише верхівкою айсберга. Інструменти Deepfake також допомогли спростити процеси в індустрії розваг потрібне висококласне обладнання та трудомісткі ресурси, такі як усунення старіння, клонування голосу та багато іншого більше. Кожне обличчя в a останнє музичне відео The Strokes був, наприклад, фальшивкою, щоб приблизно 40-річні учасники гурту виглядали так, ніби їм 20.
Охад Фрід, старший викладач інформатики в Ізраїльському міждисциплінарному центрі Герцлія, каже, що завдяки deepfakes, «те, на що раніше витрачалися роки митців, тепер може бути досягнуто незалежними маленькими студії. Це завжди гарна новина щодо різноманітності та якості медіа, яке ми споживаємо».
Перехилити чашу терезів
однак, потенціал технології deepfake завдати шкоди — особливо коли він стає доступнішим — залишається проблемою. Авів Овадя, засновник Thoughtful Technology Project, погоджується, що здатність створювати синтетичні медіа може мати «численні позитивні впливає на оповідання історій, на людей з обмеженими можливостями та забезпечуючи безперебійне спілкування різними мовами». Але в той же час, він попереджає, що ще багато можливостей для шкоди, коли технологія стане масовою, і багато роботи, яку потрібно зробити, щоб звести до мінімуму ризики.
«Навіть ці позитивні випадки використання можуть ненавмисно призвести до реальної та значної шкоди», — сказав він Digital Trends. «Уривки з творів мистецтва, які намагаються викликати співпереживання, також можуть бути вирвані з контексту та використані не за призначенням».
«Мета повинна полягати в тому, щоб створити цю технологію таким чином, щоб максимально пом’якшити ці негативні впливи».
Експерти неодноразово закликали спрямовувати більше ресурсів на програми виявлення та офіційні правила етики, хоча втручання законів може призвести до перешкоджання свободі слова. Але ще ніхто не впевнений, у якому напрямку в кінцевому підсумку підуть дипфейки. Як і будь-яка нова технологія, настане момент, коли дипфейки досягнуть балансу та відповідальності ляже на плечі технологічних компаній, політиків і творців, щоб терези залишалися на хорошу сторону.
Овадья також пропонує обмежити доступність інструментів deepfake для мас, поки дослідники не зможуть це зробити «Завершити деякі укріплення, необхідні для захисту нашого суспільства від потенційного негативу впливи. Мета повинна полягати в тому, щоб побудувати цю технологію таким чином, щоб принаймні максимально пом’якшити ці негативні впливи».
Наразі Лепп зосереджуватиметься на своєму наступному героїні глибокого фейку: Дональді Трампі та його промові про поступку.
Рекомендації редакції
- Нагороди Digital Trends Tech For Change CES 2023
- Останній штрих: як вчені надають роботам людські тактильні відчуття
- Нова батарея IBM може перевершити літій-іонну, і в ній не використовуються конфліктні мінерали
- Чекання свого часу: як безпілотники революціонізують боротьбу з голодом
- Сталлоне в Термінаторі 2? Як один діпфейковий пранкер змінює історію кіно