Чи небезпечні Deepfakes? Творці та регулятори не згодні

За останні кілька років, deepfakes стали останнім виходом в Інтернеті для мемів і пародійного вмісту.

Зміст

  • З великою потужністю приходить чудова можливість повторного розміщення
  • Рух за збереження діпфейків
  • Чи потрібно регулювати дипфейки?

Легко зрозуміти чому: вони дозволяють творцям змінювати правила реальності, як жодна інша технологія раніше. Завдяки магії deepfakes ви можете спостерігати Дженніфер Лоуренс виголошує промову через обличчя Стіва Бушемі, Подивимося, що Райан Рейнольдс виглядав би як Віллі Вонка, і навіть зловити Гітлер і Сталін співаютьВідео вбило радіозірку в дуеті.

Рекомендовані відео

Для непосвячених технологія deepfake — це форма синтетичного медіа, яка дозволяє користувачам накладати інше обличчя на чуже таким чином, що його майже неможливо відрізнити від оригіналу. Це робиться шляхом зчитування купи даних, щоб зрозуміти контури обличчя та інші характеристики, щоб природним чином поєднати та оживити його в сцені.

Пов'язані

  • Цей стартап хоче підробити клон вашого голосу та продати його тому, хто запропонує найвищу ціну
  • Всередині стрімко загострюється війни між deepfakes і deepfake detectors
  • Ілон Маск попереджає, що всі ШІ. треба регулювати, навіть у Tesla
Раян Рейнольдс у ролі Віллі Вонки Діпфейка з NextFace
NextFace/Youtube

На даний момент ви, мабуть, зустрічали такі кліпи на таких платформах, як TikTok (де хештег «#deepfake» має близько 200 мільйонів переглядів), YouTube та інших. Будь то виконання фанфіків і переробити сцени з зірками їм хотілося б, щоб у фільмі спочатку було зображено чи поміщено мертву людину в сучасний вірусний мем, дипфейки були прийняті як творчий вихід для цілей, які раніше були майже неможливими.

Ця зміна породила лігу нових творців, як Ctrl Shift обличчя, чиї дипфейкові відео регулярно збирають мільйони переглядів і часто стають головною темою обговорень на нічних ток-шоу.

«Це абсолютно новий спосіб створення кумедних інтернет-відео або розповідання історій, яких ми ніколи раніше не бачили», — каже творець із Нідерландів, який стоїть за хітом «Месники країни Оз” кліп deepfake, який попросив не використовувати його справжнє ім’я. «Це прекрасне поєднання захоплення для ШІ. технологія та гумор».

Але існує небезпека, яка взагалі загрожує майбутньому технології deepfake: її зіпсована репутація.

З великою потужністю приходить чудова можливість повторного розміщення

На жаль, окрім свого потенціалу як творчого інструменту для відеохудожників із добрими намірами, дипфейки також несуть величезний потенціал для заподіяння шкоди.

Недавній дослідження, проведене Центром майбутньої злочинності Dawes при Інституті безпеки та злочинності UCL Jill Dando назвав deepfakes найсерйознішою загрозою з підтримкою штучного інтелекту. Сен. Бен Сассе, республіканець штату Небраска, який вніс законопроект про криміналізацію зловмисного створення дипфейків, попереджений минулого року, що технологія може «знищити людські життя», «збурити фінансові ринки» і навіть «спровокувати військові конфлікти по всьому світу».

Певною мірою ці побоювання справедливі. Зрештою, розповсюдження технології deepfake вже дозволило створювати фальшивий контент для дорослих із зображенням знаменитостей і реалістичне уособлення політиків для сатири. Раніше цього року Ден Скавіно, директор соціальних медіа Білого дому, твітнув погано оброблений кліп, який також ретвітнув президент Дональд Трамп, на якому суперник Трампа Джо Байден просить людей переобрати Трампа.

Трамп зробив ретвіт відредагованого відео з Байденом. Ось що насправді сказав Байден.

Однак ці не дуже переконливі містифікації були швидко розвінчані, перш ніж дійшли до мас. Що ще важливіше, експерти припускають, що дипфейкові відео наразі мали невеликий або взагалі не впливали на суспільство, і наразі вони не становлять неминучої загрози. Наприклад, дослідження, проведені в Чуттєвість, фірма з кібербезпеки, яка зосереджена на візуальних загрозах, стверджує, що переважна більшість глибоких фейкових відео порнографічні (96%) і що технологія ще не пробилася до будь-якої значної дезінформації кампанії.

Подібним чином, a Звіт Джорджтаунського університету зробив висновок, що, хоча дипфейки є «вражаючим технічним досягненням», політикам не слід поспішати ажіотаж, оскільки технологія на даний момент не є ідеальною і не може просто вплинути на події в реальному світі ще.

Творець найпопулярнішого дипфейкового каналу Ctrl Shift Face, відео якого переглядають мільйони, вважає, що «істерія» кружляння навколо теми deepfake відволікає увагу законодавців від справжніх проблем, таких як погано регульована реклама мереж увімкнено Facebook які насправді відповідають за введення людей в оману.

«Якщо коли-небудь з’явиться шкідливий дипфейк, Facebook — це місце, де воно пошириться», — сказав Ctrl Shift Face в інтерв’ю Digital Trends. «У цьому випадку, яка проблема більша? Середовище чи платформа?»

Власник BabyZone, ігровий канал YouTube із понад півмільйона передплатників, який часто перетворює знаменитостей у відео ігор, повторює подібне занепокоєння: «Я думаю, що deepfakes — це технологія, як і всі інші існуючі технології. Вони можуть бути використані як для хороших, так і для поганих цілей».

Рух за збереження діпфейків

Протягом останніх року чи двох, коли уряди та технологічні компанії досліджують потенційні ризики цього технології, прихильники deepfake намагалися розвіяти ці занепокоєння та виправити громадськість технології зображення. Спільноти Reddit які намагаються «виправити цю стигму», і деякі незалежні дослідники активно створюють системи, які можуть виявляти глибокі фейки до того, як вони стануть вірусними.

Роман Могильний, генеральний директор і співзасновник Reface, популярного додатка, який дозволяє швидко замінити своє обличчя на будь-який GIF, каже, що його стартап зараз розробляє інструмент виявлення, який може визначити, чи відео було створено за допомогою Reface технології. «Ми віримо, що широкий доступ до синтезованих медіа-інструментів, таких як наш, підвищить співчуття людства та креативний, і допоможе змінити сприйняття технології на краще», – сказав Могильний Digital. Тенденції.

Еран Даган, засновник і генеральний директор Botika, стартапу, що стоїть за популярним додатком Jiggy для зміни обличчя, має подібну думку. по відношенню до дипфейків і вважає, що коли вони стануть більш популярними, «люди будуть набагато більше обізнані про їх позитивне використання випадків».

Враховуючи потенційну небезпеку дипфейків, цілком імовірно, що Конгрес зрештою втрутиться. Основні технологічні платформи у тому числі Facebook, Twitter і YouTube вже оновили свою політику, щоб позначати або видаляти маніпульовані медіа, призначені для введення в оману. Кілька держав, як Каліфорнія і Нью-Йорк прийняли законопроекти, які каратимуть виробників навмисно оманливих дипфейків, а також тих, які опубліковані без згоди особи, чиє обличчя використовується.

Чи потрібно регулювати дипфейки?

Хоча ця політика виключає пародійний вміст, експерти, побоюючись нечітких законів або повної заборони технології, все ще вірять, що Конгрес повинен триматися подалі від цього і дозволити дипфейкам йти природним шляхом, яким іде будь-яка нова форма ЗМІ через.

Девід Грін, директор з питань громадянських свобод Electronic Frontier Foundation, каже, що «будь-яка спроба Конгресу регулювати глибокі фейки чи справді будь-який вид візуальної комунікації буде регулюванням мовлення та залучати Перше Поправка.

«Суспільство має створити нові механізми для сертифікації того, чому можна довіряти, і як запобігти негативному впливу синтетичного контенту на окремих осіб та організації».

Ці закони, додає Грін, мають бути точними та повинні — у чітко визначених і легко зрозумілих термінах — стосуватися шкоди, яку вони намагаються зменшити. «Те, що ми бачили досі… спроби регулювання на рівні штату – це розпливчасті та надмірні закони, які не мають точності, якої вимагає Перша поправка. У них немає необхідних винятків для пародії та політичних коментарів».

Джорджіо Патріні, генеральний директор Sensity, вважає заборону на алгоритми та програмне забезпечення «безглуздим в епоху Інтернету». Патріні порівнює цю загадку зі шкідливим програмним забезпеченням захист і те, що практично неможливо покінчити з усіма комп’ютерними вірусами та їх авторами, тому краще просто інвестувати в механізми захисту від шкідливих програм замість цього. «Суспільство має створити нові механізми для сертифікації того, чому можна довіряти, і як запобігти негативному впливу синтетичного контенту на окремих осіб та організації», — сказав він.

Тім Вонг написав у звіті Джорджтаунського університету, що з комерціалізація інструментів deepfake, технологія виявлення та фільтрації це автоматично буде розвиватися і ставати більш точним — тим самим нейтралізуючи їх здатність представляти будь-які серйозні погрози.

Microsoft нещодавно запустила інструмент виявлення deepfake, наприклад, аналізує відео, щоб запропонувати вам оцінку надійності, яка вказує, наскільки ймовірно, що відео було змінено.

«Діпфейки — це нова форма маніпулювання ЗМІ, але ми не вперше стикаємося з подібним викликом. Ми досліджуємо та інвестуємо в шляхи вирішення проблем із синтетичними медіа», — сказав представник YouTube.

Дослідники позаду CtrlShiftLab, розширене програмне забезпечення для створення глибоких фейків, яке використовують багато користувачів YouTube, зокрема Ctrl Shift Face, тепер також працюємо над проектами з відкритим вихідним кодом, щоб підвищити обізнаність і створити більш комплексне виявлення послуги.

«Єдиний спосіб запобігти цьому [зловживанню дипфейком] — це створити пов’язаний з дипфейком проект із відкритим кодом і привернути увагу громадськості. Тож публічні користувачі мережі можуть зрозуміти, що дипфейки існують», — сказав Digital Trends Куньлін Лю, один із дослідників CtrlShiftLab.

Кілька розробників дипфейків, з якими Digital Trends поспілкувались, залишаються оптимістами та вважають, що відмова країн від дипфейків передчасна. Вони погоджуються, що зростаюча роль deepfake у культурі мемів і пародій зіграє важливу роль у виправленні поганої репутації цієї нової технології. І до тих пір, поки у відео є застереження, а платформи інвестують у ефективніші рівні виявлення, вони додали, глибокі підробки тут залишаться.

«Я думаю, що репутація дипфейків значно покращується. Два роки тому слово deepfake автоматично означало порно», — розповів творець Ctrl Shift Face. «Зараз більшість людей дізнаються про дипфейки завдяки цим цікавим відео, які циркулюють в Інтернеті».

Рекомендації редакції

  • Нагороди Digital Trends Tech For Change CES 2023
  • У веселому проекті Gucciberg підроблений Gucci Mane читає класичні романи
  • Як художники та активісти використовують дипфейки як силу добра
  • Перед виборами 2020 року Twitter забороняє дипфейки, які «заподіюють шкоду».
  • Каліфорнія розправляється з дипфейками для політики та порно

Категорії

Останні