Чому Deepfakes скоро стане таким же звичним явищем, як Photoshop

Чи знаєте ви, що можете створювати глибоке фейкове відео, не виходячи з дому чи на телефоні? Завантажте одну з безлічі додатків для заміни обличчя або deepfake, які випадково доступні у вашому місцевому магазині додатків, і ви також може вплинути на вибори.

Зміст

  • Майбутнє медіа
  • Веанізація дипфейків

Гаразд, не дуже, і ми точно не підтримуємо це. Але навколо ажіотаж і занепокоєння deepfake технологія та її реальне неправильне використання, проста правда полягає в тому, що ця технологія не зникне. Фактично, це стане таким же звичним явищем, як Photoshop, особливо якщо над ним працюють розробники програми deepfake tech мають що сказати про це: незабаром ми можемо побачити гіперцільову рекламу з нашими власними обличчями їх.

Рекомендовані відео

Роман Могильний, генеральний директор RefaceAI, стартапу в Україні, сказав, що вони працюють з машинним навчанням з 2011 року, а в 2014 році почали створювати власні додатки на основі технології deepfake. RefaceAI вже випустив додаток для глибоких підробок фотографій під назвою Reflect і знаходиться на порозі випуску як власного додатка для створення глибоких підробок, так і веб-сервісу, який допоможе виявляти відео підробок.

Пов'язані

  • Наступного місяця коментарі на основі штучного інтелекту з’являться на Вімблдоні
  • Суперкомп’ютер Nvidia може розпочати нову еру ChatGPT
  • Нагороди Digital Trends Tech For Change CES 2023

«Ми з самого початку бачили, що цією технологією зловживають», — сказав Могильний. «Ми думали, що можемо зробити це краще».

Технологія RefaceAI Deepfake | Ми будемо танцювати

RefaceAI вже працював з деякими кінокомпаніями — хоча Могильний не зміг сказати, з якими — щоб використати свою технологію для обміну обличчя акторів на тілесних дублях, за ціною набагато нижчою від тієї, що коштувала б доставка акторів назад на знімальний майданчик і перезйомку сцен у запитання. У цьому, за словами Могильного, компанія бачить майбутнє дипфейків. «Ми хочемо використовувати його для маркетингу, для персоналізації реклами, для gif, для розважальних матеріалів загалом», — сказав він.

Майбутнє медіа

RefaceAI — не та компанія, яка намагається випередити цю неминучу маркетингову криву. Carica, програма з Південної Кореї, також розробляє глибокі фейкові GIF-файли та відео, у яких людина може прищепити своє обличчя до популярного GIF-файлу реакції, щоб надіслати його друзям і родині. У додатку вже є спливаюча реклама, яка містить обличчя користувача на фото чи відео.

Карика

«Ми хочемо, щоб наша компанія стала медіакомпанією», — сказав Digital Trends інженер Carica Джозеф Джанг. Deepfakes - це лише те, як вони починають. «Я думаю, що медіакомпанії почнуть застосовувати цю функцію. Це стане вашим вибором, як і a фільтр. Для людей це стане нормальним».

І Джанг, і Могильний використовували поширення Photoshop як модель для того, куди вони бачать Deepfakes: настільки поширені, що нічим не примітні, хоча все ще дещо суперечливі. І для них обох політичні та етичні проблеми, загорнуті в дипфейки, насправді є простою справою.

Шамір Аллібхай, генеральний директор платформи для виявлення глибоких фейків Amber Video, сказав Digital Trends, що його головна думка полягає в тому, що технологія глибоких фейків, як і більшість інших видів технологій, є аморальною.

«Це було б все одно, що сказати, що Microsoft Word аморальний, злий, тому що потенційні терористи його використовуватимуть».

«Це було б все одно, що сказати, що Microsoft Word є аморальним, злим, тому що потенційні терористи використовуватимуть його для цього підтримувати насильницьку, екстремістську ідеологію, яка надихне інших підтримувати насильницьку екстремістську ідеологію», – він сказав. «Я сприймаю цю технологію в тому ж дусі».

Amber Video — це платформа, яка рекламує свої послуги як боротьбу з дипфейками, щоб «запобігти шахрайству, втраті репутації та недовірі зацікавлених сторін». Аллібхай сказав, що не знає, чи готовий він купити щось лише тому, що на цьому було його обличчя, але він погодився, що зрештою технологія буде всепроникний.

«Це дзеркало суспільства», — сказав він. «Ви бачите це в таких технологіях, як платформа Twitter. Ви бачите найкраще з людства і найгірше з нас. Технологія Deepfake також буде дзеркалом суспільства. Є люди, які використовуватимуть це для безтурботної сатири та висміювання авторитарних режимів. Але ми також будемо намагатися зшити хаос».

Веанізація дипфейків

Найбільшим страхом залишається потенційне зловживання та застосування дипфейків у зброю. Оскільки вони стають все більш поширеними, ми навіть можемо бачити, що вони використовуються не лише для широкомасштабних кампаній дезінформації, але й для жартів чи знущань у школі. Якщо технологія досить доступна, нею може скористатися кожен.

І Carica, і RefaceAI заявили, що вживають заходів для пом’якшення потенційних зловживань — RefaceAI за допомогою веб-сервісу виявлення deepfake, а Carica — за допомогою модераторів контенту. Уся компанія Carica зараз складається лише з дев’яти осіб, сказав Джанг, і вони обмінюються обов’язками модерації вмісту.

«Навіть Photoshop можна використовувати і використовували для залякування. Але з іншого боку, ми даємо протиотруту».

«Це було справді перше запитання, яке ми поставили собі», — сказав Могильний з RefaceAI. «Ми роками займаємося цим у контексті політичних скандалів в Україні. Ми розуміємо, що наші технології можуть бути використані не за призначенням. Навіть Photoshop можна використовувати і використовували для залякування. Але з іншого боку, ми пропонуємо протиотруту. У нас дійсно були користувачі, які завантажували контент сексуального характеру в наш додаток, і ми негайно забанили цих користувачів».

Carica — це досить маленький додаток, тому їм зараз доводиться працювати з ним. Але загалом Джанг не хвилювався.

«Це трапляється з усіма новими технологіями», — сказав Джанг. «Спочатку це зумовлено неправильним використанням, але потім після цього етапу воно стає доступним для всіх, і люди використовують його для звичайних речей».

Рекомендації редакції

  • Охоронні роботи можуть прийти до школи поблизу вас
  • Amazon використовує штучний інтелект для підсумовування оглядів продукту
  • Amazon планує зміни «один раз у поколінні» для пошуку, повідомляється в оголошенні про роботу
  • Мінікомп’ютер Jetson Orin Nano від Nvidia за 200 доларів у 80 разів швидший за попередню версію
  • Google Smart Canvas отримує глибшу інтеграцію між програмами