Почему дипфейки скоро станут таким же обычным явлением, как Photoshop

Знаете ли вы, что дипфейковое видео можно сделать, не выходя из дома или на телефоне? Загрузите одно из множества приложений для замены лиц или дипфейков, которые случайно доступны в местном магазине приложений, и вы тоже. может повлиять на выборы.

Содержание

  • Будущее СМИ
  • Использование дипфейков в качестве оружия

Ладно, не совсем, и мы определенно не одобряем это. Но в ажиотаже и тревоге вокруг дипфейк технологии и ее вполне реальное неправильное использование, простая истина заключается в том, что эта технология не исчезнет. Фактически, это станет таким же обычным явлением, как Photoshop, особенно если разработчики приложений работают над Технологии дипфейков могут что-то сказать по этому поводу: скоро мы сможем увидеть гипертаргетированную рекламу с собственными лицами на их.

Рекомендуемые видео

Роман Могильный, генеральный директор украинского стартапа RefaceAI, сказал, что они работают с машинным обучением с 2011 года, а в 2014 году перешли к созданию собственных приложений на основе технологии deepfake. RefaceAI уже выпустила приложение для фото-дипфейков под названием Reflect и готовится выпустить как собственное приложение для видео-дипфейков, так и веб-сервис, который поможет обнаруживать дипфейковые видео.

Связанный

  • Комментаторы на базе искусственного интеллекта появятся на Уимблдоне в следующем месяце
  • Суперкомпьютер Nvidia может открыть новую эру ChatGPT
  • Награды Digital Trends Tech For Change CES 2023

«Мы с самого начала видели, что этой технологией злоупотребляют», — сказал Могильный. «Мы думали, что сможем сделать это лучше».

Технология RefaceAI Deepfake | Мы будем танцевать

RefaceAI уже сотрудничал с некоторыми кинокомпаниями (хотя Могильный не мог сказать, с какими именно), чтобы использовать свою технологию для обмена лица актеров на дублеры, причем это обходится намного дешевле, чем если бы актеры летели обратно на съемочную площадку и переснимали сцены в вопрос. Именно в этом, по словам Могильного, компания видит будущее дипфейков. «Мы хотим использовать его для маркетинга, персонализации рекламы, гифок и развлекательных материалов в целом», — сказал он.

Будущее СМИ

RefaceAI — не та компания, которая пытается опередить эту неизбежную маркетинговую кривую. Carica, приложение, базирующееся в Южной Корее, также разрабатывает дипфейковые GIF-файлы и видеоролики, в которых человек может перенести свое лицо на популярный GIF-реакция и отправить его друзьям и семье. В приложении уже есть всплывающая реклама, которая включает лицо пользователя в фотографию или видео объявления.

Карика

«Мы хотим, чтобы наша компания стала медиа-компанией», — сказал Digital Trends инженер Carica Джозеф Джанг. Дипфейки — это то, с чего они начинаются. «Я думаю, что медиакомпании начнут внедрять эту функцию. Это станет вашим вариантом, как и фильтр. Для людей это станет нормой».

И Янг, и Могильный использовали распространение Photoshop в качестве модели того, как, по их мнению, будут развиваться дипфейки: они настолько распространены, что ничем не примечательны, хотя и немного спорны. И для них обоих политические и этические проблемы, окутанные дипфейками, на самом деле являются обычным явлением.

Шамир Аллибхай, генеральный директор платформы по обнаружению дипфейков Amber Video, рассказал Digital Trends, что его основная точка зрения заключается в том, что технология дипфейков, как и большинство других технологий, аморальна.

«Это все равно, что сказать, что Microsoft Word аморален и является злом, потому что его будут использовать потенциальные террористы».

«Это все равно, что сказать, что Microsoft Word аморален и является злом, потому что потенциальные террористы будут использовать его для поддерживать насильственную, экстремистскую идеологию, которая будет вдохновлять других поддерживать насильственную экстремистскую идеологию», — он сказал. «Я рассматриваю эту технологию в том же духе».

Amber Video — это платформа, которая рекламирует свои услуги как борьбу с дипфейками, чтобы «предотвратить мошенничество, потерю репутации и недоверие заинтересованных сторон». Аллибхай сказал, что не знает, готов ли он купить что-то только потому, что на нем было его лицо, но он согласен, что в конечном итоге технология будет всеобъемлющий.

«Это зеркало общества», — сказал он. «Вы видите это в таких технологиях, как платформа Twitter. Вы видите лучшее в человечестве и худшее из нас. Технология Deepfake также будет отражать общество. Есть люди, которые будут использовать его для беззаботной сатиры и высмеивать авторитарные режимы. Но мы также попытаемся сеять хаос».

Использование дипфейков в качестве оружия

Самым большим страхом остается возможность злоупотреблений и использования дипфейков в качестве оружия. Поскольку они становятся все более распространенными, мы можем даже увидеть, как их используют не только для широкомасштабных кампаний по дезинформации, но и для розыгрышей или издевательств в старшей школе. Если технология достаточно доступна, ею может воспользоваться каждый.

И Carica, и RefaceAI заявили, что принимают меры для предотвращения потенциальных злоупотреблений — RefaceAI с помощью веб-сервиса обнаружения дипфейков и Carica с модераторами контента. По словам Джанга, вся компания Carica сейчас состоит всего из девяти человек, и они выполняют обязанности по модерации контента.

«Даже Photoshop может использоваться и использовался для издевательств. Но с другой стороны, мы даем противоядие».

«Это был действительно первый вопрос, который мы задали себе», — сказал Могильный из RefaceAI. «Мы уже много лет занимаемся этим в контексте политических скандалов в Украине. Мы понимаем, что наши технологии могут быть использованы не по назначению. Даже Photoshop может использоваться и использовался для издевательств. Но с другой стороны, мы даем от этого противоядие. У нас были пользователи, загружавшие в наше приложение контент сексуального характера, и мы сразу же заблокировали этих пользователей».

Carica — достаточно маленькое приложение, поэтому им пока приходится работать с ним. Но в целом Чан не волновался.

«Это происходит со всеми новыми технологиями», — сказал Джанг. «Во-первых, это вызвано неправильным использованием, но затем, после этого этапа, оно становится доступным для всех, и люди используют его для обычных целей».

Рекомендации редакции

  • Роботы-охранники могут прийти в ближайшую к вам школу
  • Amazon использует ИИ для обобщения обзоров продуктов
  • Amazon планирует изменения в поиске «раз в поколение», говорится в объявлении о работе
  • Миникомпьютер Jetson Orin Nano от Nvidia стоимостью 200 долларов в 80 раз быстрее предыдущей версии
  • Google Smart Canvas обеспечивает более глубокую интеграцию между приложениями