Представьте себе извилистый фильм о главном преступнике, который ведет интеллектуальную войну с величайшим детективом мира.
Содержание
- Проблема дипфейков
- Обман детекторов
- Игра в дипфейковые кошки-мышки
Преступник пытается провернуть масштабный трюк, используя ловкость рук и сверхъестественную способность маскироваться практически под любого жителя планеты. Он настолько хорош в своем деле, что может заставить людей поверить, что они видели вещи, которых на самом деле никогда не было.
Рекомендуемые видео
Но тут мы встречаем детектива. Она блестящая, непреклонная личность, способная распознать «подсказку» любого вора. Она знает, на что обращать внимание, и даже самого незначительного поведения — поднятой брови здесь, опущенной гласной там — достаточно, чтобы предупредить ее, когда что-то не так. Она единственный человек, который когда-либо поймал нашего антагониста, и теперь она снова идет по его следу.
Связанный
- Награды Digital Trends Tech For Change CES 2023
- Meta хочет усовершенствовать Википедию с помощью обновления ИИ
- Как мы узнаем, когда ИИ действительно станет разумным?
Однако есть проблема: наш вор это знает. она знает, что искать. В результате он изменил свою игру, хотя главный герой этого не осознавал.
Проблема дипфейков
По сути, это история дипфейков и обнаружения дипфейков на данный момент. Дипфейки — форма синтетических медиа, в которых образы людей могут быть изменены в цифровом виде, как Лицо/Выкл. ремейк режиссера А.И. исследователей, стали поводом для беспокойства с тех пор, как они появились на сцене в 2017 году. Хотя многие дипфейки беззаботны (замена Арни для Хитрого Сталлоне в Терминатор), они также представляют потенциальную угрозу. Дипфейки использовались для создания фальшивых порнографических видеороликов, которые выглядели реальными, и использовались в политических мистификациях, а также в финансовых махинациях.
Чтобы такие мистификации не стали еще большей проблемой, кто-то должен иметь возможность вмешаться и сказать, когда дипфейк используется, а когда нет.
«Детекторы дипфейков работают, выявляя те детали дипфейка, которые не совсем верны, выискивая на изображениях не просто жуткие долины, но и мельчайшие жуткие выбоины».
Вскоре появились первые детекторы дипфейков. К апрелю 2018 года я покрыл одна из первых попыток сделать это, который был построен исследователями из Мюнхенского технического университета. Как и сама технология дипфейков, здесь использовался искусственный интеллект. — только на этот раз его создатели использовали его не для создания фейков, а для их обнаружения.
Детекторы дипфейков работают путем поиска тех деталей дипфейка, которые не довольно правильно, просматривая изображения не просто в поисках жутких долин, но и в поисках мельчайших жутких выбоин. Они вырезают данные о лицах из изображений, а затем передают их через нейронную сеть, чтобы выяснить их легитимность. Детали раздачи могут включать в себя такие вещи, как плохо воспроизведенное моргание глаз.
Но теперь исследователи из Калифорнийского университета в Сан-Диего придумали способ обойти детекторы дипфейков, вставив в видеокадры так называемые состязательные примеры. Состязательные примеры — это увлекательный, но в то же время пугающий сбой в системе искусственного интеллекта. Матрица. Они способны обмануть даже самые умные системы распознавания, например, думаю, что черепаха - это пистолетили эспрессо — это бейсбол. Они делают это путем тонкого добавления шума в изображение, что приводит к неправильной классификации нейронной сети.
Это все равно, что принять винтовку за панцирную рептилию. Или поддельное видео под настоящее.
Обман детекторов
«В последнее время наблюдается всплеск методов создания реалистичных дипфейковых видео», Парт Нехара, аспирант компьютерной инженерии Калифорнийского университета в Сан-Диего, рассказал Digital Trends. «Поскольку эти обработанные видео могут быть использованы в злонамеренных целях, были предприняты значительные усилия по разработке детекторов, которые смогут надежно обнаруживать дипфейковые видео. Например, Фейсбук недавно запустил конкурс Deepfake Detection Challenge, чтобы ускорить исследования по разработке детекторов Deepfake. [Но] хотя эти методы обнаружения могут достигать точности более 90% на наборе данных фейковых и реальных видео, наша работа показывает, что злоумышленник может легко их обойти. Злоумышленник может внедрить тщательно созданный шум, практически незаметный для человеческого глаза, в каждый кадр видео, так что детектор жертв неправильно его классифицирует».
Злоумышленники могут создать такие видео, даже не обладая специальными знаниями об архитектуре и параметрах детектора. Эти атаки также по-прежнему работают после сжатия видео, как если бы они были опубликованы в Интернете на такой платформе, как YouTube.
При тестировании метод более чем на 99% способен обмануть системы обнаружения при наличии доступа к модели детектора. Однако даже при самых низких уровнях успеха — для сжатых видео, в которых не было известно никакой информации о моделях детекторов — он все равно побеждал их в 78,33% случаев. Это не очень хорошая новость.
Исследователи отказываются публиковать свой код на том основании, что его можно использовать не по назначению, отметил Нехара. «Состязательные видео, созданные с использованием нашего кода, потенциально могут обойти другие невидимые детекторы дипфейков, которые используются в производстве некоторыми социальными сетями [платформами]», — пояснил он. «Мы сотрудничаем с командами, которые работают над созданием систем обнаружения дипфейков, и используем наши исследования для создания более надежных систем обнаружения».
Игра в дипфейковые кошки-мышки
Это, конечно, не конец истории. Возвращаясь к нашей аналогии с фильмом, это будет всего лишь около 20 минут фильма. Мы еще не дошли до сцены, где детектив понимает, что вор думает, что обманул ее. Или до того момента, когда вор понимает, что детектив знает, что он знает, что она знает. Или.. вы получите картину.
Такая игра в кошки-мышки по обнаружению дипфейков, которая, вероятно, будет продолжаться бесконечно, хорошо известна каждому, кто работал в сфере кибербезопасности. Злонамеренные хакеры находят уязвимости, которые затем блокируются разработчиками, прежде чем хакеры находят уязвимости в своей исправленной версии, которая затем снова дорабатывается разработчиками. Продолжать до бесконечности.
«Да, системы генерации и обнаружения дипфейков внимательно следят за динамикой вирусов и антивирусов», Шехзин Хусейн, доктор компьютерных наук Калифорнийского университета в Сан-Диего. студент, рассказал Digital Trends. «В настоящее время детекторы дипфейков обучаются на наборе данных реальных и фейковых видео, созданных с использованием существующих методов синтеза дипфейков. Нет никакой гарантии, что такие детекторы будут защищены от будущих систем генерации дипфейков… Чтобы оставаться впереди В условиях гонки вооружений методы обнаружения необходимо регулярно обновлять и обучать будущим методам синтеза дипфейков. [Их] также необходимо сделать устойчивыми к состязательным примерам, включив состязательные видео во время обучения».
А документ с описанием этой работыпод названием «Состязательные дипфейки: оценка уязвимости детекторов дипфейков к состязательным примерам» недавно была представлена на виртуальной конференции WACV 2021.
Рекомендации редакции
- ИИ превратил «Во все тяжкие» в аниме — и это ужасно
- Почему ИИ никогда не будет править миром
- Оптические иллюзии могут помочь нам создать ИИ следующего поколения
- Последний штрих: как ученые наделяют роботов человеческими тактильными чувствами
- Аналоговый ИИ? Это звучит безумно, но это может быть будущее
Обновите свой образ жизниDigital Trends помогает читателям быть в курсе быстро меняющегося мира технологий благодаря всем последним новостям, забавным обзорам продуктов, содержательным редакционным статьям и уникальным кратким обзорам.