Унутар рата између Деепфакес и Деепфаке детектора

Замислите уврнути филм о главном криминалцу закључаном у рату памети са највећим детективом на свету.

Садржај

  • Проблем дубоког лажирања
  • Заваравање детектора
  • Игра деепфаке мачке и миша

Криминалац покушава да изведе огроман трик са самопоуздањем, користећи вештину руку и необичну способност да се преруши у било кога на планети. Толико је добар у ономе што ради да може да натера људе да верују да су видели ствари које се заправо никада нису догодиле.

Препоручени видео снимци

Али онда упознајемо детектива. Она је бриљантна врста која не зауставља ништа и може уочити „кажи“ сваког лопова. Она тачно зна шта да тражи, а чак и најситније понашање - подигнута обрва овде, испуштен самогласник тамо - довољно је да је упозори када нешто није у реду. Она је једина особа која је икада ухватила нашег антагониста, а сада је поново на његовом трагу.

Повезан

  • Дигитал Трендс’ Тецх Фор Цханге ЦЕС 2023 награде
  • Мета жели да надопуни Википедију надоградњом вештачке интелигенције
  • Како ћемо знати када АИ заправо постаје свестан?

Међутим, постоји проблем: наш лопов то зна она зна шта да тражи. Као резултат тога, променио је своју игру, а да протагониста то није схватио.

Проблем дубоког лажирања

Ово је, у суштини, прича о дубоким лажњацима и досадашњој детекцији деепфаке-а. Деепфакес, облик синтетичких медија у којима се личности људи могу дигитално мењати као Суочавање римејк у режији А.И. истраживачи, били су разлог за забринутост откако су се појавили на сцени 2017. Док су многи деепфакес безбрижни (замена Арни за Слаја Сталонеа у Терминатор), такође представљају потенцијалну претњу. Деепфакес су коришћени за креирање лажних порнографских видео снимака који изгледају као стварни и коришћени су у политичким преварама, као и у финансијским преварама.

Да такве преваре не би постале још већи проблем, неко мора бити у могућности да уђе и дефинитивно каже када се користи деепфаке, а када не.

„Детектори дубоког лажирања функционишу тако што траже оне детаље дубоког лажирања који нису сасвим тачни тако што претражују слике не само у чудним долинама, већ и за најмању чудну рупу.”

Није требало дуго да се појаве први детектори дубоког лажирања. До априла 2018. покривао сам један од ранијих покушаја да се то уради, који су изградили истраживачи са немачког Техничког универзитета у Минхену. Баш као и сама деепфаке технологија, користила је А.И. — само што су га овог пута креатори користили не да би креирали лажне, већ да би их уочили.

Деепфаке детектори раде тако што траже оне детаље деепфакеа који нису прилично управо тако што тражи слике не само чудесних долина, већ и најмањих језовитих рупа. Они изрезују податке о лицу са слика, а затим их прослеђују кроз неуронску мрежу да би открили њихову легитимност. Детаљи поклона могу укључивати ствари као што је лоше репродуковано трептање ока.

Али сада су истраживачи са Калифорнијског универзитета у Сан Дијегу смислили начин да победе детекторе дубоког лажирања убацивањем онога што се назива супротстављеним примерима у видео оквире. Примери супротстављања су фасцинантан — али застрашујући — квар у А.И. Матрик. Они су у стању да преваре чак и најпаметније системе препознавања у, на пример, мислећи да је корњача пушка, или еспресо је бејзбол. Они то раде тако што суптилно додају шум у слику тако да узрокује да неуронска мрежа направи погрешну класификацију.

Као да сте заменили пушку са гранатираним гмизавцем. Или лажни видео за прави.

Заваравање детектора

„Недавно је дошло до пораста метода за генерисање реалистичних дубоких видео снимака,“ Паартх Неекхара, студент рачунарског инжењерства УЦ Сан Диего, рекао је за Дигитал Трендс. „Пошто се ови манипулисани видео снимци могу користити у злонамерне сврхе, уложени су значајни напори у развоју детектора који могу поуздано да открију дубоко лажне видео снимке. На пример, Фејсбук недавно је покренуо Деепфаке Детецтион Цхалленге како би убрзао истраживање о развоју детектора деепфаке. [Али] док ове методе детекције могу постићи више од 90% тачности на скупу података лажних и стварних видео записа, наш рад показује да их нападач може лако заобићи. Нападач може да унесе пажљиво направљен шум, који је прилично неприметан за људско око, у сваки кадар видео записа, тако да детектор жртве буде погрешно класификован."

Фацебоок Деепфаке Цхалленге

Нападачи могу да направе ове видео снимке чак и ако не поседују специфично знање о архитектури и параметрима детектора. Ови напади и даље функционишу након компримовања видео записа, као што би били када би се делили на мрежи на платформи као што је ИоуТубе.

Када је тестиран, метода је била више од 99% способна да завара системе за детекцију када је добио приступ моделу детектора. Међутим, чак и на најнижим нивоима успеха - за компримоване видео снимке у којима нису биле познате информације о моделима детектора - и даље их је победио у 78,33% времена. То није сјајна вест.

Истраживачи одбијају да објаве свој код на основу тога да би могао бити злоупотребљен, приметио је Неекхара. „Супарнички видео снимци генерисани коришћењем нашег кода могу потенцијално заобићи друге невидљиве детекторе дубоког лажирања који се користе у продукцији на неким друштвеним медијима [платформама]“, објаснио је он. „Сарађујемо са тимовима који раде на изградњи ових система за откривање дубоких лажирања и користе наше истраживање за изградњу робуснијих система за откривање.

Игра деепфаке мачке и миша

Ово, наравно, није крај приче. Да се ​​вратимо на нашу филмску аналогију, ово би ипак било само око 20 минута у филму. Још нисмо стигли до места где детектив схвата да лопов мисли да ју је преварио. Или до дела где лопов схвата да детектив зна да он зна да она зна. Или.. добијаш слику.

Таква игра мачке и миша за детекцију деепфаке-а, која ће се вероватно наставити у недоглед, добро је позната свима који су радили у сајбер безбедности. Злонамерни хакери проналазе рањивости, које програмери затим блокирају, пре него што хакери пронађу рањивости у њиховој фиксној верзији, коју програмери поново подешавају. Наставите до бесконачности.

„Да, системи за генерисање и откривање дубоког лажирања помно прате динамику вируса и антивируса“, Схехзеен Хуссаин, докторат рачунарског инжењерства УЦ Сан Диего. студент, рекао је за Дигитал Трендс. „Тренутно су детектори дубоког лажирања обучени на скупу података стварних и лажних видео записа који су генерисани коришћењем постојећих техника синтезе деепфаке-а. Не постоји гаранција да ће такви детектори бити сигурни против будућих система деепфаке генерације… Да останемо испред у трци у наоружању, методе откривања треба редовно да се ажурирају и обучавају о предстојећим техникама синтезе дубоког лажирања. [Они] такође морају да буду отпорни на супарничке примере тако што ће се током обуке укључити супротстављени видео снимци.”

А рад који описује ово дело, под називом „Адверсариал Деепфакес: Евалуатинг Вулнерабилити оф Деепфаке Детецторс то Адверсариал екамплес“, недавно је представљен на виртуелној конференцији ВАЦВ 2021.

Препоруке уредника

  • АИ је претворио Бреакинг Бад у аниме - и то је застрашујуће
  • Зашто АИ никада неће владати светом
  • Оптичке илузије би нам могле помоћи да изградимо следећу генерацију вештачке интелигенције
  • Завршни додир: Како научници дају роботима људска тактилна чула
  • Аналогни А.И.? Звучи лудо, али то би могла бити будућност

Надоградите свој животни стилДигитални трендови помажу читаоцима да прате убрзани свет технологије са свим најновијим вестима, забавним рецензијама производа, проницљивим уводницима и јединственим кратким прегледима.