Миналата седмица Федералното бюро за разследване (ФБР) издаде съобщение за обществена услуга за нарастването на изричното дълбоко фалшиво съдържание и как то се използва за престъпления като изнудване, изнудване и тормоз. Най-просто казано, deepfake е синтетичен мултимедиен материал, който се опитва да имитира оригинал. Това може да бъде снимка, видео или аудио клип от AI поколение.
Съдържание
- Какво казват експертите за deepfakes
- Как можете да се предпазите
- Социалните медии, работещи безопасно и отговорно
- Какво да направите, ако получите дълбок фалш
- Как да забележите deepfakes
- Сериозен проблем с полуефективни решения
Името „deepfake“ идва от присъщата технология, използвана при създаването на такава медия - дълбоко обучение - която включва обучение на AI модел с помощта на оригинален материал и след това модифицирането му, за да генерира желаното резултати. Не е точно ново изобретение, но с генеративният AI експлодира в популярност — и достъп — дълбоко фалшивите престъпления нарастват.
Препоръчани видеоклипове
Тяхната популярност е толкова голяма, че дори кампанията на републиканския кандидат за президент Рон ДеСантис използва дълбоки фалшиви изображения на съперника Доналд Тръмп, за да го злепостави. Deepfakes също са една от причините навсякъде да се повдигат призиви за регулиране на AI. Според ФБР съдържанието за генериране на дълбоки фалшиви съобщения обикновено се премахва от публикации в социалните медии и клипове за видео разговори, преди да бъдат модифицирани в сексуално явни материали за изнудване и тормоз.
Свързани
- Създателят на ChatGPT OpenAI е изправен пред разследване на FTC относно законите за защита на потребителите
- Трафикът на уебсайта на ChatGPT е спаднал за първи път
- OpenAI изгражда нов екип, за да спре свръхинтелигентния AI да стане измамник
Какво казват експертите за deepfakes
И така, какво е решението? За съжаление няма решение. Поне не без да правите компромис – такъв, който фундаментално обръща цялото значение на „социалните медии“ на главата.
„За съжаление, единственият начин да сте сигурни, че нито една от вашите снимки или видеоклипове не се използват за създаване на дълбоки фалшификати, е да спрете да публикувате вашите снимки онлайн, но това би отнело много забавление на интернет потребителите“, казва Адрианус Варменховен, специалист по киберсигурност съветник при Норд.
„С появата на нови и по-добри практики за сигурност злонамерените участници ще намерят начин да причинят вреда. Това е игра на наваксване и понякога е разочароващо“, казва Партик Саран, бивш служител на Google и създател на инструмент за управление на пароли от следващо поколение, наречен Uno. Освен това той предлага, че човек трябва да се опита да приеме „философия на нулево доверие“, когато става въпрос за публикуване съдържание в социалните медии и набляга на ефективната комуникация с познати, за да се предпазите от deepfake измами.
„Въпреки че изкуственият интелект може да помогне за справяне с опасенията за цифрова безопасност, няма надеждна защитна мрежа“, казва Ярон Литвин, експерт по цифрова безопасност и CMO в Сенник. Едноименното приложение на компанията е насочено към предпазване на децата от онлайн сексуални престъпления и също така предлага разнообразен набор от родителски контрол. Litwin добавя, че трябва да избягвате публикуването на интимни или компрометиращи изображения, като същевременно намалите честотата на публикуване дори на нормални изображения.
Как можете да се предпазите
Deepfakes са ужасяващи и е трудно да се разбере травмата, която могат да нанесат на човек и членовете на семейството му. Но има няколко начина, по които потребителите могат да избегнат попадането в капана или поне да се отдръпнат до голяма степен.
За да разберете какви са средните стъпки смартфон потребителите с типични дигитални умения могат да приемат, се свързах с Андрю Гарднър, вицепрезидент по изследвания и иновации в Gen Digital, софтуерна компания, която предлага надеждни инструменти за безопасност като Norton, Avast и Avira, наред с други.
Гарднър казва, че протоколите за безопасност започват на основно ниво. Потребителите трябва да започнат, като превърнат своите профили в частни — или най-малкото променят настройките за видимост на публикацията, така че само хората, които следват взаимно, да могат да виждат и взаимодействат с публикациите им. Родителски контрол, които вече са достъпни за почти всяка голяма социална медийна платформа, трябва да бъдат активирани старателно, така че настойниците да могат да следят всякакви подозрителни взаимодействия.
Общият съвет е, че човек трябва да приема заявки само от хора, които познава, но предприемането на допълнителна стъпка може да извърви дълъг път. „Ако работите в мрежа, проверете последните публикации и дейности на поканените, за да прецените доколко са реални“, казва Гарднър, добавяйки, че човек трябва да внимава с „акаунтите“. с малко приятели или общи приятели.“ Друг важен съвет, който изпълнителният директор на Gen Digital трябва да даде, е проверката и ограничаването на социалните медии влизания.
Потребителите често посещават онлайн услуги и за да избегнат проблемите със създаването на акаунт, те избират опцията за влизане в социалните медии. „Това дава на приложенията достъп до лична информация и в някои ситуации тези приложения продават тази информация на трети страни“, казва той. Скандалът с Cambridge Analytica, свързан с Facebook е чудесен пример. Човек трябва периодично да проверява кои приложения са свързани с техните акаунти в социалните медии и ако не е необходимо, достъпът им трябва да бъде отменен.
Deepfakes са сложни престъпления, задвижвани от AI, но Гарднър предлага потребителите все пак да се придържат към някои основни указания за безопасност - като като позволяване на двуфакторно удостоверяване, използване на силни пароли, активиране на биометрични пароли и избягване на подозрителни или неизвестни връзки.
Социалните медии, работещи безопасно и отговорно
Litwin от Canopy е на мнение, че колкото повече споделяте, толкова по-лесно става създаването на убедителни deepfakes. Няма недостиг на сенчести модели за генериране на изображения с изкуствен интелект без никакви ограничения за създаване на явен материал. Тези инструменти разчитат на въведени изображения, за да обучат модела. Колкото повече данни за обучение се подават, толкова по-точни и реалистични стават дълбоките фалшификати.
Това е стандартната тактика, прилагана от основните генератори на изображения с изкуствен интелект като MidJourney. Ако вашата социална емисия е отворена и има достатъчно количество снимки и видеоклипове, няма спиране на лошия актьор да ги изтрие, за да създаде компрометиращи дълбоки фалшиви изображения. Но ако сте сред хората, които виждат стойността на социалните медии като място за запазване на най-ценните ви спомени, има няколко мерки, които трябва да предприеме.
„Внимавайте каква лична информация споделяте онлайн, коригирайте настройките за поверителност на вашите акаунти, активирайте двуфакторно удостоверяване и внимателно преглеждайте изображенията за всякакви несъвършенства“, отбелязва Бойд Клюис, експерт по киберсигурност в Съвета за сигурност на Forbes и автор на „През защитната стена: Алхимията на превръщането на кризата във възможност“.
Но как надеждно да забележите профил в социални медии, който вероятно има лош актьор зад себе си, ангажиран със сенчести действия като създаване и разпространение на дълбоки фалшиви съобщения? „Ако видео или аудио материал се споделя от подозрителни профили и акаунтите не съдържат лична информация или снимки, вероятно профилът е фалшив“, предполага Томас Самулис, архитект по информационна сигурност в Baltic Amadeus. Той предполага, че такива профили, в които липсва лична информация, са създадени специално за разпространение на фалшификати и друга противоречива информация.
Какво да направите, ако получите дълбок фалш
Но има толкова много предпазни мерки, които средният потребител на смартфон може да вземе. Дори и най-разбиращите се в цифровите технологии потребители се оказват жертва на киберпрестъпления, дори след това използвайки всички стандартни инструменти като двуфакторно удостоверяване, лични профили и биометрични данни защитни стени.
Ако, въпреки че сте взели всички предпазни мерки, все още се оказвате в центъра на дълбоко фалшиво престъпление, потърсете експертен съвет и помощ от властите, вместо да поемате нещата в свои ръце. Експертите отбелязват, че задържането на такъв тормоз или опитите дискретно да се справят сами с него често влошава ситуацията за жертвите.
„Ако откриете, че някой злоупотребява с вашето съдържание, потърсете съвет, запознат със закона за авторското право, за да ви помогне да премахнете съдържанието като възможно най-бързо“, казва Роб Скот, член на адвокатската колегия на Далас и лицензиран правен експерт в области като риск за киберсигурността и данни поверителност.
Консултацията с правен експерт е от решаващо значение, защото те могат да ви напътстват през вашите цифрови права, Litwin на Canopy също предлага да запазите всички доказателства, съветвайки жертвите да „документират всякакви доказателства за опитите за изнудване, като съобщения, имейли или всяка форма на комуникация, свързана с изнудване.”
Друг важен съвет е жертвата незабавно да прекрати всякакъв контакт с престъпник, защото престъпникът може допълнително да я манипулира или тормози с по-сериозни искания за изнудване. В същото време потребителите трябва да се свържат с експерт по киберсигурност или да наберат една от правителствените телефонни линии за киберпрестъпления, за да предприемат правилните мерки навреме.
Как да забележите deepfakes
Тъй като AI двигателите стават все по-сложни, видът дълбоки фалшификати, които произвеждат, стават зловещо реални и трудни за забелязване. Въпреки това все още има няколко маркера, на които потребителите могат да обърнат внимание, за да забележат синтетично променен или генериран от AI компрометиращ материал.
Следва компилация от идентификатори на deepfake, които експертите трябва да предложат:
- Внимавайте за неестествени движения на очите. Ако изглежда, че очите на човек не мигат, движението на очите е изключено или изражението на лицето не изглежда синхронизирано с думите, които изговаря, най-вероятно това е дълбок фалшив клип. Липсата на емоции или несвързаните емоции са издайнически маркер, че медиите са дигитално трансформирани.
- „Технологията Deepfake обикновено се фокусира върху чертите на лицето“, казва Гарднър. „Ако формата на тялото на човека не изглежда естествена или ако движенията му са резки и несвързани, видеото вероятно е дълбок фалшив.“
- Друг надежден маркер е фонът, който може да изглежда неестествено размазан или показва странни визуални артефакти. Друг лесен начин за забелязване на дълбоки фалшификати е да търсите необичайно обезцветяване или сериозно несъответствие на цветовете, особено по отношение на лицето и сянката на предметите наоколо.
- Ако попаднете на снимка, на която човек люлее „перфектна коса“ и не можете да забележите отделни елементи като няколко кичура развяваща се коса или къдрене, бъдете внимателни. Известно е също, че AI моделите се борят със зъби. Внимавайте за зъби, които са или неестествено идеални, или такива, на които липсват очертания на отделни зъби, или може би повече зъби от обичайната човешка протеза.
- Неправилно подравнени части на тялото, замъглени ръбове, няколко излишни или по-малко пръсти, странно изкривени крайници, несинхронизирани движения части от тялото и глас без паузи и емоционални прекъсвания са другите признаци, на които трябва да следите внимателно за. „Фалшивите гласови или аудиозаписи често имат фонов шум, роботизирано звучащи гласове и странно произношение“, обяснява Самулис.
Сериозен проблем с полуефективни решения
Както беше обяснено по-горе, няма надеждна защитна мрежа срещу дълбоки фалшификации. Но ако внимавате къде споделяте снимки, кой може да ги види и докъде достига достъпът ви до социални медии, можете да останете в относително безопасна зона.
Човек също трябва да обърне внимание на това кои са техните онлайн приятели и също така да провери дейностите на новите покани, преди да ги добави към своя приятелски кръг в социалните медии. Що се отнася до deepfakes, това е малко сложно. Но ако останете бдителни и отделите време, за да оцените несъответствията в подозрителна снимка или видео, дълбоките фалшификати могат да бъдат забелязани с доста висока степен на точност.
В крайна сметка всичко е свързано с култивирането на хигиенни онлайн навици и оставането на бдителност във все по-склонното към фалшификации онлайн пространство.
Препоръки на редакторите
- Google Bard вече може да говори, но може ли да заглуши ChatGPT?
- Новата AI компания на Илон Мъск има за цел да „разбере вселената“
- Пробивите в ИИ могат да дойдат чрез мозъците на пчелите, твърдят учени
- OpenAI разкрива местоположението на първия си международен пост
- 81% смятат, че ChatGPT е риск за сигурността, установи проучване