Малкократно състезателно обучение на реалистични модели на невронни говорещи глави
ИИ става все по-добър и по-добър в производството фалшиви видеоклипове, за всичко от забавно добавя Никълъс Кейдж във филми, за да злонамерено разпространяване на фалшиви новини. Сега Samsung разработи софтуер, който прави създаването на фалшиви видеоклипове още по-лесно.
Препоръчани видеоклипове
Новият A.I. софтуерът е разработен в Samsung A.I. Център в Москва. Както е описано в документ, наличен в архива преди публикуване arXiv, е ново развитие в технологията. Преди това повечето дълбоки фалшиви софтуери изискваха много голям брой изображения на лицето на конкретен човек, за да картографират това лице върху видеоклип. Но новият софтуер може да създаде донякъде убедителни фалшификати само от няколко изображения на човек. Потенциално може дори да работи с едно изображение на лице.
Качеството на фалшификатите, произведени от A.I. все още е много променлив и колко убедителен ще бъде един фалшификат зависи от фактори като осветлението на оригиналните и целевите изображения и приликата между тях двете.
Свързани
- Новата дисплейна технология на Samsung прави Galaxy S21 Ultra още по-енергийно ефективен
- Нов изкуствен интелект слуховият апарат научава вашите предпочитания за слушане и прави корекции
- Фен на Стар Трек дълбоко фалшифицира Данните от ерата на следващото поколение в новата поредица на Пикард
За да демонстрира новия софтуер, екипът на Samsung сподели видеоклип, показващ забавни приложения като „живи портрети“, в които са представени изображения на знаменитости като Мерилин Монро и Салвадор Дали до живот. Има дори видео клип на Мона Лиза, анимиран, за да покаже възможностите на софтуера.
Но потенциалът за злоупотреба с тази технология е сериозен, както се вижда в подправен клип на политика Нанси Пелоси, който в момента обикаля Facebook.
Авторите на статията, Егор Захаров и колегите му, са наясно с този потенциал за злоупотреба и изглежда имат предвид това. „Вярваме, че технологиите за телеприсъствие в AR, VR и други медии трябва да трансформират света в не толкова далечното бъдеще“, пишат те в YouTube. „Осъзнаваме, че нашата технология може да има отрицателна полза за така наречените „deepfake“ видеоклипове. Въпреки това е важно да се разбере, че Холивуд прави фалшиви видеоклипове (известни още като „специални ефекти“) от век, а дълбоки мрежи с подобни възможности са налични през последните няколко години.”
Авторите описват своя софтуер като демократизиращ специални ефекти и пишат, че „нетният ефект от демократизацията в света беше положителна и механизмите за спиране на отрицателните ефекти бяха развити. Вярваме, че случаят с технологията за невронни аватари няма да бъде по-различен.“
Може да се каже, че възможността за обработка на видеоклипове с този вид софтуер не е толкова различна от способността за обработка на изображения с Photoshop. Но тъй като софтуерът става все по-често срещан, важно е да запомните, че това, че го виждате във видеоклип, не означава, че е истински.
Препоръки на редакторите
- Забавната формула: Защо машинно генерираният хумор е свещеният граал на ИИ
- Умен нов A.I. системата обещава да обучи вашето куче, докато сте далеч от дома
- Футуристичен нов уред използва A.I. за сортиране и подготовка на вашето рециклиране
- Този новаторски нов стил на A.I. научава нещата по съвсем различен начин
- Нов „A.I. адвокат“ анализира вашите имейли, за да намери вратички за спестяване на пари
Надградете начина си на животDigital Trends помага на читателите да следят забързания свят на технологиите с всички най-нови новини, забавни ревюта на продукти, проницателни редакционни статии и единствени по рода си кратки погледи.