„Дълбоките видеопортрети“ са плашещо реалистичното бъдеще на фалшивите новини

Дълбоки видео портрети - SIGGRAPH 2018

Ако смятате, че това е било проблем до този момент, борба с фалшивите новини ще стане много по-трудно. Това е благодарение на технологията за изкуствен интелект, която прави създаването на така наречените „дълбоки фалшиви“ видеоклипове по-убедителни с откровено ужасяваща скорост. Най-новото развитие идва от международен екип от изследователи, ръководен от германския Институт за информатика Макс Планк.

Те са създали AI за дълбоко обучение. система, която може да редактира изражението на лицето на актьорите, за да съответства точно на дублираните гласове. В допълнение, той може да променя позите на погледа и главата във видеоклипове и дори да анимира очите и веждите на човек, за да съвпаднат с устата му – което представлява стъпка напред от предишна работа в тази област.

Препоръчани видеоклипове

„Той работи, като използва базирано на модел 3-D улавяне на представянето на лицето, за да записва детайлните движения на веждите, устата, носа и главна позиция на актьора на дублажа във видео,” Hyeongwoo Kim, един от изследователите от Института Макс Планк за информатика,

се казва в изявление. „След това транспонира тези движения върху „целевия“ актьор във филма, за да синхронизира точно устните и движенията на лицето с новото аудио.“

Изследователите предполагат, че едно възможно реално приложение на тази технология може да бъде във филмовата индустрия, където може да изпълнява задачи като улесняване и достъпно манипулиране на кадри, за да съответства на дублиран чужд вокал песен. Това ще доведе до по-безпроблемно възпроизвеждане на филми по целия свят в сравнение с днес където дублажът често води до (понякога комедийно) несъответствие между устните на актьора и дублирания глас.

Все пак е трудно да се погледне това изследване и да не се види потенциалът за злоупотреба с технологията. Заедно с други A.I. технологии, които го правят възможно да се синтезират думи изречено, да кажем, с гласа на Барак Обама, възможността това да направи настоящата епидемия от фалшиви новини да изглежда нищожна в сравнение с това, за съжаление, е налице. Да се ​​надяваме, че по някакъв начин ще бъдат въведени подходящи предпазни мерки за регулиране на използването на тези инструменти.

Изследването „Deep Video Portraits“ беше представено наскоро на конференцията SIGGRAPH 2018 във Ванкувър, Канада.

Препоръки на редакторите

  • Meta направи DALL-E за видео и това е едновременно страховито и невероятно
  • Защо обучението на роботи да играят на криеница може да бъде ключът към ИИ от следващо поколение
  • Това основно човешко умение е следващият основен крайъгълен камък за ИИ.
  • Бъдещите JPEG могат да използват блокчейн за маркиране на фалшификати, а A.I. за по-малки размери на файлове
  • Дълбоко обучение A.I. може да имитира ефектите на изкривяване на емблематичните китарни богове

Надградете начина си на животDigital Trends помага на читателите да следят забързания свят на технологиите с всички най-нови новини, забавни ревюта на продукти, проницателни редакционни статии и единствени по рода си кратки погледи.