Знаете ли, че можете да направите дълбоко фалшиво видео от комфорта на собствения си дом или на телефона си? Изтеглете някое от множеството приложения за смяна на лица или дълбоки фалшиви приложения, налични случайно от вашия местен магазин за приложения и вие също може да повлияе на избори.
Съдържание
- Бъдещето на медиите
- Въоръжаване на deepfakes
Добре, не съвсем и определено не одобряваме това. Но в шума и загрижеността наоколо deepfake технология и нейната много реална злоупотреба, простата истина е, че тази технология няма да изчезне. Всъщност това ще стане толкова обичайно, колкото Photoshop, особено ако разработчиците на приложения работят върху него deepfake tech имат какво да кажат за това: Скоро можем да видим хипер-таргетирани реклами с нашите собствени лица тях.
Препоръчани видеоклипове
Роман Могилни, главен изпълнителен директор на RefaceAI, стартъп, базиран в Украйна, каза, че работят с машинно обучение от 2011 г. и се насочиха към създаването на свои собствени приложения, базирани на технологията deepfake през 2014 г. RefaceAI вече пусна приложение за дълбоко фалшифициране на снимки, наречено Reflect, и е на прага да пусне както собственото си приложение за дълбоко фалшифициране на видео, така и уеб услуга, която ще помогне за откриването на дълбоки фалшиви видеоклипове.
Свързани
- Задвижваният от изкуствен интелект коментар идва на Уимбълдън следващия месец
- Суперкомпютърът на Nvidia може да донесе нова ера на ChatGPT
- Награди Tech For Change на CES 2023 на Digital Trends
„От самото начало видяхме, че с тази технология се злоупотребява“, каза Могилни. „Мислехме, че можем да го направим по-добре.“
Технология RefaceAI Deepfake | Ние ще танцуваме
RefaceAI вече работи с някои филмови продуцентски компании – въпреки че Mogylnyi не може да каже кои – за да използва технологията си за размяна на лица на актьори върху двойници на тялото, на цена много по-малка от тази, която би било да се върнат актьорите със самолет, за да снимат и заснемат отново сцените в въпрос. Това, каза Могилни, е това, което компанията вижда като бъдещето на deepfakes. „Искаме да го използваме за маркетинг, за персонализиране на реклами, за gifs, за развлекателни материали като цяло“, каза той.
Бъдещето на медиите
RefaceAI не е компанията, която се опитва да изпревари тази неизбежна маркетингова крива. Carica, приложение, базирано в Южна Корея, също разработва дълбоко фалшиви GIF файлове и видеоклипове, в които човек може да присади лицето си върху популярен реакционен GIF, който да изпрати на приятели и семейство. Приложението вече разполага с изскачащи реклами, които включват лицето на потребителя в снимката или видеоклипа на рекламата.
„Искаме нашата компания да се превърне в медийна компания“, каза инженерът на Carica Джоузеф Джанг пред Digital Trends. Deepfakes са точно начина, по който започват. „Мисля, че медийните компании ще започнат да приемат тази функция. Това ще стане опция, която имате, точно като a филтър. Това ще стане съвсем нормално за хората.”
И Джанг, и Могилни използваха разпространението на Photoshop като модел за това накъде виждат Deepfakes: Толкова често срещано, че не е забележително, макар и малко противоречиво. И за двамата политическите и етични проблеми, опаковани в дълбоки фалшификати, всъщност са просто обикновени неща.
Шамир Алибхай, главен изпълнителен директор на платформата за откриване на дълбоки фалшиви Amber Video, каза пред Digital Trends, че основното му мнение е, че технологията за дълбоки фалшиви, както повечето други видове технологии, е аморална.
„Би било все едно да кажеш, че Microsoft Word е неморален, злобен, защото потенциални терористи ще го използват.“
„Би било все едно да кажем, че Microsoft Word е неморален, злобен, защото потенциални терористи ще го използват за целта подкрепят насилствена, екстремистка идеология, която ще вдъхнови другите да приемат насилствена екстремистка идеология“, той казах. „Виждам тази технология в същия дух.“
Amber Video е платформа, която рекламира своите услуги като борба с дълбоки фалшификации за „предотвратяване на измами, загуба на репутация и недоверие на заинтересованите страни“. Алибхай каза, че не знае дали е готов да купи нещо само защото лицето му е върху него, но се съгласи, че в крайна сметка технологията ще бъде проникващ.
„Това е огледало на обществото“, каза той. „Виждате това в технологии като платформата Twitter. Виждате най-доброто от човечеството и най-лошото от нас. Технологията Deepfake също ще отразява обществото. Има хора, които ще го използват за безгрижна сатира и ще се подиграват с авторитарните режими. Но ние също ще се опитаме да съшием хаос.”
Въоръжаване на deepfakes
Най-големият страх остава потенциалната злоупотреба и превръщането в оръжие на deepfakes. Тъй като те стават все по-често срещани, можем дори да ги видим използвани не само за широкомащабни кампании за дезинформация, но и за практични шеги или тормоз в гимназията. Ако технологията е достатъчно достъпна, всеки може да я използва.
Както Carica, така и RefaceAI казаха, че предприемат стъпки за смекчаване на потенциални злоупотреби — RefaceAI със своята уеб услуга за откриване на дълбоки фалшиви данни и Carica с модератори на съдържание. Цялата компания Carica в момента е само девет души, каза Джанг, и те разменят задълженията за модериране на съдържание.
„Дори Photoshop може и е бил използван за тормоз. Но от друга страна, ние предоставяме противоотрова.
„Това наистина беше първият въпрос, който си зададохме“, каза Могилни от RefaceAI. „Ние се занимаваме с това по отношение на политическите скандали в Украйна от години. Разбираме, че нашата технология може да бъде злоупотребена. Дори Photoshop може и е бил използван за тормоз. Но от друга страна, ние предоставяме противоотрова за него. Накарахме потребители да качват сексуално съдържание в нашето приложение и веднага забранихме тези потребители.
Carica е достатъчно малко приложение, с което трябва да работят засега. Но като цяло Джанг не се притесняваше.
„Това се случва с всички нови технологии“, каза Джанг. „Първо, това се дължи на злоупотреба, но след тази фаза става достъпно за всички и хората го използват за нормални неща.“
Препоръки на редакторите
- Роботите за сигурност може да идват в училище близо до вас
- Amazon внедрява AI, за да обобщава отзивите за продукта
- Amazon планира промени „веднъж в поколение“ за Търсене, разкрива реклама за работа
- Миникомпютърът Jetson Orin Nano на Nvidia за $200 е 80 пъти по-бърз от предишната версия
- Google Smart Canvas получава по-дълбока интеграция между приложенията