Vedeli ste, že deepfake video môžete vytvoriť z pohodlia svojho domova alebo z telefónu? Stiahnite si jednu z množstva aplikácií na výmenu tváre alebo deepfake, ktoré sú bežne dostupné z vášho miestneho obchodu s aplikáciami a vy tiež môže ovplyvniť voľby.
Obsah
- Budúcnosť médií
- Ozbrojenie deepfakes
Dobre, nie naozaj a rozhodne to nepodporujeme. Ale v tom humbuku a obavách okolo deepfake technológie a jej skutočného zneužitia, jednoduchou pravdou je, že táto technológia nezmizne. V skutočnosti sa to stane samozrejmosťou ako Photoshop, najmä ak vývojári aplikácií pracujú deepfake tech má čo povedať: Čoskoro by sme mohli vidieť hyper-cielené reklamy s našimi vlastnými tvárami ich.
Odporúčané videá
Roman Mogylnyi, generálny riaditeľ RefaceAI, startupu so sídlom na Ukrajine, uviedol, že so strojovým učením pracujú od roku 2011 a v roku 2014 sa preorientovali na vytváranie vlastných aplikácií založených na technológii deepfake. Spoločnosť RefaceAI už vydala aplikáciu pre hlboké falošné fotografie s názvom Reflect a je na pokraji vydania vlastnej aplikácie na hlboké falošné video, ako aj webovej služby, ktorá pomôže odhaliť hlboké falošné videá.
Súvisiace
- Komentár poháňaný AI prichádza na budúci mesiac na Wimbledone
- Superpočítač Nvidia môže priniesť novú éru ChatGPT
- Ocenenia CES 2023 Tech For Change od Digital Trends
"Od samého začiatku sme videli, že táto technológia bola zneužívaná," povedal Mogylnyi. "Mysleli sme si, že to môžeme urobiť lepšie."
Technológia RefaceAI Deepfake | Budeme Tancovať
Spoločnosť RefaceAI už spolupracovala s niektorými filmovými produkčnými spoločnosťami – hoci Mogylnyi nevedela povedať, s ktorými – aby využila svoju technológiu na výmenu tváre hercov na tele dvojníkov, a to za oveľa nižšiu cenu, ako by to bolo vrátiť hercov späť, aby nakrútili a znova nakrútili scény otázka. Toto, povedal Mogylnyi, je to, čo spoločnosť vidí ako budúcnosť deepfakes. "Chceme to použiť na marketing, na prispôsobenie reklám, na gify, na zábavné materiály všeobecne," povedal.
Budúcnosť médií
RefaceAI nie je spoločnosť, ktorá sa snaží dostať pred túto nevyhnutnú marketingovú krivku. Carica, aplikácia so sídlom v Južnej Kórei, tiež vyvíja hlboké falošné GIFy a videá, v ktorých môže človek navrúbľovať svoju tvár na populárny reakčný GIF a posielať ho priateľom a rodine. Aplikácia už obsahuje kontextové reklamy, ktoré začleňujú tvár používateľa do fotografie alebo videa reklamy.
"Chceme, aby sa naša spoločnosť stala mediálnou spoločnosťou," povedal inžinier Carica Joseph Jang pre Digital Trends. Deepfakes sú práve tým spôsobom, akým začínajú. „Myslím si, že mediálne spoločnosti začnú používať túto funkciu. Stane sa to možnosťou, ktorú máte, rovnako ako a filter. Pre ľudí sa to stane úplne normálne."
Jang aj Mogylnyi použili šírenie Photoshopu ako model toho, kam sa Deepfakes uberá: Tak bežné, že je to nevýrazné, aj keď stále trochu kontroverzné. A pre oboch sú politické a etické problémy zabalené do deepfakeov naozaj len bežecké.
Shamir Allibhai, generálny riaditeľ platformy Amber Video na detekciu deepfake, povedal pre Digital Trends, že jeho prvoradý názor je, že technológia deepfake, rovnako ako väčšina iných druhov technológií, je amorálna.
"Bolo by to ako povedať, že Microsoft Word je nemorálny, zlý, pretože ho použijú potenciálni teroristi."
„Bolo by to ako povedať, že Microsoft Word je nemorálny, zlý, pretože ho na to použijú potenciálni teroristi hlása násilnú, extrémistickú ideológiu, ktorá bude inšpirovať ostatných, aby presadzovali násilnú extrémistickú ideológiu,“ povedal. "Veľmi vidím túto technológiu v rovnakom duchu."
Amber Video je platforma, ktorá propaguje svoje služby ako boj proti deepfake s cieľom „zabrániť podvodom, strate reputácie a nedôvere zainteresovaných strán“. Allibhai povedal, že nevie, či je pripravený kúpiť si niečo len preto, že na tom bola jeho tvár, ale súhlasil s tým, že nakoniec bude technológia všadeprítomný.
"Je to zrkadlo spoločnosti," povedal. „Vidíte to v technológiách, ako je platforma Twitter. Vidíš to najlepšie z ľudstva a to najhoršie z nás. Technológia Deepfake bude tiež odzrkadľovať spoločnosť. Sú ľudia, ktorí to využijú na odľahčenú satiru a žartujú z autoritárskych režimov. Ale pokúsime sa ušiť aj chaos.“
Ozbrojenie deepfakes
Najväčším strachom zostáva potenciálne zneužitie a zbrojenie deepfakes. Keď sa stanú čoraz bežnejšími, mohli sme ich dokonca vidieť nasadzovať nielen na rozsiahle dezinformačné kampane, ale aj na vtipy alebo šikanovanie na strednej škole. Ak je technológia dostatočne dostupná, môže ju používať ktokoľvek.
Carica aj RefaceAI uviedli, že podnikajú kroky na zmiernenie potenciálneho zneužívania – RefaceAI so svojou webovou službou na detekciu hlbokých falošných správ a Carica s moderátormi obsahu. Celá spoločnosť Carica má momentálne iba deväť ľudí, povedal Jang, a vymenili si povinnosti moderovania obsahu.
„Dokonca aj Photoshop môže a bol použitý na šikanovanie. Ale na druhej strane poskytujeme protijed."
"Toto bola naozaj prvá otázka, ktorú sme si položili," povedal Mogylnyi z RefaceAI. „Roky to riešime v súvislosti s politickými škandálmi na Ukrajine. Chápeme, že naša technológia môže byť zneužitá. Dokonca aj Photoshop môže a bol použitý na šikanovanie. Ale na druhej strane na to poskytujeme protijed. Používatelia nahrávali sexuálny obsah do našej aplikácie a týchto používateľov sme okamžite zakázali.“
Carica je dostatočne malá aplikácia, s ktorou musia zatiaľ pracovať. Celkovo sa však Jang neznepokojoval.
"Toto sa deje so všetkými novými technológiami," povedal Jang. "Najprv je to spôsobené nesprávnym používaním, ale po tejto fáze sa stáva dostupným pre každého a ľudia ho používajú na bežné veci."
Odporúčania redaktorov
- Do školy blízko vás môžu prísť bezpečnostné roboty
- Amazon nasadil AI na zhrnutie recenzií produktov
- Amazon plánuje zmeny „raz za generáciu“ pre vyhľadávanie, odhaľuje pracovný inzerát
- Minipočítač Nvidia Jetson Orin Nano za 200 dolárov je 80-krát rýchlejší ako predchádzajúca verzia
- Google Smart Canvas získava hlbšiu integráciu medzi aplikáciami