Proč budou Deepfakes brzy stejně běžné jako Photoshop

Věděli jste, že můžete vytvořit deepfake video z pohodlí svého domova nebo na telefonu? Stáhněte si jednu z nepřeberného množství aplikací pro výměnu obličeje nebo deepfake aplikací, které jsou běžně dostupné z vašeho místního obchodu s aplikacemi a vy také může ovlivnit volby.

Obsah

  • Budoucnost médií
  • Ozbrojení deepfakes

Dobře, vlastně ne a my to rozhodně nepodporujeme. Ale v tom humbuku a obavách kolem deepfake technologie a její velmi reálné zneužití, jednoduchou pravdou je, že tato technologie nezmizí. Ve skutečnosti se to stane stejně samozřejmostí jako Photoshop, zvláště pokud na tom pracují vývojáři aplikací technologie deepfake k tomu mají co říct: Brzy bychom mohli vidět hyper-cílené reklamy s našimi vlastními tvářemi jim.

Doporučená videa

Roman Mogylnyi, generální ředitel RefaceAI, startupu se sídlem na Ukrajině, řekl, že se strojovým učením pracují od roku 2011 a v roce 2014 se zaměřili na vytváření vlastních aplikací založených na technologii deepfake. Společnost RefaceAI již vydala aplikaci pro hluboké falešné fotografie nazvanou Reflect a je na pokraji vydání vlastní aplikace pro hluboké falešné video a také webové služby, která pomůže detekovat hluboce falešná videa.

Příbuzný

  • Komentáře poháněné umělou inteligencí přichází na Wimbledon příští měsíc
  • Superpočítač od Nvidie může přinést novou éru ChatGPT
  • Ocenění CES 2023 Tech For Change společnosti Digital Trends

"Od samého začátku jsme viděli, že tato technologie byla zneužívána," řekl Mogylnyi. "Mysleli jsme, že to můžeme udělat lépe."

Technologie RefaceAI Deepfake | Budeme Tančit

Společnost RefaceAI již spolupracovala s některými filmovými produkčními společnostmi – ačkoli Mogylnyi nedokázala říci s kterými – na využití své technologie k výměně tváře herců na dvojníky těla, a to za cenu mnohem nižší, než by bylo vrátit herce zpět k natáčení a přetáčení scén v otázka. To, řekl Mogylnyi, je to, co společnost vidí jako budoucnost deepfakes. "Chceme to použít pro marketing, pro personalizaci reklam, pro gify, pro zábavní materiály obecně," řekl.

Budoucnost médií

RefaceAI není společnost, která se snaží dostat před tuto nevyhnutelnou marketingovou křivku. Carica, aplikace sídlící v Jižní Koreji, také vyvíjí hluboce falešné GIFy a videa, ve kterých může člověk naroubovat svůj obličej na oblíbený reakční GIF a poslat ho přátelům a rodině. Aplikace již obsahuje vyskakovací reklamy, které začleňují tvář uživatele do fotografie nebo videa reklamy.

Carica

„Chceme, aby se naše společnost stala mediální společností,“ řekl pro Digital Trends inženýr společnosti Carica Joseph Jang. Deepfakes jsou právě tím způsobem, jakým začínají. „Myslím, že mediální společnosti začnou tuto funkci přijímat. Stane se to možností, kterou máte, stejně jako a filtr. Pro lidi to bude normální."

Jak Jang, tak Mogylnyi použili rozšíření Photoshopu jako model pro to, kam se Deepfakes ubírá: Tak běžné, že to není pozoruhodné, i když stále trochu kontroverzní. A pro oba jsou politické a etické problémy zabalené do deepfakes ve skutečnosti jen běžnou záležitostí.

Shamir Allibhai, generální ředitel platformy Amber Video pro detekci deepfake, řekl pro Digital Trends, že jeho prvořadý názor je, že technologie deepfake, stejně jako většina ostatních druhů technologií, je nemorální.

"Bylo by to jako říkat, že Microsoft Word je nemorální, je zlý, protože ho použijí potenciální teroristé."

„Bylo by to jako říkat, že Microsoft Word je nemorální, je zlý, protože ho k tomu použijí potenciální teroristé hlásí se k násilné, extremistické ideologii, která bude inspirovat ostatní, aby se hlásili k násilné extremistické ideologii,“ řekl. "Velmi vidím tuto technologii ve stejném duchu."

Amber Video je platforma, která inzeruje své služby jako boj proti deepfake, aby „předcházela podvodům, ztrátě reputace a nedůvěře zúčastněných stran“. Allibhai řekl, že neví, jestli je připravený něco koupit jen proto, že na tom byl jeho obličej, ale souhlasil s tím, že nakonec ta technologie bude všeprostupující.

"Je to zrcadlo společnosti," řekl. „Vidíte to na technologiích, jako je platforma Twitter. Vidíš to nejlepší z lidstva i to nejhorší z nás. Technologie Deepfake bude také zrcadlit společnost. Jsou lidé, kteří to využijí pro odlehčenou satiru a budou si dělat legraci z autoritářských režimů. Ale zkusíme také ušít chaos.“

Ozbrojení deepfakes

Největším strachem zůstává potenciální zneužití a zbrojení deepfakes. Jak se stávají běžnějšími, mohli jsme je dokonce vidět nasazovat nejen pro rozsáhlé dezinformační kampaně, ale i pro vtipy nebo středoškolskou šikanu. Pokud je technologie dostatečně dostupná, může ji používat kdokoli.

Jak Carica, tak RefaceAI uvedly, že podnikají kroky ke zmírnění potenciálního zneužití – RefaceAI se svou webovou službou pro detekci deepfake a Carica s moderátory obsahu. Celá společnost Carica má v tuto chvíli pouze devět lidí, řekl Jang, a vyměňují si povinnosti moderování obsahu.

„Dokonce i Photoshop může a byl používán k šikaně. Ale na druhou stranu poskytujeme protijed."

"Tohle byla opravdu první otázka, kterou jsme si položili," řekl Mogylnyi z RefaceAI. „Řešíme to z hlediska politických skandálů na Ukrajině už roky. Chápeme, že naše technologie může být zneužita. Dokonce i Photoshop může a byl používán k šikaně. Ale na druhou stranu na to poskytujeme protijed. Uživatelé do naší aplikace nahrávali sexuální obsah a tyto uživatele jsme okamžitě zakázali.“

Carica je dostatečně malá aplikace, se kterou musí nyní pracovat. Celkově se však Jang neznepokojoval.

"To se děje se všemi novými technologiemi," řekl Jang. "Nejprve je to způsobeno nesprávným používáním, ale po této fázi se stává dostupným pro každého a lidé ho používají k normálním věcem."

Doporučení redakce

  • Do školy poblíž vás mohou přicházet bezpečnostní roboti
  • Amazon nasazuje AI pro shrnutí recenzí produktů
  • Amazon plánuje změny „jednou za generaci“ pro vyhledávání, odhaluje pracovní inzerát
  • Minipočítač Nvidia Jetson Orin Nano za 200 USD je 80krát rychlejší než předchozí verze
  • Google Smart Canvas získává hlubší integraci mezi aplikacemi