Jeste li znali da možete napraviti deepfake video iz udobnosti vlastitog doma ili na telefonu? Preuzmite jednu od mnoštva aplikacija za zamjenu lica ili deepfake koje su povremeno dostupne u vašoj lokalnoj trgovini aplikacija i vi također može utjecati na izbore.
Sadržaj
- Budućnost medija
- Naoružavanje deepfakea
U redu, ne baš, i definitivno to ne podržavamo. Ali u hype i zabrinutost okolo deepfake tehnologije i njezine vrlo stvarne zlouporabe, jednostavna je istina da ova tehnologija neće nestati. Zapravo, postat će uobičajena pojava poput Photoshopa, osobito ako programeri aplikacija rade na tome deepfake tech ima što reći o tome: uskoro bismo mogli vidjeti hiper-ciljane oglase s našim licima ih.
Preporučeni videozapisi
Roman Mogylnyi, glavni izvršni direktor RefaceAI, startupa sa sjedištem u Ukrajini, rekao je da rade sa strojnim učenjem od 2011., te su se 2014. okrenuli izradi vlastitih aplikacija temeljenih na tehnologiji deepfake. RefaceAI je već izdao photo-deepfake aplikaciju pod nazivom Reflect, i na rubu je izdavanja svoje vlastite video-deepfake aplikacije, kao i web usluge koja će pomoći u otkrivanju deepfake videa.
Povezano
- Komentari pokretani umjetnom inteligencijom dolaze na Wimbledon sljedećeg mjeseca
- Nvidijino superračunalo moglo bi donijeti novu eru ChatGPT-a
- Nagrade Digital Trends Tech For Change CES 2023
"Od samog početka vidjeli smo da se ova tehnologija zlorabi", rekao je Mogylnyi. "Mislili smo da možemo bolje."
Tehnologija RefaceAI Deepfake | Mi ćemo plesati
RefaceAI je već surađivao s nekim filmskim producentskim tvrtkama - iako Mogylnyi nije mogao reći s kojim - kako bi upotrijebio svoju tehnologiju za zamjenu lica glumaca na dublovima tijela, po cijeni daleko manjoj od one koja bi bila da se glumci vrate avionom na set i ponovno snimanje scena u pitanje. To je, rekao je Mogylnyi, ono što tvrtka vidi kao budućnost deepfakeova. "Želimo ga koristiti za marketing, za personaliziranje oglasa, za gifove, za zabavne materijale općenito", rekao je.
Budućnost medija
RefaceAI nije tvrtka koja pokušava biti ispred ove neizbježne marketinške krivulje. Carica, aplikacija sa sjedištem u Južnoj Koreji, također razvija deepfake GIF-ove i videozapise u kojima osoba može nakalemiti svoje lice na popularni GIF reakcije kako bi ga poslala prijateljima i obitelji. Aplikacija već sadrži skočne oglase koji uključuju lice korisnika u fotografiju ili video oglasa.
"Želimo da naša tvrtka postane medijska kompanija", rekao je inženjer Carice Joseph Jang za Digital Trends. Deepfakeovi su upravo takvi kakvi počinju. “Mislim da će medijske tvrtke početi usvajati ovu značajku. To će postati opcija koju imate, baš kao i filtar. To će ljudima postati sasvim normalno.”
I Jang i Mogylnyi koristili su širenje Photoshopa kao model za to kamo vide Deepfakes: Toliko uobičajeno da je neupadljivo, iako još uvijek pomalo kontroverzno. A za oboje, politički i etički problemi zamotani u deepfake zapravo su samo trčanje iz mlina.
Shamir Allibhai, izvršni direktor platforme za otkrivanje deepfake-a Amber Video, rekao je za Digital Trends da je njegovo najvažnije mišljenje da je deepfake tehnologija, kao i većina drugih vrsta tehnologije, amoralna.
“To bi bilo kao da je Microsoft Word nemoralan, zao jer će ga koristiti potencijalni teroristi.”
“To bi bilo kao da kažete da je Microsoft Word nemoralan, zao jer će ga potencijalni teroristi koristiti za to prihvatiti nasilnu, ekstremističku ideologiju, koja će nadahnuti druge da prihvate nasilnu ekstremističku ideologiju," rekao je. "Ovu tehnologiju vidim na isti način."
Amber Video je platforma koja reklamira svoje usluge kao borbu protiv deepfakeova kako bi "spriječila prijevaru, gubitak ugleda i nepovjerenje dionika." Allibhai rekao je da ne zna je li spreman kupiti nešto samo zato što je njegovo lice na tome, ali se složio da će, na kraju, tehnologija biti sveprožimajući.
“To je ogledalo društva”, rekao je. “To vidite u tehnologijama poput Twitter platforme. Vidite najbolje od čovječanstva i najgore od nas. Tehnologija Deepfake također će odražavati društvo. Ima ljudi koji će to iskoristiti za bezbrižnu satiru i ismijavanje autoritarnih režima. Ali pokušat ćemo i sašiti kaos.”
Naoružavanje deepfakea
Najveći strah ostaje od potencijalne zlouporabe i stavljanja deepfakea u oružje. Kako postaju sve češći, mogli bismo ih čak vidjeti kako se koriste ne samo za široke kampanje dezinformiranja, već i za praktične šale ili maltretiranje u srednjoj školi. Ako je tehnologija dovoljno dostupna, svatko je može koristiti.
I Carica i RefaceAI rekli su da poduzimaju korake za ublažavanje potencijalne zlouporabe — RefaceAI sa svojom web uslugom za otkrivanje deepfakea, a Carica s moderatorima sadržaja. Cijelu tvrtku Carica trenutno čini samo devetero ljudi, rekao je Jang, i oni mijenjaju dužnosti moderiranja sadržaja.
“Čak i Photoshop može i bio je korišten za maltretiranje. Ali s druge strane, mi dajemo protuotrov.”
"Ovo je stvarno bilo prvo pitanje koje smo si postavili", rekao je Mogylnyi iz RefaceAI-ja. “Godinama se nosimo s tim u smislu političkih skandala u Ukrajini. Shvaćamo da se naša tehnologija može zloupotrijebiti. Čak i Photoshop može i bio je korišten za maltretiranje. No, s druge strane, osiguravamo protuotrov za to. Imali smo korisnika koji su postavljali seksualni sadržaj u našu aplikaciju i odmah smo zabranili te korisnike.”
Carica je dovoljno mala aplikacija da je to ono s čime za sada moraju raditi. Ali sve u svemu, Jang nije bio zabrinut.
"Ovo se događa sa svim novim tehnologijama", rekao je Jang. "Prvo je potaknut zlouporabom, ali nakon te faze postaje dostupan svima i ljudi ga koriste za normalne stvari."
Preporuke urednika
- Sigurnosni roboti možda dolaze u školu u vašoj blizini
- Amazon koristi AI za sažimanje recenzija proizvoda
- Amazon planira promjene 'jednom u generaciji' za pretraživanje, otkriva oglas za posao
- Nvidijino miniračunalo Jetson Orin Nano od 200 dolara 80 je puta brže od prethodne verzije
- Google Smart Canvas dobiva dublju integraciju između aplikacija