Visste du at du kan lage en deepfake-video fra komforten av ditt eget hjem, eller på telefonen? Last ned en av overfloden av ansiktsbytte- eller deepfake-apper som er tilfeldig tilgjengelig fra din lokale appbutikk, og du også kan påvirke et valg.
Innhold
- Fremtiden til media
- Bevæpning av deepfakes
Ok, egentlig ikke, og vi støtter definitivt ikke det. Men i hypen og bekymringen rundt dypfalske teknologi, og dens svært reelle misbruk, den enkle sannheten er at denne teknologien ikke forsvinner. Faktisk kommer det til å bli like vanlig som Photoshop, spesielt hvis apputviklerne jobber med deepfake tech har noe å si om det: Vi kan snart se hypermålrettede annonser med våre egne ansikter på dem.
Anbefalte videoer
Roman Mogylnyi, administrerende direktør for RefaceAI, en oppstart basert i Ukraina, sa at de har jobbet med maskinlæring siden 2011, og gikk over til å lage sine egne apper basert på deepfake-teknologi i 2014. RefaceAI har allerede gitt ut en foto-deepfake-app kalt Reflect, og er på nippet til å gi ut både sin egen video-deepfake-app, samt en webtjeneste som vil hjelpe med å oppdage deepfake-videoer.
I slekt
- AI-drevne kommentarer kommer til neste måneds Wimbledon
- Nvidias superdatamaskin kan bringe en ny æra av ChatGPT
- Digital Trends' Tech For Change CES 2023 Awards
"Vi så helt fra begynnelsen at denne teknologien ble misbrukt," sa Mogylnyi. – Vi trodde vi kunne gjøre det bedre.
RefaceAI Deepfake-teknologi | Vi skal danse
RefaceAI har allerede jobbet med noen filmproduksjonsselskaper – selv om Mogylnyi ikke kunne si hvilke – for å bruke teknologien sin til å bytte ansikter til skuespillere på kroppsdobler, til en pris som er langt mindre enn hva det ville ha vært å fly skuespillerne tilbake for å sette og ta scenene på nytt spørsmål. Dette, sa Mogylnyi, er det selskapet ser på som fremtiden for deepfakes. "Vi ønsker å bruke det til markedsføring, for å tilpasse annonser, for gifs, for underholdningsmateriell generelt," sa han.
Fremtiden til media
RefaceAI er ikke selskapet som prøver å komme i forkant av denne uunngåelige markedsføringskurven. Carica, en app basert fra Sør-Korea, utvikler også dypfalske GIF-er og videoer der en person kan pode ansiktet sitt på en populær reaksjons-GIF for å sende til venner og familie. Appen har allerede popup-annonser som inkorporerer brukerens ansikt i annonsens bilde eller video.
"Vi vil at selskapet vårt skal bli et medieselskap," sa Carica-ingeniør Joseph Jang til Digital Trends. Deepfakes er akkurat slik de starter. "Jeg tror medieselskaper vil begynne å ta i bruk denne funksjonen. Det vil bli et alternativ du har, akkurat som en filter. Det vil bli så normalt for folk.»
Både Jang og Mogylnyi brukte utbredelsen av Photoshop som modell for hvor de ser Deepfakes gå: Så vanlig at det er umerkelig, om enn litt kontroversielt. Og for dem begge er de politiske og etiske problemene pakket inn i deepfakes egentlig bare drevet av møllen.
Shamir Allibhai, administrerende direktør for deepfake-deteksjonsplattformen Amber Video, fortalte Digital Trends at hans overordnede syn var at deepfake-teknologi, som de fleste andre typer teknologi, er amoralsk.
"Det ville være som å si Microsoft Word er umoralsk, er ond fordi potensielle terrorister vil bruke det."
"Det ville vært som å si Microsoft Word er umoralsk, er ond fordi potensielle terrorister vil bruke det til gå inn for voldelig ekstremistisk ideologi, som vil inspirere andre til å gå inn for voldelig ekstremistisk ideologi,» sa. "Jeg ser veldig mye på denne teknologien på samme måte."
Amber Video er en plattform som annonserer tjenestene sine som bekjempelse av dype forfalskninger for å "hindre svindel, tap av omdømme og mistillit til interessenter." Allibhai sa at han ikke visste om han var klar til å kjøpe noe bare fordi ansiktet hans var på det, men han var enig i at teknologien til slutt vil bli gjennomgripende.
"Det er et speil på samfunnet," sa han. "Du ser dette i teknologier som Twitter-plattformen. Du ser det beste av menneskeheten og det verste av oss. Deepfake-teknologi vil også speile samfunnet. Det er folk som vil bruke det til lettsindig satire og tulle med autoritære regimer. Men vi vil også prøve å sy kaos.»
Bevæpning av deepfakes
Den største frykten er fortsatt potensiell misbruk og bevæpning av deepfakes. Etter hvert som de blir mer vanlige, kan vi til og med se dem utplassert ikke bare for omfattende desinformasjonskampanjer, men for praktiske vitser eller mobbing på videregående skole. Hvis teknologien er tilgjengelig nok, kan hvem som helst bruke den.
Både Carica og RefaceAI sa at de tar skritt for å redusere potensielt misbruk – RefaceAI med sin deepfake-deteksjonsnetttjeneste, og Carica med innholdsmoderatorer. Hele Carica-selskapet er bare ni personer akkurat nå, sa Jang, og de bytter bort plikter for innholdsmoderering.
«Selv Photoshop kan og har blitt brukt til mobbing. Men på den annen side gir vi en motgift.»
"Dette var virkelig det første spørsmålet vi stilte oss selv," sa RefaceAIs Mogylnyi. "Vi har jobbet med dette i form av politiske skandaler i Ukraina i årevis. Vi forstår at teknologien vår kan misbrukes. Til og med Photoshop kan og har blitt brukt til mobbing. Men på den annen side gir vi en motgift for det. Vi fikk brukere til å laste opp seksuelt innhold til appen vår, og vi utestengt disse brukerne med en gang.»
Carica er en liten nok app til at det er det de må jobbe med for nå. Men totalt sett var ikke Jang bekymret.
"Dette skjer med all ny teknologi," sa Jang. "For det første er det drevet av misbruk, men etter den fasen blir det tilgjengelig for alle og folk bruker det til vanlige ting."
Redaktørenes anbefalinger
- Sikkerhetsroboter kan komme til en skole nær deg
- Amazon bruker AI for å oppsummere produktanmeldelser
- Amazon planlegger «en gang i en generasjon»-endringer for Søk, avslører stillingsannonsen
- Nvidias $200 Jetson Orin Nano minidatamaskin er 80 ganger raskere enn forrige versjon
- Google Smart Canvas får dypere integrasjon mellom apper