Veszélyesek a mélyhamisítások? Az alkotók és a szabályozók nem értenek egyet

Az elmúlt néhány évben, mélyhamisítványok az internet legújabb mémjei és paródia tartalmai közé tartoznak.

Tartalom

  • A nagy erővel nagyszerű újraküldhetőség is jár
  • A mozgalom a mélyhamisítások megmentésére
  • Szabályozni kell a mélyhamisítást?

Könnyen belátható, hogy miért: Lehetővé teszik az alkotók számára, hogy úgy meghajlítsák a valóság szabályait, ahogy eddig még nem volt más technológia. A mélyhamisítások varázslatán keresztül megtekintheti Jennifer Lawrence beszédet mond Steve Buscemi arcán keresztül, lássuk mit Ryan Reynolds úgy nézett ki, mint Willy Wonka, és még elkapni is Hitler és Sztálin énekelVideó Killed The Radio Star egy duettben.

Ajánlott videók

Az avatatlanok számára a deepfake technológia a szintetikus média egy formája, amely lehetővé teszi a felhasználók számára, hogy egy másik arcot rárakjanak valaki más arcára oly módon, hogy az szinte megkülönböztethetetlen az eredetitől. Ezt úgy teszi, hogy rengeteg adatot olvas be, hogy megértse az arc körvonalait és egyéb jellemzőit, hogy természetesen beleolvadjon és animáljon a jelenetbe.

Összefüggő

  • Ez a startup szeretné mélyhamisítani a hangját, és eladni a legmagasabb ajánlatot tevőnek
  • Belül a gyorsan eszkalálódó háborúba a deepfake és a deepfake detektorok között
  • Elon Musk figyelmeztet, hogy minden A.I. szabályozni kell, még a Teslánál is
Ryan Reynolds Willy Wonka Deepfake szerepében a NextFace-ből
NextFace/Youtube

Ezen a ponton valószínűleg találkozott már ilyen klipekkel olyan platformokon, mint a TikTok (ahol a „#deepfake” hashtag körülbelül 200 millió megtekintést kapott), a YouTube és máshol. Legyen szó rajongói fikciók teljesítésére és újból jeleneteket sztárokkal azt kívánják, bárcsak a film eredetileg egy halott embert öntött volna bele egy modern, vírusos mémbe, a mélyhamisításokat pedig kreatív eszközként alkalmazták olyan célokra, amelyek korábban szinte lehetetlenek voltak.

A váltás egy sor olyan új alkotót szült, mint pl Ctrl Shift Arc, melynek mélyhamisított videóit rendszeresen milliókat nézik meg, és gyakran a késő esti talkshow-k fő témája.

"Ez egy teljesen új módja annak, hogy vicces internetes videókat készítsünk, vagy olyan történeteket meséljünk el, amilyeneket még soha nem láttunk" - mondja a sláger mögött álló holland alkotó.Óz bosszúállói” deepfake klip, aki azt kérte, hogy ne használjuk az igazi nevét. „Ez a bűvölet gyönyörű kombinációja az A.I. technológia és humor.”

De van egy fenyegető kockázat, amely teljes mértékben fenyegeti a mélyhamisítású technológia jövőjét: a szennyezett hírneve.

A nagy erővel nagyszerű újraküldhetőség is jár

Sajnos amellett, hogy kreatív eszközként szolgálhatnak a jó szándékú videóművészek számára, a mélyhamisítások hatalmas károkat is rejtenek magukban.

Egy friss a Dawes Jövőbűnügyi Központ tanulmánya a UCL Jill Dando Biztonság- és Bűnügyi Tudományos Intézetében a mélyhamisításokat a legsúlyosabb A.I.-kompatibilis fenyegetésnek minősítette. Sen. Ben Sasse, egy nebraskai republikánus, aki törvényjavaslatot nyújtott be a mélyhamisítások rosszindulatú létrehozásának kriminalizálására, figyelmeztetett tavaly, hogy a technológia „emberéleteket pusztíthat el”, „megmozgathatja a pénzügyi piacokat”, sőt „katonai konfliktusokat serkenthet szerte a világon”.

Ezek az aggodalmak bizonyos mértékig jogosak. Hiszen a deepfake technológia elterjedése már lehetővé tette az olyan dolgokat, mint a hírességeket felvonultató hamis felnőtt tartalmak gyártása, vagy a politikusok élethű megszemélyesítése szatíra céljából. Az év elején Dan Scavino, a Fehér Ház közösségimédia-igazgatója tweetelt egy rosszul manipulált klip, amelyet Donald Trump elnök is retweetelt, Trump riválisáról, Joe Bidenről, amely Trump újraválasztását kéri.

Trump retweetelte Biden szerkesztett videóját. Íme, mit mondott Biden valójában.

Ezeket a kevésbé meggyőző álhíreket azonban gyorsan leleplezték, mielőtt eljutottak volna a tömegekhez. Ennél is fontosabb, hogy a szakértők szerint a mélyhamisított videóknak ez idáig alig vagy egyáltalán nem volt társadalmi hatása, és jelenleg nem jelentenek közvetlen veszélyt. Például az általa végzett kutatás Érzékenység, egy vizuális fenyegetésekre összpontosító kiberbiztonsági cég azt állítja, hogy a mélyhamisított videók túlnyomó többsége pornográf (96%), és hogy a technológia még nem jutott jelentősebb dezinformációba kampányok.

Hasonlóképpen, a A Georgetown Egyetem jelentése arra a következtetésre jutott, hogy bár a mélyhamisítás „lenyűgöző technikai bravúr”, a politikai döntéshozóknak nem szabad sietniük a hírverés, mivel a technológia jelenleg nem tökéletes, és nem tudja csak befolyásolni a valós eseményeket még.

A legnépszerűbb deepfake csatorna, a Ctrl Shift Face mögött álló alkotója, akinek videóit milliók nézik meg, úgy véli, a „hisztéria” A mélyhamis téma körüli körözés eltereli a törvényhozók figyelmét a valódi problémákról, mint például a rosszul szabályozott hirdetések hálózatok bekapcsolva Facebook amelyek valójában felelősek az emberek félrevezetéséért.

„Ha valaha is lesz káros mélyhamisítás, a Facebook az a hely, ahol elterjed” – mondta a Ctrl Shift Face a Digital Trendsnek adott interjújában. „Ebben az esetben mi a nagyobb probléma? A médium vagy a platform?”

A tulajdonosa BabyZone, egy több mint félmillió előfizetővel rendelkező YouTube játékcsatorna, amely gyakran hamisítja meg a hírességeket videóvá játékokhoz hasonló aggályt visszhangozza: „Azt hiszem, hogy a mélyhamisítás olyan technológia, mint az összes többi létező technológiákat. Jó és rossz célokra is használhatók.”

A mozgalom a mélyhamisítások megmentésére

Az elmúlt egy-két évben, amikor a kormányok és a technológiai vállalatok vizsgálják ennek lehetséges kockázatait technológia, a mélyhamisítás szószólói arra törekedtek, hogy eloszlassák ezeket az aggodalmakat és helyrehozzák a technológia nyilvánosságát kép. Reddit közösségek Felbukkantak a „megbélyegzés kiigazítására” törekvők, és néhány független kutató aktívan épít olyan rendszereket, amelyek képesek felismerni a mélyhamisításokat, mielőtt azok elterjednének.

Roman Mogylnyi, a Reface vezérigazgatója és társalapítója, egy népszerű alkalmazás, amellyel gyorsan lecserélheti arcát bármilyen GIF-re, azt mondja, hogy startupja most egy olyan észlelőeszközt fejleszt, amely képes megállapítani, hogy a videó a Reface segítségével készült-e technológia. „Úgy gondoljuk, hogy az olyan szintetizált médiaeszközökhöz való széles körű hozzáférés, mint a miénk, növeli az emberiség empátiáját és kreativitást, és segít abban, hogy jobbá váljon a technológia megítélése” – mondta Mogylnyi a Digitalnak Trendek.

Eran Dagan, a Botika alapítója és vezérigazgatója, a népszerű arccserélő alkalmazás, a Jiggy mögött álló startup hasonló kilátásokkal rendelkezik. a mélyhamisítványok felé, és úgy véli, ahogy egyre népszerűbbé válnak, „az emberek sokkal jobban tudatában lesznek a pozitív használatuknak esetek.”

Tekintettel a mélyhamisítások lehetséges veszélyeire, valószínű, hogy a Kongresszus végül közbelép. Főbb technológiai platformok ideértve a Facebookot, a Twittert és a YouTube-ot, már frissítették irányelveiket, hogy megjelöljék vagy eltávolítsák a félrevezetésre szánt manipulált médiát. Több állam tetszik Kalifornia és New York törvényjavaslatokat fogadott el, amelyek megbüntetik a szándékosan megtévesztő mélyhamisítások készítőit, valamint azokat, amelyeket az arcát használó személy beleegyezése nélkül bocsátanak ki.

Szabályozni kell a mélyhamisítást?

Bár ezek az irányelvek kizárják a paródia tartalmat, a szakértők, félve a rosszul meghatározott törvényektől vagy a technológia teljes betiltásától, továbbra is úgy gondolja, hogy a Kongresszusnak ki kell maradnia ebből, és hagynia kell, hogy a mélyhamisítások a média bármely új formájának természetes úton haladjanak keresztül.

David Greene, az Electronic Frontier Foundation polgári jogi igazgatója szerint „a Kongresszus minden kísérlete arra, hogy szabályozza a mély hamisítványokat vagy valóban bármilyen vizuális kommunikációt a beszéd szabályozása lesz, és az Első Módosítás.

"A társadalomnak új mechanizmusokat kell kiépítenie annak igazolására, hogy miben lehet megbízni, és hogyan lehet megakadályozni a szintetikus tartalom egyénekre és szervezetekre gyakorolt ​​negatív hatásait."

Greene hozzáteszi, hogy ezeknek a törvényeknek pontosaknak kell lenniük, és – jól meghatározott és könnyen érthető kifejezésekkel – foglalkozniuk kell azzal a kárral, amelyet csökkenteni próbálnak. „Amit eddig láttunk… az állami szintű szabályozási kísérletek homályos és túlterjedt törvények, amelyek nem rendelkeznek az első kiegészítés által megkövetelt pontossággal. Nincs szükségük kivételre a paródiára és a politikai kommentárokra.”

Giorgio Patrini, a Sensity vezérigazgatója szerint az algoritmusok és szoftverek betiltása „értelmetlen az internet korszakában”. Patrini ezt a rejtvényt a rosszindulatú programokkal hasonlítja össze védelmet, és azt, hogy szinte lehetetlen véget vetni az összes számítógépes vírusnak vagy szerzőinek, ezért jobb, ha egyszerűen befektet a rosszindulatú programok elleni mechanizmusokba helyette. „A társadalomnak új mechanizmusokat kell kiépítenie annak igazolására, hogy miben lehet megbízni, és hogyan lehet megelőzni a szintetikus tartalom egyénekre és szervezetekre gyakorolt ​​negatív hatásait” – mondta.

Tim Whang azt írta a Georgetown Egyetem jelentésében, hogy a mélyhamisítási eszközök árucikké alakításával az észlelési és szűrési technológia ennek következtében automatikusan kifejlődik és pontosabbá válik – ezáltal semlegesíti a képességüket, hogy bármilyen komoly fenyegetések.

A Microsoft nemrégiben elindított mélyhamisítás-észlelő eszközepéldául elemzi a videókat, hogy megbízhatósági pontszámot kínáljon, amely jelzi, mekkora a valószínűsége annak, hogy a videót módosították.

„A mélyhamisítás a médiamanipuláció új formája, de nem először szembesülünk ilyen típusú kihívásokkal. Kutatjuk és befektetünk a szintetikus média kezelésének módjaiba” – mondta a YouTube szóvivője.

A kutatók mögött CtrlShiftLab, egy fejlett mélyhamisító szoftver, amelyet sok YouTube-felhasználó, köztük a Ctrl Shift Face is használ nyílt forráskódú projekteken is dolgozik a figyelem felkeltése és átfogóbb észlelés kialakítása érdekében szolgáltatások.

„Az egyetlen módja annak, hogy megakadályozzuk ezt a [deepfake-visszaélést], ha létrehozunk egy nyílt forráskódú, mélyhamisítással kapcsolatos projektet, és felhívjuk a közvélemény figyelmét. Így a nyilvános netezők felismerhetik, hogy léteznek mélyhamisítások” – mondta Kunlin Liu, a CtrlShiftLab egyik kutatója a Digital Trendsnek.

A Digital Trends több mélyhamisítás-alkotója arról beszélt, hogy továbbra is optimisták maradnak, és korainak tartják az országok visszaszorítását a mélyhamisításokkal szemben. Egyetértenek abban, hogy a deepfake növekvő szerepe a mémekben és a paródiakultúrában nagyban hozzájárul majd ennek a feltörekvő technológiának a rossz hírnevének javításához. Mindaddig, amíg a videóknak vannak felelősségkizárásai, és a platformok hatékonyabb észlelési rétegekbe fektetnek be, a mélyhamisítások itt maradnak.

„Úgy gondolom, hogy a mélyhamisítások hírneve jelentősen javul. Két évvel ezelőtt a deepfake szó automatikusan pornót jelentett” – mondta a Ctrl Shift Face alkotója. "Most a legtöbb ember ismeri a mélyhamisításokat ezeknek a szórakoztató videóknak köszönhetően, amelyek az interneten keringenek."

Szerkesztői ajánlások

  • A Digital Trends Tech For Change CES 2023 díjai
  • A vidám Gucciberg-projektben egy hamisított Gucci Mane klasszikus regényeket olvas
  • Hogyan használják a művészek és aktivisták a mélyhamisításokat jó erőként
  • A Twitter a 2020-as választások előtt betiltja a „kárt okozó” mélyhamisításokat
  • Kalifornia leállítja a politikai és pornóhamisításokat