Per pastaruosius kelerius metus gilios klastotės pasirodė kaip naujausias memų ir parodijų turinio šaltinis internete.
Turinys
- Su didele galia yra puikus pakartotinis siuntimas
- Judėjimas, skirtas išsaugoti gilias klastotes
- Ar giliųjų klastotės turėtų būti reguliuojamos?
Nesunku suprasti, kodėl: jie leidžia kūrėjams sulenkti realybės taisykles kaip jokia kita technologija. Per gilių klastotės magiją galite žiūrėti Jennifer Lawrence sako kalbą per Steve'o Buscemi veidą, matyti ka Ryanas Reynoldsas būtų atrodęs kaip Willy Wonka, ir net sugauti Hitleris ir Stalinas dainuojaVaizdo įrašas nužudė radijo žvaigždę duete.
Rekomenduojami vaizdo įrašai
Nežinantiems žmonėms gilios klastotės yra sintetinės laikmenos forma, leidžianti naudotojams uždėti kitokį veidą ant kito žmogaus taip, kad jis beveik nesiskiria nuo originalo. Tai daroma nuskaitant krūvas duomenų, kad suprastų veido kontūrus ir kitas ypatybes, kad natūraliai susilietų ir suaktyvintų jį į sceną.
Susijęs
- Šis startuolis nori suklastoti jūsų balsą ir parduoti jį didžiausią kainą pasiūliusiam asmeniui
- Sparčiai besiplečiančiame kare tarp „deepfake“ ir „deepfake“ detektorių
- Elonas Muskas perspėja, kad visi A.I. turi būti reguliuojamas, net ir Tesloje
Šiuo metu tikriausiai esate susidūrę su tokiais klipais tokiose platformose kaip TikTok (kur grotažymė „#deepfake“ turi apie 200 milijonų peržiūrų), „YouTube“ ir kitur. Nesvarbu, ar tai išpildyti fanų fantastiką ir perdaryti scenas su žvaigždėmis Jie norėtų, kad iš pradžių filmas būtų suvaidinęs arba įtraukęs mirusį žmogų į modernų, virusinį memą, o gilios klastotės buvo priimtos kaip kūrybinė priemonė siekiant tikslų, kurie anksčiau buvo beveik neįmanomi.
Dėl pamainos atsirado naujų kūrėjų lyga Ctrl Shift Veidas, kurio netikri vaizdo įrašai reguliariai sulaukia milijonų peržiūrų ir dažnai yra pagrindinė diskusijų tema vėlyvų pokalbių laidose.
„Tai visiškai naujas būdas kurti juokingus interneto vaizdo įrašus arba pasakoti istorijas, kurių dar nematėme“, – sako Nyderlandų kūrėjas, kuris sukūrė šį hitą.Ozo keršytojai“ deepfake klipas, kuris paprašė nevartoti tikrojo vardo. „Tai gražus A.I. susižavėjimo derinys. technologijos ir humoras“.
Tačiau gresia pavojus, kuris kelia grėsmę giliai padirbtų technologijų ateičiai: jos sutepta reputacija.
Su didele galia yra puikus pakartotinis siuntimas
Deja, be savo potencialo, kaip kūrybinio įrankio gerai nusiteikusiems vaizdo menininkams, gilios klastotės taip pat turi didžiulį potencialą pakenkti.
Neseniai Tyrimą atliko Daweso ateities nusikaltimų centras UCL Jill Dando saugumo ir nusikalstamumo mokslo institute „Deepfakes“ pavadino rimčiausia AI įgalinta grėsme. Sen. Benas Sasse'as, Nebraskos respublikonas, pateikęs įstatymo projektą, kuriuo kriminalizuojamas piktavališkas padirbinių kūrimas, perspėjo Praėjusiais metais ši technologija galėjo „sunaikinti žmonių gyvybes“, „sugadinti finansų rinkas“ ir netgi „paskatinti karinius konfliktus visame pasaulyje“.
Iš dalies šie rūpesčiai yra teisingi. Galų gale, išplitusi giliosios klastotės technologija jau leido sukurti netikrą suaugusiesiems skirtą turinį su įžymybėmis ir tikroviškus politikų apsimetinėjimus satyrai. Anksčiau šiais metais Danas Scavino, Baltųjų rūmų socialinės žiniasklaidos direktorius, tviteryje prastai manipuliuotas klipas, kurį per socialinį tinklalapį paskelbė ir prezidentas Donaldas Trumpas, kuriame D. Trumpo varžovas Joe Bidenas prašo žmonių perrinkti Trumpą.
Trumpas pakartotinai paskelbė redaguotą Bideno vaizdo įrašą. Štai ką Bidenas iš tikrųjų pasakė.
Tačiau šios mažiau nei įtikinamos apgaulės buvo greitai paneigtos, kol nepasiekė masių. Dar svarbiau yra tai, kad ekspertai teigia, kad padirbti vaizdo įrašai iki šiol neturėjo arba neturėjo jokio poveikio visuomenei ir kad šiuo metu jie nekelia jokios neišvengiamos grėsmės. Pavyzdžiui, tyrimai, kuriuos atliko Jautrumas, kibernetinio saugumo įmonė, daugiausia dėmesio skirianti vaizdinėms grėsmėms, teigia, kad didžioji dauguma netikrų vaizdo įrašų yra pornografinių (96 %) ir kad ši technologija dar nepateko į kokią nors reikšmingą dezinformaciją kampanijos.
Panašiai, a Džordžtauno universiteto ataskaita padarė išvadą, kad nors gilus klastojimas yra „įspūdingas techninis žygdarbis“, politikos formuotojai neturėtų skubėti ažiotažas, nes technologija šiuo metu nėra tobula ir negali tiesiog paveikti realaus pasaulio įvykių dar.
Populiariausio „deepfake“ kanalo „Ctrl Shift Face“, kurio vaizdo įrašus peržiūri milijonai, kūrėjas tiki „isterija“. sukimasis apie gilią klastotę atitraukia įstatymų leidėjų dėmesį nuo tikrųjų problemų, tokių kaip prastai reguliuojama reklama. tinklai įjungti Facebook kurie iš tikrųjų yra atsakingi už žmonių klaidinimą.
„Jei kada nors bus žalingas gilus klastojimas, „Facebook“ yra ta vieta, kur ji išplis“, – interviu „Digital Trends“ sakė „Ctrl Shift Face“. „Kas tokiu atveju yra didesnė problema? Terpė ar platforma?
Savininkas BabyZone, „YouTube“ žaidimų kanalas, turintis daugiau nei pusę milijono prenumeratorių, kuris dažnai vilioja įžymybes vaizdo įrašuose žaidimai, kartoja panašų susirūpinimą: „Manau, kad gilūs klastotės yra technologija, kaip ir visos kitos egzistuojančios technologijas. Jie gali būti naudojami geriems ir blogiems tikslams“.
Judėjimas, skirtas išsaugoti gilias klastotes
Per pastaruosius metus ar dvejus, kai vyriausybės ir technologijų įmonės tiria galimą riziką technologiją, „deepfake“ šalininkai stengėsi išsklaidyti šiuos rūpesčius ir išspręsti technologijų visuomenės problemas. vaizdas. Reddit bendruomenės atsirado tokių, kurie siekia „sureguliuoti šią stigmą“, o kai kurie nepriklausomi tyrėjai aktyviai kuria sistemas, kurios gali aptikti padirbinėjimus dar prieš jiems išplitus.
Romanas Mogylnyi, populiarios programos „Reface“, leidžiančios greitai pakeisti veidą į bet kurį GIF formatą, generalinis direktorius ir vienas iš įkūrėjų, sako, kad jo startuolis dabar kuria aptikimo įrankį, kuris gali nustatyti, ar vaizdo įrašas buvo sukurtas naudojant „Reface“. technologija. „Manome, kad plati prieiga prie sintezuotų žiniasklaidos priemonių, tokių kaip mūsų, padidins žmonijos empatiją ir kūrybiškumą ir padės pakeisti supratimą apie technologiją į geresnę pusę“, – „Digital“ sakė Mogylnyi Tendencijos.
Eranas Daganas, populiarios veido keitimo programėlės „Jiggy“ startuolio „Botika“ įkūrėjas ir generalinis direktorius, turi panašią perspektyvą. linkę į gilius klastojimus ir tiki, kad jiems tapus vis labiau įprastu, „žmonės daug geriau supras apie teigiamą jų naudojimą atvejų“.
Tačiau, atsižvelgiant į galimus padirbinėjimo pavojus, tikėtina, kad Kongresas galiausiai įsitrauks. Pagrindinės technologijų platformos įskaitant „Facebook“, „Twitter“ ir „YouTube“ jau atnaujino savo politiką, kad pažymėtų arba pašalintų manipuliuojamą mediją, skirtą suklaidinti. Kelios valstybės kaip Kalifornija ir Niujorkas priėmė įstatymus, pagal kuriuos bus baudžiami tyčia apgaulingų gilių klastočių kūrėjai, taip pat tie, kurie buvo paleisti be asmens, kurio veidas naudojamas, sutikimo.
Ar giliųjų klastotės turėtų būti reguliuojamos?
Nors ši politika neapima parodijų turinio, ekspertai, bijodami netinkamai apibrėžtų įstatymų ar visiško technologijos draudimo, vis dar tiki, kad Kongresas turėtų likti nuošalyje ir leisti gilioms klastotėms judėti natūraliu kursu, kuriuo eina bet kokia nauja žiniasklaidos forma per.
Davidas Greene'as, „Electronic Frontier Foundation“ pilietinių laisvių direktorius, sako „bet koks Kongreso bandymas reguliuoti gilias klastotes ar tikrai bet kokią vizualinę komunikaciją bus kalbos reguliavimas ir implikuoti Pirmąjį Pataisa.
„Visuomenė turi sukurti naujus mechanizmus, patvirtinančius, kuo galima pasitikėti, ir kaip užkirsti kelią neigiamam sintetinio turinio poveikiui asmenims ir organizacijoms.
Greene'as priduria, kad šie įstatymai turi būti tikslūs ir turi – aiškiai apibrėžtais ir lengvai suprantamais terminais – spręsti žalą, kurią jie bando sumažinti. „Tai, ką mes matėme iki šiol... reguliavimo bandymai valstybės lygmeniu yra neaiškūs ir pernelyg platūs įstatymai, kurie nėra tokie tikslūs, kaip reikalauja pirmoji pataisa. Jie neturi reikalingų išimčių parodijai ir politiniams komentarams.
Giorgio Patrini, „Sensity“ generalinis direktorius, mano, kad algoritmų ir programinės įrangos draudimas „beprasmis interneto eroje“. Patrini šią mįslę lygina su kenkėjiška programa apsauga ir kaip beveik neįmanoma sunaikinti visus kompiuterinius virusus ar jų autorius, todėl geriau tiesiog investuoti į apsaugos nuo kenkėjiškų programų mechanizmus vietoj to. „Visuomenė turi sukurti naujus mechanizmus, patvirtinančius, kuo galima pasitikėti, ir kaip užkirsti kelią neigiamam sintetinio turinio poveikiui asmenims ir organizacijoms“, – sakė jis.
Timas Whangas Džordžtauno universiteto ataskaitoje rašė, kad pakeitus giliųjų klastočių įrankius, technologija, skirta aptikti ir filtruoti. jis automatiškai vystysis ir taps tikslesnis, taip neutralizuodamas jų gebėjimą pateikti bet kokį rimtą grasinimai.
„Microsoft“ neseniai pristatė giliųjų klastotės aptikimo įrankįPavyzdžiui, analizuoja vaizdo įrašus, kad pasiūlytų patikimumo balą, nurodantį, kokia tikimybė, kad vaizdo įrašas buvo pakeistas.
„Deepfakes yra nauja manipuliavimo žiniasklaida forma, bet ne pirmą kartą susiduriame su tokio tipo iššūkiu. Mes tiriame ir investuojame į būdus, kaip spręsti sintetinės žiniasklaidos problemą“, – sakė „YouTube“ atstovas.
Tyrėjai už nugaros CtrlShiftLab, pažangi giliųjų klastotės kūrimo programinė įranga, kurią dabar naudoja daugelis „YouTube“ naudotojų, įskaitant „Ctrl Shift Face“. taip pat dirba prie atvirojo kodo projektų, kad padidintų informuotumą ir sukurtų išsamesnį aptikimą paslaugos.
„Vienintelis būdas užkirsti kelią šiam [deepfake piktnaudžiavimui] yra sukurti atvirojo kodo projektą, susijusį su giliomis klastotėmis, ir pritraukti visuomenės dėmesį. Taigi viešieji internautai gali suprasti, kad egzistuoja gilios klastotės“, – „Digital Trends“ sakė vienas iš „CtrlShiftLab“ tyrėjų Kunlinas Liu.
Keletas „Deepfake“ kūrėjų „Digital Trends“ kalbėjosi, kad išliks optimistiškais ir mano, kad šalys per anksti prieštarauja „deepfake“. Jie sutinka, kad augantis „deepfake“ vaidmuo memuose ir parodijų kultūroje padės pagerinti šios naujos technologijos niūrią reputaciją. Jie pridūrė, kad tol, kol vaizdo įrašuose yra atsisakymų, o platformos investuoja į efektyvesnius aptikimo sluoksnius, gilieji klastotės čia išliks.
„Manau, kad „deepfake“ reputacija labai gerėja. Prieš dvejus metus žodis deepfake automatiškai reiškė pornografiją“, – sakė „Ctrl Shift Face“ kūrėjas. „Dabar dauguma žmonių žino gilius klastojimus dėl šių linksmų vaizdo įrašų, sklindančių internete.
Redaktorių rekomendacijos
- „Digital Trends“ „Tech For Change CES 2023“ apdovanojimai
- Linksmame „Gucciberg“ projekte padirbtas Gucci Mane skaito klasikinius romanus
- Kaip menininkai ir aktyvistai naudoja gilius klastojimus kaip jėgą
- Prieš 2020 m. rinkimus „Twitter“ ketina uždrausti giliuosius klastotes, kurios „kelia žalą“.
- Kalifornija imasi griežtų politikos ir pornografijos klastočių