![AI atvaizduoja blogą internetinį aktorių](/f/ba4abbcd8e708770c9ae4e5f1078d0c3.jpg)
Praėjusią savaitę Federalinis tyrimų biuras (FTB) paskelbė viešąjį pranešimą apie giliai padirbto atviro turinio augimą ir kaip jis naudojamas nusikaltimams, tokiems kaip turto prievartavimas, šantažas ir priekabiavimas. Paprasčiausiai tariant, Deepfake yra sintetinė daugialypės terpės medžiaga, bandanti imituoti originalą. Tai gali būti AI kartos nuotrauka, vaizdo įrašas ar garso klipas.
Turinys
- Ką ekspertai sako apie gilias klastotes
- Kaip galite apsaugoti save
- Socialinė žiniasklaida atlikta saugiai ir atsakingai
- Ką daryti, jei esate suklastotas
- Kaip atpažinti gilius klastojimus
- Rimta problema dėl pusiau veiksmingų sprendimų
Pavadinimas „deepfake“ kilęs iš įgimtos technologijos, naudojamos kuriant tokią mediją – gilų mokymąsi – kuri apima AI modelio mokymą naudojant originalią medžiagą ir tada jo modifikavimą, kad būtų sukurtas norimas rezultatus. Tai ne visai naujas išradimas, bet su generatyvusis dirbtinis intelektas, sparčiai populiarėjantis – ir prieiga – netikrų nusikaltimų daugėja.
Rekomenduojami vaizdo įrašai
Toks jų populiarumas, kad net respublikonų kandidato į prezidentus Rono DeSantiso kampanija naudojo netikrus varžovo Donaldo Trumpo vaizdus, kad jį sužeistų. Deepfake taip pat yra viena iš priežasčių, dėl kurių visur kyla raginimai reguliuoti AI. Pasak FTB, giliųjų klastotės generavimo turinys paprastai pašalinamas iš socialinių tinklų įrašų ir vaizdo skambučių klipus, prieš juos pakeičiant į seksualinio pobūdžio medžiagą, skirtą turto prievartavimui ir patyčioms.
Susijęs
- „ChatGPT“ gamintoja „OpenAI“ susiduria su FTC tyrimu dėl vartotojų apsaugos įstatymų
- ChatGPT svetainės srautas sumažėjo pirmą kartą
- OpenAI kuria naują komandą, kad sustabdytų superinteligentiškojo AI nesąžiningumą
Ką ekspertai sako apie gilias klastotes
![AI atvaizdavimas, kai asmuo fotografuoja išmaniojo telefono naudotoją](/f/48c606a620e347e838a78a5014ad36cd.jpg)
Taigi, koks sprendimas? Deja, sprendimo nėra. Bent jau nepadarius kompromiso – tokio, kuris iš esmės apverčia visą „socialinės žiniasklaidos“ prasmę.
„Deja, vienintelis būdas įsitikinti, kad nė viena iš jūsų nuotraukų ar vaizdo įrašų nėra naudojama kuriant gilius padirbinius, yra nustoti skelbti savo nuotraukas internete, bet tai labai pralinksmins interneto vartotojus“, – sako kibernetinio saugumo departamentas Adrianus Warmenhoven. patarėjas adresu Nord.
„Kai atsiranda naujos ir geresnės saugumo praktikos, piktavališki veikėjai ras būdą, kaip padaryti žalą. Tai žaidimas pasivyti ir kartais nuvilia“, – sako Parteek Saran, buvęs „Google“ darbuotojas ir naujos kartos slaptažodžių valdymo įrankio kūrėjas. Uno. Be to, jis siūlo pabandyti ir laikytis „nulinio pasitikėjimo filosofijos“, kai kalbama apie skelbimus. turinį socialinėje žiniasklaidoje ir pabrėžia veiksmingą bendravimą su pažįstamais, kad išvengtumėte gilių klastočių sukčiai.
„Nors dirbtinis intelektas gali padėti spręsti skaitmeninės saugos problemas, nėra patikimo saugos tinklo“, – sako Yaron Litwin, skaitmeninės saugos ekspertas ir CMO. Baldakimas. Bendrovės to paties pavadinimo programa skirta apsaugoti vaikus nuo internetinių seksualinių nusikaltimų ir siūlo įvairias tėvų kontrolės priemones. „Litwin“ priduria, kad neturėtumėte skelbti intymių ar kompromituojančių vaizdų, o taip pat sumažinti net įprastų vaizdų skelbimo dažnumą.
Kaip galite apsaugoti save
![AI vaizdas, kaip blogas aktorius šnipinėja kitą asmenį](/f/d9de2181aa0acdd52e588eb6e3dc7697.jpg)
Gilios klastotės kelia siaubą ir sunku suvokti, kokią traumą jie gali sukelti žmogui ir jo šeimos nariams. Tačiau yra keletas būdų, kaip vartotojai gali nepakliūti į spąstus arba bent jau gerokai išsisukti.
Norėdami suprasti, kokių žingsnių vidurkis išmanusis telefonas įprastus skaitmeninius įgūdžius turinčius naudotojus, susisiekiau su Andrew Gardner, tyrimų ir inovacijų viceprezidentu Gen Digital, programinės įrangos įmonė, kuri, be kita ko, siūlo patikimus saugos įrankius, tokius kaip „Norton“, „Avast“ ir „Avira“.
Gardner sako, kad saugos protokolai prasideda nuo pagrindinio lygio. Naudotojai turėtų pradėti savo profilius paversti privačiais arba bent jau pakeisti įrašo matomumo nustatymus, kad tik jų bendrai sekami žmonės galėtų matyti jų įrašus ir su jais bendrauti. Tėvų kontrolė, kurios dabar pasiekiamos beveik visose pagrindinėse socialinės žiniasklaidos platformose, turėtų būti kruopščiai įjungtos, kad globėjai galėtų stebėti bet kokią įtartiną sąveiką.
Paprastai patariama priimti tik pažįstamų žmonių prašymus, tačiau žengiant papildomą žingsnį gali būti labai daug. „Jei kuriate tinklą, patikrinkite naujausius pakviestųjų įrašus ir veiklą, kad įvertintumėte, kiek jie tikri“, – sako Gardneris ir priduria, kad reikėtų saugotis „paskyrų“. su keliais draugais ar bendrais draugais“. Kitas svarbus patarimas, kurį turi duoti „Gen Digital“ vadovas, yra socialinės žiniasklaidos tikrinimas ir ribojimas prisijungimai.
![AI atvaizdas, kai kaukėtas asmuo šnipinėja kitą asmenį](/f/75e889c54529ad32e2c7527eb179f578.jpg)
Vartotojai dažnai lankosi internetinėse paslaugose ir, norėdami išvengti vargo kuriant paskyrą, pasirenka prisijungimo prie socialinių tinklų parinktį. „Tai suteikia programoms prieigą prie asmeninės informacijos, o kai kuriais atvejais tos programos parduoda tą informaciją trečiosioms šalims“, – sako jis. „Cambridge Analytica“ skandalas, susijęs su „Facebook“. yra puikus pavyzdys. Reikėtų periodiškai tikrinti, kurios programėlės yra prijungtos prie jų socialinių tinklų paskyrų, ir, jei nereikia, jų prieiga turėtų būti atšaukta.
Deepfake yra sudėtingi dirbtinio intelekto veikiami nusikaltimai, tačiau Gardner siūlo, kad vartotojai vis tiek turėtų laikytis kai kurių pagrindinių saugos gairių, pvz. kaip įgalinti dviejų veiksnių autentifikavimą, naudoti stiprius slaptažodžius, įgalinti biometrinius slaptažodžius ir išvengti bet kokių įtartinų ar nežinomų nuorodos.
Socialinė žiniasklaida atlikta saugiai ir atsakingai
![AI vaizdas, kai žmonės spustelėja asmenukes.](/f/950bd9d3a634d2497b9238ab8e165bda.jpg)
„Canopy's Litwin“ laikosi nuomonės, kad kuo daugiau daliniesi, tuo lengviau bus sukurti įtikinamų padirbinių. Netrūksta šešėlinių AI vaizdų generavimo modelių be jokių apribojimų kuriant aiškią medžiagą. Šie įrankiai remiasi vaizdo įvestimis, kad būtų išmokytas modelis. Kuo daugiau treniruočių duomenų pateikiama, tuo tikslesni ir tikroviški padirbinėjimai tampa.
Tai standartinė taktika, kurią įgyvendina pagrindiniai AI vaizdo generatoriai Kelionės vidurys. Jei jūsų socialinis kanalas yra atidarytas ir jame yra daug nuotraukų ir vaizdo įrašų, blogas aktorius netrukdys juos iškrapštyti, kad sukurtų kompromituojančias gilias klastotes. Bet jei esate tarp žmonių, kurie vertina socialinę žiniasklaidą kaip vietą, kurioje galite išsaugoti brangiausius prisiminimus, galite imtis kelių priemonių privalo imti.
![„Twitter“ programos naudojimas „Xiaomi 13 Pro“.](/f/7fbe760c5c2c39e748cc01af8891fda2.jpg)
„Būkite atsargūs, kokią asmeninę informaciją bendrinate internete, koreguokite savo paskyrų privatumo nustatymus, įgalinkite dviejų veiksnių autentifikavimą ir atidžiai peržiūrėkite vaizdus, ar nėra trūkumų“, – pažymi. Boydas Clewisas, kibernetinio saugumo ekspertas „Forbes“ saugumo taryboje ir knygos „Per ugniasienę: krizę paversti galimybe alchemija“ autorius.
Tačiau kaip patikimai atpažinti socialinių tinklų profilį, kurio užnugaryje greičiausiai yra blogas veikėjas, užsiimantis šešėliniais veiksmais, pavyzdžiui, kuriantis ir platinantis gilias klastotes? „Jei vaizdo ar garso medžiaga dalijamasi iš įtartinų profilių, o paskyrose nėra jokios asmeninės informacijos ar nuotraukų, tikėtina, kad profilis netikras“, – siūlo „Baltic Amadeus“ informacijos saugumo architektas Tomas Samulis. Jis teigia, kad tokie profiliai, kuriuose nėra asmenį identifikuojančios informacijos, yra sukurti specialiai klastotėms ir kitai prieštaringai informacijai skleisti.
Ką daryti, jei esate suklastotas
![AI atvaizduoja kaukę asmenį naudojant telefoną](/f/122437f25154f81d7fb1309f48f84202.jpg)
Tačiau yra tik tiek atsargumo priemonių, kurių gali imtis eilinis išmaniojo telefono vartotojas. Net ir labiausiai skaitmeninę erdvę išmanantys vartotojai atsiduria kibernetinių nusikaltimų pabaigoje naudojant visus standartinius įrankius, pvz., dviejų veiksnių autentifikavimą, privačius profilius ir biometrinius duomenis ugniasienės.
Jei, nepaisant visų atsargumo priemonių, vis tiek atsidūrėte gilaus netikro nusikaltimo centre, kreipkitės į ekspertų patarimus ir pagalbos į valdžios institucijas, o ne imkitės reikalų į savo rankas. Specialistai pastebi, kad sėdėjimas ant tokio priekabiavimo ar bandymas diskretiškai susidoroti su juo dažnai pablogina aukų padėtį.
„Jei pastebėsite, kad kažkas netinkamai naudoja jūsų turinį, kreipkitės į autorių teisių įstatymą išmanantį konsultantą, kuris padėtų jums pašalinti turinį kaip kaip įmanoma greičiau“, – sako Robas Scottas, Dalaso advokatų asociacijos narys ir licencijuotas teisės ekspertas tokiose srityse kaip kibernetinio saugumo rizika ir duomenys. privatumas.
Labai svarbu konsultuotis su teisės ekspertu, nes jie gali padėti jums sužinoti jūsų skaitmenines teises. „Canopy's Litwin“ taip pat siūlo išsaugoti visas parodymus, patariant aukoms „pagrįsti visus bandymų prievartauti įrodymus, pvz., žinutes, el. laiškus ar bet kokią komunikaciją, susijusią su turto prievartavimą“.
Kitas svarbus patarimas yra tai, kad auka turėtų nedelsdama nutraukti bet kokį ryšį su nusikaltėliu, nes nusikaltėlis gali toliau jais manipuliuoti arba priekabiauti, reikalaudamas rimtesnių turto prievartavimo reikalavimų. Tuo pačiu metu vartotojai turėtų susisiekti su kibernetinio saugumo ekspertu arba paskambinti viena iš vyriausybinių pagalbos linijų, skirtų kovai su kibernetiniais nusikaltimais, kad laiku imtųsi tinkamų priemonių.
Kaip atpažinti gilius klastojimus
![AI atvaizduoja žmogaus veidą](/f/25db1e70853654c754975a1fe07edb0f.jpg)
Dirbtinio intelekto varikliai tampa vis tobulesni, todėl jų gaminamos gilios klastotės tampa siaubingai tikroviškos ir sunkiai pastebimos. Tačiau vis dar yra keletas žymeklių, į kuriuos vartotojai gali atkreipti dėmesį, norėdami pastebėti sintetiniu būdu pakeistą arba dirbtinio intelekto sukurtą kompromituojančią medžiagą.
Toliau pateikiamas gilių padirbtų identifikatorių, kuriuos gali pasiūlyti ekspertai, rinkinys:
- Stebėkite nenatūralius akių judesius. Jei atrodo, kad žmogaus akys nemirksi, akių judesiai išjungti arba veido išraiškos nesinchronizuojamos su žodžiais, kuriuos jis kalba, greičiausiai tai yra netikras klipas. Emocijų trūkumas arba nenuoseklios emocijos yra ženklas, kad žiniasklaida buvo pertvarkyta skaitmeniniu būdu.
- „Deepfake technologija paprastai sutelkia dėmesį į veido bruožus“, - sako Gardneris. „Jei asmens kūno forma neatrodo natūrali arba jo judesiai yra trūkčiojantys ir nenuoseklūs, vaizdo įrašas greičiausiai yra netikras.
- Kitas patikimas žymeklis yra fonas, kuris gali atrodyti nenatūraliai neryškus arba rodyti keistus vaizdinius artefaktus. Kitas paprastas būdas aptikti gilius padirbinėjimus – ieškoti nenormalių spalvos pakitimų ar rimtų spalvų neatitikimų, ypač atsižvelgiant į aplinkinių daiktų veidą ir šešėlį.
- Jei matote nuotrauką, kurioje žmogus sūpuojasi „tobulais plaukais“, o jūs negalite pastebėti jokių atskirų elementų, pavyzdžiui, kelių slenkančių plaukų sruogų ar slinkimo, būkite atsargūs. Taip pat žinoma, kad dirbtinio intelekto modeliai kovoja su dantimis. Atkreipkite dėmesį, ar dantys yra nenatūraliai tobuli, neturintys atskirų dantų kontūrų, o gal daugiau dantų nei įprastas žmogaus protezas.
- Netinkamai suderintos kūno dalys, neryškūs kraštai, keli papildomi ar mažiau pirštų, keistai iškreiptos galūnės, nesinchronizuotas judesys kūno dalių, o balsas, kuriame trūksta pauzių ir emocinių pertraukų, yra kiti požymiai, į kuriuos turėtumėte atkreipti dėmesį dėl. „Netikrieji balso ar garso įrašai dažnai turi foninį triukšmą, robotiškai skambančius balsus ir keistą tarimą“, – aiškina Samulis.
Rimta problema dėl pusiau veiksmingų sprendimų
![AI vaizdas, kai žmogus žiūri per telefoną](/f/aeafedea1b2c0deaae0f92e88c399393.jpg)
Kaip paaiškinta aukščiau, nėra patikimo apsauginio tinklo nuo gilių klastočių. Tačiau jei esate atsargūs dėl to, kur bendrinate nuotraukas, kas jas gali matyti ir kiek toli pasiekia jūsų socialinė žiniasklaida, galite likti gana saugioje zonoje.
Taip pat reikėtų atkreipti dėmesį į tai, kas yra jų internetiniai draugai, taip pat patikrinti naujų kvietimų veiklą prieš įtraukiant juos į draugų ratą socialiniuose tinkluose. Kalbant apie gilius klastojimus, tai yra šiek tiek sudėtinga. Tačiau jei išliksite budrus ir skirsite laiko įvertinti neatitikimus įtartinoje nuotraukoje ar vaizdo įraše, gilius klastotes galima pastebėti gana tiksliai.
Galų gale, visa tai susiję su higienos įpročių ugdymu internete ir budrumu internetinėje erdvėje, kurioje vis dažniau pasitaiko klastočių.
Redaktorių rekomendacijos
- „Google Bard“ dabar gali kalbėti, bet ar gali užgožti „ChatGPT“?
- Naujoji Elono Musko dirbtinio intelekto įmonė siekia „suprasti visatą“
- Mokslininkai teigia, kad dirbtinio intelekto proveržiai gali atsirasti per bičių smegenis
- OpenAI atskleidžia savo pirmojo tarptautinio forposto vietą
- 81% mano, kad „ChatGPT“ kelia pavojų saugumui, rodo apklausa