Prejšnji teden je Zvezni preiskovalni urad (FBI) izdal javno obvestilo o porastu eksplicitne vsebine deepfake in o tem, kako se uporablja za kazniva dejanja, kot so izsiljevanje, izsiljevanje in nadlegovanje. Najpreprosteje povedano, deepfake je sintetični multimedijski material, ki poskuša posnemati izvirnik. Lahko je fotografija, video ali zvočni posnetek generacije AI.
Vsebina
- Kaj pravijo strokovnjaki o globokih ponaredkih
- Kako se lahko zaščitite
- Družbeni mediji varno in odgovorno
- Kaj storiti, če ste globoko ponarejeni
- Kako prepoznati deepfake
- Resna težava s polovičnimi rešitvami
Ime »deepfake« izhaja iz inherentne tehnologije, ki se uporablja pri ustvarjanju takšnih medijev – globokega učenja – ki vključuje usposabljanje modela AI z uporabo izvirnega materiala in njegovo nato spreminjanje za ustvarjanje želenega rezultate. Ne gre ravno za nov izum, ampak z generativni AI eksplodira v priljubljenosti — in dostop — globoko ponarejeni zločini so v porastu.
Priporočeni videoposnetki
Njihova priljubljenost je tolikšna, da je celo kampanja republikanskega predsedniškega kandidata Rona DeSantisa uporabila ponarejene podobe tekmeca Donalda Trumpa, da bi ga obrekovala. Deepfakes so tudi eden od razlogov, da se povsod pojavljajo pozivi k regulaciji umetne inteligence. Po podatkih FBI se vsebina za ustvarjanje globokih ponaredkov na splošno odstrani iz objav v družbenih medijih in posnetke video klicev, preden jih spremenite v spolno eksplicitne materiale za izsiljevanje in ustrahovanje.
Povezano
- Izdelovalec ChatGPT OpenAI se sooča s preiskavo FTC zaradi zakonov o varstvu potrošnikov
- Obisk spletnega mesta ChatGPT je prvič upadel
- OpenAI ustvarja novo ekipo, ki bo preprečila, da bi superinteligentni AI postal lopov
Kaj pravijo strokovnjaki o globokih ponaredkih
Kakšna je torej rešitev? Na žalost ni rešitve. Vsaj ne brez kompromisa – takšnega, ki popolnoma obrne celoten pomen »družbenih medijev« na glavo.
»Na žalost je edini način, da se prepričate, da nobena od vaših fotografij ali videoposnetkov ni uporabljena za ustvarjanje globokih ponaredkov, ta, da prenehate objavljati vaše slike na spletu, vendar bi to od uporabnikov interneta zahtevalo veliko zabave,« pravi Adrianus Warmenhoven, strokovnjak za kibernetsko varnost. svetovalec pri Nord.
»Ko se pojavljajo nove in boljše varnostne prakse, bodo zlonamerni akterji našli način, da povzročijo škodo. To je igra dohitevanja in včasih je razočaranje,« pravi Parteek Saran, nekdanji Googler in ustvarjalec orodja za upravljanje gesel naslednje generacije, imenovanega Uno. Nadalje predlaga, da bi morali poskusiti sprejeti "filozofijo ničelnega zaupanja", ko gre za objavo vsebine na družbenih omrežjih in poudarja učinkovito komunikacijo z znanci, da se izognemo deepfake-u prevare.
»Čeprav lahko umetna inteligenca pomaga pri obravnavi vprašanj digitalne varnosti, ni varne varnostne mreže,« pravi Yaron Litwin, strokovnjak za digitalno varnost in CMO pri Nadstrešek. Istoimenska aplikacija podjetja je namenjena zaščiti otrok pred spletnimi spolnimi zločini in ponuja tudi raznolik nabor starševskega nadzora. Litwin dodaja, da se morate izogibati objavljanju intimnih ali ogrožajočih slik, hkrati pa zmanjšati pogostost objavljanja celo običajnih slik.
Kako se lahko zaščitite
Deepfakes so grozljivi in težko je razumeti travmo, ki jo lahko povzročijo osebi in njenim družinskim članom. Obstaja pa nekaj načinov, s katerimi se lahko uporabniki izognejo padcu v past ali pa se vsaj v veliki meri izognejo.
Da bi razumeli, kateri koraki so povprečni pametni telefon uporabniki s tipičnimi digitalnimi veščinami, sem se obrnil na Andrewa Gardnerja, podpredsednika za raziskave in inovacije pri Gen Digital, programsko podjetje, ki med drugim ponuja zaupanja vredna varnostna orodja, kot so Norton, Avast in Avira.
Gardner pravi, da se varnostni protokoli začnejo na osnovni ravni. Uporabniki bi morali začeti tako, da svoje profile spremenijo v zasebne — ali pa vsaj spremenijo nastavitve vidnosti objave, tako da lahko samo osebe, ki jim skupaj sledijo, vidijo in komunicirajo z njihovimi objavami. Starševski nadzor, ki so zdaj na voljo za skoraj vsako večjo platformo družbenih medijev, je treba vestno omogočiti, da lahko skrbniki spremljajo vse sumljive interakcije.
Splošni nasvet je, da je treba sprejemati le zahteve ljudi, ki jih poznajo, vendar lahko dodaten korak veliko pripomore. »Če se povezujete v mrežo, preverite nedavne objave in dejavnosti povabljenih, da ocenite, kako resnične so,« pravi Gardner in dodaja, da morate biti previdni pri »računih z nekaj prijatelji ali skupnimi prijatelji.” Še en pomemben nasvet, ki ga mora dati izvršni direktor Gen Digital, je preverjanje in omejevanje družbenih medijev prijave.
Uporabniki pogosto obiščejo spletne storitve in da se izognejo težavam z ustvarjanjem računa, se odločijo za možnost prijave v družabna omrežja. "To omogoča aplikacijam dostop do osebnih podatkov in v nekaterih primerih te aplikacije te podatke prodajo tretjim osebam," pravi. Škandal Cambridge Analytica, ki vključuje Facebook je odličen primer. Občasno je treba preveriti, katere aplikacije so povezane z njihovimi računi na družbenih omrežjih, in če ni potrebno, jim je treba dostop preklicati.
Deepfake so sofisticirana kazniva dejanja, ki jih poganja umetna inteligenca, vendar Gardner predlaga, da bi se morali uporabniki še vedno držati nekaterih osnovnih varnostnih smernic – npr. omogočanje dvostopenjske avtentikacije, uporabo močnih gesel, omogočanje biometričnih gesel in izogibanje vsem sumljivim ali neznanim povezave.
Družbeni mediji varno in odgovorno
Canopyjev Litwin je mnenja, da več ko delite, lažje je ustvariti prepričljive globoke ponaredke. Senčnih modelov generiranja slik z umetno inteligenco brez kakršnih koli omejitev pri ustvarjanju eksplicitnega gradiva ne manjka. Ta orodja se zanašajo na slikovne vnose za usposabljanje modela. Več podatkov o usposabljanju se vnese, bolj natančni in realistični postanejo globoki ponaredki.
To je standardna taktika, ki jo izvajajo glavni generatorji slik AI, kot je MidJourney. Če je vaš družabni vir odprt in ima dovolj fotografij in videoposnetkov, slabemu igralcu ne more preprečiti, da bi jih postrgal in ustvaril ogrožajoče globoke ponaredke. Če pa ste med ljudmi, ki v družabnih omrežjih vidijo vrednost kot mesto za ohranjanje svojih najbolj cenjenih spominov, obstaja nekaj ukrepov, mora vzemi.
"Bodite previdni pri tem, katere osebne podatke delite v spletu, prilagodite nastavitve zasebnosti v svojih računih, omogočite dvostopenjsko avtentikacijo in natančno preglejte slike za morebitne nepopolnosti," ugotavlja Boyd Clewis, strokovnjak za kibernetsko varnost pri Forbesovem varnostnem svetu in avtor knjige »Skozi požarni zid: alkimija spreminjanja krize v priložnost«.
Toda kako zanesljivo opaziti profil v družabnem omrežju, za katerim je verjetno slab igralec, ki se ukvarja s sumljivimi dejanji, kot je ustvarjanje in širjenje globokih ponaredkov? »Če se video ali avdio gradivo deli s sumljivih profilov in računi ne vsebujejo osebnih podatkov oz fotografije, je verjetno, da je profil lažen,« pravi Tomas Samulis, arhitekt informacijske varnosti pri Baltic Amadeusu. Predlaga, da so takšni profili, ki nimajo osebnih podatkov, ustvarjeni posebej za širjenje ponaredkov in drugih spornih informacij.
Kaj storiti, če ste globoko ponarejeni
Vendar obstaja le toliko previdnostnih ukrepov, ki jih lahko sprejme povprečen uporabnik pametnega telefona. Celo digitalno najbolj podkovani uporabniki se znajdejo na udaru kibernetskih zločinov, tudi po z uporabo vseh standardnih orodij, kot so dvofaktorska avtentikacija, zasebni profili in biometrija požarni zidovi.
Če se kljub vsem previdnostnim ukrepom še vedno znajdete v središču deepfake zločina, poiščite strokovni nasvet in pomoč pri oblasteh, namesto da stvari vzamete v svoje roke. Strokovnjaki ugotavljajo, da sedenje nad takšnim nadlegovanjem ali poskušanje diskretnega obvladovanja sami pogosto poslabša položaj žrtev.
»Če odkrijete, da nekdo zlorablja vašo vsebino, poiščite svetovalca, ki je seznanjen z zakonodajo o avtorskih pravicah, da vam bo pomagal odstraniti vsebino kot čim hitreje,« pravi Rob Scott, član odvetniške zbornice Dallas in pooblaščeni pravni strokovnjak za področja, kot so tveganje kibernetske varnosti in podatki. zasebnost.
Posvetovanje s pravnim strokovnjakom je ključnega pomena, saj vas lahko vodi skozi vaše digitalne pravice, Canopyjev Litwin tudi predlaga ohranitev vseh dokazov, ki žrtvam svetuje, naj »dokumentirajo vse dokaze o poskusih izsiljevanja, kot so sporočila, e-pošta ali kakršna koli oblika komunikacije, povezana z izsiljevanje."
Pomemben nasvet je tudi, da naj žrtev nemudoma prekine vse stike s storilcem kaznivega dejanja, saj lahko zločinec dodatno manipulira ali nadleguje z resnejšimi izsiljevalskimi zahtevami. Hkrati se morajo uporabniki obrniti na strokovnjaka za kibernetsko varnost ali poklicati eno od vladnih telefonskih številk za pomoč pri kibernetskem kriminalu, da pravočasno sprejmejo ustrezne ukrepe.
Kako prepoznati deepfake
Ker motorji umetne inteligence postajajo vse bolj izpopolnjeni, postajajo globoki ponaredki, ki jih proizvajajo, srhljivo resnični in jih je težko opaziti. Še vedno pa obstaja nekaj označevalcev, na katere so lahko uporabniki pozorni, da bi opazili ogrožajoče gradivo, ki je sintetično spremenjeno ali ustvarjeno z umetno inteligenco.
Sledi zbirka identifikatorjev deepfake, ki jih ponujajo strokovnjaki:
- Bodite pozorni na nenaravne gibe oči. Če se zdi, da oči osebe ne utripajo, je gibanje oči izklopljeno ali se zdi, da izrazi obraza niso sinhronizirani z besedami, ki jih govori, gre najverjetneje za posnetek deepfake. Pomanjkanje čustev ali nepovezana čustva so znak, da so mediji digitalno spremenjeni.
- "Tehnologija Deepfake se običajno osredotoča na poteze obraza," pravi Gardner. "Če se oblika telesa osebe ne zdi naravna ali če so njeni gibi sunkoviti in nepovezani, je video verjetno deepfake."
- Drug zanesljiv označevalec je ozadje, ki je lahko videti nenaravno zamegljeno ali prikazuje čudne vizualne artefakte. Drug preprost način za odkrivanje globokih ponaredkov je iskanje neobičajne razbarvanosti ali resne barvne neusklajenosti, zlasti glede obraza in sence predmetov okoli.
- Če naletite na fotografijo, na kateri oseba ziba s "popolnimi lasmi" in ne opazite nobenih posameznih elementov, kot je nekaj pramenov letečih las ali skodranost, bodite previdni. Znano je tudi, da se modeli AI borijo z zobmi. Bodite pozorni na zobe, ki so bodisi nenaravno popolni, bodisi na tiste, ki nimajo obrisov za posamezne zobe, ali morda več zob kot običajna človeška proteza.
- Neporavnani deli telesa, zamegljeni robovi, nekaj dodatnih ali manj prstov, nenavadno pokrčeni udi, nesinhronizirano gibanje deli telesa in glas brez premorov in čustvenih prekinitev so drugi znaki, na katere morate biti pozorni za. »Ponarejeni glasovni ali zvočni posnetki imajo pogosto hrup v ozadju, glasove, ki zvenijo robotsko, in čudno izgovorjavo,« pojasnjuje Samulis.
Resna težava s polovičnimi rešitvami
Kot je razloženo zgoraj, ni zanesljive varnostne mreže proti globokim ponaredkom. Toda če ste previdni pri tem, kje delite fotografije, kdo jih lahko vidi in kako daleč seže vaš dostop do družbenih medijev, lahko ostanete v relativno varnem območju.
Prav tako je treba biti pozoren na to, kdo so njihovi spletni prijatelji, in preveriti tudi dejavnosti novih povabljencev, preden jih doda v svoj krog prijateljev na družbenih medijih. Kar zadeva globoke ponaredke, je to nekoliko težavno. Toda če ostanete pozorni in si vzamete čas za oceno nedoslednosti na sumljivi fotografiji ali videoposnetku, je globoke ponaredke mogoče opaziti s precej visoko stopnjo natančnosti.
Navsezadnje gre le za negovanje higienskih spletnih navad in ohranjanje pazljivosti v spletnem prostoru, ki je vse bolj nagnjen k ponarejanju.
Priporočila urednikov
- Google Bard lahko zdaj govori, a ali lahko preglasi ChatGPT?
- Novo podjetje Elona Muska z umetno inteligenco želi "razumeti vesolje"
- Preboji umetne inteligence bi lahko prišli prek možganov čebel, pravijo znanstveniki
- OpenAI razkriva lokacijo svoje prve mednarodne postojanke
- 81 % meni, da ChatGPT predstavlja varnostno tveganje, ugotavlja raziskava