Minulý týždeň Federálny úrad pre vyšetrovanie (FBI) vydal verejnoprávne oznámenie o náraste hlboko falošného explicitného obsahu a o tom, ako sa používa na trestné činy, ako je vydieranie, vydieranie a obťažovanie. Zjednodušene povedané, deepfake je syntetický multimediálny materiál, ktorý sa snaží napodobniť originál. Môže to byť fotografia, video alebo zvukový klip generácie AI.
Obsah
- Čo hovoria odborníci o deepfakes
- Ako sa môžete udržať v bezpečí
- Sociálne médiá fungujú bezpečne a zodpovedne
- Čo robiť, ak sa stanete hlboko falošným
- Ako rozpoznať deepfakes
- Vážny problém s polovične účinnými riešeniami
Názov „deepfake“ pochádza z vlastnej technológie používanej pri vytváraní takýchto médií – hlbokého učenia – ktoré zahŕňa trénovanie modelu AI s použitím pôvodného materiálu a jeho následnú úpravu, aby sa vytvoril požadovaný výsledky. Nie je to úplne nový vynález, ale s popularita generatívnej AI — a prístup — hlboko falošné zločiny pribúdajú.
Odporúčané videá
Ich popularita je taká, že dokonca aj kampaň republikánskeho prezidentského kandidáta Rona DeSantisa používala na jeho ohováranie hlboko falošné obrázky rivala Donalda Trumpa. Deepfakes sú tiež jedným z dôvodov, prečo sa všade vyvolávajú výzvy na reguláciu AI. Podľa FBI je obsah na generovanie deepfakes vo všeobecnosti stiahnutý z príspevkov na sociálnych sieťach a klipy z videohovorov pred ich úpravou na sexuálne explicitné materiály na vydieranie a šikanovanie.
Súvisiace
- Výrobca ChatGPT OpenAI čelí vyšetrovaniu FTC v súvislosti so zákonmi na ochranu spotrebiteľa
- Návštevnosť webu ChatGPT prvýkrát klesla
- OpenAI buduje nový tím, aby zastavil nečestnú superinteligentnú AI
Čo hovoria odborníci o deepfakes
Takže, aké je riešenie? Žiaľ, riešenie neexistuje. Prinajmenšom nie bez kompromisu, ktorý zásadne obracia celý význam „sociálnych médií“ na hlavu.
„Bohužiaľ, jediný spôsob, ako si byť istý, že žiadna z vašich fotografií alebo videí nie je použitá na vytvorenie falzifikátov, je prestať zverejňovať obrázky, na ktorých ste online, ale to by od používateľov internetu vyžadovalo veľa zábavy,“ hovorí Adrianus Warmenhoven, odborník na kybernetickú bezpečnosť. poradca pri Nord.
„Keď sa objavia nové a lepšie bezpečnostné postupy, zlomyseľní aktéri nájdu spôsob, ako spôsobiť škodu. Je to hra na dobiehanie a občas je to sklamanie,“ hovorí Parteek Saran, bývalý zamestnanec spoločnosti Google a tvorca nástroja na správu hesiel novej generácie s názvom Uno. Ďalej navrhuje, aby sme sa pokúsili prijať „filozofiu nulovej dôvery“, pokiaľ ide o vysielanie obsahu na sociálnych médiách a kladie dôraz na efektívnu komunikáciu so známymi, aby sa vyhli deepfake podvody.
„Aj keď AI môže pomôcť pri riešení problémov s digitálnou bezpečnosťou, neexistuje žiadna spoľahlivá bezpečnostná sieť,“ hovorí Yaron Litwin, expert na digitálnu bezpečnosť a CMO v Baldachýn. Eponymná aplikácia spoločnosti je zameraná na ochranu detí pred online sexuálnymi zločinmi a ponúka aj rozmanitú sadu rodičovských kontrol. Litwin dodáva, že by ste sa mali vyhýbať uverejňovaniu intímnych alebo kompromitujúcich obrázkov a zároveň znížiť frekvenciu uverejňovania aj normálnych obrázkov.
Ako sa môžete udržať v bezpečí
Deepfakes sú desivé a je ťažké pochopiť traumu, ktorú môžu spôsobiť osobe a jej rodinným príslušníkom. Existuje však niekoľko spôsobov, ako sa používatelia môžu vyhnúť pádu do pasce alebo sa aspoň do značnej miery vyhnúť.
Aby ste pochopili, aké kroky sú priemerné smartfón používatelia s typickými digitálnymi zručnosťami môžu prijať, oslovil som Andrewa Gardnera, viceprezidenta pre výskum a inovácie v Gen Digital, softvérová spoločnosť, ktorá okrem iného ponúka dôveryhodné bezpečnostné nástroje ako Norton, Avast a Avira.
Gardner hovorí, že bezpečnostné protokoly začínajú na základnej úrovni. Používatelia by mali začať tým, že svoje profily stanú súkromnými – alebo aspoň zmeniť nastavenia viditeľnosti príspevkov tak, aby ich príspevky mohli vidieť a interagovať s nimi iba ľudia, ktorých vzájomne sledujú. Rodičovská kontrola, ktoré sú teraz dostupné pre takmer každú veľkú platformu sociálnych médií, by sa mali dôsledne aktivovať, aby opatrovníci mohli sledovať akékoľvek podozrivé interakcie.
Všeobecnou radou je, že človek by mal prijímať žiadosti iba od ľudí, ktorých poznajú, ale urobiť krok navyše môže znamenať dlhú cestu. „Ak vytvárate sieť, skontrolujte nedávne príspevky a aktivity pozvaných, aby ste zistili, nakoľko sú skutočné,“ hovorí Gardner a dodáva, že by ste si mali dávať pozor na „účty s niekoľkými priateľmi alebo spoločnými priateľmi." Ďalšou zásadnou radou, ktorú musí dať výkonný riaditeľ Gen Digital, je kontrola a obmedzenie sociálnych médií prihlásenia.
Používatelia často navštevujú online služby a aby sa vyhli problémom s vytváraním účtu, rozhodli sa pre možnosť prihlásenia na sociálne siete. „To dáva aplikáciám prístup k osobným informáciám a v niektorých situáciách tieto aplikácie predávajú tieto informácie tretím stranám,“ hovorí. Škandál Cambridge Analytica týkajúci sa Facebooku je skvelým príkladom. Mali by ste pravidelne kontrolovať, ktoré aplikácie sú pripojené k ich účtom sociálnych médií, a ak to nie je potrebné, ich prístup by mal byť zrušený.
Deepfakes sú sofistikované zločiny poháňané AI, ale Gardner navrhuje, aby používatelia stále dodržiavali niektoré základné bezpečnostné pokyny – ako napr. ako umožnenie dvojfaktorovej autentifikácie, používanie silných hesiel, povolenie biometrických prístupových kľúčov a vyhýbanie sa akémukoľvek podozrivému alebo neznámemu odkazy.
Sociálne médiá fungujú bezpečne a zodpovedne
Canopy’s Litwin zastáva názor, že čím viac zdieľate, tým ľahšie je vytvárať presvedčivé deepfakes. Neexistuje žiadny nedostatok tieňových modelov generovania obrázkov AI bez akýchkoľvek obmedzení pri vytváraní explicitného materiálu. Tieto nástroje sa pri trénovaní modelu spoliehajú na obrazové vstupy. Čím viac tréningových údajov sa naplní, tým presnejšie a realistickejšie sa deepfakes stanú.
Je to štandardná taktika implementovaná bežnými generátormi obrázkov AI, ako sú MidJourney. Ak je váš sociálny kanál otvorený a obsahuje veľké množstvo fotografií a videí, nič nebráni zlému hercovi, aby ich zoškrabal a vytvoril kompromitujúce deepfakes. Ale ak patríte medzi ľudí, ktorí vidia hodnotu v sociálnych médiách ako miesto na uchovávanie vašich najcennejších spomienok, existuje niekoľko opatrení, ktoré musieť vziať.
„Dávajte si pozor na to, aké osobné informácie zdieľate online, upravte nastavenia ochrany osobných údajov na svojich účtoch, povoľte dvojfaktorové overenie a starostlivo skontrolujte, či na obrázkoch nie sú nejaké nedokonalosti,“ poznamenáva Boyd Clewis, expert na kybernetickú bezpečnosť v Bezpečnostnej rade Forbes a autor knihy „Through The Firewall: Alchemy Of Turn Crisis into Opportunity“.
Ako však spoľahlivo rozpoznať profil na sociálnej sieti, za ktorým je pravdepodobne zlý herec zapojený do pochybných činov, ako je vytváranie a šírenie deepfakes? „Ak je video alebo zvukový materiál zdieľaný z podozrivých profilov a účty neobsahujú žiadne osobné informácie resp fotky, je pravdepodobné, že profil je falošný,“ naznačuje Tomas Samulis, architekt informačnej bezpečnosti v Baltic Amadeus. Navrhuje, aby takéto profily bez informácií umožňujúcich osobnú identifikáciu boli vytvorené špeciálne na šírenie falošných a iných kontroverzných informácií.
Čo robiť, ak sa stanete hlboko falošným
Existuje však len toľko preventívnych opatrení, ktoré môže urobiť priemerný používateľ smartfónu. Dokonca aj tí digitálne zdatní používatelia sa ocitnú na konci kybernetických zločinov, a to aj potom pomocou všetkých štandardných nástrojov, ako je dvojfaktorové overenie, súkromné profily a biometrické údaje firewally.
Ak sa aj napriek prijatiu všetkých preventívnych opatrení stále ocitnete v centre falošného zločinu, namiesto toho, aby ste vzali veci do vlastných rúk, vyhľadajte odbornú radu a pomoc od úradov. Odborníci poznamenávajú, že sedieť na takomto obťažovaní alebo sa ho snažiť diskrétne zvládnuť vlastnými silami často zhoršuje situáciu obetí.
„Ak zistíte, že niekto zneužíva váš obsah, vyhľadajte radu oboznámenú so zákonom o autorských právach, ktorý vám pomôže odstrániť obsah ako čo najrýchlejšie,“ hovorí Rob Scott, člen Dallas Bar Association a licencovaný právny expert v oblastiach ako kybernetické bezpečnostné riziko a údaje súkromia.
Konzultácia s právnym expertom je kľúčová, pretože vás môže previesť vašimi digitálnymi právami, Canopy’s Litwin tiež navrhuje zachovať všetky dôkazy, ktoré obetiam radí, aby „zdokumentovali akékoľvek dôkazy o pokusoch o vydieranie, ako sú správy, e-maily alebo akákoľvek forma komunikácie súvisiacej s vydieranie.”
Ďalšou zásadnou radou je, že obeť by mala okamžite ukončiť akýkoľvek kontakt so zločincom, pretože zločinec s nimi môže ďalej manipulovať alebo ich obťažovať závažnejšími požiadavkami na vydieranie. Používatelia by zároveň mali kontaktovať experta na kybernetickú bezpečnosť alebo zavolať na niektorú z vládnych liniek pomoci pre počítačovú kriminalitu, aby včas prijali správne opatrenia.
Ako rozpoznať deepfakes
Keďže motory AI sú čoraz sofistikovanejšie, druh deepfakes, ktorý produkujú, sa stáva strašidelne skutočným a je ťažké ho rozpoznať. Stále však existuje niekoľko značiek, ktorým môžu používatelia venovať pozornosť, aby našli synteticky pozmenený alebo kompromitujúci materiál vytvorený AI.
Nasleduje kompilácia hlbokých falošných identifikátorov, ktoré odborníci ponúkajú:
- Dávajte pozor na neprirodzené pohyby očí. Ak sa zdá, že oči osoby nežmurkajú, pohyb očí je vypnutý alebo sa zdá, že výrazy tváre nie sú v súlade so slovami, ktoré hovorí, ide s najväčšou pravdepodobnosťou o hlboko falošný klip. Nedostatok emócií alebo nesúrodé emócie sú jasným znakom toho, že médiá boli digitálne transformované.
- „Technológia Deepfake sa zvyčajne zameriava na črty tváre,“ hovorí Gardner. "Ak sa tvar tela osoby nezdá byť prirodzený alebo ak sú jej pohyby trhané a nesúvislé, video je pravdepodobne hlboko falošné."
- Ďalším spoľahlivým ukazovateľom je pozadie, ktoré sa môže javiť ako neprirodzene rozmazané alebo zobrazuje zvláštne vizuálne artefakty. Ďalším jednoduchým spôsobom, ako rozpoznať deepfakes, je hľadať abnormálne sfarbenie alebo vážny nesúlad farieb, najmä pokiaľ ide o tvár a tieň predmetov v okolí.
- Ak narazíte na fotografiu, na ktorej má človek „dokonalé vlasy“ a nemôžete si všimnúť žiadne jednotlivé prvky, ako napríklad niekoľko poletujúcich vlasov alebo kučeravé vlasy, buďte opatrní. Modely AI sú tiež známe tým, že bojujú so zubami. Dávajte si pozor na zuby, ktoré sú buď neprirodzene dokonalé, alebo také, ktorým chýbajú obrysy jednotlivých zubov, alebo možno viac zubov ako bežná ľudská zubná protéza.
- Nesprávne zarovnané časti tela, rozmazané okraje, niekoľko prstov navyše alebo menej, zvláštne skrútené končatiny, nesynchronizované pohyby Časti tela a hlas bez prestávok a emocionálnych zlomov sú ďalšie znaky, na ktoré by ste si mali dávať pozor pre. „Falošné hlasové alebo zvukové nahrávky majú často hluk v pozadí, roboticky znejúce hlasy a zvláštne výslovnosti,“ vysvetľuje Samulis.
Vážny problém s polovične účinnými riešeniami
Ako je vysvetlené vyššie, neexistuje žiadna spoľahlivá bezpečnostná sieť proti deepfake. Ak si však dávate pozor na to, kde zdieľate fotografie, kto ich môže vidieť a ako ďaleko siaha váš prístup k sociálnym sieťam, môžete zostať v relatívne bezpečnej zóne.
Mali by ste tiež venovať pozornosť tomu, kto sú ich online priatelia, a predtým, ako ich pridáte do kruhu priateľov na sociálnych médiách, preveriť aktivity nových pozvánok. Pokiaľ ide o deepfakes, je to trochu zložité. Ak však zostanete ostražití a nájdete si čas na posúdenie nezrovnalostí na podozrivej fotke alebo videu, deepfakes možno rozpoznať s pomerne vysokou mierou presnosti.
Na konci dňa je to všetko o pestovaní hygienických online návykov a udržiavaní ostražitosti v online priestore, ktorý je čoraz náchylnejší na falšovanie.
Odporúčania redaktorov
- Google Bard teraz môže hovoriť, ale dokáže prehlušiť ChatGPT?
- Nová spoločnosť Elona Muska zameraná na umelú inteligenciu má za cieľ „pochopiť vesmír“
- Vedci tvrdia, že objavy AI by mohli prísť cez mozgy včiel
- OpenAI odhaľuje umiestnenie svojej prvej medzinárodnej základne
- 81 % si myslí, že ChatGPT je bezpečnostné riziko, zistil prieskum