Minulý týden Federální úřad pro vyšetřování (FBI) vydal veřejné oznámení o nárůstu hluboce falešného explicitního obsahu a o tom, jak se používá k trestným činům, jako je vydírání, vydírání a obtěžování. Zjednodušeně řečeno, deepfake je syntetický multimediální materiál, který se snaží napodobit originál. Může to být fotografie, video nebo zvukový klip generace AI.
Obsah
- Co říkají odborníci o deepfakes
- Jak se můžete udržet v bezpečí
- Sociální média provozována bezpečně a zodpovědně
- Co dělat, když se stanete deepfakovanými
- Jak rozpoznat deepfakes
- Vážný problém s poloefektivními řešeními
Název „deepfake“ pochází z vlastní technologie používané při vytváření takových médií – hluboké učení – které zahrnuje trénování modelu umělé inteligence pomocí originálního materiálu a jeho následnou úpravu tak, aby generoval požadovaný Výsledek. Není to úplně nový vynález, ale s generativní AI explodující v popularitě — a přístup — hluboce falešných zločinů přibývá.
Doporučená videa
Jejich popularita je taková, že i kampaň republikánského prezidentského kandidáta Rona DeSantise používala hluboce falešné obrázky rivala Donalda Trumpa, aby ho osočovala. Deepfakes jsou také jedním z důvodů, proč se všude objevuje volání po regulaci umělé inteligence. Podle FBI je obsah pro generování deepfakes obecně odstraněn z příspěvků na sociálních sítích a klipy videohovorů, než budou upraveny na sexuálně explicitní materiály pro vydírání a šikanu.
Příbuzný
- Tvůrce ChatGPT OpenAI čelí vyšetřování FTC kvůli zákonům na ochranu spotřebitele
- Návštěvnost webu ChatGPT poprvé klesla
- OpenAI buduje nový tým, aby zabránil tomu, že superinteligentní umělá inteligence bude nečestná
Co říkají odborníci o deepfakes
Jaké je tedy řešení? Bohužel neexistuje žádné řešení. Přinejmenším ne bez kompromisu – takového, který zásadně staví celý význam „sociálních médií“ na hlavu.
„Bohužel, jediný způsob, jak si být jisti, že žádná z vašich fotek nebo videí nebude použita k vytvoření falešných padělků, je přestat zveřejňovat obrázky sebe sama online, ale to by od uživatelů internetu vyžadovalo spoustu legrace,“ říká Adrianus Warmenhoven, odborník na kybernetickou bezpečnost. poradce u Nord.
„Jak se objevují nové a lepší bezpečnostní postupy, zlomyslní aktéři najdou způsob, jak způsobit škodu. Je to hra na dohánění a občas je to zklamání,“ říká Parteek Saran, bývalý zaměstnanec společnosti Google a tvůrce nástroje pro správu hesel nové generace s názvem Uno. Dále navrhuje, že by se člověk měl pokusit přijmout „filozofii nulové důvěry“, pokud jde o vysílání obsahu na sociálních sítích a klade důraz na efektivní komunikaci se známými, aby se vyhnuli deepfake podvody.
„I když umělá inteligence může pomoci při řešení problémů s digitální bezpečností, neexistuje žádná bezpečná bezpečnostní síť,“ říká Yaron Litwin, expert na digitální bezpečnost a CMO ve společnosti Baldachýn. Eponymní aplikace společnosti je zaměřena na ochranu dětí před online sexuálními zločiny a nabízí také rozmanitou sadu rodičovské kontroly. Litwin dodává, že byste se měli vyvarovat zveřejňování intimních nebo kompromitujících obrázků a zároveň snížit frekvenci zveřejňování i normálních obrázků.
Jak se můžete udržet v bezpečí
Deepfakes jsou děsivé a je těžké pochopit trauma, které mohou člověku a jeho rodinným příslušníkům způsobit. Existuje však několik způsobů, jak se uživatelé mohou vyhnout pádu do pasti nebo se alespoň do značné míry vyhnout.
Abychom pochopili, jaké kroky jsou průměrné chytrý telefon uživatelé s typickými digitálními dovednostmi mohou přijmout, oslovil jsem Andrewa Gardnera, viceprezidenta pro výzkum a inovace ve společnosti Gen Digital, softwarová společnost, která nabízí důvěryhodné bezpečnostní nástroje, jako jsou mimo jiné Norton, Avast a Avira.
Gardner říká, že bezpečnostní protokoly začínají na základní úrovni. Uživatelé by měli začít tím, že změní své profily na soukromé – nebo alespoň změní nastavení viditelnosti příspěvků tak, aby jejich příspěvky mohli vidět a pracovat s nimi pouze lidé, které vzájemně sledují. Rodičovská kontrola, které jsou nyní dostupné pro téměř všechny hlavní platformy sociálních médií, by měly být důsledně povoleny, aby opatrovníci mohli sledovat jakékoli podezřelé interakce.
Obecnou radou je, že člověk by měl přijímat žádosti pouze od lidí, které znají, ale udělat krok navíc může znamenat dlouhou cestu. „Pokud vytváříte síť, zkontrolujte nedávné příspěvky a aktivity pozvaných, abyste zjistili, nakolik jsou skutečné,“ říká Gardner a dodává, že byste si měli dávat pozor na „účty s několika přáteli nebo společnými přáteli." Další zásadní radou, kterou musí dát výkonný ředitel Gen Digital, je kontrola a omezení sociálních médií přihlášení.
Uživatelé často navštěvují online služby, a aby se vyhnuli potížím s vytvářením účtu, rozhodnou se pro možnost přihlášení na sociální sítě. „To umožňuje aplikacím přístup k osobním informacím a v některých situacích tyto aplikace tyto informace prodávají třetím stranám,“ říká. Skandál Cambridge Analytica týkající se Facebooku je skvělým příkladem. Měli byste pravidelně kontrolovat, které aplikace jsou připojeny k jejich účtům na sociálních sítích, a pokud to není nutné, měl by být jejich přístup zrušen.
Deepfakes jsou sofistikované zločiny poháněné umělou inteligencí, ale Gardner navrhuje, aby uživatelé stále dodržovali některé základní bezpečnostní pokyny – např. jako umožnění dvoufaktorové autentizace, používání silných hesel, povolení biometrických přístupových klíčů a vyhýbání se jakémukoli podezřelému nebo neznámému Odkazy.
Sociální média provozována bezpečně a zodpovědně
Canopy’s Litwin je toho názoru, že čím více sdílíte, tím snazší je vytvářet přesvědčivé deepfakes. Neexistuje žádný nedostatek stinných modelů generování obrázků AI bez jakýchkoli omezení při vytváření explicitního materiálu. Tyto nástroje se při trénování modelu spoléhají na obrazové vstupy. Čím více tréninkových dat je napájeno, tím přesnější a realističtější jsou deepfakes.
Je to standardní taktika implementovaná běžnými generátory obrázků AI, jako jsou MidJourney. Pokud je váš sociální kanál otevřený a obsahuje dostatek fotografií a videí, nic nebrání špatnému herci, aby je seškrábal a vytvořil kompromitující deepfakes. Ale pokud patříte mezi lidi, kteří vidí hodnotu v sociálních médiích jako místo pro uchování vašich nejcennějších vzpomínek, existuje několik opatření, která musí vzít.
„Dávejte si pozor na to, jaké osobní údaje sdílíte online, upravte nastavení ochrany osobních údajů na svých účtech, povolte dvoufaktorové ověřování a pečlivě zkontrolujte, zda na snímcích nejsou nějaké nedokonalosti,“ poznamenává Boyd Clewis, odborník na kybernetickou bezpečnost v Radě bezpečnosti Forbes a autor knihy „Through The Firewall: The Alchemy Of Turn Crisis Into Opportunity“.
Jak ale spolehlivě odhalit profil na sociálních sítích, za kterým je pravděpodobně špatný herec zapojený do pochybných činů, jako je vytváření a šíření deepfakes? „Pokud je video nebo zvukový materiál sdílen z podezřelých profilů a účty neobsahují žádné osobní údaje nebo fotky, je pravděpodobné, že profil je falešný,“ navrhuje Tomas Samulis, architekt informační bezpečnosti z Baltic Amadeus. Navrhuje, aby takové profily postrádající osobně identifikovatelné informace byly vytvořeny speciálně za účelem šíření padělků a jiných kontroverzních informací.
Co dělat, když se stanete deepfakovanými
Ale existuje jen tolik preventivních opatření, které může průměrný uživatel smartphonu přijmout. I ti nejzkušenější uživatelé se ocitnou na konci kybernetické kriminality, a to i poté pomocí všech standardních nástrojů, jako je dvoufaktorové ověřování, soukromé profily a biometrické údaje firewally.
Pokud se i přes všechna opatření stále nacházíte v centru hluboce falešného zločinu, místo toho, abyste vzali věci do svých rukou, vyhledejte odbornou radu a pomoc od úřadů. Odborníci poznamenávají, že sedět na takovém obtěžování nebo se ho snažit diskrétně zvládnout vlastními silami často zhoršuje situaci obětí.
„Pokud zjistíte, že někdo zneužívá váš obsah, vyhledejte poradce obeznámeného se zákonem o autorských právech, který vám pomůže obsah odstranit jako co nejrychleji,“ říká Rob Scott, člen Dallas Bar Association a licencovaný právní expert v oblastech, jako jsou rizika kybernetické bezpečnosti a data. Soukromí.
Konzultace s právním expertem je zásadní, protože vás může provést vašimi digitálními právy, Canopy’s Litwin také navrhuje zachovat všechny důkazy, které obětem radí, aby „zdokumentovaly jakékoli důkazy o pokusech o vydírání, jako jsou zprávy, e-maily nebo jakákoli forma komunikace související s vydírání."
Další zásadní radou je, že oběť by měla okamžitě ukončit veškerý kontakt se zločincem, protože zločinec je může dále manipulovat nebo je obtěžovat závažnějšími požadavky na vydírání. Zároveň by uživatelé měli kontaktovat odborníka na kybernetickou bezpečnost nebo zavolat na jednu z vládních linek důvěry pro počítačovou kriminalitu, aby včas přijali správná opatření.
Jak rozpoznat deepfakes
Vzhledem k tomu, že motory umělé inteligence jsou stále sofistikovanější, druh deepfakes, které produkují, začíná být děsivě reálný a je těžké je odhalit. Stále však existuje několik značek, kterým mohou uživatelé věnovat pozornost, aby odhalili synteticky pozměněný nebo umělou inteligencí generovaný kompromitující materiál.
Následuje kompilace deepfake identifikátorů, které mohou odborníci nabídnout:
- Dávejte pozor na nepřirozené pohyby očí. Pokud se zdá, že oči osoby nemrkají, pohyb očí je vypnutý nebo se mimika nezdá být v souladu se slovy, která mluví, jedná se s největší pravděpodobností o hluboce falešný klip. Nedostatek emocí nebo nekoherentní emoce svědčí o tom, že média byla digitálně transformována.
- „Technologie Deepfake se obvykle zaměřuje na rysy obličeje,“ říká Gardner. "Pokud tvar těla dané osoby nevypadá přirozeně nebo pokud jsou její pohyby trhané a nesouvislé, je video pravděpodobně hluboce falešné."
- Dalším spolehlivým ukazatelem je pozadí, které se může zdát nepřirozeně rozmazané nebo zobrazuje zvláštní vizuální artefakty. Dalším snadným způsobem, jak odhalit deepfakes, je hledat abnormální zbarvení nebo vážnou barevnou nesoulad, zejména s ohledem na obličej a stín předmětů kolem.
- Pokud narazíte na fotku, na které se člověk houpe v „dokonalých vlasech“, a vy nevidíte žádné jednotlivé prvky, jako je několik rozlétlých vlasů nebo krepatění, buďte opatrní. Modely AI jsou také známé tím, že bojují se zuby. Dávejte pozor na zuby, které jsou buď nepřirozeně dokonalé, nebo ty, kterým chybí obrysy jednotlivých zubů, nebo možná více zubů než obvyklá lidská protéza.
- Nesprávně zarovnané části těla, rozmazané okraje, několik prstů navíc nebo méně, podivně zkroucené končetiny, nesynchronizovaný pohyb částí těla a hlas postrádající pauzy a emocionální přestávky jsou další příznaky, na které byste si měli dávat pozor pro. „Falešné hlasové nebo zvukové nahrávky mají často hluk na pozadí, roboticky znějící hlasy a podivné výslovnosti,“ vysvětluje Samulis.
Vážný problém s poloefektivními řešeními
Jak je vysvětleno výše, neexistuje žádná ochranná síť proti deepfakes. Pokud si ale dáváte pozor na to, kde sdílíte fotografie, kdo je může vidět a jak daleko sahá váš přístup k sociálním sítím, můžete zůstat v relativně bezpečné zóně.
Měli byste také věnovat pozornost tomu, kdo jsou jejich online přátelé, a také si prověřit aktivity nových pozvánek, než je přidáte do kruhu přátel na sociálních sítích. Pokud jde o deepfakes, je to trochu složitější. Pokud však zůstanete ostražití a uděláte si čas na posouzení nesrovnalostí na podezřelé fotografii nebo videu, lze deepfakes zaznamenat s poměrně vysokou mírou přesnosti.
Na konci dne je to všechno o pěstování hygienických online návyků a udržení ostražitosti v online prostoru, který je stále více náchylný k padělání.
Doporučení redakce
- Google Bard nyní umí mluvit, ale dokáže přehlušit ChatGPT?
- Nová společnost Elona Muska zaměřená na umělou inteligenci si klade za cíl ‚porozumět vesmíru‘
- Vědci říkají, že průlomy v umělé inteligenci by mohly přijít prostřednictvím mozku včel
- OpenAI odhaluje umístění své první mezinárodní základny
- 81 % si myslí, že ChatGPT je bezpečnostní riziko, zjistil průzkum