Képzeljen el egy fordulatos filmet egy mesterbűnözőről, aki a világ legnagyobb nyomozójával vívott esze háborújába zár.
Tartalom
- A deepfake probléma
- A detektorok megtévesztése
- Egy mélyhamisított macska-egér játék
A bűnöző hatalmas önbizalom-trükköt próbál végrehajtani, szakértői kézügyességgel és elképesztő képességével, hogy gyakorlatilag bárkinek álcázza magát a bolygón. Annyira jó, amit csinál, hogy el tudja hitetni az emberekkel, hogy olyan dolgokat láttak, amelyek valójában meg sem történtek.
Ajánlott videók
De aztán találkozunk a nyomozóval. Ő egy zseniális, semmiben sem áll meg, aki képes észrevenni bármely tolvaj „mondását”. Pontosan tudja, mire kell figyelnie, és a legapróbb viselkedés is – egy felhúzott szemöldök ide, egy kiesett magánhangzó oda – elég ahhoz, hogy figyelmeztesse, ha valami elromlik. Ő az egyetlen ember, aki elkapta az ellenségünket, és most ismét a nyomában van.
Összefüggő
- A Digital Trends Tech For Change CES 2023 díjai
- A Meta egy mesterséges intelligencia frissítéssel szeretné feltölteni a Wikipédiát
- Honnan fogjuk tudni, hogy egy mesterséges intelligencia valójában mikor válik érzővé?
Van azonban egy probléma: a tolvajunk tudja ezt ő tudja, mit kell keresnie. Ennek eredményeként megváltoztatta a játékát, anélkül, hogy a főszereplő észrevette volna.
A deepfake probléma
Ez lényegében a mélyhamisítások és a mélyhamisítások eddigi felismerésének története. Deep hamisítványok, a szintetikus média egyik formája, amelyben az emberek képmásai digitálisan megváltoztathatók, mint egy Küzdenek remake rendezésében A.I. A kutatók aggodalomra adnak okot, mióta 2017-ben megjelentek. Bár sok mélyhamisítás könnyed (kicserélés Arnie Sly Stallone-ért A Terminátor), potenciális veszélyt is jelentenek. A mélyhamisításokat hamis pornográf videók készítésére használták, amelyek valódinak tűnnek, és felhasználták politikai álhírekre, valamint pénzügyi csalásra.
Nehogy az ilyen álhírek még nagyobb problémává váljanak, valakinek képesnek kell lennie közbelépni, és határozottan megmondani, mikor használnak mélyhamisítványt, és mikor nem.
"A mélyhamisítás-érzékelők úgy működnek, hogy megkeresik a mélyhamisításnak azokat a részleteit, amelyek nem teljesen megfelelőek, és nem csak a rejtélyes völgyeket keresik, hanem a legapróbb kátyúkat is."
Nem telt bele sok idő, míg megjelentek az első deepfake detektorok. 2018 áprilisáig fedeztem az egyik korábbi erre irányuló erőfeszítés, amelyet a Müncheni Műszaki Egyetem kutatói építettek. Csakúgy, mint maga a deepfake technológia, az A.I. – csak ezúttal nem hamisítványok készítésére, hanem azok észlelésére használták fel a készítők.

A Deepfake detektorok úgy működnek, hogy megkeresik a mélyhamisítás azon részleteit, amelyek nem egészen pont azáltal, hogy nem csak a rejtélyes völgyeket keresi, hanem a legapróbb rejtélyes kátyúkat is. Kivágják a képek arcadatait, majd átküldik egy neurális hálózaton, hogy kiderítsék a legitimitását. Az ajándékozás részletei között szerepelhet például a rosszul reprodukált szempislogás.
Most azonban a Kaliforniai Egyetem San Diego kutatói kidolgoztak egy módszert a mélyhamisítás-detektorok leküzdésére úgy, hogy az úgynevezett ellenséges példákat videókockákba helyezik. Az ellentmondásos példák lenyűgöző – ugyanakkor félelmetes – hiba az A.I. Mátrix. Még a legokosabb felismerőrendszereket is képesek becsapni pl. azt gondolva, hogy a teknős fegyver, vagy az eszpresszó egy baseball. Ezt úgy teszik meg, hogy finoman adnak hozzá zajt a képhez, így a neurális hálózat rossz osztályozást végez.
Mintha összetévesztené a puskát egy héjas hüllővel. Vagy hamisított videót valódinak.
A detektorok megtévesztése
"A közelmúltban fellendültek a valósághű mélyhamisított videók előállításának módszerei" Paarth Neekhara, a UC San Diego számítástechnikai mérnök hallgatója a Digital Trendsnek. „Mivel ezeket a manipulált videókat rosszindulatú célokra is fel lehet használni, jelentős erőfeszítések történtek olyan detektorok kifejlesztésében, amelyek megbízhatóan észlelik a mélyhamisított videókat. Például, Facebook a közelmúltban elindította a Deepfake Detection Challenge programot, hogy felgyorsítsa a mélyhamisítás-érzékelők fejlesztésével kapcsolatos kutatásokat. [De] bár ezekkel az észlelési módszerekkel több mint 90%-os pontosság érhető el a hamis és valós videók adathalmazán, munkánk azt mutatja, hogy egy támadó könnyen megkerülheti őket. A támadó gondosan kidolgozott, emberi szem számára meglehetősen észrevehetetlen zajt fecskendezhet a videó minden egyes képkockájába, így azt az áldozatérzékelő tévesen minősíti.”

A támadók akkor is elkészíthetik ezeket a videókat, ha nem rendelkeznek konkrét ismeretekkel a detektor architektúrájáról és paramétereiről. Ezek a támadások a videók tömörítése után is működnek, mint ha online megosztanák őket egy olyan platformon, mint a YouTube.
A tesztelés során a módszer több mint 99%-ban képes volt megtéveszteni az érzékelőrendszereket, amikor hozzáférést kapott a detektormodellhez. Azonban még a legalacsonyabb sikerszinteken is – olyan tömörített videók esetében, amelyekben nem ismertek információt a detektormodellekről – az esetek 78,33%-ában mégis legyőzte őket. Ez nem jó hír.
Neekhara megjegyezte, hogy a kutatók nem hajlandók közzétenni kódjukat, mert visszaélhetnek vele. „A kódunkkal generált ellenséges videók potenciálisan megkerülhetnek más láthatatlan mélyhamisítás-érzékelőket, amelyeket egyes közösségi média [platformok] használnak a gyártás során” – magyarázta. "Együttműködünk olyan csapatokkal, amelyek ezen mélyhamisítás-érzékelő rendszerek kiépítésén dolgoznak, és kutatásainkat robusztusabb észlelőrendszerek kiépítésére használjuk."
Egy mélyhamisított macska-egér játék
Ez persze nem a történet vége. Hogy visszatérjünk filmes hasonlatunkhoz, ez még mindig csak körülbelül 20 perc lenne a filmből. Még nem értünk el arra a helyszínre, ahol a nyomozó rájön, hogy a tolvaj azt hiszi, hogy becsapta. Vagy arra a pontra, ahol a tolvaj rájön, hogy a nyomozó tudja, hogy ő tudja, hogy ő tudja. Vagy.. megkapod a képet.
Egy ilyen macska-egér játék a mélyhamisítás észlelésére, amely valószínűleg a végtelenségig folytatódik, mindenki jól ismeri, aki dolgozott a kiberbiztonság területén. A rosszindulatú hackerek sebezhető pontokat találnak, amelyeket aztán a fejlesztők blokkolnak, mielőtt a hackerek a javított verziójukban találnak sebezhetőséget, amelyet aztán a fejlesztők ismét módosítanak. Folytatás a végtelenségig.
"Igen, a mélyhamisítást generáló és észlelő rendszerek szorosan követik a vírus és a vírusirtó dinamikáját" Shehzeen Hussain, a UC San Diego számítástechnika Ph. D. diák – mondta a Digital Trendsnek. „Jelenleg a mélyhamisítás-érzékelőket valódi és hamis videókból álló adathalmazra képezik, amelyeket a meglévő mélyhamisítás-szintézis technikákkal generáltak. Nincs garancia arra, hogy az ilyen detektorok bolondbiztosak lesznek a jövőbeni mélyhamisítás-generáló rendszerekkel szemben… Hogy elöl maradjunk a fegyverkezési versenyben az észlelési módszereket rendszeresen frissíteni kell, és ki kell képezni a közelgő mélyhamisítási technikákról. [Őket] robusztussá kell tenni a kontradiktórius példákra is, azáltal, hogy az edzés során ellenséges videókat építenek be.”
A ezt a munkát ismertető dolgozat„Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples” címmel nemrégiben mutatták be a WACV 2021 virtuális konferencián.
Szerkesztői ajánlások
- Az AI animévé változtatta a Breaking Bad-et – és ez ijesztő
- Miért nem fogja soha az AI uralni a világot?
- Az optikai illúziók segíthetnek a mesterséges intelligencia következő generációjának felépítésében
- Utolsó simítás: Hogyan biztosítanak a tudósok a robotoknak emberszerű tapintási érzékeket
- Analóg A.I.? Őrülten hangzik, de lehet, hogy ez a jövő
Frissítse életmódjátA Digital Trends segítségével az olvasók nyomon követhetik a technológia rohanó világát a legfrissebb hírekkel, szórakoztató termékismertetőkkel, éleslátó szerkesztőségekkel és egyedülálló betekintésekkel.