Vorige week heeft de Federal Bureau of Investigation (FBI) heeft een openbare dienst aangekondigd over de toename van expliciete deepfake-inhoud en hoe deze wordt gebruikt voor misdaden zoals afpersing, chantage en intimidatie. In de eenvoudigste bewoordingen, een deepfake is synthetisch multimediamateriaal dat een origineel probeert na te bootsen. Het kan een foto, video of audioclip van de AI-generatie zijn.
Inhoud
- Wat de experts zeggen over deepfakes
- Hoe je jezelf veilig kunt houden
- Social media veilig en verantwoord gedaan
- Wat te doen als je wordt gedeepfakt
- Hoe deepfakes te herkennen
- Een serieus probleem met halfeffectieve oplossingen
De naam "deepfake" komt van de inherente technologie die wordt gebruikt bij het maken van dergelijke media - deep learning - die omvat het trainen van een AI-model met origineel materiaal en het vervolgens aanpassen om het gewenste te genereren resultaten. Het is niet bepaald een nieuwe uitvinding, maar met generatieve AI explodeert in populariteit — en toegang — deepfake-misdaden nemen toe.
Aanbevolen video's
Hun populariteit is zo groot dat zelfs de campagne van de Republikeinse presidentskandidaat Ron DeSantis nepbeelden van rivaal Donald Trump gebruikte om hem te belasteren. Deepfakes zijn ook een van de redenen dat overal wordt opgeroepen tot regulering van AI. Volgens de FBI wordt de inhoud voor het genereren van deepfakes over het algemeen uit posts op sociale media gehaald en clips van videogesprekken voordat ze worden gewijzigd in seksueel expliciet materiaal voor afpersing en pesten.
Verwant
- ChatGPT-maker OpenAI wordt geconfronteerd met FTC-onderzoek over wetten voor consumentenbescherming
- Het verkeer op de ChatGPT-website is voor het eerst gedaald
- OpenAI bouwt nieuw team om te voorkomen dat superintelligente AI schurkenstaten wordt
Wat de experts zeggen over deepfakes
Wat is de oplossing? Helaas is er geen oplossing. Tenminste, niet zonder een compromis te sluiten - een die de hele betekenis van "sociale media" fundamenteel op zijn kop zet.
"Helaas is de enige manier om er zeker van te zijn dat geen van je foto's of video's wordt gebruikt om deep fakes te maken, te stoppen met het plaatsen van foto's van jezelf online, maar dat zou veel plezier kosten van internetgebruikers", zegt Adrianus Warmenhoven, een cybersecurity adviseur bij Noord.
“Naarmate er nieuwe en betere beveiligingspraktijken ontstaan, zullen kwaadwillende actoren een manier vinden om schade aan te richten. Het is een inhaalspel en voelt soms teleurstellend”, zegt Parteek Saran, een ex-Googler en maker van een next-gen wachtwoordbeheertool genaamd Uno. Hij suggereert verder dat men moet proberen een "zero-trust-filosofie" aan te nemen als het gaat om posten content op sociale media en benadrukt effectieve communicatie met kennissen om deepfake te vermijden oplichting.
"Hoewel AI kan helpen bij het aanpakken van problemen met digitale veiligheid, is er geen onfeilbaar vangnet", zegt Yaron Litwin, Digital Safety Expert & CMO bij Overkapping. De gelijknamige app van het bedrijf is bedoeld om kinderen te beschermen tegen online seksuele misdrijven en biedt ook een gevarieerde reeks ouderlijk toezicht. Litwin voegt eraan toe dat je het plaatsen van intieme of compromitterende afbeeldingen moet vermijden en tegelijkertijd de frequentie van het plaatsen van zelfs normale afbeeldingen moet verminderen.
Hoe je jezelf veilig kunt houden
Deepfakes zijn angstaanjagend en het is moeilijk te doorgronden welk trauma ze een persoon en zijn familieleden kunnen toebrengen. Maar er zijn een paar manieren waarop gebruikers kunnen voorkomen dat ze in de val trappen, of in ieder geval grotendeels uit de buurt blijven.
Om te begrijpen wat stappen gemiddeld zijn smartphone gebruikers met typische digitale vaardigheden aankunnen, nam ik contact op met Andrew Gardner, Vice President of Research and Innovation bij Generatie digitaal, een softwarebedrijf dat vertrouwde veiligheidstools aanbiedt, zoals onder andere Norton, Avast en Avira.
Gardner zegt dat veiligheidsprotocollen op het fundamentele niveau beginnen. Gebruikers moeten beginnen door hun profielen privé te maken - of in ieder geval de instellingen voor de zichtbaarheid van berichten te wijzigen, zodat alleen de mensen die ze wederzijds volgen hun berichten kunnen zien en erop kunnen reageren. Ouderlijk toezicht, die nu beschikbaar zijn voor bijna elk groot platform voor sociale media, moeten ijverig worden ingeschakeld, zodat voogden verdachte interacties in de gaten kunnen houden.
Het is algemeen advies dat men alleen verzoeken moet accepteren van mensen die ze kennen, maar een extra stap zetten kan een heel eind komen. "Als je aan het netwerken bent, controleer dan de recente berichten en activiteiten van genodigden om te peilen hoe echt ze zijn", zegt Gardner, eraan toevoegend dat men op zijn hoede moet zijn voor "accounts". met weinig vrienden of gemeenschappelijke vrienden.” Een ander cruciaal advies dat de Gen Digital-manager moet geven, is het controleren en beperken van sociale media aanmeldingen.
Gebruikers bezoeken vaak online diensten en om het gedoe met het aanmaken van een account te vermijden, kiezen ze voor de inlogoptie voor sociale media. "Dit geeft apps toegang tot persoonlijke informatie, en in sommige situaties verkopen die apps die informatie aan derden", zegt hij. Het Cambridge Analytica-schandaal waarbij Facebook betrokken was is een geweldig voorbeeld. Men moet periodiek controleren welke apps zijn verbonden met hun sociale media-accounts, en indien nodig moet hun toegang worden ingetrokken.
Deepfakes zijn geavanceerde AI-aangedreven misdaden, maar Gardner suggereert dat gebruikers zich nog steeds aan enkele basisveiligheidsrichtlijnen moeten houden, zoals zoals het inschakelen van tweefactorauthenticatie, het gebruik van sterke wachtwoorden, het inschakelen van biometrische toegangssleutels en het vermijden van verdachte of onbekende koppelingen.
Social media veilig en verantwoord gedaan
Litwin van Canopy is van mening dat hoe meer je deelt, hoe makkelijker het wordt om overtuigende deepfakes te maken. Er is geen gebrek aan schaduwrijke modellen voor het genereren van AI-afbeeldingen zonder enige beperking voor het maken van expliciet materiaal. Deze tools zijn afhankelijk van beeldinvoer om het model te trainen. Hoe meer trainingsgegevens worden ingevoerd, hoe nauwkeuriger en realistischer de deepfakes worden.
Het is de standaardtactiek die wordt geïmplementeerd door reguliere AI-beeldgeneratoren zoals Halverwege de reis. Als je sociale feed open is en voldoende foto's en video's bevat, is er geen reden om een slechte acteur ervan te weerhouden om ze te schrappen om compromitterende deepfakes te maken. Maar als u een van de mensen bent die de waarde van sociale media zien als een plek om uw dierbaarste herinneringen te bewaren, zijn er een paar maatregelen die u kunt nemen moeten nemen.
"Wees voorzichtig met welke persoonlijke informatie u online deelt, pas privacy-instellingen op uw accounts aan, schakel tweefactorauthenticatie in en controleer afbeeldingen zorgvuldig op eventuele onvolkomenheden", merkt op. Boyd Clewis, een cyberbeveiligingsexpert van de Forbes Security Council en auteur van "Through The Firewall: The Alchemy Of Turning Crisis Into Opportunity."
Maar hoe herken je betrouwbaar een profiel op sociale media dat waarschijnlijk een slechte acteur achter zich heeft die zich bezighoudt met duistere handelingen zoals het maken en verspreiden van deepfakes? “Als er video- of audiomateriaal wordt gedeeld van verdachte profielen, en de accounts bevatten geen persoonlijke informatie of foto's, is het waarschijnlijk dat het profiel nep is”, suggereert Tomas Samulis, een informatiebeveiligingsarchitect bij Baltic Amadeus. Hij suggereert dat dergelijke profielen zonder persoonlijk identificeerbare informatie specifiek zijn gemaakt om vervalsingen en andere controversiële informatie te verspreiden.
Wat te doen als je wordt gedeepfakt
Maar er zijn slechts zoveel voorzorgsmaatregelen die een gemiddelde smartphonegebruiker kan nemen. Zelfs de meest digitaal onderlegde gebruikers bevinden zich aan de ontvangende kant van cybercriminaliteit, zelfs daarna met behulp van alle standaardtools zoals tweefactorauthenticatie, privéprofielen en biometrie firewalls.
Als u, ondanks het nemen van alle voorzorgsmaatregelen, toch in het middelpunt van een deepfake-misdaad terechtkomt, zoek dan deskundig advies en hulp van autoriteiten in plaats van het heft in eigen handen te nemen. Deskundigen merken op dat het zitten aan dergelijke intimidatie of het discreet proberen er zelf mee om te gaan, de situatie voor de slachtoffers vaak verergert.
“Als u ontdekt dat iemand uw inhoud misbruikt, zoek dan advies dat bekend is met de auteursrechtwetgeving om u te helpen de inhoud zo snel mogelijk te verwijderen. zo snel mogelijk”, zegt Rob Scott, lid van de Dallas Bar Association en gediplomeerd juridisch expert op gebieden als cyberbeveiligingsrisico's en data privacy.
Het raadplegen van een juridisch expert is cruciaal omdat zij u kunnen begeleiden bij uw digitale rechten. Litwin van Canopy stelt ook voor om alle bewijsmateriaal, waarbij slachtoffers worden geadviseerd om “elk bewijs van de afpersingspogingen te documenteren, zoals berichten, e-mails of enige vorm van communicatie met betrekking tot de afpersing."
Een ander cruciaal advies is dat het slachtoffer onmiddellijk alle contacten met een crimineel moet beëindigen, omdat de crimineel hen verder kan manipuleren of lastigvallen met ernstigere afpersingseisen. Tegelijkertijd moeten gebruikers contact opnemen met een cybersecurity-expert of een van de cybercrime-hulplijnen van de overheid bellen om tijdig de juiste maatregelen te nemen.
Hoe deepfakes te herkennen
Nu AI-engines steeds geavanceerder worden, wordt het soort deepfakes dat ze produceren griezelig echt en moeilijk te herkennen. Er zijn echter nog steeds een paar markeringen waar gebruikers op kunnen letten om synthetisch gewijzigd of door AI gegenereerd compromitterend materiaal te herkennen.
Hieronder volgt een compilatie van deepfake-ID's die experts te bieden hebben:
- Pas op voor onnatuurlijke oogbewegingen. Als de ogen van een persoon niet lijken te knipperen, de oogbeweging is uitgeschakeld of de gezichtsuitdrukkingen niet synchroon lijken te lopen met de woorden die ze uitspreken, is het hoogstwaarschijnlijk een deepfake clip. Een gebrek aan emoties, of onsamenhangende emoties, is een veelbetekenend teken dat de media digitaal zijn veranderd.
- "Deepfake-technologie richt zich meestal op gelaatstrekken", zegt Gardner. "Als de lichaamsvorm van de persoon niet natuurlijk lijkt, of als zijn bewegingen schokkerig en onsamenhangend zijn, is de video waarschijnlijk een deepfake."
- Een andere betrouwbare markering is de achtergrond, die onnatuurlijk wazig kan lijken of vreemde visuele artefacten vertoont. Een andere gemakkelijke manier om deepfakes te herkennen, is door te zoeken naar abnormale verkleuring of ernstige kleurafwijkingen, vooral met betrekking tot het gezicht en de schaduw van voorwerpen in de buurt.
- Als je een foto tegenkomt waarop een persoon "perfect haar" wiegt en je geen individuele elementen kunt zien, zoals een paar losse haarlokken of kroezen, blijf dan voorzichtig. Het is ook bekend dat AI-modellen worstelen met tanden. Pas op voor tanden die onnatuurlijk perfect zijn, of tanden die geen contouren hebben voor individuele tanden, of misschien meer tanden dan de gebruikelijke menselijke prothese.
- Verkeerd uitgelijnde lichaamsdelen, vage randen, een paar extra of minder vingers, vreemd verwrongen ledematen, niet-synchrone bewegingen van lichaamsdelen, en een stem zonder pauzes en emotionele pauzes zijn de andere tekenen waar je goed op moet letten voor. "Nep-stem- of audio-opnamen bevatten vaak achtergrondgeluiden, robotachtig klinkende stemmen en vreemde uitspraken", legt Samulis uit.
Een serieus probleem met halfeffectieve oplossingen
Zoals hierboven uitgelegd, is er geen waterdicht vangnet tegen deepfakes. Maar als u voorzichtig bent met waar u foto's deelt, wie ze kan zien en hoe ver uw toegang tot sociale media gaat, kunt u in een relatief veilige zone blijven.
Men moet ook letten op wie hun online vrienden zijn, en ook de activiteiten van nieuwe uitnodigingen onderzoeken voordat ze aan hun vriendenkring op sociale media worden toegevoegd. Wat deepfakes betreft, dat is een beetje lastig. Maar als je waakzaam blijft en de tijd neemt om inconsistenties in een verdachte foto of video te beoordelen, kunnen deepfakes met een vrij hoge mate van nauwkeurigheid worden opgemerkt.
Uiteindelijk draait het allemaal om het cultiveren van hygiënische online gewoonten en waakzaam blijven in een online ruimte die steeds vaker vervalst wordt.
Aanbevelingen van de redactie
- Google Bard kan nu spreken, maar kan het ChatGPT overstemmen?
- Het nieuwe AI-bedrijf van Elon Musk wil 'het universum begrijpen'
- AI-doorbraken zouden via de hersenen van bijen kunnen komen, zeggen wetenschappers
- OpenAI onthult de locatie van zijn eerste internationale buitenpost
- 81% denkt dat ChatGPT een beveiligingsrisico vormt, zo blijkt uit onderzoek