La semaine dernière, le Federal Bureau of Investigation (FBI) a publié un message d'intérêt public à propos de l'augmentation du contenu explicite deepfake et de la manière dont il est utilisé pour des crimes tels que l'extorsion, le chantage et le harcèlement. Dans les termes les plus simples, un deepfake est un matériel multimédia synthétique essayant d'imiter un original. Il peut s'agir d'une photo, d'une vidéo ou d'un clip audio de génération AI.
Contenu
- Ce que les experts disent des deepfakes
- Comment vous pouvez vous protéger
- Les médias sociaux utilisés de manière sûre et responsable
- Que faire si vous êtes deepfake
- Comment repérer les deepfakes
- Un problème sérieux avec des solutions à moitié efficaces
Le nom "deepfake" vient de la technologie inhérente utilisée dans la création de tels médias - apprentissage en profondeur - qui implique de former un modèle d'IA à l'aide de matériel original, puis de le modifier pour générer le résultat souhaité résultats. Ce n'est pas exactement une nouvelle invention, mais avec
L'IA générative explose en popularité - et l'accès - les crimes contrefaits sont en augmentation.Vidéos recommandées
Leur popularité est telle que même la campagne du candidat républicain à la présidentielle Ron DeSantis a utilisé des images deepfake de son rival Donald Trump pour le calomnier. Les deepfakes sont également l'une des raisons pour lesquelles les appels à la réglementation de l'IA sont soulevés partout. Selon le FBI, le contenu pour générer des deepfakes est généralement extrait des publications sur les réseaux sociaux et des clips d'appel vidéo avant d'être modifiés en matériel sexuellement explicite pour l'extorsion et l'intimidation.
En rapport
- Le fabricant de ChatGPT OpenAI fait face à une enquête de la FTC sur les lois de protection des consommateurs
- Le trafic du site ChatGPT a chuté pour la première fois
- OpenAI construit une nouvelle équipe pour empêcher l'IA super intelligente de devenir voyou
Ce que les experts disent des deepfakes
Alors, quelle est la solution? Malheureusement, il n'y a pas de solution. Du moins, non sans faire un compromis – un compromis qui renverse fondamentalement tout le sens des « réseaux sociaux ».
"Malheureusement, la seule façon d'être sûr qu'aucune de vos photos ou vidéos ne soit utilisée pour créer des contrefaçons profondes est d'arrêter de publier des des photos de vous en ligne, mais cela prendrait beaucoup de plaisir aux internautes », déclare Adrianus Warmenhoven, cybersécurité conseiller chez Nord.
« À mesure que de nouvelles et meilleures pratiques de sécurité émergent, les acteurs malveillants trouveront un moyen de causer des dommages. C'est un jeu de rattrapage et parfois décevant », déclare Parteek Saran, un ancien Googleur et créateur d'un outil de gestion de mots de passe de nouvelle génération appelé Uno. Il suggère en outre que l'on devrait essayer d'adopter une «philosophie de confiance zéro» en matière de publication contenu sur les médias sociaux et met l'accent sur une communication efficace avec des connaissances pour éviter les deepfakes escroqueries.
"Bien que l'IA puisse aider à résoudre les problèmes de sécurité numérique, il n'existe pas de filet de sécurité infaillible", déclare Yaron Litwin, expert en sécurité numérique et CMO chez Canopée. L'application éponyme de la société vise à protéger les enfants contre les crimes sexuels en ligne et propose également un ensemble diversifié de contrôles parentaux. Litwin ajoute que vous devez éviter de publier des images intimes ou compromettantes tout en réduisant la fréquence de publication des images, même normales.
Comment vous pouvez vous protéger
Les deepfakes sont terrifiants et il est difficile d'imaginer le traumatisme qu'ils peuvent infliger à une personne et aux membres de sa famille. Mais il existe plusieurs façons pour les utilisateurs d'éviter de tomber dans le piège, ou du moins de s'en éloigner dans une large mesure.
Pour comprendre la moyenne des pas téléphone intelligent les utilisateurs ayant des compétences numériques typiques peuvent prendre, j'ai contacté Andrew Gardner, vice-président de la recherche et de l'innovation chez Génération numérique, une société de logiciels qui propose des outils de sécurité fiables tels que Norton, Avast et Avira, entre autres.
Gardner dit que les protocoles de sécurité commencent au niveau fondamental. Les utilisateurs doivent commencer par rendre leurs profils privés - ou au moins modifier les paramètres de visibilité des publications afin que seules les personnes qu'ils suivent mutuellement puissent voir et interagir avec leurs publications. Controle parental, qui sont désormais disponibles pour presque toutes les principales plateformes de médias sociaux, doivent être activés avec diligence afin que les tuteurs puissent garder un œil sur toute interaction suspecte.
C'est un avocat général que l'on ne devrait accepter que les demandes de personnes qu'ils connaissent, mais faire un pas supplémentaire peut aller très loin. "Si vous êtes en réseau, vérifiez les publications et les activités récentes des invités pour évaluer leur réalité", déclare Gardner, ajoutant qu'il faut se méfier des "comptes". avec peu d'amis ou d'amis communs. Un autre conseil crucial que l'exécutif de Gen Digital doit donner est de vérifier et de restreindre les médias sociaux connexions.
Les utilisateurs visitent souvent les services en ligne et, pour éviter les tracas liés à la création d'un compte, ils optent pour l'option de connexion aux réseaux sociaux. "Cela permet aux applications d'accéder à des informations personnelles et, dans certaines situations, ces applications vendent ces informations à des tiers", explique-t-il. Le scandale de Cambridge Analytica impliquant Facebook est un excellent exemple. Il convient de vérifier périodiquement quelles applications sont connectées à leurs comptes de médias sociaux et, sauf si nécessaire, leur accès doit être révoqué.
Les deepfakes sont des crimes sophistiqués alimentés par l'IA, mais Gardner suggère aux utilisateurs de toujours respecter certaines consignes de sécurité de base, telles que comme l'activation de l'authentification à deux facteurs, l'utilisation de mots de passe forts, l'activation des clés d'accès biométriques et l'évitement de tout élément suspect ou inconnu liens.
Les médias sociaux utilisés de manière sûre et responsable
Litwin de Canopy est d'avis que plus vous partagez, plus il devient facile de créer des deepfakes convaincants. Il n'y a pas de pénurie de modèles de génération d'images d'IA louches sans aucune restriction sur la création de matériel explicite. Ces outils s'appuient sur des entrées d'image pour former le modèle. Plus il reçoit de données d'entraînement, plus les deepfakes deviennent précis et réalistes.
C'est la tactique standard mise en œuvre par les générateurs d'images d'IA grand public comme À mi-parcours. Si votre flux social est ouvert et contient une grande quantité de photos et de vidéos, rien n'empêche un mauvais acteur de les gratter pour créer des deepfakes compromettants. Mais si vous faites partie des personnes qui voient la valeur des médias sociaux comme un lieu de conservation de vos souvenirs les plus précieux, il y a quelques mesures que vous devoir prendre.
"Soyez prudent quant aux informations personnelles que vous partagez en ligne, ajustez les paramètres de confidentialité de vos comptes, activez l'authentification à deux facteurs et examinez attentivement les images pour détecter toute imperfection", note Boyd Clewis, expert en cybersécurité au Conseil de sécurité de Forbes et auteur de "Through The Firewall: The Alchemy Of Turning Crisis Into Opportunity".
Mais comment repérer de manière fiable un profil de réseau social qui a probablement un mauvais acteur derrière lui engagé dans des actes louches comme la création et la diffusion de deepfakes? "Si du matériel vidéo ou audio est partagé à partir de profils suspects et que les comptes ne contiennent aucune information personnelle ou photos, il est probable que le profil soit faux », suggère Tomas Samulis, architecte en sécurité de l'information chez Baltic Amadeus. Il suggère que de tels profils dépourvus d'informations personnellement identifiables soient spécifiquement créés pour diffuser des contrefaçons et d'autres informations controversées.
Que faire si vous êtes deepfake
Mais les précautions qu'un utilisateur moyen de smartphone peut prendre sont limitées. Même les utilisateurs les plus avertis du numérique se retrouvent victimes de cybercrimes, même après en utilisant tous les outils standard tels que l'authentification à deux facteurs, les profils privés et la biométrie pare-feu.
Si, malgré toutes les précautions prises, vous vous retrouvez toujours au centre d'un crime contrefait, demandez l'avis d'un expert et l'aide des autorités au lieu de prendre les choses en main. Les experts notent que s'asseoir sur un tel harcèlement ou essayer de le gérer discrètement par eux-mêmes aggrave souvent la situation des victimes.
"Si vous découvrez que quelqu'un utilise votre contenu à mauvais escient, demandez à un avocat connaissant bien la loi sur le droit d'auteur de vous aider à faire supprimer le contenu dès que possible. rapidement que possible », déclare Rob Scott, membre de l'association du barreau de Dallas et expert juridique agréé dans des domaines tels que les risques liés à la cybersécurité et les données. confidentialité.
Consulter un expert juridique est crucial car il peut vous guider dans vos droits numériques, Litwin de Canopy suggère également de préserver tous les preuves, conseillant aux victimes de « documenter toute preuve de tentatives d'extorsion, telles que des messages, des e-mails ou toute forme de communication liée à la extorsion."
Un autre conseil crucial est que la victime doit immédiatement cesser tout contact avec un criminel, car le criminel peut encore la manipuler ou la harceler avec des demandes d'extorsion plus sérieuses. Dans le même temps, les utilisateurs doivent contacter un expert en cybersécurité ou composer l'une des lignes d'assistance téléphonique du gouvernement contre la cybercriminalité pour prendre les bonnes mesures à temps.
Comment repérer les deepfakes
Les moteurs d'intelligence artificielle devenant de plus en plus sophistiqués, le type de deepfakes qu'ils produisent devient étrangement réel et difficile à repérer. Cependant, il existe encore quelques marqueurs auxquels les utilisateurs peuvent prêter attention afin de repérer les éléments compromettants modifiés synthétiquement ou générés par l'IA.
Voici une compilation d'identifiants deepfake que les experts ont à offrir :
- Faites attention aux mouvements oculaires non naturels. Si les yeux d'une personne ne semblent pas clignoter, si le mouvement des yeux est désactivé ou si les expressions faciales ne semblent pas être synchronisées avec les mots qu'elle prononce, il s'agit très probablement d'un clip deepfake. Un manque d'émotions, ou des émotions incohérentes, est un signe révélateur que les médias ont été transformés numériquement.
- "La technologie Deepfake se concentre généralement sur les traits du visage", explique Gardner. "Si la forme du corps de la personne ne semble pas naturelle, ou si ses mouvements sont saccadés et décousus, la vidéo est probablement un deepfake."
- Un autre marqueur fiable est l'arrière-plan, qui peut sembler anormalement flou ou présenter des artefacts visuels étranges. Un autre moyen simple de repérer les deepfakes consiste à rechercher une décoloration anormale ou une grave inadéquation des couleurs, en particulier en ce qui concerne le visage et l'ombre des objets environnants.
- Si vous tombez sur une photo dans laquelle une personne berce des «cheveux parfaits» et que vous ne pouvez repérer aucun élément individuel comme quelques mèches de cheveux rebelles ou des frisottis, restez prudent. Les modèles d'IA sont également connus pour avoir du mal avec les dents. Faites attention aux dents qui sont anormalement parfaites, ou celles qui manquent de contours pour les dents individuelles, ou peut-être plus de dents que la prothèse humaine habituelle.
- Parties du corps mal alignées, bords flous, quelques doigts supplémentaires ou moins, membres étrangement tordus, mouvement désynchronisé des parties du corps, et une voix manquant de pauses et de ruptures émotionnelles sont les autres signes que vous devez surveiller de près pour. "Les faux enregistrements vocaux ou audio ont souvent un bruit de fond, des voix robotiques et des prononciations étranges", explique Samulis.
Un problème sérieux avec des solutions à moitié efficaces
Comme expliqué ci-dessus, il n'existe pas de filet de sécurité infaillible contre les deepfakes. Mais si vous faites attention à l'endroit où vous partagez des photos, qui peut les voir et jusqu'où va votre accès aux médias sociaux, vous pouvez rester dans une zone relativement sûre.
Il faut également faire attention à qui sont ses amis en ligne et vérifier les activités des nouveaux invités avant de les ajouter à leur cercle d'amis sur les réseaux sociaux. En ce qui concerne les deepfakes, c'est un peu délicat. Mais si vous restez vigilant et prenez le temps d'évaluer les incohérences dans une photo ou une vidéo suspecte, les deepfakes peuvent être repérés avec un degré de précision assez élevé.
En fin de compte, il s'agit de cultiver des habitudes en ligne hygiéniques et de rester vigilant dans un espace en ligne de plus en plus sujet à la falsification.
Recommandations des éditeurs
- Google Bard peut désormais parler, mais peut-il noyer ChatGPT?
- La nouvelle société d'intelligence artificielle d'Elon Musk vise à "comprendre l'univers"
- Les percées de l'IA pourraient provenir du cerveau des abeilles, selon les scientifiques
- OpenAI révèle l'emplacement de son premier avant-poste international
- 81 % pensent que ChatGPT est un risque pour la sécurité, selon une enquête