Imaginez un film tortueux sur un maître criminel engagé dans une guerre d'esprit avec le plus grand détective du monde.
Contenu
- Le problème des deepfakes
- Tromper les détecteurs
- Un jeu de chat et de souris deepfake
Le criminel cherche à réaliser un énorme stratagème de confiance en soi, en utilisant un tour de passe-passe expert et une étrange capacité à se déguiser en pratiquement n'importe qui sur la planète. Il est si bon dans ce qu’il fait qu’il peut faire croire aux gens qu’ils ont vu des choses qui ne se sont jamais réellement produites.
Vidéos recommandées
Mais ensuite nous rencontrons le détective. C’est une personne brillante et intrépide qui peut détecter le « révélateur » de n’importe quel voleur. Elle sait exactement quoi rechercher, et même le plus petit comportement – un sourcil levé par-ci, une voyelle baissée par-là – suffit à l’alerter lorsque quelque chose ne va pas. Elle est la seule personne à avoir jamais attrapé notre antagoniste, et maintenant elle est à nouveau sur ses traces.
En rapport
- Prix Tech For Change CES 2023 de Digital Trends
- Meta veut dynamiser Wikipédia avec une mise à niveau de l'IA
- Comment saurons-nous quand une IA devient réellement sensible?
Cependant, il y a un problème: notre voleur sait que elle sait quoi chercher. En conséquence, il a modifié son jeu, sans que le protagoniste ne s’en rende compte.
Le problème des deepfakes
C’est essentiellement l’histoire des deepfakes et de la détection des deepfakes jusqu’à présent. Deepfakes, une forme de média synthétique dans lequel l’image des personnes peut être modifiée numériquement comme un Face/Off remake réalisé par A.I. chercheurs, suscitent des inquiétudes depuis leur apparition en 2017. Alors que de nombreux deepfakes sont légers (en échangeant Arnie pour Sly Stallone dans Le terminateur), ils constituent également une menace potentielle. Les deepfakes ont été utilisés pour créer de fausses vidéos pornographiques qui semblent réelles et ont été utilisés dans des canulars politiques ainsi que dans des fraudes financières.
Pour éviter que de tels canulars ne deviennent un problème encore plus grave, quelqu’un doit pouvoir intervenir et dire, de manière définitive, quand un deepfake est utilisé et quand il ne l’est pas.
"Les détecteurs de deepfake fonctionnent en recherchant les détails d'un deepfake qui ne sont pas tout à fait exacts en parcourant les images non seulement à la recherche de vallées étranges, mais aussi du plus petit nid-de-poule étrange."
Il n’a pas fallu longtemps pour que les premiers détecteurs de deepfake apparaissent. En avril 2018, j'ai couvert l'un des efforts précédents pour ce faire, qui a été construit par des chercheurs de l’Université technique allemande de Munich. Tout comme la technologie deepfake elle-même, elle utilisait l’IA. – mais cette fois, ses créateurs l’utilisaient non pas pour créer des contrefaçons, mais pour les repérer.
Les détecteurs Deepfake fonctionnent en recherchant les détails d’un deepfake qui ne le sont pas. assez en parcourant les images non seulement à la recherche d’étranges vallées, mais aussi du plus petit nid-de-poule étrange. Ils recadrent les données faciales des images, puis les transmettent à travers un réseau neuronal pour déterminer leur légitimité. Les détails du cadeau peuvent inclure des éléments comme un clignement des yeux mal reproduit.
Mais des chercheurs de l’Université de Californie à San Diego ont trouvé un moyen de vaincre les détecteurs de deepfake en insérant ce qu’on appelle des exemples contradictoires dans des images vidéo. Les exemples contradictoires sont un problème fascinant – mais terrifiant – dans l’IA. Matrice. Ils sont capables de tromper même les systèmes de reconnaissance les plus intelligents, par exemple: je pense qu'une tortue est une arme à feu, ou un expresso est une balle de baseball. Pour ce faire, ils ajoutent subtilement du bruit à une image, ce qui amène le réseau neuronal à effectuer une mauvaise classification.
C'est comme confondre un fusil avec un reptile à carapace. Ou une fausse vidéo pour une vraie.
Tromper les détecteurs
« Il y a eu récemment une augmentation des méthodes permettant de générer des vidéos deepfake réalistes » Paarth Neekhara, un étudiant diplômé en génie informatique de l'UC San Diego, a déclaré à Digital Trends. « Étant donné que ces vidéos manipulées peuvent être utilisées à des fins malveillantes, des efforts importants ont été déployés pour développer des détecteurs capables de détecter de manière fiable les vidéos deepfake. Par exemple, Facebook a récemment lancé le Deepfake Detection Challenge pour accélérer la recherche sur le développement de détecteurs de deepfake. [Mais] même si ces méthodes de détection peuvent atteindre une précision de plus de 90 % sur un ensemble de données de vidéos fausses et réelles, nos travaux montrent qu'elles peuvent être facilement contournées par un attaquant. Un attaquant peut injecter un bruit soigneusement conçu, assez imperceptible à l’œil humain, dans chaque image d’une vidéo afin qu’elle soit mal classée par un détecteur de victime.
Les attaquants peuvent créer ces vidéos même s’ils ne possèdent pas de connaissances spécifiques sur l’architecture et les paramètres du détecteur. Ces attaques fonctionnent également une fois les vidéos compressées, comme elles le seraient si elles étaient partagées en ligne sur une plateforme comme YouTube.
Lors des tests, la méthode était capable à plus de 99 % de tromper les systèmes de détection lorsqu’elle avait accès au modèle du détecteur. Cependant, même à ses niveaux de réussite les plus bas – pour les vidéos compressées dans lesquelles aucune information n’était connue sur les modèles de détecteurs – il les a quand même battus dans 78,33 % des cas. Ce n’est pas une bonne nouvelle.
Les chercheurs refusent de publier leur code au motif qu'il pourrait être utilisé à mauvais escient, a noté Neekhara. "Les vidéos contradictoires générées à l'aide de notre code peuvent potentiellement contourner d'autres détecteurs de deepfake invisibles qui sont utilisés en production par certaines [plateformes] de médias sociaux", a-t-il expliqué. "Nous collaborons avec des équipes qui travaillent à la création de ces systèmes de détection des deepfakes et utilisons nos recherches pour créer des systèmes de détection plus robustes."
Un jeu de chat et de souris deepfake
Ce n’est bien sûr pas la fin de l’histoire. Pour revenir à notre analogie cinématographique, cela ne durerait encore qu’environ 20 minutes après le début du film. Nous ne sommes pas encore arrivés à la scène où le détective se rend compte que le voleur pense qu’il l’a trompée. Ou au moment où le voleur se rend compte que le détective sait qu'il sait qu'elle sait. Ou.. vous obtenez l'image.
Ce jeu du chat et de la souris pour la détection des deepfakes, qui risque de se poursuivre indéfiniment, est bien connu de tous ceux qui ont travaillé dans le domaine de la cybersécurité. Les pirates malveillants trouvent des vulnérabilités, qui sont ensuite bloquées par les développeurs, avant que les pirates ne trouvent des vulnérabilités dans leur version corrigée, qui est ensuite à nouveau modifiée par les développeurs. Continuez à l’infini.
« Oui, les systèmes de génération et de détection des deepfakes suivent de près la dynamique des virus et des antivirus » Shehzeen Hussein, titulaire d'un doctorat en génie informatique à l'UC San Diego. étudiant, a déclaré à Digital Trends. « Actuellement, les détecteurs de deepfake sont formés sur un ensemble de données de vidéos réelles et fausses générées à l’aide des techniques de synthèse de deepfake existantes. Rien ne garantit que de tels détecteurs seront à toute épreuve face aux futurs systèmes de génération de deepfakes… Pour garder une longueur d’avance Dans la course aux armements, les méthodes de détection doivent être régulièrement mises à jour et formées aux prochaines techniques de synthèse des deepfakes. [Ils] doivent également être robustes face aux exemples contradictoires en incorporant des vidéos contradictoires pendant la formation.
UN article décrivant ce travail, intitulé « Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Exemples », a été récemment présenté lors de la conférence virtuelle WACV 2021.
Recommandations des rédacteurs
- L’IA a transformé Breaking Bad en anime – et c’est terrifiant
- Pourquoi l'IA ne dirigera jamais le monde
- Les illusions d'optique pourraient nous aider à construire la prochaine génération d'IA
- Touche finale: comment les scientifiques donnent aux robots des sens tactiles semblables à ceux des humains
- Une IA analogique? Ça paraît fou, mais ça pourrait être l'avenir
Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde en évolution rapide de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.