Saviez-vous que vous pouvez créer une vidéo deepfake dans le confort de votre foyer ou sur votre téléphone? Téléchargez l'une des pléthores d'applications d'échange de visage ou de deepfake disponibles sur votre boutique d'applications locale et vous aussi. peut influencer une élection.
Contenu
- L'avenir des médias
- Armement des deepfakes
D’accord, pas vraiment, et nous ne l’approuvons certainement pas. Mais dans le battage médiatique et les inquiétudes autour faux profond technologie et son utilisation abusive très réelle, la simple vérité est que cette technologie ne va pas disparaître. En fait, cela va devenir aussi courant que Photoshop, surtout si les développeurs d'applications travaillant sur Les technologies deepfake ont quelque chose à dire à ce sujet: nous pourrions bientôt voir des publicités hyper-ciblées avec nos propres visages. eux.
Vidéos recommandées
Roman Mogylnyi, PDG de RefaceAI, une startup basée en Ukraine, a déclaré qu'ils travaillent avec l'apprentissage automatique depuis 2011 et qu'ils se sont tournés vers la création de leurs propres applications basées sur la technologie deepfake en 2014. RefaceAI a déjà publié une application de photo-deepfake appelée Reflect, et est sur le point de publier à la fois sa propre application de vidéo-deepfake, ainsi qu'un service Web qui aidera à détecter les vidéos deepfake.
En rapport
- Des commentaires basés sur l'IA arriveront à Wimbledon le mois prochain
- Le supercalculateur de Nvidia pourrait ouvrir la voie à une nouvelle ère de ChatGPT
- Prix Tech For Change CES 2023 de Digital Trends
« Nous avons constaté dès le début que cette technologie était utilisée à mauvais escient », a déclaré Mogylnyi. «Nous pensions pouvoir faire mieux.»
Technologie RefaceAI Deepfake | Nous danserons
RefaceAI a déjà travaillé avec certaines sociétés de production cinématographique – bien que Mogylnyi ne puisse pas dire lesquelles – pour utiliser sa technologie pour échanger les visages d'acteurs sur des doublures corporelles, à un coût bien inférieur à ce qu'il aurait été de ramener les acteurs pour monter et reprendre les scènes dans question. Selon Mogylnyi, c'est ce que l'entreprise considère comme l'avenir des deepfakes. "Nous voulons l'utiliser pour le marketing, pour personnaliser les publicités, pour les gifs, pour le matériel de divertissement en général", a-t-il déclaré.
L'avenir des médias
RefaceAI n’est pas l’entreprise qui essaie de devancer cette inévitable courbe marketing. Carica, une application basée en Corée du Sud, développe également des GIF et des vidéos deepfakes dans lesquels une personne peut greffer son visage sur un GIF de réaction populaire pour l'envoyer à ses amis et à sa famille. L’application propose déjà des publicités pop-up qui intègrent le visage de l’utilisateur dans la photo ou la vidéo de l’annonce.
"Nous voulons que notre entreprise devienne une entreprise de médias", a déclaré Joseph Jang, ingénieur chez Carica, à Digital Trends. Les deepfakes ne sont que la façon dont ils débutent. « Je pense que les sociétés de médias vont commencer à adopter cette fonctionnalité. Cela deviendra une option dont vous disposez, tout comme un filtre. Cela deviendra tellement normal pour les gens.
Jang et Mogylnyi ont tous deux utilisé la prolifération de Photoshop comme modèle pour déterminer la direction qu'ils envisagent pour les Deepfakes: si courants qu'ils sont banals, même s'ils restent un peu controversés. Et pour les deux, les problèmes politiques et éthiques enveloppés dans les deepfakes ne sont en réalité que banals.
Shamir Allibhai, PDG de la plateforme de détection de deepfake Amber Video, a déclaré à Digital Trends que son point de vue principal était que la technologie deepfake, comme la plupart des autres types de technologie, est amorale.
"Cela reviendrait à dire que Microsoft Word est immoral et mauvais parce que des terroristes potentiels l'utiliseront."
"Cela reviendrait à dire que Microsoft Word est immoral et mauvais parce que des terroristes potentiels l'utiliseront pour épouser une idéologie extrémiste violente, qui inspirera d’autres à adopter une idéologie extrémiste violente », a-t-il déclaré. dit. «Je vois vraiment cette technologie dans la même veine.»
Amber Video est une plateforme qui présente ses services comme luttant contre les deepfakes pour « prévenir la fraude, la perte de réputation et la méfiance des parties prenantes ». Allibhaï a dit qu'il ne savait pas s'il était prêt à acheter quelque chose simplement parce que son visage était dessus, mais il a reconnu qu'à terme, la technologie serait envahissant.
"C'est un miroir de la société", dit-il. « Cela se voit dans des technologies comme la plateforme Twitter. Vous voyez le meilleur de l’humanité et le pire d’entre nous. La technologie Deepfake sera également le miroir de la société. Il y a des gens qui l’utiliseront pour une satire légère et se moqueront des régimes autoritaires. Mais nous essaierons aussi de semer le chaos.»
Armement des deepfakes
La plus grande crainte reste l’abus potentiel et la militarisation des deepfakes. À mesure qu’ils deviennent plus courants, nous pourrions même les voir déployés non seulement pour des campagnes de désinformation à grande échelle, mais aussi pour des farces ou du harcèlement au lycée. Si la technologie est suffisamment accessible, tout le monde peut l’utiliser.
Carica et RefaceAI ont déclaré qu'elles prenaient des mesures pour atténuer les abus potentiels: RefaceAI avec son service Web de détection des deepfakes et Carica avec des modérateurs de contenu. L'ensemble de la société Carica ne compte actuellement que neuf personnes, a déclaré Jang, et ils échangent leurs tâches de modération de contenu.
« Même Photoshop peut être utilisé et a été utilisé à des fins d'intimidation. Mais d’un autre côté, nous fournissons un antidote.
"C'était vraiment la première question que nous nous posions", a déclaré Mogylnyi de RefaceAI. « Cela fait des années que nous sommes confrontés à ce problème en termes de scandales politiques en Ukraine. Nous comprenons que notre technologie peut être utilisée à mauvais escient. Même Photoshop peut être utilisé et a été utilisé à des fins d'intimidation. Mais d’un autre côté, nous leur fournissons un antidote. Nous avons demandé à des utilisateurs de télécharger du contenu à caractère sexuel sur notre application et nous avons immédiatement banni ces utilisateurs.
Carica est une application suffisamment petite pour que c’est avec elle qu’ils doivent travailler pour le moment. Mais dans l’ensemble, Jang n’était pas inquiet.
"Cela se produit avec toutes les nouvelles technologies", a déclaré Jang. "Au début, il est motivé par une mauvaise utilisation, mais ensuite, après cette phase, il devient accessible à tout le monde et les gens l'utilisent pour des choses normales."
Recommandations des rédacteurs
- Des robots de sécurité pourraient arriver dans une école près de chez vous
- Amazon déploie l'IA pour résumer les avis sur les produits
- Amazon prévoit des changements « uniques dans une génération » pour la recherche, révèle une offre d'emploi
- Le mini-ordinateur Jetson Orin Nano de Nvidia, à 200 $, est 80 fois plus rapide que la version précédente
- Google Smart Canvas obtient une intégration plus approfondie entre les applications