Le groupe d'extrême droite QAnon a retenu l'attention du public ces dernières semaines pour sa capacité à manœuvrer les plateformes de médias sociaux pour diffuser de la désinformation et créer une attention virale sur son complot théories.
Les plateformes de médias sociaux comme Twitter et TIC Tac ont pris des mesures contre le groupe après que des théories du complot longtemps réfutées comme #PizzaGate ont attiré une nouvelle attention, interdisant les comptes et empêchant ses hashtags populaires d'apparaître dans les recherches. Bien que les deux plateformes se soient révélées être un terrain fertile pour le groupe, QAnon prospère sur YouTube depuis des années, malgré les investissements de l’entreprise pour le modérer.
Vidéos recommandées
Désormais, la plateforme vidéo tente d’empêcher les vidéos QAnon d’apparaître dans les recommandations des utilisateurs, mais un Le test Digital Trends a révélé que les vidéos sur la théorie du complot apparaissent toujours à des endroits bien en vue sur YouTube. page d'accueil.
En rapport
- Ce sont les 10 vidéos YouTube les plus regardées de tous les temps
- Qu'est-ce que le mode ambiant sur YouTube?
- YouTube apporte des modifications au zoom et à la navigation vidéo pour tout le monde
Les partisans de QAnon croient en un certain nombre de théories du complot réfutées qui ont vu le jour sur les tableaux d'images 4chan et 8chan fin 2016. Le groupe estime qu’un personnage nommé « Q », qui prétend faire partie de l’administration Trump, publie des dépêches sur la guerre menée par le président Donald Trump contre un complot de « l’État profond ». Le groupe a connu une croissance importante sur YouTube depuis 2016, puisque l'algorithme axé sur l'engagement fait la promotion des vidéos QAnon.
"QAnon a d'abord pris du terrain sur YouTube", a déclaré Will Partin, analyste de recherche au Data & Society Research Institute, qui étudie le groupe depuis 2017. "Cela a été repris par des YouTubers qui ont vraiment donné des jambes au complot et, par conséquent, se sont vraiment répandus. et j'ai fait le travail de le connecter à d'autres éléments qui étaient déjà dans les airs » parmi conservateurs.
« On ne peut pas empêcher quelqu’un de le rechercher activement »
Grâce à la nature même de YouTube, la plateforme s’est avérée être le lieu privilégié où ont prospéré les longs documentaires, les pseudo-documentaires et les talk-shows déchiffrant les indices ou les « fils d’Ariane » laissés par « Q ». Ceux qui s'intéressent aux théories QAnon pourraient facilement trouver d'autres utilisateurs recommandant des vidéos supplémentaires dans le section de commentaires ou via les algorithmes de recommandation de YouTube – une fonctionnalité qui a été critiquée par critiques comme un moyen facile de « radicaliser » les téléspectateurs.
Mais maintenant, si vous tapez « QAnon » dans la barre de recherche de YouTube, votre écran « fera apparaître de manière bien visible les sources faisant autorité » comme les agences de presse et les experts – dans le cadre du plan de YouTube visant à augmenter le contenu factuel pour lutter contre la désinformation. YouTube a également commencé à proposer des zones de texte et des panneaux d'information renvoyant à des sources tierces. Digital Trends a constaté que YouTube fournit un lien vers l'article Wikipédia sur QAnon sous les vidéos connexes.
YouTube a déclaré que depuis qu'il a mis en œuvre de nouvelles politiques de modération de contenu en janvier, il a constaté une réduction de 70 % du nombre de vues du contenu QAnon grâce aux recommandations vidéo. Étant donné que YouTube est une plateforme vidéo et non un site de réseautage social, la modération s'effectue vidéo à vidéo et non par compte. Et selon un porte-parole de YouTube, les systèmes de la plateforme ont été ajustés pour abaisser le classement du contenu QAnon dans la barre latérale des recommandations, même si vous regardez des vidéos similaires.
Cependant, Digital Trends a constaté qu'après avoir regardé une demi-douzaine de vidéos liées à QAnon sur la plateforme, YouTube a présenté au moins trois vidéos contenant des complots liés à QAnon sous l'onglet « Toutes les recommandations » sur le page d'accueil. Une vidéo recommandée mentionnait le complot entourant le composé chimique Adrénochrome – largement diffusé au sein des groupes QAnon comme ayant été obtenus par des personnalités d'élite d'Hollywood grâce au meurtre d'enfants - et ont eu plus d'un million vues.
Un représentant de YouTube a refusé de commenter cette histoire.
Selon Partin, la façon dont le contenu QAnon est visualisé sur YouTube n'est pas basée sur les vidéos recommandées aux utilisateurs, mais sur le contenu des vidéos liées à QAnon elles-mêmes. Les influenceurs QAnon en crient souvent un autre dans une vidéo ou dirigent les spectateurs vers d'autres pages, quelle que soit la manière dont YouTube modère les balises ou les vidéos QAnon. Cependant, Partin a déclaré que certaines balises QAnon sont si obscures qu'il est impossible pour YouTube de remplir les résultats de recherche avec du contenu factuel provenant de sources réputées.
« À ce stade, vous ne pouvez pas le cacher algorithmiquement, vous ne pouvez pas empêcher quelqu’un de le rechercher activement », a-t-il déclaré.
Partin a déclaré que YouTube était autrefois « l'endroit clé » pour qu'un utilisateur puisse découvrir le contenu lié à QAnon, mais désormais, la plupart du recrutement se fait sur Facebook – où les groupes QAnon privés peuvent atteindre des centaines de milliers et sont particulièrement difficiles à modérer.
Facebook aurait l'intention de faire une démarche similaire pour modérer le groupe, selon le New York Times, emboîtant le pas à Twitter et TikTok.
"Lorsque les plateformes décident d'interdire QAnon, elles le font souvent en même temps pour avoir la force du nombre", a déclaré Partin. "Mais il est vraiment difficile d'élaborer une politique concernant QAnon, car il s'agit en grande partie de simples affaires d'électorat conservateur."
Partin a déclaré la seule chose qu'il espère que les gens comprendront sur les dangers du contenu lié à QAnon sur les réseaux sociaux. ce n’est pas l’ampleur ou la profondeur de la croyance à ses complots, mais le risque qu’il y a à appuyer sur le bouton « Partager » lui-même.
« Il est impossible de connaître les intentions de quelqu’un, mais l’intention importe peu », a-t-il déclaré. "Je m'en fiche s'ils le croient ou non, ils agissent comme ils le font, et ils diffusent ce contenu et cette crédibilité, quelle que soit l'intention qui se cache derrière cela."
Recommandations des rédacteurs
- YouTube permet aux nouveaux créateurs de gagner plus facilement de l'argent
- YouTube assouplit les règles concernant les jurons et la démonétisation
- YouTube déploie des identifiants. Voici ce que vous devez savoir
- YouTube va remanier les noms de chaînes avec des poignées @ pour tous
- Les recherches de sujets sur la santé sur YouTube mettent désormais en évidence les histoires personnelles
Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde en évolution rapide de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.