La repressione di YouTube su QAnon non funziona

Il gruppo di estrema destra QAnon ha attirato l’attenzione del pubblico nelle ultime settimane per la sua capacità di farlo manovrare le piattaforme dei social media per diffondere disinformazione e creare attenzione virale per la sua cospirazione teorie.

Piattaforme di social media come Twitter E Tic toc hanno preso provvedimenti contro il gruppo dopo che teorie cospirazioniste da tempo smentite come #PizzaGate hanno guadagnato nuova attenzione, vietando gli account e impedendo ai suoi hashtag popolari di apparire nelle ricerche. Sebbene entrambe le piattaforme si siano rivelate un terreno fertile per il gruppo, QAnon prospera su YouTube da anni, nonostante gli investimenti dell’azienda per moderarlo.

Video consigliati

Ora, la piattaforma video sta cercando di impedire che i video QAnon vengano visualizzati nei consigli degli utenti, ma a Il test sulle tendenze digitali ha rilevato che i video sulla teoria della cospirazione appaiono ancora in posti di rilievo su YouTube home page.

Imparentato

  • Questi sono i 10 video YouTube più visti di tutti i tempi
  • Cos'è la modalità Ambient su YouTube?
  • YouTube offre a tutti le modifiche al pizzico per zoom e alla navigazione video
Sostenitore di QAnon con la bandiera Q
Scott Olson/Getty Images

I sostenitori di QAnon credono in una serie di teorie del complotto smentite che hanno avuto origine sulle imageboard di 4chan e 8chan alla fine del 2016. Il gruppo ritiene che una figura chiamata “Q”, che afferma di far parte dell’amministrazione Trump, stia pubblicando dispacci sulla guerra del presidente Donald Trump contro un complotto dello “stato profondo”. Il gruppo ha registrato una crescita importante su YouTube dal 2016, poiché l'algoritmo basato sul coinvolgimento promuove i video QAnon.

“QAnon inizialmente ha preso piede su YouTube”, ha affermato Will Partin, analista di ricerca presso il Data & Society Research Institute, che studia il gruppo dal 2017. “È stato raccolto dagli YouTuber che hanno davvero dato le gambe alla cospirazione e, di conseguenza, si è diffuso davvero e ha fatto il lavoro di collegarlo ad altre cose che erano già nell'aria”. conservatori.

“Non puoi impedire a qualcuno di cercarlo attivamente”

Grazie alla natura stessa di YouTube, la piattaforma si è rivelata il luogo principale in cui prosperavano pseudo documentari e talk show di lunga durata che decifravano indizi o "briciole di pane" lasciate da "Q". Chi è interessato alle teorie QAnon potrebbe facilmente trovare altri utenti che consigliano video aggiuntivi nel sezione commenti o tramite gli algoritmi di raccomandazione di YouTube, una funzionalità che è stata criticata critici come un modo semplice per “radicalizzare” gli spettatori.

Ma ora, se digiti “QAnon” nella barra di ricerca di YouTube, il tuo schermo “farà emergere in modo prominente fonti autorevoli” come organizzazioni giornalistiche ed esperti – parte del piano di YouTube di sollevare contenuti fattuali per combattere la disinformazione. YouTube ha anche iniziato a includere caselle di testo e pannelli informativi che collegano a fonti di terze parti. Digital Trends ha scoperto che YouTube fornisce un collegamento a l'articolo di Wikipedia su QAnon sotto i video correlati.

Youtube

YouTube ha affermato che da quando ha implementato le nuove politiche di moderazione dei contenuti a gennaio, ha registrato una riduzione del 70% nel numero di visualizzazioni che i contenuti QAnon ottengono dai consigli video. Poiché YouTube è una piattaforma video e non un sito di social network, la moderazione avviene da video a video, non per account. E secondo un portavoce di YouTube, i sistemi della piattaforma sono stati modificati per abbassare il ranking sui contenuti QAnon nella barra laterale dei consigli, anche se stai guardando video simili.

Tuttavia, Digital Trends ha scoperto che dopo aver guardato una mezza dozzina di video non correlati a QA sulla piattaforma YouTube presentava almeno tre video con cospirazioni non legate a QA nella scheda "Tutti i consigli" sul home page. Un video consigliato menzionava la cospirazione che circondava il composto chimico Adrenocromo, ampiamente diffuso all’interno dei gruppi QAnon come ottenuti da figure d’élite di Hollywood attraverso l’uccisione di bambini – e ne contavano oltre 1 milione visualizzazioni.

Un rappresentante di YouTube ha rifiutato di commentare questa storia.

Secondo Partin, il modo in cui i contenuti QAnon vengono visualizzati su YouTube non si basa sui video consigliati agli utenti, ma sul contenuto dei video stessi relativi a QAnon. Gli influencer di QAnon spesso ne gridano un altro in un video o indirizzano gli spettatori ad altre pagine, indipendentemente dal modo in cui YouTube modera i tag o i video di QAnon. Tuttavia, Partin ha affermato che ci sono alcuni tag QAnon che sono così oscuri che è impossibile per YouTube riempire i risultati di ricerca con contenuti reali provenienti da fonti affidabili.

“A quel punto, non puoi nasconderlo algoritmicamente, non puoi impedire a qualcuno di cercarlo attivamente”, ha detto.

Partin ha affermato che YouTube una volta era "il punto chiave" in cui un utente poteva essere introdotto ai contenuti non correlati a QA, ma ora la maggior parte del reclutamento avviene su Facebook – dove i gruppi privati ​​QAnon possono arrivare a centinaia di migliaia e sono particolarmente difficili da moderare.

Secondo quanto riferito, Facebook sta pianificando di fare una mossa simile moderare il gruppo, secondo il New York Times, seguendo le orme di Twitter e TikTok.

“Quando le piattaforme decidono di vietare QAnon, spesso fanno tutto allo stesso tempo per rafforzare i numeri”, ha affermato Partin. “Ma è davvero difficile costruire una politica su QAnon perché in gran parte si tratta solo di normale roba dell’elettorato conservatore”.

Partin ha detto l'unica cosa che spera che le persone capiscano sui pericoli dei contenuti non correlati a QA sui social media non è quanto ampiamente o quanto profondamente si creda alle sue cospirazioni, ma il rischio nel premere il pulsante “condividi”. si.

“È impossibile conoscere le intenzioni di qualcuno, ma l’intenzione non ha molta importanza”, ha detto. "Non mi interessa davvero se ci credono o non ci credono, si comportano come se ci credessero e stanno diffondendo questo contenuto e questa credenza, indipendentemente dall'intenzione che c'è dietro."

Raccomandazioni degli editori

  • YouTube rende più facile per i nuovi creatori guadagnare denaro
  • YouTube allenta le regole relative alle parolacce e alla demonetizzazione
  • YouTube sta lanciando gli handle. Ecco cosa devi sapere
  • YouTube rivederà i nomi dei canali con @ handle per tutti
  • Le ricerche di argomenti relativi alla salute su YouTube ora evidenziano storie personali

Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.