A repressão do YouTube ao QAnon não está funcionando

click fraud protection

O grupo de extrema direita QAnon chamou a atenção do público nas últimas semanas pela sua capacidade de manobrar plataformas de mídia social para espalhar desinformação e criar atenção viral para sua conspiração teorias.

Plataformas de mídia social como Twitter e TikTok tomaram medidas contra o grupo depois que teorias de conspiração há muito refutadas, como #PizzaGate, ganharam nova atenção, banindo contas e impedindo que suas populares hashtags aparecessem nas pesquisas. Embora ambas as plataformas tenham provado ser um terreno fértil para o grupo, o QAnon floresceu no YouTube durante anos – apesar dos investimentos da empresa na sua moderação.

Vídeos recomendados

Agora, a plataforma de vídeo está tentando impedir que vídeos QAnon apareçam nas recomendações dos usuários, mas um Teste do Digital Trends constatou que vídeos de teorias da conspiração ainda aparecem em lugares de destaque no YouTube pagina inicial.

Relacionado

  • Estes são os 10 vídeos mais vistos do YouTube de todos os tempos
  • O que é o modo ambiente no YouTube?
  • O YouTube traz pitadas de zoom e alterações de navegação de vídeo para todos
Apoiador QAnon com bandeira Q
Imagens de Scott Olson/Getty

Os apoiadores do QAnon acreditam em uma série de teorias de conspiração refutadas que se originaram nos imageboards do 4chan e do 8chan no final de 2016. O grupo acredita que uma figura chamada “Q”, que afirma fazer parte da administração Trump, está a publicar despachos sobre a guerra do presidente Donald Trump contra uma conspiração de “estado profundo”. O grupo teve um grande crescimento no YouTube desde 2016, uma vez que o algoritmo orientado para o envolvimento promove vídeos QAnon.

“O QAnon inicialmente ganhou força no YouTube”, disse Will Partin, analista de pesquisa do Data & Society Research Institute, que estuda o grupo desde 2017. “Foi captado por YouTubers que realmente deram força à conspiração e, como resultado, realmente se espalharam e fiz o trabalho de conectá-lo a outras coisas que já estavam no ar” entre conservadores.

“Você não pode impedir alguém de procurá-lo ativamente”

Graças à natureza do próprio YouTube, a plataforma provou ser o principal lugar onde prosperaram pseudodocumentários e talk shows de longa duração que decifram pistas ou “migalhas de pão” deixadas por “Q”. Os interessados ​​nas teorias QAnon poderiam facilmente encontrar outros usuários recomendando vídeos adicionais no seção de comentários ou por meio dos algoritmos de recomendação do YouTube – um recurso que foi criticado por críticos como uma maneira fácil de “radicalizar” os espectadores.

Mas agora, se você digitar “QAnon” na barra de pesquisa do YouTube, sua tela irá “aparecer com destaque fontes autorizadas”, como organizações de notícias e especialistas – parte do plano do YouTube para levantar conteúdo factual para combater a desinformação. O YouTube também começou a apresentar caixas de texto e painéis de informações com links para fontes de terceiros. A Digital Trends descobriu que o YouTube fornece um link para o artigo da Wikipedia sobre QAnon em vídeos relacionados.

YouTube

O YouTube disse que desde que implementou novas políticas de moderação de conteúdo em janeiro, viu uma redução de 70% no número de visualizações que o conteúdo QAnon obtém a partir de recomendações de vídeo. Como o YouTube é uma plataforma de vídeo e não um site de rede social, a moderação é feita vídeo a vídeo, e não por conta. E de acordo com um porta-voz do YouTube, os sistemas da plataforma foram ajustados para diminuir a classificação do conteúdo QAnon na barra lateral de recomendações, mesmo se você estiver assistindo a vídeos semelhantes.

No entanto, a Digital Trends descobriu que depois de assistir meia dúzia de vídeos relacionados ao QAnon na plataforma, o YouTube apresentou pelo menos três vídeos com conspirações não relacionadas ao QA na guia “Todas as recomendações” no pagina inicial. Um vídeo recomendado mencionou a conspiração em torno do composto químico Adrenocromo – amplamente divulgado dentro dos grupos QAnon como sendo obtidos por figuras da elite de Hollywood através do assassinato de crianças - e teve mais de 1 milhão Visualizações.

Um representante do YouTube se recusou a comentar esta história.

De acordo com Partin, a forma como o conteúdo do QAnon é visualizado no YouTube não se baseia nos vídeos recomendados aos usuários, mas no conteúdo dos próprios vídeos relacionados ao QAnon. Os influenciadores do QAnon muitas vezes gritam outro em um vídeo ou direcionam os espectadores para outras páginas, independentemente de como o YouTube modera as tags ou vídeos do QAnon. No entanto, Partin disse que existem algumas tags QAnon que são tão obscuras que é impossível para o YouTube preencher os resultados da pesquisa com conteúdo factual de fontes confiáveis.

“Nesse ponto, você não pode esconder algoritmicamente, você não pode impedir alguém de procurá-lo ativamente”, disse ele.

Partin disse que o YouTube já foi “o ponto chave” para um usuário ser apresentado a conteúdo não relacionado ao QA, mas agora a maior parte do recrutamento acontece em Facebook – onde grupos privados QAnon podem chegar a centenas de milhares e são especialmente difíceis de moderar.

O Facebook está planejando fazer uma mudança semelhante para moderar o grupo, segundo o The New York Times, seguindo os passos do Twitter e do TikTok.

“Quando as plataformas proibem o QAnon, muitas vezes fazem tudo ao mesmo tempo para ter força numérica”, disse Partin. “Mas é realmente difícil construir uma política sobre o QAnon porque muito disso é apenas coisa comum do eleitorado conservador.”

Partin disse a única coisa que espera que as pessoas entendam sobre os perigos do conteúdo não relacionado ao QA nas redes sociais não é o quão amplamente ou profundamente se acredita em suas conspirações, mas o risco de apertar o botão “compartilhar” em si.

“É impossível saber as intenções de alguém, mas a intenção não importa muito”, disse ele. “Eu realmente não me importo se eles acreditam ou não nisso, eles agem como acreditam e estão espalhando esse conteúdo e essa credibilidade, independentemente da intenção por trás disso.”

Recomendações dos Editores

  • O YouTube torna mais fácil para novos criadores ganharem dinheiro
  • YouTube relaxa regras sobre palavrões e desmonetização
  • O YouTube está lançando identificadores. Aqui está o que você precisa saber
  • YouTube reformulará nomes de canais com identificadores @ para todos
  • Pesquisas por temas de saúde no YouTube agora destacam histórias pessoais

Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.