La represión de YouTube contra QAnon no está funcionando

El grupo de extrema derecha QAnon ha llamado la atención del público en las últimas semanas por su capacidad para Maniobrar plataformas de redes sociales para difundir información errónea y crear atención viral por su conspiración. teorías.

Plataformas de redes sociales como Gorjeo y Tik Tok han tomado medidas contra el grupo después de que teorías de conspiración refutadas durante mucho tiempo como #PizzaGate ganaran nueva atención, prohibiendo cuentas y desactivando sus populares hashtags para que no aparecieran en las búsquedas. Aunque ambas plataformas han demostrado ser un terreno fértil para el grupo, QAnon ha florecido en YouTube durante años, a pesar de las inversiones de la empresa para moderarlo.

Vídeos recomendados

Ahora, la plataforma de vídeo está intentando evitar que los vídeos de QAnon aparezcan en las recomendaciones de los usuarios, pero un La prueba de Digital Trends encontró que los videos de teorías de la conspiración todavía aparecen en lugares destacados de YouTube. página principal.

Relacionado

  • Estos son los 10 vídeos de YouTube más vistos de todos los tiempos
  • ¿Qué es el modo ambiente en YouTube?
  • YouTube trae cambios de zoom y navegación de video para todos
Partidario de QAnon con bandera Q
Scott Olson/Getty Images

Los partidarios de QAnon creen en una serie de teorías de conspiración refutadas que se originaron en los tableros de imágenes de 4chan y 8chan a finales de 2016. El grupo cree que una figura llamada "Q", que dice ser parte de la Administración Trump, está publicando despachos sobre la guerra del presidente Donald Trump contra un complot del "Estado profundo". El grupo ha experimentado un gran crecimiento en YouTube desde 2016, ya que el algoritmo basado en la participación promueve los videos de QAnon.

“QAnon inicialmente tomó fuerza en YouTube”, dijo Will Partin, analista de investigación del Data & Society Research Institute, que ha estado estudiando al grupo desde 2017. “Fue recogido por YouTubers que realmente le dieron fuerza a la conspiración y, como resultado, realmente se difundió. e hizo el trabajo de conectarlo a otras cosas que ya estaban en el aire” entre conservadores.

"No se puede impedir que alguien lo busque activamente"

Gracias a la naturaleza misma de YouTube, la plataforma demostró ser el lugar principal donde prosperaron los pseudodocumentales y programas de entrevistas de larga duración que descifraban pistas o "migas de pan" dejadas por "Q". Aquellos interesados ​​en las teorías de QAnon podrían encontrar fácilmente a otros usuarios recomendando vídeos adicionales en el sección de comentarios o mediante los algoritmos de recomendación de YouTube, una característica que ha sido criticada por críticos como una manera fácil de “radicalizar” a los espectadores.

Pero ahora, si escribe "QAnon" en la barra de búsqueda de YouTube, su pantalla "aparecerá de manera destacada fuentes autorizadas", como organizaciones de noticias y expertos, parte del plan de YouTube para plantear contenido fáctico para combatir la desinformación. YouTube también ha comenzado a incluir cuadros de texto y paneles de información que enlazan con fuentes de terceros. Digital Trends descubrió que YouTube proporciona un enlace a el artículo de Wikipedia sobre QAnon en vídeos relacionados.

YouTube

YouTube dijo que desde que implementó nuevas políticas de moderación de contenido en enero, ha visto una reducción del 70% en la cantidad de vistas que obtiene el contenido de QAnon a partir de recomendaciones de videos. Dado que YouTube es una plataforma de videos, no un sitio de redes sociales, la moderación se realiza video a video, no por cuenta. Y según un portavoz de YouTube, los sistemas de la plataforma se han ajustado para bajar la clasificación del contenido de QAnon en la barra lateral de recomendaciones, incluso si estás viendo vídeos similares.

Sin embargo, Digital Trends descubrió que después de ver media docena de videos relacionados con QAnon en la plataforma, YouTube presentó al menos tres videos con conspiraciones relacionadas con QAnon en la pestaña "Todas las recomendaciones" en la página página principal. Un vídeo recomendado mencionaba la conspiración que rodea al compuesto químico adrenocromo y que ha circulado ampliamente. dentro de los grupos de QAnon como obtenidos por figuras de élite de Hollywood a través del asesinato de niños, y tenía más de 1 millón puntos de vista.

Un representante de YouTube se negó a hacer comentarios para esta historia.

Según Partin, la forma en que se ve el contenido de QAnon en YouTube no se basa en los videos recomendados a los usuarios, sino en el contenido de los videos relacionados con QAnon. Los influencers de QAnon a menudo gritan a otros en un video o dirigen a los espectadores a otras páginas, independientemente de cómo YouTube modere las etiquetas o videos de QAnon. Sin embargo, Partin dijo que hay algunas etiquetas de QAnon que son tan oscuras que a YouTube le resulta imposible llenar los resultados de búsqueda con contenido fáctico de fuentes confiables.

"En ese momento, no puedes ocultarlo algorítmicamente, no puedes impedir que alguien lo busque activamente", dijo.

Partin dijo que YouTube alguna vez fue "el lugar clave" para que un usuario conociera contenido relacionado con QAnon, pero ahora la mayor parte del reclutamiento ocurre en Facebook – donde los grupos privados de QAnon pueden ascender a cientos de miles y son especialmente difíciles de moderar.

Según se informa, Facebook planea hacer un movimiento similar para moderar el grupo, según The New York Times, siguiendo los pasos de Twitter y TikTok.

“Cuando las plataformas deciden prohibir QAnon, a menudo lo hacen todo al mismo tiempo para fortalecer su número”, dijo Partin. "Pero es realmente difícil construir una política sobre QAnon porque gran parte de ella es simplemente material del electorado conservador".

Partin dijo que espera que la gente entienda los peligros del contenido relacionado con QAnon en las redes sociales. No es cuán ampliamente o cuán profundamente se cree en sus conspiraciones, sino el riesgo de presionar el botón "compartir". sí mismo.

"Es imposible saber las intenciones de alguien, pero la intención no importa mucho", dijo. "Realmente no me importa si creen o no en esto, actúan como lo creen y están difundiendo este contenido y esta credibilidad, independientemente de la intención detrás de esto".

Recomendaciones de los editores

  • YouTube facilita que los nuevos creadores ganen dinero
  • YouTube relaja las reglas sobre malas palabras y desmonetización
  • YouTube está implementando identificadores. Esto es lo que necesitas saber
  • YouTube revisará los nombres de los canales con identificadores @ para todos
  • Las búsquedas de temas de salud en YouTube ahora destacan historias personales

Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales interesantes y adelantos únicos.