Das Vorgehen von YouTube gegen QAnon funktioniert nicht

Die rechtsextreme Gruppe QAnon hat in den letzten Wochen durch ihre Fähigkeit die Aufmerksamkeit der Öffentlichkeit auf sich gezogen Sie manövrieren Social-Media-Plattformen, um Fehlinformationen zu verbreiten und virale Aufmerksamkeit für ihre Verschwörung zu erregen Theorien.

Social-Media-Plattformen mögen Twitter Und Tick ​​Tack haben gegen die Gruppe vorgegangen, nachdem lange widerlegte Verschwörungstheorien wie #PizzaGate neue Aufmerksamkeit erlangt hatten, indem sie Konten gesperrt und die Anzeige ihrer beliebten Hashtags in der Suche deaktiviert haben. Obwohl sich beide Plattformen als fruchtbarer Boden für die Gruppe erwiesen haben, floriert QAnon seit Jahren auf YouTube – trotz der Investitionen des Unternehmens in die Moderation.

Empfohlene Videos

Nun versucht die Videoplattform zu verhindern, dass QAnon-Videos in den Empfehlungen der Nutzer erscheinen, aber a Der Digital Trends-Test ergab, dass die Verschwörungstheorie-Videos immer noch an prominenten Stellen auf YouTube erscheinen Startseite.

Verwandt

  • Dies sind die 10 meistgesehenen YouTube-Videos aller Zeiten
  • Was ist der Ambient Mode auf YouTube?
  • YouTube bietet allen Nutzern die Möglichkeit, durch Pinch-to-Zoom zu zoomen und die Videonavigation zu nutzen
QAnon-Unterstützer mit Q-Flagge
Scott Olson / Getty Images

QAnon-Anhänger glauben an eine Reihe widerlegter Verschwörungstheorien, die Ende 2016 auf 4chan- und 8chan-Imageboards entstanden sind. Die Gruppe glaubt, dass eine Person namens „Q“, die behauptet, Teil der Trump-Administration zu sein, Depeschen über den Krieg von Präsident Donald Trump gegen eine Verschwörung des „tiefen Staates“ veröffentlicht. Seit 2016 verzeichnet die Gruppe ein starkes Wachstum auf YouTube, da der engagementgesteuerte Algorithmus QAnon-Videos bewirbt.

„QAnon hat zunächst auf YouTube Fuß gefasst“, sagte Will Partin, Forschungsanalyst am Data & Society Research Institute, der die Gruppe seit 2017 untersucht. „Es wurde von YouTubern aufgegriffen, die der Verschwörung wirklich Auftrieb gaben und sich dadurch wirklich verbreiteten es und machte sich die Arbeit, es mit anderen Dingen zu verbinden, die bereits in der Luft waren Konservative.

„Man kann niemanden davon abhalten, aktiv danach zu suchen“

Dank der Natur von YouTube selbst erwies sich die Plattform als der erste Ort, an dem lange Pseudodokumentationen und Talkshows blühten, in denen von „Q“ fallen gelassene Hinweise oder „Brotkrumen“ entschlüsselt wurden. Diejenigen, die sich für QAnon-Theorien interessieren, könnten leicht andere Benutzer finden, die zusätzliche Videos empfehlen Kommentarbereich oder über die Empfehlungsalgorithmen von YouTube – eine Funktion, die unter Beschuss geraten ist Kritik als einfache Möglichkeit, Zuschauer zu „radikalisieren“..

Aber wenn Sie jetzt „QAnon“ in die Suchleiste von YouTube eingeben, werden auf Ihrem Bildschirm „prominente seriöse Quellen“ wie Nachrichtenorganisationen und Experten angezeigt – Teil des YouTube-Plans Sachinhalte hervorheben um Fehlinformationen zu bekämpfen. YouTube hat außerdem damit begonnen, Textfelder und Informationstafeln anzubieten, die auf Quellen Dritter verweisen. Digital Trends hat herausgefunden, dass YouTube einen Link dazu bereitstellt der Wikipedia-Artikel über QAnon unter Ähnliche Videos.

Youtube

YouTube sagte, seit der Einführung neuer Richtlinien zur Inhaltsmoderation im Januar sei die Anzahl der Aufrufe von QAnon-Inhalten durch Videoempfehlungen um 70 % zurückgegangen. Da es sich bei YouTube um eine Videoplattform und nicht um ein soziales Netzwerk handelt, erfolgt die Moderation auf Video-zu-Video-Basis und nicht nach Konto. Und laut einem YouTube-Sprecher wurden die Systeme der Plattform angepasst, um das Ranking von QAnon-Inhalten in der Empfehlungsseitenleiste zu senken, selbst wenn Sie ähnliche Videos ansehen.

Digital Trends stellte jedoch fest, dass nach dem Ansehen eines halben Dutzend QAnon-bezogener Videos auf der Plattform YouTube Auf der Registerkarte „Alle Empfehlungen“ wurden mindestens drei Videos mit QAnon-bezogenen Verschwörungen vorgestellt Startseite. In einem empfohlenen Video wurde die Verschwörung rund um die chemische Verbindung Adrenochrom erwähnt – die weit verbreitet war Innerhalb von QAnon-Gruppen wurde davon ausgegangen, dass Elite-Hollywood-Persönlichkeiten durch die Tötung von Kindern erlangt wurden – und es gab über 1 Million Ansichten.

Ein Vertreter von YouTube lehnte einen Kommentar zu dieser Geschichte ab.

Laut Partin basiert die Art und Weise, wie QAnon-Inhalte auf YouTube angezeigt werden, nicht auf den den Nutzern empfohlenen Videos, sondern auf dem Inhalt der QAnon-bezogenen Videos selbst. QAnon-Influencer rufen in einem Video häufig andere Personen an oder leiten Zuschauer auf andere Seiten weiter, unabhängig davon, wie YouTube QAnon-Tags oder -Videos moderiert. Partin sagte jedoch, dass einige QAnon-Tags so undurchsichtig seien, dass es für YouTube unmöglich sei, Suchergebnisse mit sachlichen Inhalten aus seriösen Quellen zu füllen.

„An diesem Punkt kann man es nicht mehr algorithmisch verbergen, man kann niemanden davon abhalten, aktiv danach zu suchen“, sagte er.

Partin sagte, YouTube sei einst „der wichtigste Ort“ gewesen, an dem ein Nutzer QAnon-bezogene Inhalte kennengelernt habe, aber jetzt finde der Großteil der Rekrutierung statt Facebook – wo private QAnon-Gruppen Hunderttausende erreichen können und besonders schwer zu moderieren sind.

Berichten zufolge plant Facebook einen ähnlichen Schritt um die Gruppe zu moderieren, so die New York Times, und damit in die Fußstapfen von Twitter und TikTok treten.

„Wenn Plattformen QAnon verbieten wollen, tun sie das oft gleichzeitig, um zahlenmäßig stärker zu werden“, sagte Partin. „Aber es ist wirklich schwierig, eine Politik zu QAnon zu entwickeln, weil es sich bei vielen davon nur um normale konservative Wählerschaftsthemen handelt.“

Partin sagte das Einzige, von dem er hofft, dass die Menschen die Gefahren von QAnon-bezogenen Inhalten in sozialen Medien verstehen Es kommt nicht darauf an, wie weit verbreitet oder tiefgreifend an seine Verschwörungen geglaubt wird, sondern auf das Risiko, den „Teilen“-Knopf zu drücken selbst.

„Es ist unmöglich, die Absichten einer Person zu kennen, aber die Absicht ist nicht so wichtig“, sagte er. „Es ist mir eigentlich egal, ob sie das glauben oder nicht, sie tun so, als ob sie es tun, und sie verbreiten diesen Inhalt und diese Glaubwürdigkeit, unabhängig von der Absicht dahinter.“

Empfehlungen der Redaktion

  • YouTube erleichtert neuen YouTubern das Geldverdienen
  • YouTube lockert die Regeln rund um Fluchen und Demonetarisierung
  • YouTube führt Handles ein. Folgendes müssen Sie wissen:
  • YouTube überarbeitet Kanalnamen mit @-Handles für alle
  • Bei der Suche nach Gesundheitsthemen auf YouTube werden jetzt persönliche Geschichten hervorgehoben

Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.