Facebook hat mehr als 200 weiße supremacistische Organisationen von seiner Plattform entfernt, weil sie sowohl gegen Terrorismus als auch gegen Hass verstoßen Ein Facebook-Vertreter erklärte gegenüber Digital Trends, dass dies Teil eines umfassenderen Vorgehens gegen schädliche Sprachregeln sei, sagte ein Facebook-Vertreter Inhalt.
„Wenn Sie Mitglied oder Anführer einer dieser Gruppen sind, können Sie dort nicht präsent sein Facebook“, sagte Sarah Pollack, eine Sprecherin des Facebook-Unternehmens, am Mittwoch. Die Klassifizierung von „Terrorismus“ und „Hassrede“ beruhe auf Verhalten, sagte sie.
Empfohlene Videos
„Aufgrund ihres Verhaltens haben wir einige der weißen supremacistischen Organisationen im Rahmen unseres Dangerous verboten Einzelpersonen und Organisationen wurden als terroristische Organisationen verboten, andere als organisierte Organisationen Hassgruppen.“
Zuvor konzentrierte sich Facebook auf ISIS, Al-Qaida und ihre Verbündeten und hat nun die Definition erweitert, sodass nun auch einige weiße supremacistische Gruppen einbezogen sind.
Darüber hinaus sagte Pollack: „Andere Personen dürfen keine Inhalte posten, die [diese Gruppen] loben oder vertreten.“ Dies gilt sowohl für Gruppen, Einzelpersonen als auch für Angriffe, die von diesen Gruppen behauptet werden.“ Pollack sagte auch, dass Massenschützen in diese Kategorie fallen würden.
Insgesamt hat Facebook nach eigenen Angaben mehr als 22,8 Millionen Inhalte entfernt
Facebook gab außerdem an, mehr als 96 % der Fälle „proaktiv erkennen“ zu können offensiver Inhalt es nahm ab
Dies war das erste und erste Mal, dass Instagram in den Community Standards Report aufgenommen wurde Facebook enthaltene Daten zu Selbstmord und Selbstverletzung.
„Wir arbeiten mit Experten zusammen, um sicherzustellen, dass die Sicherheit aller berücksichtigt wird“, sagte Guy Rosen, der Vizepräsident von Facebook Integrity, in einem Stellungnahme. „Wir entfernen Inhalte, die Selbstmord oder Selbstverletzung darstellen oder dazu ermutigen, einschließlich bestimmter grafischer Bilder und Echtzeitdarstellungen, von denen Experten sagen, dass sie andere zu ähnlichem Verhalten verleiten könnten.“
Rosen schrieb auch, dass Facebook „unsere Technologie verbessert hat, um mehr rechtsverletzende Inhalte zu finden und zu entfernen“, einschließlich der Erweiterung der Daten zu terroristischer Propaganda.
Darüber hinaus sagten sie, sie hätten ihre Bemühungen ausgeweitet, 98,5 % von Facebook proaktiv zu erkennen und zu entfernen Inhalte von „allen Terrororganisationen“ außer Al-Qaida und ISIS, und 92,2 % der ähnlichen Beiträge auf Instagram.
Die Plattform gab außerdem an, im dritten Quartal 2018 11,6 Millionen Beiträge von Facebook entfernt zu haben, in denen es um Tod mit Kindernacktheit ging 99 % davon wurden proaktiv erkannt und liegen deutlich über den 5,8 Millionen entfernten Beiträgen im ersten Quartal von 2018. Auf Instagram gaben sie an, rund 1,3 Millionen Beiträge entfernt zu haben.
Was den illegalen Verkauf von Drogen und Schusswaffen anbelangt, gab Facebook außerdem an, die Löschungsrate vom ersten zum dritten Quartal erheblich verbessert zu haben und insgesamt 5,9 Millionen Beiträge entfernt zu haben
Empfehlungen der Redaktion
- Hat Facebook ein Monopol auf Ihre Daten? Das Netzwerk steht vor einer kartellrechtlichen Prüfung
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.