Facebook eliminó de su plataforma a más de 200 organizaciones supremacistas blancas por violar tanto el terrorismo como el odio estándares de la comunidad de expresión, dijo un representante de Facebook a Digital Trends, como parte de una ofensiva más amplia contra los dañinos contenido.
“Si eres miembro o líder de uno de estos grupos, no puedes tener presencia en Facebook”, dijo el miércoles Sarah Pollack, portavoz de la empresa Facebook. Las clasificaciones de “terrorismo” y “discurso de odio” se basan en el comportamiento, dijo.
Vídeos recomendados
“Según su comportamiento, algunas de las organizaciones supremacistas blancas que hemos prohibido bajo nuestro programa Peligroso Las políticas de individuos y organizaciones fueron prohibidas como organizaciones terroristas, las demás fueron prohibidas como organizadas. grupos de odio”.
Anteriormente, Facebook se concentraba en ISIS, Al-Qaeda y sus afiliados, y ahora ha ampliado la definición, lo que significa que ahora se incluyen algunos grupos supremacistas blancos.
Además, dijo Pollack, “otras personas no pueden publicar contenido, apoyando, alabando o representando [a esos grupos]. Esto es para grupos, individuos y ataques reivindicados por estos grupos”. Pollack también dijo que los tiradores masivos entrarían en esta categoría.
En total, Facebook dice que eliminó más de 22,8 millones de contenidos de
Facebook también dijo que pudo "detectar proactivamente" más del 96% de los contenido ofensivo se bajó de
Esta fue la primera vez que Instagram se incluyó en el Informe de estándares comunitarios, así como la primera vez que Facebook Incluyó datos sobre suicidio y autolesiones.
"Trabajamos con expertos para garantizar que se tenga en cuenta la seguridad de todos", dijo Guy Rosen, vicepresidente de Integridad de Facebook, en un declaración. "Eliminamos contenido que representa o fomenta el suicidio o la autolesión, incluidas ciertas imágenes gráficas y representaciones en tiempo real que, según los expertos, podrían llevar a otros a participar en comportamientos similares".
Rosen también escribió que Facebook había “realizado mejoras en nuestra tecnología para encontrar y eliminar más contenido infractor”, incluida la ampliación de datos sobre propaganda terrorista.
Además, dijeron que habían ampliado sus esfuerzos para detectar y eliminar de forma proactiva el 98,5% de las cuentas de Facebook. contenido de “todas las organizaciones terroristas” más allá de Al-Qaeda e ISIS, y el 92,2% de publicaciones similares en Instagram.
La plataforma también dijo que eliminó 11,6 millones de publicaciones de Facebook en el tercer trimestre de 2018 que decían que la muerte por desnudez infantil y explotación, el 99% de la cual se detectó de forma proactiva y significativamente mayor que los 5,8 millones de publicaciones eliminadas en el primer trimestre de 2018. En Instagram, dijeron que eliminaron alrededor de 1,3 millones de publicaciones.
En cuanto a la venta ilícita de drogas y armas de fuego, Facebook también dijo que había mejorado considerablemente su tasa de eliminación del primer al tercer trimestre, eliminando un total de 5,9 millones de publicaciones de
Recomendaciones de los editores
- ¿Tiene Facebook el monopolio sobre tus datos? La red se enfrenta al escrutinio antimonopolio
Mejora tu estilo de vidaDigital Trends ayuda a los lectores a mantenerse al tanto del vertiginoso mundo de la tecnología con las últimas noticias, reseñas divertidas de productos, editoriales interesantes y adelantos únicos.