Facebook sier White Supremacists "Cannot Have a Presence" på nettstedet

Facebook fjernet mer enn 200 hvite overherredømmeorganisasjoner fra sin plattform for å krenke både terrorisme og hat talesamfunnsstandarder, sa en Facebook-representant til Digital Trends, som en del av et bredere angrep på skadelige innhold.

«Hvis du er medlem eller leder av en av disse gruppene, kan du ikke ha tilstedeværelse på Facebook", sa Sarah Pollack, en talsperson for Facebook-selskapet, onsdag. Klassifikasjonene av "terrorisme" og "hatfulle ytringer" er basert på oppførsel, sa hun.

Anbefalte videoer

"Basert på deres oppførsel, noen av de hvite overherredømmeorganisasjonene vi har forbudt under vår Dangerous Personer og organisasjoners politikk ble forbudt som terrororganisasjoner, de andre ble forbudt som organiserte hatgrupper."

Tidligere konsentrerte Facebook seg om ISIS, Al-Qaida og deres tilknyttede selskaper, og har nå utvidet definisjonen, noe som betyr at noen hvite overherredømmegrupper nå er inkludert.

I tillegg sa Pollack, "andre mennesker kan ikke legge ut innhold, støtte ros eller representere [disse gruppene]. Dette er for grupper, enkeltpersoner, så vel som angrep som hevdes av disse gruppene.» Pollack sa også at masseskyttere ville falle inn under denne kategorien.

Totalt sier Facebook at de har fjernet mer enn 22,8 millioner deler av innholdet fra Facebook og rundt 4,4 millioner innlegg fra Instagram i andre og tredje kvartal 2019 for brudd på fellesskapsstandardene deres, ifølge dets fjerde noensinne Community Standard Enforcement Report som ble sluppet onsdag.

Facebook sa også at det var i stand til å "proaktivt oppdage" mer enn 96% av støtende innhold det tok ned fra Facebook og mer enn 77 % av det fra Instagram.

Dette markerte første gang Instagram ble inkludert i Community Standards Report, så vel som første gang det Facebook inkludert data om selvmord og selvskading.

"Vi samarbeider med eksperter for å sikre at alles sikkerhet blir vurdert," sa Guy Rosen, visepresident for Facebook Integrity, i en uttalelse. «Vi fjerner innhold som skildrer eller oppmuntrer til selvmord eller selvskading, inkludert visse grafiske bilder og sanntidsskildringer som eksperter forteller oss kan føre til at andre engasjerer seg i lignende oppførsel.»

Rosen skrev også at Facebook hadde «gjort forbedringer av teknologien vår for å finne og fjerne mer krenkende innhold», inkludert utvidelse av data om terrorpropaganda. Facebook sa at de hadde identifisert et bredt spekter av grupper som terrororganisasjoner og hadde klart å proaktivt fjerne, sa de, 99 % av innholdet knyttet til Al-Qaida, ISIS og deres tilknyttede selskaper.

I tillegg sa de at de hadde utvidet innsatsen for proaktivt å oppdage og fjerne 98,5 % av Facebook innhold fra «alle terrororganisasjoner» utover bare Al-Qaida og ISIS, og 92,2 % av lignende innlegg på Instagram.

Plattformen sa også at den fjernet 11,6 millioner innlegg fra Facebook i 3. kvartal 2018 om at døden med barns nakenhet og utnyttelse, hvorav 99 % ble oppdaget proaktivt, og betydelig høyere enn de 5,8 millioner innleggene som ble fjernet i 1. kvartal av 2018. På Instagram sa de at de fjernet rundt 1,3 millioner innlegg.

Når det gjelder ulovlig salg av narkotika og skytevåpen, sa Facebook også at de hadde forbedret nedtakingshastigheten betydelig fra 1. til 3. kvartal, og fjernet totalt 5,9 millioner innlegg fra Facebook og rundt 2,4 millioner fra Instagram.

Redaktørenes anbefalinger

  • Har Facebook monopol på dataene dine? Nettverket står overfor antitrustgransking

Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.