Facebook säger att vita supremacister "inte kan ha en närvaro" på sin webbplats

click fraud protection

Facebook tog bort mer än 200 vita supremacistiska organisationer från sin plattform för att kränka både terrorism och hat talgemenskapsstandarder, sa en Facebook-representant till Digital Trends, som en del av ett bredare tillslag mot skadliga innehåll.

"Om du är medlem eller ledare i någon av dessa grupper kan du inte vara närvarande Facebook", sa Sarah Pollack, en talesperson för Facebook-företaget, på onsdagen. Klassificeringen av "terrorism" och "hatfullhet" är baserad på beteende, sa hon.

Rekommenderade videor

"Baserat på deras beteende, några av de vita supremacistiska organisationerna som vi har förbjudit under vår Dangerous Individer och organisationers politik förbjöds som terroristorganisationer, de andra förbjöds som organiserade hatgrupper."

Tidigare har Facebook koncentrerat sig på ISIS, Al-Qaida och deras medlemsförbund och har nu utökat definitionen, vilket innebär att vissa vita supremacistiska grupper nu ingår.

Dessutom sa Pollack, "andra människor kan inte lägga upp innehåll, stödja beröm eller representera [dessa grupper]. Detta är för grupper, individer, såväl som attacker som hävdas av dessa grupper." Pollack sa också att masskjutare skulle falla under denna kategori.

Totalt säger Facebook att det tagit bort mer än 22,8 miljoner delar av innehåll från Facebook och cirka 4,4 miljoner inlägg från Instagram under andra och tredje kvartalet 2019 för att ha brutit mot deras community-standarder, enligt dess fjärde någonsin Gemenskapens standardtillämpningsrapport som släpptes i onsdags.

Facebook sa också att det kunde "proaktivt upptäcka" mer än 96% av stötande innehåll det tog ner från Facebook och mer än 77 % av det från Instagram.

Detta var första gången Instagram inkluderades i Community Standards Report, liksom första gången det Facebook inkluderade uppgifter om självmord och självskada.

"Vi arbetar med experter för att säkerställa att allas säkerhet beaktas," sa Guy Rosen, vicepresident för Facebook Integrity, i en påstående. "Vi tar bort innehåll som skildrar eller uppmuntrar till självmord eller självskada, inklusive vissa grafiska bilder och realtidsskildringar som experter säger till oss kan leda till att andra ägnar sig åt liknande beteende."

Rosen skrev också att Facebook hade "gjort förbättringar av vår teknik för att hitta och ta bort mer kränkande innehåll", inklusive utökad information om terroristpropaganda. Facebook sa att de hade identifierat ett brett spektrum av grupper som terroristorganisationer och att de proaktivt hade lyckats ta bort, sa de, 99 % av innehållet i samband med Al-Qaida, ISIS och deras medlemsförbund.

Dessutom sa de att de hade utökat sina ansträngningar för att proaktivt upptäcka och ta bort 98,5 % av Facebook innehåll från "alla terroristorganisationer" utöver bara Al-Qaida och ISIS, och 92,2 % av liknande inlägg på Instagram.

Plattformen sa också att den tog bort 11,6 miljoner inlägg från Facebook under tredje kvartalet 2018 som dödade med barns nakenhet och exploatering, varav 99 % upptäcktes proaktivt, och betydligt högre än de 5,8 miljoner inlägg som togs bort under första kvartalet av 2018. På Instagram sa de att de tagit bort cirka 1,3 miljoner inlägg.

När det gäller den olagliga försäljningen av droger och skjutvapen sa Facebook också att det avsevärt hade förbättrat sin nedtagningshastighet från första till tredje kvartalet, och tagit bort totalt 5,9 miljoner inlägg från Facebook och cirka 2,4 miljoner från Instagram.

Redaktörens rekommendationer

  • Har Facebook monopol på din data? Nätverket står inför antitrustgranskning

Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.