Facebook diz que supremacistas brancos ‘não podem ter presença’ em seu site

O Facebook removeu mais de 200 organizações de supremacia branca de sua plataforma por violarem o terrorismo e o ódio padrões da comunidade de fala, disse um representante do Facebook à Digital Trends, como parte de uma repressão mais ampla contra contente.

“Se você é membro ou líder de um desses grupos, não pode estar presente no Facebook”, disse Sarah Pollack, porta-voz da empresa no Facebook, na quarta-feira. As classificações de “terrorismo” e “discurso de ódio” baseiam-se no comportamento, disse ela.

Vídeos recomendados

“Com base no seu comportamento, algumas das organizações de supremacia branca que proibimos sob a nossa Política Perigosa A política de indivíduos e organizações foi banida como organizações terroristas, as outras foram banidas como organizadas grupos de ódio.”

Anteriormente, o Facebook concentrava-se no ISIS, na Al-Qaeda e nas suas afiliadas, e agora expandiu a definição, o que significa que alguns grupos de supremacia branca estão agora incluídos.

Além disso, disse Pollack, “outras pessoas não podem postar conteúdo, apoiar, elogiar ou representar [esses grupos]. Isto se aplica a grupos, indivíduos, bem como a ataques reivindicados por esses grupos.” Pollack também disse que os atiradores em massa se enquadrariam nesta categoria.

No total, o Facebook afirma ter removido mais de 22,8 milhões de conteúdos de Facebook e cerca de 4,4 milhões de postagens do Instagram no segundo e terceiro trimestre de 2019 por violarem os padrões da comunidade, de acordo com o quarto Relatório de aplicação de padrões comunitários que foi lançado quarta-feira.

O Facebook também disse que foi capaz de “detectar proativamente” mais de 96% dos conteúdo ofensivo ele desceu de Facebook e mais de 77% disso do Instagram.

Isto marcou a primeira vez que o Instagram foi incluído no Relatório de Padrões da Comunidade, bem como a primeira vez que Facebook incluíram dados sobre suicídio e automutilação.

“Trabalhamos com especialistas para garantir que a segurança de todos seja considerada”, disse Guy Rosen, vice-presidente de Integridade do Facebook, em um comunicado. declaração. “Removemos conteúdo que retrata ou incentiva o suicídio ou a automutilação, incluindo certas imagens gráficas e representações em tempo real que os especialistas nos dizem que podem levar outras pessoas a se envolverem em comportamentos semelhantes.”

Rosen também escreveu que o Facebook “fez melhorias em nossa tecnologia para encontrar e remover mais conteúdo violador”, incluindo a expansão de dados sobre propaganda terrorista. Facebook disseram ter identificado uma ampla gama de grupos como organizações terroristas e conseguido remover proativamente, disseram, 99% do conteúdo associado à Al-Qaeda, ISIS e suas afiliadas.

Além disso, eles disseram que ampliaram seus esforços para detectar e remover proativamente 98,5% dos usuários do Facebook. conteúdo de “todas as organizações terroristas”, além da Al-Qaeda e do ISIS, e 92,2% de postagens semelhantes em Instagram.

A plataforma também disse que removeu 11,6 milhões de postagens do Facebook no terceiro trimestre de 2018 que diziam que morte com nudez infantil e exploração, 99% da qual foi detectada proativamente, e significativamente superior aos 5,8 milhões de postagens removidas no primeiro trimestre de 2018. No Instagram, eles disseram que removeram cerca de 1,3 milhão de postagens.

Sobre a venda ilícita de drogas e armas de fogo, o Facebook também disse que melhorou muito sua taxa de remoção do primeiro ao terceiro trimestre, removendo um total de 5,9 milhões de postagens de Facebook e cerca de 2,4 milhões do Instagram.

Recomendações dos Editores

  • O Facebook tem o monopólio dos seus dados? Rede enfrenta escrutínio antitruste

Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.