Facebook Mengatakan Supremasi Kulit Putih 'Tidak Dapat Hadir' di Situsnya

Facebook menghapus lebih dari 200 organisasi supremasi kulit putih dari platformnya karena melanggar terorisme dan kebencian standar komunitas bicara, kata perwakilan Facebook kepada Digital Trends, sebagai bagian dari tindakan keras yang lebih luas terhadap hal-hal yang merugikan isi.

“Jika Anda adalah anggota atau pemimpin salah satu kelompok ini, Anda tidak dapat hadir Facebook,” Sarah Pollack, juru bicara perusahaan Facebook, mengatakan pada hari Rabu. Klasifikasi “terorisme” dan “perkataan kebencian” didasarkan pada perilaku, katanya.

Video yang Direkomendasikan

“Berdasarkan perilaku mereka, beberapa organisasi supremasi kulit putih yang kami larang di bawah kategori Dangerous Kebijakan Individu dan Organisasi dilarang sebagai organisasi teroris, yang lain dilarang sebagai organisasi terorganisir kelompok kebencian.”

Sebelumnya, Facebook berkonsentrasi pada ISIS, Al-Qaeda, dan afiliasinya, dan kini telah memperluas definisinya, yang berarti beberapa kelompok supremasi kulit putih kini disertakan.

Selain itu, Pollack berkata, “orang lain tidak boleh memposting konten, mendukung, memuji, atau mewakili [kelompok tersebut]. Ini untuk kelompok, individu, serta serangan yang diklaim oleh kelompok tersebut.” Pollack juga mengatakan bahwa penembak massal termasuk dalam kategori ini.

Secara total, Facebook mengatakan telah menghapus lebih dari 22,8 juta konten Facebook dan sekitar 4,4 juta postingan dari Instagram pada kuartal kedua dan ketiga tahun 2019 karena melanggar standar komunitas mereka, menurut laporan keempat kalinya. Laporan Penegakan Standar Komunitas yang dirilis pada hari Rabu.

Facebook juga mengatakan pihaknya mampu “mendeteksi secara proaktif” lebih dari 96% kasus konten yang menyinggung itu diturunkan dari Facebook dan lebih dari 77% di antaranya berasal dari Instagram.

Hal ini menandai pertama kalinya Instagram dimasukkan dalam Laporan Standar Komunitas, dan juga pertama kalinya Facebook termasuk data tentang bunuh diri dan melukai diri sendiri.

“Kami bekerja sama dengan para ahli untuk memastikan keselamatan semua orang dipertimbangkan,” Guy Rosen, wakil presiden Facebook Integrity, mengatakan dalam sebuah pernyataan. penyataan. “Kami menghapus konten yang menggambarkan atau mendorong bunuh diri atau melukai diri sendiri, termasuk gambar grafis tertentu dan penggambaran real-time yang menurut para ahli dapat mengarahkan orang lain untuk melakukan perilaku serupa.”

Rosen juga menulis bahwa Facebook telah “melakukan perbaikan pada teknologi kami untuk menemukan dan menghapus lebih banyak konten yang melanggar,” termasuk memperluas data tentang propaganda teroris. Facebook mengatakan mereka telah mengidentifikasi berbagai kelompok sebagai organisasi teroris dan telah berhasil secara proaktif menghapus, kata mereka, 99% konten yang terkait dengan Al-Qaeda, ISIS, dan afiliasinya.

Selain itu, mereka mengatakan telah memperluas upaya mereka untuk secara proaktif mendeteksi dan menghapus 98,5% Facebook konten dari “semua organisasi teroris” selain Al-Qaeda dan ISIS, dan 92,2% postingan serupa di Instagram.

Platform tersebut juga mengatakan telah menghapus 11,6 juta postingan dari Facebook pada Q3 tahun 2018 yang berisi kematian karena ketelanjangan anak-anak dan eksploitasi, 99% di antaranya terdeteksi secara proaktif, dan jauh lebih tinggi dibandingkan 5,8 juta postingan yang dihapus pada Q1 tahun 2018. Di Instagram, mereka mengatakan telah menghapus sekitar 1,3 juta postingan.

Mengenai penjualan gelap obat-obatan terlarang dan senjata api, Facebook juga mengatakan pihaknya telah meningkatkan tingkat penghapusan dari Q1 ke Q3, dengan menghapus total 5,9 juta postingan dari Facebook dan sekitar 2,4 juta dari Instagram.

Rekomendasi Editor

  • Apakah Facebook memonopoli data Anda? Jaringan menghadapi pengawasan antimonopoli

Tingkatkan gaya hidup AndaTren Digital membantu pembaca mengawasi dunia teknologi yang bergerak cepat dengan semua berita terkini, ulasan produk yang menyenangkan, editorial yang berwawasan luas, dan cuplikan unik.