Manusia Tidak Bisa Menghentikan Perkataan Kebencian di Internet Sendirian. Kami Membutuhkan Bot untuk Membantu

Jon Tyson

Internet mempunyai masalah ujaran kebencian.

Isi

  • Ini adalah pekerjaan untuk otomatisasi. Agak
  • Membuat masalah menjadi lebih buruk, bukan menjadi lebih baik
  • Perang di dua front
  • Tantangan yang berkelanjutan
  • Masa depan wacana di internet

Kunjungi bagian komentar YouTube mana pun atau jelajahi media sosial bahkan untuk waktu yang singkat dan Anda akan menemukan banyak komentar yang menyinggung dan sering kali berprasangka buruk. Tapi bagaimana Anda mengatasi masalah ini? Dan, dengan melakukan hal ini, bagaimana Anda menghindari memperburuk keadaan secara tidak sengaja?

Bulan ini, dua A.I. algoritma diumumkan: Satu dibuat di Inggris, yang lain di AS. Keduanya suatu hari nanti dapat digunakan untuk menjelajahi media sosial atau area lain di dunia online, dan menyoroti perkataan yang mendorong kebencian atau perkataan yang menyinggung sehingga dapat dilaporkan, dihapus, atau diblokir.

Video yang Direkomendasikan

Yang pertama, dikembangkan oleh para peneliti dari Universitas Exeter di Inggris, adalah a

alat bernama Lola yang memanfaatkan “kemajuan terbaru dalam pemrosesan bahasa alami dan teori perilaku” untuk memindai ribuan pesan dalam satu menit guna mengungkap konten kebencian. “Tingkat akurasinya luar biasa dibandingkan dengan solusi yang ada di pasar,” Dr, salah satu pencipta Lola, mengatakan kepada Digital Trends.

Yang kedua, karya peneliti di Universitas Southern California, mengaku mampu melakukan hal serupa. “Algoritme yang kami kembangkan adalah pengklasifikasi teks, yang mengambil postingan media sosial – atau kemungkinan teks lainnya – dan memprediksi apakah teks tersebut berisi perkataan yang mendorong kebencian atau tidak,” Brendan Kennedy, seorang Ph.D. siswa yang mengerjakan proyek tersebut, mengatakan kepada Digital Trends.

Ini adalah pekerjaan untuk otomatisasi. Agak

Untuk memahami mengapa kita perlu beralih ke solusi otomatis untuk memecahkan masalah paling manusiawi ini, penting untuk memahami skala media sosial. Setiap detik dalam sehari, rata-rata 6.000 tweet terkirim. Ini setara dengan 350.000 tweet per menit, 500 juta tweet per hari, atau 200 miliar tweet per tahun. Pada Facebook, sekitar 35 juta orang memperbarui status mereka setiap hari.

Bahkan bagi raksasa teknologi yang memiliki staf yang baik, angka-angka tersebut membuat moderator manusia tidak mungkin melakukan moderasi yang diperlukan sendiri. Keputusan seperti itu harus diambil dengan sangat cepat, tidak hanya agar tetap mengetahui konten baru yang dihasilkan setiap saat, namun juga agar pesan tertentu tidak dilihat oleh banyak pengguna. Algoritme yang dirancang dengan baik adalah satu-satunya cara praktis untuk memecahkan masalah ini.

“Setiap detiknya, rata-rata 6.000 tweet terkirim. Ini setara dengan 350.000 tweet per menit, 500 juta tweet per hari, atau 200 miliar tweet per tahun.”

Dengan menggunakan pembelajaran mesin, kita dapat – setidaknya secara teori – mengembangkan alat yang dapat dilatih untuk mencari ujaran kebencian atau ujaran yang menyinggung sehingga dapat dihapus atau dilaporkan. Tapi ini tidak mudah. Perkataan yang mendorong kebencian adalah istilah yang luas dan kontroversial. Upaya untuk mendefinisikannya secara legal atau bahkan informal di kalangan manusia terbukti sulit. Beberapa contoh perkataan yang mendorong kebencian mungkin sangat jelas sehingga tidak seorang pun dapat membantahnya. Namun kasus lain mungkin lebih halus; jenis tindakan yang lebih cenderung digolongkan sebagai “agresi mikro”. Seperti yang dikatakan oleh Hakim Agung Amerika Serikat Potter Stewart tentang kecabulan: “Saya mengetahuinya ketika saya melihatnya.”

“Ada banyak jenis ujaran kebencian [dan] bahasa yang menyinggung,” kata Kennedy kepada Digital Trends. “Beberapa perkataan yang mendorong kebencian mudah ditandai – misalnya, hinaan. Namun sebagian besar ujaran kebencian memiliki retorika yang rumit, bersifat menjelek-jelekkan dan tidak manusiawi melalui metafora, stereotip budaya tertentu, dan ‘peluit anjing’.”

Membuat masalah menjadi lebih buruk, bukan menjadi lebih baik

A.I. Alat-alat tersebut terbukti tidak efektif karena alat-alat tersebut terlalu blak-blakan untuk mengungkap contoh-contoh prasangka online yang lebih kompleks. Algoritma pendeteksi ujaran kebencian yang dirancang dengan buruk, tidak mampu menghentikan ujaran kebencian secara online sebenarnya telah terbukti memperkuat hal-hal seperti bias rasial dengan memblokir tweet yang tidak menyinggung yang dikirim oleh kelompok minoritas kelompok. Hal ini bisa berupa sesuatu yang sederhana seperti fakta bahwa pengklasifikasi ujaran kebencian terlalu sensitif terhadap istilah-istilah seperti itu “Kulit Hitam”, “gay”, atau “transgender” yang mungkin lebih mungkin diasosiasikan dengan konten kebencian pada beberapa orang pengaturan.

Sama seperti chatbot Tay dari Microsoft yang terkenal, yang belajar perilaku rasis setelah berinteraksi dengan pengguna, pengklasifikasi yang dilatih berdasarkan data teks media sosial asli dapat menjadi sangat bergantung pada kata-kata tertentu sambil mengabaikan atau tidak menyadari konteks di sekitarnya.

S

Kemampuan untuk menganalisis pesan online dengan lebih baik dalam konteksnya adalah apa yang dilakukan oleh dua A.I. janji sistem deteksi. Sistem Lola di Inggris mengklaim mampu menganalisis 25.000 pesan per menit untuk mendeteksi perilaku berbahaya – termasuk cyberbullying, kebencian, dan Islamofobia – dengan akurasi hingga 98%. Salah satu caranya adalah dengan melihat tidak hanya pada kata kunci, namun dengan menggunakan “mesin pendeteksi emosi” untuk mencari tahu emosi apa yang muncul dalam teks — apakah itu cinta, kemarahan, ketakutan, kepercayaan, atau lainnya.

Sementara itu, Universitas Southern California A.I. sistem deteksi menjanjikan untuk melihat konteks serta konten.

“Titik awal kami dalam penelitian ini adalah metode standar, yang mengkodekan rangkaian token teks menjadi numerik vektor, yang [kemudian] digunakan untuk menghasilkan label kelas 'benci' atau 'tidak benci' secara probabilistik,'” Brandon dikatakan. “Dengan menggunakan algoritma ‘penjelasan post-hoc’ yang dikembangkan oleh anggota tim kami, kami memprogram ujaran kebencian pengklasifikasi untuk kurang mementingkan pengidentifikasi kelompok, dan lebih mementingkan konteks di sekitar kelompok pengidentifikasi.”

Sistem ini diuji dengan menganalisis artikel dari situs supremasi kulit putih Stormfront dan laporan yang lebih netral dari New York Times. Pembuatnya mengklaim mampu memilah konten kebencian dari konten non-kebencian dengan tingkat akurasi 90%.

Perang di dua front

Namun, bukan hanya peneliti independen yang mengembangkan alat untuk mendeteksi ujaran kebencian. Jejaring sosial juga berupaya mengatasi masalah ini.

“Kami sekarang menghapus 10 juta keping Kebencian seperempatnya,” Amit Bhattacharyya, direktur manajemen produk di grup integritas komunitas Facebook, mengatakan kepada Digital Trends. “Dari jumlah itu, sekitar 90% terdeteksi sebelum pengguna melaporkannya kepada kami. Kami telah berinvestasi lebih banyak – dan menjadi lebih baik – secara proaktif mendeteksi konten yang berpotensi melanggar, termasuk ujaran kebencian.”

Teknik pendeteksian Facebook, jelas Bhattacharyya, berfokus pada hal-hal seperti pencocokan teks dan gambar mencari gambar dan rangkaian teks serupa yang telah dihapus sebagai ujaran kebencian di tempat lain di Internet platform. Ini juga menggunakan pengklasifikasi pembelajaran mesin yang menganalisis bahasa dan tipe konten lainnya. Facebook juga memiliki poin data tambahan, karena Facebook dapat melihat reaksi dan komentar terhadap sebuah postingan untuk mengetahui caranya hal ini sangat cocok dengan frasa, pola, dan serangan umum yang terlihat sebelumnya pada konten yang melanggar ujaran kebencian kebijakan.

“Menindak perilaku kasar secara online tidak harus bersifat reaktif. Ini juga bisa menjadi proaktif.”

Twitter juga menggunakan alat pembelajaran mesin untuk menindak konten kebencian. Beberapa di antaranya berbasis kata kunci, namun Twitter juga menganalisis perilaku pengguna untuk mencoba menentukan seberapa nyaman pengguna dalam berinteraksi. Misalnya, pengguna yang men-tweet ke pengguna lain dan dibalas lalu diikuti akan dipandang berbeda dengan pengguna yang men-tweet langsung ke orang lain berulang kali tetapi diabaikan atau diblokir. Dinamika perilaku ini dapat membantu mengungkap pola pelecehan atau perilaku tidak diinginkan yang kemudian dapat digunakan Twitter untuk lebih memahami konten yang terjadi di platformnya.

Namun, juru bicara Twitter mengatakan kepada Digital Trends bahwa pesan yang ditandai sebagai menyinggung akan ditinjau secara manual oleh manusia (dalam urutan yang diprioritaskan mesin) untuk menentukan bahwa mereka telah diidentifikasi dengan benar seperti.

Tantangan yang berkelanjutan

Bhattacharyya dari Facebook mengatakan bahwa jejaring sosial tersebut telah membuat “kemajuan besar” selama bertahun-tahun dalam mengekang ujaran kebencian di platformnya dan bahwa timnya bangga dengan apa yang telah dicapainya. Pada saat yang sama, Bhattacharyya berkata, “Pekerjaan kami tidak pernah selesai dan kami tahu bahwa kami mungkin tidak akan pernah bisa mencegah setiap konten kebencian muncul di platform kami.”

Kenyataan yang menyedihkan adalah bahwa ujaran kebencian online mungkin tidak akan pernah bisa diselesaikan sebagai sebuah masalah. Setidaknya, bukan tanpa orang-orang yang melakukan perubahan. Internet mungkin, namun merugikan, memperkuat suara-suara manusia tertentu, dan menanamkan serta mengkodifikasikan prasangka manusia tertentu, namun hal ini terjadi karena internet hanyalah sebuah hal yang bersifat kemanusiaan. Masalah apa pun yang ada di dunia nyata, sampai batas tertentu, akan menyebar ke dunia online.

Trump dengan gambar bergaya logo Facebook dan Twitter
Getty Images/Grafik Tren Digital

Meskipun demikian, menindak perilaku kasar secara online tidak harus bersifat reaktif. Ini juga bisa menjadi proaktif. Misalnya, juru bicara Twitter yang berbicara dengan Digital Trends menunjukkan bahwa, dari pengguna yang akunnya diblokir selama 12 jam karena pelanggaran aturan, mayoritas kembali melakukan pelanggaran. Hal ini menunjukkan bahwa momen pembelajaran dapat terjadi. Baik mereka benar-benar meminta pengguna untuk memeriksa kembali perilaku mereka atau sekadar menghentikan mereka berperilaku yang melanggar aturan, hal ini tetap mengurangi perilaku melanggar aturan yang mengganggu di platform.

Juru bicaranya juga mengatakan bahwa Twitter kini sedang menjajaki sistem berbasis “dorongan”. Ini akan memberikan petunjuk sebelum pengguna men-tweet, memperingatkan mereka bahwa apa yang akan mereka posting dapat melanggar aturan Twitter. Ini mungkin karena kata kunci tertentu. Saat membagikan artikel yang belum Anda buka melalui Twitter, artikel tersebut mungkin juga memberikan peringatan. Sistem dorongan ini baru-baru ini diuji dengan sejumlah kecil pengguna. Meskipun uji coba telah selesai, ada kemungkinan fitur ini dapat diluncurkan sebagai fitur untuk semua pengguna di masa mendatang.

Masa depan wacana di internet

Pertanyaan tentang ujaran kebencian dan ujaran ofensif lainnya di media sosial kini semakin mendesak. Di Perancis, misalnya, a undang-undang disahkan pada bulan Mei yang menyerukan agar konten kriminal tertentu dihapus dari media sosial dalam waktu satu jam. Jika tidak, perusahaan media sosial tersebut akan dikenakan denda hingga 4% dari pendapatan global mereka. Konten lain yang “jelas-jelas terlarang” harus dihapus dalam waktu 24 jam. Menteri Kehakiman Nicole Belloubet mengatakan kepada Parlemen Prancis bahwa undang-undang tersebut akan membantu mengurangi ujaran kebencian di dunia maya.

Sejauh yang kami ketahui, belum ada undang-undang seperti itu yang diusulkan secara serius di Amerika Serikat. Namun ketika media sosial menjadi bagian yang semakin besar dan berpengaruh dalam cara kita berkomunikasi, tindakan keras terhadap perilaku beracun akan menjadi semakin penting. Ini bukanlah masalah yang hanya bisa diatasi oleh moderator manusia. Namun hal ini juga merupakan salah satu hal yang, ketika dilakukan dengan menggunakan AI, harus dilakukan dengan hati-hati — tidak hanya untuk memastikan bahwa hal tersebut akan membuat masalah menjadi lebih baik, namun juga untuk menjamin bahwa hal tersebut tidak akan memperburuk masalah.

Masa depan wacana di internet bergantung padanya.

Rekomendasi Editor

  • Bagaimana A.I. menciptakan cuplikan sorotan olahraga luar biasa yang tidak dapat Anda hentikan tontonannya