Moderasi Media Sosial: Apa yang Dapat Dilakukan A.I. Tangkap -- Dan Dimana Kegagalannya?

Alat manajemen media sosial terbaik untuk usaha kecil
Panithan Fakseemuang/123RF
Kritik terhadap ujaran kebencian, ekstremisme, berita palsu, dan konten lain yang melanggar standar komunitas memiliki jaringan media sosial terbesar yang memperkuat kebijakan, menambah staf, dan bekerja kembali algoritma. Dalam Seri Pekerjaan Sosial (Jaringan), kami mengeksplorasi moderasi media sosial, melihat apa yang berhasil dan apa yang tidak, sambil mengkaji kemungkinan perbaikan.

Dari video korban bunuh diri di YouTube ke iklan yang menargetkan “pembenci Yahudi”, pada Facebook, platform media sosial diganggu oleh konten tidak pantas yang berhasil lolos. Dalam banyak kasus, respons platform adalah menerapkan algoritme yang lebih cerdas agar dapat mengidentifikasi konten yang tidak pantas dengan lebih baik. Namun apa yang benar-benar mampu ditangkap oleh kecerdasan buatan, seberapa besar kita harus memercayainya, dan di manakah kegagalannya?

“AI. dapat menangkap bahasa yang menyinggung dan dapat mengenali gambar dengan sangat baik. Kekuatan untuk mengidentifikasi gambar ada di sana,” kata Winston Binch, chief digital officer di

Jerman, agensi kreatif yang menggunakan A.I. dalam membuat kampanye digital untuk merek dari Target hingga Taco Bell. “Area abu-abu menjadi tujuannya.”

A.I. dapat membaca teks dan gambar, tetapi keakuratannya bervariasi

Menggunakan pemrosesan bahasa alami, A.I. dapat dilatih untuk mengenali teks dalam berbagai bahasa. Sebuah program yang dirancang untuk mengenali postingan yang melanggar pedoman komunitas, misalnya, dapat diajarkan untuk mendeteksi penghinaan rasial atau istilah yang terkait dengan propaganda ekstremis.

tren seluler asisten google ai

A.I. juga dapat dilatih untuk mengenali gambar, mencegah beberapa bentuk ketelanjangan, atau mengenali simbol seperti swastika. Ini berfungsi dengan baik dalam banyak kasus, tetapi tidak selalu mudah. Misalnya, Google Foto dikritik karena menandai gambar orang berkulit gelap dengan kata kunci "gorila." Bertahun-tahun kemudian, Google masih belum menemukan solusi untuk masalah tersebut, malah memilih untuk menghapusnya itu kemampuan program untuk menandai monyet dan gorila sepenuhnya.

Algoritme juga perlu diperbarui seiring dengan berkembangnya makna sebuah kata, atau untuk memahami bagaimana sebuah kata digunakan dalam konteks. Misalnya, pengguna Twitter LGBT baru-baru ini menyadari kurangnya hasil pencarian antara lain #gay dan #biseksual, sehingga beberapa orang merasa bahwa layanan tersebut menyensor istilah tersebut. Twitter meminta maaf atas kesalahan tersebut dan menyalahkannya algoritma yang ketinggalan jaman yang secara keliru mengidentifikasi postingan yang diberi tag dengan istilah yang berpotensi menyinggung. Twitter mengatakan algoritmenya seharusnya mempertimbangkan istilah tersebut dalam konteks postingan, namun gagal melakukannya dengan kata kunci tersebut.

A.I. bias

Kegagalan penandaan gorila memunculkan kelemahan penting lainnya — A.I. bias. Anda mungkin bertanya-tanya bagaimana komputer bisa menjadi bias, tetapi A.I. dilatih dengan melihat orang menyelesaikan tugas, atau dengan memasukkan hasil tugas tersebut. Misalnya, program untuk mengidentifikasi objek dalam sebuah foto sering kali dilatih dengan memasukkan ribuan gambar ke sistem yang awalnya ditandai dengan tangan.

Elemen manusia inilah yang memungkinkan A.I. untuk melakukan tugas tetapi pada saat yang sama memberikan bias kemanusiaan.

Elemen manusia inilah yang memungkinkan A.I. untuk menyelesaikan tugas yang sebelumnya tidak mungkin dilakukan pada perangkat lunak biasa, tetapi elemen manusia yang sama juga secara tidak sengaja memberikan bias manusia pada komputer. Sebuah A.I. Program ini hanya akan sebaik data pelatihannya — jika sistem tersebut sebagian besar memuat gambar laki-laki kulit putih, misalnya, program ini akan kesulitan mengidentifikasi orang dengan warna kulit lain.

“Salah satu kelemahan AI, secara umum, adalah memoderasi apa pun mulai dari komentar hingga pengguna kontennya, adalah bahwa hal itu secara inheren ditentukan oleh desain,” kata PJ Ahlberg, eksekutif teknis direktur Studio Bau New York, agensi yang menggunakan A.I. untuk membuat bot media sosial dan memoderasi kampanye merek.

Setelah set pelatihan dikembangkan, data tersebut sering kali dibagikan di antara pengembang, yang berarti bias menyebar ke beberapa program. Ahlberg mengatakan faktor itu berarti pengembang tidak dapat mengubah kumpulan data tersebut dalam program yang menggunakan banyak AI. sistem, sehingga sulit untuk menghilangkan bias apa pun setelah menemukannya.

A.I. tidak dapat menentukan niat

A.I. dapat mendeteksi swastika dalam sebuah foto — tetapi perangkat lunak tidak dapat menentukan cara penggunaannya. Facebook, misalnya, baru-baru ini meminta maaf setelahnya menghapus postingan yang berisi swastika namun disertai dengan teks permohonan untuk menghentikan penyebaran kebencian.

Ini adalah contoh kegagalan A.I. untuk mengenali niat. Facebook bahkan menandai fotonya patung Neptunus sebagai eksplisit secara seksual. Selain itu, algoritme mungkin secara tidak sengaja menandai karya foto jurnalistik karena simbol kebencian atau kekerasan yang mungkin muncul dalam gambar.

Gambar bersejarah yang dibagikan untuk tujuan pendidikan adalah contoh lainnya — pada tahun 2016, Facebook menimbulkan kontroversi setelahnya menghapus foto bersejarah “gadis napalm”. beberapa kali sebelum tekanan dari pengguna memaksa perusahaan untuk mengubah pendirian garis kerasnya terhadap ketelanjangan dan mengaktifkan kembali foto tersebut.

A.I. cenderung berfungsi sebagai penyaringan awal, namun moderator manusia sering kali masih diperlukan untuk menentukan apakah konten tersebut benar-benar melanggar standar komunitas. Meskipun ada kemajuan pada AI, fakta ini tidak berubah. Facebook, misalnya, menambah jumlah tim peninjaunya menjadi 20.000 orang pada tahun ini, dua kali lipat dari jumlah tahun lalu.

A.I. membantu manusia bekerja lebih cepat

Otak manusia mungkin masih diperlukan, tapi A.I. telah membuat prosesnya lebih efisien. A.I. dapat membantu menentukan postingan mana yang memerlukan peninjauan manusia, serta membantu memprioritaskan postingan tersebut. Pada tahun 2017, Facebook membagikan hal itu A.I. dirancang untuk mengenali kecenderungan bunuh diri telah menghasilkan 100 panggilan ke petugas tanggap darurat dalam satu bulan. Pada saat itu, Facebook mengatakan bahwa A.I. juga membantu menentukan postingan mana yang pertama kali dilihat oleh peninjau manusia.

Teman Peduli Facebook
Gambar Getty/Blackzheep

Gambar Getty/Blackzheep

“[AI. telah] menempuh perjalanan panjang dan pasti mengalami kemajuan, namun kenyataannya Anda masih sangat membutuhkan elemen manusia yang memverifikasi bahwa Anda mengubah kata-kata yang tepat, konten yang tepat, dan pesan yang tepat,” kata Chris Mele, direktur pelaksana di Stink Studio. “Dimana rasanya A.I. Yang terbaik adalah memfasilitasi moderator manusia dan membantu mereka bekerja lebih cepat dan dalam skala yang lebih besar. Saya tidak berpikir A.I. hampir 100 persen terotomatisasi pada platform apa pun.”

A.I. cepat, tetapi etikanya lambat

Teknologi, secara umum, cenderung tumbuh lebih cepat dibandingkan dengan kecepatan hukum dan etika – termasuk moderasi media sosial. Binch berpendapat bahwa faktor tersebut dapat berarti meningkatnya permintaan akan karyawan dengan latar belakang humaniora atau etika, sesuatu yang tidak dimiliki sebagian besar programmer.

Seperti yang dikatakannya, “Saat ini kita berada pada kondisi di mana laju dan kecepatannya begitu cepat, sehingga kita perlu memastikan bahwa komponen etika tidak tertinggal terlalu jauh.”

Rekomendasi Editor

  • Ketika hak cipta mempersulit pencarian soundtrack video, A.I. musisi dapat membantu
  • Dari 8K hingga A.I., inilah yang mungkin hadir pada kamera pada tahun 2019
  • Komputer akan segera mengakali kita. Apakah itu membuat A.I. pemberontakan tidak bisa dihindari?