Bisakah Snap menyelamatkan internet dari berita palsu? Inilah senjata rahasia perusahaan

Vagelis PapalexakisTepi Sungai UC

Saat Snapchat pertama kali diperkenalkan sebagai bagian dari kelas teknik mesin di Stanford, asisten pengajar kursus tersebut yang merasa ketakutan secara terbuka bertanya-tanya apakah pembuat aplikasi tersebut telah membuat aplikasi sexting. Kurang dari satu dekade kemudian, Snapchat dapat membantu memecahkan salah satu masalah terbesar yang dihadapi teknologi saat ini: menghentikan penggunaan teknologi penyebaran “berita palsu” online.

Isi

  • Sinyal berita palsu?
  • Permainan kucing-dan-tikus untuk segala usia

Dengan mengingat tujuan ini, Snap Research — divisi penelitian Snap, Inc. — baru-baru ini menyumbangkan dana ke proyek University of California, Riverside, yang bertujuan untuk menemukan cara baru mendeteksi berita palsu secara online. Itu algoritma UC Riverside telah dikembangkan dilaporkan mampu mendeteksi berita palsu dengan tingkat akurasi yang mengesankan hingga 75 persen. Dengan dukungan Snap, mereka berharap dapat lebih meningkatkannya.

Video yang Direkomendasikan

“Sejauh yang saya pahami, mereka sangat tertarik untuk memiliki pemahaman yang baik tentang bagaimana seseorang dapat memahami masalah ini – dan pada akhirnya menyelesaikannya.”

“Snap bukanlah salah satu perusahaan pertama yang terlintas dalam pikiran mengingat [masalah ini],” Vagelis Papalexakis, Asisten Profesor di Departemen Ilmu & Teknik Komputer di UC Riverside, mengatakan kepada Digital Trends. “Meski begitu, Snap adalah perusahaan yang menangani konten. Sejauh yang saya pahami, mereka sangat tertarik untuk memiliki pemahaman yang baik tentang bagaimana seseorang dapat memahami masalah ini – dan pada akhirnya menyelesaikannya.”

Apa yang membuat penelitian UC Riverside berbeda dengan lusinan, bahkan mungkin ratusan, proyek penelitian lain yang mencoba memutus siklus berita palsu adalah ambisi dari proyek tersebut. Ini bukan pemblokir kata kunci sederhana, juga tidak bertujuan untuk melarang URL tertentu. Mungkin juga yang paling menarik adalah ia tidak tertarik pada fakta-fakta yang terdapat dalam cerita. Hal ini membedakannya dari situs pengecekan fakta seperti Snopes, yang mengandalkan masukan dan evaluasi manusia, bukan otomatisasi sebenarnya.

“Saya tidak terlalu mempercayai anotasi manusia,” kata Papalexakis. “Bukan karena aku tidak mempercayai manusia, tapi karena ini adalah masalah yang sulit untuk mendapatkan jawaban yang pasti. Motivasi kami untuk melakukan hal ini berasal dari pertanyaan seberapa banyak yang dapat kami lakukan hanya dengan melihat datanya saja, dan apakah kami dapat menggunakan penjelasan manusia sesedikit mungkin – jika ada.”

Sinyal berita palsu?

Algoritme baru ini melihat sebanyak mungkin “sinyal” dari sebuah berita, dan menggunakannya untuk mencoba mengklasifikasikan artikel tersebut dapat dipercaya. Papalexakis berkata: “Siapa yang membagikan artikel itu? Hashtag apa yang mereka gunakan? Siapa yang menulisnya? Dari organisasi berita mana? Seperti apa tampilan halaman webnya? Kami mencoba mencari tahu faktor-faktor mana yang penting dan seberapa besar pengaruhnya.”

Misalnya, tagar #LockHerUp belum tentu mengonfirmasi bahwa suatu artikel adalah berita palsu. Namun, jika seseorang menambahkan akhiran ini saat mereka membagikan artikel di Twitter, hal ini dapat menunjukkan kecenderungan tertentu pada cerita tersebut. Tambahkan petunjuk-petunjuk ini secukupnya, dan idenya adalah bahwa bagian-bagian yang terpisah akan menghasilkan keseluruhan yang terungkap. Dengan kata lain, jika ia berjalan seperti bebek dan bersuara seperti bebek, kemungkinan besar ia adalah bebek. Atau, dalam hal ini, bot bebek Rusia yang berjalan terhuyung-huyung dan berkwek-kwek.

protes berita palsu
algoritma pendukung snapchat melawan protes berita palsu getty2

“Kepentingan kami adalah untuk memahami apa yang terjadi sejak awal, dan bagaimana kami dapat menandai sesuatu pada tahap awal sebelum hal tersebut mulai ‘menginfeksi’ jaringan,” lanjut Papalexakis. “Itulah yang menjadi perhatian kami saat ini: mencari tahu apa yang bisa kami dapatkan dari isi dan konteks artikel tertentu.”

Algoritme yang dikembangkan oleh kelompok Papalexakis menggunakan sesuatu yang disebut dekomposisi tensor untuk menganalisis berbagai aliran informasi tentang sebuah artikel berita. Tensor adalah kubus multidimensi, berguna untuk memodelkan dan menganalisis data yang memiliki banyak komponen berbeda. Dekomposisi tensor memungkinkan penemuan pola dalam data dengan memecah tensor menjadi bagian-bagian informasi dasar, yang mewakili pola atau topik tertentu.

“Bahkan sejumlah kecil artikel beranotasi dapat membawa kita pada tingkat akurasi yang sangat tinggi”

Algoritmenya pertama-tama menggunakan dekomposisi tensor untuk merepresentasikan data sedemikian rupa sehingga mengelompokkan kemungkinan berita palsu menjadi satu. Algoritme tingkat kedua kemudian menghubungkan artikel-artikel yang dianggap berdekatan. Memetakan hubungan antara pasal-pasal ini bergantung pada prinsip yang disebut “rasa bersalah karena asosiasi,” menunjukkan bahwa hubungan antara dua artikel berarti keduanya lebih mirip dengan satu artikel lain.

Setelah ini, pembelajaran mesin diterapkan pada grafik. Pendekatan “semi-supervisi” ini menggunakan sejumlah kecil artikel yang telah dikategorikan berdasarkan pengguna, dan kemudian menerapkan pengetahuan ini ke kumpulan data yang jauh lebih besar. Meskipun hal ini masih melibatkan manusia pada tingkat tertentu, hal ini melibatkan lebih sedikit anotasi manusia dibandingkan kebanyakan metode alternatif untuk mengklasifikasikan potensi berita palsu. Tingkat akurasi 75 persen yang disebut-sebut oleh para peneliti didasarkan pada pemfilteran dua kumpulan data publik dengan benar dan kumpulan tambahan 63.000 artikel berita.

“Bahkan sejumlah kecil artikel beranotasi dapat membawa kita pada tingkat akurasi yang sangat tinggi,” kata Papalexakis. “Jauh lebih baik daripada memiliki sistem di mana kami mencoba menangkap fitur-fitur individual, seperti linguistik, atau hal-hal lain yang mungkin dianggap misinformatif.”

Permainan kucing-dan-tikus untuk segala usia

Dari perspektif ilmu komputer, mudah untuk melihat mengapa karya ini menarik bagi Vagelis Papalexakis dan peneliti lain di UC Riverside — serta orang-orang di Snapchat. Mampu tidak hanya memilah berita palsu dari berita nyata, tetapi juga membedakan opini yang bias dari jurnalisme serius atau artikel satir dari Bawang merah adalah jenis teka-teki data besar yang diimpikan oleh para insinyur.

Namun, pertanyaan yang lebih besar adalah bagaimana algoritma ini akan digunakan – dan apakah algoritma ini pada akhirnya dapat membantu memberantas fenomena berita palsu.

Kontribusi Snap pada proyek ini (yang berjumlah “hadiah” $7.000 dan dukungan non-finansial tambahan) tidak menjamin bahwa perusahaan akan mengadopsi teknologi tersebut dalam produk komersial. Namun Papalexakis berharap penelitian ini pada akhirnya akan “mengarah pada transfer teknologi ke platform.”

Tujuan akhirnya, jelasnya, adalah untuk mengembangkan sistem yang mampu memberikan artikel apa pun dengan skor yang dapat dipercaya. Secara teori, skor seperti itu dapat digunakan untuk menyaring berita palsu bahkan sebelum sempat dilihat oleh pengguna.

Ide ini serupa dengan filter spam email pembelajaran mesin, yang juga menerapkan sistem penilaian berdasarkan faktor-faktor seperti rasio gambar dan teks di isi pesan. Namun, Papalexakis menyarankan bahwa pendekatan yang lebih baik adalah dengan memperingatkan pengguna akan hal tersebut cerita yang mendapat skor tinggi dalam kategori kemungkinan palsu — “dan kemudian biarkan pengguna memutuskan apa yang harus dilakukan dia."

Salah satu alasan bagusnya adalah kenyataan bahwa berita tidak selalu terbagi dengan rapi menjadi spam vs. kategori ham, seperti halnya email. Tentu saja, beberapa artikel mungkin benar-benar dibuat-buat, namun artikel lainnya mungkin lebih dipertanyakan: tidak menampilkan kebohongan langsung, namun tetap dimaksudkan untuk mengarahkan pembaca ke satu arah tertentu. Menghapus artikel-artikel ini, bahkan ketika kita mungkin menemukan pendapat yang bertentangan dengan pendapat kita sendiri, akan menjadi masalah yang lebih sulit.

“Ini masuk dalam wilayah abu-abu,” lanjut Papalexakis. “Tidak apa-apa jika kita bisa mengkategorikan ini sebagai artikel yang sangat bias. Ada kategori berbeda untuk apa yang kita sebut misinformasi. [Artikel yang sangat bias] mungkin tidak seburuk artikel palsu, namun tetap menjual sudut pandang tertentu kepada pembaca. Ini lebih bernuansa daripada palsu vs. Tidak palsu."

Pada akhirnya, meskipun Papalexakis berkeinginan untuk menghasilkan sistem yang hanya menggunakan sedikit pengawasan mungkin, dia mengakui bahwa ini adalah tantangan yang harus melibatkan manusia dan manusia mesin.

“Saya melihatnya sebagai permainan kucing-kucingan dari sudut pandang teknologi,” katanya. “Saya tidak berpikir bahwa mengatakan 'menyelesaikannya' adalah cara yang tepat untuk melihatnya. Menyediakan alat yang dapat membantu orang-orang memahami hal-hal tertentu tentang sebuah artikel adalah bagian dari solusi. Solusi ini akan menjadi alat yang dapat membantu Anda menilai segala sesuatunya sendiri, tetap terdidik sebagai warga negara yang aktif, memahami berbagai hal, dan membaca yang tersirat. Menurut saya, solusi teknologi saja tidak bisa diterapkan untuk mengatasi masalah ini, karena sebagian besar masalah ini bergantung pada manusia dan cara mereka memandang sesuatu.”

Rekomendasi Editor

  • Algoritma mengungguli manusia dalam mendeteksi berita palsu