Namun mungkin ada perbaikan – atau setidaknya cara untuk memantau algoritme dan mengetahui apakah algoritme tersebut telah melakukan diskriminasi yang tidak tepat terhadap suatu demografi.
Video yang Direkomendasikan
“Aturan prediksi yang dipelajari seringkali terlalu rumit untuk dipahami.”
Diusulkan oleh tim ilmuwan komputer dari Google, Universitas Chicago, dan Universitas Texas, Austin, tersebut Kesetaraan Peluang dalam Pembelajaran yang Diawasi Pendekatan ini menganalisis keputusan yang dibuat oleh program pembelajaran mesin — bukan proses pengambilan keputusan itu sendiri — untuk mendeteksi diskriminasi. Sifat dasar algoritma ini adalah membuat keputusan sendiri, dengan logikanya sendiri, dalam kotak hitam yang tersembunyi dari tinjauan manusia. Oleh karena itu, para peneliti melihat akses ke kotak hitam sebagai hal yang sia-sia.
“Aturan prediksi yang dipelajari seringkali terlalu rumit untuk dipahami,” ilmuwan komputer Universitas Chicago dan rekan penulisnya, Nathan Srebro, kepada Digital Trends. “Memang benar, inti dari pembelajaran mesin adalah untuk secara otomatis mempelajari aturan yang baik [secara statistik]…bukan aturan yang deskripsinya masuk akal bagi manusia. Dengan mempertimbangkan pandangan pembelajaran ini, kami juga ingin dapat memastikan rasa non-diskriminasi sambil tetap memperlakukan aturan yang dipelajari sebagai kotak hitam.”
Srebro dan rekan penulis Moritz Hardt dari Google dan Harga Eric dari UT Austin mengembangkan pendekatan untuk menganalisis keputusan suatu algoritma dan memastikannya tidak melakukan diskriminasi dalam proses pengambilan keputusan. Untuk melakukan hal ini, mereka memimpin dengan prinsip anti-prasangka bahwa keputusan mengenai seseorang tidak boleh hanya didasarkan pada demografi orang tersebut. Dalam kasus program AI, keputusan algoritme terhadap seseorang tidak boleh mengungkapkan apa pun tentang jenis kelamin atau ras orang tersebut dengan cara yang bersifat diskriminatif dan tidak pantas.
Ini adalah tes yang tidak menyelesaikan masalah secara langsung namun membantu menandai dan mencegah proses diskriminatif. Karena alasan ini, beberapa peneliti merasa waspada.
“Pembelajaran mesin sangat bagus jika Anda menggunakannya untuk menemukan cara terbaik dalam merutekan pipa minyak,” Noel Sharkey, profesor robotika dan AI emeritus di Universitas Sheffield, mengatakan Penjaga. “Sampai kita tahu lebih banyak tentang bagaimana bias terjadi pada mereka, saya akan sangat khawatir jika mereka membuat prediksi yang mempengaruhi kehidupan masyarakat.”
Srebro menyadari kekhawatiran ini namun tidak menganggapnya sebagai kritik menyeluruh terhadap pendekatan timnya. “Saya setuju bahwa banyak aplikasi yang memiliki dampak berisiko tinggi terhadap individu, terutama oleh pemerintah dan otoritas kehakiman, penggunaan prediktor statistik kotak hitam tidak tepat dan transparansi sangat penting,” dia berkata. “Dalam situasi lain, ketika digunakan oleh entitas komersial dan ketika taruhan individu lebih rendah, prediktor statistik black box mungkin tepat dan efisien. Mungkin sulit untuk sepenuhnya melarang hal tersebut, namun tetap diperlukan kontrol terhadap diskriminasi tertentu yang dilindungi.”
Itu makalah tentang Kesetaraan Peluang dalam Pembelajaran yang Diawasi adalah salah satu dari segelintir yang dipresentasikan bulan ini di Neural Information Processing Systems (NIPS) di Barcelona, Spanyol, yang menawarkan pendekatan untuk mendeteksi diskriminasi dalam algoritma, menurut Penjaga.
Rekomendasi Editor
- Google Bard akan segera menjadi pelatih kehidupan AI baru Anda
- Perusahaan AI baru Elon Musk bertujuan untuk ‘memahami alam semesta’
- Seluruh internet kini menjadi milik AI Google
- Google meminta para pekerja untuk mewaspadai chatbot AI
- Apa itu MusikLM? Lihat AI teks-ke-musik Google
Tingkatkan gaya hidup AndaTren Digital membantu pembaca mengawasi dunia teknologi yang bergerak cepat dengan semua berita terkini, ulasan produk yang menyenangkan, editorial yang berwawasan luas, dan cuplikan unik.