Eksekutif Google Menjelaskan Bagaimana A.I. Dapat Memperkuat Rasisme

Dua eksekutif Google mengatakan pada hari Jumat bahwa bias dalam kecerdasan buatan merugikan komunitas yang sudah terpinggirkan di Amerika, dan masih banyak yang harus dilakukan untuk memastikan hal ini tidak terjadi. X. Mata, pemimpin penjangkauan untuk inovasi yang bertanggung jawab di Google, dan Angela Williams, manajer kebijakan di Google, berbicara di (Bukan IRL) KTT Kebanggaan, sebuah acara yang diselenggarakan oleh Lesbians Who Tech & Allies, organisasi LGBTQ terbesar di dunia yang berfokus pada teknologi untuk perempuan, non-biner, dan trans di seluruh dunia.

Di dalam memisahkanpembicaraan, mereka membahas bagaimana teknologi pembelajaran mesin dapat digunakan untuk merugikan komunitas kulit hitam dan komunitas lain di Amerika — dan lebih luas lagi di seluruh dunia.

Video yang Direkomendasikan

Bias dalam algoritma BUKAN HANYA MASALAH DATA. Pilihan untuk menggunakan AI bisa jadi bias, cara algoritma belajar bisa jadi bias, dan cara pengguna terpengaruh/berinteraksi dengan/memahami sistem bisa memperkuat bias! Periksa @timnitGebrupekerjaan untuk mempelajari lebih lanjut!

- X. Mata??? (@TechWithX) 26 Juni 2020

Williams membahas penggunaan A.I. untuk pengawasan menyeluruh, perannya dalam kebijakan yang berlebihan, dan penerapannya untuk hukuman yang bias. “[Ini] bukan karena teknologi itu rasis, tapi kita bisa memasukkan bias yang tidak kita sadari ke dalam teknologi tersebut,” katanya. Williams menyoroti kasus Robert Julian-Borchak Williams, seorang pria Afrika-Amerika dari Detroit yang baru-baru ini salah ditangkap setelah sistem pengenalan wajah salah mencocokkan fotonya dengan rekaman keamanan seorang pengutil. Penelitian sebelumnya menunjukkan bahwa sistem pengenalan wajah mungkin mengalami kesulitan membedakan orang kulit hitam yang berbeda. “Di sinilah A.I. …pengawasan bisa berakibat buruk di dunia nyata,” kata Williams.

X. Eyeé juga membahas bagaimana A.I. dapat membantu “menskalakan dan memperkuat bias yang tidak adil.” Selain penggunaan yang lebih kuasi-distopia dan menarik perhatian A.I., Eyeé berfokus pada cara bias dapat merambat ke dalam penggunaan teknologi sehari-hari yang tampaknya biasa saja — termasuk milik Google. peralatan. “Di Google, kami tidak asing dengan tantangan ini,” kata Eyeé. “Dalam beberapa tahun terakhir… kami telah menjadi berita utama beberapa kali tentang bagaimana algoritma kami berdampak negatif terhadap orang-orang.” Misalnya, Google telah mengembangkan alat untuk mengklasifikasikan toksisitas komentar online. Meskipun hal ini bisa sangat membantu, hal ini juga menimbulkan masalah: Frasa seperti “Saya seorang perempuan gay kulit hitam” pada awalnya diklasifikasikan sebagai lebih beracun daripada "Saya orang kulit putih". Hal ini disebabkan oleh kesenjangan dalam kumpulan data pelatihan, dengan lebih banyak pembicaraan tentang identitas tertentu dibandingkan yang lain.

Tidak ada perbaikan menyeluruh terhadap masalah ini, kata kedua eksekutif Google. Di mana pun masalah ditemukan, Google berupaya menghilangkan bias. Namun cakupan tempat-tempat potensial di mana bias dapat memasuki sistem — mulai dari desain algoritme hingga algoritmanya penerapannya ke dalam konteks masyarakat di mana data dihasilkan — berarti akan selalu ada masalah contoh. Kuncinya adalah menyadari hal ini, agar alat-alat tersebut dapat diteliti, dan agar beragam komunitas dapat menyuarakan pendapatnya mengenai penggunaan teknologi ini.

Rekomendasi Editor

  • Bisakah A.I. mengalahkan insinyur manusia dalam merancang microchip? Google berpendapat demikian
  • AI Tidur Besar. seperti Pencarian Gambar Google untuk gambar yang belum ada
  • Google menghadirkan kembali manusia untuk mengambil alih moderasi konten YouTube dari A.I.
  • Berita palsu? A.I. algoritma mengungkapkan bias politik dalam cerita yang Anda baca
  • A.I. peningkatannya membuat film tahun 1896 ini tampak seperti dibuat dalam 4K yang memukau

Tingkatkan gaya hidup AndaTren Digital membantu pembaca mengawasi dunia teknologi yang bergerak cepat dengan semua berita terbaru, ulasan produk yang menyenangkan, editorial yang berwawasan luas, dan cuplikan unik.