İki Google yöneticisi Cuma günü yaptığı açıklamada, yapay zekadaki önyargının Amerika'da zaten dışlanmış topluluklara zarar verdiğini ve bunun olmamasını sağlamak için daha fazlasının yapılması gerektiğini söyledi. X. Göz, Google'da sorumlu inovasyon konusunda destek lideri ve Angela WilliamsGoogle'ın politika yöneticisi, şu adreste konuştu: (IRL değil) Onur Zirvesi, dünyanın dört bir yanındaki kadınlara, ikili cinsiyete sahip olmayanlara ve translara yönelik dünyanın en büyük teknoloji odaklı LGBTQ organizasyonu olan Lezbiyenler Who Tech & Allies tarafından düzenlenen bir etkinlik.
İçinde ayırmakgörüşmeler, makine öğrenimi teknolojisinin Amerika'daki ve daha geniş çapta dünya çapındaki siyah topluluğa ve diğer topluluklara zarar vermek için nasıl kullanılabileceğine değindiler.
Önerilen Videolar
Algoritmalardaki önyargı SADECE BİR VERİ SORUNU DEĞİLDİR. Yapay zeka kullanma tercihi önyargılı olabilir, algoritmanın öğrenme şekli önyargılı olabilir ve kullanıcıların bir sistemden etkilenme/etkileşim kurma/algılama şekli önyargıyı güçlendirebilir! Çıkış yapmak
@timnitGebrudaha fazlasını öğrenmenin işi!- X. Göz??? (@TechWithX) 26 Haziran 2020
Williams, yapay zekanın kullanımını tartıştı. kapsamlı gözetim için, rolü aşırı polislikve bunun önyargılı cezalandırmaya yönelik uygulanması. "[Bu] teknolojinin ırkçı olduğu anlamına gelmiyor, ancak kendi bilinçsiz önyargılarımızı teknolojiye kodlayabiliriz" dedi. Williams altını çizdi Robert Julian-Borchak Williams vakasıDetroitli Afrikalı Amerikalı bir adam, yakın zamanda bir yüz tanıma sisteminin kendi fotoğrafını bir hırsızın güvenlik görüntüleri ile eşleştirmesinin ardından yanlışlıkla tutuklandı. Önceki çalışmalar, yüz tanıma sistemlerinin zorlukla karşılanabileceğini göstermişti. farklı siyah insanları ayırt etmek. “Burası A.I. … gözetleme gerçek dünyada son derece ters gidebilir” dedi Williams.
X. Eyeé ayrıca A.I. "haksız önyargının ölçeklenmesine ve güçlendirilmesine" yardımcı olabilir. Daha yarı distopik, dikkat çekici kullanımlarının yanı sıra A.I. ile Eyeé, önyargının Google'ın kendi kullanımı da dahil olmak üzere teknolojinin daha sıradan, günlük kullanımlarına nasıl sızabileceğine odaklandı. aletler. Eyeé, "Google olarak bu zorluklara yabancı değiliz" dedi. "Son yıllarda algoritmalarımızın insanları nasıl olumsuz etkilediğiyle ilgili birçok kez manşetlere çıktık." Örneğin Google bunun için bir araç geliştirdi. çevrimiçi yorumların zehirliliğini sınıflandırmak. Bu çok yararlı olsa da aynı zamanda sorunluydu: "Ben siyah eşcinsel bir kadınım" gibi ifadeler başlangıçta daha çok "eşcinsel" olarak sınıflandırılıyordu. "Ben beyaz bir adamım"dan daha zehirli. Bunun nedeni, belirli kimlikler hakkında daha fazla konuşmanın olduğu eğitim veri kümelerindeki boşluktu. diğerleri.
İki Google yöneticisi, bu sorunlara kapsamlı bir çözüm bulunmadığını söyledi. Nerede sorun bulunursa bulunsun, Google önyargıyı ortadan kaldırmak için çalışır. Ancak önyargıların sistemlere girebileceği potansiyel yerlerin kapsamı (algoritmaların tasarımından bunların uygulanmasına kadar) Verilerin üretildiği toplumsal bağlama dağıtılması - her zaman sorunlu olacağı anlamına gelir örnekler. Önemli olan bunun farkında olmak, bu tür araçların incelenmesine izin vermek ve farklı toplulukların bu teknolojilerin kullanımı konusunda seslerini duyurabilmesidir.
Editörlerin Önerileri
- A.I. Mikroçip tasarlamada insan mühendisleri yenebilir misiniz? Google öyle düşünüyor
- BigSleep A.I. Henüz var olmayan resimler için Google Görsel Arama gibidir
- Google, YouTube içeriğinin moderasyonunu yapay zekadan devralmak için insanları geri getiriyor.
- Sahte haber mi? yapay zeka Algoritma okuduğunuz hikayelerdeki politik önyargıyı ortaya çıkarıyor
- yapay zeka yükseltme, 1896 yapımı bu filmin göz kamaştırıcı 4K'da çekilmiş gibi görünmesini sağlıyor
Yaşam tarzınızı yükseltinDigital Trends, en son haberler, eğlenceli ürün incelemeleri, anlayışlı başyazılar ve türünün tek örneği olan ön bakışlarla okuyucuların teknolojinin hızlı tempolu dünyasını takip etmelerine yardımcı olur.