Google Execs objašnjava kako A.I. Može pojačati rasizam

Dvojica Googleovih rukovoditelja rekla su u petak da pristranost u umjetnoj inteligenciji šteti ionako marginaliziranim zajednicama u Americi i da se mora učiniti više kako bi se osiguralo da se to ne dogodi. X. Eyeé, voditelj za odgovorne inovacije u Googleu i Angela Williams, voditelj politike u Googleu, govorio je na (Ne IRL) Samit ponosa, događaj organiziran od strane Lesbians Who Tech & Allies, najveće svjetske LGBTQ organizacije usmjerene na tehnologiju za žene, nebinarne i trans osobe diljem svijeta.

U odvojitirazgovori, bavili su se načinima na koje se tehnologija strojnog učenja može koristiti za nanošenje štete crnačkoj zajednici i drugim zajednicama u Americi — i šire diljem svijeta.

Preporučeni videozapisi

Pristranost u algoritmima NIJE SAMO PROBLEM PODATAKA. Odabir upotrebe umjetne inteligencije može biti pristran, način na koji algoritam uči može biti pristran, a način na koji korisnici utječu/interagiraju s/percipiraju sustav može pojačati pristranost! provjeri @timnitGebruradimo kako bismo naučili više!

- X. Eyeé??? (@TechWithX) 26. lipnja 2020

Williams je raspravljao o korištenju A.I. za sveobuhvatni nadzor, njegova uloga u prekomjerna policija, i njegova provedba za pristrano kažnjavanje. "[Nije] da je tehnologija rasistička, ali možemo kodirati vlastitu nesvjesnu pristranost u tehnologiju", rekla je. Williams je istaknuo slučaj Roberta Juliana-Borchaka Williamsa, Afroamerikanac iz Detroita koji je nedavno pogrešno uhićen nakon što je sustav za prepoznavanje lica pogrešno spojio njegovu fotografiju sa sigurnosnom snimkom lopova u trgovini. Prethodne studije pokazale su da sustavi za prepoznavanje lica mogu imati poteškoća razlikovati različite crnce. “Ovdje je A.I. … nadzor može užasno poći po zlu u stvarnom svijetu,” rekao je Williams.

X. Eyeé je također raspravljao o tome kako A.I. može pomoći u "razmjeru i jačanju nepoštene pristranosti". Uz više kvazi-distopijske upotrebe koje privlače pozornost A.I., Eyeé usredotočio se na način na koji bi se pristranost mogla uvući u naizgled običnije, svakodnevne upotrebe tehnologije - uključujući Googleovu vlastitu alata. "Nama u Googleu ovi izazovi nisu strani", rekao je Eyeé. "Posljednjih godina... više smo puta bili na naslovnicama o tome kako su naši algoritmi negativno utjecali na ljude." Na primjer, Google je razvio alat za klasificiranje toksičnosti komentara na internetu. Iako ovo može biti od velike pomoći, bilo je i problematično: fraze poput "Ja sam crna gay žena" u početku su klasificirane kao više otrovno nego "ja sam bijelac". To je bilo zbog praznine u skupovima podataka za obuku, s više razgovora o određenim identitetima nego drugi.

Nema sveobuhvatnih rješenja za ove probleme, rekla su dva Googleova rukovoditelja. Gdje god se pronađu problemi, Google radi na otklanjanju pristranosti. Ali opseg potencijalnih mjesta gdje pristranost može ući u sustave - od dizajna algoritama do njihovih implementacija u društveni kontekst u kojem se podaci proizvode — znači da će uvijek biti problema primjeri. Ključno je biti svjestan toga, dopustiti da se takvi alati pomno ispitaju i omogućiti različitim zajednicama da se njihov glas čuje o korištenju ovih tehnologija.

Preporuke urednika

  • Može li A.I. pobijediti ljudske inženjere u dizajniranju mikročipova? Google tako misli
  • BigSleep A.I. je poput Google pretraživanja slika za slike koje još ne postoje
  • Google vraća ljude da preuzmu moderiranje YouTube sadržaja od A.I.
  • Lažne vijesti? A.I. algoritam otkriva političku pristranost u pričama koje čitate
  • A.I. povećavanje čini da ovaj film iz 1896. izgleda kao da je snimljen u blistavoj 4K

Nadogradite svoj životni stilDigitalni trendovi pomažu čitateljima da prate brzi svijet tehnologije sa svim najnovijim vijestima, zabavnim recenzijama proizvoda, pronicljivim uvodnicima i jedinstvenim brzim pregledima.