Dva direktorja Googla sta v petek dejala, da pristranskost pri umetni inteligenci škoduje že tako marginaliziranim skupnostim v Ameriki in da je treba storiti več, da se to ne bi zgodilo. X. Eyeé, vodja ozaveščanja za odgovorne inovacije pri Googlu in Angela Williams, vodja politike pri Googlu, je spregovoril na (Ne IRL) Vrh ponosa, dogodek, ki ga organizira Lesbians Who Tech & Allies, največja tehnološko osredotočena organizacija LGBTQ na svetu za ženske, nebinarne in trans osebe po vsem svetu.
notri ločitipogovori, so obravnavali načine, kako se lahko tehnologija strojnega učenja uporabi za škodovanje temnopolti skupnosti in drugim skupnostim v Ameriki – in širše po svetu.
Priporočeni videoposnetki
Pristranskost v algoritmih NI SAMO PODATKOVNI PROBLEM. Izbira uporabe umetne inteligence je lahko pristranska, način učenja algoritma je lahko pristranski in način, na katerega uporabniki vplivajo/interakcijo z njim/dojemajo sistem, lahko okrepi pristranskost! preveri @timnitGebrudelo, da bi izvedeli več!
— X. Eyeé??? (@TechWithX) 26. junij 2020
Williams je razpravljal o uporabi AI. za temeljit nadzor, njegovo vlogo pri pretirano policijsko delo, in njegovo izvajanje za pristransko obsojanje. "[Ne], da je tehnologija rasistična, vendar lahko svojo lastno nezavedno pristranskost kodiramo v tehnologijo," je dejala. Williams je izpostavil primer Roberta Juliana-Borchaka Williamsa, Afroameričan iz Detroita, ki je bil nedavno po pomoti aretiran, potem ko je sistem za prepoznavanje obraza napačno ujemal njegovo fotografijo z varnostnim posnetkom tatvine v trgovini. Prejšnje študije so pokazale, da lahko sistemi za prepoznavanje obraza težko razlikovati med različnimi črnci. »Tukaj je A.I. … nadzor gre lahko v resničnem svetu zelo narobe,« je dejal Williams.
X. Eyeé je razpravljal tudi o tem, kako je A.I. lahko pomaga "razširiti in okrepiti nepošteno pristranskost." Poleg bolj kvazi-distopičnih, pozornost vzbujajočih uporab AI, Eyeé se je osredotočil na način, kako se lahko pristranskost prikrade v bolj na videz vsakdanje, vsakodnevne uporabe tehnologije – vključno z Googlovo orodja. »Pri Googlu nam ti izzivi niso neznanci,« je dejal Eyeé. "V zadnjih letih... smo bili večkrat na naslovnicah o tem, kako so naši algoritmi negativno vplivali na ljudi." Google je na primer razvil orodje za razvrščanje toksičnosti komentarjev na spletu. Čeprav je to lahko zelo koristno, je bilo tudi problematično: fraze, kot je "Jaz sem temnopolta gej", so bile sprva razvrščene kot več strupeno kot "jaz sem bel človek." To je bilo posledica vrzeli v nizih podatkov za usposabljanje, z več pogovori o določenih identitetah kot drugi.
Za te težave ni nobenih splošnih rešitev, sta dejala vodja Googla. Kjer koli se odkrijejo težave, si Google prizadeva odpraviti pristranskost. Toda obseg potencialnih krajev, kjer lahko pristranskost vstopi v sisteme – od načrtovanja algoritmov do njihovih uvedba v družbeni kontekst, v katerem se podatki proizvajajo, pomeni, da bodo vedno obstajale težave primeri. Ključno je, da se tega zavedamo, da omogočimo natančno preučevanje takšnih orodij in da se lahko različne skupnosti izrazijo o uporabi teh tehnologij.
Priporočila urednikov
- Ali lahko A.I. premagati človeške inženirje pri oblikovanju mikročipov? Google tako misli
- BigSleep A.I. je kot Google Image Search za slike, ki še ne obstajajo
- Google vrača ljudi, ki bodo od AI prevzeli moderiranje YouTubove vsebine.
- Lažne novice? A.I. algoritem razkrije politično pristranskost v zgodbah, ki jih berete
- A.I. povečanje ločljivosti naredi ta film iz leta 1896 videti, kot da je bil posnet v bleščeči 4K
Nadgradite svoj življenjski slogDigitalni trendi bralcem pomagajo slediti hitremu svetu tehnologije z vsemi najnovejšimi novicami, zabavnimi ocenami izdelkov, pronicljivimi uvodniki in enkratnimi vpogledi v vsebine.