Kaks Google'i juhti ütlesid reedel, et tehisintellekti kallutatus kahjustab juba niigi marginaliseeritud kogukondi Ameerikas ja et seda ei juhtuks, tuleb teha rohkem. X. Eyeé, Google'i vastutustundliku innovatsiooni teavitusjuht ja Angela Williams, Google'i poliitikahaldur, rääkis aadressil (Pole IRL) Pride'i tippkohtumineüritus, mille korraldab Lesbians Who Tech & Allies, maailma suurim tehnoloogiale keskendunud LGBTQ organisatsioon naistele, mittebinaarsetele ja transinimestele üle maailma.
sisse eraldiräägib, käsitlesid nad viise, kuidas masinõppetehnoloogiat saab kasutada mustanahaliste kogukonna ja teiste kogukondade kahjustamiseks Ameerikas – ja laiemalt kogu maailmas.
Soovitatavad videod
Algoritmide kallutatus EI OLE AINULT ANDMEPROBLEEM. Tehisintellekti kasutamise valik võib olla kallutatud, algoritmi õppimisviis võib olla kallutatud ja see, kuidas kasutajad süsteemi mõjutavad / sellega suhtlevad / süsteemi tajuvad, võivad eelarvamusi tugevdada! kassasse @timnitGebrutöö, et rohkem teada saada!
— X. Silm??? (@TechWithX) 26. juuni 2020
Williams arutas A.I kasutamist. laiaulatusliku järelevalve jaoks, selle roll liigne politseitöö, ja selle rakendamine erapooliku karistuse jaoks. "[Asi] ei ole selles, et tehnoloogia oleks rassistlik, kuid me saame kodeerida omaenda alateadliku eelarvamuse tehnoloogiasse," ütles ta. Williams tõstis esile Robert Julian-Borchak Williamsi juhtum, Detroidist pärit afroameeriklane, kes hiljuti ekslikult arreteeriti pärast seda, kui näotuvastussüsteem sobitas tema foto valesti poevargast tehtud turvakaadritega. Varasemad uuringud on näidanud, et näotuvastussüsteemid võivad hädas olla eristada erinevaid mustanahalisi. "See on koht, kus A.I.... jälgimine võib pärismaailmas kohutavalt valesti minna," ütles Williams.
X. Eyeé arutles ka selle üle, kuidas A.I. võib aidata "mastaapida ja tugevdada ebaõiglast eelarvamust". Lisaks kvaasi-düstoopilisematele, tähelepanu köitvatele kasutusviisidele A.I., Eyeé keskendus sellele, kuidas eelarvamus võib hiilida pealtnäha olmelisemasse, igapäevasemasse tehnoloogia kasutusse – sealhulgas Google’i enda kasutusse. tööriistad. "Google'is pole need väljakutsed võõrad," ütles Eyeé. "Viimastel aastatel … oleme olnud mitu korda pealkirjades selle kohta, kuidas meie algoritmid on inimesi negatiivselt mõjutanud." Näiteks on Google välja töötanud tööriista kommentaaride mürgisuse klassifitseerimine veebis. Kuigi see võib olla väga kasulik, oli see ka problemaatiline: fraasid nagu "Ma olen must gei naine" klassifitseeriti algselt rohkemateks mürgine kui "ma olen valge mees". Selle põhjuseks oli lünk koolitusandmete kogumites, kus teatud identiteetide üle räägiti rohkem kui teised.
Kaks Google'i juhti ütlesid, et nendele probleemidele pole ühtegi üldist lahendust. Kõikjal, kus probleeme leitakse, töötab Google erapoolikuste tasandamiseks. Kuid potentsiaalsete kohtade ulatus, kus eelarvamused võivad süsteemidesse siseneda - alates algoritmide kavandamisest kuni nendeni kasutuselevõtt ühiskondlikus kontekstis, milles andmeid toodetakse – tähendab, et probleeme tekib alati näiteid. Peamine on olla sellest teadlik, võimaldada selliste vahendite kontrollimist ja et erinevad kogukonnad saaksid nende tehnoloogiate kasutamise kohta oma häält kuuldavaks teha.
Toimetajate soovitused
- Kas A.I. mikrokiipide projekteerimisel iniminsenere üle lüüa? Google arvab nii
- BigSleep A.I. on nagu Google'i pildiotsing piltide jaoks, mida veel pole
- Google toob tagasi inimesed, kes võtavad A.I-lt üle YouTube'i sisu modereerimise.
- Valeuudised? A.I. algoritm paljastab loetud lugudes poliitilise kallutatuse
- A.I. Suurendamine muudab selle 1896. aasta filmi mulje, nagu oleks see filmitud pimestavas 4K-s
Uuendage oma elustiiliDigitaalsed suundumused aitavad lugejatel hoida silma peal kiirel tehnikamaailmal kõigi viimaste uudiste, lõbusate tooteülevaadete, sisukate juhtkirjade ja ainulaadsete lühiülevaadetega.