To Google-ledere sa fredag at skjevhet i kunstig intelligens skader allerede marginaliserte samfunn i Amerika, og at mer må gjøres for å sikre at dette ikke skjer. X. Eyeé, oppsøkende leder for ansvarlig innovasjon hos Google, og Angela Williams, policy manager hos Google, talte kl (Ikke IRL) Pride Summit, et arrangement organisert av Lesbians Who Tech & Allies, verdens største teknologifokuserte LHBTQ-organisasjon for kvinner, ikke-binære og transpersoner over hele verden.
I skillesamtaler, tok de for seg måtene maskinlæringsteknologi kan brukes på for å skade det svarte samfunnet og andre samfunn i Amerika - og mer utbredt rundt om i verden.
Anbefalte videoer
Bias i algoritmer ER IKKE BARE ET DATAPROBLEM. Valget om å bruke AI kan være partisk, måten algoritmen lærer på kan være partisk, og måten brukere påvirkes/samhandler med/oppfatter et system kan forsterke skjevhet! Sjekk ut @timnitGebrusitt arbeid for å lære mer!
— X. Øye??? (@TechWithX) 26. juni 2020
Williams diskuterte bruken av A.I. for feiende overvåking, dens rolle i
over-politi, og dens implementering for partisk straffeutmåling. "[Det er] ikke det at teknologien er rasistisk, men vi kan kode inn vår egen ubevisste skjevhet inn i teknologien," sa hun. Williams fremhevet tilfelle av Robert Julian-Borchak Williams, en afroamerikansk mann fra Detroit som nylig ble feilaktig arrestert etter at et ansiktsgjenkjenningssystem feilaktig matchet bildet hans med sikkerhetsopptak av en butikktyv. Tidligere studier har vist at ansiktsgjenkjenningssystemer kan slite med skille mellom forskjellige svarte mennesker. «Det er her A.I. … overvåking kan gå veldig galt i den virkelige verden, sa Williams.X. Eyeé diskuterte også hvordan A.I. kan hjelpe "skalere og forsterke urettferdig skjevhet." I tillegg til de mer kvasi-dystopiske, oppsiktsvekkende bruken av A.I., Eyeé fokuserte på måten partiskhet kunne krype inn i mer tilsynelatende hverdagslig bruk av teknologi – inkludert Googles egen verktøy. "Hos Google er vi ikke fremmede for disse utfordringene," sa Eyeé. "De siste årene... har vi vært i overskriftene flere ganger for hvordan algoritmene våre har påvirket mennesker negativt." For eksempel har Google utviklet et verktøy for klassifisering av toksisiteten til kommentarer på nettet. Selv om dette kan være veldig nyttig, var det også problematisk: Fraser som "Jeg er en svart homofil kvinne" ble opprinnelig klassifisert som mer giftig enn "Jeg er en hvit mann." Dette skyldtes et gap i treningsdatasett, med flere samtaler om bestemte identiteter enn andre.
Det er ingen overordnede løsninger på disse problemene, sa de to Google-lederne. Uansett hvor det oppdages problemer, jobber Google for å fjerne skjevheter. Men omfanget av potensielle steder der skjevheter kan komme inn i systemer - fra utformingen av algoritmer til deres distribusjon til den samfunnsmessige konteksten som data produseres under - betyr at det alltid vil være problematisk eksempler. Nøkkelen er å være klar over dette, å la slike verktøy granskes, og at ulike samfunn skal kunne gjøre sine stemmer hørt om bruken av disse teknologiene.
Redaktørenes anbefalinger
- Kan A.I. slå menneskelige ingeniører med å designe mikrobrikker? Google mener det
- The BigSleep A.I. er som Google Bildesøk etter bilder som ikke eksisterer ennå
- Google bringer tilbake mennesker til å ta over moderering av YouTube-innhold fra A.I.
- Falske nyheter? A.I. algoritmen avslører politisk skjevhet i historiene du leser
- A.I. oppskalering får denne filmen fra 1896 til å se ut som om den ble spilt inn i blendende 4K
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.