To Google-chefer sagde fredag, at skævhed i kunstig intelligens skader allerede marginaliserede samfund i Amerika, og at der skal gøres mere for at sikre, at dette ikke sker. X. Øje, outreach lead for ansvarlig innovation hos Google, og Angela Williams, policy manager hos Google, talte kl (Ikke IRL) Pride Summit, en begivenhed arrangeret af Lesbians Who Tech & Allies, verdens største teknologi-fokuserede LGBTQ-organisation for kvinder, ikke-binære og transpersoner over hele verden.
I adskillesamtaler, omhandlede de måder, hvorpå maskinlæringsteknologi kan bruges til at skade det sorte samfund og andre samfund i Amerika - og mere bredt rundt om i verden.
Anbefalede videoer
Bias i algoritmer ER IKKE BARE ET DATAPROBLEM. Valget om at bruge kunstig intelligens kan være forudindtaget, måden algoritmen lærer på, kan være forudindtaget, og den måde, brugerne påvirkes/interagerer med/opfatter et system på, kan forstærke bias! kassen @timnitGebrus arbejde for at lære mere!
- X. Øje??? (@TechWithX) 26. juni 2020
Williams diskuterede brugen af A.I. til gennemgribende overvågning, dens rolle i overpoliti, og dens implementering for forudindtaget strafudmåling. "[Det er] ikke, at teknologien er racistisk, men vi kan indkode vores egen ubevidste bias ind i teknologien," sagde hun. Williams fremhævede sagen om Robert Julian-Borchak Williams, en afroamerikansk mand fra Detroit, der for nylig uretmæssigt blev arresteret efter et ansigtsgenkendelsessystem forkert matchede hans billede med sikkerhedsoptagelser af en butikstyv. Tidligere undersøgelser har vist, at ansigtsgenkendelsessystemer kan kæmpe med skelne mellem forskellige sorte mennesker. "Det er her A.I. … overvågning kan gå frygteligt galt i den virkelige verden,” sagde Williams.
X. Eyeé diskuterede også, hvordan A.I. kan hjælpe med at "skalere og forstærke unfair bias." Ud over de mere kvasi-dystopiske, opmærksomhedsskabende anvendelser af A.I., Eyeé fokuserede på den måde, hvorpå bias kunne snige sig ind i mere tilsyneladende hverdagsagtig brug af teknologi - inklusive Googles egen værktøjer. "Hos Google er vi ikke fremmede for disse udfordringer," sagde Eyeé. "I de seneste år... har vi været i overskrifterne flere gange for, hvordan vores algoritmer har påvirket mennesker negativt." Google har f.eks. udviklet et værktøj til klassificering af toksiciteten af kommentarer online. Selvom dette kan være meget nyttigt, var det også problematisk: Sætninger som "Jeg er en sort homoseksuel kvinde" blev oprindeligt klassificeret som mere giftig end "Jeg er en hvid mand." Dette skyldtes et hul i træningsdatasæt, med flere samtaler om bestemte identiteter end andre.
Der er ingen overordnede rettelser til disse problemer, sagde de to Google-chefer. Uanset hvor der findes problemer, arbejder Google på at udjævne bias. Men omfanget af potentielle steder, hvor bias kan komme ind i systemer - fra design af algoritmer til deres udrulning til den samfundsmæssige kontekst, som data produceres under — betyder, at der altid vil være problematisk eksempler. Nøglen er at være opmærksom på dette, at tillade sådanne værktøjer at blive gransket, og at forskellige samfund kan gøre deres stemme hørt om brugen af disse teknologier.
Redaktørens anbefalinger
- Kan A.I. slå menneskelige ingeniører ved at designe mikrochips? Det mener Google
- The BigSleep A.I. er ligesom Google Billedsøgning efter billeder, der ikke eksisterer endnu
- Google bringer mennesker tilbage til at overtage moderering af YouTube-indhold fra A.I.
- Falske nyheder? A.I. algoritmen afslører politisk skævhed i de historier, du læser
- A.I. opskalering får denne film fra 1896 til at se ud som om den er optaget i blændende 4K
Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.