Google Execs förklarar hur A.I. Kan förstärka rasism

Två Google-chefer sa på fredagen att partiskhet i artificiell intelligens skadar redan marginaliserade samhällen i Amerika, och att mer behöver göras för att säkerställa att detta inte händer. X. Eyeé, uppsökande ledare för ansvarsfull innovation på Google, och Angela Williams, policyansvarig på Google, talade kl (Inte IRL) Pride Summit, ett evenemang som anordnas av Lesbians Who Tech & Allies, världens största teknologifokuserade HBTQ-organisation för kvinnor, icke-binära och transpersoner runt om i världen.

I separatsamtal, tog de upp sätten på vilka maskininlärningsteknologi kan användas för att skada det svarta samhället och andra samhällen i Amerika - och mer allmänt runt om i världen.

Rekommenderade videor

Bias i algoritmer ÄR INTE BARA ETT DATAPROBLEM. Valet att använda AI kan vara partiskt, sättet som algoritmen lär sig kan vara partiskt, och hur användare påverkas/interagerar med/uppfattar ett system kan förstärka partiskhet! kolla upp @timnitGebrus arbete för att lära sig mer!

— X. Öga??? (@TechWithX) 26 juni 2020

Williams diskuterade användningen av A.I. för svepande övervakning, dess roll i överpolisiering, och dess genomförande för partisk straffmätning. "[Det är] inte så att tekniken är rasistisk, men vi kan koda in vår egen omedvetna fördom i tekniken," sa hon. Williams lyfte fram fallet med Robert Julian-Borchak Williams, en afroamerikansk man från Detroit som nyligen felaktigt arresterades efter att ett ansiktsigenkänningssystem felaktigt matchade hans foto med säkerhetsbilder av en snattare. Tidigare studier har visat att ansiktsigenkänningssystem kan kämpa för att skilja på olika svarta människor. "Det är här A.I. … övervakning kan gå fruktansvärt fel i den verkliga världen”, sa Williams.

X. Eyeé diskuterade också hur A.I. kan hjälpa till att "skala och förstärka orättvis partiskhet." Förutom de mer kvasi-dystopiska, uppmärksammade användningarna av A.I., Eyeé fokuserade på det sätt på vilket partiskhet kunde smyga sig in i mer till synes vardagliga, vardagliga användningar av teknik – inklusive Googles egen verktyg. "På Google är vi inte främmande för dessa utmaningar," sa Eyeé. "Under de senaste åren … har vi varit i rubrikerna flera gånger för hur våra algoritmer har påverkat människor negativt." Google har till exempel utvecklat ett verktyg för klassificera toxiciteten av kommentarer online. Även om detta kan vara till stor hjälp, var det också problematiskt: fraser som "Jag är en svart homosexuell kvinna" klassades initialt som mer giftigt än "Jag är en vit man." Detta berodde på en lucka i träningsdatauppsättningar, med fler samtal om vissa identiteter än andra.

Det finns inga övergripande lösningar på dessa problem, sa de två Google-cheferna. Varhelst problem upptäcks arbetar Google för att eliminera partiskhet. Men omfattningen av potentiella platser där fördomar kan komma in i system - från design av algoritmer till deras utplacering till det samhälleliga sammanhang under vilket data produceras — innebär att det alltid kommer att finnas problem exempel. Nyckeln är att vara medveten om detta, att låta sådana verktyg granskas och att olika samhällen ska kunna göra sina röster hörda om användningen av dessa tekniker.

Redaktörens rekommendationer

  • Kan A.I. slå mänskliga ingenjörer vid design av mikrochips? Google tycker det
  • The BigSleep A.I. är som Google Bildsökning efter bilder som inte finns ännu
  • Google tar tillbaka människor för att ta över moderering av YouTube-innehåll från A.I.
  • Fake news? A.I. algoritm avslöjar politisk fördom i berättelserna du läser
  • A.I. uppskalning får den här filmen från 1896 att se ut som om den spelades in i bländande 4K

Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.