Kaksi Googlen johtajaa sanoi perjantaina, että tekoälyn ennakkoluulot vahingoittavat jo ennestään syrjäytyneitä yhteisöjä Amerikassa ja että on tehtävä enemmän sen varmistamiseksi, että näin ei tapahdu. X. Eyeé, Googlen vastuullisen innovoinnin tavoitejohtaja ja Angela Williams, Googlen käytäntöpäällikkö, puhui osoitteessa (Ei IRL) Pride Summit, Lesbians Who Tech & Alliesin järjestämä tapahtuma, maailman suurin teknologiaan keskittyvä LGBTQ-järjestö naisille, ei-binaarisille ja transihmisille ympäri maailmaa.
Sisään erillinenpuhuu, he käsittelivät tapoja, joilla koneoppimisteknologiaa voidaan käyttää vahingoittamaan mustien yhteisöä ja muita yhteisöjä Amerikassa - ja laajemmin ympäri maailmaa.
Suositellut videot
Algoritmien harha EI OLE VAIN TIETOJEN ONGELMA. Valinta käyttää tekoälyä voi olla puolueellinen, tapa, jolla algoritmi oppii, voi olla puolueellinen ja tapa, jolla käyttäjät vaikuttavat järjestelmään, ovat vuorovaikutuksessa järjestelmän kanssa, voivat vahvistaa harhaa! Tarkista @timnitGebrutyötä oppiaksesi lisää!
— X. Silmä??? (@TechWithX) 26. kesäkuuta 2020
Williams keskusteli A.I: n käytöstä. laajalle valvonnalle, sen rooli ylipoliisi, ja sen täytäntöönpano puolueellisessa tuomiossa. "[Se] ei tarkoita, että tekniikka olisi rasistista, mutta voimme koodata omaa tiedostamatonta ennakkoluulojamme teknologiaan", hän sanoi. Williams korosti Robert Julian-Borchak Williamsin tapaus, afrikkalainen amerikkalainen mies Detroitista, joka pidätettiin äskettäin väärin sen jälkeen, kun kasvojentunnistusjärjestelmä yhdisti hänen valokuvansa väärin myymälävarkautta kuvaavaan turvamateriaaliin. Aiemmat tutkimukset ovat osoittaneet, että kasvojentunnistusjärjestelmät voivat kamppailla erottaa erilaiset mustat ihmiset. "Tässä A.I. … valvonta voi mennä hirveän pieleen todellisessa maailmassa”, Williams sanoi.
X. Eyeé keskusteli myös siitä, kuinka A.I. voi auttaa "skaalaamaan ja vahvistamaan epäoikeudenmukaista ennakkoluulottomuutta". Lähes dystooppisempien, huomiota herättävien käyttötarkoitusten lisäksi A.I., Eyeé keskittyi tapaan, jolla puolueellisuus voi hiipiä arkipäiväisempään teknologian käyttöön – mukaan lukien Googlen omaan työkaluja. "Googlella nämä haasteet eivät ole vieraita", Eyeé sanoi. "Viime vuosina… olemme olleet otsikoissa useita kertoja siitä, kuinka algoritmimme ovat vaikuttaneet kielteisesti ihmisiin." Esimerkiksi Google on kehittänyt työkalun kommenttien myrkyllisyyden luokittelu verkossa. Vaikka tämä voi olla erittäin hyödyllistä, se oli myös ongelmallista: lauseita, kuten "Olen musta homonainen" luokiteltiin alun perin enemmän myrkyllistä kuin "olen valkoinen mies". Tämä johtui aukosta koulutustietosarjoissa, joissa keskusteltiin enemmän tietyistä identiteeteista kuin muut.
Näihin ongelmiin ei ole olemassa kattavaa korjausta, kaksi Googlen johtajaa sanoi. Aina kun ongelmia havaitaan, Google pyrkii poistamaan ennakkoluuloja. Mutta mahdollisten paikkojen laajuus, joissa harha voi tulla järjestelmiin – algoritmien suunnittelusta niiden suunnitteluun soveltaminen siihen yhteiskunnalliseen kontekstiin, jossa tietoja tuotetaan – tarkoittaa, että ongelmia tulee aina olemaan esimerkkejä. Tärkeintä on olla tietoinen tästä, sallia tällaisten työkalujen tarkastelu ja se, että eri yhteisöt voivat saada äänensä kuuluviin näiden tekniikoiden käytöstä.
Toimittajien suositukset
- Voiko A.I. päihittää ihmisinsinöörit mikrosirujen suunnittelussa? Google ajattelee niin
- BigSleep A.I. on kuin Google-kuvahaku kuville, joita ei vielä ole olemassa
- Google tuo takaisin ihmiset ottamaan haltuunsa YouTube-sisällön valvomisen A.I: ltä.
- Valeuutisia? A.I. algoritmi paljastaa lukemiesi tarinoiden poliittisen puolueellisuuden
- A.I. skaalaus saa tämän elokuvan vuodelta 1896 näyttämään siltä kuin se olisi kuvattu häikäisevällä 4K-resoluutiolla
Päivitä elämäntapasiDigital Trends auttaa lukijoita pysymään tekniikan nopeatempoisessa maailmassa uusimpien uutisten, hauskojen tuotearvostelujen, oivaltavien toimitusten ja ainutlaatuisten kurkistusten avulla.