Uusi testi on suunniteltu havaitsemaan syrjintää tekoälyohjelmissa

Mikä-on-google-duplex
Tekoäly ei ole vielä tietoinen, mutta algoritmit voivat silti tehdä eroja ja joskus ilmaista hienovaraisesti ne luoneiden ohjelmoijien piilotettuja ennakkoluuloja. Se on iso, monimutkainen ongelma, kun tekoälyjärjestelmät kietoutuvat entistä enemmän jokapäiväiseen elämään.

Mutta voi olla korjaus - tai ainakin tapa seurata algoritmeja ja kertoa, ovatko ne sopimattomasti syrjineet väestörakennetta.

Suositellut videot

"Oppitut ennustussäännöt ovat usein liian monimutkaisia ​​ymmärrettäväksi."


Googlen, Chicagon yliopiston ja Austinin Texasin yliopiston tietojenkäsittelytieteilijöiden tiimin ehdottama Tasa-arvo ohjatussa oppimisessa lähestymistapa analysoi koneoppimisohjelmien tekemiä päätöksiä – eikä itse päätöksentekoprosesseja – havaitakseen syrjintää. Näiden algoritmien luonne on tehdä päätöksiä itsenäisesti, omalla logiikallaan, mustassa laatikossa, joka on piilotettu ihmisten katseilta. Sellaisenaan tutkijat pitävät mustien laatikoiden pääsyä käytännössä turhana.

"Oppitut ennustussäännöt ovat usein liian monimutkaisia ​​ymmärrettäväksi", Chicagon yliopiston tietojenkäsittelytieteilijä ja kirjoittaja

Nathan Srebro, kertoi Digital Trendsille. "Itse asiassa, koneoppimisen koko pointti on oppia automaattisesti [tilastollisesti] hyvä sääntö… ei sellainen, jonka kuvaus on ihmisille välttämättä järkevä. Tämä oppimisnäkemys mielessämme halusimme myös kyetä varmistamaan syrjimättömyyden tunteen samalla kun pidämme opittuja sääntöjä mustina laatikoina.”

Srebro ja muut kirjoittajat Moritz Hardt Googlesta ja Eric Price UT Austinista kehitti lähestymistavan algoritmin päätösten analysoimiseksi ja sen varmistamiseksi, että se ei ole syrjivä päätöksentekoprosessissa. Tätä varten he johtivat ennakkoluuloisuuden vastaiseen periaatteeseen, jonka mukaan tiettyä henkilöä koskeva päätös ei saa perustua pelkästään kyseisen henkilön väestörakenteen perusteella. Tekoälyohjelman tapauksessa algoritmin henkilöä koskeva päätös ei saa paljastaa mitään kyseisen henkilön sukupuolesta tai rodusta tavalla, joka olisi sopimattoman syrjivä.

Se on testi, joka ei ratkaise ongelmaa suoraan, mutta auttaa ilmoittamaan ja estämään syrjiviä prosesseja. Tästä syystä jotkut tutkijat ovat varovaisia.

"Koneoppiminen on hienoa, jos käytät sitä parhaan tavan reitittää öljyputki." Noel Sharkey, robotiikan ja tekoälyn emeritusprofessori Sheffieldin yliopistosta, kertoi Huoltaja. "Ennen kuin tiedämme enemmän ennakkoluulojen toimimisesta heissä, olisin hyvin huolissani siitä, että he tekevät ennusteita, jotka vaikuttavat ihmisten elämään."

Srebro tunnustaa tämän huolen, mutta ei pidä sitä laajana kritiikkinä tiiminsä lähestymistapaa kohtaan. "Olen samaa mieltä siitä, että monissa sovelluksissa, joilla on suuri panos, vaikuttavat yksilöihin, erityisesti hallituksen ja oikeusviranomaiset, mustan laatikon tilastollisten ennustajien käyttö ei ole asianmukaista ja avoimuus on elintärkeää. hän sanoi. ”Muissa tilanteissa, kun niitä käyttävät kaupalliset tahot ja kun yksittäiset panokset ovat pienemmät, black box -tilastoennusteet saattavat olla sopivia ja tehokkaita. Saattaa olla vaikeaa kieltää niitä kokonaan, mutta silti toivottavaa valvoa tiettyä suojattua syrjintää."

The paperi mahdollisuuksien tasa-arvosta ohjatussa oppimisessa oli yksi kourallisista, jotka esiteltiin tässä kuussa Neural Information Processing Systemsissä (NIPS) Barcelonassa, Espanjassa ja joka tarjosi lähestymistapoja algoritmien syrjinnän havaitsemiseen. Huoltaja.

Toimittajien suositukset

  • Google Bardista voi pian tulla uusi tekoälyvalmentajasi
  • Elon Muskin uuden tekoälyyrityksen tavoitteena on "ymmärtää maailmankaikkeus"
  • Kaikki internet kuuluu nyt Googlen tekoälylle
  • Google kehottaa työntekijöitä varomaan tekoäly-chatbotteja
  • Mikä on MusicLM? Tutustu Googlen tekstistä musiikiksi tekoälyyn

Päivitä elämäntapasiDigital Trends auttaa lukijoita pysymään tekniikan nopeatempoisessa maailmassa uusimpien uutisten, hauskojen tuotearvostelujen, oivaltavien toimitusten ja ainutlaatuisten kurkistusten avulla.