Uus test on loodud diskrimineerimise tuvastamiseks tehisintellekti programmides

Mis-on-google-duplex
Tehisintellekt pole veel teadlik, kuid algoritmid võivad siiski eristada, väljendades mõnikord peenelt nende loonud programmeerijate varjatud eelarvamusi. See on suur ja keeruline probleem, kuna AI-süsteemid muutuvad igapäevaellu üha enam kaasatuks.

Kuid võib olla parandus - või vähemalt viis algoritmide jälgimiseks ja öelda, kas need on demograafilist seisundit sobimatult diskrimineerinud.

Soovitatavad videod

"Õpitud ennustusreeglid on sageli liiga keerulised, et mõista."


Google'i, Chicago ülikooli ja Austini Texase ülikooli arvutiteadlaste meeskonna ettepanekul Võrdsed võimalused juhendatud õppes See lähenemisviis analüüsib masinõppeprogrammide tehtud otsuseid – mitte otsustusprotsesse endid – diskrimineerimise tuvastamiseks. Nende algoritmide olemus on teha iseseisvaid otsuseid oma loogikaga mustas kastis, mis on inimeste ülevaatuse eest varjatud. Seetõttu peavad teadlased mustadele kastidele juurdepääsu saamist praktiliselt mõttetuks.

"Õpitud ennustusreeglid on sageli liiga keerulised, et mõista," ütles Chicago ülikooli arvutiteadlane ja kaasautor.

Nathan Srebro, ütles Digital Trends. „Tõepoolest, masinõppe mõte seisneb selles, et õpitakse automaatselt selgeks [statistiliselt] hea reegel… mitte selline, mille kirjeldus on inimestele paratamatult mõistlik. Seda õppimise vaadet silmas pidades soovisime ka tagada mittediskrimineerimise tunde, käsitledes samal ajal õpitud reegleid mustade kastidena.

Srebro ja kaasautorid Moritz Hardt Google'ist ja Eric Price TÜ Austin töötas välja lähenemisviisi algoritmi otsuste analüüsimiseks ja veendumaks, et see ei diskrimineeriks otsustusprotsessis. Selleks lähtusid nad eelarvamustevastasest põhimõttest, et konkreetse isiku kohta tehtud otsus ei tohiks põhineda ainult selle isiku demograafilisel näitajal. AI programmi puhul ei tohiks algoritmi otsus inimese kohta paljastada midagi selle isiku soo või rassi kohta viisil, mis oleks sobimatult diskrimineeriv.

See on test, mis ei lahenda probleemi otseselt, vaid aitab diskrimineerivaid protsesse märgistada ja ära hoida. Sel põhjusel on mõned teadlased ettevaatlikud.

"Masinõpe on suurepärane, kui kasutate seda naftajuhtme parima marsruudi väljatöötamiseks." Noel Sharkey, ütles Sheffieldi ülikooli robootika ja tehisintellekti emeriitprofessor Eestkostja. "Kuni me ei tea rohkem, kuidas eelarvamused nendes toimivad, oleksin väga mures, et nad teeksid inimeste elusid mõjutavaid ennustusi."

Srebro tunnistab seda muret, kuid ei pea seda oma meeskonna lähenemisviisi laiaulatuslikuks kriitikaks. „Nõustun, et paljudes rakendustes, millel on suur mõju üksikisikutele, eriti valitsuse ja õigusasutuste jaoks ei ole musta kasti statistiliste ennustajate kasutamine asjakohane ja läbipaistvus on ülioluline,“ ta ütles. „Teistes olukordades, kui neid kasutavad äriüksused ja kui üksikud panused on väiksemad, võivad musta kasti statistilised ennustajad olla asjakohased ja tõhusad. Võib olla raske neid täielikult keelata, kuid siiski soovitav kontrollida konkreetse kaitstud diskrimineerimise suhtes.

The paber teemal Võrdsed võimalused juhendatud õppes oli üks käputäistest, mida sel kuul Hispaanias Barcelonas Neural Information Processing Systemsis (NIPS) esitleti ja mis pakkus meetodeid diskrimineerimise tuvastamiseks algoritmides. Eestkostja.

Toimetajate soovitused

  • Google Bardist võib peagi saada teie uus tehisintellekti elutreener
  • Elon Muski uue AI-ettevõtte eesmärk on "universumist aru saada"
  • Kogu Internet kuulub nüüd Google'i AI-le
  • Google käsib töötajatel AI vestlusrobotite suhtes ettevaatlik olla
  • Mis on MusicLM? Tutvuge Google'i tekstist muusikaks AI-ga

Uuenda oma elustiiliDigitaalsed suundumused aitavad lugejatel hoida silma peal kiirel tehnikamaailmal kõigi viimaste uudiste, lõbusate tooteülevaadete, sisukate juhtkirjade ja ainulaadsete lühiülevaadetega.