Toda morda obstaja popravek - ali vsaj način za spremljanje algoritmov in ugotavljanje, ali so neustrezno diskriminirali demografsko skupino.
Priporočeni videoposnetki
"Naučena pravila napovedovanja so pogosto preveč zapletena, da bi jih razumeli."
Predlaga skupina računalniških znanstvenikov iz Googla, Univerze v Chicagu in Univerze v Teksasu v Austinu, Enakost možnosti pri nadzorovanem učenju pristop analizira odločitve, ki jih sprejemajo programi strojnega učenja – namesto samih procesov odločanja – za odkrivanje diskriminacije. Sama narava teh algoritmov je, da sprejemajo odločitve sami, z lastno logiko, v črni skrinjici, skriti pred človeškim pregledom. Zato raziskovalci menijo, da je dostop do črnih skrinjic praktično zaman.
"Naučena pravila napovedovanja so pogosto preveč zapletena, da bi jih razumeli," računalniški znanstvenik in soavtor Univerze v Chicagu, Nathan Srebro, je povedal za Digital Trends. »Dejansko je bistvo strojnega učenja samodejno učenje [statistično] dobrega pravila... ne tistega, katerega opis je nujno smiseln za ljudi. S tem pogledom na učenje v mislih smo želeli tudi zagotoviti občutek nediskriminacije, medtem ko naučena pravila še vedno obravnavamo kot črne skrinjice.«
Srebro in soavtorji Moritz Hardt Googla in Eric Price iz UT Austin je razvil pristop za analizo odločitev algoritma in zagotovitev, da ne diskriminira v procesu odločanja. Da bi to naredili, so vodili z načelom proti predsodkom, da odločitev o določeni osebi ne bi smela temeljiti izključno na demografskih podatkih te osebe. V primeru programa umetne inteligence odločitev algoritma o osebi ne sme razkriti ničesar o spolu ali rasi te osebe na način, ki bi bil neustrezno diskriminatoren.
To je test, ki težave ne reši neposredno, ampak pomaga pri označevanju in preprečevanju diskriminatornih procesov. Zaradi tega so nekateri raziskovalci previdni.
"Strojno učenje je odlično, če ga uporabljate za iskanje najboljšega načina za usmeritev naftovoda," Noel Sharkey, zaslužni profesor robotike in umetne inteligence na Univerzi v Sheffieldu, je povedal Skrbnik. "Dokler ne izvemo več o tem, kako pristranskosti delujejo pri njih, bi me zelo skrbelo, da dajejo napovedi, ki vplivajo na življenja ljudi."
Srebro priznava to zaskrbljenost, vendar ne meni, da gre za obsežno kritiko pristopa njegove ekipe. »Strinjam se, da v številnih aplikacijah z velikimi vložki vpliva na posameznike, zlasti s strani vlade in pravosodni organi, uporaba statističnih napovednikov črne skrinjice ni ustrezna in preglednost je ključnega pomena,« rekel je. »V drugih situacijah, ko jih uporabljajo komercialni subjekti in ko so posamezni vložki nižji, so lahko statistični napovedovalci črne skrinjice primerni in učinkoviti. Morda jih bo težko popolnoma zavrniti, vendar je vseeno zaželeno nadzorovati posebno zaščiteno diskriminacijo.«
The dokument o enakih možnostih pri nadzorovanem učenju je bil eden od peščice predstavljenih ta mesec na Neural Information Processing Systems (NIPS) v Barceloni v Španiji, ki je ponudil pristope k odkrivanju diskriminacije v algoritmih, glede na Skrbnik.
Priporočila urednikov
- Google Bard bi lahko kmalu postal vaš novi življenjski trener AI
- Novo podjetje Elona Muska z umetno inteligenco želi "razumeti vesolje"
- Ves internet zdaj pripada Googlovi AI
- Google delavcem sporoča, naj bodo previdni pri klepetalnih robotih z umetno inteligenco
- Kaj je MusicLM? Oglejte si Googlov AI za pretvorbo besedila v glasbo
Nadgradite svoj življenjski slogDigitalni trendi bralcem pomagajo slediti hitremu svetu tehnologije z vsemi najnovejšimi novicami, zabavnimi ocenami izdelkov, pronicljivimi uvodniki in enkratnimi vpogledi v vsebine.