Bet var būt labojums vai vismaz veids, kā pārraudzīt algoritmus un noteikt, vai tie ir neatbilstoši diskriminējuši demogrāfiskos datus.
Ieteiktie videoklipi
"Iemācītie prognozēšanas noteikumi bieži ir pārāk sarežģīti, lai tos saprastu."
Ierosināja datorzinātnieku komanda no Google, Čikāgas Universitātes un Teksasas Universitātes Ostinā. Iespēju vienlīdzība uzraudzītās mācībās Šī pieeja analizē lēmumus, ko pieņem mašīnmācīšanās programmas, nevis pašus lēmumu pieņemšanas procesus, lai atklātu diskrimināciju. Šo algoritmu būtība ir pieņemt lēmumus paši, izmantojot savu loģiku, melnajā kastē, kas ir paslēpta no cilvēku pārskatīšanas. Tādējādi pētnieki uzskata, ka piekļuve melnajām kastēm ir praktiski veltīga.
Čikāgas universitātes datorzinātnieks un līdzautors: "Apgūtie prognozēšanas noteikumi bieži ir pārāk sarežģīti, lai tos saprastu." Neitans Srebro, stāstīja Digital Trends. “Patiesi, visa mašīnmācīšanās jēga ir automātiski apgūt [statistiski] labu noteikumu, nevis tādu, kura apraksts noteikti ir saprotams cilvēkiem. Paturot prātā šo skatījumu uz mācīšanos, mēs arī vēlējāmies nodrošināt nediskriminācijas sajūtu, vienlaikus uzskatot apgūtos noteikumus kā melnās kastes.
Srebro un līdzautori Morics Hārds Google un Ēriks Praiss UT Austin izstrādāja pieeju, lai analizētu algoritma lēmumus un pārliecinātos, ka lēmumu pieņemšanas procesā tas nav diskriminējošs. Lai to izdarītu, viņi vadīja aizspriedumu novēršanas principu, ka lēmums par konkrētu personu nedrīkst būt balstīts tikai uz šīs personas demogrāfiskajiem rādītājiem. AI programmas gadījumā algoritma lēmums par personu nedrīkst atklāt neko par šīs personas dzimumu vai rasi tādā veidā, kas būtu neatbilstoši diskriminējošs.
Tas ir tests, kas tieši neatrisina problēmu, bet palīdz atzīmēt un novērst diskriminējošus procesus. Šī iemesla dēļ daži pētnieki ir piesardzīgi.
"Mašīnmācība ir lieliska, ja to izmantojat, lai izstrādātu labāko veidu, kā maršrutēt naftas vadu." Noels Šārkijs, stāstīja Šefīldas universitātes robotikas un mākslīgā intelekta emeritētais profesors The Guardian. "Kamēr mēs neuzzināsim vairāk par to, kā tajās darbojas aizspriedumi, es būtu ļoti noraizējies par to, ka viņi izsaka prognozes, kas ietekmē cilvēku dzīvi."
Srebro apzinās šīs bažas, taču neuzskata to par plašu kritiku viņa komandas pieejai. “Es piekrītu, ka daudzos pieteikumos, kas ietekmē personas, īpaši valdības un tiesu iestādes, melnās kastes statistikas prognozētāju izmantošana nav piemērota, un pārredzamība ir ļoti svarīga. viņš teica. “Citās situācijās, kad tos izmanto komerciālas struktūras un kad atsevišķas likmes ir zemākas, melnās kastes statistikas prognozētāji varētu būt piemēroti un efektīvi. Varētu būt grūti tos pilnībā aizliegt, taču joprojām ir vēlams kontrolēt konkrētu aizsargātu diskrimināciju.
The papīrs par iespēju vienlīdzību uzraudzītās mācībās bija viens no tiem, kas šomēnes tika prezentēti Neironu informācijas apstrādes sistēmās (NIPS) Barselonā, Spānijā, kurā tika piedāvātas metodes diskriminācijas noteikšanai algoritmos. The Guardian.
Redaktoru ieteikumi
- Google Bard drīz varētu kļūt par jūsu jauno AI dzīves treneri
- Elona Muska jaunā AI uzņēmuma mērķis ir "saprast Visumu"
- Viss internets tagad pieder Google AI
- Google liek darbiniekiem būt piesardzīgiem no AI tērzēšanas robotiem
- Kas ir MusicLM? Iepazīstieties ar Google teksta pārveides AI
Uzlabojiet savu dzīvesveiduDigitālās tendences palīdz lasītājiem sekot līdzi straujajai tehnoloģiju pasaulei, izmantojot visas jaunākās ziņas, jautrus produktu apskatus, ieskatu saturošus rakstus un unikālus ieskatus.