Ali možda postoji popravak - ili barem način za praćenje algoritama i otkrivanje jesu li neprikladno diskriminirali demografsku skupinu.
Preporučeni videozapisi
"Naučena pravila predviđanja često su previše složena za razumijevanje."
Predložio tim računalnih znanstvenika iz Googlea, Sveučilišta u Chicagu i Sveučilišta Texas, Austin, Jednakost mogućnosti u nadziranom učenju pristup analizira odluke koje donose programi za strojno učenje - umjesto samih procesa donošenja odluka - kako bi se otkrila diskriminacija. Sama priroda ovih algoritama je da sami donose odluke, svojom vlastitom logikom, u crnoj kutiji skrivenoj od ljudskog pregleda. Kao takvi, istraživači smatraju dobivanje pristupa crnim kutijama praktički beskorisnim.
"Naučena pravila predviđanja često su previše složena za razumijevanje", računalni znanstvenik i koautor Sveučilišta u Chicagu, Nathan Srebro, rekao je za Digital Trends. “Doista, cijela poanta strojnog učenja je automatsko učenje [statistički] dobrog pravila...a ne onog čiji opis nužno ima smisla za ljude. S tim pogledom na učenje na umu, također smo željeli biti u mogućnosti osigurati osjećaj nediskriminacije dok i dalje tretiramo naučena pravila kao crne kutije.”
Srebro i koautori Moritz Hardt Googlea i Eric Price s UT Austina razvio je pristup za analizu odluka algoritma i osiguravanje da ne diskriminira u procesu donošenja odluka. Kako bi to učinili, vodili su se načelom protiv predrasuda da se odluka o određenoj osobi ne smije temeljiti isključivo na demografskim podacima te osobe. U slučaju AI programa, odluka algoritma o osobi ne bi trebala otkriti ništa o spolu ili rasi te osobe na način koji bi bio neprimjereno diskriminirajući.
To je test koji ne rješava problem izravno, ali pomaže u označavanju i sprječavanju diskriminatornih procesa. Zbog toga su neki istraživači oprezni.
"Strojno učenje je sjajno ako ga koristite za pronalaženje najboljeg načina usmjeravanja naftovoda," Noel Sharkey, emeritus profesor robotike i umjetne inteligencije na Sveučilištu u Sheffieldu, rekao je Čuvar. "Dok ne saznamo više o tome kako predrasude funkcioniraju u njima, bio bih vrlo zabrinut da daju predviđanja koja utječu na ljudske živote."
Srebro prepoznaje tu zabrinutost, ali je ne smatra opsežnom kritikom pristupa svojih timova. “Slažem se da u mnogim primjenama s visokim ulozima utjecaja na pojedince, posebno od strane vlade i pravosudnim tijelima, korištenje statističkih prediktora crne kutije nije prikladno, a transparentnost je ključna," On je rekao. “U drugim situacijama, kada ih koriste komercijalni subjekti i kada su pojedinačni ulozi manji, statistički prediktori crne kutije mogu biti prikladni i učinkoviti. Možda bi bilo teško potpuno ih zabraniti, ali ipak je poželjno kontrolirati specifičnu zaštićenu diskriminaciju.”
The rad o jednakosti mogućnosti u nadziranom učenju bio je jedan od nekolicine predstavljenih ovog mjeseca na Neural Information Processing Systems (NIPS) u Barceloni, Španjolska, koji je nudio pristupe otkrivanju diskriminacije u algoritmima, prema Čuvar.
Preporuke urednika
- Google Bard bi uskoro mogao postati vaš novi AI životni trener
- Nova AI tvrtka Elona Muska ima za cilj 'razumjeti svemir'
- Cijeli internet sada pripada Googleovoj umjetnoj inteligenciji
- Google poručuje radnicima da budu oprezni s AI chatbotovima
- Što je MusicLM? Provjerite Googleov AI za pretvaranje teksta u glazbu
Nadogradite svoj životni stilDigitalni trendovi pomažu čitateljima da prate brzi svijet tehnologije sa svim najnovijim vijestima, zabavnim recenzijama proizvoda, pronicljivim uvodnicima i jedinstvenim brzim pregledima.