Novi test osmišljen je za otkrivanje diskriminacije u AI programima

Što-je-google-duplex
Umjetna inteligencija još nije svjesna, ali algoritmi još uvijek mogu razlikovati, ponekad suptilno izražavajući skrivene pristranosti programera koji su ih stvorili. To je velik, kompliciran problem, jer AI sustavi postaju sve više upleteni u naše svakodnevne živote.

Ali možda postoji popravak - ili barem način za praćenje algoritama i otkrivanje jesu li neprikladno diskriminirali demografsku skupinu.

Preporučeni videozapisi

"Naučena pravila predviđanja često su previše složena za razumijevanje."


Predložio tim računalnih znanstvenika iz Googlea, Sveučilišta u Chicagu i Sveučilišta Texas, Austin, Jednakost mogućnosti u nadziranom učenju pristup analizira odluke koje donose programi za strojno učenje - umjesto samih procesa donošenja odluka - kako bi se otkrila diskriminacija. Sama priroda ovih algoritama je da sami donose odluke, svojom vlastitom logikom, u crnoj kutiji skrivenoj od ljudskog pregleda. Kao takvi, istraživači smatraju dobivanje pristupa crnim kutijama praktički beskorisnim.

"Naučena pravila predviđanja često su previše složena za razumijevanje", računalni znanstvenik i koautor Sveučilišta u Chicagu, Nathan Srebro, rekao je za Digital Trends. “Doista, cijela poanta strojnog učenja je automatsko učenje [statistički] dobrog pravila...a ne onog čiji opis nužno ima smisla za ljude. S tim pogledom na učenje na umu, također smo željeli biti u mogućnosti osigurati osjećaj nediskriminacije dok i dalje tretiramo naučena pravila kao crne kutije.”

Srebro i koautori Moritz Hardt Googlea i Eric Price s UT Austina razvio je pristup za analizu odluka algoritma i osiguravanje da ne diskriminira u procesu donošenja odluka. Kako bi to učinili, vodili su se načelom protiv predrasuda da se odluka o određenoj osobi ne smije temeljiti isključivo na demografskim podacima te osobe. U slučaju AI programa, odluka algoritma o osobi ne bi trebala otkriti ništa o spolu ili rasi te osobe na način koji bi bio neprimjereno diskriminirajući.

To je test koji ne rješava problem izravno, ali pomaže u označavanju i sprječavanju diskriminatornih procesa. Zbog toga su neki istraživači oprezni.

"Strojno učenje je sjajno ako ga koristite za pronalaženje najboljeg načina usmjeravanja naftovoda," Noel Sharkey, emeritus profesor robotike i umjetne inteligencije na Sveučilištu u Sheffieldu, rekao je Čuvar. "Dok ne saznamo više o tome kako predrasude funkcioniraju u njima, bio bih vrlo zabrinut da daju predviđanja koja utječu na ljudske živote."

Srebro prepoznaje tu zabrinutost, ali je ne smatra opsežnom kritikom pristupa svojih timova. “Slažem se da u mnogim primjenama s visokim ulozima utjecaja na pojedince, posebno od strane vlade i pravosudnim tijelima, korištenje statističkih prediktora crne kutije nije prikladno, a transparentnost je ključna," On je rekao. “U drugim situacijama, kada ih koriste komercijalni subjekti i kada su pojedinačni ulozi manji, statistički prediktori crne kutije mogu biti prikladni i učinkoviti. Možda bi bilo teško potpuno ih zabraniti, ali ipak je poželjno kontrolirati specifičnu zaštićenu diskriminaciju.”

The rad o jednakosti mogućnosti u nadziranom učenju bio je jedan od nekolicine predstavljenih ovog mjeseca na Neural Information Processing Systems (NIPS) u Barceloni, Španjolska, koji je nudio pristupe otkrivanju diskriminacije u algoritmima, prema Čuvar.

Preporuke urednika

  • Google Bard bi uskoro mogao postati vaš novi AI životni trener
  • Nova AI tvrtka Elona Muska ima za cilj 'razumjeti svemir'
  • Cijeli internet sada pripada Googleovoj umjetnoj inteligenciji
  • Google poručuje radnicima da budu oprezni s AI chatbotovima
  • Što je MusicLM? Provjerite Googleov AI za pretvaranje teksta u glazbu

Nadogradite svoj životni stilDigitalni trendovi pomažu čitateljima da prate brzi svijet tehnologije sa svim najnovijim vijestima, zabavnim recenzijama proizvoda, pronicljivim uvodnicima i jedinstvenim brzim pregledima.