Maar er kan een oplossing zijn – of op zijn minst een manier om algoritmen te monitoren en te bepalen of ze een demografische groep op ongepaste wijze hebben gediscrimineerd.
Aanbevolen video's
“Aangeleerde voorspellingsregels zijn vaak te complex om te begrijpen.”
Voorgesteld door een team van computerwetenschappers van Google, de Universiteit van Chicago en de Universiteit van Texas, Austin, de Gelijke kansen bij begeleid leren aanpak analyseert de beslissingen die machine learning-programma’s nemen – in plaats van de besluitvormingsprocessen zelf – om discriminatie op te sporen. De aard van deze algoritmen is dat ze zelfstandig beslissingen nemen, met hun eigen logica, in een zwarte doos die verborgen is voor menselijke beoordeling. Als zodanig beschouwen de onderzoekers het verkrijgen van toegang tot de zwarte dozen als praktisch nutteloos.
“Aangeleerde voorspellingsregels zijn vaak te complex om te begrijpen”, zegt computerwetenschapper en co-auteur van de Universiteit van Chicago. Nathan Srebro, vertelde Digitale Trends. “Inderdaad, het hele punt van machinaal leren is om automatisch een [statistisch] goede regel te leren… niet een waarvan de beschrijving noodzakelijkerwijs logisch is voor mensen. Met deze kijk op leren in gedachten wilden we ook een gevoel van non-discriminatie kunnen garanderen, terwijl we aangeleerde regels toch als zwarte dozen zouden behandelen.”
Srebro en co-auteurs Moritz Hardt van Google en Erik Prijs van UT Austin ontwikkelde een aanpak om de beslissingen van een algoritme te analyseren en ervoor te zorgen dat het niet discrimineerde in het besluitvormingsproces. Om dit te doen, voerden ze het anti-vooroordeelprincipe uit dat een beslissing over een bepaalde persoon niet uitsluitend gebaseerd mag zijn op de demografische gegevens van die persoon. In het geval van een AI-programma mag de beslissing van het algoritme over een persoon niets onthullen over het geslacht of ras van die persoon op een manier die ongepast discriminerend zou zijn.
Het is een test die het probleem niet direct oplost, maar die discriminerende processen helpt signaleren en voorkomen. Om deze reden zijn sommige onderzoekers op hun hoede.
“Machine learning is geweldig als je het gebruikt om de beste manier te vinden om een oliepijpleiding te routeren,” Noël Sharkey, vertelde emeritus hoogleraar robotica en AI aan de Universiteit van Sheffield De Bewaker. “Totdat we meer weten over de manier waarop vooroordelen daarin werken, zou ik me grote zorgen maken over het feit dat ze voorspellingen doen die de levens van mensen beïnvloeden.”
Srebro erkent deze bezorgdheid, maar beschouwt het niet als ingrijpende kritiek op de aanpak van zijn team. “Ik ben het ermee eens dat in veel toepassingen met grote gevolgen voor individuen, vooral door de overheid gerechtelijke autoriteiten is het gebruik van statistische black box-voorspellers niet gepast en is transparantie van cruciaal belang.” hij zei. “In andere situaties, wanneer ze worden gebruikt door commerciële entiteiten en wanneer de individuele inzet lager is, kunnen statistische voorspellers uit de zwarte doos geschikt en efficiënt zijn. Het kan moeilijk zijn om ze volledig te verbieden, maar toch is het wenselijk om te controleren op specifieke beschermde discriminatie.”
De paper over gelijke kansen bij begeleid leren was een van de weinige die deze maand werd gepresenteerd op de Neural Information Processing Systems (NIPS) in Barcelona, Spanje, die benaderingen aanboden voor het opsporen van discriminatie in algoritmen, aldus De Bewaker.
Aanbevelingen van de redactie
- Google Bard zou binnenkort uw nieuwe AI-levenscoach kunnen worden
- Het nieuwe AI-bedrijf van Elon Musk wil 'het universum begrijpen'
- Het hele internet is nu eigendom van de AI van Google
- Google vertelt werknemers dat ze op hun hoede moeten zijn voor AI-chatbots
- Wat is MuziekLM? Bekijk de tekst-naar-muziek-AI van Google
Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.