Ma potrebbe esserci una soluzione, o almeno un modo per monitorare gli algoritmi e capire se hanno discriminato in modo inappropriato un dato gruppo demografico.
Video consigliati
“Le regole di previsione apprese sono spesso troppo complesse da comprendere”.
Proposto da un team di scienziati informatici di Google, dell'Università di Chicago e dell'Università del Texas, Austin, il Pari opportunità nell’apprendimento supervisionato L’approccio analizza le decisioni prese dai programmi di apprendimento automatico – piuttosto che i processi decisionali stessi – per rilevare la discriminazione. La natura stessa di questi algoritmi è quella di prendere decisioni da soli, con la propria logica, in una scatola nera nascosta alla revisione umana. Pertanto, i ricercatori ritengono che l’accesso alle scatole nere sia praticamente inutile.
"Le regole di previsione apprese sono spesso troppo complesse da comprendere", ha affermato lo scienziato informatico e coautore dell'Università di Chicago. Nathan Srebro, ha detto a Digital Trends. “In effetti, lo scopo principale dell’apprendimento automatico è apprendere automaticamente una regola [statisticamente] buona… non una la cui descrizione abbia necessariamente senso per gli esseri umani. Tenendo presente questa visione dell’apprendimento, volevamo anche essere in grado di garantire un senso di non discriminazione pur trattando le regole apprese come scatole nere”.
Srebro e coautori Moritz Hardt di Google e Eric Prezzo dell’UT Austin ha sviluppato un approccio per analizzare le decisioni di un algoritmo e assicurarsi che non faccia discriminazioni nel processo decisionale. Per fare ciò, hanno adottato il principio anti-pregiudiziale secondo cui una decisione su una determinata persona non dovrebbe basarsi esclusivamente sulla sua demografia. Nel caso di un programma di intelligenza artificiale, la decisione dell’algoritmo su una persona non dovrebbe rivelare nulla sul genere o sulla razza di quella persona in un modo che possa risultare inappropriatamente discriminatorio.
È un test che non risolve direttamente il problema ma aiuta a segnalare e prevenire processi discriminatori. Per questo motivo alcuni ricercatori sono diffidenti.
“L’apprendimento automatico è ottimo se lo usi per capire il modo migliore per instradare un oleodotto”, Noël Sharkey, professore emerito di robotica e intelligenza artificiale all'Università di Sheffield Il guardiano. “Fino a quando non ne sapremo di più su come funzionano i pregiudizi, sarei molto preoccupato che facessero previsioni che influenzano la vita delle persone”.
Srebro riconosce questa preoccupazione ma non la considera una critica radicale all'approccio della sua squadra. “Sono d’accordo sul fatto che in molte applicazioni con un impatto ad alto rischio sugli individui, soprattutto da parte del governo e autorità giudiziarie, l’uso di predittori statistici a scatola nera non è appropriato e la trasparenza è vitale”, Egli ha detto. “In altre situazioni, quando utilizzati da entità commerciali e quando la posta in gioco individuale è inferiore, i predittori statistici della scatola nera potrebbero essere appropriati ed efficienti. Potrebbe essere difficile vietarli completamente, ma è comunque auspicabile controllarli per una specifica discriminazione protetta”.
IL articolo sull’uguaglianza di opportunità nell’apprendimento supervisionato è stato uno dei pochi presentati questo mese al Neural Information Processing Systems (NIPS) di Barcellona, in Spagna, che ha offerto approcci per rilevare la discriminazione negli algoritmi, secondo Il guardiano.
Raccomandazioni degli editori
- Google Bard potrebbe presto diventare il tuo nuovo life coach basato sull'intelligenza artificiale
- La nuova società di intelligenza artificiale di Elon Musk mira a “comprendere l’universo”
- Tutta Internet ora appartiene all’intelligenza artificiale di Google
- Google dice ai lavoratori di diffidare dei chatbot IA
- Cos'è MusicLM? Dai un'occhiata all'intelligenza artificiale di testo in musica di Google
Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.