Mais il existe peut-être une solution – ou du moins un moyen de surveiller les algorithmes et de déterminer s’ils ont discriminé de manière inappropriée un groupe démographique.
Vidéos recommandées
« Les règles de prédiction apprises sont souvent trop complexes à comprendre. »
Proposé par une équipe d'informaticiens de Google, de l'Université de Chicago et de l'Université du Texas à Austin, le Égalité des chances dans l’apprentissage supervisé Cette approche analyse les décisions prises par les programmes d’apprentissage automatique – plutôt que les processus décisionnels eux-mêmes – pour détecter la discrimination. La nature même de ces algorithmes est de prendre des décisions par eux-mêmes, avec leur propre logique, dans une boîte noire cachée à l’examen humain. Les chercheurs considèrent donc qu’accéder aux boîtes noires est pratiquement futile.
"Les règles de prédiction apprises sont souvent trop complexes à comprendre", a déclaré un informaticien et co-auteur de l'Université de Chicago. Nathan Srebro, a déclaré à Digital Trends. « En effet, tout l’intérêt de l’apprentissage automatique est d’apprendre automatiquement une règle [statistiquement] bonne… et non une règle dont la description a nécessairement un sens pour les humains. Avec cette vision de l’apprentissage à l’esprit, nous voulions également pouvoir garantir un sentiment de non-discrimination tout en traitant les règles apprises comme des boîtes noires.
Srebro et co-auteurs Moritz Hardt de Google et Éric Prix de l'UT Austin a développé une approche pour analyser les décisions d'un algorithme et s'assurer qu'il ne fait pas de discrimination dans le processus de prise de décision. Pour ce faire, ils ont appliqué le principe anti-préjudiciable selon lequel une décision concernant une personne en particulier ne devrait pas être fondée uniquement sur ses caractéristiques démographiques. Dans le cas d’un programme d’IA, la décision de l’algorithme concernant une personne ne doit rien révéler sur son sexe ou sa race d’une manière qui serait inappropriée et discriminatoire.
Il s’agit d’un test qui ne résout pas directement le problème, mais qui permet de détecter et de prévenir les processus discriminatoires. C’est pour cette raison que certains chercheurs se méfient.
« L'apprentissage automatique est formidable si vous l'utilisez pour déterminer la meilleure façon de tracer un oléoduc » Noël Sharkey, professeur émérite de robotique et d'IA à l'Université de Sheffield, a déclaré Le gardien. "Jusqu'à ce que nous en sachions plus sur la façon dont les préjugés fonctionnent en eux, je serais très préoccupé par leurs prédictions qui affectent la vie des gens."
Srebro reconnaît cette préoccupation mais ne la considère pas comme une critique radicale de l'approche de son équipe. « Je conviens que dans de nombreuses applications ayant un impact important sur les individus, en particulier celles émanant du gouvernement et autorités judiciaires, l’utilisation de prédicteurs statistiques de type boîte noire n’est pas appropriée et la transparence est vitale », il a dit. « Dans d’autres situations, lorsqu’ils sont utilisés par des entités commerciales et lorsque les enjeux individuels sont moindres, les prédicteurs statistiques de la boîte noire peuvent être appropriés et efficaces. Il peut être difficile de les interdire complètement, mais il est néanmoins souhaitable de contrôler les discriminations spécifiques protégées.
Le article sur l'égalité des chances dans l'apprentissage supervisé était l'un des rares présentés ce mois-ci au Neural Information Processing Systems (NIPS) à Barcelone, en Espagne, qui proposait des approches pour détecter la discrimination dans les algorithmes, selon Le gardien.
Recommandations des rédacteurs
- Google Bard pourrait bientôt devenir votre nouveau coach de vie en IA
- La nouvelle société d’IA d’Elon Musk vise à « comprendre l’univers »
- Tout Internet appartient désormais à l’IA de Google
- Google dit aux travailleurs de se méfier des chatbots IA
- Qu’est-ce que MusicLM? Découvrez l'IA de synthèse texte-musique de Google
Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde en évolution rapide de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.