Les dirigeants de Google expliquent comment l'IA Peut amplifier le racisme

Deux dirigeants de Google ont déclaré vendredi que les préjugés en matière d'intelligence artificielle nuisent aux communautés déjà marginalisées en Amérique et qu'il faut faire davantage pour garantir que cela ne se produise pas. X. Eyeé, responsable de la sensibilisation à l'innovation responsable chez Google, et Angela Williams, responsable des politiques chez Google, s'est exprimé lors de (Pas IRL) Sommet de la fierté, un événement organisé par Lesbians Who Tech & Allies, la plus grande organisation LGBTQ au monde axée sur la technologie pour les femmes, les personnes non binaires et trans du monde entier.

Dans séparépourparlers, ils ont abordé la manière dont la technologie d’apprentissage automatique peut être utilisée pour nuire à la communauté noire et à d’autres communautés en Amérique – et plus largement dans le monde.

Vidéos recommandées

Les biais dans les algorithmes NE SONT PAS SEULEMENT UN PROBLÈME DE DONNÉES. Le choix d’utiliser l’IA peut être biaisé, la manière dont l’algorithme apprend peut être biaisée, et la manière dont les utilisateurs sont impactés/interagissent avec/perçoivent un système peut renforcer les biais! vérifier

@timnitGebrule travail pour en savoir plus !

- X. Oeil??? (@TechWithX) 26 juin 2020

Williams a discuté de l'utilisation de l'IA. pour une surveillance approfondie, son rôle dans surveillance excessive, et sa mise en œuvre en cas de condamnations biaisées. «[It’s] non pas que la technologie soit raciste, mais nous pouvons intégrer nos propres préjugés inconscients dans la technologie», a-t-elle déclaré. Williams a souligné le cas de Robert Julian-Borchak Williams, un Afro-Américain de Détroit qui a récemment été arrêté à tort après qu'un système de reconnaissance faciale ait fait correspondre sa photo avec des images de sécurité d'un voleur à l'étalage. Des études antérieures ont montré que les systèmes de reconnaissance faciale peuvent avoir du mal à faire la distinction entre les différents noirs. « C’est là que l’A.I. … la surveillance peut tourner terriblement mal dans le monde réel », a déclaré Williams.

X. Eyeé a également expliqué comment l'IA. peut aider à « accroître et renforcer les préjugés injustes ». En plus des utilisations plus quasi-dystopiques et accrocheuses de A.I., Eyeé s'est concentré sur la manière dont les préjugés pourraient s'infiltrer dans des utilisations apparemment plus banales et quotidiennes de la technologie, y compris celle de Google. outils. "Chez Google, nous ne sommes pas étrangers à ces défis", a déclaré Eyeé. « Ces dernières années… nous avons fait la une des journaux à plusieurs reprises sur l’impact négatif de nos algorithmes sur les gens. » Par exemple, Google a développé un outil pour classer la toxicité des commentaires en ligne. Bien que cela puisse être très utile, cela s’est également avéré problématique: des expressions telles que « Je suis une femme gay noire » étaient initialement classées comme plus toxique que « Je suis un homme blanc ». Cela était dû à une lacune dans les ensembles de données de formation, avec plus de conversations sur certaines identités que autres.

Il n’existe aucune solution globale à ces problèmes, ont déclaré les deux dirigeants de Google. Partout où des problèmes sont détectés, Google s’efforce d’éliminer les préjugés. Mais l’étendue des domaines potentiels où les biais peuvent pénétrer dans les systèmes – de la conception des algorithmes à leur déploiement dans le contexte sociétal dans lequel les données sont produites - signifie qu'il y aura toujours des problèmes exemples. L’essentiel est d’en être conscient, de permettre que ces outils soient examinés de près et que les diverses communautés puissent faire entendre leur voix sur l’utilisation de ces technologies.

Recommandations des rédacteurs

  • L’IA peut-elle battre les ingénieurs humains dans la conception de micropuces? Google le pense
  • L'IA BigSleep c'est comme Google Image Search pour des images qui n'existent pas encore
  • Google ramène des humains pour prendre en charge la modération du contenu YouTube de l'IA.
  • Une fausse nouvelle? I.A. l'algorithme révèle des préjugés politiques dans les histoires que vous lisez
  • I.A. la mise à l'échelle donne l'impression que ce film de 1896 a été tourné en 4K éblouissant

Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde en évolution rapide de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.