Google-managers leggen uit hoe A.I. Kan racisme versterken

Twee leidinggevenden van Google zeiden vrijdag dat vooringenomenheid op het gebied van kunstmatige intelligentie reeds gemarginaliseerde gemeenschappen in Amerika schaadt, en dat er meer moet worden gedaan om ervoor te zorgen dat dit niet gebeurt. X. Oog, outreachleider voor verantwoorde innovatie bij Google, en Angela Williams, beleidsmanager bij Google, sprak op (Niet IRL) Pride Summit, een evenement georganiseerd door Lesbians Who Tech & Allies, 's werelds grootste technologiegerichte LGBTQ-organisatie voor vrouwen, non-binaire mensen en transgenders over de hele wereld.

In verschillendpraatgingen ze in op de manieren waarop machine learning-technologie kan worden gebruikt om schade toe te brengen aan de zwarte gemeenschap en andere gemeenschappen in Amerika – en breder over de hele wereld.

Aanbevolen video's

Vooroordelen in algoritmen IS NIET ALLEEN EEN DATAPROBLEEM. De keuze om AI te gebruiken kan bevooroordeeld zijn, de manier waarop het algoritme leert kan bevooroordeeld zijn, en de manier waarop gebruikers worden beïnvloed/interageren met/percipiëren van een systeem kan vooroordelen versterken! uitchecken

@timnitGebru’s werk om meer te leren!

- X. Oog??? (@TechWithX) 26 juni 2020

Williams besprak het gebruik van AI. voor ingrijpende surveillance, de rol ervan in overmatig politiewerk, en de implementatie ervan voor bevooroordeelde veroordeling. “[Het is] niet dat de technologie racistisch is, maar we kunnen onze eigen onbewuste vooroordelen in de technologie coderen”, zei ze. Williams benadrukte de geval van Robert Julian-Borchak Williams, een Afro-Amerikaanse man uit Detroit die onlangs ten onrechte werd gearresteerd nadat een gezichtsherkenningssysteem zijn foto ten onrechte had gekoppeld aan beveiligingsbeelden van een winkeldief. Eerdere onderzoeken hebben aangetoond dat gezichtsherkenningssystemen hier moeite mee kunnen hebben onderscheid maken tussen verschillende zwarte mensen. “Dit is waar A.I. … surveillance kan in de echte wereld vreselijk misgaan,” zei Williams.

X. Eyeé besprak ook hoe A.I. kan helpen ‘oneerlijke vooroordelen op te schalen en te versterken’. Naast het meer quasi-dystopische, opvallende gebruik van A.I. concentreerde Eyeé zich op de manier waarop vooroordelen konden binnensluipen in ogenschijnlijk alledaagse, alledaagse toepassingen van technologie – inclusief die van Google hulpmiddelen. “Bij Google zijn we geen onbekende in deze uitdagingen”, zegt Eyeé. “De afgelopen jaren zijn we meerdere keren in het nieuws geweest over de negatieve invloed van onze algoritmen op mensen.” Google heeft er bijvoorbeeld een tool voor ontwikkeld het classificeren van de toxiciteit van online reacties. Hoewel dit erg nuttig kan zijn, was het ook problematisch: zinnen als ‘Ik ben een zwarte homoseksuele vrouw’ werden aanvankelijk geclassificeerd als meer giftig dan ‘Ik ben een blanke man’. Dit was te wijten aan een gat in de trainingsdatasets, waardoor er meer gesprekken over bepaalde identiteiten plaatsvonden anderen.

Er zijn geen overkoepelende oplossingen voor deze problemen, aldus de twee Google-managers. Overal waar problemen worden aangetroffen, probeert Google vooroordelen weg te nemen. Maar de reikwijdte van potentiële plaatsen waar vooroordelen systemen kunnen binnendringen – van het ontwerp van algoritmen tot hun implementatie in de maatschappelijke context waarin gegevens worden geproduceerd – betekent dat er altijd problemen zullen zijn voorbeelden. De sleutel is dat we ons hiervan bewust zijn, dat dergelijke instrumenten onder de loep worden genomen en dat diverse gemeenschappen hun stem kunnen laten horen over het gebruik van deze technologieën.

Aanbevelingen van de redactie

  • Kan A.I. menselijke ingenieurs verslaan bij het ontwerpen van microchips? Google denkt van wel
  • De BigSleep AI is als Google Image Search voor afbeeldingen die nog niet bestaan
  • Google brengt mensen terug om het modereren van YouTube-inhoud over te nemen van A.I.
  • Nepnieuws? AI algoritme onthult politieke vooroordelen in de verhalen die je leest
  • AI Door de opschaling lijkt deze film uit 1896 opgenomen in oogverblindend 4K

Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.