Waarom zijn digitale assistenten zoals Siri en Alexa meestal vrouwelijk?

We worden tegenwoordig omringd door behulpzame assistenten, van Apple's Siri tot Microsoft's futuristische Cortana naar Alexa van Amazon tot … wat de aanduiding voor “OK Google” ook is – en elk van hen is standaard een vrouw persona. Als reactie hierop zijn veel schrijvers dat wel vragen als de neiging van postmoderne digitale assistenten om vrouwen te scheeftrekken gevaarlijk is voor de samenleving.

Natuurlijk kun je Siri veranderen in een ander geslacht en zelfs een ander accent – ​​ik had een Australische kerel een tijdje bij me terwijl voordat hij overstapte naar een Brit, hij de voorkeur gaf aan een digitale Alfred Pennyworth – maar digitale assistenten vertekenen vrouwen en blijven dat manier. Het is een perceptie waarvan sommigen denken dat die bestaat een negatief effect over de samenleving in opleiding iedereen om vrouwen te zien als assistenten, in plaats van als hele menselijke wezens en gelijken.

Er zijn ook andere factoren die een rol spelen. Sommige onderzoekers geloven dat wij als mensen daar een natuurlijke neiging toe hebben

liever een vrouwenstem. Historici en sociologen wijzen vaak op de geschiedenis als toetssteen en veronderstellen dat het overwicht van vrouwenstemmen in navigatieapparatuur teruggaat tot de Tweede Wereldoorlog. Weer anderen trekken een directe lijn uit de portretten van vrouwen Gekke mannen, terugkijkend op een tijd waarin vrouwen dat vaak waren secretaresses en telefonisten. Het feit dat je een historische voorloper kunt vinden, betekent nog niet dat je een stereotype in stand kunt houden.

Er is zelfs een denkschool die denkt dat de dominantie van vrouwenstemmen te wijten is aan de gevallen van mannelijke robotdreiging in de populaire media: denk aan HAL 9000 van 2001: Een ruimte Odyssee of W.O.P.R. van Oorlog spellen. (Sommigen zouden kunnen beweren dat GLaDOS uit de videogame Portaal is veel enger dan welke filmrobot dan ook.) Deze is ook gemakkelijk te negeren, dankzij de vreemde, fascinerende afbeeldingen van vrouwelijke AI's in de films Hal En Ex Machina.

De taalingenieurs bij Google en Apple moeten met veel hindernissen worden geconfronteerd; Vrouwen en mannen klinken niet alleen anders als ze spreken, maar zij ook gebruik verschillende woorden. Dit kan een taalkundige versie creëren van de “griezelige vallei”: een kunstmatige stem die vrouwelijk klinkt, maar mannelijk klinkende zinnen gebruikt, zal niet authentiek lijken voor de mens die ertegen spreekt. Dit leidt tot een uitwisseling waarbij de gebruiker meer gefocust is op het geluid van de stem van de digitale assistent dan op de informatie die wordt doorgegeven.

Niettemin zijn digitale assistenten zeker gebaseerd op miljoenen dollars aan marktonderzoek, en de giganten uit Silicon Valley die dat onderzoek hebben gefinancierd, zullen niet snel statistieken vrijgeven. Het ontwerp is zeker doelgericht, zoals blijkt uit het feit dat AI’s zoals Siri dat hebben ingebouwde reacties om genderidentificatie te weerstaan. Als je Siri vraagt ​​welk geslacht het is, is het antwoord doorgaans: ‘Ik ben geslachtloos, zoals cactussen of bepaalde vissoorten’, of een variant daarvan.

Vrouwen en mannen klinken niet alleen anders als ze spreken, maar ze gebruiken ook verschillende woorden

Omgekeerd hebben zowel Apple als Google allebei de wens uitgesproken om hun digitale assistenten geavanceerder te maken, waardoor gebruikers het gevoel krijgen van een relatie in plaats van een apparaat. Het is een potentieel lastig fenomeen voor makers van antropomorfe assistenten om niet-bedreigende en onderdanige kwaliteiten te benadrukken om sociale acceptatie te bereiken. Enger nog is het idee dat digitale assistenten niet alleen gendervooroordelen weerspiegelen, maar deze ook veroorzaken. Kinderen zijn dat al antropomorfiseren hun robotvrienden, en hen ook de baas spelen – een gedrag waarvan ouders niet willen dat ze dat ook doorvoeren naar echte mensen.

Killer robot-expert, Daniël H. Wilson, een roboticus en de auteur van Robo-apocalyps En Hoe je een robotopstand kunt overleven is het eens met de stroom aan reacties die oproepen tot voorzichtigheid nu kunstmatige intelligentie steeds geavanceerder wordt.

“Het overwicht van vrouwelijke virtuele assistenten is het bewijs dat robots een weerspiegeling kunnen zijn van menselijke stereotypen”, vertelde hij aan Digital Trends. “Terwijl we technologie blijven creëren die in de plaats komt van mensen, is het van cruciaal belang dat ontwerpers proberen te voorkomen dat menselijke vooroordelen door hun creaties in stand worden gehouden.”

Bill Roberson/Digitale trends

Bill Roberson/Digitale trends

Geslachtsvooroordelen zijn geen nieuw fenomeen en komen op verrassende manieren naar voren: het is de reden dat uw kind geen Rey-actiefiguur kon kopen toen De kracht ontwaakt uitkwam, of waarom Tony Stark zijn trouwe A.I. Jarvis met een “Girl Friday” – maar het is iets dat A.I. ontwikkelaars zouden dit moeten overwegen terwijl ze doorgaan met het aanpassen van hun digitale assistenten. Afwijkende stemmen, zoals schrijvers Jessica Nordell En Soraya Chemaly, stellen de juiste vragen.

“Veel mensen doen dit soort kwesties, die fundamenteel te maken hebben met representatie en de impact ervan op het zelfbeeld, de ambitie en het menselijk potentieel, af als onbelangrijk, maar ze vergissen zich.” schrijft Chemaly bij Rol opnieuw opstarten. “Het op deze manieren benoemen en ontwerpen van producten is zowel een symptoom van vooringenomenheid als een oorzaak, en stappen zouden dat ook moeten zijn genomen bij het ontwerpen van nieuwe technologie om te begrijpen hoe sociale ongelijkheden verband houden met technische aspecten degenen.”

Bij de New Republic heeft Nordell er ook een paar wijs advies: “Op zijn minst zouden de standaardinstellingen voor deze assistenten niet altijd vrouwen moeten zijn”, zegt ze schrijft. ‘Verander Viv in Victor, en misschien wordt er voor de volgende bijeenkomst een vrouw minder gevraagd als notulist.’

Aanbevelingen van de redactie

  • Vergeet ChatGPT: Siri en Google Assistant doen deze vier dingen beter
  • Geloof de marketing niet! Robotkoks zijn niet wat je denkt dat ze zijn
  • Vermijd deze woorden in de buurt van uw slimme luidspreker als u niet wilt dat deze luistert
  • De nieuwe campus van Apple in Seattle kan grote dingen betekenen voor Siri, kunstmatige intelligentie
  • De VN vindt dat stemassistenten niet helpen seksistische genderstereotypen te bestrijden

Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.