Selvfølgelig kan du ændre Siri til et andet køn og endda en anden accent - jeg bar rundt på en australsk fyr i en mens før skiftet til en brite, foretrækker en digital Alfred Pennyworth - men digitale assistenter skæver kvindelige og forbliver det vej. Det er en opfattelse, som nogle tror måske har en negativ effekt om samfundet i træning alle sammen at tænke på kvinder som assistenter, snarere end som hele mennesker og ligeværdige.
Der er også andre faktorer, der spiller ind. Nogle forskere mener, at vi som mennesker har en naturlig tilbøjelighed til foretrækker en kvindestemme. Historikere og sociologer peger ofte på historien som en prøvesten og antager, at overvægten af kvindestemmer i navigationsenheder går tilbage til Anden Verdenskrig. Atter andre trækker en direkte linje fra portrætteringerne af kvinder i
Gale Mænd, ser tilbage på en tid, hvor kvinder ofte var sekretærer og telefonister. Bare fordi du kan finde en historisk forløber, gør det det ikke okay at fastholde en stereotype.Der er endda en tankegang der mener, at kvindestemmers dominans skyldes tilfælde af mandlig robottrussel i populære medier: tænk HAL 9000 fra 2001: A Space Odyssé eller W.O.P.R. fra Krigsspil. (Nogle vil måske hævde, at GLaDOS fra videospillet Portal er langt mere skræmmende end nogen filmrobot.) Denne er også nem at afvise, takket være de mærkelige, fascinerende portrætteringer af kvindelige A.I.'er i filmene Hal og Eks maskine.
De sproglige ingeniører hos Google og Apple må stå over for en masse forhindringer; kvinder og mænd lyder ikke kun anderledes, når de taler, men de også bruge forskellige ord. Dette kan skabe en sproglig version af digitalt designs "uhyggelig dal”: en kunstig stemme, der lyder kvindelig, men bruger mandslydende sætninger, vil ikke virke autentisk for det menneske, der taler til den. Dette fører til en udveksling, hvor brugeren er mere fokuseret på lyden af stemmen fra den digitale assistent end den information, der videresendes.
Ikke desto mindre er digitale assistenter bestemt baseret på millioner af dollars i markedsundersøgelser, og Silicon Valley-giganterne, der finansierede denne forskning, udgiver ikke statistikker lige nu. Det er bestemt målrettet i designet, som det fremgår af det faktum, at A.I.s som Siri har indbyggede svar for at modstå kønsidentifikation. Hvis du spørger Siri, hvilket køn det er, er svaret generelt: "Jeg er kønsløs, ligesom kaktusser eller visse fiskearter," eller en variation.
Kvinder og mænd lyder ikke kun anderledes, når de taler, men de bruger også forskellige ord
Omvendt har både Apple og Google begge udtalt et ønske om at gøre deres digitale assistenter mere sofistikerede, hvilket giver brugerne en følelse af et forhold frem for en enhed. Det er et potentielt besværligt fænomen som skabere af antropomorfe assistenter at fremhæve ikke-truende og underdanige egenskaber for at opnå social accept. Endnu mere skræmmende er ideen om, at digitale assistenter ikke kun afspejler kønsbias, men forårsager det. Børn er allerede antropomorfisering deres robotvenner, og også bosser dem rundt - en adfærd, forældre ikke ønsker, at de skal udvide til faktiske mennesker.
Dræberrobotekspert, Daniel H. Wilson, en robotiker og forfatter til Roboapokalypse og Hvordan man overlever et robotoprør, er enig i den strøm af svar, der maner til forsigtighed, da kunstig intelligens bliver mere og mere sofistikeret.
"Overvægten af kvindelige virtuelle assistenter er et bevis på, at robotter kan være en afspejling af menneskelige stereotyper," sagde han til Digital Trends. "Når vi fortsætter med at skabe teknologi, der står i for mennesker, er det afgørende, at designere arbejder for at undgå at fastholde menneskelige fordomme gennem deres kreationer."
Bill Roberson/Digital Trends
Kønsbias er ikke et nyt fænomen, og det viser sig på overraskende måder - det er grunden til, at dit barn ikke kunne købe en Rey actionfigur, når Kraften vækkes kom ud, eller hvorfor Tony Stark erstatter sin trofaste A.I. Jarvis med en "Girl Friday" - men det er noget, som A.I. udviklere bør overveje, når de fortsætter med at tilpasse deres digitale assistenter. Afvigende stemmer, kan forfattere lide Jessica Nordell og Soraya Chemalystiller de rigtige spørgsmål.
"Mange mennesker afviser spørgsmål som disse, der grundlæggende handler om repræsentation og dens indvirkning på selvbillede, ambitioner og menneskelige potentialer, som ligegyldige, men de tager fejl." skriver Chemaly ved Rolle Reboot. "At navngive og designe produkter på disse måder er både et symptom på bias og en årsag, og trin bør være det taget i design af ny teknologi for at forstå, hvordan sociale uligheder er relateret til teknisk dem."
Ovre på New Republic har Nordell også nogle vismands råd: "I det mindste bør standardindstillingerne for disse assistenter ikke altid være kvinder," hun skriver. "Skift Viv til Victor, og måske vil en kvinde færre blive bedt om at være det næste mødes udpegede notatskriver."
Redaktørens anbefalinger
- Glem ChatGPT - Siri og Google Assistant gør disse 4 ting bedre
- Tro ikke på markedsføringen! Robotkokke er ikke, hvad du tror, de er
- Undgå at sige disse ord i nærheden af din smarthøjttaler, hvis du ikke vil have den til at lytte
- Apples nye Seattle-campus kan betyde store ting for Siri, kunstig intelligens
- FN finder, at stemmeassistenter ikke hjælper med at bekæmpe sexistiske kønsstereotyper
Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.