Varför är digitala assistenter som Siri och Alexa vanligtvis kvinnor?

click fraud protection
Vi befinner oss omgivna av hjälpsamma assistenter nuförtiden, från Apples Siri till Microsofts futuristiska Cortana till Amazons Alexa till... oavsett beteckningen för "OK ​​Google" - och var och en av dem är som standard en kvinna persona. Som svar är många författare frågar om postmoderna digitala assistenters tendens att skeva kvinnligt är en farlig sak för samhället.

Visst, du kan ändra Siri till ett annat kön och till och med en annan accent - jag bar runt på en australisk kille för en medan innan du byter till en britt, föredrar en digital Alfred Pennyworth - men digitala assistenter snedvrider kvinnan och förblir det sätt. Det är en uppfattning som vissa tror kan ha en negativ effekt om samhället i träning alla att tänka på kvinnor som assistenter, snarare än som hela människor och jämställda.

Det finns också andra faktorer som spelar in. Vissa forskare tror att vi som människor har en naturlig benägenhet till föredrar en kvinnlig röst. Historiker och sociologer pekar ofta på historien som en prövsten och antar att övervägande kvinnliga röster i navigationsenheter går tillbaka till andra världskriget. Ytterligare andra drar en direkt linje från porträtteringen av kvinnor i

Galna män, ser tillbaka på en tid då kvinnor ofta var sekreterare och telefonister. Bara för att du kan hitta en historisk föregångare gör det inte att det är okej att föreviga en stereotyp.

Det finns till och med en tankeskola som tror att dominansen av kvinnliga röster beror på förekomsten av manligt robothot i populära media: tänk HAL 9000 från 2001: A Space Odyssey eller W.O.P.R. från Krigsspel. (Vissa kanske hävdar att GLaDOS från videospelet Portal är mycket läskigare än någon filmrobot.) Den här är också lätt att avfärda, tack vare de konstiga, fascinerande porträtteringen av kvinnliga A.I.s i filmerna Hal och Ex Machine.

Språkingenjörerna på Google och Apple måste möta många hinder; kvinnor och män låter inte bara olika när de pratar, utan de också använda olika ord. Detta kan skapa en språklig version av digital designs "kuslig dal”: en konstgjord röst som låter kvinnlig, men använder manligt klingande fraser, kommer inte att verka autentisk för den människa som talar till den. Detta leder till ett utbyte där användaren fokuserar mer på ljudet från den digitala assistentens röst än på informationen som förmedlas.

Ändå är digitala assistenter verkligen baserade på miljontals dollar i marknadsundersökningar, och Silicon Valley-jättarna som finansierade den forskningen släpper inte statistik någon gång snart. Det är verkligen målmedvetet i design, vilket framgår av det faktum att A.I.s som Siri har inbyggda svar för att motstå könsidentifiering. Om du frågar Siri vilket kön det är, är svaret generellt: "Jag är könslös, som kaktusar eller vissa fiskarter", eller en variant.

Kvinnor och män låter inte bara olika när de talar, utan de använder också olika ord

Omvänt har både Apple och Google båda uttryckt en önskan att göra sina digitala assistenter mer sofistikerade, vilket ger användarna en känsla av ett förhållande snarare än en enhet. Det är ett potentiellt besvärligt fenomen som skapare av antropomorfa assistenter att betona icke-hotande och undergivna egenskaper för att uppnå social acceptans. Ännu läskigare är tanken att digitala assistenter inte bara speglar könsfördomar utan också orsakar det. Barn är redan det antropomorfiserande deras robotvänner, och även sörja för dem - ett beteende som föräldrar inte vill att de ska utsträcka till faktiska människor.

Expert på mördarrobot, Daniel H. Wilson, en robotist och författare till Roboapokalyps och Hur man överlever ett robotuppror, håller med om floden av svar som manar till försiktighet när artificiell intelligens blir mer och mer sofistikerad.

"Övervägandet av kvinnliga virtuella assistenter är ett bevis på att robotar kan vara en återspegling av mänskliga stereotyper," sa han till Digital Trends. "När vi fortsätter att skapa teknik som står för människor, är det avgörande att designers arbetar för att undvika att vidmakthålla mänskliga fördomar genom sina skapelser."

Bill Roberson/Digital Trends

Bill Roberson/Digital Trends

Genusbias är inte ett nytt fenomen och det visar sig på överraskande sätt - det är anledningen till att ditt barn inte kunde köpa en Rey actionfigur när Kraften vaknar kom ut, eller varför Tony Stark ersätter sin pålitliga A.I. Jarvis med en "Girl Friday" - men det är något som A.I. utvecklare bör överväga när de fortsätter att finjustera sina digitala assistenter. Avvikande röster, gillar författare Jessica Nordell och Soraya Chemalyställer de rätta frågorna.

"Många människor avfärdar frågor som dessa, som i grunden handlar om representation och dess inverkan på självbild, ambition och mänsklig potential, som oviktiga, men de har fel." skriver Chemaly vid Roll Reboot. "Att namnge och designa produkter på dessa sätt är både ett symptom på partiskhet och en orsak, och steg borde vara det tas i utformningen av ny teknik för att förstå hur sociala ojämlikheter är relaterade till tekniska sådana."

Borta på New Republic har Nordell också några salvia råd: "Åtminstone bör standardinställningarna för dessa assistenter inte alltid vara kvinnor," hon skriver. "Ändra Viv till Victor, och kanske en kvinna färre kommer att bli ombedd att vara nästa mötes utsedda anteckningstagare."

Redaktörens rekommendationer

  • Glöm ChatGPT — Siri och Google Assistant gör dessa fyra saker bättre
  • Tro inte på marknadsföringen! Robotkockar är inte vad du tror att de är
  • Undvik att säga dessa ord nära din smarta högtalare om du inte vill att den ska lyssna
  • Apples nya Seattle-campus kan betyda stora saker för Siri, artificiell intelligens
  • FN finner att röstassistenter inte hjälper till att bekämpa sexistiska könsstereotyper

Uppgradera din livsstilDigitala trender hjälper läsarna att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.