FN finner att röstassistenter inte hjälper till att fixa sexistiska könsstereotyper

click fraud protection

Din röstassistent har förmodligen en kvinnlig röst. Även om du kanske inte tänker så mycket på det, tror FN: s organisation för utbildning, vetenskap och kultur (UNESCO) att de AI-drivna assistenterna kan vara att förstärka negativa könsstereotyper samtidigt som man misslyckas med att korrekt avvisa våldsamt och kränkande språk, vilket leder till vissa potentiellt skadliga resultat.

I en tidning med titeln "Jag skulle rodna om jag kunde", forskare från UNESCO utforskade några av de implicita fördomar som äger rum i forskning om artificiell intelligens. Tidningens författare föreslår att genom att ge röstassistenter traditionellt kvinnliga namn och tilldela dem kvinnliga röster som standard har företag oavsiktligt förstärkt negativa och regressiva idéer om kvinnor. Det positionerar dem som underordnade och i en roll där de förväntas göra vad de begärs av dem.

Rekommenderade videor

Dessutom tog tidningen en titt på hur röstassistenter reagerar när de presenteras med kränkande språk. Det de hittade är A.I. avleder sådana kommentarer snarare än att vidta någon form av åtgärder för att avskräcka dem. Om en användare hotar en röstassistent producerar det ofta ett fånigt skämt eller ett avvisande meddelande. Forskare vid UNESCO anser att teknikföretag borde bygga in skyddsåtgärder i dessa system som skulle hjälpa till att minska kränkande språk som riktas mot de kvinnliga rösterna. Forskarna menar att företag genom att inte göra det riskerar att normalisera beteenden som att göra våldsamma hot mot kvinnor.

Relaterad

  • Hur man säljer dina föräldrar på en smart assistent
  • Kan ditt smarta hem spara pengar på hemförsäkringen?
  • Appen gör Breville Joule Oven Air Fryer Pro riktigt smart

En del av detta problem, enligt UNESCO, är att de flesta teknikföretag har ingenjörsteam som är omfattande och överväldigande bemannade av män. Eftersom de sannolikt inte har direkt erfarenhet av att hantera den här typen av språk riktat mot dem och inte heller har blivit offer för den typen av negativa stereotyper och föråldrade könsroller som kvinnor hanterar, de tänker inte nödvändigtvis på dessa saker när de utformar A.I. system.

"Företag som Apple och Amazon, bemannade av överväldigande manliga ingenjörsteam, har byggt A.I. system som orsakar deras feminiserade digitala assistenter för att hälsa på verbala övergrepp med fånga-mig-om-du-kan-flirt”, skriver forskarna i sin Rapportera. "Eftersom talet för de flesta röstassistenter är kvinnligt, sänder det en signal om att kvinnor är... fogliga och ivriga hjälpare, tillgängliga med en knapptryckning eller med ett trubbigt röstkommando som "hej" eller 'OK'. Assistenten har ingen handlingskraft utöver vad befälhavaren begär av den. Den hedrar kommandon och svarar på frågor oavsett deras tonfall eller fientlighet."

UNESCO anser att den bästa lösningen på problemet är att skapa en könsneutral röst att A.I. assistenter kan använda. Organisationen föreslår också att man bygger in svar och system som skulle stänga av och motverka aggressivt och våldsamt språk och förolämpningar. Forskare anser att teknikföretag också bör sluta placera röstassistenterna som underordnade människor i ett försök att undvika skadliga stereotyper.

Redaktörens rekommendationer

  • Experter varnar för att AI-assistenter skadar barns sociala utveckling
  • Sammanfattning av husdjur som bråkar med Google och Alexa
  • Home Depots nya Hubspace-kompatibla föremål inkluderar smart kontakt
  • Är det möjligt att gå all-in med ett ekosystem för smarta hem?
  • Google Home (Nest Audio) vs. Amazon Echo

Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.