FN finder, at stemmeassistenter ikke hjælper med at rette op på sexistiske kønsstereotyper

Din valgte stemmeassistent har sandsynligvis en kvindelig stemme. Selvom du måske ikke tænker så meget over det, mener FN's organisation for uddannelse, videnskab og kultur (UNESCO) at de AI-drevne assistenter kan være at forstærke negative kønsstereotyper og samtidig undlade at afvise voldeligt og krænkende sprog, hvilket fører til nogle potentielt skadelige udfald.

I et papir med titlen "Jeg ville rødme, hvis jeg kunne,” forskere fra UNESCO udforskede nogle af de implicitte skævheder, der finder sted i kunstig intelligens-forskning. Avisens forfattere foreslår, at ved at give stemmeassistenter traditionelt kvindenavne og tildele dem kvindelige stemmer som standard, har virksomheder utilsigtet forstærket negative og regressive ideer om Kvinder. Det placerer dem som underdanige og i en rolle, hvor de forventes at gøre, hvad de bliver bedt om.

Anbefalede videoer

Derudover tog avisen et kig på, hvordan stemmeassistenter reagerer, når de bliver præsenteret for krænkende sprog. Det, de fandt, er A.I. afleder sådanne kommentarer i stedet for at tage nogen form for handling for at afskrække dem. Hvis en bruger truer en stemmeassistent, producerer det ofte en fjollet joke eller en afvisende besked. Forskere ved UNESCO mener, at teknologivirksomheder bør indbygge sikkerhedsforanstaltninger i disse systemer, der vil hjælpe med at mindske krænkende sprog rettet mod de kvindelige stemmer. Forskerne mener, at virksomheder ved at undlade at gøre det risikerer at normalisere adfærd som at fremsætte voldelige trusler mod kvinder.

Relaterede

  • Sådan sælger du dine forældre på en smart assistent
  • Kan dit smarte hjem spare dig penge på husejerforsikringen?
  • App gør Breville Joule Oven Air Fryer Pro virkelig smart

En del af dette problem er ifølge UNESCO, at de fleste teknologivirksomheder har ingeniørhold, der er bemandet i vid udstrækning og overvældende af mænd. Fordi de sandsynligvis ikke har direkte erfaring med at håndtere denne type sprog rettet mod dem, og de har heller ikke været ofre for den type negative stereotyper og forældede kønsroller, som kvinder beskæftiger sig med, tænker de ikke nødvendigvis på disse ting, når de designer A.I. systemer.

"Virksomheder som Apple og Amazon, bemandet af overvældende mandlige ingeniørteams, har bygget A.I. systemer, der forårsager deres feminiserede digitale assistenter til at hilse på verbale overgreb med fang-mig-hvis-du-kan-flirt,” skriver forskerne i deres rapport. "Fordi de fleste stemmeassistenters tale er kvindelig, sender det et signal om, at kvinder er … føjelige og ivrige hjælpere, tilgængelige med et tryk på en knap eller med en stump stemmekommando som "hey" eller 'OKAY'. Assistenten har ingen handlekraft ud over, hvad chefen beder den om. Det respekterer kommandoer og reagerer på forespørgsler uanset deres tone eller fjendtlighed."

UNESCO mener, at den bedste løsning på problemet er at skabe en kønsneutral stemme at A.I. assistenter kan bruge. Organisationen foreslår også at indbygge reaktioner og systemer, der ville lukke ned og modvirke aggressivt og voldeligt sprog og fornærmelser. Forskere mener, at teknologivirksomheder også bør stoppe med at placere stemmeassistenterne som underdanige mennesker i et forsøg på at undgå at udvide skadelige stereotyper.

Redaktørens anbefalinger

  • Eksperter advarer om, at AI-assistenter skader børns sociale udvikling
  • Opsummering af kæledyr, der roder med Google og Alexa
  • Home Depots nye Hubspace-kompatible varer inkluderer et smart stik
  • Er det muligt at gå all-in med ét økosystem i et smart hjem?
  • Google Home (Nest Audio) vs. Amazon Echo

Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.