FN finner at stemmeassistenter ikke hjelper med å fikse sexistiske kjønnsstereotyper

Valget stemmeassistent har sannsynligvis en kvinnelig stemme. Selv om du kanskje ikke tenker så mye over det, mener FNs organisasjon for utdanning, vitenskap og kultur (UNESCO) at de AI-drevne assistentene kan være å forsterke negative kjønnsstereotypier samtidig som de ikke klarer å avvise voldelig og krenkende språk, noe som fører til noen potensielt skadelige utfall.

I en artikkel med tittelen "Jeg hadde rødmet hvis jeg kunne," forskere fra UNESCO utforsket noen av de implisitte skjevhetene som finner sted i forskning på kunstig intelligens. Avisens forfattere foreslår at ved å gi stemmeassistenter tradisjonelt kvinnelige navn og tildele dem kvinnelige stemmer som standard, har selskaper utilsiktet forsterket negative og regressive ideer om kvinner. Det posisjonerer dem som underdanige og i en rolle der de forventes å gjøre det de blir bedt om.

Anbefalte videoer

I tillegg tok avisen en titt på hvordan stemmeassistenter reagerer når de blir presentert med krenkende språk. Det de fant er A.I. avleder slike kommentarer i stedet for å ta noen form for handling for å fraråde dem. Hvis en bruker truer en stemmeassistent, produserer det ofte en dum spøk eller en avvisende melding. Forskere ved UNESCO mener at teknologiselskaper bør bygge sikkerhetstiltak i disse systemene som vil bidra til å redusere krenkende språk rettet mot kvinnelige stemmer. Forskerne mener at selskaper ved å unnlate å gjøre det risikerer å normalisere atferd som å komme med voldelige trusler mot kvinner.

I slekt

  • Hvordan selge foreldrene dine på en smart assistent
  • Kan ditt smarthus spare deg penger på huseierforsikring?
  • Appen gjør Breville Joule Oven Air Fryer Pro virkelig smart

En del av dette problemet, ifølge UNESCO, er at de fleste teknologiselskaper har ingeniørteam som er bemannet mye og overveldende av menn. Fordi de sannsynligvis ikke har direkte erfaring med å håndtere denne typen språk rettet mot dem, og heller ikke har vært ofre for typen negative stereotypier og foreldede kjønnsroller som kvinner håndterer, de tenker ikke nødvendigvis på disse tingene når de designer A.I. systemer.

"Bedrifter som Apple og Amazon, bemannet av overveldende mannlige ingeniørteam, har bygget A.I. systemer som forårsaker deres feminiserte digitale assistenter for å hilse på verbale overgrep med fang-meg-hvis-du-kan-flørt», skriver forskerne i sin rapportere. "Fordi talen til de fleste stemmeassistenter er kvinnelig, sender den et signal om at kvinner er... føyelige og ivrige hjelpere, tilgjengelig ved å trykke på en knapp eller med en stump stemmekommando som «hei» eller 'OK'. Assistenten har ingen handlekraft utover det sjefen ber om. Den respekterer kommandoer og svarer på spørsmål uavhengig av deres tone eller fiendtlighet.»

UNESCO mener den beste løsningen på problemet er å lage en kjønnsnøytral stemme at A.I. assistenter kan bruke. Organisasjonen foreslår også å bygge inn responser og systemer som vil stenge ned og motvirke aggressivt og voldelig språk og fornærmelser. Forskere mener teknologiselskaper også bør slutte å posisjonere stemmeassistentene som underdanige mennesker i et forsøk på å unngå å utvide skadelige stereotypier.

Redaktørenes anbefalinger

  • Eksperter advarer om at AI-assistenter skader barns sosiale utvikling
  • Oppsummering av kjæledyr som roter med Google og Alexa
  • Home Depots nye Hubspace-kompatible elementer inkluderer smartplugg
  • Er det mulig å gå all-in med ett smarthus-økosystem?
  • Google Home (Nest Audio) vs. Amazon Echo

Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.