UN otkriva da glasovni asistenti ne pomažu u ispravljanju seksističkih rodnih stereotipa

Vaš glasovni asistent po izboru vjerojatno ima ženski glas. Iako možda ne mislite previše o tome, Organizacija Ujedinjenih naroda za obrazovanje, znanost i kulturu (UNESCO) vjeruje da pomoćnici pokretani umjetnom inteligencijom mogu jačati negativne rodne stereotipe, a istovremeno ne uspijevati pravilno odbiti nasilan i uvredljiv jezik, što dovodi do nekih potencijalno štetnih ishoda.

U radu pod naslovom „Pocrvenio bih da mogu”, istraživači iz UNESCO-a istražili su neke od implicitnih pristranosti koje se javljaju u istraživanju umjetne inteligencije. Autori rada to sugeriraju davanjem tradicionalno ženskih imena glasovnim asistentima i njihovim dodjeljivanjem glasovi koji zvuče žensko prema zadanim postavkama, tvrtke su nenamjerno ojačale negativne i regresivne ideje o žene. Postavlja ih kao podređene iu ulozi u kojoj se od njih očekuje da učine ono što se od njih traži.

Preporučeni videozapisi

Osim toga, u radu se pogledalo kako glasovni pomoćnici reagiraju kada im se govori uvredljivo. Ono što su pronašli je A.I. odbija takve komentare umjesto da poduzima bilo kakvu radnju da ih obeshrabri. Ako korisnik prijeti glasovnom asistentu, to često proizvede glupu šalu ili odbacivajuću poruku. Istraživači iz UNESCO-a vjeruju da bi tehnološke tvrtke trebale u ove sustave ugraditi mjere zaštite koje bi pomogle u smanjenju uvredljivog jezika usmjerenog prema glasovima koji zvuče žensko. Istraživači vjeruju da ako to ne učine, tvrtke riskiraju normaliziranje ponašanja kao što je upućivanje nasilnih prijetnji ženama.

Povezano

  • Kako svojim roditeljima prodati pametnog asistenta
  • Može li vam vaša pametna kuća uštedjeti novac na osiguranju kuće?
  • Aplikacija čini Breville Joule Oven Air Fryer Pro uistinu pametnim

Dio ovog problema, prema UNESCO-u, je to što većina tehnoloških kompanija ima inženjerske timove koji su uvelike i većinom muškarci. Budući da vjerojatno nemaju izravnog iskustva u suočavanju s ovom vrstom govora koji je namijenjen njima, niti su bili žrtve takve vrste negativnih stereotipa i zastarjelih rodnih uloga s kojima se žene suočavaju, one ne razmišljaju nužno o tim stvarima kada dizajniraju A.I. sustava.

“Tvrtke poput Applea i Amazona, u kojima rade pretežito muški inženjerski timovi, izgradile su A.I. sustavi koji uzrokuju njihovu feminizirani digitalni pomoćnici koji verbalno zlostavljanje dočekuju flertom tipa uhvati me ako možeš”, pišu istraživači u svom izvješće. “Budući da je govor većine glasovnih asistenata ženski, on šalje signal da su žene … poslušne i željni pomagača, dostupni pritiskom na gumb ili tupom glasovnom naredbom poput 'hej' ili 'U REDU'. Pomoćnik nema nikakvu moć djelovanja osim onoga što zapovjednik od njega traži. Poštuje naredbe i odgovara na upite bez obzira na njihov ton ili neprijateljstvo.”

UNESCO vjeruje da je najbolje rješenje problema stvoriti a rodno neutralan glas da je A.I. pomoćnici mogu koristiti. Organizacija također predlaže ugradnju odgovora i sustava koji bi isključili i obeshrabrili agresivan i nasilan jezik i uvrede. Istraživači vjeruju da bi tehnološke tvrtke također trebale prestati pozicionirati glasovne asistente kao podređene ljude u pokušaju da izbjegnu širenje štetnih stereotipa.

Preporuke urednika

  • Stručnjaci upozoravaju da AI pomoćnici štete društvenom razvoju djece
  • Pregled kućnih ljubimaca koji se petljaju s Googleom i Alexom
  • Home Depotovi novi proizvodi kompatibilni s Hubspaceom uključuju pametni utikač
  • Je li izvedivo ići all-in s jednim ekosustavom pametne kuće?
  • Google Home (Nest Audio) vs. Amazon Echo

Nadogradite svoj životni stilDigitalni trendovi pomažu čitateljima da prate brzi svijet tehnologije sa svim najnovijim vijestima, zabavnim recenzijama proizvoda, pronicljivim uvodnicima i jedinstvenim brzim pregledima.