ANO atklāj, ka balss asistenti nepalīdz novērst seksistiskos dzimumu stereotipus

Jūsu izvēlētajam balss asistentam, iespējams, ir sievietes balss. Lai gan jūs par to daudz nedomājat, Apvienoto Nāciju Izglītības, zinātnes un kultūras organizācija (UNESCO) uzskata, ka ar AI darbināmie palīgi var nostiprināt negatīvos dzimumu stereotipus, vienlaikus nespējot pienācīgi atspēkot vardarbīgu un aizskarošu valodu, izraisot dažus potenciāli kaitīgus rezultātus.

Rakstā ar nosaukumu "Es nosarktu, ja varētu”, pētnieki no UNESCO izpētīja dažus netiešos aizspriedumus, kas notiek mākslīgā intelekta pētījumos. Raksta autori iesaka to darīt, balss palīgiem tradicionāli piešķirot sieviešu vārdus un piešķirot tiem sieviešu balsis pēc noklusējuma, uzņēmumi ir netīši pastiprinājuši negatīvas un regresīvas idejas par sievietes. Tas viņus pozicionē kā padevīgus un tādā lomā, kurā no viņiem tiek gaidīts darīt to, kas no viņiem tiek prasīts.

Ieteiktie videoklipi

Turklāt rakstā tika apskatīts, kā balss palīgi reaģē, ja viņiem tiek izmantota aizskaroša valoda. Viņi atrada A.I. novērš šādus komentārus, nevis veic jebkādas darbības, lai tos atturētu. Ja lietotājs draud balss palīgam, tas bieži rada muļķīgu joku vai noraidošu ziņojumu. UNESCO pētnieki uzskata, ka tehnoloģiju uzņēmumiem šajās sistēmās būtu jāievieš aizsardzības pasākumi, kas palīdzētu mazināt aizskarošu valodu, kas vērsta uz sieviešu balsīm. Pētnieki uzskata, ka, to nedarot, uzņēmumi riskē normalizēt uzvedību, piemēram, izteikt vardarbīgus draudus sievietēm.

Saistīts

  • Kā pārdot savus vecākus par viedo palīgu
  • Vai jūsu viedā māja var ietaupīt naudu mājas īpašnieka apdrošināšanā?
  • Lietotne padara Breville Joule Oven Air Fryer Pro patiesi gudru

Daļa no šīs problēmas, saskaņā ar UNESCO datiem, ir tā, ka lielākajā daļā tehnoloģiju uzņēmumu ir inženieru komandas, kurās lielā mērā un pārsvarā strādā vīrieši. Tā kā viņiem, visticamāk, nav tiešas pieredzes, strādājot ar šāda veida viņiem adresētu valodu, un viņi nav cietuši no šāda veida valodām. negatīvi stereotipi un novecojušas dzimumu lomas, ar kurām saskaras sievietes, viņas ne vienmēr domā par šīm lietām, veidojot A.I. sistēmas.

“Uzņēmumi, piemēram, Apple un Amazon, kuros pārsvarā strādā vīriešu inženieru komandas, ir izveidojuši A.I. sistēmas, kas izraisa to feminizētas digitālās asistentes, lai sveicinātu verbālu aizskaršanu ar flirtu “pieķer mani, ja vari,” raksta pētnieki. Ziņot. “Tā kā lielākā daļa balss asistentu runā sievietes, tas sūta signālu, ka sievietes ir… paklausīgas un palīgi, kas vēlas izpatikt, pieejami, nospiežot vienu pogu vai ar trulu balss komandu, piemēram, "hei" vai 'LABI'. Asistentam nav nekādas rīcības brīvības, izņemot to, ko no tā prasa komandieris. Tas ievēro komandas un atbild uz jautājumiem neatkarīgi no to toņa vai naidīguma.

UNESCO uzskata, ka labākais problēmas risinājums ir izveidot a dzimumneitrāla balss ka A.I. palīgi var izmantot. Organizācija arī iesaka veidot atbildes un sistēmas, kas izslēgtu un atturētu no agresīvas un vardarbīgas valodas un apvainojumiem. Pētnieki uzskata, ka tehnoloģiju uzņēmumiem arī jāpārtrauc pozicionēt balss palīgus kā pakļautus cilvēkus, lai izvairītos no kaitīgu stereotipu paplašināšanas.

Redaktoru ieteikumi

  • Eksperti brīdina, ka mākslīgā intelekta palīgi kaitē bērnu sociālajai attīstībai
  • Mājdzīvnieku kopsavilkums, kas sajaucas ar Google un Alexa
  • Home Depot jaunajos ar Hubspace saderīgos priekšmetos ir iekļauta viedais spraudnis
  • Vai ir iespējams apvienoties ar vienu viedās mājas ekosistēmu?
  • Google Home (Nest Audio) salīdzinājumā ar Amazon Echo

Uzlabojiet savu dzīvesveiduDigitālās tendences palīdz lasītājiem sekot līdzi steidzīgajai tehnoloģiju pasaulei, izmantojot visas jaunākās ziņas, jautrus produktu apskatus, ieskatu saturošus rakstus un unikālus ieskatus.