Asistentul dvs. vocal ales are probabil o voce feminină. Deși s-ar putea să nu te gândești prea mult la asta, Organizația Națiunilor Unite pentru Educație, Știință și Cultură (UNESCO) consideră că asistenții alimentați de IA pot să consolideze stereotipurile negative de gen, în același timp, eșuând să respingă în mod corespunzător limbajul violent și abuziv, ceea ce duce la unele rezultate potențial dăunătoare.
Într-o lucrare intitulată „Aș înroși dacă aș putea”, cercetătorii de la UNESCO au explorat unele dintre părtinirile implicite care au loc în cercetarea inteligenței artificiale. Autorii lucrării sugerează că acordând asistenților vocali nume tradiționale feminine și atribuindu-le voci cu sunet feminin în mod implicit, companiile au întărit neintenționat idei negative și regresive despre femei. Îi poziționează ca subordonați și într-un rol în care se așteaptă să facă ceea ce li se cere.
Videoclipuri recomandate
În plus, lucrarea a analizat modul în care asistenții vocali răspund atunci când li se prezintă un limbaj abuziv. Ceea ce au găsit este A.I. respinge astfel de comentarii, mai degrabă decât să ia orice fel de acțiune pentru a le descuraja. Dacă un utilizator amenință un asistent vocal, acesta produce adesea o glumă prostească sau un mesaj de respingere. Cercetătorii de la UNESCO cred că companiile tehnologice ar trebui să introducă măsuri de protecție în aceste sisteme care ar contribui la diminuarea limbajului abuziv îndreptat către vocile care sună feminin. Cercetătorii cred că, dacă nu fac acest lucru, companiile riscă să normalizeze comportamente, cum ar fi amenințările violente împotriva femeilor.
Legate de
- Cum să-ți vinzi părinții cu un asistent inteligent
- Casa ta inteligentă te poate economisi bani la asigurarea pentru proprietari?
- Aplicația face ca Breville Joule Oven Air Fryer Pro să fie cu adevărat inteligentă
O parte a acestei probleme, potrivit UNESCO, este că majoritatea companiilor de tehnologie au echipe de inginerie care au personal extins și copleșitor de bărbați. Deoarece probabil că nu au experiență directă în a se ocupa de acest tip de limbaj care le vizează și nici nu au fost victimele tipului de stereotipurile negative și rolurile de gen învechite cu care se confruntă femeile, nu se gândesc neapărat la aceste lucruri atunci când proiectează I.A. sisteme.
„Companii precum Apple și Amazon, cu personal covârșitor de echipe de inginerie masculine, au construit I.A. sistemele care provoacă lor asistenți digitali feminizați pentru a întâmpina abuzul verbal cu flirt „prinde-mă-dacă poți”, scriu cercetătorii în raport. „Deoarece discursul majorității asistenților vocali este feminin, transmite un semnal că femeile sunt... docile și ajutoare dornice de a vă mulțumi, disponibili la atingerea unui buton sau cu o comandă vocală directă, cum ar fi „hei” sau 'BINE'. Asistentul nu deține nicio putere de agenție în afară de ceea ce îi cere comandantul. Onorează comenzile și răspunde la întrebări, indiferent de tonul sau ostilitatea lor.”
UNESCO consideră că cea mai bună soluție la problemă este crearea unui voce neutră de gen că A.I. asistenții pot folosi. Organizația sugerează, de asemenea, construirea de răspunsuri și sisteme care să închidă și să descurajeze limbajul și insultele agresive și violente. Cercetătorii cred că companiile de tehnologie ar trebui, de asemenea, să înceteze poziționarea asistenților vocali ca oameni asserviți, în încercarea de a evita extinderea stereotipurilor dăunătoare.
Recomandările editorilor
- Experții avertizează că asistenții AI afectează dezvoltarea socială a copiilor
- Rezumat al animalelor de companie care se încurcă cu Google și Alexa
- Noile articole compatibile cu Hubspace de la Home Depot includ priză inteligentă
- Este fezabil să mergeți all-in cu un ecosistem de casă inteligentă?
- Google Home (Nest Audio) vs. Amazon Echo
Îmbunătățește-ți stilul de viațăDigital Trends îi ajută pe cititori să țină cont de lumea rapidă a tehnologiei cu toate cele mai recente știri, recenzii distractive despre produse, editoriale perspicace și anticipări unice.