OSN zistila, že hlasoví asistenti nepomáhajú odstraňovať sexistické rodové stereotypy

Váš zvolený hlasový asistent má pravdepodobne ženský hlas. Aj keď sa vám to možno nezdá, Organizácia Spojených národov pre vzdelávanie, vedu a kultúru (UNESCO) verí, že asistenti poháňaní AI môžu posilňovať negatívne rodové stereotypy a zároveň zlyhávať v riadnom odmietaní násilného a urážlivého jazyka, čo vedie k niektorým potenciálne škodlivým výsledkom.

V dokumente s názvom „Začervenal by som sa, keby som mohol“, výskumníci z UNESCO skúmali niektoré implicitné predsudky, ktoré sa odohrávajú vo výskume umelej inteligencie. Autori príspevku to navrhujú tak, že hlasovým asistentom dávajú tradične ženské mená a priraďujú ich žensky znejúce hlasy štandardne spoločnosti neúmyselne posilňujú negatívne a regresívne predstavy o ženy. Umiestňuje ich ako podriadených a v úlohe, kde sa od nich očakáva, že urobia to, čo sa od nich požaduje.

Odporúčané videá

Okrem toho sa dokument pozrel na to, ako hlasoví asistenti reagujú, keď sa im dostane urážlivého jazyka. To, čo našli, je A.I. skôr odvráti takéto komentáre, než aby podnikol akékoľvek kroky na ich odradenie. Ak sa používateľ vyhráža hlasovému asistentovi, často to vyprodukuje hlúpy vtip alebo odmietavú správu. Výskumníci z UNESCO sa domnievajú, že technologické spoločnosti by mali do týchto systémov zabudovať ochranné opatrenia, ktoré by pomohli obmedziť urážlivý jazyk namierený proti ženským hlasom. Vedci sa domnievajú, že ak tak neurobia, spoločnosti riskujú normalizáciu správania, ako je násilné vyhrážanie sa ženám.

Súvisiace

  • Ako predať svojim rodičom inteligentného asistenta
  • Dokáže vám váš inteligentný dom ušetriť peniaze za poistenie domácnosti?
  • Vďaka aplikácii je Breville Joule Oven Air Fryer Pro skutočne inteligentný

Časť tohto problému podľa UNESCO spočíva v tom, že väčšina technologických spoločností má inžinierske tímy, v ktorých je veľa zamestnancov a v drvivej väčšine pracujú muži. Pretože pravdepodobne nemajú priamu skúsenosť s týmto typom jazyka, ktorý je na nich zameraný, ani sa nestali obeťami tohto typu negatívne stereotypy a zastarané rodové roly, s ktorými sa ženy stretávajú, nemusia nutne o týchto veciach premýšľať pri navrhovaní A.I. systémov.

„Spoločnosti ako Apple a Amazon, v ktorých pracujú prevažne mužské inžinierske tímy, vybudovali A.I. systémy, ktoré spôsobujú ich feminizované digitálne asistentky, aby pozdravili verbálne napádanie flirtovaním typu „chyť ma, ak to dokážeš,“ píšu vedci vo svojom správa. „Keďže reč väčšiny hlasových asistentov je ženská, vysiela to signál, že ženy sú... učenlivé a horliví pomocníci, dostupní stlačením tlačidla alebo s tupým hlasovým povelom ako „hej“ alebo ‚OK‘. Asistent nemá žiadnu právomoc rozhodovať nad rámec toho, čo od neho požaduje veliteľ. Rešpektuje príkazy a odpovedá na otázky bez ohľadu na ich tón alebo nepriateľstvo.“

UNESCO verí, že najlepším riešením problému je vytvoriť a rodovo neutrálny hlas že A.I. môžu používať asistenti. Organizácia tiež navrhuje zabudovať reakcie a systémy, ktoré by sa zastavili a odradili od agresívneho a násilného jazyka a urážok. Výskumníci sa domnievajú, že technologické spoločnosti by tiež mali prestať umiestňovať hlasových asistentov ako podriadených ľudí v snahe vyhnúť sa rozširovaniu škodlivých stereotypov.

Odporúčania redaktorov

  • Odborníci varujú, že asistenti AI poškodzujú sociálny rozvoj detí
  • Súhrn domácich miláčikov, ktorí si pohrávajú so spoločnosťami Google a Alexa
  • Nové položky Home Depot kompatibilné s Hubspace zahŕňajú inteligentnú zástrčku
  • Je možné ísť do toho všetko s jedným inteligentným domácim ekosystémom?
  • Google Home (Nest Audio) vs. Amazon Echo

Zlepšite svoj životný štýlDigitálne trendy pomáhajú čitateľom mať prehľad o rýchlo sa rozvíjajúcom svete technológií so všetkými najnovšími správami, zábavnými recenziami produktov, užitočnými úvodníkmi a jedinečnými ukážkami.