OSN zjistila, že hlasoví asistenti nepomáhají opravit sexistické genderové stereotypy

Váš vybraný hlasový asistent má pravděpodobně ženský hlas. I když se vám to možná moc nezdá, Organizace spojených národů pro výchovu, vědu a kulturu (UNESCO) věří, že asistenti s umělou inteligencí mohou posilovat negativní genderové stereotypy a zároveň selhávat v řádném odmítnutí násilného a urážlivého jazyka, což vede k některým potenciálně škodlivým výsledkům.

V dokumentu s názvem „Zčervenal bych, kdybych mohl“, výzkumníci z UNESCO prozkoumali některé implicitní předsudky, které se odehrávají ve výzkumu umělé inteligence. Autoři článku to navrhují tak, že hlasovým asistentům dají tradičně ženská jména a přiřazují je žensky znějící hlasy ve výchozím nastavení společnosti neúmyslně posilují negativní a regresivní představy ženy. Staví je jako podřízené a do role, kde se od nich očekává, že udělají to, co se po nich žádá.

Doporučená videa

Příspěvek se navíc zabýval tím, jak hlasoví asistenti reagují, když se jim dostane urážlivého jazyka. To, co našli, je A.I. takové komentáře spíše odvrací, než aby podnikl jakoukoli akci, která by je odradila. Pokud uživatel vyhrožuje hlasovému asistentovi, často z toho vznikne hloupý vtip nebo odmítavá zpráva. Vědci z UNESCO se domnívají, že technologické společnosti by měly do těchto systémů zabudovat ochranná opatření, která by pomohla omezit urážlivý jazyk namířený proti ženským hlasům. Vědci se domnívají, že tím, že tak neučiní, společnosti riskují normalizaci chování, jako je násilné vyhrožování ženám.

Příbuzný

  • Jak prodat svým rodičům chytrého asistenta
  • Může vám váš chytrý dům ušetřit peníze na pojištění domácnosti?
  • Díky aplikaci je Breville Joule Oven Air Fryer Pro skutečně chytrý

Část tohoto problému je podle UNESCO v tom, že většina technologických společností má inženýrské týmy, které jsou zaměstnány rozsáhle a v drtivé většině muži. Protože pravděpodobně nemají přímou zkušenost s tímto typem jazyka zaměřeného na ně, ani se nestali obětí tohoto typu negativní stereotypy a zastaralé genderové role, se kterými se ženy potýkají, nemusí o těchto věcech nutně přemýšlet při navrhování A.I. systémy.

„Společnosti jako Apple a Amazon, ve kterých pracují převážně mužské inženýrské týmy, vybudovaly A.I. systémy, které způsobují jejich feminizované digitální asistentky, které vítají verbální napadání flirtováním typu „chyť mě, když to dokážeš,“ píší vědci ve svém zpráva. „Protože řeč většiny hlasových asistentek je ženská, vysílá to signál, že ženy jsou… učenlivé a ochotní pomocníci, kteří jsou k dispozici stisknutím tlačítka nebo s tupým hlasovým příkazem jako „ahoj“ nebo 'OK'. Asistent nemá žádnou pravomoc jednat nad rámec toho, co od něj požaduje velitel. Ctí rozkazy a odpovídá na dotazy bez ohledu na jejich tón nebo nepřátelství.“

UNESCO věří, že nejlepším řešením tohoto problému je vytvořit a genderově neutrální hlas že A.I. mohou asistenti používat. Organizace také navrhuje zabudovat reakce a systémy, které by se vypnuly ​​a odradily od agresivního a násilného jazyka a urážek. Výzkumníci se domnívají, že technologické společnosti by také měly přestat umisťovat hlasové asistenty jako podřízené lidi ve snaze vyhnout se rozšiřování škodlivých stereotypů.

Doporučení redakce

  • Odborníci varují, že asistenti umělé inteligence poškozují sociální rozvoj dětí
  • Shrnutí domácích mazlíčků, kteří si zahrávali s Googlem a Alexou
  • Mezi nové položky kompatibilní s Hubspace Home Depot patří inteligentní zástrčka
  • Je možné zapojit se do jednoho inteligentního domácího ekosystému?
  • Google Home (Nest Audio) vs. Amazon Echo

Upgradujte svůj životní stylDigitální trendy pomáhají čtenářům mít přehled o rychle se měnícím světě technologií se všemi nejnovějšími zprávami, zábavnými recenzemi produktů, zasvěcenými úvodníky a jedinečnými náhledy.