
Ваш голосовий помічник, напевно, має жіночий голос. Хоча ви можете не думати про це, Організація Об’єднаних Націй з питань освіти, науки та культури (ЮНЕСКО) вважає, що помічники на основі ШІ можуть зміцнювати негативні ґендерні стереотипи, водночас не даючи належної відсічі насильницьким і образливим виразам, що призводить до деяких потенційно шкідливих наслідків.
У статті під назвою «Я б почервонів, якби міг”, дослідники з ЮНЕСКО дослідили деякі неявні упередження, які мають місце в дослідженнях штучного інтелекту. Автори статті пропонують, даючи голосовим помічникам традиційно жіночі імена та присвоюючи їх за замовчуванням жіночі голоси, компанії ненавмисно підсилили негативні та регресивні уявлення про жінки. Це позиціонує їх як підлеглих і в ролі, де від них очікують виконання того, що від них просять.
Рекомендовані відео
Крім того, у статті було розглянуто, як голосові помічники реагують на нецензурну лексику. Те, що вони знайшли, це A.I. відхиляє такі коментарі, а не вживає будь-яких заходів, щоб перешкодити їм. Якщо користувач погрожує голосовому помічнику, він часто створює дурний жарт або зневажливе повідомлення. Дослідники з ЮНЕСКО вважають, що технологічні компанії повинні вбудувати в ці системи гарантії, які допоможуть зменшити образливу лексику, спрямовану на жіночі голоси. Дослідники вважають, що якщо цього не зробити, компанії ризикують нормалізувати поведінку, наприклад, погрожувати насильством жінкам.
Пов'язані
- Як продати батькам розумного помічника
- Чи може ваш розумний дім заощадити гроші на страхуванні домовласників?
- Додаток робить Breville Joule Oven Air Fryer Pro справді розумним
За даними ЮНЕСКО, частина цієї проблеми полягає в тому, що більшість технологічних компаній мають команди інженерів, які укомплектовані переважно чоловіками. Тому що вони, швидше за все, не мають безпосереднього досвіду роботи з таким типом мови, спрямованої на них, і вони не були жертвами типу негативні стереотипи та застарілі гендерні ролі, з якими стикаються жінки, вони не обов’язково думають про ці речі, розробляючи ШІ. системи.
«Такі компанії, як Apple і Amazon, у яких працюють переважно чоловічі команди інженерів, створили A.I. системи, що викликають їх фемінізовані цифрові помічники, щоб зустріти словесну образу фліртом «злови мене, якщо зможеш», — пишуть дослідники у своєму звіт. «Оскільки мова більшості голосових помічників є жіночою, вона посилає сигнал про те, що жінки … слухняні та помічники, які прагнуть догодити, доступні одним натисканням кнопки або за допомогою різкої голосової команди, як-от «привіт» або 'В ПОРЯДКУ'. Помічник не має повноважень, окрім того, що вимагає від нього командир. Він шанує команди та відповідає на запити незалежно від їхнього тону чи ворожості».
ЮНЕСКО вважає, що найкращим вирішенням проблеми є створення гендерно нейтральний голос що А.І. можуть використовувати помічники. Організація також пропонує створити відповідні системи та системи, які б закривали та перешкоджали агресивній та насильницькій лексиці та образам. Дослідники вважають, що технологічні компанії також повинні припинити позиціонувати голосових помічників як підлеглих людей, намагаючись уникнути поширення шкідливих стереотипів.
Рекомендації редакції
- Експерти попереджають, що помічники ШІ шкодять соціальному розвитку дітей
- Підбірка домашніх тварин, які возяться з Google і Alexa
- Нові продукти Home Depot, сумісні з Hubspace, включають розумну розетку
- Чи можливо йти ва-банк з однією екосистемою розумного будинку?
- Google Home (Nest Audio) проти. Amazon Echo
Оновіть свій спосіб життяDigital Trends допомагає читачам стежити за динамічним світом технологій завдяки всім останнім новинам, цікавим оглядам продуктів, проникливим редакційним статтям і унікальним у своєму роді коротким оглядам.