Двоє керівників Google заявили в п’ятницю, що упередженість у сфері штучного інтелекту шкодить і без того маргіналізованим спільнотам в Америці, і що потрібно зробити більше, щоб цього не сталося. X. Eyeé, керівник відповідальних інновацій у Google та Анджела Вільямс, менеджер із політики в Google, говорив у (Не IRL) Прайд-Саміт, подія, організована Lesbians Who Tech & Allies, найбільшою у світі ЛГБТК-організацією, орієнтованою на технології, для жінок, небінарних і транслюдей у всьому світі.
в окремопереговори, вони розглянули способи, за допомогою яких технологія машинного навчання може бути використана для шкоди темношкірим та іншим спільнотам в Америці — і ширше в усьому світі.
Рекомендовані відео
Зміщення в алгоритмах ЦЕ НЕ ЛИШЕ ПРОБЛЕМА ДАНИХ. Вибір використання штучного інтелекту може бути упередженим, спосіб навчання алгоритму може бути упередженим, а те, як користувачі впливають/взаємодіють із системою/сприймають систему, може посилити упередженість! перевірити @timnitGebruпрацює, щоб дізнатися більше!
— X. Eyeé??? (@TechWithX) 26 червня 2020 р
Вільямс обговорював використання А.І. для повного спостереження, його роль в надмірна поліція, та його застосування для необ’єктивного винесення вироку. «[Справа] не в тому, що ця технологія є расистською, але ми можемо закодувати власне несвідоме упередження в цю технологію», — сказала вона. Вільямс підкреслив справа Роберта Джуліана-Борчака Вільямса, афроамериканця з Детройта, якого нещодавно помилково заарештували після того, як система розпізнавання обличчя неправильно зіставила його фотографію з відеозйомкою магазинного злодія. Попередні дослідження показали, що системам розпізнавання обличчя може бути важко розрізняти різних чорних людей. «Саме тут А.І. … стеження може піти дуже погано в реальному світі», – сказав Вільямс.
X. Eyeé також обговорював, як A.I. може допомогти «масштабувати та посилити несправедливе упередження». На додаток до більш квазі-антиутопічного використання, яке привертає увагу Штучний інтелект, Eyeé зосереджувався на тому, як упередженість може вповзати в більш, здавалося б, буденне, повсякденне використання технологій, включаючи власну Google інструменти. «Нам у Google ці виклики не чужі», — сказав Айі. «Останніми роками... ми неодноразово потрапляли в заголовки про те, як наші алгоритми негативно вплинули на людей». Наприклад, Google розробив інструмент для класифікація токсичності коментарів в Інтернеті. Хоча це може бути дуже корисним, це також викликає проблеми: фрази на кшталт «Я чорна гей» спочатку класифікувалися як більш токсичні, ніж «Я біла людина». Це сталося через прогалину в навчальних наборах даних, з більшою кількістю розмов про певні особистості, ніж інші.
За словами двох керівників Google, немає загальних рішень для цих проблем. Усюди, де виявляються проблеми, Google працює над усуненням упередженості. Але кількість потенційних місць, куди може потрапити зміщення системи — від розробки алгоритмів до їх розгортання в суспільному контексті, в якому створюються дані, означає, що завжди будуть проблеми приклади. Головне усвідомлювати це, дозволяти ретельній перевірці таких інструментів, а також можливість різноманітним спільнотам висловити свої думки щодо використання цих технологій.
Рекомендації редакції
- Чи може А.І. перемогти інженерів-людей у розробці мікрочіпів? Google так вважає
- BigSleep A.I. це як Google Image Search для фотографій, яких ще не існує
- Google повертає людей, щоб взяти на себе модерування вмісту YouTube від ШІ.
- Фейкові новини? А.І. алгоритм виявляє політичну упередженість у історіях, які ви читаєте
- А.І. завдяки масштабуванню цей фільм 1896 року виглядає так, ніби його було знято в приголомшливому 4K
Оновіть свій спосіб життяDigital Trends допомагає читачам стежити за динамічним світом технологій завдяки всім останнім новинам, цікавим оглядам продуктів, проникливим редакційним статтям і унікальним у своєму роді коротким оглядам.