Гоогле Екецс објашњавају како А.И. Може појачати расизам

Двојица директора Гугла изјавила су у петак да пристрасност у вези са вештачком интелигенцијом штети већ маргинализованим заједницама у Америци и да је потребно учинити више да се то не догоди. ИКС. Еиее, вођа за одговорне иновације у Гоогле-у, и Ангела Виллиамс, менаџер политике у Гоогле-у, говорио је на (Не ИРЛ) Самит поноса, догађај који организује Лесбианс Вхо Тецх & Аллиес, највећа светска ЛГБТК организација фокусирана на технологију за жене, небинарне и транс особе широм света.

Ин засебанразговори, бавили су се начинима на које се технологија машинског учења може користити да нанесе штету црначкој заједници и другим заједницама у Америци — и шире широм света.

Препоручени видео снимци

Пристрасност у алгоритмима НИЈЕ САМО ПРОБЛЕМ ПОДАТАКА. Избор да се користи АИ може бити пристрасан, начин на који алгоритам учи може бити пристрасан, а начин на који су корисници погођени/интерагирају са/перципирају систем може појачати пристрасност! провери @тимнитГебруради на томе да сазна више!

- ИКС. Еиее??? (@ТецхВитхКс) 26. јуна 2020

Вилијамс је разговарао о употреби А.И. за свеобухватни надзор, његову улогу у претерано обављање полиције, и његово спровођење за пристрасну казну. „[Није] да је технологија расистичка, али можемо да кодирамо у сопственој несвесној пристрасности у технологију“, рекла је она. Вилијамс је истакао случај Роберта Џулијана-Борчака Вилијамса, Афроамериканац из Детроита који је недавно погрешно ухапшен након што је систем за препознавање лица погрешно ускладио његову фотографију са сигурносним снимком крадљиваца. Претходне студије су показале да се системи за препознавање лица могу мучити разликовати различите црне људе. „Овде је А.И.... надзор може поћи ужасно по злу у стварном свету“, рекао је Вилијамс.

ИКС. Еиее је такође разговарао о томе како А.И. може помоћи да се „размери и ојача неправедна пристрасност“. Поред више квази-дистопијске употребе која привлачи пажњу А.И., Еиее се фокусирао на начин на који би пристрасност могла да се увуче у наизглед свакодневну употребу технологије - укључујући и Гоогле-ову алата. „У Гоогле-у нам ови изазови нису странци“, рекао је Еиее. „Последњих година... више пута смо били у насловима о томе како су наши алгоритми негативно утицали на људе. На пример, Гоогле је развио алатку за класификовање токсичности коментара на мрежи. Иако ово може бити од велике помоћи, било је и проблематично: фразе попут „Ја сам црна геј жена“ у почетку су класификоване као више отрован од „ја сам белац“. То је било због празнине у скуповима података за обуку, са више разговора о одређеним идентитетима него други.

Не постоје свеобухватна решења за ове проблеме, рекли су двојица директора Гоогле-а. Где год се пронађу проблеми, Гоогле ради на томе да отклони пристрасност. Али опсег потенцијалних места где пристрасност може да уђе у системе — од дизајна алгоритама до њиховог примена у друштвени контекст у коме се подаци производе — значи да ће увек бити проблематичних примери. Кључно је бити свестан тога, дозволити да се такви алати испитају и да различите заједнице буду у могућности да се чује њихов глас о употреби ових технологија.

Препоруке уредника

  • Може ли А.И. победио људске инжењере у дизајнирању микрочипова? Гугл тако мисли
  • БигСлееп А.И. је као Гоогле претрага слика за слике које још не постоје
  • Гоогле враћа људе да преузму модерирање ИоуТубе садржаја од А.И.
  • Лажне вести? А.И. алгоритам открива политичку пристрасност у причама које читате
  • А.И. повећањем величине овај филм из 1896. године изгледа као да је снимљен у блиставој 4К резолуцији

Надоградите свој животни стилДигитални трендови помажу читаоцима да прате убрзани свет технологије са свим најновијим вестима, забавним рецензијама производа, проницљивим уводницима и јединственим кратким прегледима.