Нови тест је дизајниран да открије дискриминацију у АИ програмима

Шта-је-гоогле-дуплекс
Вештачка интелигенција још увек није свесна, али алгоритми још увек могу да разликују, понекад суптилно изражавајући скривене предрасуде програмера који су их креирали. То је велики, компликован проблем, јер системи вештачке интелигенције постају све више укључени у свакодневни живот.

Али можда постоји исправка - или барем начин да се надгледају алгоритми и каже се да ли су неприкладно дискриминисали демографску категорију.

Препоручени видео снимци

"Научена правила предвиђања су често превише сложена да би се разумела."


Предложио тим компјутерских научника из Гугла, Универзитета у Чикагу и Универзитета Тексас, Остин, Једнакост могућности у учењу под надзором приступ анализира одлуке које доносе програми машинског учења — а не саме процесе доношења одлука — да би се открила дискриминација. Сама природа ових алгоритама је да доносе одлуке самостално, својом логиком, у црној кутији скривеној од људског прегледа. Као такви, истраживачи сматрају да је добијање приступа црним кутијама практично узалудно.

„Научена правила предвиђања су често превише сложена да би се разумела“, компјутерски научник и коаутор Универзитета у Чикагу, Натхан Сребро, рекао је за Дигитал Трендс. „Заиста, цела поента машинског учења је да се аутоматски научи [статистички] добро правило... а не оно чији опис нужно има смисла за људе. Имајући на уму овај поглед на учење, такође смо желели да будемо у могућности да обезбедимо осећај недискриминације док и даље третирамо научена правила као црне кутије.”

Сребро и коаутори Моритз Хардт Гоогле-а и Ериц Прице са УТ Аустин је развио приступ за анализу одлука алгоритма и уверио се да не дискриминише у процесу доношења одлука. Да би то урадили, водили су се принципом против предрасуда да одлука о одређеној особи не треба да буде заснована искључиво на демографским подацима те особе. У случају АИ програма, одлука алгоритма о особи не би требало да открива ништа о полу или раси те особе на начин који би био непримерено дискриминаторан.

То је тест који не решава проблем директно, али помаже у означавању и спречавању дискриминаторних процеса. Из тог разлога, неки истраживачи су опрезни.

„Машинско учење је одлично ако га користите за проналажење најбољег начина за рутирање нафтовода“, Ноел Схаркеи, емеритус професор роботике и вештачке интелигенције на Универзитету у Шефилду, рекао је Старатељ. „Док не сазнамо више о томе како пристрасности функционишу у њима, био бих веома забринут да они дају предвиђања која утичу на животе људи.

Сребро препознаје ову забринутост, али то не сматра оштром критиком приступа његовог тима. „Слажем се да многе апликације са великим улозима утичу на појединце, посебно од стране владе и правосудним органима, употреба статистичких предиктора црне кутије није одговарајућа и транспарентност је од виталног значаја“, рекао је. „У другим ситуацијама, када их користе комерцијални субјекти и када су појединачни улози мањи, статистички предиктори црне кутије могу бити одговарајући и ефикасни. Можда ће бити тешко потпуно их забранити, али је ипак пожељно контролисати посебну заштићену дискриминацију."

Тхе рад о једнакости могућности у учењу под надзором био је један од неколицине представљених овог месеца на Неурал Информатион Процессинг Системс (НИПС) у Барселони, Шпанија, који је понудио приступе откривању дискриминације у алгоритмима, према Старатељ.

Препоруке уредника

  • Гоогле Бард би ускоро могао да постане ваш нови животни тренер АИ
  • Нова АИ компанија Елона Муска има за циљ да „разуме универзум“
  • Цео интернет сада припада Гугловој вештачкој интелигенцији
  • Гоогле поручује радницима да буду опрезни према АИ цхатботовима
  • Шта је МусицЛМ? Погледајте Гоогле-ов АИ за претварање текста у музику

Надоградите свој животни стилДигитални трендови помажу читаоцима да прате убрзани свет технологије са свим најновијим вестима, забавним рецензијама производа, проницљивим уводницима и јединственим кратким прегледима.