Но може да има поправка - или поне начин да се наблюдават алгоритмите и да се каже дали са неправомерно дискриминирани спрямо дадена демографска група.
Препоръчани видеоклипове
„Научените правила за прогнозиране често са твърде сложни за разбиране.“
Предложено от екип компютърни учени от Google, Чикагския университет и Тексаския университет, Остин, Равенство на възможностите в контролираното обучение подходът анализира решенията, които програмите за машинно обучение вземат - вместо самите процеси на вземане на решения - за откриване на дискриминация. Самото естество на тези алгоритми е да вземат решения сами, със собствена логика, в черна кутия, скрита от човешки преглед. Като такива, изследователите виждат получаването на достъп до черните кутии като практически безполезно.
„Научените правила за прогнозиране често са твърде сложни за разбиране“, компютърен учен и съавтор от Университета на Чикаго, Нейтън Сребро, каза Digital Trends. „Наистина, целият смисъл на машинното обучение е автоматично да научи [статистически] добро правило… не такова, чието описание непременно има смисъл за хората. Имайки предвид този възглед за ученето, ние също искахме да можем да осигурим чувство за недискриминация, като същевременно третираме научените правила като черни кутии.“
Сребро и съавт Мориц Хард на Google и Ерик Прайс от UT Austin разработи подход за анализиране на решенията на алгоритъм и гарантиране, че той не дискриминира в процеса на вземане на решения. За да направят това, те се ръководят от принципа срещу предразсъдъците, че решението за конкретно лице не трябва да се основава единствено на демографските данни на това лице. В случай на AI програма, решението на алгоритъма за дадено лице не трябва да разкрива нищо за пола или расата на това лице по начин, който би бил неподходящо дискриминационен.
Това е тест, който не решава проблема директно, но помага за маркиране и предотвратяване на дискриминационни процеси. Поради тази причина някои изследователи са предпазливи.
„Машинното обучение е страхотно, ако го използвате, за да изработите най-добрия начин за трасиране на петролопровод,“ Ноел Шарки, почетен професор по роботика и изкуствен интелект в университета в Шефилд, каза Пазителят. „Докато не научим повече за това как пристрастията работят в тях, ще бъда много загрижен за това, че правят прогнози, които засягат живота на хората.“
Сребро признава това безпокойство, но не го смята за помитаща критика към подхода на екипите му. „Съгласен съм, че в много приложения с голямо въздействие върху хората, особено от правителството и съдебните органи, използването на статистически предиктори на черна кутия не е подходящо и прозрачността е от жизненоважно значение“, той каза. „В други ситуации, когато се използват от търговски субекти и когато индивидуалните залози са по-ниски, статистическите предиктори на черната кутия може да са подходящи и ефективни. Може да е трудно да ги забраните напълно, но все пак е желателно да контролирате за специфична защитена дискриминация.
The документ относно равните възможности в контролираното обучение беше един от няколкото представени този месец в Neural Information Processing Systems (NIPS) в Барселона, Испания, който предлага подходи за откриване на дискриминация в алгоритми, според Пазителят.
Препоръки на редакторите
- Google Bard скоро може да стане вашият нов AI life coach
- Новата AI компания на Илон Мъск има за цел да „разбере вселената“
- Целият интернет вече принадлежи на AI на Google
- Google казва на работниците да внимават с чат ботове с изкуствен интелект
- Какво е MusicLM? Вижте AI на Google за преобразуване на текст в музика
Надградете начина си на животDigital Trends помага на читателите да следят забързания свят на технологиите с всички най-нови новини, забавни ревюта на продукти, проницателни редакционни статии и единствени по рода си кратки погледи.