Двама ръководители на Google казаха в петък, че пристрастията към изкуствения интелект вреди на вече маргинализираните общности в Америка и че трябва да се направи повече, за да се гарантира, че това няма да се случи. Х. Eyeé, водещ за отговорни иновации в Google и Анджела Уилямс, мениджър правила в Google, говори в (Не IRL) Среща на върха на гордостта, събитие, организирано от Lesbians Who Tech & Allies, най-голямата в света ЛГБТК организация, фокусирана върху технологиите, за жени, небинарни и транс хора по света.
в отделноразговори, те се обърнаха към начините, по които технологията за машинно обучение може да се използва, за да навреди на черната общност и други общности в Америка - и по-широко по света.
Препоръчани видеоклипове
Пристрастията в алгоритмите НЕ Е САМО ПРОБЛЕМ С ДАННИТЕ. Изборът за използване на AI може да бъде предубеден, начинът, по който алгоритъмът се учи може да бъде предубеден, а начинът, по който потребителите са повлияни/взаимодействат с/възприемат дадена система, може да подсили предубедеността! Разгледайте @timnitGebruработим, за да научим повече!
- Х. Eyeé??? (@TechWithX) 26 юни 2020 г
Уилямс обсъди използването на ИИ. за широко наблюдение, ролята му в свръх полицейство, и прилагането му за необективно постановяване на присъдата. „[Не] че технологията е расистка, но можем да кодираме собствените си несъзнателни пристрастия в технологията“, каза тя. Уилямс подчерта случай на Робърт Джулиан-Борчак Уилямс, афроамериканец от Детройт, който наскоро беше погрешно арестуван, след като система за лицево разпознаване неправилно съпостави снимката му с охранителен кадър на крадец от магазин. Предишни проучвания показват, че системите за лицево разпознаване могат да се борят да прави разлика между различните черни хора. „Тук A.I. … наблюдението може да се обърка в реалния свят“, каза Уилямс.
Х. Eyeé също така обсъди как A.I. може да помогне за „мащабиране и засилване на несправедливите пристрастия“. В допълнение към по-квазидистопичните, привличащи вниманието употреби на AI, Eyeé се съсредоточи върху начина, по който пристрастията могат да се вмъкнат в по-привидно обикновени, ежедневни употреби на технологии – включително собствените на Google инструменти. „В Google не сме непознати за тези предизвикателства“, каза Eyeé. „През последните години... многократно сме били в заглавията за това как нашите алгоритми са повлияли негативно на хората.“ Например Google разработи инструмент за класифициране на токсичността на коментарите онлайн. Въпреки че това може да бъде много полезно, то също беше проблематично: фрази като „Аз съм черна гей жена“ първоначално бяха класифицирани като повече токсично от „Аз съм бял човек“. Това се дължи на празнина в наборите от данни за обучение, с повече разговори за определени самоличности от други.
Няма всеобхватни решения на тези проблеми, казаха двамата ръководители на Google. Където и да се открият проблеми, Google работи, за да изглади пристрастията. Но обхватът на потенциалните места, където пристрастията могат да навлязат в системите - от дизайна на алгоритмите до техните разгръщане в обществения контекст, в който се произвеждат данните — означава, че винаги ще има проблеми примери. Ключът е да сме наясно с това, да позволим на такива инструменти да бъдат внимателно разглеждани и различните общности да могат да изразят гласовете си относно използването на тези технологии.
Препоръки на редакторите
- Може ли A.I. победи човешките инженери при проектирането на микрочипове? Google смята така
- BigSleep A.I. е като Google Image Search за снимки, които все още не съществуват
- Google връща хората, които да поемат модерирането на YouTube съдържание от A.I.
- Фалшиви новини? ИИ алгоритъмът разкрива политически пристрастия в историите, които четете
- ИИ мащабирането прави този филм от 1896 г. да изглежда сякаш е заснет в ослепително 4K
Надградете начина си на животDigital Trends помага на читателите да следят забързания свят на технологиите с всички най-нови новини, забавни ревюта на продукти, проницателни редакционни статии и единствени по рода си кратки погледи.