Но возможно, есть решение — или, по крайней мере, способ отслеживать алгоритмы и определять, не допустили ли они неправомерную дискриминацию в отношении демографической группы.
Рекомендуемые видео
«Изученные правила прогнозирования часто слишком сложны для понимания».
Предложенный группой ученых-компьютерщиков из Google, Чикагского университета и Техасского университета в Остине, Равенство возможностей в контролируемом обучении Подход анализирует решения, которые принимают программы машинного обучения, а не сами процессы принятия решений, чтобы обнаружить дискриминацию. Сама природа этих алгоритмов заключается в том, чтобы принимать решения самостоятельно, со своей логикой, в черном ящике, скрытом от человеческого взгляда. Таким образом, исследователи считают получение доступа к черным ящикам практически бесполезным.
«Обученные правила прогнозирования часто слишком сложны для понимания», — ученый и соавтор Чикагского университета, специалист по информатике. Натан Сребро, рассказал Digital Trends. «Действительно, весь смысл машинного обучения состоит в том, чтобы автоматически выучить [статистически] хорошее правило… а не то, описание которого обязательно имеет смысл для людей. Принимая во внимание этот взгляд на обучение, мы также хотели иметь возможность обеспечить чувство недискриминации, при этом рассматривая выученные правила как черные ящики».
Сребро и соавторы Мориц Хардт Google и Эрик Прайс из UT Остин разработал подход к анализу решений алгоритма и обеспечению отсутствия дискриминации в процессе принятия решений. Для этого они руководствовались антипредвзятым принципом, согласно которому решение в отношении конкретного человека не должно основываться исключительно на демографических данных этого человека. В случае с программой искусственного интеллекта решение алгоритма о человеке не должно раскрывать ничего о его поле или расе таким образом, чтобы это было бы неправомерной дискриминацией.
Это тест, который не решает проблему напрямую, но помогает выявить и предотвратить дискриминационные процессы. По этой причине некоторые исследователи относятся к этому с осторожностью.
«Машинное обучение отлично подходит, если вы используете его для разработки наилучшего способа прокладки нефтепровода», Ноэль Шарки, почетный профессор робототехники и искусственного интеллекта в Университете Шеффилда, рассказал Хранитель. «Пока мы не узнаем больше о том, как в них работают предубеждения, я буду очень обеспокоен тем, что они делают прогнозы, которые влияют на жизнь людей».
Сребро признает эту обеспокоенность, но не считает ее резкой критикой подхода своей команды. «Я согласен, что во многих приложениях с высокими ставками на отдельных лиц, особенно со стороны правительства и судебным органам, использование статистических предикторов «черного ящика» нецелесообразно, а прозрачность жизненно важна», он сказал. «В других ситуациях, когда они используются коммерческими организациями и когда индивидуальные ставки ниже, статистические прогнозаторы «черного ящика» могут быть уместными и эффективными. Их может быть сложно полностью запретить, но все же желательно контролировать конкретную защищенную дискриминацию».
документ о равенстве возможностей в контролируемом обучении был одним из немногих, представленных в этом месяце на выставке Neural Information Processing Systems (NIPS) в Барселоне, Испания, которая предлагала подходы к обнаружению дискриминации в алгоритмах, по словам Хранитель.
Рекомендации редакции
- Google Bard вскоре может стать вашим новым тренером по искусственному интеллекту
- Новая компания Илона Маска, занимающаяся искусственным интеллектом, стремится «понять вселенную»
- Весь Интернет теперь принадлежит искусственному интеллекту Google
- Google советует работникам опасаться чат-ботов с искусственным интеллектом
- Что такое МьюзиЛМ? Ознакомьтесь с искусственным интеллектом Google для преобразования текста в музыку
Обновите свой образ жизниDigital Trends помогает читателям быть в курсе быстро меняющегося мира технологий благодаря всем последним новостям, забавным обзорам продуктов, содержательным редакционным статьям и уникальным кратким обзорам.