Из видео жертвы самоубийства на YouTube, чтобы реклама, ориентированная на «ненавистников евреев», на ФейсбукПлатформы социальных сетей страдают от нежелательного контента, который умудряется ускользнуть. Во многих случаях ответом платформы является внедрение более умных алгоритмов для более точного выявления нежелательного контента. Но что на самом деле способен уловить искусственный интеллект, насколько ему следует доверять, а где он с треском проваливается?
«А.И. может уловить оскорбительные выражения и очень хорошо распознавать изображения. Здесь есть возможность идентифицировать изображение», — говорит Уинстон Бинч, директор по цифровым технологиям компании.
немецкий, креативное агентство, использующее искусственный интеллект. в создании цифровых кампаний для брендов от Target до Taco Bell. «Серая зона становится намерением».А.И. может читать как текст, так и изображения, но точность варьируется
Используя обработку естественного языка, А.И. можно научить распознавать текст на нескольких языках. Например, программу, предназначенную для выявления публикаций, нарушающих правила сообщества, можно научить обнаруживать расовые оскорбления или термины, связанные с экстремистской пропагандой.
А.И. также можно научить распознавать изображения, предотвращать некоторые формы наготы или распознавать символы, такие как свастика. Во многих случаях это работает хорошо, но не является надежным. Например, Google Photos подверглась критике за то, что помечала изображения темнокожих людей ключевым словом «горилла». Спустя годы Google так и не нашел решения проблемы, вместо этого решив удалить тот возможность программы метить обезьян и горилл полностью.
Алгоритмы также необходимо обновлять по мере изменения значения слова или для понимания того, как слово используется в контексте. Например, ЛГБТ-пользователи Твиттера недавно заметили отсутствие в результатах поиска #gay и #bisensual, среди других терминов, что заставило некоторых почувствовать, что сервис подвергает их цензуре. Twitter извинился за ошибку, обвинив в ней устаревший алгоритм это было ложное определение сообщений, помеченных этими терминами, как потенциально оскорбительных. Twitter заявил, что его алгоритм должен был учитывать этот термин в контексте сообщения, но не смог сделать это с этими ключевыми словами.
А.И. является предвзятым
Неудачная попытка мечения горилл выявила еще один важный недостаток — А.И. является предвзятым. Вы можете задаться вопросом, как компьютер может быть предвзятым, но ИИ. обучается, наблюдая, как люди выполняют задачи, или вводя результаты этих задач. Например, программы для идентификации объектов на фотографии часто обучаются путем подачи в систему тысяч изображений, которые изначально были помечены вручную.
Человеческий фактор – это то, что делает возможным для ИИ. выполнять задачи, но в то же время придает этому человеческую предвзятость.
Человеческий фактор – это то, что делает возможным для ИИ. выполнять задачи, которые ранее были невозможны с помощью обычного программного обеспечения, но тот же человеческий фактор также непреднамеренно придает компьютеру человеческую предвзятость. ИИ Программа хороша настолько, насколько хороши данные обучения — если, например, в систему в основном загружены изображения белых мужчин, программе будет трудно идентифицировать людей с другими оттенками кожи.
«Один недостаток ИИ в целом, когда дело доходит до модерации чего-либо, от комментариев до пользователей. содержание, заключается в том, что оно по своей сути является самоуверенным по замыслу», — сказал П. Дж. Альберг, исполнительный технический директор. Директор Стинк Студиос Нью-Йорк, агентство, использующее искусственный интеллект. для создания ботов в социальных сетях и модерации брендовых кампаний.
После разработки обучающего набора эти данные часто передаются разработчикам, а это означает, что смещение распространяется на несколько программ. Альберг говорит, что этот фактор означает, что разработчики не могут изменять эти наборы данных в программах, использующих несколько ИИ. системы, что затрудняет устранение любых предубеждений после их обнаружения.
А.И. не могу определить намерение
А.И. может обнаружить свастику на фотографии, но программа не может определить, как она используется. Facebook, например, недавно извинился после удаление сообщения со свастикой но сопровождалось текстовым призывом остановить распространение ненависти.
Это пример неудачи А.И. распознавать намерение. Facebook даже отметил фотографию статуя Нептуна как откровенно сексуального характера. Кроме того, алгоритмы могут непреднамеренно отмечать фотожурналистские работы из-за символов ненависти или насилия, которые могут присутствовать на изображениях.
Еще одним примером являются исторические изображения, которыми делятся в образовательных целях. В 2016 году Facebook вызвал споры после этого. удалена историческая фотография «девочки из напалма» несколько раз, прежде чем давление со стороны пользователей вынудило компанию изменить свою жесткую позицию в отношении наготы и восстановить фотографию.
А.И. обычно служит первоначальной проверкой, но модераторы-люди все же часто необходимы, чтобы определить, действительно ли контент нарушает стандарты сообщества. Несмотря на улучшения в ИИ, это не факт, который меняется. Facebook, например, в этом году увеличивает численность своей группы проверки до 20 000, что вдвое больше, чем в прошлом году.
А.И. помогает людям работать быстрее
Человеческий мозг все еще может потребоваться, но ИИ. сделало этот процесс более эффективным. А.И. может помочь определить, какие сообщения требуют проверки человеком, а также помочь определить приоритетность этих сообщений. В 2017 году Facebook поделился этим А.И. предназначен для выявления суицидальных тенденций привело к 100 звонкам в службу экстренной помощи за один месяц. В то время,
Getty Images/Блэкджип
«[А.И. прошел долгий путь и определенно прогрессирует, но реальность такова, что вам все еще очень нужен человеческий фактор, проверяющий что вы меняете правильные слова, правильное содержание и правильное сообщение», — сказал Крис Мел, управляющий директор Stink. Студии. «Там, где чувствует себя А.И. работает лучше всего, помогает модераторам-людям работать быстрее и в большем масштабе. Я не думаю, что А.И. почти на 100 процентов автоматизирован на любой платформе».
А.И. это быстро, но этика медленна
Технологии в целом имеют тенденцию развиваться быстрее, чем могут успевать законы и этика, и модерация в социальных сетях не является исключением. Бинч предполагает, что этот фактор может означать повышенный спрос на сотрудников с гуманитарным или этическим образованием, чего нет у большинства программистов.
По его словам: «Сейчас мы находимся в таком состоянии, когда темп и скорость настолько высоки, что нам нужно убедиться, что этический компонент не отстает слишком далеко».
Рекомендации редакции
- Когда авторские права усложняют поиск саундтреков к видео, этот ИИ. музыкант может помочь
- От 8K до искусственного интеллекта — вот что может появиться в камерах в 2019 году
- Компьютеры скоро нас перехитрит. Делает ли это ИИ? восстание неизбежно?