Как вы решаете такую проблему, как Интернет? Честно говоря, этот вопрос не имел бы особого смысла даже четверть века назад. Интернет с его способностью распространять информацию и демократические ценности во все отдаленные уголки Земли. был ответ.
Содержание
- Голос для тех, кто лишен голоса
- Акцентируйтесь на позитиве
- Нет простых исправлений
Просить лекарство от Интернета было все равно, что просить лекарство от рака. Здесь, в 2020 году, картина немного более запутанная. Да, Интернет удивительно великолепен для самых разных вещей. Но это также создает проблемы, начиная с распространение фейковых новостей ну, ну, в цифровую помойку, которой является каждый раздел комментариев на YouTube. Другими словами, Интернет может быть очень токсичным. Как мы это очистим?
Здесь нет простых ответов. Является ли ответом алгоритмическая или человеческая цензура? Должны ли мы закрыть все разделы комментариев по спорным темам? Действительно ли частная платформа должна чувствовать себя обязанной предоставить каждому право голоса? Как блокирование маргинальных мнений ради общественного блага сочетается с мечтой Интернета дать право голоса каждому?
Связанный
- Аналоговый ИИ? Это звучит безумно, но это может быть будущее
- Прочтите устрашающе красивое «синтетическое писание» ИИ. который думает, что это Бог
- Алгоритмическая архитектура: стоит ли позволять ИИ проектировать для нас здания?
Исследователи из Университета Карнеги-Меллон создали интригующий новый инструмент, который, по их мнению, может помочь. Это алгоритм искусственного интеллекта, который работает не путем блокировки негативной речи, а, скорее, путем выделения или усиления «речи помощи», чтобы ее было легче найти. В процессе они надеются, что это может помочь в реализации кибертопических амбиций по превращению Интернета в голос, расширяющий возможности тех, кто лишен голоса.
Рекомендуемые видео
Голос для тех, кто лишен голоса
ИИ разработанная командой из Карнеги-Меллона Институт языковых технологий, просматривает комментарии YouTube и выделяет комментарии, которые защищают или сочувствуют, в данном случае, лишенным гражданских прав меньшинствам, таким как сообщество рохинджа. Мусульмане-рохинджа с октября 2016 года подвергаются ряду продолжающихся преследований со стороны правительства Мьянмы. Кризис геноцида вынудил более миллиона рохинджа бежать в соседние страны. Это отчаянное положение, связанное с религиозными преследованиями и этническими чистками, но вы не обязательно узнаете об этом из многих комментариев, появившихся в местных социальных сетях; подавляющее количество комментариев по другой стороне вопроса.
«Мы разработали систему для защиты интересов бесправного меньшинства — в данном случае рохинджа — для автоматического обнаружения веб-контента, поддерживающего их», Ашике Худабухш, научный сотрудник факультета компьютерных наук Карнеги-Меллона, рассказал Digital Trends. «Мы сосредоточились на YouTube, социальной сети, чрезвычайно популярной в Южной Азии. Наш анализ показал, что большое количество комментариев о рохинджа носят уничижительный характер. Мы разработали автоматизированный метод обнаружения комментариев, отстаивающих свою позицию, которые в противном случае были бы заглушены огромным количеством резких негативных комментариев».
«С точки зрения общей структуры наша работа отличается от традиционной работы по выявлению языка ненависти, где основное внимание уделяется Речь идет о блокировке негативного контента, [хотя это] активное и очень важное направление исследований», — Худабухш продолжение. «Напротив, наша работа по выявлению поддерживающих комментариев — того, что мы называем вспомогательной речью — знаменует собой новое направление улучшения онлайн-опыта за счет усиления положительных сторон».
Чтобы обучить свой ИИ. Благодаря системе фильтрации исследователи собрали более четверти миллиона комментариев на YouTube. Используя передовые технологии лингвистического моделирования, они создали алгоритм, который может просматривать эти комментарии и быстро определять, на какой стороне сообщество рохинджа. Автоматизированный семантический анализ комментариев пользователей, как и следовало ожидать, непростая задача. Только на Индийском субконтиненте существует 22 основных языка. При оценке языка также часто возникают орфографические ошибки и нестандартные варианты написания.
Акцентируйтесь на позитиве
Тем не менее, ИИ. разработанные командой, смогли значительно повысить видимость положительных комментариев. Что еще более важно, он смог сделать это гораздо быстрее, чем мог бы сделать модератор-человек. которые не смогут вручную просматривать большое количество комментариев в режиме реального времени и закреплять отдельные Комментарии. Это может быть особенно важно в сценариях, в которых одна сторона может иметь ограниченные навыки владения доминирующим языком, ограниченный доступ к Интернет или вопросы более приоритетного характера (читай: предотвращение преследования), которые могут иметь приоритет над участием в онлайн-играх. разговоры.
«Что, если вы не участвуете в глобальной дискуссии о вас и не можете защитить себя?»
«Мы все переживали, что являемся тем другом, который заступался за другого друга в их отсутствие», — продолжил Худабухш. «Теперь рассмотрим это в глобальном масштабе. Что, если вы не участвуете в глобальной дискуссии о вас и не можете защитить себя? Как может А.И. помочь в этой ситуации? Мы называем это проблемой XXI века: миграционные кризисы в эпоху повсеместного Интернета, когда голоса беженцев немногочисленны и редки. В будущем мы считаем, что геополитические проблемы, климатические и ресурсные причины могут спровоцировать новые миграционные кризисы, и наша работа по защите групп риска в онлайн-мире очень важна».
Но достаточно ли просто подчеркнуть голоса определенных меньшинств, или это просто алгоритмическая версия реализуемой каждые несколько лет концепции запуска новостного агентства, рассказывающего только хорошие новости? Возможно, в некотором смысле, но это также выходит далеко за рамки простого выделения символических комментариев, не предлагая способов решения более широких проблем. Имея это в виду, исследователи уже расширили проект, чтобы изучить способы, которыми ИИ. может использоваться для усиления положительного контента в других, но, тем не менее, имеющих большое социальное воздействие. сценарии. Одним из примеров являются онлайн-дискуссии во время обострения политической напряженности между ядерными противниками. Эта работа, которую команда представит на Европейской конференции по искусственному интеллекту (ECAI 2020) в июне, может быть использована для обнаружения и представления контента, распространяющего враждебность. Подобная технология может быть создана для множества других сценариев — с подходящей адаптацией для каждого.
Это тарифы на прием #ECAI2020 вклады:
– Полные доклады: 26,8%
– Основные статьи: 45%Огромное спасибо за усилия, которые вы вложили в процесс обзора!
— ECAI2020 (@ECAI2020) 15 января 2020 г.
«Основная предпосылка того, как можно помочь сообществу, зависит от конкретного сообщества», — сказал Худабухш. «Даже разные кризисы беженцев потребуют разных представлений о помощи. Например, в кризисных ситуациях, когда вспышка инфекционных заболеваний является серьезной проблемой, оказание медицинской помощи может оказать огромную помощь. Для некоторых экономически неблагополучных групп освещение историй успеха людей в сообществе может быть мотивирующим фактором. Следовательно, каждому сообществу потребуются разные нюансы классификаторов речи для автоматического поиска положительного контента. Наша работа дает план для этого».
Нет простых исправлений
Какой бы увлекательной ни была эта работа, когда дело доходит до решения проблемы онлайн-речи, не существует простых решений. Частично проблема заключается в том, что Интернет в его нынешнем виде вознаграждает громкие голоса. Алгоритм Google PageRank, например, ранжирует веб-страницы по их воспринимаемой важности, подсчитывая количество и качество ссылок на страницу. Актуальные темы в Твиттере определяются тем, о чем пишет наибольшее количество людей. В разделах комментариев часто выделяются те мнения, которые вызывают самую сильную реакцию.
Невообразимо большое количество голосов в Интернете может заглушить голоса несогласных; часто маргинализируют голоса, которые, по крайней мере теоретически, имеют ту же платформу, что и все остальные.
Чтобы изменить это, потребуется гораздо больше, чем один крутой алгоритм поиска комментариев на YouTube. Хотя это неплохое начало.
Рекомендации редакции
- Последний штрих: как ученые наделяют роботов человеческими тактильными чувствами
- Забавная формула: Почему машинный юмор — это Святой Грааль искусственного интеллекта
- А.И. обычно ничего не забывает, но новая система Facebook умеет. Вот почему
- Чувствующий эмоции искусственный интеллект здесь, и это может быть на вашем следующем собеседовании
- Языковая супермодель: как GPT-3 незаметно открывает путь искусственному интеллекту революция