Цей А.І. Може змінити те, як ми читаємо коментарі в Інтернеті

Як вирішити таку проблему, як Інтернет? Це питання, відверто кажучи, мало б сенсу навіть чверть століття тому. Інтернет з його здатністю поширювати як інформацію, так і демократичні цінності в будь-який віддалений куточок Землі, був відповідь.

Зміст

  • Голос для безголосих
  • Підкреслюйте позитив
  • Немає легких виправлень

Просити ліки від Інтернету було все одно, що просити ліки від раку. Тут у 2020 році картина дещо каламутніша. Так, Інтернет напрочуд блискучий для будь-яких речей. Але це також створює проблеми, починаючи з поширення фейкових новин до цифрової вигрібної ями, якою є кожен розділ коментарів YouTube. Іншими словами, Інтернет може бути будь-яким токсичним. Як нам це очистити?

Гетті

Тут немає простих відповідей. Алгоритмічна цензура чи керована людьми це відповідь? Чи варто нам закривати всі розділи коментарів на спірні теми? Чи дійсно приватна платформа повинна відчувати себе зобов’язаною надати кожному право голосу? Як блокування маргінальних думок заради суспільного блага поєднується з мрією Інтернету дати голос кожному?

Пов'язані

  • Аналоговий ШІ? Це звучить божевільно, але це може бути майбутнє
  • Прочитайте моторошно красиве «синтетичне писання» штучного інтелекту. що думає, що це Бог
  • Алгоритмічна архітектура: чи повинні ми дозволити А.І. проектувати будівлі для нас?

Дослідники з Університету Карнегі-Меллона створили інтригуючий новий інструмент, який, на їхню думку, може допомогти. Це алгоритм штучного інтелекту, який не блокує негативне мовлення, а виділяє або посилює «допоміжне мовлення», щоб його було легше знайти. У процесі вони сподіваються, що це може допомогти в кібертопічних амбіціях краще зробити Інтернет голосом для розширення можливостей безмовних.

Рекомендовані відео

Голос для безголосих

Табір біженців рохінджа
Табір біженців рохінджа

А.І. розроблений командою з Карнегі-Меллона Інститут мовних технологій, переглядає коментарі YouTube і виділяє коментарі, які захищають або співчувають, у даному випадку, безправним меншинам, таким як спільнота рохінджа. Мусульманський народ рохінджа зазнав серії переслідувань з боку уряду М’янми з жовтня 2016 року. Криза геноциду змусила більше мільйона рохінджа втекти до сусідніх країн. Це відчайдушне становище, пов’язане з релігійними переслідуваннями та етнічними чистками, але ви не обов’язково дізнаєтеся про це з багатьох коментарів, які з’явилися в місцевих соціальних мережах; переважає кількість коментарів з іншого боку проблеми.

«Ми розробили структуру для підтримки справи безправної меншини — у цьому випадку рохінджа — для автоматичного виявлення веб-контенту, який їх підтримує», Ашіке Худабухш, науковий співробітник відділу комп’ютерних наук Карнегі-Меллона, розповів Digital Trends. «Ми зосередилися на YouTube, соціальній медіа-платформі, яка надзвичайно популярна в Південній Азії. Наш аналіз показав, що велика кількість коментарів про рохінджа були зневажливими до них. Ми розробили автоматичний метод виявлення коментарів, які відстоюють свою думку, які інакше були б заглушені великою кількістю різких негативних коментарів».

«З точки зору загальної рамки, наша робота відрізняється від традиційної роботи з виявлення мови ворожнечі, де основна увага приділяється блокує негативний контент, [хоча це] активний і дуже важливий напрямок досліджень», Худабухш продовження. «На відміну від цього, наша робота з виявлення підтримуючих коментарів — те, що ми називаємо допоміжною промовою — відзначає новий напрямок покращення онлайн-досвіду шляхом посилення позитиву».

Щоб навчити їх A.I. Система фільтрації, дослідники зібрали понад чверть мільйона коментарів YouTube. Використовуючи передову технологію лінгвістичного моделювання, вони створили алгоритм, який може очищати ці коментарі, щоб швидко виділити коментарі, які стосуються спільноти рохінджа. Автоматичний семантичний аналіз коментарів користувачів, як і слід було очікувати, непростий. Лише на Індійському субконтиненті існує 22 основні мови. Також часто виникають орфографічні помилки та нестандартні варіанти написання, з якими потрібно мати справу, коли справа доходить до оцінювання мови.

Підкреслюйте позитив

Тим не менш, А.І. розроблені командою змогли значно збільшити видимість позитивних коментарів. Що ще важливіше, він міг зробити це набагато швидше, ніж це було б можливо для людини-модератора, хто не зможе вручну переглядати велику кількість коментарів у режимі реального часу та зокрема закріплювати коментарі. Це може бути особливо важливим у сценаріях, коли одна сторона може мати обмежені навички володіння основною мовою, обмежений доступ до неї Інтернеті або питання вищого пріоритету (читай: уникнення переслідувань), які можуть мати перевагу над участю в Інтернеті розмови.

«Що робити, якщо вас немає в глобальній дискусії про вас і ви не можете захистити себе?»

«Усім нам доводилося бути одним другом, який заступався за іншого друга в його відсутність», — продовжив Худабухш. «Тепер розгляньте це в глобальному масштабі. Що робити, якщо вас немає в глобальній дискусії про вас і ви не можете захистити себе? Як А.І. допомогти в цій ситуації? Ми називаємо це проблемою 21-го століття: кризи мігрантів в епоху повсюдного Інтернету, де голосів біженців небагато. У майбутньому ми вважаємо, що геополітичні проблеми, кліматичні та ресурсні причини можуть спровокувати нові мігрантські кризи, і наша робота щодо захисту груп ризику в онлайн-світі є дуже важливою».

Але чи достатньо просто висвітлити голоси певних меншин, чи це лише алгоритмічна версія концепції запуску новинного видання, яке повідомляє лише хороші новини, що кілька років? Можливо, певним чином, але це також виходить далеко за рамки простого виділення символічних коментарів, не пропонуючи шляхів вирішення ширших проблем. Маючи це на увазі, дослідники вже розширили проект, щоб розглянути способи, якими A.I. можна використовувати для посилення позитивного вмісту в інших, але, тим не менш, високих соціальних впливів сценарії. Одним із прикладів є онлайн-дискусії під час загострення політичної напруги між ядерними супротивниками. Ця робота, яку команда представить на Європейській конференції зі штучного інтелекту (ECAI 2020) у червні, може бути використана для виявлення та представлення вмісту, що поширює ворожість. Подібну технологію можна створити для безлічі інших сценаріїв — із відповідним адаптуванням для кожного.

Це показники прийому для #ECAI2020 внески:
– Повні статті: 26,8%
– Виділіть папери: 45%

Щиро дякуємо за зусилля, які ви доклали до процесу перевірки!

— ECAI2020 (@ECAI2020) 15 січня 2020 р

«Основна передумова того, як можна допомогти громаді, залежить від громади, про яку йдеться», — сказав Худабухш. «Навіть різні кризи біженців вимагали б різних уявлень про допомогу. Наприклад, у кризових ситуаціях, коли спалах інфекційних захворювань є основною проблемою, надання медичної допомоги може бути надзвичайно корисним. Для деяких економічно неблагополучних груп висвітлення історій успіху людей у ​​громаді може бути мотивуючим фактором. Отже, кожній спільноті знадобляться різні допоміжні класифікатори мовлення для автоматичного пошуку позитивного вмісту. Наша робота є планом для цього».

Немає легких виправлень

Якою б захоплюючою не була ця робота, немає простих рішень, коли справа доходить до вирішення проблеми онлайн-мовлення. Частково проблема полягає в тому, що Інтернет, який він існує зараз, винагороджує гучні голоси. Алгоритм PageRank від Google, наприклад, ранжує веб-сторінки за їх сприйнятою важливістю шляхом підрахунку кількості та якості посилань на сторінку. Популярні теми в Твіттері визначаються тим, про що твітує найбільша кількість людей. У розділах коментарів часто висвітлюються ті думки, які викликають найбільшу реакцію.

Неймовірно велика кількість голосів в Інтернеті може заглушити голоси незгодних; часто маргіналізуючи голоси, які, принаймні теоретично, мають ту саму платформу, що й будь-хто інший.

Щоб змінити це, знадобиться набагато більше, ніж один крутий алгоритм очищення коментарів YouTube. Однак це непоганий початок.

Рекомендації редакції

  • Останній штрих: як вчені надають роботам людські тактильні відчуття
  • Смішна формула: чому гумор, створений машиною, є святим Граалем А.І.
  • А.І. зазвичай нічого не забуває, але нова система Facebook забуває. Ось чому
  • Чуттєвий А.І. тут, і це може бути під час вашої наступної співбесіди
  • Мовна супермодель: як GPT-3 тихо запроваджує ШІ. революція