Как се решава проблем като интернет? Това е въпрос, който, честно казано, би имал малко смисъл дори преди четвърт век. Интернет, със способността си да разпространява както информация, така и демократични ценности до всяко отдалечено кътче на Земята, беше Отговорът.
Съдържание
- Глас за безгласните
- Акцентирайте върху положителното
- Няма лесни решения
Да поискаш лек за интернет беше като да поискаш лек за лек за рак. Тук през 2020 г. картината е малко по-мътна. Да, интернет е удивително брилянтен за всякакви неща. Но също така създава проблеми, от разпространение на фалшиви новини до цифровата помийна яма, която е всяка секция за коментари в YouTube. Казано по друг начин, интернет може да бъде всякакъв вид токсичен. Как да го почистим?
Тук няма прости отговори. Алгоритмична или управлявана от човека цензура е отговорът? Трябва ли да затворим всички секции за коментари по спорни теми? Наистина ли една частна платформа трябва да се чувства задължена да предостави на всеки глас? Как блокирането на маргинални мнения за общественото благо се съчетава с мечтата на интернет да даде глас на всички?
Свързани
- Аналогов AI? Звучи налудничаво, но това може да е бъдещето
- Прочетете зловещо красивото „синтетично писание“ на A.I. който мисли, че е Бог
- Алгоритмична архитектура: Трябва ли да оставим A.I. проектират сгради за нас?
Изследователи от университета Карнеги Мелън създадоха интригуващ нов инструмент, който смятат, че може да помогне. Това е алгоритъм с изкуствен интелект, който работи не чрез блокиране на негативна реч, а по-скоро чрез подчертаване или усилване на „помощна реч“, за да я улесни в намирането. В процеса те се надяват, че това може да помогне с кибертопичната амбиция за по-добро превръщане на интернет в глас за овластяване на безгласните.
Препоръчани видеоклипове
Глас за безгласните
ИИ разработен от екипа на Carnegie Mellon Институт за езикови технологии, пресява коментарите в YouTube и подчертава коментари, които защитават или симпатизират, в този случай, на лишените от права малцинства като общността на рохингите. Мюсюлманският народ рохингия е обект на поредица от продължаващи до голяма степен преследвания от правителството на Мианмар от октомври 2016 г. Геноцидната криза принуди повече от милион рохинги да избягат в съседни страни. Това е отчаяно положение, включващо религиозно преследване и етническо прочистване - но не е задължително да го знаете от много от коментарите, които се появиха в местните социални медии; огромен брой коментари от другата страна на проблема.
„Ние разработихме рамка за защита на каузата на лишено от права малцинство – в този случай рохингите – за автоматично откриване на уеб съдържание, което ги подкрепя,“ Ашике Худабухш, учен по проекта в отдела по компютърни науки в Carnegie Mellon, каза за Digital Trends. „Фокусирахме се върху YouTube, социална медийна платформа, изключително популярна в Южна Азия. Нашите анализи разкриха, че голям брой коментари за рохингите са пренебрежителни към тях. Разработихме автоматизиран метод за откриване на коментари, защитаващи тяхната кауза, които иначе биха били заглушени от огромен брой груби, негативни коментари.
„От гледна точка на обща рамка, нашата работа се различава от традиционната работа по откриване на реч на омразата, където основният фокус е е върху блокирането на негативното съдържание, [въпреки че това е] активна и много важна изследователска област,” Khudabukhsh продължи. „За разлика от това, нашата работа по откриване на подкрепящи коментари – това, което наричаме помощна реч – бележи нова посока за подобряване на онлайн изживяването чрез усилване на позитивите.“
За да обучат техния ИИ система за филтриране, изследователите събраха повече от четвърт милион коментара в YouTube. Използвайки авангардни технологии за лингвистично моделиране, те създадоха алгоритъм, който може да претърси тези коментари, за да подчертае бързо коментарите, които са на страната на общността на рохингите. Автоматизираният семантичен анализ на потребителските коментари, както може да очаквате, не е лесен. Само в Индийския субконтинент има 22 основни езика. Има и чести правописни грешки и нестандартни варианти на правопис, с които трябва да се справите, когато става въпрос за оценка на езика.
Акцентирайте върху положителното
Независимо от това, A.I. разработени от екипа успяха значително да увеличат видимостта на положителните коментари. По-важното е, че успя да направи това много по-бързо, отколкото би било възможно за човешки модератор, който не би могъл да премине ръчно през големи количества коментари в реално време и по-специално да закачи коментари. Това може да бъде особено важно в сценарии, при които едната страна може да има ограничени умения в доминиращ език, ограничен достъп до него интернет или проблеми с по-висок приоритет (прочетете: избягване на преследване), които могат да имат предимство пред участието в онлайн разговори.
„Ами ако не участвате в глобална дискусия за вас и не можете да се защитите?“
„Всички сме имали опит да бъдем този един приятел, който се застъпва за друг приятел в тяхно отсъствие“, продължи Худабухш. „Сега помислете за това в глобален мащаб. Ами ако не участвате в глобална дискусия за вас и не можете да се защитите? Как може A.I. помощ в тази ситуация? Ние наричаме това проблем на 21-ви век: мигрантски кризи в ерата на повсеместния интернет, където гласовете на бежанците са малко и рядко се чуват. Занапред смятаме, че геополитическите проблеми, климатът и причините, свързани с ресурсите, могат да предизвикат нови мигрантски кризи и нашата работа за защита на рискови общности в онлайн света е изключително важна.“
Но достатъчно ли е просто подчертаването на определени гласове на малцинствата или това е просто алгоритмична версия на разпространената концепция на всеки няколко години за стартиране на новинарско издание, което казва само добри новини? Може би по някакъв начин, но също така отива далеч отвъд простото подчертаване на символични коментари, без да предлага начини за справяне с по-широки проблеми. Имайки това предвид, изследователите вече са разширили проекта, за да разгледат начините, по които A.I. може да се използва за разширяване на положително съдържание в други различни, но въпреки това силно социално въздействие сценарии. Един пример са онлайн дискусиите по време на повишено политическо напрежение между ядрени противници. Тази работа, която екипът ще представи на Европейската конференция за изкуствен интелект (ECAI 2020) през юни, може да се използва за откриване и представяне на съдържание, разпространяващо враждебност. Подобна технология може да бъде създадена за множество други сценарии - с подходящо приспособяване за всеки.
Това са нивата на приемане за #ECAI2020 вноски:
– Пълни документи: 26,8%
– Акценти: 45%Благодаря ви много за усилията, които положихте в процеса на преглед!
— ECAI2020 (@ECAI2020) 15 януари 2020 г
„Основната предпоставка за това как може да се помогне на една общност зависи от въпросната общност“, каза Худабухш. „Дори различните бежански кризи биха изисквали различни представи за оказване на помощ. Например при кризи, при които избухването на заразна болест е основен проблем, предоставянето на медицинска помощ може да бъде от огромна помощ. За някои групи в неравностойно икономическо положение изтъкването на успешни истории на хора в общността може да бъде мотивиращ фактор. Следователно всяка общност би изисквала различни нюансирани помощни класификатори на речта, за да намери автоматично положително съдържание. Нашата работа предоставя план за това.“
Няма лесни решения
Колкото и завладяваща да е тази работа, няма лесни решения, когато става въпрос за решаване на проблема с онлайн речта. Част от предизвикателството е, че интернет, както съществува в момента, възнаграждава силните гласове. Алгоритъмът на Google PageRank, например, класира уеб страниците според тяхната възприемана важност, като брои броя и качеството на връзките към дадена страница. Тенденциите в Twitter са продиктувани от това, за което най-много хора туитват. Секциите за коментари често подчертават тези мнения, които предизвикват най-силни реакции.
Невъобразимо големият брой гласове в интернет може да заглуши несъгласните гласове; често маргинализиране на гласове, които, поне на теория, имат същата платформа като всеки друг.
Промяната на това ще отнеме много повече от един страхотен алгоритъм за почистване на коментари в YouTube. Все пак не е лошо начало.
Препоръки на редакторите
- Завършващ щрих: Как учените дават на роботите човекоподобни тактилни сетива
- Забавната формула: Защо машинно генерираният хумор е свещеният граал на ИИ
- ИИ обикновено не забравя нищо, но новата система на Facebook го прави. Ето защо
- Емоционален ИИ е тук и може да бъде на следващото ви интервю за работа
- Езиков супермодел: Как GPT-3 тихо въвежда A.I. революция