Tento A.I. Mohli bychom otřást tím, jak čteme komentáře online

click fraud protection

Jak řešíte problém, jako je internet? Je to otázka, která by, upřímně řečeno, nedávala smysl ani před čtvrt stoletím. Internet se svou schopností šířit jak informace, tak demokratické hodnoty do všech odlehlých koutů Země, byl odpověď.

Obsah

  • Hlas pro neslyšící
  • Zdůrazněte to pozitivní
  • Žádné snadné opravy

Požádat o lék na internetu bylo jako požádat o lék na lék na rakovinu. Tady v roce 2020 je obraz trochu zablácenější. Ano, internet je úžasně skvělý pro nejrůznější věci. Ale to také přináší problémy, z šíření falešných zpráv do digitální žumpy, která je v každé sekci komentářů na YouTube. Jinými slovy, internet může být toxický. Jak to vyčistíme?

Getty

Zde neexistují jednoduché odpovědi. Je řešením algoritmická nebo lidmi řízená cenzura? Měli bychom zavřít všechny sekce komentářů ke kontroverzním tématům? Opravdu se soukromě vlastněná platforma musí cítit povinna poskytnout každému hlas? Jak se blokování okrajových názorů pro veřejné blaho shoduje se snem internetu dát hlas všem?

Příbuzný

  • Analogové A.I.? Zní to šíleně, ale může to být budoucnost
  • Přečtěte si děsivě krásné ‚syntetické písmo‘ A.I. který si myslí, že je to Bůh
  • Algoritmická architektura: Měli bychom nechat A.I. navrhovat budovy pro nás?

Vědci z Carnegie Mellon University vytvořili zajímavý nový nástroj, o kterém se domnívají, že by mohl pomoci. Je to algoritmus umělé inteligence, který nefunguje tak, že blokuje negativní řeč, ale spíše zvýrazněním nebo zesílením „nápovědné řeči“, aby ji bylo snazší najít. V tomto procesu doufají, že by to mohlo pomoci s kybertopickými ambicemi lépe udělat z internetu hlas pro posílení hlasu neslyšících.

Doporučená videa

Hlas pro neslyšící

Rohingský uprchlický tábor
Rohingský uprchlický tábor

A.I. navržený týmem od Carnegie Mellon’s Ústav jazykových technologií, prosévá komentáře na YouTube a upozorňuje na komentáře, které v tomto případě hájí nebo sympatizují s menšinami zbavenými volebního práva, jako je komunita Rohingů. Muslimští Rohingové jsou od října 2016 vystaveni sérii převážně probíhajících perzekucí ze strany myanmarské vlády. Genocidní krize donutila více než milion Rohingů uprchnout do sousedních zemí. Je to zoufalá situace zahrnující náboženské pronásledování a etnické čistky – ale nemusíte to nutně vědět z mnoha komentářů, které se objevily na místních sociálních médiích; ohromující množství komentářů na druhé straně problému.

„Vyvinuli jsme rámec pro boj proti menšině bez volebního práva – v tomto případě Rohingyů – abychom automaticky detekovali webový obsah, který je podporuje,“ Ashique Khudabukhsh, projektový vědec z oddělení informatiky v Carnegie Mellon, řekl Digital Trends. „Zaměřili jsme se na YouTube, platformu sociálních médií, která je v jižní Asii nesmírně populární. Naše analýzy odhalily, že velké množství komentářů o Rohingech je pohrdavě. Vyvinuli jsme automatizovanou metodu pro odhalování komentářů obhajujících jejich věc, které by jinak byly přehlušeny velkým množstvím drsných, negativních komentářů.“

„Z pohledu obecného rámce se naše práce liší od tradiční práce s detekcí nenávistných projevů, kde je hlavní zaměření je na blokování negativního obsahu, [ačkoli se jedná] o aktivní a velmi důležitou oblast výzkumu,“ Khudabukhsh pokračoval. „Naproti tomu naše práce při zjišťování podpůrných komentářů – čemu říkáme pomocná řeč – představuje nový směr zlepšování online zážitku prostřednictvím zesílení pozitiv.“

Trénovat jejich A.I. filtrační systém, výzkumníci shromáždili více než čtvrt milionu komentářů na YouTube. Pomocí nejmodernější technologie lingvistického modelování vytvořili algoritmus, který dokáže tyto komentáře prohledat a rychle zvýraznit komentáře, které jsou na straně Rohingské komunity. Automatizovaná sémantická analýza uživatelských komentářů není, jak byste mohli očekávat, jednoduchá. Jen na indickém subkontinentu existuje 22 hlavních jazyků. Při posuzování jazyka se také často vyskytují pravopisné chyby a nestandardní pravopisné variace.

Zdůrazněte to pozitivní

Nicméně A.I. vyvinuté týmem dokázaly výrazně zvýšit viditelnost pozitivních komentářů. Ještě důležitější je, že to dokázal udělat mnohem rychleji, než by bylo možné pro lidského moderátora, kteří by nebyli schopni ručně procházet velkým množstvím komentářů v reálném čase a zejména připínat komentáře. To by mohlo být zvláště důležité v situacích, kdy jedna strana může mít omezené dovednosti v dominantním jazyce, omezený přístup k němu internet nebo problémy s vyšší prioritou (čti: vyhýbání se pronásledování), které mohou mít přednost před účastí na internetu rozhovory.

"Co když nejste v globální diskusi o vás a nemůžete se bránit?"

"Všichni jsme zažili být tím jedním přítelem, který se v jejich nepřítomnosti zastal jiného přítele," pokračoval Khudabukhsh. "Teď to zvažte v globálním měřítku." Co když nejste součástí globální diskuse o vás a nemůžete se bránit? Jak může A.I. pomoci v této situaci? Říkáme tomu problém 21. století: migrační krize v éře všudypřítomného internetu, kde je hlasů uprchlíků velmi málo. Do budoucna máme pocit, že geopolitické problémy, klima a důvody řízené zdroji mohou vyvolat nové migrační krize a naše práce na obraně ohrožených komunit v online světě je velmi důležitá.“

Stačí však pouhé zdůraznění určitých menšinových hlasů, nebo je to pouze algoritmická verze konceptu, který se každých pár let rozjíždí a vydává zpravodajství, které přináší jen dobré zprávy? Možná v některých ohledech, ale také to daleko přesahuje pouhé zvýrazňování tokenových komentářů, aniž by nabízelo způsoby, jak řešit širší problémy. S ohledem na to výzkumníci již projekt rozšířili, aby se podívali na způsoby, jakými A.I. lze použít k umocnění pozitivního obsahu v jiném odlišném, ale přesto vysokém sociálním dopadu scénáře. Jedním z příkladů jsou online diskuse během zvýšeného politického napětí mezi jadernými protivníky. Tato práce, kterou tým představí na evropské konferenci o umělé inteligenci (ECAI 2020) v červnu, by mohla být použita k odhalení a prezentaci obsahu šířícího nepřátelství. Podobná technologie by mohla být vytvořena pro řadu dalších scénářů — s vhodným přizpůsobením pro každý z nich.

Toto jsou míry přijetí #ECAI2020 příspěvky:
– Úplné práce: 26,8 %
– Zvýrazněné papíry: 45 %

Děkujeme vám za úsilí, které jste vložili do procesu kontroly!

— ECAI2020 (@ECAI2020) 15. ledna 2020

„Základní předpoklad, jak lze komunitě pomoci, závisí na dané komunitě,“ řekl Khudabukhsh. „Dokonce i různé uprchlické krize by vyžadovaly různé představy o pomoci. Například v případě krizí, kdy je hlavním problémem propuknutí nakažlivé nemoci, může poskytnutí lékařské pomoci nesmírně pomoci. Pro některé ekonomicky znevýhodněné skupiny může být zdůrazňování úspěšných příběhů lidí v komunitě motivačním faktorem. Každá komunita by proto vyžadovala různé nuanční pomocné klasifikátory řeči, aby automaticky našla pozitivní obsah. Naše práce k tomu poskytuje plán.“

Žádné snadné opravy

Jakkoli je tato práce fascinující, neexistují žádná snadná řešení, pokud jde o řešení problému online řeči. Součástí výzvy je, že internet, jak v současnosti existuje, odměňuje hlasité hlasy. Algoritmus PageRank společnosti Google například řadí webové stránky podle jejich vnímané důležitosti počítáním počtu a kvality odkazů na stránku. Trendová témata na Twitteru jsou diktována tím, o čem tweetuje největší počet lidí. Sekce komentářů často zvýrazňují ty názory, které vyvolávají nejsilnější reakce.

Nepředstavitelně velké množství hlasů na internetu může přehlušit nesouhlasné hlasy; často marginalizující hlasy, které, alespoň teoreticky, mají stejnou platformu jako kdokoli jiný.

Změna toho bude vyžadovat mnohem více než jeden skvělý algoritmus na prohledávání komentářů na YouTube. Není to však špatný začátek.

Doporučení redakce

  • Finishing touch: Jak vědci dávají robotům lidské hmatové smysly
  • Vtipná formulka: Proč je strojově generovaný humor svatým grálem A.I.
  • A.I. obvykle nic nezapomene, ale nový systém Facebooku ano. Zde je důvod
  • Snímání emocí A.I. je tady a mohlo by to být na vašem příštím pracovním pohovoru
  • Jazyková supermodelka: Jak GPT-3 tiše zahajuje A.I. revoluce