Kako rešiti problem, kot je internet? To je vprašanje, ki, odkrito povedano, še pred četrt stoletja ne bi bilo smiselno. Internet s svojo sposobnostjo širjenja informacij in demokratičnih vrednot v vse oddaljene kotičke Zemlje, je bil odgovor.
Vsebina
- Glas za brezglasne
- Poudarite pozitivno
- Brez enostavnih rešitev
Prositi za zdravilo za internet je bilo kot prositi za zdravilo za zdravilo za raka. Tukaj leta 2020 je slika nekoliko bolj zamegljena. Da, internet je osupljivo briljanten za najrazličnejše stvari. Postavlja pa tudi težave, od širjenje lažnih novic v, no, digitalno greznico, ki je v vsakem YouTubovem razdelku s komentarji. Povedano drugače, internet je lahko vse vrste strupen. Kako ga očistimo?
Tu ni preprostih odgovorov. Ali je odgovor algoritemska ali človeška cenzura? Ali naj zapremo vse razdelke s komentarji o spornih temah? Ali se mora zasebna platforma res čutiti dolžno vsem zagotoviti glas? Kako se blokiranje obrobnih mnenj za javno dobro ujema s sanjami interneta, da bi dal glas vsem?
Povezano
- Analogni AI? Sliši se noro, a morda je prihodnost
- Preberite srhljivo lepe "sintetične spise" A.I. ki misli, da je Bog
- Algoritemska arhitektura: Ali naj pustimo A.I. projektirati zgradbe za nas?
Raziskovalci na univerzi Carnegie Mellon so ustvarili zanimivo novo orodje, za katerega menijo, da bi lahko pomagalo. To je algoritem umetne inteligence, ki ne deluje tako, da blokira negativen govor, ampak bolj poudarja ali ojača "govor pomoči", da ga lažje najdete. V tem procesu upajo, da bi to lahko pomagalo pri kibertopijski ambiciji boljšega spreminjanja interneta v glas za opolnomočenje brezglasnih.
Priporočeni videoposnetki
Glas za brezglasne
A.I. zasnovala ekipa Carnegie Mellon's Inštitut za jezikovne tehnologije, prebere komentarje v YouTubu in izpostavi komentarje, ki branijo ali sočustvujejo z, v tem primeru, brezpravnimi manjšinami, kot je skupnost Rohingya. Muslimansko ljudstvo Rohingja je od oktobra 2016 podvrženo nizu večinoma neprekinjenih preganjanj s strani mjanmarske vlade. Genocidna kriza je prisilila več kot milijon Rohingjev v beg v sosednje države. To je obupna stiska, ki vključuje versko preganjanje in etnično čiščenje - vendar tega ne bi nujno vedeli iz številnih komentarjev, ki so se pojavili na lokalnih družbenih medijih; ogromno število komentarjev na drugi strani vprašanja.
"Razvili smo okvir za zavzemanje za brezpravne manjšine - v tem primeru Rohingje - za samodejno zaznavanje spletnih vsebin, ki jih podpirajo," Ashique Khudabukhsh, projektni znanstvenik na oddelku za računalništvo pri Carnegie Mellon, je povedal za Digital Trends. »Osredotočili smo se na YouTube, platformo družbenih medijev, ki je izjemno priljubljena v Južni Aziji. Naše analize so pokazale, da je bilo veliko število komentarjev o Rohingjih zaničljivih do njih. Razvili smo avtomatizirano metodo za odkrivanje komentarjev, ki zagovarjajo svoj namen, ki bi jih sicer preglasilo ogromno število ostrih, negativnih komentarjev.«
»S splošnega okvirnega vidika se naše delo razlikuje od tradicionalnega dela na odkrivanju sovražnega govora, kjer je glavni poudarek je na blokiranju negativne vsebine, [čeprav je to] aktivno in zelo pomembno raziskovalno področje,« Khudabukhsh nadaljevano. "Nasprotno pa naše delo zaznavanja podpornih komentarjev - kar imenujemo govor pomoči - označuje novo smer izboljšanja spletne izkušnje s krepitvijo pozitivnih strani."
Da bi usposobili svoj A.I. filtrirnega sistema so raziskovalci zbrali več kot četrt milijona komentarjev na YouTubu. Z uporabo najsodobnejše tehnologije jezikovnega modeliranja so ustvarili algoritem, ki lahko preišče te komentarje in hitro osvetli komentarje, ki so na strani skupnosti Rohingya. Avtomatizirana semantična analiza uporabniških komentarjev, kot bi lahko pričakovali, ni enostavna. Samo na indijski podcelini je 22 glavnih jezikov. Pri ocenjevanju jezika so pogoste tudi črkovalne napake in nestandardne črkovalne različice.
Poudarite pozitivno
Kljub temu je A.I. ki jih je razvila ekipa, so lahko močno povečali vidnost pozitivnih komentarjev. Še pomembneje je, da je to lahko storil veliko hitreje, kot bi bilo mogoče za človeškega moderatorja, ki ne bi mogli ročno pregledati velike količine komentarjev v realnem času in posebej pripeti komentarji. To je lahko še posebej pomembno v scenarijih, v katerih ima ena stran omejeno znanje prevladujočega jezika in omejen dostop do njega internet ali vprašanja višje prioritete (beri: izogibanje preganjanju), ki bi lahko imela prednost pred sodelovanjem v spletu pogovori.
"Kaj pa, če vas ni v globalni razpravi o vas in se ne morete braniti?"
»Vsi smo že doživeli, da smo bili tisti prijatelj, ki se je zavzel za drugega prijatelja v njegovi odsotnosti,« je nadaljeval Khudabukhsh. »Zdaj razmislite o tem na svetovni ravni. Kaj pa, če vas ni v globalni razpravi o vas in se ne morete braniti? Kako lahko A.I. pomoč v tej situaciji? Temu pravimo problem 21. stoletja: migrantske krize v dobi vseprisotnega interneta, kjer so glasovi beguncev redki. V prihodnje menimo, da lahko geopolitična vprašanja, podnebje in viri povzročijo nove migrantske krize, zato je naše delo za obrambo ogroženih skupnosti v spletnem svetu zelo pomembno.«
Toda ali je zgolj poudarjanje določenih manjšinskih glasov dovolj ali je to zgolj algoritemska različica koncepta vsakih nekaj let, ki se je pojavil, da se začne novica, ki sporoča le dobre novice? Morda na nek način, vendar tudi daleč presega zgolj poudarjanje simboličnih komentarjev, ne da bi ponudil načine za reševanje širših problemov. S tem v mislih so raziskovalci že razširili projekt, da bi preučili načine, na katere A.I. se lahko uporablja za razširitev pozitivnih vsebin v drugih različnih, a kljub temu visoko družbeno vplivnih scenariji. En primer so spletne razprave med povečano politično napetostjo med jedrskimi nasprotniki. To delo, ki ga bo ekipa predstavila na Evropski konferenci o umetni inteligenci (ECAI 2020) junija, bi lahko uporabili za pomoč pri odkrivanju in predstavitvi vsebine, ki širi sovražnost. Podobno tehnologijo bi lahko ustvarili za številne druge scenarije – z ustreznim prilagajanjem za vsakega.
To so stopnje sprejemljivosti za #ECAI2020 prispevki:
– Celotni članki: 26,8 %
– Poudarjeni papirji: 45 %Najlepša hvala za trud, ki ste ga vložili v postopek pregleda!
— ECAI2020 (@ECAI2020) 15. januar 2020
"Osnovna predpostavka, kako je mogoče pomagati skupnosti, je odvisna od zadevne skupnosti," je dejal Khudabukhsh. »Tudi različne begunske krize bi zahtevale različne pojme pomoči. Na primer, v krizah, kjer je izbruh nalezljive bolezni velik problem, je zagotavljanje medicinske pomoči lahko v veliko pomoč. Za nekatere ekonomsko prikrajšane skupine bi lahko bilo poudarjanje uspešnih zgodb ljudi v skupnosti motivacijski dejavnik. Zato bi vsaka skupnost potrebovala različne niansirane klasifikatorje govora za samodejno iskanje pozitivne vsebine. Naše delo zagotavlja načrt za to.«
Brez enostavnih rešitev
Čeprav je to delo fascinantno, ni enostavnih rešitev, ko gre za rešitev problema spletnega govora. Del izziva je, da internet, kakršen trenutno obstaja, nagrajuje glasne glasove. Googlov algoritem PageRank na primer razvršča spletne strani glede na njihovo zaznano pomembnost s štetjem števila in kakovosti povezav do strani. Trendne teme na Twitterju narekuje tisto, o čem tvita največ ljudi. Komentarji pogosto izpostavijo tista mnenja, ki izzovejo najmočnejše odzive.
Nepredstavljivo veliko število glasov na internetu lahko preglasi nasprotujoče glasove; pogosto marginalizira glasove, ki imajo, vsaj v teoriji, enako platformo kot vsi drugi.
Spreminjanje tega bo zahtevalo veliko več kot en kul algoritem za brisanje komentarjev v YouTubu. Ni pa slab začetek.
Priporočila urednikov
- Končni dotik: Kako znanstveniki dajejo robotom človeška otipna čutila
- Smešna formula: Zakaj je strojno ustvarjen humor sveti gral A.I.
- A.I. običajno ničesar ne pozabi, novi Facebookov sistem pa. Evo zakaj
- A.I., ki zaznava čustva je tukaj in bi lahko bil na vašem naslednjem razgovoru za službo
- Jezikovni supermodel: Kako GPT-3 tiho uvaja A.I. revolucija