Hvordan løser du et problem som internettet? Det er et spørgsmål, der ærligt talt ikke ville have givet meget mening selv for et kvart århundrede siden. Internettet, med dets evne til at sprede både information og demokratiske værdier til ethvert fjerntliggende hjørne af jorden, var svaret.
Indhold
- En stemme for de stemmeløse
- Fremhæv det positive
- Ingen nemme rettelser
At bede om en kur mod internettet var som at bede om en kur mod kræft. Her i 2020 er billedet lidt mere mudret. Ja, internettet er forbløffende genialt til alle mulige ting. Men det giver også problemer, fra spredning af falske nyheder til, ja, det digitale kloakhul, der er hver eneste YouTube-kommentarsektion nogensinde. For at sige det på en anden måde kan internettet være alle former for giftigt. Hvordan rydder vi op?
Der er ingen enkle svar her. Er algoritmisk eller menneskestyret censur svaret? Skal vi lukke alle kommentarsektioner om kontroversielle emner? Behøver en privatejet platform virkelig at føle sig forpligtet til at give alle en stemme? Hvordan stemmer blokering af udkantsmeninger til offentlighedens bedste overens med internettets drøm om at give en stemme til alle?
Relaterede
- Analog A.I.? Det lyder skørt, men det er måske fremtiden
- Læs det uhyggeligt smukke 'syntetiske skrift' af en A.I. der tror, det er Gud
- Algoritmisk arkitektur: Skal vi lade A.I. designe bygninger for os?
Forskere ved Carnegie Mellon University har skabt et spændende nyt værktøj, som de mener kan hjælpe. Det er en kunstig intelligens-algoritme, som ikke virker ved at blokere negativ tale, men snarere ved at fremhæve eller forstærke "hjælpetale" for at gøre det nemmere at finde. I processen håber de, at det kan hjælpe med den cybertopiske ambition om bedre at gøre internettet til en stemme for at styrke de stemmeløse.
Anbefalede videoer
En stemme for de stemmeløse
A.I. udtænkt af holdet, fra Carnegie Mellon's Sprogteknologisk Institut, gennemsøger YouTube-kommentarer og fremhæver kommentarer, der forsvarer eller sympatiserer med, i dette tilfælde, fravalgte minoriteter såsom rohingya-samfundet. Det muslimske rohingya-folk har siden oktober 2016 været udsat for en række stort set igangværende forfølgelser fra Myanmars regering. Folkedrabskrisen har tvunget mere end en million rohingyaer til at flygte til nabolandene. Det er en desperat situation, der involverer religiøs forfølgelse og etnisk udrensning - men du ville ikke nødvendigvis vide det fra mange af de kommentarer, der er dukket op på lokale sociale medier; overvældende antallet af kommentarer på den anden side af sagen.
"Vi udviklede en ramme for at forsvare sagen for et frataget minoritet - i dette tilfælde rohingyaerne - for automatisk at opdage webindhold, der understøtter dem," Ashique Khudabukhsh, en projektforsker i Computer Science Department hos Carnegie Mellon, fortalte Digital Trends. "Vi fokuserede på YouTube, en social medieplatform uhyre populær i Sydasien. Vores analyser afslørede, at et stort antal kommentarer om rohingyaerne var nedsættende for dem. Vi udviklede en automatiseret metode til at opdage kommentarer, der forsvarer deres sag, som ellers ville blive overdøvet af et stort antal barske, negative kommentarer."
”Set fra et generelt rammeperspektiv adskiller vores arbejde sig fra traditionelt hadspeech-detektionsarbejde, hvor hovedfokus er på at blokere det negative indhold, [selvom dette er] et aktivt og meget vigtigt forskningsområde," Khudabukhsh fortsatte. "I modsætning hertil markerer vores arbejde med at opdage støttende kommentarer - det vi kalder hjælpetale - en ny retning for at forbedre onlineoplevelsen ved at forstærke det positive."
At træne deres A.I. filtreringssystem, samlede forskerne mere end en kvart million YouTube-kommentarer. Ved at bruge banebrydende sproglig modelleringsteknologi skabte de en algoritme, der kan gennemsøge disse kommentarer for hurtigt at fremhæve kommentarer, der er på side af rohingya-samfundet. Automatiseret semantisk analyse af brugerkommentarer er, som du måske forventer, ikke let. Alene på det indiske subkontinent er der 22 store sprog. Der er også ofte stavefejl og ikke-standard stavevariationer at forholde sig til, når det kommer til at vurdere sprog.
Fremhæv det positive
Ikke desto mindre har A.I. udviklet af teamet var i stand til i høj grad at øge synligheden af positive kommentarer. Endnu vigtigere, det var i stand til at gøre dette langt hurtigere, end det ville være muligt for en menneskelig moderator, som ville være ude af stand til manuelt at gennemgå store mængder kommentarer i realtid og pin især kommentarer. Dette kan være særligt vigtigt i scenarier, hvor den ene side kan have begrænsede færdigheder i et dominerende sprog, begrænset adgang til internettet eller højere prioriterede emner (læs: undgå forfølgelse), som kan have forrang frem for at deltage i online samtaler.
"Hvad hvis du ikke er der i en global diskussion om dig og ikke kan forsvare dig selv?"
"Vi har alle oplevet at være den ene ven, der stod op for en anden ven i deres fravær," fortsatte Khudabukhsh. "Overvej nu dette på globalt plan. Hvad hvis du ikke er der i en global diskussion om dig og ikke kan forsvare dig selv? Hvordan kan A.I. hjælpe i denne situation? Vi kalder dette et problem i det 21. århundrede: migrantkriser i en æra med allestedsnærværende internet, hvor flygtninges stemmer er få og langt imellem. Fremadrettet føler vi, at geopolitiske spørgsmål, klima- og ressourcedrevne årsager kan udløse nye migrantkriser, og vores arbejde med at forsvare udsatte samfund i onlineverdenen er yderst vigtigt."
Men er det nok at fremhæve visse minoritetsstemmer, eller er dette blot en algoritmisk version af konceptet med at lancere et nyhedsmedie, der kun fortæller gode nyheder? Måske på nogle måder, men det går også langt ud over blot at fremhæve symbolske kommentarer uden at tilbyde måder at løse bredere problemer på. Med det i tankerne har forskerne allerede udvidet projektet til at se på måder, hvorpå A.I. kan bruges til at forstærke positivt indhold i andre anderledes, men ikke desto mindre høje sociale påvirkninger scenarier. Et eksempel er onlinediskussioner under øget politisk spænding mellem nukleare modstandere. Dette arbejde, som holdet vil præsentere på den europæiske konference om kunstig intelligens (ECAI 2020) i juni, kan bruges til at hjælpe med at opdage og præsentere fjendtlighedsspredende indhold. Lignende teknologi kan skabes til et væld af andre scenarier - med passende skræddersyet til hver.
Dette er acceptsatserne for #ECAI2020 bidrag:
– Hele papirer: 26,8 %
– Fremhæv papirer: 45 %Mange tak for den indsats, du har lagt i anmeldelsesprocessen!
— ECAI2020 (@ECAI2020) 15. januar 2020
"Den grundlæggende forudsætning for, hvordan et samfund kan blive hjulpet, afhænger af det pågældende samfund," sagde Khudabukhsh. »Selv forskellige flygtningekriser ville kræve forskellige forestillinger om at hjælpe. For eksempel kan kriser, hvor udbrud af smitsom sygdom er et stort problem, at yde lægehjælp være til stor hjælp. For nogle økonomisk dårligt stillede grupper kan det være en motiverende faktor at fremhæve succeshistorier fra mennesker i samfundet. Derfor ville hvert fællesskab kræve forskellige nuancerede hjælpetaleklassificeringer for automatisk at finde positivt indhold. Vores arbejde giver en plan for det."
Ingen nemme rettelser
Så fascinerende som dette arbejde er, er der ingen nemme løsninger, når det kommer til at løse problemet med online tale. En del af udfordringen er, at internettet, som det eksisterer i øjeblikket, belønner høje stemmer. Googles PageRank-algoritme rangerer for eksempel websider efter deres opfattede betydning ved at tælle antallet og kvaliteten af links til en side. Trendende emner på Twitter er dikteret af, hvad det største antal mennesker tweeter om. Kommentarsektioner fremhæver ofte de meninger, som fremkalder de stærkeste reaktioner.
Det ufatteligt store antal stemmer på internettet kan overdøve uenige stemmer; ofte marginaliserende stemmer, der i hvert fald i teorien har samme platform som alle andre.
At ændre det vil kræve meget mere end én cool YouTube-kommentar-skurealgoritme. Det er dog ikke en dårlig start.
Redaktørens anbefalinger
- Prikken over i'et: Hvordan videnskabsmænd giver robotter menneskelignende taktile sanser
- Den sjove formel: Hvorfor maskingenereret humor er den hellige gral for A.I.
- A.I. plejer ikke at glemme noget, men det gør Facebooks nye system. Her er hvorfor
- Følelsesfølende A.I. er her, og det kan blive til din næste jobsamtale
- Sprogsupermodel: Hvordan GPT-3 stille og roligt indvarsler A.I. revolution