Denne A.I. Kan riste opp måten vi leser kommentarer på nettet

Hvordan løser du et problem som internett? Det er et spørsmål som, ærlig talt, ville ha gitt liten mening selv for et kvart århundre siden. Internett, med sin evne til å spre både informasjon og demokratiske verdier til alle fjerntliggende hjørner av jorden, var svaret.

Innhold

  • En stemme for de stemmeløse
  • Fremhev det positive
  • Ingen enkle løsninger

Å be om en kur for internett var som å be om en kur mot kreft. Her i 2020 er bildet litt mer grumsete. Ja, internett er forbløffende strålende for alle slags ting. Men det byr også på problemer, fra spredning av falske nyheter til, vel, den digitale avløpsbrønnen som er hver eneste kommentarseksjon på YouTube noensinne. For å si det på en annen måte, internett kan være alle slags giftig. Hvordan rydder vi det opp?

Getty

Det er ingen enkle svar her. Er algoritmisk eller menneskedrevet sensur svaret? Bør vi stenge alle kommentarseksjoner om kontroversielle emner? Trenger virkelig en privateid plattform å føle seg forpliktet til å gi alle en stemme? Hvordan stemmer blokkering av ytre meninger til allmennhetens beste med internetts drøm om å gi en stemme til alle?

I slekt

  • Analog A.I.? Det høres sprøtt ut, men det kan være fremtiden
  • Les den uhyggelig vakre 'syntetiske skriften' til en A.I. som tror det er Gud
  • Algoritmisk arkitektur: Bør vi la A.I. designe bygninger for oss?

Forskere ved Carnegie Mellon University har laget et spennende nytt verktøy de tror kan hjelpe. Det er en kunstig intelligens-algoritme som ikke fungerer ved å blokkere negativ tale, men heller ved å fremheve eller forsterke "hjelpetale" for å gjøre det lettere å finne. I prosessen håper de det kan hjelpe med den cybertopiske ambisjonen om å gjøre internett bedre til en stemme for å styrke de stemmeløse.

Anbefalte videoer

En stemme for de stemmeløse

Rohingya flyktningleir
Rohingya flyktningleir

A.I. laget av teamet fra Carnegie Mellon's Språkteknologiinstituttet, siler gjennom YouTube-kommentarer og fremhever kommentarer som forsvarer eller sympatiserer med, i dette tilfellet, rettighetsløse minoriteter som rohingya-samfunnet. Det muslimske rohingya-folket har vært utsatt for en serie med stort sett pågående forfølgelser fra Myanmar-regjeringen siden oktober 2016. Folkemordskrisen har tvunget mer enn en million rohingyaer til å flykte til nabolandene. Det er en desperat situasjon som involverer religiøs forfølgelse og etnisk rensing - men du vil ikke nødvendigvis vite det fra mange av kommentarene som har dukket opp på lokale sosiale medier; overveldende antall kommentarer på den andre siden av saken.

"Vi utviklet et rammeverk for å forkjempe årsaken til en rettighetsløs minoritet - i dette tilfellet rohingyaene - for automatisk å oppdage nettinnhold som støtter dem," Ashique Khudabukhsh, en prosjektforsker ved informatikkavdelingen ved Carnegie Mellon, fortalte Digital Trends. "Vi fokuserte på YouTube, en sosial medieplattform som er enormt populær i Sør-Asia. Våre analyser avslørte at et stort antall kommentarer om rohingyaene var nedsettende for dem. Vi utviklet en automatisert metode for å oppdage kommentarer som forkjemper deres sak, som ellers ville blitt overdøvet av et stort antall harde, negative kommentarer."

«Fra et generelt rammeperspektiv skiller vårt arbeid seg fra tradisjonelt avsløringsarbeid for hatytringer hvor hovedfokuset er er på å blokkere det negative innholdet, [selv om dette er] et aktivt og svært viktig forskningsområde,» Khudabukhsh fortsatte. "Derimot markerer arbeidet vårt med å oppdage støttende kommentarer - det vi kaller hjelpetale - en ny retning for å forbedre nettopplevelsen gjennom å forsterke det positive."

Å trene sin A.I. filtreringssystem, samlet forskerne mer enn en kvart million YouTube-kommentarer. Ved å bruke banebrytende språklig modelleringsteknologi, skapte de en algoritme som kan gjennomsøke disse kommentarene for raskt å fremheve kommentarer på hvilken side av rohingya-samfunnet. Automatisk semantisk analyse av brukerkommentarer er, som du kanskje forventer, ikke lett. Bare på det indiske subkontinentet er det 22 hovedspråk. Det er også ofte stavefeil og ikke-standard stavevariasjoner å forholde seg til når det gjelder å vurdere språk.

Fremhev det positive

Ikke desto mindre har A.I. utviklet av teamet var i stand til å øke synligheten av positive kommentarer betraktelig. Enda viktigere, det var i stand til å gjøre dette mye raskere enn det ville vært mulig for en menneskelig moderator, som ikke ville være i stand til å manuelt gjennom store mengder kommentarer i sanntid og pin spesielt kommentarer. Dette kan være spesielt viktig i scenarier der en side kan ha begrensede ferdigheter i et dominerende språk, begrenset tilgang til internett, eller høyere prioriterte saker (les: unngå forfølgelse) som kan ha forrang fremfor å delta på nett samtaler.

"Hva om du ikke er der i en global diskusjon om deg og ikke kan forsvare deg selv?"

"Vi har alle opplevd å være den ene vennen som sto opp for en annen venn i deres fravær," fortsatte Khudabukhsh. "Vurder nå dette på global skala. Hva om du ikke er der i en global diskusjon om deg, og ikke kan forsvare deg selv? Hvordan kan A.I. hjelpe i denne situasjonen? Vi kaller dette et problem i det 21. århundre: migrantkriser i en tid med allestedsnærværende internett der flyktningstemmer er få og langt mellom. Fremover føler vi at geopolitiske spørsmål, klima- og ressursdrevne årsaker kan utløse nye migrantkriser, og vårt arbeid med å forsvare utsatte miljøer i den elektroniske verden er svært viktig.»

Men er det nok med å fremheve visse minoritetsstemmer, eller er dette bare en algoritmisk versjon av konseptet med å lansere et nyhetsutsalg som bare forteller gode nyheter? Kanskje på noen måter, men det går også langt utover bare å fremheve symbolske kommentarer uten å tilby måter å løse bredere problemer. Med det i tankene har forskerne allerede utvidet prosjektet til å se på måter A.I. kan brukes til å forsterke positivt innhold i andre forskjellige, men ikke desto mindre høye sosiale effekter scenarier. Et eksempel er nettdiskusjoner under økt politisk spenning mellom kjernefysiske motstandere. Dette arbeidet, som teamet vil presentere på European Conference on Artificial Intelligence (ECAI 2020) i juni, kan brukes til å oppdage og presentere fiendtlighetsspredende innhold. Lignende teknologi kan lages for et vell av andre scenarier - med passende skreddersøm for hver.

Dette er akseptratene for #ECAI2020 bidragene:
– Hele papirer: 26,8 %
– Høydepunkter: 45 %

Tusen takk for innsatsen du legger ned i vurderingsprosessen!

— ECAI2020 (@ECAI2020) 15. januar 2020

"Det grunnleggende premisset for hvordan et fellesskap kan bli hjulpet avhenger av det aktuelle samfunnet," sa Khudabukhsh. «Selv forskjellige flyktningkriser ville kreve forskjellige forestillinger om å hjelpe. For eksempel, kriser der utbrudd av smittsom sykdom er et stort problem, kan det å gi medisinsk hjelp være til enorm hjelp. For noen økonomisk vanskeligstilte grupper kan det å fremheve suksesshistorier til mennesker i samfunnet være en motiverende faktor. Derfor vil hvert fellesskap kreve forskjellige nyanserte hjelpetaleklassifiserere for å finne positivt innhold automatisk. Vårt arbeid gir en blåkopi for det."

Ingen enkle løsninger

Så fascinerende som dette arbeidet er, er det ingen enkle løsninger når det gjelder å løse problemet med netttale. En del av utfordringen er at internett slik det eksisterer i dag belønner høye stemmer. Googles PageRank-algoritme rangerer for eksempel nettsider etter deres oppfattede betydning ved å telle antall og kvalitet på lenker til en side. Trendende emner på Twitter er diktert av hva det største antallet mennesker tvitrer om. Kommentarseksjoner fremhever ofte de meningene som vekker de sterkeste reaksjonene.

Det ufattelig store antallet stemmer på internett kan overdøve avvikende stemmer; ofte marginaliserende stemmer som, i hvert fall i teorien, har samme plattform som alle andre.

Å endre det kommer til å kreve mye mer enn en kul YouTube-kommentar-skuringsalgoritme. Det er imidlertid ingen dårlig start.

Redaktørenes anbefalinger

  • Finishing touch: Hvordan forskere gir roboter menneskelignende taktile sanser
  • Den morsomme formelen: Hvorfor maskingenerert humor er den hellige gral til A.I.
  • A.I. glemmer vanligvis ikke noe, men Facebooks nye system gjør det. Her er hvorfor
  • Følelsesfølende A.I. er her, og det kan være i ditt neste jobbintervju
  • Språksupermodell: Hvordan GPT-3 stille innleder A.I. revolusjon