Denna A.I. Kan skaka om hur vi läser kommentarer online

Hur löser du ett problem som internet? Det är en fråga som ärligt talat inte skulle ha varit meningsfull för ett kvarts sekel sedan. Internet, med sin förmåga att sprida både information och demokratiska värderingar till alla avlägsna hörn av jorden, var svaret.

Innehåll

  • En röst för de röstlösa
  • Accentuera det positiva
  • Inga enkla fixar

Att be om ett botemedel för internet var som att be om ett botemedel mot cancer. Här 2020 är bilden lite mer grumlig. Ja, internet är häpnadsväckande briljant för alla möjliga saker. Men det ställer också till problem, från spridning av falska nyheter till, ja, den digitala avloppsbrunnen som är varje YouTube-kommentarsektion någonsin. För att uttrycka det på ett annat sätt, internet kan vara alla typer av giftigt. Hur städar vi upp det?

Getty

Det finns inga enkla svar här. Är algoritmisk eller människodriven censur svaret? Ska vi stänga alla kommentarsfält om kontroversiella ämnen? Behöver en privatägd plattform verkligen känna sig skyldig att ge alla en röst? Hur stämmer blockering av fransåsikter för allmänhetens bästa med internets dröm om att ge alla en röst?

Relaterad

  • Analog A.I.? Det låter galet, men det kanske är framtiden
  • Läs den kusligt vackra "syntetiska skriften" av en A.I. som tror att det är Gud
  • Algoritmisk arkitektur: Ska vi låta A.I. designa byggnader åt oss?

Forskare vid Carnegie Mellon University har skapat ett spännande nytt verktyg som de tror kan hjälpa. Det är en artificiell intelligensalgoritm som inte fungerar genom att blockera negativt tal, utan snarare genom att markera eller förstärka "hjälptal" för att göra det lättare att hitta. I processen hoppas de att det kan hjälpa till med den cybertopiska ambitionen att bättre göra internet till en röst för att stärka de röstlösa.

Rekommenderade videor

En röst för de röstlösa

Rohingyas flyktingläger
Rohingyas flyktingläger

A.I. utarbetad av teamet, från Carnegie Mellon's Språkteknologiinstitutet, sållar bland YouTube-kommentarer och lyfter fram kommentarer som försvarar eller sympatiserar med, i det här fallet, röstbefriade minoriteter som rohingya-gemenskapen. Det muslimska rohingyafolket har sedan oktober 2016 varit föremål för en rad i stort sett pågående förföljelser av Myanmars regering. Folkmordskrisen har tvingat mer än en miljon rohingyas att fly till grannländerna. Det är en desperat situation som involverar religiös förföljelse och etnisk rensning - men du skulle inte nödvändigtvis veta det från många av kommentarerna som har dykt upp på lokala sociala medier; överväldigande antalet kommentarer på den andra sidan av frågan.

"Vi utvecklade ett ramverk för att kämpa för orsaken till en röstlös minoritet - i det här fallet rohingyas - för att automatiskt upptäcka webbinnehåll som stöder dem." Ashique Khudabukhsh, en projektforskare vid datavetenskapsavdelningen vid Carnegie Mellon, berättade för Digital Trends. "Vi fokuserade på YouTube, en social medieplattform som är oerhört populär i södra Asien. Våra analyser visade att ett stort antal kommentarer om rohingyas var nedsättande för dem. Vi utvecklade en automatiserad metod för att upptäcka kommentarer som kämpar för deras sak som annars skulle drunkna i ett stort antal hårda, negativa kommentarer."

”Ur ett generellt ramperspektiv skiljer sig vårt arbete från traditionellt arbete med att upptäcka hattal där huvudfokus är är på att blockera det negativa innehållet, [även om detta är] ett aktivt och mycket viktigt forskningsområde,” Khudabukhsh fortsatt. "Däremot markerar vårt arbete med att upptäcka stödjande kommentarer - vad vi kallar hjälptal - en ny riktning för att förbättra onlineupplevelsen genom att förstärka det positiva."

Att träna sin A.I. filtreringssystem samlade forskarna in mer än en kvarts miljon YouTube-kommentarer. Med hjälp av banbrytande språkmodelleringsteknik skapade de en algoritm som kan söka igenom dessa kommentarer för att snabbt lyfta fram kommentarer som ligger på Rohingya-gemenskapen. Automatisk semantisk analys av användarkommentarer är, som du kan förvänta dig, inte lätt. Bara på den indiska subkontinenten finns det 22 stora språk. Det finns också ofta stavfel och icke-standardiserade stavningsvariationer att ta itu med när det gäller att bedöma språk.

Accentuera det positiva

Icke desto mindre har A.I. utvecklat av teamet kunde avsevärt öka synligheten för positiva kommentarer. Ännu viktigare, det kunde göra detta mycket snabbare än vad som skulle vara möjligt för en mänsklig moderator, som inte skulle kunna manuellt gå igenom stora mängder kommentarer i realtid och fästa särskilt kommentarer. Detta kan vara särskilt viktigt i scenarier där en sida kan ha begränsade kunskaper i ett dominerande språk, begränsad tillgång till internet, eller högre prioriterade frågor (läs: undvika förföljelse) som kan ha företräde framför att delta i online samtal.

"Tänk om du inte är där i en global diskussion om dig och inte kan försvara dig själv?"

"Vi har alla upplevt att vara den där vännen som stod upp för en annan vän i deras frånvaro," fortsatte Khudabukhsh. "Tänk nu på det här i global skala. Tänk om du inte är där i en global diskussion om dig och inte kan försvara dig själv? Hur kan A.I. hjälp i denna situation? Vi kallar detta ett 2000-talsproblem: migrantkriser i en tid präglad av allestädes närvarande internet där flyktingröster är få och långt emellan. Framöver känner vi att geopolitiska frågor, klimat- och resursdrivna skäl kan utlösa nya migrantkriser och vårt arbete för att försvara risksamhällen i onlinevärlden är mycket viktigt.”

Men räcker det att bara lyfta fram vissa minoritetsröster, eller är detta bara en algoritmisk version av konceptet med att lansera ett nyhetsutbud som bara berättar goda nyheter? Kanske på något sätt, men det går också långt utöver att bara lyfta fram symboliska kommentarer utan att erbjuda sätt att ta itu med bredare problem. Med det i åtanke har forskarna redan utökat projektet för att titta på hur A.I. kan användas för att förstärka positivt innehåll i annat annorlunda, men ändå hög social påverkan scenarier. Ett exempel är diskussioner på nätet under ökad politisk spänning mellan kärnvapenmotståndare. Detta arbete, som teamet kommer att presentera vid den europeiska konferensen om artificiell intelligens (ECAI 2020) i juni, kan användas för att upptäcka och presentera innehåll som sprider fientlighet. Liknande teknik skulle kunna skapas för en mängd andra scenarier – med lämplig anpassning för varje.

Dessa är acceptansgraderna för #ECAI2020 bidrag:
– Hela papper: 26,8 %
– Markeringspapper: 45 %

Tack så mycket för den ansträngning du lagt ner på granskningen!

— ECAI2020 (@ECAI2020) 15 januari 2020

"Den grundläggande premissen för hur ett samhälle kan bli hjälpt beror på samhället i fråga", sade Khudabukhsh. ”Även olika flyktingkriser skulle kräva olika föreställningar om att hjälpa. Till exempel, kriser där utbrott av smittsamma sjukdomar är ett stort problem, kan tillhandahållande av medicinsk hjälp vara till enorm hjälp. För vissa ekonomiskt missgynnade grupper kan det vara en motiverande faktor att lyfta fram framgångshistorier för människor i samhället. Därför skulle varje gemenskap kräva olika nyanserade hjälptalklassificerare för att automatiskt hitta positivt innehåll. Vårt arbete ger en plan för det.”

Inga enkla fixar

Hur fascinerande detta arbete än är, det finns inga enkla lösningar när det gäller att lösa problemet med tal online. En del av utmaningen är att internet som det finns idag belönar höga röster. Googles PageRank-algoritm rangordnar till exempel webbsidor efter deras upplevda betydelse genom att räkna antalet och kvaliteten på länkar till en sida. Populära ämnen på Twitter dikteras av vad det största antalet människor twittrar om. Kommentarsavsnitt lyfter ofta fram de åsikter som framkallar de starkaste reaktionerna.

Det ofattbart stora antalet röster på internet kan dränka avvikande röster; ofta marginaliserande röster som, åtminstone i teorin, har samma plattform som alla andra.

För att ändra det kommer det att krävas mycket mer än en cool YouTube-kommentar-skurningsalgoritm. Det är dock ingen dålig start.

Redaktörens rekommendationer

  • Finishing touch: Hur forskare ger robotar mänskliga taktila sinnen
  • Den roliga formeln: Varför maskingenererad humor är A.I.s heliga gral.
  • A.I. brukar inte glömma någonting, men det gör Facebooks nya system. Här är varför
  • Känslokännande A.I. är här, och det kan vara i din nästa anställningsintervju
  • Språksupermodell: Hur GPT-3 tyst inleder A.I. rotation