Moderering av sociala medier: Vad kan A.I. Catch -- Och var misslyckas det?

click fraud protection
Bästa verktyg för hantering av sociala medier för småföretag
Panithan Fakseemuang/123RF
Kritik för hatretorik, extremism, falska nyheter och annat innehåll som bryter mot gemenskapens standarder har de största sociala medienätverken som stärker policyer, lägger till personal och omarbetar algoritmer. I Social (Net) Work-serien utforskar vi moderering av sociala medier, tittar på vad som fungerar och vad som inte gör det, samtidigt som vi undersöker möjligheter till förbättringar.

Från en video av ett självmordsoffer på YouTube till annonser inriktade på "judhatare", på Facebook, sociala medieplattformar plågas av olämpligt innehåll som lyckas glida mellan stolarna. I många fall är plattformens svar att implementera smartare algoritmer för att bättre identifiera olämpligt innehåll. Men vad är egentligen artificiell intelligens kapabel att fånga, hur mycket ska vi lita på den och var misslyckas den kapitalt?

"A.I. kan ta upp stötande språk och den kan känna igen bilder mycket väl. Kraften i att identifiera bilden finns där, säger Winston Binch, digital chef för

Deutsch, en kreativ byrå som använder A.I. i att skapa digitala kampanjer för varumärken från Target till Taco Bell. "Gråzonen blir avsikten."

A.I. kan läsa både text och bilder, men exaktheten varierar

Med hjälp av naturlig språkbehandling kan A.I. kan tränas att känna igen text på flera språk. Ett program utformat för att upptäcka inlägg som bryter mot gemenskapens riktlinjer, till exempel, kan läras att upptäcka rasistiska förtal eller termer förknippade med extremistisk propaganda.

mobiltrender google assistent ai

A.I. kan också tränas i att känna igen bilder, att förhindra vissa former av nakenhet eller känna igen symboler som hakkorset. Det fungerar bra i många fall, men det är inte idiotsäkert. Till exempel kritiserades Google Photos för att tagga bilder på mörkhyade personer med sökordet "gorilla." År senare har Google fortfarande inte hittat en lösning på problemet, utan väljer att ta bort det de programmets förmåga att tagga apor och gorillor helt.

Algoritmer behöver också uppdateras när ett ords betydelse utvecklas, eller för att förstå hur ett ord används i sitt sammanhang. Till exempel märkte hbt-användare på Twitter nyligen en brist på sökresultat för bland annat #gay och #bisexual, vilket ledde till att vissa tyckte att tjänsten censurerade dem. Twitter bad om ursäkt för felet och skyllde på det en föråldrad algoritm som felaktigt identifierade inlägg taggade med termerna som potentiellt stötande. Twitter sa att dess algoritm var tänkt att överväga termen i inläggets sammanhang, men hade misslyckats med att göra det med dessa sökord.

A.I. är partisk

Gorillataggningen misslyckas tar upp en annan viktig brist - A.I. är partisk. Du kanske undrar hur en dator kan vara partisk, men A.I. tränas genom att se människor utföra uppgifter, eller genom att mata in resultaten av dessa uppgifter. Till exempel tränas ofta program för att identifiera objekt i ett fotografi genom att mata systemet med tusentals bilder som från början märktes för hand.

Det mänskliga elementet är det som gör det möjligt för A.I. att göra uppgifter men ger det samtidigt mänsklig fördom.

Det mänskliga elementet är det som gör det möjligt för A.I. att slutföra uppgifter som tidigare var omöjliga på vanlig programvara, men samma mänskliga element ger också oavsiktligt mänsklig fördom till en dator. En A.I. programmet är bara lika bra som träningsdatan — om systemet till stor del matades med bilder av vita män, till exempel, kommer programmet att ha svårt att identifiera personer med andra hudtoner.

"En brist hos A.I. i allmänhet, när det gäller att moderera allt från kommentarer till användare innehållet, är att det i sig är åsiktsfullt genom design, säger PJ Ahlberg, den verkställande tekniska ansvarig för Stink Studios New York, en byrå som använder A.I. för att skapa bots för sociala medier och moderera varumärkeskampanjer.

När en träningsuppsättning väl har utvecklats delas denna data ofta mellan utvecklare, vilket innebär att fördomen sprider sig till flera program. Ahlberg säger att faktorn betyder att utvecklare inte kan modifiera dessa datamängder i program som använder flera A.I. system, vilket gör det svårt att ta bort eventuella fördomar efter att ha upptäckt dem.

A.I. kan inte fastställa avsikten

A.I. kan upptäcka ett hakkors i ett fotografi — men programvaran kan inte avgöra hur den används. Facebook bad till exempel nyligen om ursäkt efter ta bort ett inlägg som innehöll ett hakkors men åtföljdes av en text vädjan om att stoppa spridningen av hat.

Detta är ett exempel på misslyckandet hos A.I. att känna igen uppsåt. Facebook taggade till och med en bild på statyn av Neptunus som sexuellt explicit. Dessutom kan algoritmer oavsiktligt flagga fotojournalistiskt arbete på grund av hatsymboler eller våld som kan förekomma i bilderna.

Historiska bilder som delas i utbildningssyfte är ett annat exempel - 2016 orsakade Facebook en kontrovers efter det tog bort det historiska "napalm girl"-fotografiet flera gånger innan påtryckningar från användare tvingade företaget att ändra sin hårda hållning om nakenhet och återställa bilden.

A.I. tenderar att fungera som en första screening, men mänskliga moderatorer behövs ofta fortfarande för att avgöra om innehållet faktiskt bryter mot communityns standarder. Trots förbättringar av A.I. är detta inte ett faktum som förändras. Facebook, till exempel, ökar storleken på sitt granskningsteam till 20 000 i år, dubbelt så många som förra året.

A.I. hjälper människor att arbeta snabbare

En mänsklig hjärna kan fortfarande krävas, men A.I. har gjort processen mer effektiv. A.I. kan hjälpa till att avgöra vilka inlägg som kräver en mänsklig granskning, samt hjälpa till att prioritera dessa inlägg. 2017 delade Facebook det A.I. utformad för att upptäcka självmordstendenser hade resulterat i 100 samtal till räddningspersonal på en månad. Just då, Facebook sade att A.I. hjälpte också att avgöra vilka inlägg som ser en mänsklig recensent först.

Facebook bekymrad vän
Getty Images/Blackzheep

Getty Images/Blackzheep

"[A.I. har] kommit långt och det gör definitivt framsteg, men verkligheten är att du fortfarande mycket behöver ett mänskligt element som verifieras att du modifierar rätt ord, rätt innehåll och rätt budskap, säger Chris Mele, vd på Stink Studios. "Där det känns A.I. fungerar bäst är att underlätta mänskliga moderatorer och hjälpa dem att arbeta snabbare och i större skala. Jag tror inte att A.I. är i närheten av att vara 100 procent automatiserad på vilken plattform som helst.”

A.I. är snabb, men etiken är långsam

Teknik, generellt sett, tenderar att växa i en takt snabbare än lagar och etik kan hänga med - och social media-moderering är inget undantag. Binch antyder att den faktorn kan innebära en ökad efterfrågan på anställda med en bakgrund inom humaniora eller etik, något de flesta programmerare inte har.

Som han uttryckte det, "Vi är på en plats nu där tempot, hastigheten, är så hög att vi måste se till att den etiska komponenten inte drar för långt efter."

Redaktörens rekommendationer

  • När upphovsrätten gör det svårt att hitta videosoundtracks kan denna A.I. musiker kan hjälpa till
  • Från 8K till A.I., detta är vad som kan komma till kameror under 2019
  • Datorer kommer snart att överlista oss. Gör det en A.I. uppror oundvikligt?