Social Media Moderation: Hvad kan A.I. Catch -- og hvor fejler det?

Bedste værktøjer til administration af sociale medier til små virksomheder
Panithan Fakseemuang/123RF
Kritik for hadefulde ytringer, ekstremisme, falske nyheder og andet indhold, der overtræder fællesskabets standarder har de største sociale medienetværk, der styrker politikker, tilføjer personale og omarbejder algoritmer. I Social (Net) Work Series udforsker vi moderation på sociale medier, ser på, hvad der virker og hvad der ikke gør, mens vi undersøger muligheder for forbedring.

Fra en video af et selvmordsoffer på YouTube til annoncer målrettet mod "jødehadere", på Facebook, er sociale medieplatforme plaget af upassende indhold, der formår at slippe igennem. I mange tilfælde er platformens svar at implementere smartere algoritmer for bedre at identificere upassende indhold. Men hvad er kunstig intelligens egentlig i stand til at fange, hvor meget skal vi stole på den, og hvor fejler den dybt?

"A.I. kan opfange stødende sprog, og det kan genkende billeder meget godt. Kraften til at identificere billedet er der,” siger Winston Binch, Chief Digital Officer for Deutsch

, et kreativt bureau, der bruger A.I. i at skabe digitale kampagner for brands fra Target til Taco Bell. "Gråzonen bliver hensigten."

A.I. kan læse både tekst og billeder, men nøjagtigheden varierer

Ved hjælp af naturlig sprogbehandling kan A.I. kan trænes til at genkende tekst på tværs af flere sprog. Et program, der er designet til at spotte indlæg, der overtræder fællesskabets retningslinjer, kan for eksempel læres at afsløre racemæssige bagtalelser eller udtryk forbundet med ekstremistisk propaganda.

mobiltrends google assistent ai

A.I. kan også trænes til at genkende billeder, forhindre nogle former for nøgenhed eller genkende symboler som hagekorset. Det fungerer godt i mange tilfælde, men det er ikke idiotsikkert. For eksempel blev Google Fotos kritiseret for at tagge billeder af mørkhudede personer med søgeordet "gorilla." År senere har Google stadig ikke fundet en løsning på problemet, men valgte i stedet at fjerne det programmets evne til at mærke aber og gorillaer helt.

Algoritmer skal også opdateres, efterhånden som et ords betydning udvikler sig, eller for at forstå, hvordan et ord bruges i kontekst. For eksempel bemærkede LGBT Twitter-brugere for nylig en mangel på søgeresultater for blandt andet #gay og #bisexual, hvilket førte til, at nogle følte, at tjenesten censurerede dem. Twitter undskyldte fejlen og skyldte den på en forældet algoritme der var fejlagtigt at identificere indlæg tagget med vilkårene som potentielt stødende. Twitter sagde, at dets algoritme skulle overveje udtrykket i forbindelse med indlægget, men havde undladt at gøre det med disse søgeord.

A.I. er forudindtaget

Fejlen ved gorillamærkningen bringer endnu en vigtig mangel frem - A.I. er forudindtaget. Du undrer dig måske over, hvordan en computer muligvis kan være forudindtaget, men A.I. trænes ved at se folk udføre opgaver eller ved at indtaste resultaterne af disse opgaver. For eksempel trænes programmer til at identificere objekter på et fotografi ofte ved at tilføre systemet tusindvis af billeder, der oprindeligt blev mærket i hånden.

Det menneskelige element er det, der gør det muligt for A.I. at lave opgaver, men giver det samtidig menneskelig bias.

Det menneskelige element er det, der gør det muligt for A.I. at udføre opgaver, der tidligere var umulige på typisk software, men det samme menneskelige element giver også utilsigtet menneskelig bias til en computer. En A.I. programmet er kun så godt som træningsdataene - hvis systemet i vid udstrækning blev fodret med billeder af hvide mænd, for eksempel, vil programmet have svært ved at identificere personer med andre hudfarver.

"En mangel ved A.I. generelt, når det kommer til at moderere alt fra kommentarer til brugere indhold, er, at det iboende er meningsfuldt af design, siger PJ Ahlberg, den executive tekniske direktør for Stink Studios New York, et bureau, der bruger A.I. til oprettelse af sociale medier-bots og moderering af brandkampagner.

Når først et træningssæt er udviklet, deles disse data ofte mellem udviklere, hvilket betyder, at skævheden spredes til flere programmer. Ahlberg siger, at denne faktor betyder, at udviklere ikke er i stand til at ændre disse datasæt i programmer ved hjælp af flere A.I. systemer, hvilket gør det vanskeligt at fjerne eventuelle skævheder efter at have opdaget dem.

A.I. kan ikke bestemme hensigten

A.I. kan registrere et hagekors i et fotografi - men softwaren kan ikke bestemme, hvordan det bruges. Facebook har for eksempel for nylig undskyldt efter fjernelse af et indlæg, der indeholdt et hagekors men blev ledsaget af en tekstanmodning om at stoppe spredningen af ​​had.

Dette er et eksempel på fejlen i A.I. at genkende hensigten. Facebook taggede endda et billede af statuen af ​​Neptun som seksuelt eksplicit. Derudover kan algoritmer utilsigtet markere fotojournalistisk arbejde på grund af hadsymboler eller vold, der kan forekomme på billederne.

Historiske billeder delt til uddannelsesformål er et andet eksempel - i 2016 forårsagede Facebook en kontrovers efter det fjernede det historiske "napalm-pige"-fotografi flere gange, før pres fra brugere tvang virksomheden til at ændre sin hårde holdning til nøgenhed og genindsætte billedet.

A.I. har en tendens til at fungere som en indledende screening, men der er ofte stadig brug for menneskelige moderatorer for at afgøre, om indholdet rent faktisk overtræder fællesskabsstandarder. På trods af forbedringer til A.I., er dette ikke et faktum, der ændrer sig. Facebook, for eksempel, øger størrelsen af ​​sit anmeldelsesteam til 20.000 i år, det dobbelte af sidste års antal.

A.I. hjælper mennesker med at arbejde hurtigere

En menneskelig hjerne kan stadig være påkrævet, men A.I. har gjort processen mere effektiv. A.I. kan hjælpe med at bestemme, hvilke indlæg der kræver en menneskelig gennemgang, samt hjælpe med at prioritere disse indlæg. I 2017 delte Facebook det A.I. designet til at spotte selvmordstendenser havde resulteret i 100 opkald til beredskabspersonale på en måned. På det tidspunkt, Facebook sagde, at A.I. var også med til at bestemme, hvilke indlæg der ser en menneskelig anmelder først.

Facebook bekymret ven
Getty Images/Blackzheep

Getty Images/Blackzheep

"[A.I. er nået langt, og det gør helt klart fremskridt, men virkeligheden er, at du stadig har meget brug for et menneskeligt element, der skal verificeres at du ændrer de rigtige ord, det rigtige indhold og det rigtige budskab,” sagde Chris Mele, administrerende direktør hos Stink Studier. “Hvor det føles A.I. fungerer bedst, er at lette menneskelige moderatorer og hjælpe dem med at arbejde hurtigere og i større skala. Jeg tror ikke, at A.I. er i nærheden af ​​at være 100 procent automatiseret på enhver platform."

A.I. er hurtig, men etikken er langsom

Teknologi har generelt en tendens til at vokse hurtigere end love og etik kan følge med - og moderation på sociale medier er ingen undtagelse. Binch antyder, at den faktor kan betyde en øget efterspørgsel efter medarbejdere med en baggrund inden for humaniora eller etik, noget de fleste programmører ikke har.

Som han udtrykte det: "Vi er et sted nu, hvor tempoet, hastigheden, er så høj, at vi skal sikre os, at den etiske komponent ikke trækker for langt bagud."

Redaktørens anbefalinger

  • Når ophavsret gør det svært at finde videosoundtracks, kan denne A.I. musiker kan hjælpe
  • Fra 8K til A.I., dette er hvad der kan komme til kameraer i 2019
  • Computere vil snart overliste os. Gør det en A.I. oprør uundgåeligt?