Moderering av sosiale medier: Hva kan A.I. Fangst -- og hvor feiler det?

click fraud protection
Beste verktøy for administrasjon av sosiale medier for små bedrifter
Panithan Fakseemuang/123RF
Kritikk for hatytringer, ekstremisme, falske nyheter og annet innhold som bryter fellesskapets standarder har de største sosiale medienettverkene som styrker retningslinjer, legger til ansatte og omarbeider algoritmer. I Social (Net) Work-serien utforsker vi moderering av sosiale medier, ser på hva som fungerer og hva som ikke gjør det, mens vi undersøker muligheter for forbedring.

Fra en video av et selvmordsoffer på YouTube til annonser rettet mot «jødehatere» på Facebook, er sosiale medieplattformer plaget av upassende innhold som klarer å skli gjennom sprekken. I mange tilfeller er plattformens svar å implementere smartere algoritmer for bedre å identifisere upassende innhold. Men hva er kunstig intelligens egentlig i stand til å fange, hvor mye skal vi stole på den, og hvor svikter den totalt?

«A.I. kan fange opp støtende språk og den kan gjenkjenne bilder veldig godt. Kraften til å identifisere bildet er der, sier Winston Binch, den digitale sjefen for Deutsch

, et kreativt byrå som bruker A.I. i å lage digitale kampanjer for merkevarer fra Target til Taco Bell. "Gråområdet blir hensikten."

A.I. kan lese både tekst og bilder, men nøyaktigheten varierer

Ved å bruke naturlig språkbehandling, A.I. kan trenes til å gjenkjenne tekst på flere språk. Et program designet for å oppdage innlegg som bryter retningslinjene for fellesskapet, for eksempel, kan læres å oppdage rasebeskjeftigelser eller uttrykk assosiert med ekstremistisk propaganda.

mobiltrender google assistent ai

A.I. kan også trenes til å gjenkjenne bilder, forhindre noen former for nakenhet eller gjenkjenne symboler som hakekorset. Det fungerer bra i mange tilfeller, men det er ikke idiotsikkert. For eksempel ble Google Photos kritisert for å merke bilder av mørkhudede personer med søkeordet "gorilla." År senere har Google fortsatt ikke funnet en løsning på problemet, men valgte i stedet å fjerne de programmets evne til å merke aper og gorillaer fullstendig.

Algoritmer må også oppdateres etter hvert som et ords betydning utvikler seg, eller for å forstå hvordan et ord brukes i kontekst. For eksempel la LGBT Twitter-brukere nylig merke til mangel på søkeresultater for blant annet #gay og #bisexual, noe som førte til at noen følte at tjenesten sensurerte dem. Twitter ba om unnskyldning for feilen og skyldte på den en utdatert algoritme som feilaktig identifiserte innlegg merket med vilkårene som potensielt støtende. Twitter sa at algoritmen deres skulle vurdere begrepet i sammenheng med innlegget, men at de ikke klarte å gjøre det med disse søkeordene.

A.I. er partisk

Feilen med gorillamerking bringer opp en annen viktig mangel - A.I. er partisk. Du lurer kanskje på hvordan en datamaskin kan være partisk, men A.I. trenes ved å se folk fullføre oppgaver, eller ved å legge inn resultatene av disse oppgavene. For eksempel trenes programmer for å identifisere objekter i et fotografi ofte ved å mate systemet med tusenvis av bilder som opprinnelig ble merket for hånd.

Det menneskelige elementet er det som gjør det mulig for A.I. å gjøre oppgaver, men samtidig gir det menneskelig skjevhet.

Det menneskelige elementet er det som gjør det mulig for A.I. å fullføre oppgaver som tidligere var umulige på vanlig programvare, men det samme menneskelige elementet gir også utilsiktet menneskelig skjevhet til en datamaskin. En A.I. programmet er bare så godt som treningsdataene - hvis systemet i stor grad ble matet med bilder av hvite menn, for eksempel, vil programmet ha problemer med å identifisere personer med andre hudtoner.

"En mangel ved A.I. generelt, når det gjelder å moderere alt fra kommentarer til brukere innholdet, er at det er iboende oppfattet av design, sier PJ Ahlberg, teknisk leder. direktør for Stink Studios New York, et byrå som bruker A.I. for å lage sosiale medier-boter og moderere merkevarekampanjer.

Når et treningssett er utviklet, deles disse dataene ofte mellom utviklere, noe som betyr at skjevheten sprer seg til flere programmer. Ahlberg sier at faktoren betyr at utviklere ikke er i stand til å endre disse datasettene i programmer som bruker flere A.I. systemer, noe som gjør det vanskelig å fjerne eventuelle skjevheter etter å ha oppdaget dem.

A.I. kan ikke bestemme hensikten

A.I. kan oppdage et hakekors i et fotografi - men programvaren kan ikke bestemme hvordan den brukes. Facebook, for eksempel, ba nylig om unnskyldning etter fjerner et innlegg som inneholdt et hakekors men ble ledsaget av en tekstanmodning om å stoppe spredningen av hat.

Dette er et eksempel på feilen til A.I. å gjenkjenne hensikt. Facebook merket til og med et bilde av statuen av Neptun som seksuelt eksplisitt. I tillegg kan algoritmer utilsiktet flagge fotojournalistisk arbeid på grunn av hatsymboler eller vold som kan vises i bildene.

Historiske bilder delt for pedagogiske formål er et annet eksempel - i 2016 forårsaket Facebook en kontrovers etter det fjernet det historiske "napalm girl"-bildet flere ganger før press fra brukere tvang selskapet til å endre sin harde holdning til nakenhet og gjeninnføre bildet.

A.I. har en tendens til å tjene som en innledende screening, men menneskelige moderatorer er ofte fortsatt nødvendige for å avgjøre om innholdet faktisk bryter fellesskapsstandarder. Til tross for forbedringer av A.I., er ikke dette et faktum som endrer seg. Facebook, for eksempel, øker størrelsen på vurderingsteamet sitt til 20 000 i år, det dobbelte av fjorårets antall.

A.I. hjelper mennesker til å jobbe raskere

En menneskelig hjerne kan fortsatt være nødvendig, men A.I. har gjort prosessen mer effektiv. A.I. kan hjelpe til med å avgjøre hvilke innlegg som krever en menneskelig vurdering, samt bidra til å prioritere disse innleggene. I 2017 delte Facebook det A.I. designet for å oppdage selvmordstendenser hadde resultert i 100 utrykninger til nødhjelp på én måned. På den tiden, Facebook sa at A.I. var også med på å finne ut hvilke innlegg som ser en menneskelig anmelder først.

Facebook bekymret venn
Getty Images/Blackzheep

Getty Images/Blackzheep

«[A.I. har] kommet langt og det gjør definitivt fremskritt, men realiteten er at du fortsatt trenger et menneskelig element som bekreftes at du endrer de riktige ordene, det riktige innholdet og det riktige budskapet," sa Chris Mele, administrerende direktør i Stink Studios. «Hvor det føles A.I. fungerer best er å legge til rette for menneskelige moderatorer og hjelpe dem med å jobbe raskere og i større skala. Jeg tror ikke A.I. er i nærheten av å være 100 prosent automatisert på en hvilken som helst plattform."

A.I. er rask, men etikken er treg

Teknologi, generelt, har en tendens til å vokse raskere enn lover og etikk kan holde tritt – og moderering av sosiale medier er intet unntak. Binch antyder at denne faktoren kan bety en økt etterspørsel etter ansatte med bakgrunn innen humaniora eller etikk, noe de fleste programmerere ikke har.

Som han sa det, "Vi er på et sted nå hvor tempoet, hastigheten, er så høy at vi må sørge for at den etiske komponenten ikke drar for langt bak."

Redaktørenes anbefalinger

  • Når opphavsrett gjør det vanskelig å finne videolydspor, kan denne A.I. musiker kan hjelpe
  • Fra 8K til A.I., dette er hva som kan komme til kameraer i 2019
  • Datamaskiner vil snart overliste oss. Gjør det en A.I. opprør uunngåelig?