Moderiranje društvenih medija: Što može A.I. Catch -- A gdje ne uspijeva?

Najbolji alati za upravljanje društvenim medijima za mala poduzeća
Panithan Fakseemuang/123RF
Kritika govora mržnje, ekstremizma, lažnih vijesti i drugog sadržaja koji krši standarde zajednice ima najveće mreže društvenih medija za jačanje politika, dodavanje osoblja i preradu algoritmi. U seriji Social (Net) Work, istražujemo moderiranje društvenih medija, gledajući što funkcionira, a što ne, dok ispitujemo mogućnosti za poboljšanje.

Od video žrtve samoubojice na YouTubeu za oglasi koji ciljaju "mrzitelje Židova", na Facebook, platforme društvenih medija muče neprikladni sadržaji koji se uspijevaju provući kroz pukotine. U mnogim slučajevima, odgovor platforme je implementacija pametnijih algoritama za bolju identifikaciju neprikladnog sadržaja. Ali što je umjetna inteligencija doista sposobna uhvatiti, koliko joj trebamo vjerovati i gdje nevjerojatno podbacuje?

“A.I. može uhvatiti uvredljiv jezik i vrlo dobro prepoznati slike. Moć identifikacije slike postoji,” kaže Winston Binch, glavni digitalni službenik Deutsch, kreativna agencija koja koristi A.I. u kreiranju digitalnih kampanja za brendove od Targeta do Taco Bella. "Siva zona postaje namjera."

A.I. može čitati i tekst i slike, ali točnost varira

Koristeći obradu prirodnog jezika, A.I. može se osposobiti za prepoznavanje teksta na više jezika. Program dizajniran za uočavanje objava koje krše smjernice zajednice, na primjer, može se naučiti da otkriva rasne uvrede ili izraze povezane s ekstremističkom propagandom.

mobilni trendovi google asistent ai

A.I. također se može uvježbati za prepoznavanje slika, za sprječavanje nekih oblika golotinje ili za prepoznavanje simbola poput svastike. Djeluje dobro u mnogim slučajevima, ali nije siguran. Na primjer, Google Photos je kritiziran zbog označavanja slika tamnoputih ljudi ključnom riječi "gorila." Godinama kasnije, Google još uvijek nije pronašao rješenje za problem, već je odlučio ukloniti ga the mogućnost programa za označavanje majmuna i gorila u cijelosti.

Algoritme također treba ažurirati kako se značenje riječi razvija ili kako bi razumjeli kako se riječ koristi u kontekstu. Na primjer, LGBT korisnici Twittera nedavno su primijetili nedostatak rezultata pretraživanja za #gay i #bisexual, između ostalih pojmova, zbog čega su neki smatrali da ih usluga cenzurira. Twitter se ispričao zbog pogreške, svaljujući je na sebe zastarjeli algoritam koji je lažno identificirao objave označene pojmovima kao potencijalno uvredljive. Twitter je rekao da je njegov algoritam trebao uzeti u obzir izraz u kontekstu objave, ali to nije učinio s tim ključnim riječima.

A.I. je pristran

Neuspješno označavanje gorile donosi još jedan važan nedostatak — A.I. je pristran. Možda se pitate kako računalo uopće može biti pristrano, ali A.I. obučava se promatranjem ljudi kako ispunjavaju zadatke ili unosom rezultata tih zadataka. Na primjer, programi za identifikaciju objekata na fotografiji često se obučavaju ubacivanjem u sustav tisuća slika koje su inicijalno ručno označene.

Ljudski element je ono što omogućuje A.I. obavljati zadatke, ali u isto vrijeme daje ljudsku pristranost.

Ljudski element je ono što omogućuje A.I. izvršiti zadatke koji su prethodno bili nemogući na tipičnom softveru, ali taj isti ljudski element također nenamjerno daje ljudsku pristranost računalu. A.I. program je dobar samo onoliko koliko su dobri podaci o obuci — ako je sustav uglavnom primao slike bijelih muškaraca, na primjer, program će imati poteškoća u identificiranju ljudi s drugim tonovima kože.

“Jedan nedostatak A.I.-a, općenito, kada se radi o moderiranju bilo čega, od komentara do korisnika sadržaja, jest da je inherentno samouvjeren po dizajnu,” rekao je PJ Ahlberg, izvršni tehnički direktor ravnateljica Stink Studios New York, agencija koja koristi A.I. za stvaranje botova za društvene mreže i moderiranje kampanja robnih marki.

Nakon što se razvije set za obuku, ti se podaci često dijele među programerima, što znači da se pristranost širi na više programa. Ahlberg kaže da taj čimbenik znači da programeri ne mogu modificirati te skupove podataka u programima koji koriste višestruki A.I. sustava, što otežava uklanjanje bilo kakvih predrasuda nakon njihovog otkrivanja.

A.I. ne može utvrditi namjeru

A.I. može otkriti svastiku na fotografiji — ali softver ne može odrediti kako se koristi. Facebook se, primjerice, nedavno ispričao nakon uklanjanje objave koja je sadržavala svastiku ali je bio popraćen tekstualnom molbom da se zaustavi širenje mržnje.

Ovo je primjer neuspjeha A.I. prepoznati namjeru. Facebook je čak označio sliku kip Neptuna kao seksualno eksplicitno. Osim toga, algoritmi mogu nenamjerno označiti fotoreporterski rad zbog simbola mržnje ili nasilja koji se mogu pojaviti na slikama.

Povijesne slike koje se dijele u obrazovne svrhe još su jedan primjer — 2016. Facebook je izazvao kontroverzu nakon što uklonio povijesnu fotografiju "napalm djevojke". više puta prije nego što je pritisak korisnika natjerao tvrtku da promijeni svoj tvrdokorni stav o golotinji i ponovno postavi fotografiju.

A.I. obično služi kao početna provjera, ali često su ipak potrebni ljudski moderatori kako bi se utvrdilo krši li sadržaj stvarno standarde zajednice. Unatoč poboljšanjima umjetne inteligencije, to nije činjenica koja se mijenja. Facebook, na primjer, povećava veličinu svog tima za recenziranje na 20.000 ove godine, dvostruko više od prošlogodišnjeg broja.

A.I. pomaže ljudima da rade brže

Ljudski mozak možda je još uvijek potreban, ali A.I. učinila je proces učinkovitijim. A.I. može pomoći u određivanju koje objave zahtijevaju ljudski pregled, kao i pomoći u određivanju prioriteta tih objava. 2017. Facebook je to podijelio A.I. dizajniran za uočavanje suicidalnih tendencija rezultiralo je sa 100 poziva hitnim službama u jednom mjesecu. U to vrijeme, Facebook rekao da je A.I. također je pomogao odrediti koje postove prvi vide ljudski recenzent.

Facebook Zabrinuti prijatelj
Getty Images/Blackzheep

Getty Images/Blackzheep

“[A.I. je prešao dug put i definitivno napreduje, ali stvarnost je da vam još uvijek treba ljudski faktor koji potvrđuje da mijenjate prave riječi, pravi sadržaj i pravu poruku,” rekao je Chris Mele, direktor tvrtke Stink Studiji. “Tamo gdje se osjeća A.I. najbolje radi olakšavanje moderatorima i pomaže im da rade brže i na većoj razini. Ne mislim da je A.I. je gotovo 100 posto automatiziran na bilo kojoj platformi.”

A.I. je brz, ali etika je spora

Tehnologija općenito ima tendenciju rasti brzinom većom od one koju zakoni i etika mogu pratiti - a moderiranje društvenih medija nije iznimka. Binch sugerira da bi taj faktor mogao značiti povećanu potražnju za zaposlenicima s iskustvom u humanističkim znanostima ili etici, nešto što većina programera nema.

Kako je rekao, "Sada smo na mjestu gdje je tempo, brzina toliko brza, da se moramo pobrinuti da etička komponenta ne zaostane previše."

Preporuke urednika

  • Kada autorska prava otežavaju pronalaženje zvučnih zapisa videozapisa, ovaj A.I. glazbenik može pomoći
  • Od 8K do AI, ovo bi moglo doći na fotoaparate 2019
  • Računala će nas uskoro nadmudriti. Čini li to A.I. pobuna neizbježna?