Moderiranje družbenih medijev: kaj lahko A.I. Catch -- In kje ne uspe?

click fraud protection
Najboljša orodja za upravljanje družbenih medijev za mala podjetja
Panithan Fakseemuang/123RF
Kritika sovražnega govora, ekstremizma, lažnih novic in druge vsebine, ki krši standarde skupnosti ima največja omrežja družbenih medijev za krepitev politik, dodajanje osebja in preoblikovanje algoritmi. V seriji Socialno (mrežno) delo raziskujemo moderiranje družbenih medijev, ugotavljamo, kaj deluje in kaj ne, hkrati pa preučujemo možnosti za izboljšave.

Od videoposnetek žrtve samomora na YouTubu do oglasi, ki ciljajo na »sovražnike Judov« na Facebook, platforme družbenih medijev pestijo neprimerne vsebine, ki jim uspe zdrsniti skozi razpoke. V mnogih primerih je odgovor platforme implementacija pametnejših algoritmov za boljše prepoznavanje neprimerne vsebine. Kaj pa je umetna inteligenca v resnici sposobna ujeti, koliko bi ji morali zaupati in kje ji klavrno spodleti?

»A.I. lahko zazna žaljiv jezik in zelo dobro prepozna slike. Moč prepoznavanja slike je prisotna,« pravi Winston Binch, glavni digitalni direktor podjetja Deutsch, kreativna agencija, ki uporablja A.I. pri ustvarjanju digitalnih kampanj za blagovne znamke od Target do Taco Bell. "Sivo območje postane namen."

A.I. lahko bere besedilo in slike, vendar je natančnost različna

Z uporabo obdelave naravnega jezika je A.I. se lahko usposobi za prepoznavanje besedila v več jezikih. Program, zasnovan za odkrivanje objav, ki na primer kršijo smernice skupnosti, se lahko nauči zaznavati rasne žaljivke ali izraze, povezane z ekstremistično propagando.

mobilni trendi google pomočnik ai

A.I. prav tako se lahko usposobi za prepoznavanje slik, preprečevanje nekaterih oblik golote ali prepoznavanje simbolov, kot je svastika. V mnogih primerih deluje dobro, vendar ni varen. Google Photos je bil na primer kritiziran zaradi označevanja slik temnopoltih ljudi s ključno besedo "gorila." Leta kasneje Google še vedno ni našel rešitve za težavo, namesto tega se je odločil odstraniti the zmožnost programa za označevanje opic in goril popolnoma.

Algoritme je treba tudi posodobiti, ko se pomen besede razvija ali da bi razumeli, kako se beseda uporablja v kontekstu. LGBT-uporabniki Twitterja so na primer nedavno opazili pomanjkanje rezultatov iskanja za #gay in #bisexual, zaradi česar so nekateri menili, da jih storitev cenzurira. Twitter se je opravičil za napako in jo zvalil na zastarel algoritem ki je lažno identificiral objave, označene z izrazi kot potencialno žaljive. Twitter je dejal, da naj bi njegov algoritem upošteval izraz v kontekstu objave, vendar tega ni storil s temi ključnimi besedami.

A.I. je pristranski

Neuspešno označevanje goril prinaša še eno pomembno pomanjkljivost - A.I. je pristranski. Morda se sprašujete, kako je lahko računalnik pristranski, toda A.I. se usposablja z opazovanjem ljudi, ki opravljajo naloge, ali z vnašanjem rezultatov teh nalog. Na primer, programi za prepoznavanje predmetov na fotografiji se pogosto učijo tako, da sistemu vnesejo na tisoče slik, ki so bile prvotno ročno označene.

Človeški element je tisto, kar omogoča A.I. opravljati naloge, a hkrati daje človeško pristranskost.

Človeški element je tisto, kar omogoča A.I. dokončati naloge, ki so bile prej nemogoče na tipični programski opremi, vendar ta isti človeški element nenamerno daje računalniku človeško pristranskost. A.I. program je tako dober kot podatki o usposabljanju - če je bil sistem na primer v veliki meri napolnjen s slikami belih moških, bo imel program težave pri prepoznavanju ljudi z drugimi toni kože.

»Ena pomanjkljivost AI na splošno, ko gre za moderiranje česar koli, od komentarjev do uporabnikov vsebine, je, da je sama po sebi samozavestna že po zasnovi,« je dejal PJ Ahlberg, izvršni tehnični direktor direktorica Stink Studios New York, agencija, ki uporablja A.I. za ustvarjanje botov za družbene medije in moderiranje kampanj blagovnih znamk.

Ko je nabor za usposabljanje razvit, se ti podatki pogosto delijo med razvijalci, kar pomeni, da se pristranskost razširi na več programov. Ahlberg pravi, da ta dejavnik pomeni, da razvijalci ne morejo spremeniti teh nizov podatkov v programih, ki uporabljajo več AI. sistemov, zaradi česar je težko odstraniti morebitne pristranskosti po njihovem odkritju.

A.I. ne more ugotoviti namena

A.I. lahko zazna svastiko na fotografiji, vendar programska oprema ne more ugotoviti, kako se uporablja. Facebook se je na primer nedavno opravičil po odstranitev objave, ki je vsebovala svastiko vendar ga je spremljal besedilni poziv k ustavitvi širjenja sovraštva.

To je primer neuspeha A.I. prepoznati namen. Facebook je celo označil sliko kip Neptuna kot spolno eksplicitno. Poleg tega lahko algoritmi nenamerno označijo fotoreportersko delo zaradi simbolov sovraštva ali nasilja, ki se lahko pojavijo na slikah.

Drug primer so zgodovinske slike, ki se delijo v izobraževalne namene – leta 2016 je Facebook povzročil polemiko, potem ko odstranil zgodovinsko fotografijo "napalm girl". večkrat, preden je pritisk uporabnikov prisilil podjetje, da je spremenilo svoje trdo stališče do golote in ponovno objavilo fotografijo.

A.I. običajno služi kot začetni pregled, vendar so pogosto še vedno potrebni človeški moderatorji, da ugotovijo, ali vsebina dejansko krši standarde skupnosti. Kljub izboljšavam AI to ni dejstvo, ki se spreminja. Facebook, na primer, letos povečuje svojo ekipo za pregledovanje na 20.000, kar je dvakrat več kot lani.

A.I. pomaga ljudem delati hitreje

Morda so še potrebni človeški možgani, toda A.I. je naredil proces učinkovitejši. A.I. lahko pomaga določiti, katere objave zahtevajo človeški pregled, in jim pomaga določiti prednost. Leta 2017 je Facebook to delil A.I. namenjen odkrivanju samomorilnih nagnjenj povzročilo 100 klicev reševalcev v enem mesecu. Ob uri, Facebook povedal, da je A.I. je tudi pomagal določiti, katere objave najprej vidijo človeški pregledovalci.

Facebook zaskrbljeni prijatelj
Getty Images/Blackzheep

Getty Images/Blackzheep

“[A.I. je] prišel daleč in vsekakor napreduje, a v resnici še vedno zelo potrebujete človeški element za preverjanje da spreminjate prave besede, pravo vsebino in pravo sporočilo,« je povedal Chris Mele, generalni direktor podjetja Stink. Garsonjere. »Kjer je občutek A.I. deluje najbolje, če olajša moderatorje in jim pomaga delati hitreje in v večjem obsegu. Mislim, da A.I. je skoraj 100-odstotno avtomatiziran na kateri koli platformi.«

A.I. je hiter, a etika je počasna

Tehnologija na splošno raste hitreje, kot ji lahko sledijo zakoni in etika - in moderiranje družbenih medijev ni izjema. Binch predlaga, da bi ta dejavnik lahko pomenil povečano povpraševanje po zaposlenih s humanističnimi ali etičnimi izkušnjami, česar večina programerjev nima.

Kot je dejal: "Zdaj smo na mestu, kjer sta tempo in hitrost tako hitra, da moramo zagotoviti, da etična komponenta ne bo preveč zaostajala."

Priporočila urednikov

  • Ko avtorske pravice otežijo iskanje zvočnih posnetkov video posnetkov, ta A.I. glasbenik lahko pomaga
  • Od 8K do A.I., to je tisto, kar bi lahko leta 2019 prišlo na fotoaparate
  • Računalniki nas bodo kmalu prelisičili. Ali je zaradi tega A.I. upor neizogiben?