Sosiaalisen median moderointi: Mitä voi A.I. Catch -- ja missä se epäonnistuu?

Parhaat sosiaalisen median hallintatyökalut pienyrityksille
Panithan Fakseemuang/123RF
Kritiikkiä vihapuheesta, ääriliikkeistä, valeuutisista ja muusta yhteisön normeja rikkovasta sisällöstä on suurimmat sosiaalisen median verkostot vahvistavat politiikkaa, lisäävät henkilöstöä ja työskentelevät uudelleen algoritmeja. Social (Net) Work -sarjassa tutkimme sosiaalisen median moderointia, tarkastelemme, mikä toimii ja mikä ei, sekä tutkimme parannusmahdollisuuksia.

Alkaen a video itsemurhan uhrista YouTubeen mainokset, jotka on kohdistettu "juutalaisten vihaajille" päällä Facebook, sosiaalisen median alustat vaivaavat sopimatonta sisältöä, joka onnistuu liukumaan halkeamien läpi. Monissa tapauksissa alustan vastaus on ottaa käyttöön älykkäämpiä algoritmeja sopimattoman sisällön tunnistamiseksi paremmin. Mutta mitä tekoäly todella pystyy saamaan kiinni, kuinka paljon siihen pitäisi luottaa ja missä se epäonnistuu surkeasti?

"A.I. pystyy poimimaan loukkaavaa kieltä ja tunnistaa kuvat erittäin hyvin. Kuvan tunnistamiskyky on olemassa”, sanoo Winston Binch, digitaalijohtaja

Deutsch, luova toimisto, joka käyttää A.I. digitaalisten kampanjoiden luomisessa brändeille Targetista Taco Belliin. "Harmasta alueesta tulee tarkoitus."

A.I. osaa lukea sekä tekstiä että kuvia, mutta tarkkuus vaihtelee

Luonnollisen kielen käsittelyä käyttämällä A.I. voidaan kouluttaa tunnistamaan tekstiä useilla kielillä. Ohjelma, joka on suunniteltu havaitsemaan esimerkiksi yhteisön sääntöjä rikkovia viestejä, voidaan opettaa havaitsemaan rodulliset herjaukset tai ääripropagandaan liittyvät termit.

mobiilitrendit google avustaja ai

A.I. voidaan myös kouluttaa tunnistamaan kuvia, ehkäisemään alastomuuden muotoja tai tunnistamaan symboleja, kuten hakaristi. Se toimii hyvin monissa tapauksissa, mutta se ei ole idioottivarma. Esimerkiksi Google Photosia kritisoitiin tummaihoisten ihmisten kuvien merkitsemisestä avainsanalla "gorilla." Vuosia myöhemmin Google ei ole vieläkään löytänyt ratkaisua ongelmaan, vaan päätti poistaa the ohjelman kyky merkitä apinoita ja gorilloja täysin.

Algoritmeja on myös päivitettävä sitä mukaa, kun sanan merkitys kehittyy tai ymmärtää, miten sanaa käytetään kontekstissa. Esimerkiksi LGBT-Twitter-käyttäjät huomasivat äskettäin, että hakutulokset puuttuvat muun muassa sanoilla #gay ja #biseksuaali, mikä sai joidenkin mielestä palvelun sensuroivan heitä. Twitter pahoitteli virhettä ja syytti sitä vanhentunut algoritmi se tunnisti virheellisesti viestit, jotka on merkitty termeillä mahdollisesti loukkaaviksi. Twitter sanoi, että sen algoritmin piti ottaa termi huomioon julkaisun yhteydessä, mutta se ei ole tehnyt niin näiden avainsanojen kanssa.

A.I. on puolueellinen

Gorillan merkitsemisen epäonnistuminen tuo esiin toisen tärkeän puutteen - A.I. on puolueellinen. Saatat ihmetellä, kuinka tietokone voi olla puolueellinen, mutta A.I. on koulutettu katsomalla ihmisiä suorittamaan tehtäviä tai syöttämällä näiden tehtävien tulokset. Esimerkiksi valokuvassa olevien kohteiden tunnistamiseen tarkoitettuja ohjelmia koulutetaan usein syöttämällä järjestelmään tuhansia kuvia, jotka on alun perin merkitty käsin.

Ihmiselementti tekee mahdolliseksi A.I. tehdä tehtäviä, mutta samalla antaa sille inhimillistä ennakkoluulottomuutta.

Ihmiselementti tekee mahdolliseksi A.I. suorittaa tehtäviä, jotka aiemmin olivat mahdottomia tyypillisillä ohjelmistoilla, mutta sama inhimillinen elementti antaa myös vahingossa inhimillisen vinoutumisen tietokoneelle. A.I. Ohjelma on vain yhtä hyvä kuin harjoitustiedot - jos järjestelmään syötettiin suurelta osin esimerkiksi valkoisten urosten kuvia, ohjelmalla on vaikeuksia tunnistaa muita ihonvärisiä ihmisiä.

"Yksi A.I.:n puute yleensä, kun on kyse moderoinnista kommenteista käyttäjälle Sisältö on se, että se on luonnostaan ​​suunnittelun mielipide", sanoi PJ Ahlberg, toiminnanjohtaja tekninen ohjaaja Stink Studios New York, virasto, joka käyttää A.I. sosiaalisen median robottien luomiseen ja brändikampanjoiden moderointiin.

Kun koulutussarja on kehitetty, tiedot jaetaan usein kehittäjien kesken, mikä tarkoittaa, että harha leviää useisiin ohjelmiin. Ahlberg sanoo, että tekijä tarkoittaa, että kehittäjät eivät voi muokata näitä tietojoukkoja ohjelmissa, joissa on useita A.I. järjestelmät, mikä vaikeuttaa harhojen poistamista niiden havaitsemisen jälkeen.

A.I. ei voi määrittää aikomusta

A.I. voi havaita hakaristin valokuvasta, mutta ohjelmisto ei voi määrittää, miten sitä käytetään. Esimerkiksi Facebook pyysi äskettäin anteeksi hakaristia sisältävän viestin poistaminen mutta siihen liitettiin tekstiviesti vihan leviämisen estämiseksi.

Tämä on esimerkki A.I: n epäonnistumisesta. tunnistamaan aikomus. Facebook jopa merkitsi kuvan Neptunuksen patsas seksuaalisesti avoimena. Lisäksi algoritmit voivat vahingossa merkitä valokuvajournalistista työtä kuvissa mahdollisesti esiintyvien vihasymbolien tai väkivallan vuoksi.

Koulutustarkoituksiin jaetut historialliset kuvat ovat toinen esimerkki – vuonna 2016 Facebook aiheutti kiistan sen jälkeen poisti historiallisen "napalmityttö" -kuvan useita kertoja ennen kuin käyttäjien painostus pakotti yrityksen muuttamaan kovan linjan alastomuutta koskevaa kantaansa ja palauttamaan valokuvan.

A.I. toimii yleensä alustavana seulonnana, mutta ihmisvalvojaa tarvitaan usein edelleen määrittämään, rikkooko sisältö todella yhteisön normeja. A.I.:n parannuksista huolimatta tämä ei ole muuttumassa. Esimerkiksi Facebook kasvattaa arviointitiiminsä kokoa tänä vuonna 20 000:een, mikä on kaksinkertainen määrä viime vuonna.

A.I. auttaa ihmisiä työskentelemään nopeammin

Ihmisaivoja voidaan silti tarvita, mutta A.I. on tehnyt prosessista tehokkaamman. A.I. voi auttaa määrittämään, mitkä viestit vaativat ihmisen tarkastuksen, ja auttaa priorisoimaan kyseiset viestit. Vuonna 2017 Facebook jakoi sen A.I. suunniteltu havaitsemaan itsetuhoisia taipumuksia oli johtanut 100 hätäpuheluun kuukaudessa. Tällä hetkellä, Facebook sanoi, että A.I. auttoi myös määrittämään, mitkä viestit näkevät ihmisen tarkistajan ensin.

Facebook huolestunut ystävä
Getty Images/Blackzheep

Getty Images/Blackzheep

"[A.I. on] kulkenut pitkän matkan ja edistyy ehdottomasti, mutta tosiasia on, että tarvitset silti kovasti inhimillisen elementin vahvistavan että muokkaat oikeita sanoja, oikeaa sisältöä ja oikeaa viestiä”, sanoi Chris Mele, Stinkin toimitusjohtaja. Studiot. "Missä tuntuu A.I. toimii parhaiten on helpottaa moderaattoreita ja auttaa heitä työskentelemään nopeammin ja laajemmassa mittakaavassa. En usko, että A.I. on lähes 100-prosenttisesti automatisoitu millä tahansa alustalla."

A.I. on nopea, mutta etiikka on hidasta

Teknologialla on yleensä taipumus kasvaa nopeammin kuin lait ja etiikka pystyvät pysymään perässä – eikä sosiaalisen median maltillisuus ole poikkeus. Binch ehdottaa, että tämä tekijä voisi tarkoittaa lisääntynyttä kysyntää työntekijöille, joilla on tausta humanistisista tai eettisistä tieteistä, mitä useimmilla ohjelmoijilla ei ole.

Kuten hän sanoi: "Olemme nyt paikassa, jossa vauhti ja nopeus on niin nopeaa, että meidän on varmistettava, ettei eettinen osa jää liian pitkälle."

Toimittajien suositukset

  • Kun tekijänoikeudet tekevät videon ääniraitojen löytämisen vaikeaksi, tämä A.I. muusikko voi auttaa
  • 8K: sta A.I: hen tämä saattaa tulla kameroihin vuonna 2019
  • Tietokoneet ohittavat meidät pian. Tekeekö se A.I: n kapina väistämätöntä?