Socialinės žiniasklaidos moderavimas: ką gali A.I. Sugauti – o kur nepavyksta?

Geriausi socialinės žiniasklaidos valdymo įrankiai mažoms įmonėms
Panithanas Fakseemuangas/123RF
Kritika dėl neapykantos kurstymo, ekstremizmo, netikrų naujienų ir kito turinio, pažeidžiančio bendruomenės standartus turi didžiausius socialinės žiniasklaidos tinklus, stiprinančius politiką, pridedant darbuotojų ir iš naujo algoritmai. Socialinių (tinklinių) darbų serijoje tyrinėjame socialinės žiniasklaidos moderavimą, žiūrime, kas veikia, o kas ne, ir nagrinėjame tobulinimo galimybes.

Iš savižudybės aukos vaizdo įrašas „YouTube“ į skelbimai, skirti „žydų nekenčiantiems“, įjungta Facebook, socialinės žiniasklaidos platformas kamuoja netinkamas turinys, kuris sugeba praslysti. Daugeliu atvejų platformos atsakas yra įdiegti išmanesnius algoritmus, kad būtų galima geriau atpažinti netinkamą turinį. Tačiau ką dirbtinis intelektas iš tikrųjų gali pagauti, kiek turėtume juo pasitikėti ir kur jis apgailėtinai žlunga?

„A.I. gali paimti įžeidžiančią kalbą ir labai gerai atpažinti vaizdus. Yra galimybė atpažinti vaizdą“, – sako Winstonas Binchas, vyriausiasis skaitmeninių technologijų pareigūnas

Deutsch, kūrybinė agentūra, kuri naudojasi A.I. kuriant skaitmenines kampanijas prekių ženklams nuo Target iki Taco Bell. „Pilka zona tampa tikslu“.

A.I. gali skaityti ir tekstą, ir vaizdus, ​​tačiau tikslumas skiriasi

Naudodamas natūralios kalbos apdorojimą, A.I. gali būti išmokytas atpažinti tekstą keliomis kalbomis. Pavyzdžiui, programa, skirta pastebėti įrašus, pažeidžiančius bendruomenės gaires, gali būti išmokyta aptikti rasinius užgauliojimus ar terminus, susijusius su ekstremistine propaganda.

mobiliosios tendencijos google asistentas ai

A.I. taip pat gali būti išmokytas atpažinti vaizdus, ​​užkirsti kelią tam tikroms nuogybių formoms arba atpažinti simbolius, pvz., svastiką. Daugeliu atvejų tai gerai veikia, tačiau nėra patikima. Pavyzdžiui, „Google“ nuotraukos buvo kritikuojamos už tamsiaodžių žmonių atvaizdų žymėjimą raktažodžiu „gorila“. Po daugelio metų „Google“ vis dar nerado problemos sprendimo, o nusprendė pašalinti į programos galimybė pažymėti beždžiones ir gorilas visiškai.

Algoritmus taip pat reikia atnaujinti, kai kinta žodžio reikšmė arba kad suprastume, kaip žodis vartojamas kontekste. Pavyzdžiui, LGBT „Twitter“ vartotojai neseniai pastebėjo, kad, be kitų terminų, trūksta paieškos rezultatų #gėjus ir #biseksualus, todėl kai kurie jautė, kad paslauga juos cenzūruoja. „Twitter“ atsiprašė už klaidą ir kaltino ją pasenęs algoritmas tai klaidingai identifikavo įrašus, pažymėtus terminais kaip galimai įžeidžiančius. „Twitter“ teigė, kad jo algoritmas turėjo atsižvelgti į terminą įrašo kontekste, tačiau to padaryti nepavyko su šiais raktiniais žodžiais.

A.I. yra šališkas

Gorilų žymėjimo nesėkmė išryškina dar vieną svarbų trūkumą – A.I. yra šališkas. Jums gali kilti klausimas, kaip kompiuteris gali būti šališkas, bet A.I. treniruojamas stebint, kaip žmonės atlieka užduotis, arba įvedant tų užduočių rezultatus. Pavyzdžiui, programos, identifikuojančios objektus nuotraukoje, dažnai mokomos tiekiant sistemai tūkstančius vaizdų, kurie iš pradžių buvo pažymėti ranka.

Žmogiškasis elementas yra tai, kas leidžia A.I. atlikti užduotis, bet tuo pačiu suteikia jai žmogišką šališkumą.

Žmogiškasis elementas yra tai, kas leidžia A.I. atlikti užduotis, kurios anksčiau buvo neįmanomos įprastoje programinėje įrangoje, tačiau tas pats žmogiškasis elementas taip pat netyčia sukuria žmogiškąjį šališkumą kompiuteriui. A.I. Programa yra tokia pat geri, kaip ir treniruočių duomenys – jei, pavyzdžiui, sistema daugiausia buvo maitinama baltų vyrų vaizdais, programai bus sunku atpažinti žmones su kitais odos atspalviais.

„Vienas A.I trūkumas apskritai, kai reikia moderuoti bet ką – nuo ​​komentarų iki vartotojo Turinys yra tai, kad tai iš esmės yra nulemta dizaino“, – sakė PJ Ahlbergas, vykdomasis techninis vadovas direktorius Stink Studios Niujorkas, agentūra, kuri naudojasi A.I. socialinės žiniasklaidos robotams kurti ir prekės ženklo kampanijoms moderuoti.

Sukūrus mokymo rinkinį, tais duomenimis dažnai dalijasi kūrėjai, o tai reiškia, kad šališkumas plinta į kelias programas. Ahlbergas teigia, kad šis veiksnys reiškia, kad kūrėjai negali modifikuoti tų duomenų rinkinių programose, kuriose naudojami keli A.I. sistemos, todėl jas aptikus sunku pašalinti bet kokius paklaidas.

A.I. negali nustatyti tyčios

A.I. gali aptikti svastiką nuotraukoje, tačiau programinė įranga negali nustatyti, kaip ji naudojama. Pavyzdžiui, „Facebook“ neseniai atsiprašė pašalinant įrašą, kuriame buvo svastika bet buvo lydimas teksto prašymo sustabdyti neapykantos plitimą.

Tai A.I. nesėkmės pavyzdys. atpažinti ketinimą. „Facebook“ netgi pažymėjo nuotrauką Neptūno statula kaip seksualinio pobūdžio. Be to, algoritmai gali netyčia pažymėti fotožurnalistinį darbą dėl neapykantos simbolių ar smurto, kuris gali pasirodyti vaizduose.

Dar vienas pavyzdys – edukaciniais tikslais dalijami istoriniai vaizdai – 2016 m. „Facebook“ sukėlė ginčą po jo pašalino istorinę „napalmo mergaitės“ nuotrauką kelis kartus, kol naudotojų spaudimas privertė bendrovę pakeisti savo griežtą poziciją nuogybių atžvilgiu ir atkurti nuotrauką.

A.I. dažniausiai naudojamas kaip pradinis patikrinimas, tačiau dažnai vis tiek reikia žmonių moderatorių, kad nustatytų, ar turinys iš tikrųjų pažeidžia bendruomenės standartus. Nepaisant A.I. patobulinimų, tai nėra faktas, kuris keičiasi. Pavyzdžiui, „Facebook“ šiais metais padidina savo peržiūros komandos dydį iki 20 000, ty dvigubai daugiau nei pernai.

A.I. padeda žmonėms dirbti greičiau

Vis tiek gali prireikti žmogaus smegenų, tačiau A.I. padarė procesą efektyvesnį. A.I. gali padėti nustatyti, kuriuos įrašus turi peržiūrėti žmogus, taip pat padėti nustatyti pirmenybę tiems įrašams. 2017 metais „Facebook“ tuo pasidalino A.I. skirtas pastebėti polinkį į savižudybę per mėnesį buvo 100 iškvietimų į greitąją pagalbą. Tuo metu, Facebook pasakė, kad A. I. taip pat padėjo nustatyti, kuriuos įrašus pirmiausia peržiūri žmogus.

„Facebook“ susirūpinęs draugas
Getty Images/Blackzheep

Getty Images/Blackzheep

„[A.I. nuėjo ilgą kelią ir neabejotinai daro pažangą, tačiau realybė yra tokia, kad jums vis tiek labai reikia, kad patikrintų žmogiškasis elementas kad keičiate tinkamus žodžius, tinkamą turinį ir teisingą žinutę“, – sakė „Stink“ generalinis direktorius Chrisas Mele. Studijos. „Kur jaučiasi A.I. Veikia geriausiai, yra padėti žmonėms moderatoriams ir padėti jiems dirbti greičiau ir plačiau. Nemanau, kad A.I. yra beveik 100 procentų automatizuotas bet kurioje platformoje.

A.I. yra greitas, bet etika lėta

Technologijos paprastai auga greičiau, nei gali neatsilikti įstatymai ir etika – ir socialinės žiniasklaidos nuosaikumas nėra išimtis. Binchas teigia, kad šis veiksnys gali reikšti padidėjusį darbuotojų, turinčių humanitarinių mokslų ar etikos išsilavinimą, poreikį, ko dauguma programuotojų neturi.

Kaip jis pasakė: „Dabar esame tokioje vietoje, kur tempas ir greitis yra tokie dideli, kad turime užtikrinti, kad etikos komponentas per daug neatsiliktų“.

Redaktorių rekomendacijos

  • Kai dėl autorių teisių sunku rasti vaizdo įrašų garso takelius, šis A.I. muzikantas gali padėti
  • Nuo 8K iki A.I. 2019 m. fotoaparatai gali pasirodyti tai
  • Kompiuteriai greitai mus pergudraus. Ar dėl to A.I. maištas neišvengiamas?