Sotsiaalmeedia modereerimine: mida saab A.I. Saagi – ja kus see ebaõnnestub?

Parimad sotsiaalmeedia haldustööriistad väikeettevõtetele
Panithan Fakseemuang/123RF
Kriitika vihakõne, äärmusluse, võltsuudiste ja muu kogukonna standardeid rikkuva sisu kohta omab suurimaid sotsiaalmeediavõrgustikke, mis tugevdavad poliitikaid, lisavad töötajaid ja teevad tööd algoritmid. Sotsiaalse (võrgu)töö sarjas uurime sotsiaalmeedia modereerimist, uurime, mis töötab ja mis mitte, ning uurime parendusvõimalusi.

Alates video enesetapuohvrist YouTube'is "juutide vihkajaid" sihivad reklaamid peal Facebook, kimbutab sotsiaalmeedia platvorme ebasobiv sisu, mis suudab läbi libiseda. Paljudel juhtudel on platvormi vastuseks nutikamate algoritmide rakendamine sobimatu sisu paremaks tuvastamiseks. Kuid mida on tehisintellekt tegelikult võimeline püüdma, kui palju peaksime seda usaldama ja kus see haledalt ebaõnnestub?

"A.I. suudab tabada solvavat keelt ja suudab pilte väga hästi ära tunda. Kujutise tuvastamise jõud on olemas, ”ütleb Winston Binch, ettevõtte digitaaljuht Deutsch, loomeagentuur, mis kasutab A.I. digitaalsete kampaaniate loomisel kaubamärkidele Targetist Taco Bellini. "Eesmärgiks saab hall ala."

A.I. suudab lugeda nii teksti kui ka pilte, kuid täpsus on erinev

Kasutades loomuliku keele töötlemist, A.I. saab koolitada teksti ära tundma mitmes keeles. Programmi, mis on loodud näiteks kogukonna juhiseid rikkuvate postituste tuvastamiseks, saab õpetada tuvastama rassilisi solvanguid või äärmusliku propagandaga seotud termineid.

mobiilitrendid google assistent ai

A.I. saab õpetada ka kujutisi ära tundma, teatud alastust ära hoidma või sümboleid nagu haakrist. See töötab paljudel juhtudel hästi, kuid pole lollikindel. Näiteks Google Photosi kritiseeriti tumedanahaliste inimeste piltidele märksõnaga märgistamise eest "gorilla". Aastaid hiljem pole Google ikka veel probleemile lahendust leidnud, selle asemel otsustas selle eemaldada a programmi võimet märgistada ahve ja gorillasid täielikult.

Algoritme tuleb ajakohastada ka sõna tähenduse arenedes või selleks, et mõista, kuidas sõna kontekstis kasutatakse. Näiteks märkasid LGBT Twitteri kasutajad hiljuti, et muude terminite hulgas pole otsingutulemusi #gay ja #biseksuaal, mistõttu mõned tundsid, et teenus tsenseerib neid. Twitter vabandas vea pärast, süüdistades seda vananenud algoritm mis identifitseeris potentsiaalselt solvavateks terminitega märgitud postitusi. Twitter ütles, et selle algoritm pidi seda terminit postituse kontekstis arvesse võtma, kuid ei suutnud seda nende märksõnadega teha.

A.I. on kallutatud

Gorilla märgistamise ebaõnnestumine toob esile veel ühe olulise puuduse - A.I. on kallutatud. Võite küsida, kuidas saab arvuti olla kallutatud, kuid A.I. on treenitud jälgides, kuidas inimesed ülesandeid täidavad, või sisestades nende ülesannete tulemused. Näiteks koolitatakse fotol objekte tuvastavaid programme sageli nii, et toidetakse süsteemi tuhandeid pilte, mis olid algselt käsitsi märgistatud.

Inimelement on see, mis võimaldab A.I. ülesannete täitmiseks, kuid samal ajal annab sellele inimliku eelarvamuse.

Inimelement on see, mis võimaldab A.I. täita ülesandeid, mis tavapärasel tarkvaral varem võimatud olid, kuid see sama inimelement annab tahtmatult ka arvutile inimliku eelarvamuse. A.I. programm on sama hea kui treeninguandmed – kui süsteemi toideti suures osas näiteks valgete meeste kujutistega, on programmil raskusi teiste nahatoonidega inimeste tuvastamisega.

"Üks A.I puudus üldiselt, kui on vaja modereerida kõike alates kommentaaridest kuni kasutajateni sisu, on see, et see on oma olemuselt kujundatud,” ütles PJ Ahlberg, tehniline juht direktor Stink Studios New York, agentuur, mis kasutab A.I. sotsiaalmeedia robotite loomiseks ja brändikampaaniate modereerimiseks.

Kui koolituskomplekt on välja töötatud, jagatakse neid andmeid sageli arendajate vahel, mis tähendab, et eelarvamus levib mitmele programmile. Ahlberg ütleb, et see tegur tähendab, et arendajad ei saa neid andmekogumeid muuta programmides, mis kasutavad mitut A.I. süsteemid, mistõttu on pärast nende avastamist raske eemaldada võimalikke eelarvamusi.

A.I. ei suuda kavatsust kindlaks teha

A.I. suudab tuvastada fotol haakristi, kuid tarkvara ei suuda kindlaks teha, kuidas seda kasutatakse. Näiteks Facebook palus hiljuti pärast vabandust haakristi sisaldava postituse eemaldamine kuid sellega kaasnes tekstiline palve vihkamise leviku peatamiseks.

See on näide A.I. ebaõnnestumisest. kavatsust ära tunda. Facebook märkis isegi pildi, millest Neptuuni kuju kui seksuaalselt vulgaarne. Lisaks võivad algoritmid fotoajakirjandustööd tahtmatult märgistada vihkamissümbolite või piltidel esineda võiva vägivalla tõttu.

Hariduslikel eesmärkidel jagatud ajaloolised pildid on veel üks näide – 2016. aastal tekitas Facebook pärast seda poleemikat eemaldas ajaloolise "napalmitüdruku" foto mitu korda, enne kui kasutajate surve sundis ettevõtet muutma oma karmi hoiakut alastuse suhtes ja ennistama foto.

A.I. kipub toimima esmase kontrollina, kuid sageli on siiski vaja inimmoderaatoreid, et teha kindlaks, kas sisu tegelikult rikub kogukonna standardeid. Vaatamata A.I täiustustele ei ole see tõsiasi, mis muutub. Näiteks Facebook suurendab sel aastal oma ülevaatemeeskonna suurust 20 000-ni, mis on kaks korda suurem kui eelmisel aastal.

A.I. aitab inimestel kiiremini töötada

Inimese aju võib siiski olla vajalik, kuid A.I. on muutnud protsessi tõhusamaks. A.I. võib aidata kindlaks teha, millised postitused vajavad inimese ülevaatamist, ning aidata neid postitusi tähtsuse järjekorda seada. 2017. aastal jagas Facebook seda A.I. mõeldud enesetapukalduvuse tuvastamiseks oli ühe kuu jooksul andnud kiirabile 100 väljakutset. Sellel ajal, Facebook ütles, et A.I. aitas ka kindlaks teha, millised postitused näevad inimesest ülevaatajat esimesena.

Facebooki murelik sõber
Getty Images/Blackzheep

Getty Images/Blackzheep

“[A.I. on teinud pika tee ja teeb kindlasti edusamme, kuid reaalsus on see, et vajate ikkagi väga inimlikku elemendi kontrollimist et muudate õigeid sõnu, õiget sisu ja õiget sõnumit," ütles Stinki tegevdirektor Chris Mele. Stuudiokorterid. "Kus tundub, et A.I. töötab kõige paremini, hõlbustab moderaatorite tööd ning aitab neil töötada kiiremini ja laiemalt. Ma ei usu, et A.I. on igal platvormil peaaegu 100 protsenti automatiseeritud.

A.I. on kiire, kuid eetika on aeglane

Tehnoloogia üldiselt kipub kasvama kiiremini, kui seadused ja eetika suudavad sammu pidada – ja sotsiaalmeedia mõõdukus pole erand. Binch arvab, et see tegur võib tähendada suurenenud nõudlust humanitaar- või eetikaalase taustaga töötajate järele, mida enamikul programmeerijatest ei ole.

Nagu ta ütles: "Oleme praegu kohas, kus tempo ja kiirus on nii kiired, et peame tagama, et eetiline komponent ei jääks liiga palju maha."

Toimetajate soovitused

  • Kui autoriõigused muudavad video heliribade leidmise keeruliseks, siis see A.I. muusik saab aidata
  • Alates 8K-st kuni A.I-ni võib see 2019. aastal kaameratesse jõuda
  • Arvutid kavaldavad meid peagi üle. Kas see teeb A.I. kas mäss on vältimatu?