Sociālo mediju moderēšana: ko var A.I. Noķert — un kur tas neizdodas?

Labākie sociālo mediju pārvaldības rīki maziem uzņēmumiem
Panithan Fakseemuang/123RF
Kritika par naida runu, ekstrēmismu, viltus ziņām un citu saturu, kas pārkāpj kopienas standartus ir lielākie sociālo mediju tīkli, kas stiprina politiku, pievieno darbiniekus un pārstrādā algoritmi. Sociālo (tīkla) darbu sērijā mēs pētām sociālo mediju moderāciju, aplūkojot, kas darbojas un kas ne, vienlaikus pārbaudot uzlabojumu iespējas.

No a pašnāvnieka video pakalpojumā YouTube uz reklāmas, kuru mērķauditorija ir “ebreju nīdēji”, ieslēgts Facebook, sociālo mediju platformas ir nomocītas ar nepiemērotu saturu, kas izdodas izslīdēt cauri plaisām. Daudzos gadījumos platformas atbilde ir ieviest viedākus algoritmus, lai labāk identificētu nepiemērotu saturu. Bet ko īsti spēj noķert mākslīgais intelekts, cik ļoti mums tam vajadzētu uzticēties un kur tas nožēlojami neizdodas?

“A.I. var uztvert aizskarošu valodu un ļoti labi atpazīt attēlus. Attēla identificēšanas spējas pastāv,” saka Vinstons Binčs, uzņēmuma galvenais digitālais vadītājs Deutsch, radošā aģentūra, kas izmanto A.I. veidojot digitālās kampaņas zīmoliem no Target līdz Taco Bell. "Pelēkā zona kļūst par nolūku."

A.I. var lasīt gan tekstu, gan attēlus, taču precizitāte atšķiras

Izmantojot dabiskās valodas apstrādi, A.I. var apmācīt atpazīt tekstu vairākās valodās. Programmai, kas izstrādāta, lai atklātu ziņas, kas pārkāpj, piemēram, kopienas vadlīnijas, var iemācīt atklāt rasu apvainojumus vai terminus, kas saistīti ar ekstrēmistu propagandu.

mobilās tendences google palīgs ai

A.I. var arī apmācīt atpazīt attēlus, novērst dažus kailuma veidus vai atpazīt simbolus, piemēram, svastiku. Daudzos gadījumos tas darbojas labi, taču tas nav drošs. Piemēram, Google fotoattēli tika kritizēti par tumšādainu cilvēku attēlu atzīmēšanu ar šo atslēgvārdu "gorilla". Gadiem vēlāk Google joprojām nav atradis problēmas risinājumu, tā vietā izvēloties noņemt uz programmas spēja atzīmēt pērtiķus un gorillas pilnībā.

Algoritmi arī ir jāatjaunina, attīstoties vārda nozīmei vai lai saprastu, kā vārds tiek lietots kontekstā. Piemēram, LGBT Twitter lietotāji nesen pamanīja, ka cita starpā trūkst meklēšanas rezultātu ar vārdiem #gejs un #biseksuāls, kā rezultātā dažiem radās sajūta, ka pakalpojums tos cenzē. Twitter atvainojās par kļūdu, vainojot to novecojis algoritms tas maldīgi identificēja ziņas, kas atzīmētas ar vārdiem kā potenciāli aizskarošas. Twitter paziņoja, ka tā algoritmam šis termins bija jāņem vērā ziņas kontekstā, taču tas nav izdevies ar šiem atslēgvārdiem.

A.I. ir neobjektīvs

Gorillas marķēšanas kļūme atklāj vēl vienu svarīgu trūkumu — A.I. ir neobjektīvs. Jūs varētu brīnīties, kā dators var būt neobjektīvs, bet A.I. tiek apmācīts, vērojot, kā cilvēki veic uzdevumus, vai ievadot šo uzdevumu rezultātus. Piemēram, programmas objektu identificēšanai fotoattēlā bieži tiek apmācītas, ievadot sistēmai tūkstošiem attēlu, kas sākotnēji tika marķēti ar roku.

Cilvēka elements ir tas, kas padara iespējamu A.I. veikt uzdevumus, bet tajā pašā laikā piešķir tai cilvēcisku aizspriedumu.

Cilvēka elements ir tas, kas padara iespējamu A.I. lai izpildītu uzdevumus, kas iepriekš nebija neiespējami parastajā programmatūrā, taču tas pats cilvēka elements netīšām rada cilvēka aizspriedumus datoram. A.I. Programma ir tikpat laba kā apmācības dati — ja sistēma, piemēram, lielākoties tika ievadīta balto tēviņu attēliem, programmai būs grūtības identificēt cilvēkus ar citiem ādas toņiem.

“Viens AI trūkums kopumā, ja runa ir par moderēšanu no komentāriem līdz lietotājam saturs ir tāds, ka to pēc būtības nosaka dizains,” sacīja PJ Ahlberg, izpildtehniskais vadītājs direktors Stink Studios Ņujorkā, aģentūra, kas izmanto A.I. sociālo mediju robotu izveidei un zīmolu kampaņu vadīšanai.

Kad apmācības komplekts ir izstrādāts, šie dati bieži tiek koplietoti starp izstrādātājiem, kas nozīmē, ka novirze izplatās uz vairākām programmām. Ālbergs saka, ka šis faktors nozīmē, ka izstrādātāji nevar modificēt šīs datu kopas programmās, izmantojot vairākas A.I. sistēmas, apgrūtinot jebkādu aizspriedumu novēršanu pēc to atklāšanas.

A.I. nevar noteikt nodomu

A.I. var atklāt svastiku fotogrāfijā, taču programmatūra nevar noteikt, kā tā tiek izmantota. Piemēram, Facebook nesen atvainojās pēc tam noņemot ziņu, kurā bija svastika bet tika pievienots teksta lūgums apturēt naida izplatību.

Šis ir A.I. neveiksmes piemērs. atpazīt nodomu. Facebook pat atzīmēja attēlu Neptūna statuja kā seksuāli izteikti. Turklāt algoritmi var netīši atzīmēt fotožurnālistikas darbu, jo attēlos var parādīties naida simboli vai vardarbība.

Vēl viens piemērs ir vēsturiski attēli, kas tiek kopīgoti izglītības nolūkos — 2016. gadā Facebook izraisīja strīdus pēc tā noņēma vēsturisko “napalmeitenes” fotogrāfiju vairākas reizes, pirms lietotāju spiediens lika uzņēmumam mainīt savu stingro nostāju attiecībā uz kailuma attēlojumu un atjaunot fotoattēlu.

A.I. mēdz kalpot kā sākotnēja pārbaude, taču bieži vien joprojām ir nepieciešami moderatori, lai noteiktu, vai saturs patiešām pārkāpj kopienas standartus. Neskatoties uz A.I. uzlabojumiem, tas nav fakts, kas mainās. Piemēram, Facebook šogad palielina pārskata komandas skaitu līdz 20 000, kas ir divreiz vairāk nekā pagājušajā gadā.

A.I. palīdz cilvēkiem strādāt ātrāk

Joprojām var būt vajadzīgas cilvēka smadzenes, bet A.I. ir padarījis procesu efektīvāku. A.I. var palīdzēt noteikt, kuras ziņas ir jāpārskata cilvēkiem, kā arī palīdzēt šīm ziņām noteikt prioritāti. 2017. gadā Facebook to kopīgoja A.I. izstrādāts, lai pamanītu pašnāvības tendences mēneša laikā bija izsaukuši 100 neatliekamās palīdzības dienestu izsaukumus. Tajā laikā Facebook teica, ka A.I. arī palīdzēja noteikt, kuras ziņas vispirms redz recenzētāju.

Facebook norūpējies draugs
Getty Images/Blackzheep

Getty Images/Blackzheep

“[A.I. ir nogājusi garu ceļu un noteikti gūst panākumus, taču patiesībā jums joprojām ir ļoti nepieciešams, lai pārbaudītu cilvēka elementu ka jūs modificējat pareizos vārdus, pareizo saturu un pareizo vēstījumu," sacīja Kriss Mele, Stink rīkotājdirektors. Studijas. “Kur šķiet, ka A.I. Vislabāk darbojas, atvieglo moderatorus un palīdz viņiem strādāt ātrāk un plašākā mērogā. Es nedomāju, ka A.I. ir gandrīz 100% automatizēts jebkurā platformā.

A.I. ir ātrs, bet ētika ir lēna

Tehnoloģijai kopumā ir tendence augt ātrāk, nekā likumi un ētika spēj sekot līdzi, un sociālo mediju mērenība nav izņēmums. Binčs norāda, ka šis faktors varētu nozīmēt palielinātu pieprasījumu pēc darbiniekiem ar humanitāro zinātņu vai ētikas izglītību, kas nav lielākajai daļai programmētāju.

Kā viņš teica: "Mēs tagad esam vietā, kur temps un ātrums ir tik ātrs, ka mums ir jāpārliecinās, ka ētiskais komponents pārāk neatpaliek."

Redaktoru ieteikumi

  • Ja autortiesības apgrūtina video skaņu celiņu atrašanu, šis A.I. mūziķis var palīdzēt
  • No 8K līdz A.I. tas ir tas, kas kamerās varētu nonākt 2019. gadā
  • Datori drīz mūs pārspēs. Vai tas padara A.I. sacelšanās neizbēgama?