Internetā ir naida runas problēma.
Saturs
- Šis ir automatizācijas darbs. It kā
- Padarot problēmu sliktāku, nevis labāku
- Karš divās frontēs
- Pastāvīgs izaicinājums
- Diskursa nākotne internetā
Dodieties uz jebkuru YouTube komentāru sadaļu vai apmeklējiet sociālos saziņas līdzekļus pat īsu laiku, un jūs netrūkst aizvainojošu, bieži aizspriedumainu komentāru. Bet kā jūs atrisināt šo problēmu? Un, to darot, kā izvairīties no nejaušas situācijas pasliktināšanās?
Šomēnes divi naida runu meklējoši A.I. tika paziņoti algoritmi: viens izveidots Apvienotajā Karalistē, otrs ASV. Kādu dienu varētu izmantot abus lai izpētītu sociālos medijus vai citas tiešsaistes pasaules jomas un izceltu naida runu vai aizskarošu runu, lai par to varētu ziņot, dzēst vai bloķēt.
Ieteiktie videoklipi
Pirmais, ko izstrādājuši pētnieki no Apvienotās Karalistes Ekseteras universitātes, ir a rīks ar nosaukumu Lola kas izmanto "jaunākos sasniegumus dabiskās valodas apstrādē un uzvedības teorijā", lai minūtē skenētu tūkstošiem ziņojumu, lai atklātu naidīgu saturu. "Precizitātes līmenis ir izcils, salīdzinot ar tirgū esošajiem risinājumiem,"
Doktors Deivids Lopess, viens no Lolas veidotājiem, pastāstīja Digital Trends.Otrais, darbs pētnieki no Dienvidkalifornijas universitātes, apgalvo, ka spēj uz ko līdzīgu. "Mūsu izstrādātais algoritms ir teksta klasifikators, kas ņem sociālo mediju ziņas vai, iespējams, citu tekstu, un paredz, vai tekstā ir vai nav naida runas." Brendans Kenedijs, datorzinātņu doktors. students, kurš strādāja pie projekta, pastāstīja Digital Trends.
Šis ir automatizācijas darbs. It kā
Lai saprastu, kāpēc ir nepieciešams izmantot automatizētus risinājumus, lai atrisinātu šīs viscilvēcīgākās problēmas, ir ļoti svarīgi saprast sociālo mediju lielo mērogu. Katru dienas sekundi tiek nosūtīti vidēji 6000 tvītu. Tas atbilst 350 000 tvītu minūtē, 500 miljoniem tvītu dienā vai 200 miljardiem tvītu gadā. Ieslēgts Facebook, aptuveni 35 miljoni cilvēku katru dienu atjaunina savu statusu.
Pat labi nokomplektētiem tehnoloģiju gigantiem šie skaitļi padara moderatoriem neiespējamu veikt nepieciešamo regulēšanu pašiem. Šādi lēmumi ir jāpieņem ļoti ātri, lai ne tikai sekotu jaunajam saturam, kas tiek ģenerēts katru mirkli, bet arī tāpēc, lai noteiktus ziņojumus neredzētu liels lietotāju skaits. Labi izstrādāti algoritmi ir vienīgais praktiskais veids, kā atrisināt šo problēmu.
“Katru dienas sekundi tiek nosūtīti vidēji 6000 tvītu. Tas atbilst 350 000 tvītu minūtē, 500 miljoniem tvītu dienā vai 200 miljardiem tvītu gadā.
Izmantojot mašīnmācīšanos, ir iespējams — vismaz teorētiski — izstrādāt rīkus, kurus var apmācīt meklēt naida runu vai aizskarošu runu, lai par to varētu dzēst vai ziņot. Bet tas nav viegli. Naida runa ir plašs un strīdīgs termins. Mēģinājumi to legāli vai pat neoficiāli definēt cilvēku vidū izrādās sarežģīti. Daži naida runas piemēri var būt tik skaidri, ka neviens tos nevar apstrīdēt. Bet citi gadījumi var būt smalkāki; darbību veids, kas, visticamāk, tiks klasificēts kā “mikroagresija”. Kā Amerikas Savienoto Valstu Augstākās tiesas tiesnesis Poters Stjuarts teica par neķītrību: "Es to zinu, kad to redzu."
"Ir daudz veidu naida runas [un] aizskaroša valoda," Kenedijs sacīja Digital Trends. “Dažu naida runu ir viegli atzīmēt, piemēram, lamuvārdus. Taču lielākā daļa naida runas ir retoriski sarežģītas, dēmonizējošas un dehumanizējošas, izmantojot metaforas, kultūrspecifiskus stereotipus un “suņu svilpienus”.
Padarot problēmu sliktāku, nevis labāku
Iepriekšējā naida runas medības A.I. rīki ir izrādījušies neefektīvi, jo tie ir pārāk neass instruments, lai tiešsaistē atklātu sarežģītākus aizspriedumu piemērus. Ir slikti izstrādāti naida runas noteikšanas algoritmi, kas ne tuvu neaptur naidīgu runu tiešsaistē faktiski ir pierādīts, ka tas pastiprina tādas lietas kā rasu aizspriedumi, bloķējot neaizskarošus tvītus, ko sūta mazākums grupas. Tas varētu būt kaut kas tik vienkāršs kā fakts, ka naida runas klasifikatori ir pārāk jutīgi pret tādiem terminiem kā “Melnāda”, “gejs” vai “transpersona”, kas dažās valstīs var būt vairāk saistīts ar naidīgu saturu iestatījumi.
Tāpat kā Microsoft bēdīgi slavenais Tay tērzēšanas robots, kas iemācījās rasistiska uzvedība pēc mijiedarbības ar lietotājiem, klasifikatori, kas ir apmācīti, izmantojot oriģinālos sociālo mediju teksta datus, var lielā mērā balstīties uz konkrētiem vārdiem, vienlaikus ignorējot vai neapzinoties to apkārtējo kontekstu.
s
Iespēja labāk analizēt tiešsaistes ziņojumus kontekstā ir tas, ko nodrošina divi jaunie A.I. atklāšanas sistēmas sola. Apvienotās Karalistes Lola sistēma apgalvo, ka spēj analizēt 25 000 ziņojumu minūtē, lai atklātu kaitīgu uzvedību, tostarp kiberhuligānismu, naidu un islamofobiju, ar līdz pat 98% precizitāti. Daļa no tā ir aplūkošana ne tikai atslēgvārdos, bet arī “emociju noteikšanas dzinēja” izmantošana, lai noskaidrotu, kādas emocijas tekstā izraisa — vai tās ir mīlestība, dusmas, bailes, uzticēšanās vai citas.
Tikmēr Dienvidkalifornijas Universitāte A.I. noteikšanas sistēma sola aplūkot gan kontekstu, gan saturu.
"Mūsu sākumpunkts šajā pētījumā ir standarta metode, kas kodē teksta marķieru secības ciparu formātā vektori, kurus [pēc tam] izmanto, lai varbūtēji izvadītu klases apzīmējumu “naids” vai “nav naida”,” Brendons teica. “Izmantojot mūsu komandas locekļu izstrādāto “post-hoc skaidrojuma” algoritmu, mēs ieprogrammējām naida runu. klasifikatorus, lai piešķirtu mazāku nozīmi grupu identifikatoriem un lielāku nozīmi grupai apkārtējam kontekstam identifikatori."
Sistēma tika pārbaudīta, analizējot rakstus no balto pārākuma vietnes Stormfront un neitrālāku New York Times reportāžu. Tās veidotāji apgalvo, ka tas spēja šķirot naidu no satura, kas nav naidīgs, ar precizitātes līmeni 90%.
Karš divās frontēs
Tomēr ne tikai neatkarīgi pētnieki izstrādā rīkus naida runas noteikšanai. Pie šīs problēmas risināšanas strādā arī sociālie tīkli.
"Tagad mēs noņemam 10 miljonus gabalu Naida runas ceturtdaļa,” portālam Digital Trends sacīja Amits Bhattacharyya, Facebook kopienas integritātes grupas produktu pārvaldības direktors. "No tiem aptuveni 90% tika atklāti, pirms lietotāji mums par to ziņoja. Mēs esam vairāk ieguldījuši un kļuvuši labāki, lai proaktīvi atklātu potenciāli pārkāpjošu saturu, tostarp naida runu.
Bhattacharyya paskaidroja, ka Facebook noteikšanas metodes koncentrējas uz tādām lietām kā teksta un attēlu saskaņošana, meklē attēlus un identiskas teksta virknes, kas citur vietnē jau ir noņemtas kā naida runa platforma. Tas izmanto arī mašīnmācīšanās klasifikatorus, kas analizē valodu un citus satura veidus. Facebook ir arī papildu datu punkti, jo tas var aplūkot ziņas un komentārus, lai uzzinātu, kā to izdarīt tie cieši sakrīt ar izplatītām frāzēm, modeļiem un uzbrukumiem, kas iepriekš ir bijuši saturā, kas pārkāpj naida runu politikas.
“Ļaunprātīgas rīcības apkarošanai tiešsaistē nav jābūt reaģējošai. Tas var būt arī proaktīvs. ”
Twitter izmanto arī mašīnmācīšanās rīkus, lai apkarotu naidpilnu saturu. Daži no tiem ir balstīti uz atslēgvārdiem, taču Twitter papildus analizē lietotāju uzvedību, lai mēģinātu noteikt, cik ērti lietotāji saskaras. Piemēram, lietotājs, kurš tvīto citam lietotājam un kuram tiek atbildēts un pēc tam seko, tiks uztverts savādāk nekā lietotājs, kurš atkārtoti tvīto tieši citai personai, bet tiek ignorēts vai bloķēts. Šī uzvedības dinamika var palīdzēt atklāt uzmākšanās vai nevēlamas mērķtiecīgas uzvedības modeļus, ko Twitter pēc tam var izmantot, lai labāk izprastu tā platformā notiekošā saturu.
Tomēr Twitter pārstāvis pastāstīja Digital Trends, ka ziņojumi, kas atzīmēti kā aizskaroši, tiek manuāli pārskatīti cilvēki (mašīnas prioritārā secībā), lai noteiktu, vai tie ir pareizi identificēti kā tādi.
Pastāvīgs izaicinājums
Facebook Bhattacharyya sacīja, ka sociālais tīkls gadu gaitā ir guvis "lielu progresu" naida runas ierobežošanā savās platformās un ka tā komanda lepojas ar paveikto. Tajā pašā laikā Bhattacharyya teica: "Mūsu darbs nekad nav pabeigts, un mēs zinām, ka mēs, iespējams, nekad nespēsim novērst katra naidpilna satura parādīšanos mūsu platformās."
Nomācošā realitāte ir tāda, ka tiešsaistes naida runa, visticamāk, nekad netiks atrisināta kā problēma. Vismaz ne bez cilvēkiem, kas neveic izmaiņas. Internets var, kaitējot tam, pastiprināt noteiktas cilvēku balsis, kā arī iegult un kodificēt konkrētus cilvēku aizspriedumus, taču tas ir tāpēc, ka tā ir tikai cilvēce. Neatkarīgi no tā, kādas problēmas pastāv reālajā pasaulē, tās zināmā mērā nonāks tiešsaistes pasaulē.
Tomēr ļaunprātīgas rīcības apkarošanai tiešsaistē nav jābūt reaģējošai. Tas var būt arī proaktīvs. Piemēram, Twitter pārstāvis, kurš sarunājās ar Digital Trends, norādīja, ka no lietotājiem, kuru konti ir bloķēti uz 12 stundām noteikumu pārkāpumu dēļ, lielākā daļa atkal apvainojas. Tas liek domāt, ka var rasties mācāmi brīži. Neatkarīgi no tā, vai tie patiešām mudina lietotājus pārskatīt savu uzvedību vai vienkārši neļauj viņiem uzvesties veidā, kas pārkāpj noteikumus, tas tomēr samazina satraucošo noteikumu pārkāpšanas uzvedību platformā.
Pārstāvis arī sacīja, ka Twitter tagad pēta uz "dunkšu" balstītu sistēmu. Tas piedāvās uzvednes pirms lietotājiem čivināt, brīdinot viņus, ka tas, ko viņi gatavojas publicēt, var būt pretrunā ar Twitter noteikumiem. Tas var būt saistīts ar noteiktu atslēgvārdu. Kopīgojot rakstu, kuru neesat atvēris, izmantojot Twitter, tas var arī piedāvāt brīdinājumu. Šī stumšanas sistēma nesen tika pārbaudīta ar nelielu lietotāju skaitu. Lai gan izmēģinājuma versija tagad ir pabeigta, pastāv iespēja, ka nākotnē tā varētu tikt ieviesta kā funkcija visiem lietotājiem.
Diskursa nākotne internetā
Jautājums par naida runu un citu aizskarošu runu sociālajos medijos tikai kļūs aktuālāks. Piemēram, Francijā a maijā tika pieņemts likums kas prasa stundas laikā no sociālajiem medijiem noņemt noteiktu noziedzīgu saturu. Ja tas tā nav, attiecīgajiem sociālo mediju uzņēmumiem draud naudas sods līdz 4% no to globālajiem ieņēmumiem. Cits “acīmredzami nelikumīgs” saturs ir jānoņem 24 stundu laikā. Tieslietu ministre Nikola Belube Francijas parlamentam sacīja, ka likums palīdzēs samazināt naida runu tiešsaistē.
Cik mums zināms, neviens šāds likums Amerikas Savienotajās Valstīs nav nopietni ierosināts. Taču, tā kā sociālie mediji kļūst par arvien lielāku un ietekmīgāku mūsu saziņas sastāvdaļu, toksiskas uzvedības apkarošana kļūs arvien svarīgāka. Tā nav problēma, ko varētu risināt tikai cilvēku moderatori. Bet tas ir arī tas, kas, izmantojot A.I., ir jādara uzmanīgi — ne tikai tāpēc, lai nodrošinātu, ka tas uzlabo problēmu, bet arī lai garantētu, ka tas nepasliktina to.
Diskursa nākotne internetā ir atkarīga no tā.
Redaktoru ieteikumi
- Kā A.I. izveidoja šo brīnišķīgo sporta spēļu rullīti, kuru nevar beigt skatīties