Moderovanie sociálnych médií: Čo môže A.I. Catch - A kde to zlyhá?

Najlepšie nástroje na správu sociálnych médií pre malé podniky
Panithan Fakseemuang/123RF
Kritika za nenávistné prejavy, extrémizmus, falošné správy a ďalší obsah, ktorý porušuje štandardy komunity má najväčšie sociálne siete na posilnenie politík, pridávanie zamestnancov a prepracovanie algoritmy. V sérii Social (Net) Work skúmame moderovanie sociálnych médií, zisťujeme, čo funguje a čo nie, a zároveň skúmame možnosti zlepšenia.

Od a video obete samovraždy na YouTube reklamy zacielené na „nenávisť voči Židom“, na Facebook, platformy sociálnych médií sužuje nevhodný obsah, ktorý dokáže prekĺznuť. V mnohých prípadoch je odpoveďou platformy implementácia inteligentnejších algoritmov na lepšiu identifikáciu nevhodného obsahu. Čo všetko je však umelá inteligencia skutočne schopná chytiť, ako veľmi jej máme dôverovať a kde na plnej čiare zlyháva?

„A.I. dokáže zachytiť urážlivý jazyk a dokáže veľmi dobre rozpoznať obrázky. Sila identifikácie obrazu je tam,“ hovorí Winston Binch, hlavný digitálny riaditeľ spoločnosti Deutsch, kreatívna agentúra, ktorá využíva A.I. pri vytváraní digitálnych kampaní pre značky od Target po Taco Bell. "Sivá oblasť sa stáva zámerom."

A.I. dokáže čítať text aj obrázky, ale presnosť sa líši

Pomocou spracovania prirodzeného jazyka A.I. možno trénovať na rozpoznávanie textu vo viacerých jazykoch. Program navrhnutý tak, aby rozpoznal príspevky, ktoré porušujú pokyny komunity, sa napríklad môže naučiť odhaľovať rasové nadávky alebo výrazy spojené s extrémistickou propagandou.

mobilné trendy asistent google ai

A.I. môže byť tiež trénovaný na rozpoznávanie obrázkov, na predchádzanie niektorým formám nahoty alebo na rozpoznávanie symbolov, ako je svastika. V mnohých prípadoch to funguje dobre, ale nie je to spoľahlivé. Napríklad Google Photos bolo kritizované za to, že kľúčové slovo označilo obrázky ľudí tmavej pleti "gorila." Po rokoch spoločnosť Google stále nenašla riešenie problému, namiesto toho sa rozhodla odstrániť na schopnosť programu označovať opice a gorily úplne.

Algoritmy je tiež potrebné aktualizovať, keď sa význam slova vyvíja, alebo aby sme pochopili, ako sa slovo používa v kontexte. Napríklad LGBT používatelia Twitteru si nedávno všimli nedostatok výsledkov vyhľadávania pre výrazy #gay a #bisexual, medzi inými, čo viedlo niektorých k pocitu, že ich služba cenzuruje. Twitter sa za chybu ospravedlnil a obvinil ju zastaraný algoritmus ktoré nepravdivo označilo príspevky označené týmito výrazmi za potenciálne urážlivé. Twitter uviedol, že jeho algoritmus mal brať do úvahy výraz v kontexte príspevku, ale neurobil to s týmito kľúčovými slovami.

A.I. je zaujatý

Zlyhanie označovania goríl prináša ďalší dôležitý nedostatok – A.I. je zaujatý. Možno sa čudujete, ako môže byť počítač zaujatý, ale A.I. sa trénuje sledovaním ľudí, ako dokončujú úlohy, alebo zadávaním výsledkov týchto úloh. Napríklad programy na identifikáciu objektov na fotografii sú často trénované tak, že sa do systému vkladajú tisíce obrázkov, ktoré boli pôvodne označené ručne.

Ľudský prvok je to, čo umožňuje A.I. robiť úlohy, no zároveň to dáva ľudskú zaujatosť.

Ľudský prvok je to, čo umožňuje A.I. na dokončenie úloh, ktoré boli predtým nemožné na typickom softvéri, ale ten istý ľudský prvok tiež neúmyselne spôsobuje ľudské zaujatie počítaču. A.I. program je len taký dobrý, ako sú tréningové údaje – ak by systém napríklad z veľkej časti využíval obrázky bielych mužov, program bude mať problém identifikovať ľudí s inými odtieňmi pleti.

„Jeden nedostatok AI vo všeobecnosti, pokiaľ ide o moderovanie čohokoľvek od komentárov až po používateľa obsah je taký, že je vo svojej podstate podmienený dizajnom,“ povedal výkonný technický riaditeľ PJ Ahlberg riaditeľ Stink Studios v New Yorku, agentúra, ktorá využíva A.I. na vytváranie robotov na sociálnych sieťach a moderovanie značkových kampaní.

Po vytvorení tréningovej sady sa tieto údaje často zdieľajú medzi vývojármi, čo znamená, že zaujatosť sa rozšíri na viacero programov. Ahlberg hovorí, že tento faktor znamená, že vývojári nie sú schopní upraviť tieto súbory údajov v programoch pomocou viacerých A.I. systémov, čo sťažuje odstránenie akýchkoľvek predsudkov po ich objavení.

A.I. nemôže určiť úmysel

A.I. dokáže rozpoznať svastiku na fotografii – ale softvér nedokáže určiť, ako sa používa. Facebook sa napríklad nedávno ospravedlnil odstránenie príspevku, ktorý obsahoval hákový kríž ale bola sprevádzaná textovou prosbou o zastavenie šírenia nenávisti.

Toto je príklad zlyhania A.I. rozpoznať úmysel. Facebook dokonca označil obrázok socha Neptúna ako sexuálne explicitné. Algoritmy môžu navyše neúmyselne označiť prácu fotožurnalistov z dôvodu nenávistných symbolov alebo násilia, ktoré sa môžu objaviť na obrázkoch.

Historické obrázky zdieľané na vzdelávacie účely sú ďalším príkladom – v roku 2016 po tom Facebook vyvolal kontroverziu odstránil historickú fotografiu „napalm girl“. niekoľkokrát predtým, ako tlak používateľov prinútil spoločnosť zmeniť svoj tvrdý postoj k nahote a obnoviť fotografiu.

A.I. má tendenciu slúžiť ako počiatočná kontrola, ale často sú stále potrební ľudskí moderátori, aby zistili, či obsah skutočne porušuje štandardy komunity. Napriek zlepšeniam AI to nie je skutočnosť, ktorá sa mení. Facebook napríklad tento rok zvyšuje počet svojich kontrolných tímov na 20 000, čo je dvojnásobok oproti minulému roku.

A.I. pomáha ľuďom pracovať rýchlejšie

Môže byť stále potrebný ľudský mozog, ale A.I. zefektívnil proces. A.I. môže pomôcť určiť, ktoré príspevky vyžadujú kontrolu človekom, a tiež pomôcť určiť prioritu týchto príspevkov. V roku 2017 to zdieľal Facebook A.I. navrhnutý tak, aby rozpoznal samovražedné tendencie viedlo k 100 volaniam záchranných zložiek za jeden mesiac. V tom čase, Facebook povedal, že A.I. tiež pomáhal určiť, ktoré príspevky uvidia kontrolór ako prvé.

Facebook znepokojený priateľ
Getty Images/Blackzheep

Getty Images/Blackzheep

“[A.I. má] za sebou dlhú cestu a určite napreduje, ale realita je taká, že stále veľmi potrebujete overenie ľudského prvku že upravujete správne slová, správny obsah a správne posolstvo,“ povedal Chris Mele, generálny riaditeľ spoločnosti Stink Štúdiá. „Tam, kde sa cíti A.I. funguje najlepšie, je uľahčiť ľudským moderátorom a pomôcť im pracovať rýchlejšie a vo väčšom rozsahu. Nemyslím si, že A.I. je takmer na 100 percent automatizovaný na akejkoľvek platforme.“

A.I. je rýchly, ale etika je pomalá

Technológia má vo všeobecnosti tendenciu rásť rýchlejšie, než dokážu zákony a etika držať krok – a moderovanie sociálnych médií nie je výnimkou. Binch naznačuje, že tento faktor by mohol znamenať zvýšený dopyt po zamestnancoch s humanitným alebo etickým zázemím, čo väčšina programátorov nemá.

Ako povedal: „Teraz sme na mieste, kde je tempo, rýchlosť také rýchle, že sa musíme uistiť, že etická zložka nezaostáva príliš ďaleko.“

Odporúčania redaktorov

  • Keď autorské práva sťažujú hľadanie zvukových stôp videa, tento A.I. hudobník môže pomôcť
  • Od 8K po A.I., to je to, čo by mohlo prísť do kamier v roku 2019
  • Počítače nás čoskoro prekonajú. Znamená to, že A.I. nevyhnutná vzbura?