Moderare social media: ce poate A.I. Prinde - și unde eșuează?

Cele mai bune instrumente de gestionare a rețelelor sociale pentru întreprinderile mici
Panithan Fakseemuang/123RF
Critici pentru discursul instigator la ură, extremism, știri false și alt conținut care încalcă standardele comunității are cele mai mari rețele de social media care consolidează politicile, adaugă personal și reluează algoritmi. În seria Social (Net) Work, explorăm moderarea rețelelor sociale, analizând ce funcționează și ce nu, în timp ce examinăm posibilitățile de îmbunătățire.

De la a video cu o victimă sinucigașă pe YouTube pentru reclame care vizează „uratorii evreilor”, pe Facebook, platformele de social media sunt afectate de conținut inadecvat care reușește să se strecoare printre fisuri. În multe cazuri, răspunsul platformei este de a implementa algoritmi mai inteligenți pentru a identifica mai bine conținutul neadecvat. Dar ce este cu adevărat capabilă să prindă inteligența artificială, cât de mult ar trebui să avem încredere în ea și unde eșuează lamentabil?

„A.I. poate înțelege limbajul ofensator și poate recunoaște foarte bine imaginile. Puterea de identificare a imaginii este acolo”, spune Winston Binch, directorul digital al companiei

Deutsch, o agenție de creație care folosește A.I. în crearea de campanii digitale pentru mărci de la Target la Taco Bell. „Zona gri devine intenția.”

A.I. poate citi atât text, cât și imagini, dar precizia variază

Folosind procesarea limbajului natural, A.I. poate fi antrenat să recunoască textul în mai multe limbi. Un program conceput pentru a identifica postările care încalcă regulile comunității, de exemplu, poate fi învățat să detecteze insulte rasiale sau termeni asociați cu propaganda extremistă.

tendințe mobile google assistant ai

A.I. poate fi de asemenea antrenat să recunoască imagini, să prevină unele forme de nuditate sau să recunoască simboluri precum svastica. Funcționează bine în multe cazuri, dar nu este sigur. De exemplu, Google Foto a fost criticat pentru că a etichetat imagini cu persoane cu pielea întunecată cu cuvântul cheie "gorilă." Ani mai târziu, Google încă nu a găsit o soluție pentru problemă, alegând în schimb să o elimine cel capacitatea programului de a eticheta maimuțe și gorile în întregime.

De asemenea, algoritmii trebuie actualizați pe măsură ce sensul unui cuvânt evoluează sau pentru a înțelege cum este folosit un cuvânt în context. De exemplu, utilizatorii LGBT Twitter au observat recent o lipsă de rezultate de căutare pentru #gay și #bisexual, printre alți termeni, ceea ce i-a determinat pe unii să simtă că serviciul îi cenzurează. Twitter și-a cerut scuze pentru eroare, dând vina pe aceasta un algoritm învechit care a identificat în mod fals postările etichetate cu termenii ca potențial ofensatoare. Twitter a spus că algoritmul său ar fi trebuit să ia în considerare termenul în contextul postării, dar nu a reușit să facă acest lucru cu acele cuvinte cheie.

A.I. este părtinitoare

Eșecul etichetării gorilelor aduce un alt neajuns important - A.I. este părtinitoare. S-ar putea să vă întrebați cum ar putea un computer să fie părtinitor, dar I.A. este antrenat urmărind oamenii completând sarcini sau introducând rezultatele acelor sarcini. De exemplu, programele de identificare a obiectelor dintr-o fotografie sunt adesea antrenate prin alimentarea sistemului cu mii de imagini care au fost inițial etichetate manual.

Elementul uman este ceea ce face posibil ca A.I. de a face sarcini dar în același timp îi conferă părtinire umană.

Elementul uman este ceea ce face posibil ca A.I. pentru a îndeplini sarcini anterior imposibile pe software-ul obișnuit, dar același element uman dă, din neatenție, părtinire umană unui computer. Un A.I. programul este la fel de bun ca datele de antrenament - dacă sistemul a fost alimentat în mare parte cu imagini de bărbați albi, de exemplu, programul va avea dificultăți în identificarea persoanelor cu alte tonuri de piele.

„Un neajuns al I.A., în general, atunci când vine vorba de moderarea a orice, de la comentarii la utilizator conținut, este că este în mod inerent opinie prin design”, a spus PJ Ahlberg, tehnic executiv. Director de Stink Studios New York, o agenție care folosește A.I. pentru crearea de social media bots și moderarea campaniilor de brand.

Odată ce un set de instruire este dezvoltat, acele date sunt adesea partajate între dezvoltatori, ceea ce înseamnă că părtinirea se răspândește la mai multe programe. Ahlberg spune că acest factor înseamnă că dezvoltatorii nu pot modifica acele seturi de date în programe care utilizează mai multe I.A. sisteme, ceea ce face dificilă eliminarea oricăror părtiniri după descoperirea lor.

A.I. nu poate determina intentia

A.I. poate detecta o svastică într-o fotografie - dar software-ul nu poate determina modul în care este utilizată. Facebook, de exemplu, și-a cerut recent scuze după eliminând un post care conținea o zvastica dar a fost însoțită de o cerere text de a opri răspândirea urii.

Acesta este un exemplu de eșec al A.I. a recunoaște intenția. Facebook a etichetat chiar și o poză cu statuia lui Neptun ca fiind explicit din punct de vedere sexual. În plus, algoritmii pot semnala în mod neintenționat munca fotojurnalistică din cauza simbolurilor de ură sau a violenței care pot apărea în imagini.

Imaginile istorice partajate în scopuri educaționale sunt un alt exemplu - în 2016, Facebook a provocat o controversă după aceasta. a eliminat fotografia istorică „fata napalm”. de mai multe ori înainte ca presiunea utilizatorilor să forțeze compania să-și schimbe atitudinea neclintită asupra nudității și să restabilească fotografia.

A.I. tinde să servească drept screening inițial, dar deseori sunt încă necesari moderatori umani pentru a determina dacă conținutul încalcă cu adevărat standardele comunității. În ciuda îmbunătățirilor aduse I.A., acesta nu este un fapt care se schimbă. Facebook, de exemplu, își mărește dimensiunea echipei de revizuire la 20.000 în acest an, dublu față de numărul de anul trecut.

A.I. ajută oamenii să lucreze mai repede

Un creier uman poate fi încă necesar, dar A.I. a făcut procesul mai eficient. A.I. poate ajuta la determinarea postărilor care necesită o examinare umană, precum și la prioritizarea acestor postări. În 2017, Facebook a distribuit asta A.I. concepute pentru a identifica tendințele suicidare a dus la 100 de apeluri către personalul de urgență într-o lună. La momentul, Facebook a spus că A.I. a ajutat, de asemenea, la determinarea postărilor care văd mai întâi un recenzent uman.

Prieten preocupat de Facebook
Getty Images/Blackzheep

Getty Images/Blackzheep

„[A.I. a] parcurs un drum lung și cu siguranță face progrese, dar realitatea este că încă aveți nevoie de un element uman care să verifice că modificați cuvintele potrivite, conținutul potrivit și mesajul potrivit”, a spus Chris Mele, directorul general al Stink. Studiouri. „Unde se simte A.I. funcționează cel mai bine este să faciliteze moderatorii umani și să-i ajute să lucreze mai rapid și la scară mai mare. Nu cred că A.I. este aproape de a fi 100% automatizat pe orice platformă.”

A.I. este rapid, dar etica este lentă

Tehnologia, în general, tinde să crească într-un ritm mai rapid decât legile și etica pot ține pasul – iar moderarea rețelelor sociale nu face excepție. Binch sugerează că acest factor ar putea însemna o cerere crescută de angajați cu experiență în științe umaniste sau etică, ceva ce majoritatea programatorilor nu au.

După cum a spus el, „Suntem într-un loc în care ritmul, viteza, sunt atât de rapide, încât trebuie să ne asigurăm că componenta etică nu rămâne prea mult în urmă”.

Recomandările editorilor

  • Când drepturile de autor îngreunează găsirea coloanelor sonore video, acest A.I. muzicianul poate ajuta
  • De la 8K la A.I., aceasta este ceea ce ar putea veni la camere în 2019
  • Calculatoarele ne vor depăși în curând. Face asta un A.I. rebeliunea inevitabilă?