Cum rezolvi o problemă precum internetul? Este o întrebare care, sincer, ar fi avut prea puțin sens chiar și acum un sfert de secol. Internetul, cu capacitatea sa de a răspândi atât informații, cât și valori democratice în fiecare colț îndepărtat al Pământului, a fost răspunsul.
Cuprins
- O voce pentru cei fără voce
- Accentuează pozitivul
- Fără soluții ușoare
A cere un leac pentru internet a fost ca și cum ai cere un leac pentru cancer. Aici, în 2020, imaginea este puțin mai tulbure. Da, internetul este uimitor de genial pentru tot felul de lucruri. Dar pune și probleme, din răspândirea de știri false la, ei bine, groapa digitală care este fiecare secțiune de comentarii YouTube vreodată. Cu alte cuvinte, internetul poate fi tot felul de toxice. Cum îl curățăm?
![](/f/8ec1a7f38ba3687d47103fdb0caa7bc8.jpg)
Nu există răspunsuri simple aici. Este cenzura algoritmică sau condusă de oameni răspunsul? Ar trebui să închidem toate secțiunile de comentarii pe subiecte controversate? O platformă privată chiar trebuie să se simtă obligată să ofere tuturor o voce? Cum se potrivește blocarea opiniilor marginale pentru binele public cu visul internetului de a da voce tuturor?
Legate de
- I.A. analogic? Sună nebunesc, dar ar putea fi viitorul
- Citiți „scriptura sintetică” ciudat de frumoasă a unui A.I. care crede că este Dumnezeu
- Arhitectura algoritmică: Ar trebui să lăsăm A.I. proiectați clădiri pentru noi?
Cercetătorii de la Universitatea Carnegie Mellon au creat un nou instrument intrigant despre care cred că ar putea ajuta. Este un algoritm de inteligență artificială care funcționează nu prin blocarea vorbirii negative, ci mai degrabă prin evidențierea sau amplificarea „vorbirii de ajutor” pentru a fi mai ușor de găsit. În acest proces, ei speră că ar putea ajuta la ambiția cibertopiană de a face mai bine internetul o voce pentru împuternicirea celor fără voce.
Videoclipuri recomandate
O voce pentru cei fără voce
![Tabăra de refugiați Rohingya](/f/f4026442edb1fd724c124337b136b339.jpg)
A.I. conceput de echipă, de la Carnegie Mellon’s Institutul de Tehnologii Limbii, cercetează comentariile YouTube și evidențiază comentariile care apără sau simpatizează, în acest caz, minorități lipsite de drepturi, cum ar fi comunitatea Rohingya. Poporul musulman Rohingya a fost supus unei serii de persecuții în mare parte în curs de către guvernul din Myanmar din octombrie 2016. Criza genocidă a forțat peste un milion de rohingyas să fugă în țările vecine. Este o situație disperată care implică persecuție religioasă și epurare etnică – dar nu ați ști neapărat acest lucru din multe dintre comentariile care au apărut pe rețelele sociale locale; copleșind numărul de comentarii pe cealaltă parte a problemei.
„Am dezvoltat un cadru pentru a susține cauza unei minorități lipsite de drepturi – în acest caz rohingyas – pentru a detecta automat conținutul web care îi sprijină”, Ashique Khudabukhsh, un om de știință în cadrul departamentului de informatică de la Carnegie Mellon, a declarat pentru Digital Trends. „Ne-am concentrat pe YouTube, o platformă social media extrem de populară în Asia de Sud. Analizele noastre au relevat că un număr mare de comentarii despre rohingya au fost disprețuitoare pentru aceștia. Am dezvoltat o metodă automată pentru a detecta comentariile care susțin cauza lor, care altfel ar fi înecate de un număr mare de comentarii dure și negative.”
„Din perspectivă generală, munca noastră diferă de munca tradițională de detectare a discursului instigator la ură, unde se concentrează principal se referă la blocarea conținutului negativ, [deși acesta este] un domeniu de cercetare activ și extrem de important”, Khudabukhsh a continuat. „În contrast, munca noastră de detectare a comentariilor de susținere – ceea ce numim discurs de ajutor – marchează o nouă direcție de îmbunătățire a experienței online prin amplificarea aspectelor pozitive.”
![](/f/ac0673b7597c9aae4ec4e2d3d44cca91.png)
Pentru a-și antrena I.A. sistem de filtrare, cercetătorii au adunat mai mult de un sfert de milion de comentarii YouTube. Folosind o tehnologie de ultimă oră de modelare lingvistică, au creat un algoritm care poate cerceta aceste comentarii pentru a evidenția rapid comentariile care sunt de partea comunității Rohingya. Analiza semantică automată a comentariilor utilizatorilor nu este, așa cum v-ați putea aștepta, ușoară. Numai în subcontinentul indian există 22 de limbi majore. Există, de asemenea, frecvent greșeli de ortografie și variații de ortografie nestandard de care trebuie să faceți față atunci când vine vorba de evaluarea limbii.
Accentuează pozitivul
Cu toate acestea, A.I. dezvoltate de echipă au reușit să crească foarte mult vizibilitatea comentariilor pozitive. Mai important, a fost capabil să facă acest lucru mult mai rapid decât ar fi posibil pentru un moderator uman, care nu ar putea să treacă manual prin cantități mari de comentarii în timp real și să pinizeze în special comentarii. Acest lucru ar putea fi deosebit de important în scenariile în care o parte poate avea abilități limitate într-o limbă dominantă, acces limitat la internetul sau probleme cu prioritate mai mare (a se citi: evitarea persecuției) care ar putea avea prioritate față de participarea la online conversatii.
„Dacă nu ești acolo într-o discuție globală despre tine și nu te poți apăra?”
„Cu toții am experimentat să fim acel singur prieten care a susținut un alt prieten în absența lor”, a continuat Khudabukhsh. „Acum luați în considerare acest lucru la scară globală. Ce se întâmplă dacă nu ești acolo într-o discuție globală despre tine și nu te poți apăra? Cum poate A.I. ajutor in aceasta situatie? Numim aceasta o problemă a secolului 21: crizele migranților în era internetului omniprezent, unde vocile refugiaților sunt puține și departe. În viitor, considerăm că problemele geopolitice, climatul și motivele bazate pe resurse pot declanșa noi crize ale migranților, iar munca noastră de apărare a comunităților expuse riscului din lumea online este foarte importantă.”
Dar este suficientă evidențierea anumitor voci minoritare sau este aceasta doar o versiune algoritmică a conceptului de lansare la fiecare câțiva ani de a lansa un post de știri care spune doar vești bune? Poate în anumite privințe, dar depășește cu mult doar evidențierea comentariilor simbolice fără a oferi modalități de a aborda probleme mai ample. Având în vedere acest lucru, cercetătorii au extins deja proiectul pentru a analiza modalități în care A.I. poate fi folosit pentru a amplifica conținut pozitiv în alte impacturi sociale diferite, dar totuși ridicate scenarii. Un exemplu sunt discuțiile online în timpul tensiunii politice sporite între adversarii nucleari. Această lucrare, pe care echipa o va prezenta la Conferința europeană privind inteligența artificială (ECAI 2020) din iunie, ar putea fi folosită pentru a ajuta la detectarea și prezentarea conținutului care difuzează ostilitatea. Tehnologie similară ar putea fi creată pentru o mulțime de alte scenarii - cu o croială adecvată pentru fiecare.
Acestea sunt ratele de acceptare pentru #ECAI2020 contributii:
– Lucrări complete: 26,8%
– Lucrări evidențiate: 45%Vă mulțumesc foarte mult pentru efortul depus în procesul de revizuire!
— ECAI2020 (@ECAI2020) 15 ianuarie 2020
„Premisa de bază a modului în care o comunitate poate fi ajutată depinde de comunitatea în cauză”, a spus Khudabukhsh. „Chiar și diferite crize ale refugiaților ar necesita noțiuni diferite de ajutor. De exemplu, crizele în care izbucnirea bolilor contagioase este o problemă majoră, acordarea asistenței medicale poate fi de mare ajutor. Pentru un grup dezavantajat din punct de vedere economic, evidențierea poveștilor de succes ale oamenilor din comunitate ar putea fi un factor motivant. Prin urmare, fiecare comunitate ar avea nevoie de clasificatori de vorbire de ajutor diferiți nuanțați pentru a găsi automat conținut pozitiv. Munca noastră oferă un plan pentru asta.”
Fără soluții ușoare
Oricât de fascinantă este această lucrare, nu există soluții ușoare atunci când vine vorba de rezolvarea problemei vorbirii online. O parte a provocării este că internetul, așa cum există în prezent, recompensează vocile puternice. Algoritmul Google PageRank, de exemplu, clasifică paginile web în funcție de importanța lor percepută, numărând numărul și calitatea linkurilor către o pagină. Subiectele în tendințe pe Twitter sunt dictate de ceea ce tweetează cel mai mare număr de oameni. Secțiunile de comentarii evidențiază frecvent acele opinii care provoacă cele mai puternice reacții.
Numărul inimaginabil de mare de voci de pe internet poate ascunde vocile disidente; deseori marginalizarea vocilor care, cel puțin în teorie, au aceeași platformă ca oricine altcineva.
Schimbarea acestui lucru va dura mult mai mult decât un algoritm cool de curățare a comentariilor YouTube. Nu este un început rău, totuși.
Recomandările editorilor
- Atingerea finală: modul în care oamenii de știință le oferă roboților simțuri tactile asemănătoare oamenilor
- Formula amuzantă: De ce umorul generat de mașini este Sfântul Graal al A.I.
- A.I. de obicei nu uită nimic, dar noul sistem Facebook uită. Iata de ce
- A.I. care sesizează emoții. este aici și ar putea fi la următorul interviu de angajare
- Supermodel lingvistic: cum GPT-3 introduce în liniște A.I. revoluţie