Questa I.A. Potrebbe scuotere il modo in cui leggiamo i commenti online

click fraud protection

Come si risolve un problema come Internet? È una domanda che, francamente, avrebbe avuto poco senso anche un quarto di secolo fa. Internet, con la sua capacità di diffondere informazioni e valori democratici in ogni angolo remoto della Terra, era la risposta.

Contenuti

  • Una voce per chi non ha voce
  • Accentua il positivo
  • Nessuna soluzione facile

Chiedere una cura per Internet era come chiedere una cura per la cura per il cancro. Qui nel 2020, il quadro è un po’ più confuso. Sì, Internet è sorprendentemente brillante per ogni genere di cose. Ma pone anche dei problemi, dal diffusione di notizie false a, beh, il pozzo nero digitale che è sempre presente in ogni sezione dei commenti di YouTube. Per dirla in altro modo, Internet può essere tossico in tutti i modi. Come lo puliamo?

Getty

Non ci sono risposte semplici qui. La risposta è la censura algoritmica o quella guidata dall’uomo? Dovremmo chiudere tutte le sezioni dei commenti su argomenti controversi? Una piattaforma privata deve davvero sentirsi obbligata a dare voce a tutti? In che modo il blocco delle opinioni marginali per il bene pubblico si sposa con il sogno di Internet di dare voce a tutti?

Imparentato

  • IA analogica? Sembra pazzesco, ma potrebbe essere il futuro
  • Leggi la "scrittura sintetica" stranamente bella di un A.I. che pensa che sia Dio
  • Architettura algoritmica: dovremmo lasciare che l’A.I. progettare edifici per noi?

I ricercatori della Carnegie Mellon University hanno creato un nuovo intrigante strumento che credono possa aiutare. È un algoritmo di intelligenza artificiale che non funziona bloccando i discorsi negativi, ma piuttosto evidenziando o amplificando i “discorso di aiuto” per renderli più facili da trovare. In questo processo sperano che possa contribuire all’ambizione cybertopica di rendere Internet una voce migliore per dare potere a chi non ha voce.

Video consigliati

Una voce per chi non ha voce

Campo profughi Rohingya
Campo profughi Rohingya

L'A.I. ideato dal team, della Carnegie Mellon Istituto per le tecnologie linguistiche, esamina i commenti di YouTube ed evidenzia quelli che difendono o simpatizzano, in questo caso, con le minoranze prive di diritti civili come la comunità Rohingya. Dall’ottobre 2016 la popolazione musulmana Rohingya è soggetta a una serie di persecuzioni, in gran parte ancora in corso, da parte del governo del Myanmar. La crisi genocida ha costretto più di un milione di Rohingya a fuggire nei paesi vicini. È una situazione disperata che coinvolge persecuzione religiosa e pulizia etnica – ma non lo diresti necessariamente da molti dei commenti apparsi sui social media locali; travolgente il numero di commenti sull’altro lato della questione.

“Abbiamo sviluppato una struttura per sostenere la causa di una minoranza priva di diritti civili – in questo caso i Rohingya – per rilevare automaticamente i contenuti web che li sostengono”, Ashique Khudabukhsh, uno scienziato di progetto presso il Dipartimento di Informatica della Carnegie Mellon, ha dichiarato a Digital Trends. “Ci siamo concentrati su YouTube, una piattaforma di social media immensamente popolare nell’Asia meridionale. Le nostre analisi hanno rivelato che un gran numero di commenti sui Rohingya erano denigratori nei loro confronti. Abbiamo sviluppato un metodo automatizzato per rilevare i commenti che sostengono la loro causa che altrimenti verrebbero soffocati da un vasto numero di commenti aspri e negativi”.

“Dal punto di vista del quadro generale, il nostro lavoro differisce dal tradizionale lavoro di rilevamento dell’incitamento all’odio in cui l’obiettivo principale è quello è quello di bloccare i contenuti negativi, [sebbene questa sia] un’area di ricerca attiva e molto importante”, Khudabukhsh continuò. "Al contrario, il nostro lavoro di rilevamento dei commenti di supporto - ciò che chiamiamo discorso di aiuto - segna una nuova direzione per migliorare l'esperienza online amplificando gli aspetti positivi."

Per addestrare la loro A.I. sistema di filtraggio, i ricercatori hanno raccolto più di un quarto di milione di commenti su YouTube. Utilizzando una tecnologia di modellazione linguistica all’avanguardia, hanno creato un algoritmo in grado di analizzare questi commenti per evidenziare rapidamente quelli che si schierano con la comunità Rohingya. L’analisi semantica automatizzata dei commenti degli utenti, come ci si potrebbe aspettare, non è facile. Solo nel subcontinente indiano si contano 22 lingue principali. Ci sono spesso anche errori di ortografia e variazioni ortografiche non standard da affrontare quando si tratta di valutare la lingua.

Accentua il positivo

Ciò nonostante, l’A.I. sviluppati dal team sono stati in grado di aumentare notevolmente la visibilità dei commenti positivi. Ancora più importante, è stato in grado di farlo molto più rapidamente di quanto sarebbe possibile per un moderatore umano, che non sarebbero in grado di leggere manualmente grandi quantità di commenti in tempo reale e appuntare particolari Commenti. Ciò potrebbe essere particolarmente importante in scenari in cui una parte potrebbe avere competenze limitate in una lingua dominante e un accesso limitato alla stessa Internet o questioni di priorità più elevata (leggi: evitare persecuzioni) che potrebbero avere la precedenza sulla partecipazione online conversazioni.

"E se non fossi presente in una discussione globale su di te e non potessi difenderti?"

"Abbiamo tutti sperimentato di essere quell'amico che ha difeso un altro amico in sua assenza", ha continuato Khudabukhsh. “Ora consideriamo questo su scala globale. E se non fossi presente in una discussione globale su di te e non potessi difenderti? Come può l'I.A. aiuto in questa situazione? Lo chiamiamo un problema del 21° secolo: le crisi dei migranti nell’era di Internet onnipresente in cui le voci dei rifugiati sono poche e lontane tra loro. Guardando al futuro, riteniamo che le questioni geopolitiche, il clima e le ragioni legate alle risorse possano innescare nuove crisi migratorie e il nostro lavoro per difendere le comunità a rischio nel mondo online è molto importante”.

Ma è sufficiente evidenziare alcune voci minoritarie, o si tratta semplicemente di una versione algoritmica del concetto tirato fuori ogni pochi anni di lanciare un canale di notizie che racconta solo buone notizie? Forse in un certo senso, ma va ben oltre la semplice evidenziazione di commenti simbolici senza offrire modi per affrontare problemi più ampi. Con questo in mente, i ricercatori hanno già ampliato il progetto per esaminare i modi in cui l’A.I. può essere utilizzato per amplificare contenuti positivi in ​​altri contenuti diversi, ma comunque ad alto impatto sociale scenari. Un esempio sono le discussioni online durante l’accresciuta tensione politica tra avversari nucleari. Questo lavoro, che il team presenterà alla Conferenza europea sull’intelligenza artificiale (ECAI 2020) a giugno, potrebbe essere utilizzato per aiutare a rilevare e presentare contenuti che diffondono ostilità. Una tecnologia simile potrebbe essere creata per una vasta gamma di altri scenari, con un’adeguata personalizzazione per ciascuno.

Queste sono le tariffe di accettazione per #ECAI2020 contributi:
– Documenti completi: 26,8%
– Evidenziare articoli: 45%

Grazie mille per l'impegno profuso nel processo di revisione!

— ECAI2020 (@ECAI2020) 15 gennaio 2020

“La premessa di base su come una comunità può essere aiutata dipende dalla comunità in questione”, ha affermato Khudabukhsh. “Anche diverse crisi di rifugiati richiederebbero diverse nozioni di aiuto. Ad esempio, nelle crisi in cui l’insorgenza di malattie contagiose rappresenta un problema importante, fornire assistenza medica può essere di immenso aiuto. Per alcuni gruppi economicamente svantaggiati, evidenziare le storie di successo delle persone nella comunità potrebbe essere un fattore motivante. Pertanto, ogni comunità richiederebbe classificatori vocali di aiuto con sfumature diverse per trovare automaticamente contenuti positivi. Il nostro lavoro fornisce un modello per questo”.

Nessuna soluzione facile

Per quanto affascinante sia questo lavoro, non esistono soluzioni facili quando si tratta di risolvere il problema del parlato online. Parte della sfida è che Internet, così come esiste attualmente, premia le voci forti. L’algoritmo PageRank di Google, ad esempio, classifica le pagine web in base alla loro importanza percepita contando il numero e la qualità dei collegamenti a una pagina. Gli argomenti di tendenza su Twitter sono dettati da ciò di cui twitta il maggior numero di persone. Le sezioni dei commenti evidenziano spesso quelle opinioni che provocano le reazioni più forti.

Il numero inimmaginabilmente elevato di voci su Internet può soffocare le voci dissenzienti; voci spesso emarginanti che, almeno in teoria, hanno la stessa piattaforma di chiunque altro.

Cambiare ciò richiederà molto più di un fantastico algoritmo di ricerca dei commenti di YouTube. Non è un brutto inizio, però.

Raccomandazioni degli editori

  • Tocco finale: come gli scienziati stanno dando ai robot sensi tattili simili a quelli umani
  • La formula divertente: perché l'umorismo generato dalle macchine è il Santo Graal dell'A.I.
  • A.I. di solito non dimentica nulla, ma il nuovo sistema di Facebook lo fa. Ecco perché
  • A.I. sensibile alle emozioni è qui e potrebbe essere nel tuo prossimo colloquio di lavoro
  • Il top model del linguaggio: come GPT-3 sta silenziosamente inaugurando l'A.I. rivoluzione