Snap potrebbe salvare Internet dalle fake news? Ecco l’arma segreta dell’azienda

Vagelis PapalexakisUC Riverside

Quando Snapchat fu presentato per la prima volta come parte di un corso di ingegneria meccanica a Stanford, l’inorridito assistente didattico del corso si chiese apertamente se i creatori dell’app avessero creato un’app di sexting. Meno di un decennio dopo, Snapchat potrebbe aiutare a risolvere uno dei maggiori problemi che la tecnologia deve affrontare attualmente: fermare il diffusione di “fake news” online.

Contenuti

  • Il segnale delle fake news?
  • Un gioco del gatto e del topo per secoli

Con questo obiettivo in mente, Snap Research, la divisione di ricerca di Snap, Inc. - ha recentemente donato un finanziamento a un progetto dell'Università della California, Riverside, con l'obiettivo di trovare un nuovo modo per individuare notizie false online. IL algoritmo sviluppato dalla UC Riverside Secondo quanto riferito, è in grado di rilevare notizie false con un livello di precisione impressionante fino al 75%. Con il supporto di Snap, sperano di migliorarlo ulteriormente.

Video consigliati

"A quanto ho capito, sono molto interessati ad avere una buona conoscenza di come si possa comprendere questo problema e risolverlo alla fine."

“Snap non è una delle prime aziende a cui verrebbe in mente dato [questo problema],” Vagelis Papalexakis, professore assistente presso il dipartimento di informatica e ingegneria dell'UC Riverside, ha dichiarato a Digital Trends. “Tuttavia, Snap è un’azienda che gestisce contenuti. A quanto ho capito, sono molto interessati ad avere una buona conoscenza di come si possa comprendere questo problema e risolverlo alla fine.

Ciò che rende la ricerca dell’UC Riverside diversa dalle dozzine, forse anche centinaia, di altri progetti di ricerca che cercano di interrompere il ciclo delle notizie false è l’ambizione del progetto. Non si tratta di un semplice blocco delle parole chiave, né mira a vietare in modo totale determinati URL. Né, cosa forse più interessante, è particolarmente interessato ai fatti contenuti nelle storie. Ciò lo distingue dai siti Web di verifica dei fatti come Snopes, che si basano sull'input e sulla valutazione umana invece che sulla vera automazione.

"Non mi fido davvero delle annotazioni umane", ha detto Papalexakis. “Non perché non mi fido degli esseri umani, ma perché questo è un problema intrinsecamente difficile a cui ottenere una risposta definitiva. La nostra motivazione per questo deriva dal chiederci quanto possiamo fare guardando solo i dati e se possiamo utilizzare la minor quantità possibile di annotazioni umane, se non addirittura nessuna.

Il segnale delle fake news?

Il nuovo algoritmo esamina quanti più “segnali” possibili da una notizia e li utilizza per cercare di classificare l’affidabilità dell’articolo. Papalexakis ha detto: “Chi ha condiviso l’articolo? Quali hashtag hanno usato? Chi lo ha scritto? Da quale testata giornalistica proviene? Che aspetto ha la pagina web? Stiamo cercando di capire quali fattori [contano] e quanta influenza hanno”.

Ad esempio, l'hashtag #LockHerUp potrebbe non necessariamente confermare che un articolo sia di per sé una notizia falsa. Tuttavia, se una persona aggiunge questo suffisso quando condivide un articolo su Twitter, ciò potrebbe suggerire una certa inclinazione alla storia. Aggiungi insieme un numero sufficiente di questi indizi e l'idea è che i pezzi separati si sommano fino a formare un tutto rivelatore. Per dirla in altro modo, se cammina come un’anatra e starnazza come un’anatra, è probabile che sia un’anatra. O, in questo caso, un robot-anatra russo che dondola e starnazza.

protesta contro le notizie false
l'algoritmo di supporto di snapchat combatte la protesta contro le notizie false getty2

“Il nostro interesse è capire cosa succede nella fase iniziale e come possiamo segnalare qualcosa nelle fasi iniziali prima che inizi a ‘infettare’ la rete”, ha continuato Papalexakis. "Questo è il nostro interesse per ora: capire cosa possiamo ricavare dai contenuti e dal contesto di un particolare articolo."

L’algoritmo sviluppato dal gruppo di Papalexakis utilizza qualcosa chiamato decomposizione tensore per analizzare i vari flussi di informazioni su un articolo di notizie. I tensori sono cubi multidimensionali, utili per modellare e analizzare dati che hanno molti componenti diversi. La scomposizione del tensore consente di scoprire modelli nei dati suddividendo un tensore in informazioni elementari, che rappresentano un particolare modello o argomento.

“Anche un numero ridicolmente piccolo di articoli annotati può portarci a livelli di precisione davvero, davvero elevati”

L’algoritmo utilizza innanzitutto la scomposizione tensore per rappresentare i dati in modo tale da raggruppare insieme possibili notizie false. Un secondo livello dell'algoritmo collega quindi gli articoli considerati vicini tra loro. La mappatura della connessione tra questi articoli si basa su un principio chiamato “colpa per associazione”, suggerendo che le connessioni tra due articoli significano che è più probabile che siano simili a uno solo un altro.

Successivamente, ai grafici viene applicato l’apprendimento automatico. Questo approccio “semi-supervisionato” utilizza un numero limitato di articoli che sono stati classificati dagli utenti e quindi applica questa conoscenza a un set di dati molto più ampio. Sebbene ciò coinvolga ancora gli esseri umani a un certo livello, comporta meno annotazioni umane rispetto alla maggior parte dei metodi alternativi di classificazione di potenziali notizie false. Il livello di precisione del 75% pubblicizzato dai ricercatori si basa sul filtraggio corretto di due set di dati pubblici e di un’ulteriore raccolta di 63.000 articoli di notizie.

"Anche un numero ridicolmente piccolo di articoli annotati può portarci a livelli di precisione davvero, davvero elevati", ha detto Papalexakis. "Molto più alto che avere un sistema in cui cercavamo di catturare caratteristiche individuali, come la linguistica, o altre cose che le persone potrebbero considerare disinformative."

Un gioco del gatto e del topo per secoli

Dal punto di vista informatico, è facile capire perché questo lavoro potrebbe attrarre Vagelis Papalexakis e gli altri ricercatori dell’UC Riverside, nonché i ragazzi di Snapchat. Essere in grado non solo di distinguere le notizie false da quelle vere, ma anche di distinguere gli editoriali parziali dal giornalismo serio o dagli articoli satirici da La cipolla è il tipo di enigma dei big data che gli ingegneri sognano.

La domanda più grande, tuttavia, è come verrà utilizzato questo algoritmo e se alla fine potrà contribuire a reprimere il fenomeno delle fake news.

Il contributo di Snap al progetto (che equivale a un “regalo” di 7.000 dollari e un ulteriore supporto non finanziario) non garantisce che l’azienda adotterà la tecnologia in un prodotto commerciale. Ma Papalexakis ha detto che spera che la ricerca alla fine “porti a un trasferimento tecnologico sulla piattaforma”.

L’obiettivo finale, ha spiegato, è quello di sviluppare un sistema in grado di fornire a qualsiasi articolo quello che equivale a un punteggio di affidabilità. In teoria, un punteggio di questo tipo potrebbe essere utilizzato per filtrare le notizie false prima ancora che abbiano la possibilità di essere intraviste dall’utente.

Si tratta di un'idea non dissimile dai filtri antispam per e-mail basati sull'apprendimento automatico, che applicano anch'essi un sistema di punteggio basato su fattori come il rapporto tra immagine e testo nel corpo di un messaggio. Tuttavia, Papalexakis ha suggerito che un approccio preferibile potrebbe essere semplicemente quello di avvisare gli utenti di tali problemi storie che ottengono un punteggio elevato nella possibile categoria falsa – “e poi lasciano che l’utente decida cosa farne Esso."

Una buona ragione per questo è il fatto che le notizie non sempre si dividono così nettamente tra spam e spam. categorie ham, come fa la posta elettronica. Certo, alcuni articoli potrebbero essere vere e proprie invenzioni, ma altri potrebbero essere più discutibili: non contengono bugie dirette, ma sono comunque intesi a condurre il lettore in una determinata direzione. Rimuovere questi articoli, anche quando potremmo trovare opinioni in conflitto con le nostre, entra in un territorio più complicato.

“Questo rientra in una zona grigia”, ha continuato Papalexakis. “Va bene se possiamo classificarlo come un articolo fortemente parziale. Esistono diverse categorie per quella che potremmo chiamare disinformazione. [Un articolo fortemente parziale] potrebbe non essere così negativo come un articolo falso, ma vende comunque un punto di vista particolare al lettore. È più sfumato rispetto a falso vs. non falso."

Alla fine, nonostante il desiderio di Papalexakis di elaborare un sistema che utilizzi la minima supervisione possibile, riconosce che si tratta di una sfida che dovrà coinvolgere sia gli esseri umani che i popoli macchine.

"Lo vedo come un gioco del gatto e del topo da un punto di vista tecnologico", ha detto. “Non penso che dire “risolvere la questione” sia il modo giusto di vedere la cosa. Fornire alle persone uno strumento che possa aiutarle a comprendere aspetti particolari di un articolo è parte della soluzione. Questa soluzione sarebbe costituita da strumenti che possono aiutarti a giudicare le cose da solo, a rimanere istruito come cittadino attivo, a comprendere le cose e a leggere tra le righe. Non penso che una soluzione esclusivamente tecnologica possa essere applicata a questo problema perché molto dipende dalle persone e da come vedono le cose”.

Raccomandazioni degli editori

  • L’algoritmo supera gli esseri umani nell’individuare notizie false