¿Podría Snap salvar Internet de las noticias falsas? Aquí está el arma secreta de la empresa

Vagelis PapalexakisUniversidad de California en Riverside

Cuando Snapchat se presentó por primera vez como parte de una clase de ingeniería mecánica de Stanford, el horrorizado asistente del curso se preguntó abiertamente si los creadores de la aplicación habían creado una aplicación de sexting. Menos de una década después, Snapchat podría ayudar a resolver uno de los mayores problemas que enfrenta la tecnología actualmente: detener el Difusión de “noticias falsas” en línea..

Contenido

  • ¿La señal de las noticias falsas?
  • Un juego del gato y el ratón para todas las edades

Con este objetivo en mente, Snap Research, la división de investigación de Snap, Inc. – recientemente donó fondos a un proyecto de la Universidad de California en Riverside, cuyo objetivo es encontrar una nueva forma de detectar noticias falsas en línea. El algoritmo que UC Riverside ha desarrollado Según se informa, es capaz de detectar noticias falsas con un impresionante nivel de precisión de hasta el 75 por ciento. Con el apoyo de Snap, esperan mejorar aún más esto.

Vídeos recomendados

"Según tengo entendido, están muy interesados ​​en comprender bien cómo se puede entender este problema y, en última instancia, resolverlo".

"Snap no es una de las primeras empresas que me vienen a la mente dado [este problema]". Vagelis Papalexakis, dijo a Digital Trends. “Sin embargo, Snap es una empresa que maneja contenidos. Según tengo entendido, están muy interesados ​​en comprender bien cómo se puede entender este problema y, en última instancia, resolverlo”.

Lo que diferencia la investigación de UC Riverside de las docenas, tal vez incluso cientos, de otros proyectos de investigación que intentan romper el ciclo de las noticias falsas es la ambición del proyecto. No es un simple bloqueador de palabras clave, ni pretende prohibir totalmente ciertas URL. Tampoco, quizás lo más interesante, esté particularmente interesado en los hechos contenidos en las historias. Esto lo distingue de los sitios web de verificación de datos como Snopes, que dependen de la evaluación y el aporte humano en lugar de una verdadera automatización.

"Realmente no confío en las anotaciones humanas", dijo Papalexakis. “No porque no confíe en los humanos, sino porque es un problema intrínsecamente difícil para el que obtener una respuesta definitiva. Nuestra motivación para esto proviene de preguntarnos cuánto podemos hacer mirando únicamente los datos y si podemos utilizar la menor cantidad posible de anotaciones humanas, si es que podemos usar alguna”.

¿La señal de las noticias falsas?

El nuevo algoritmo analiza tantas "señales" como sea posible de una noticia y las utiliza para intentar clasificar la confiabilidad del artículo. Papalexakis dijo: “¿Quién compartió el artículo? ¿Qué hashtags usaron? ¿Quien lo escribió? ¿De qué organización de noticias es? ¿Cómo se ve la página web? Estamos tratando de determinar qué factores [importan] y cuánta influencia tienen”.

Por ejemplo, el hashtag #LockHerUp no necesariamente confirma que un artículo sea una noticia falsa en sí mismo. Sin embargo, si una persona agrega este sufijo cuando comparte un artículo en Twitter, podría sugerir cierta inclinación a la historia. Si sumamos suficientes pistas, la idea es que las piezas separadas sumen un todo revelador. Para decirlo de otra manera, si camina como un pato y grazna como un pato, lo más probable es que sea un pato. O, en este caso, un pato robot ruso de extrema derecha que camina y grazna.

protesta por noticias falsas
Algoritmo de apoyo a Snapchat lucha contra las noticias falsas protesta getty2

"Nuestro interés es comprender qué sucede desde el principio y cómo podemos detectar algo en las primeras etapas antes de que comience a 'infectar' la red", continuó Papalexakis. "Ese es nuestro interés por ahora: descubrir qué podemos extraer del contenido y el contexto de un artículo en particular".

El algoritmo desarrollado por el grupo de Papalexakis utiliza algo llamado descomposición tensorial para analizar los distintos flujos de información sobre un artículo de noticias. Los tensores son cubos multidimensionales, útiles para modelar y analizar datos que tienen muchos componentes diferentes. La descomposición de tensores permite descubrir patrones en los datos al dividir un tensor en piezas elementales de información, que representan un patrón o tema en particular.

"Incluso una cantidad ridículamente pequeña de artículos comentados puede llevarnos a niveles realmente altos de precisión"

El algoritmo primero utiliza la descomposición tensorial para representar datos de tal manera que agrupe posibles noticias falsas. Luego, un segundo nivel del algoritmo conecta los artículos que se consideran cercanos entre sí. Mapear la conexión entre estos artículos se basa en un principio llamado “culpabilidad por asociación”. sugerir que las conexiones entre dos artículos significan que es más probable que sean similares a uno otro.

Después de esto, se aplica el aprendizaje automático a los gráficos. Este enfoque "semisupervisado" utiliza una pequeña cantidad de artículos que han sido categorizados por los usuarios y luego aplica este conocimiento a un conjunto de datos mucho más grande. Si bien esto todavía involucra a humanos en algún nivel, implica menos anotaciones humanas que la mayoría de los métodos alternativos para clasificar posibles noticias falsas. El nivel de precisión del 75 por ciento promocionado por los investigadores se basa en filtrar correctamente dos conjuntos de datos públicos y una colección adicional de 63.000 artículos de noticias.

"Incluso una cantidad ridículamente pequeña de artículos comentados puede llevarnos a niveles realmente altos de precisión", dijo Papalexakis. "Mucho más que tener un sistema en el que intentábamos capturar características individuales, como la lingüística u otras cosas que la gente pueda considerar erróneas".

Un juego del gato y el ratón para todas las edades

Desde una perspectiva informática, es fácil ver por qué este trabajo atraería a Vagelis Papalexakis y a los demás investigadores de UC Riverside, así como a la gente de Snapchat. Ser capaz no sólo de separar noticias falsas de noticias reales, sino también distinguir artículos de opinión sesgados de periodismo serio o artículos satíricos de La cebolla es el tipo de enigma de big data con el que sueñan los ingenieros.

Sin embargo, la pregunta más importante es cómo se utilizará este algoritmo y si, en última instancia, puede ayudar a combatir el fenómeno de las noticias falsas.

La contribución de Snap al proyecto (que equivale a un “obsequio” de 7.000 dólares y apoyo no financiero adicional) no garantiza que la empresa adoptará la tecnología en un producto comercial. Pero Papalexakis dijo que espera que la investigación eventualmente "conduzca a alguna transferencia de tecnología a la plataforma".

El objetivo final, explicó, es desarrollar un sistema que sea capaz de proporcionar a cualquier artículo lo que equivale a una puntuación de confiabilidad. En teoría, esta puntuación podría usarse para filtrar noticias falsas antes de que el usuario pueda vislumbrarlas.

Esta es una idea similar a los filtros de spam de correo electrónico con aprendizaje automático, que también aplican un sistema de puntuación basado en factores como la proporción entre imagen y texto en el cuerpo de un mensaje. Sin embargo, Papalexakis sugirió que un enfoque preferible podría ser simplemente alertar a los usuarios sobre esos historias que obtienen una puntuación alta en la categoría de posible falsificación: “y luego dejar que el usuario decida qué hacer con él."

Una buena razón para esto es el hecho de que las noticias no siempre se dividen tan claramente entre spam y spam. categorías de jamón, como lo hace el correo electrónico. Claro, algunos artículos pueden ser una pura invención, pero otros pueden ser más cuestionables: no presentan mentiras directas, pero aun así tienen la intención de guiar al lector en una dirección determinada. Eliminar estos artículos, incluso cuando podamos encontrar opiniones que entren en conflicto con las nuestras, entra en un territorio más complicado.

"Esto cae en una zona gris", continuó Papalexakis. “Está bien si podemos categorizar esto como un artículo muy sesgado. Existen diferentes categorías para lo que podríamos llamar información errónea. [Un artículo muy sesgado] puede no ser tan malo como un artículo completamente falso, pero aun así vende un punto de vista particular al lector. Tiene más matices que falso vs. no es falso."

En última instancia, a pesar del deseo de Papalexakis de idear un sistema que utilice la menor supervisión posible posible, reconoce que se trata de un desafío que tendrá que incluir tanto a humanos como a máquinas.

"Lo veo como un juego del gato y el ratón desde un punto de vista tecnológico", afirmó. “No creo que decir 'resolverlo' sea la forma correcta de verlo. Proporcionar a las personas una herramienta que pueda ayudarles a comprender aspectos particulares de un artículo es parte de la solución. Esta solución serían herramientas que pueden ayudarle a juzgar las cosas por sí mismo, a mantenerse educado como ciudadano activo, a comprender las cosas y a leer entre líneas. No creo que se pueda aplicar una solución únicamente tecnológica a este problema porque mucho depende de las personas y de cómo ven las cosas”.

Recomendaciones de los editores

  • Un algoritmo supera a los humanos a la hora de detectar noticias falsas