¿Cómo se resuelve un problema como Internet? Es una pregunta que, francamente, habría tenido poco sentido incluso hace un cuarto de siglo. Internet, con su capacidad para difundir información y valores democráticos a todos los rincones más remotos de la Tierra, era la respuesta.
Contenido
- Una voz para los que no tienen voz
- Acentuar lo positivo
- No hay soluciones fáciles
Pedir una cura para Internet era como pedir una cura para el cáncer. Aquí, en 2020, el panorama es un poco más confuso. Sí, Internet es sorprendentemente brillante para todo tipo de cosas. Pero también plantea problemas, desde el difusión de noticias falsas hasta, bueno, el pozo negro digital que es cada sección de comentarios de YouTube. Para decirlo de otra manera, Internet puede ser todo tipo de tóxicos. ¿Cómo lo limpiamos?
Aquí no hay respuestas simples. ¿Es la censura algorítmica o impulsada por humanos la respuesta? ¿Deberíamos cerrar todas las secciones de comentarios sobre temas controvertidos? ¿Una plataforma de propiedad privada realmente necesita sentirse obligada a dar voz a todos? ¿Cómo se relaciona el bloqueo de opiniones marginales para el bien público con el sueño de Internet de dar voz a todos?
Relacionado
- ¿IA analógica? Parece una locura, pero podría ser el futuro.
- Lea la inquietantemente hermosa "escritura sintética" de una IA. que piensa que es dios
- Arquitectura algorítmica: ¿Deberíamos dejar que la A.I. ¿Diseñar edificios para nosotros?
Investigadores de la Universidad Carnegie Mellon han creado una nueva e intrigante herramienta que creen que podría ayudar. Es un algoritmo de inteligencia artificial que no funciona bloqueando el discurso negativo, sino resaltando o amplificando el "discurso de ayuda" para que sea más fácil de encontrar. En el proceso, esperan que pueda ayudar con la ambición cibertópica de hacer de Internet una voz para empoderar a los que no tienen voz.
Vídeos recomendados
Una voz para los que no tienen voz
La IA ideado por el equipo, de Carnegie Mellon Instituto de Tecnologías del Lenguaje, analiza los comentarios de YouTube y destaca los que defienden o simpatizan, en este caso, con minorías privadas de derechos como la comunidad rohingya. El pueblo musulmán rohingya ha sido objeto de una serie de persecuciones en gran medida constantes por parte del gobierno de Myanmar desde octubre de 2016. La crisis genocida ha obligado a más de un millón de rohingyas a huir a países vecinos. Es una situación desesperada que involucra persecución religiosa y limpieza étnica, pero no necesariamente lo sabrías por muchos de los comentarios que han aparecido en las redes sociales locales; abrumador el número de comentarios desde el otro lado del problema.
"Desarrollamos un marco para defender la causa de una minoría privada de derechos, en este caso los rohingyas, para detectar automáticamente el contenido web que los apoya". Ashique Khudabukhsh, dijo a Digital Trends un científico de proyectos en el Departamento de Ciencias de la Computación de Carnegie Mellon. “Nos centramos en YouTube, una plataforma de redes sociales inmensamente popular en el sur de Asia. Nuestros análisis revelaron que una gran cantidad de comentarios sobre los rohingyas eran despectivos hacia ellos. Desarrollamos un método automatizado para detectar comentarios que defienden su causa y que, de otro modo, quedarían eclipsados por una gran cantidad de comentarios duros y negativos”.
“Desde una perspectiva de marco general, nuestro trabajo difiere del trabajo tradicional de detección de discursos de odio, donde el enfoque principal se trata de bloquear el contenido negativo, [aunque esta es] un área de investigación activa y muy importante”, Khudabukhsh continuado. "Por el contrario, nuestro trabajo de detectar comentarios de apoyo (lo que llamamos discurso de ayuda) marca una nueva dirección para mejorar la experiencia en línea amplificando los aspectos positivos".
Para entrenar su A.I. sistema de filtrado, los investigadores reunieron más de un cuarto de millón de comentarios de YouTube. Utilizando tecnología de modelado lingüístico de vanguardia, crearon un algoritmo que puede rastrear estos comentarios para resaltar rápidamente aquellos que están del lado de la comunidad rohingya. El análisis semántico automatizado de los comentarios de los usuarios, como era de esperar, no es fácil. Sólo en el subcontinente indio hay 22 lenguas principales. También es frecuente que haya que tener en cuenta errores ortográficos y variaciones ortográficas no estándar cuando se trata de evaluar el lenguaje.
Acentuar lo positivo
No obstante, la A.I. desarrollado por el equipo pudo aumentar en gran medida la visibilidad de los comentarios positivos. Más importante aún, pudo hacer esto mucho más rápido de lo que sería posible para un moderador humano. que no podrían revisar manualmente grandes cantidades de comentarios en tiempo real y fijar en particular comentarios. Esto podría ser particularmente importante en escenarios en los que una de las partes puede tener habilidades limitadas en un idioma dominante, acceso limitado a Internet, o cuestiones de mayor prioridad (léase: evitar la persecución) que podrían tener prioridad sobre la participación en actividades en línea. conversaciones.
“¿Qué pasa si no estás presente en una discusión global sobre ti y no puedes defenderte?”
“Todos hemos experimentado ser ese amigo que defendió a otro amigo en su ausencia”, continuó Khudabukhsh. “Ahora consideremos esto a escala global. ¿Qué pasa si no estás presente en una discusión global sobre ti y no puedes defenderte? ¿Cómo puede la A.I. ¿ayuda en esta situación? A esto lo llamamos un problema del siglo XXI: crisis migratorias en la era de Internet omnipresente, donde las voces de los refugiados son pocas y espaciadas. De cara al futuro, creemos que las cuestiones geopolíticas, el clima y las razones impulsadas por los recursos pueden desencadenar nuevas crisis migratorias y nuestro trabajo para defender a las comunidades en riesgo en el mundo en línea es muy importante”.
Pero, ¿es suficiente simplemente resaltar ciertas voces minoritarias, o es simplemente una versión algorítmica del concepto que se saca a relucir cada pocos años de lanzar un medio de comunicación que solo cuenta buenas noticias? Quizás en cierto modo, pero también va mucho más allá de simplemente resaltar comentarios simbólicos sin ofrecer formas de abordar problemas más amplios. Con eso en mente, los investigadores ya han ampliado el proyecto para observar formas en que la A.I. Se puede utilizar para amplificar el contenido positivo en otros sitios diferentes, pero de alto impacto social. escenarios. Un ejemplo son las discusiones en línea durante la intensificación de la tensión política entre adversarios nucleares. Este trabajo, que el equipo presentará en la Conferencia Europea sobre Inteligencia Artificial (ECAI 2020) en junio, podría utilizarse para ayudar a detectar y presentar contenidos que difundan hostilidad. Se podría crear una tecnología similar para una gran cantidad de otros escenarios, con la adaptación adecuada para cada uno.
Estas son las tasas de aceptación para #ECAI2020 contribuciones:
– Artículos completos: 26,8%
– Artículos destacados: 45%¡Muchas gracias por el esfuerzo que puso en el proceso de revisión!
—ECAI2020 (@ECAI2020) 15 de enero de 2020
"La premisa básica de cómo se puede ayudar a una comunidad depende de la comunidad en cuestión", dijo Khudabukhsh. “Incluso crisis de refugiados diferentes requerirían nociones diferentes de ayuda. Por ejemplo, en crisis en las que la aparición de enfermedades contagiosas es un problema importante, brindar asistencia médica puede ser de gran ayuda. Para algún grupo económicamente desfavorecido, resaltar las historias de éxito de personas de la comunidad podría ser un factor de motivación. Por lo tanto, cada comunidad necesitaría clasificadores de voz de ayuda diferentes y matizados para encontrar contenido positivo automáticamente. Nuestro trabajo proporciona un modelo para eso”.
No hay soluciones fáciles
Por fascinante que sea este trabajo, no existen soluciones fáciles cuando se trata de resolver el problema del habla en línea. Parte del desafío es que Internet, tal como existe actualmente, premia las voces fuertes. El algoritmo PageRank de Google, por ejemplo, clasifica las páginas web según su importancia percibida contando el número y la calidad de los enlaces a una página. Los temas de tendencia en Twitter están dictados por lo que tuitea la mayor cantidad de personas. Las secciones de comentarios frecuentemente resaltan aquellas opiniones que provocan las reacciones más fuertes.
La cantidad inimaginablemente grande de voces en Internet puede ahogar las voces disidentes; a menudo marginando voces que, al menos en teoría, tienen la misma plataforma que cualquier otra persona.
Cambiar eso requerirá mucho más que un excelente algoritmo de búsqueda de comentarios de YouTube. Aunque no es un mal comienzo.
Recomendaciones de los editores
- Toque final: cómo los científicos están dando a los robots sentidos táctiles similares a los humanos
- La fórmula divertida: por qué el humor generado por máquinas es el santo grial de la IA
- AI. No suele olvidarse de nada, pero el nuevo sistema de Facebook sí. Este es el por qué
- IA con detección de emociones está aquí, y podría estar en tu próxima entrevista de trabajo
- Supermodelo del lenguaje: cómo GPT-3 está marcando el comienzo silenciosamente de la inteligencia artificial revolución