Comment résoudre un problème comme Internet? C’est une question qui, franchement, n’aurait eu aucun sens il y a à peine un quart de siècle. Internet, avec sa capacité à diffuser à la fois des informations et des valeurs démocratiques aux quatre coins du globe, était la réponse.
Contenu
- Une voix pour les sans voix
- Accentuer le positif
- Pas de solutions faciles
Demander un remède pour Internet, c’était comme demander un remède pour guérir le cancer. Ici, en 2020, le tableau est un peu plus flou. Oui, Internet est étonnamment génial pour toutes sortes de choses. Mais cela pose aussi des problèmes, du propagation de fausses nouvelles à, eh bien, le cloaque numérique qu'est chaque section de commentaires YouTube. En d’autres termes, Internet peut être toxique de toutes sortes. Comment fait-on pour le nettoyer ?
Il n’y a pas de réponses simples ici. La censure algorithmique ou humaine est-elle la solution? Devons-nous fermer toutes les sections de commentaires sur des sujets controversés? Une plateforme privée doit-elle vraiment se sentir obligée de donner la parole à chacun? Comment le blocage des opinions marginales pour le bien public s’accorde-t-il avec le rêve d’Internet de donner la parole à chacun ?
En rapport
- Une IA analogique? Ça paraît fou, mais ça pourrait être l'avenir
- Lisez les « écritures synthétiques » étrangement belles d’un IA. qui pense que c'est Dieu
- Architecture algorithmique: Faut-il laisser l’IA concevoir des bâtiments pour nous?
Des chercheurs de l’Université Carnegie Mellon ont créé un nouvel outil fascinant qui, selon eux, pourrait aider. Il s’agit d’un algorithme d’intelligence artificielle qui fonctionne non pas en bloquant les discours négatifs, mais plutôt en mettant en évidence ou en amplifiant les « discours d’aide » pour les rendre plus faciles à trouver. Ce faisant, ils espèrent que cela contribuera à l’ambition cybertopique de faire d’Internet une voix pour donner du pouvoir aux sans-voix.
Vidéos recommandées
Une voix pour les sans voix
L'A.I. conçu par l’équipe, à partir de Carnegie Mellon Institut des technologies du langage, passe au crible les commentaires YouTube et met en évidence les commentaires qui défendent ou sympathisent, dans ce cas-ci, avec les minorités privées de leurs droits, comme la communauté Rohingya. Le peuple musulman Rohingya est soumis à une série de persécutions largement continues de la part du gouvernement du Myanmar depuis octobre 2016. La crise génocidaire a contraint plus d’un million de Rohingyas à fuir vers les pays voisins. Il s’agit d’une situation désespérée impliquant des persécutions religieuses et un nettoyage ethnique – mais vous ne le sauriez pas nécessairement à la lumière des nombreux commentaires publiés sur les réseaux sociaux locaux; écrasant le nombre de commentaires de l’autre côté de la question.
« Nous avons développé un cadre pour défendre la cause d’une minorité privée de ses droits – en l’occurrence les Rohingyas – afin de détecter automatiquement les contenus Web les soutenant. » Ashique Khudabukhsh, un scientifique du projet au département d'informatique de Carnegie Mellon, a déclaré à Digital Trends. « Nous nous sommes concentrés sur YouTube, une plateforme de médias sociaux extrêmement populaire en Asie du Sud. Nos analyses ont révélé qu’un grand nombre de commentaires à l’égard des Rohingyas étaient désobligeants à leur égard. Nous avons développé une méthode automatisée pour détecter les commentaires défendant leur cause qui autrement seraient noyés par un grand nombre de commentaires durs et négatifs.
« D’un point de vue général, notre travail diffère du travail traditionnel de détection des discours de haine où l’accent est mis sur est de bloquer le contenu négatif, [bien que ce soit] un domaine de recherche actif et très important », Khudabukhsh a continué. "En revanche, notre travail de détection des commentaires de soutien - ce que nous appelons les discours d'aide - marque une nouvelle direction dans l'amélioration de l'expérience en ligne en amplifiant les points positifs."
Pour former leur I.A. Système de filtrage, les chercheurs ont rassemblé plus d’un quart de million de commentaires sur YouTube. En utilisant une technologie de modélisation linguistique de pointe, ils ont créé un algorithme capable de parcourir ces commentaires pour mettre rapidement en évidence les commentaires du côté de la communauté Rohingya. L’analyse sémantique automatisée des commentaires des utilisateurs n’est, comme on peut s’y attendre, pas facile. Rien que dans le sous-continent indien, il existe 22 langues principales. Il existe également fréquemment des fautes d’orthographe et des variations orthographiques non standard à prendre en compte lorsqu’il s’agit d’évaluer la langue.
Accentuer le positif
Néanmoins, l'A.I. développés par l’équipe ont pu augmenter considérablement la visibilité des commentaires positifs. Plus important encore, il a pu le faire beaucoup plus rapidement qu'il ne serait possible pour un modérateur humain, qui serait incapable de parcourir manuellement de grandes quantités de commentaires en temps réel et d'épingler en particulier commentaires. Cela pourrait être particulièrement important dans les scénarios dans lesquels une partie pourrait avoir des compétences limitées dans une langue dominante, un accès limité à Internet, ou des questions plus prioritaires (lire: éviter la persécution) qui pourraient avoir préséance sur la participation à des activités en ligne. conversations.
« Et si vous ne participez pas à une discussion mondiale à votre sujet et que vous ne pouvez pas vous défendre? »
"Nous avons tous vécu l'expérience d'être cet ami qui a défendu un autre ami en son absence", a poursuivi Khudabukhsh. « Maintenant, considérez cela à l’échelle mondiale. Que se passe-t-il si vous ne participez pas à une discussion mondiale à votre sujet et ne pouvez pas vous défendre? Comment l’IA peut-elle aider dans cette situation? Nous appelons cela un problème du 21e siècle: les crises des migrants à l’ère d’un Internet omniprésent où les voix des réfugiés sont rares. À l’avenir, nous pensons que les problèmes géopolitiques, le climat et les raisons liées aux ressources pourraient déclencher de nouvelles crises migratoires et notre travail pour défendre les communautés à risque dans le monde en ligne est extrêmement important.
Mais est-il suffisant de simplement mettre en avant certaines voix minoritaires, ou s’agit-il simplement d’une version algorithmique du concept répandu toutes les quelques années consistant à lancer un média d’information qui n’annonce que de bonnes nouvelles? Peut-être d’une certaine manière, mais cela va bien au-delà de la simple mise en évidence de commentaires symboliques sans proposer de moyens de résoudre des problèmes plus larges. Dans cet esprit, les chercheurs ont déjà élargi le projet pour étudier les moyens par lesquels l’IA pourrait fonctionner. peut être utilisé pour amplifier le contenu positif dans d’autres domaines à impact social différent, mais néanmoins élevé scénarios. Un exemple est celui des discussions en ligne lors de tensions politiques accrues entre adversaires nucléaires. Ces travaux, que l’équipe présentera à la Conférence européenne sur l’intelligence artificielle (ECAI 2020) en juin, pourraient être utilisés pour aider à détecter et à présenter des contenus diffusant l’hostilité. Une technologie similaire pourrait être créée pour une multitude d’autres scénarios – avec une adaptation adaptée à chacun.
Ce sont les taux d'acceptation pour #ECAI2020 contributions:
– Articles complets: 26,8%
– Articles de surbrillance: 45 %Merci beaucoup pour les efforts que vous avez consacrés au processus d'évaluation !
– ECAI2020 (@ECAI2020) 15 janvier 2020
« Le principe de base sur la manière dont une communauté peut être aidée dépend de la communauté en question », a déclaré Khudabukhsh. « Même différentes crises de réfugiés nécessiteraient différentes conceptions de l’aide. Par exemple, dans les crises où l’apparition de maladies contagieuses constitue un problème majeur, la fourniture d’une assistance médicale peut être d’une immense aide. Pour certains groupes économiquement défavorisés, mettre en avant les réussites des membres de la communauté pourrait être un facteur de motivation. Par conséquent, chaque communauté aurait besoin de différents classificateurs de parole d’aide nuancés pour trouver automatiquement le contenu positif. Notre travail fournit un modèle pour cela.
Pas de solutions faciles
Aussi fascinant que soit ce travail, il n’existe pas de solution simple pour résoudre le problème de la parole en ligne. Une partie du défi réside dans le fait qu’Internet tel qu’il existe actuellement récompense les voix fortes. L’algorithme PageRank de Google, par exemple, classe les pages Web en fonction de leur importance perçue en comptant le nombre et la qualité des liens vers une page. Les sujets tendances sur Twitter sont dictés par ce sur quoi le plus grand nombre de personnes tweetent. Les sections de commentaires mettent fréquemment en évidence les opinions qui provoquent les réactions les plus vives.
Le nombre inimaginable de voix sur Internet peut étouffer les voix dissidentes; marginalisant souvent des voix qui, du moins en théorie, ont la même plateforme que n’importe qui d’autre.
Changer cela nécessitera bien plus qu’un simple algorithme de récurage des commentaires YouTube. Ce n’est pourtant pas un mauvais début.
Recommandations des rédacteurs
- Touche finale: comment les scientifiques donnent aux robots des sens tactiles semblables à ceux des humains
- La formule amusante: pourquoi l'humour généré par la machine est le Saint Graal de l'IA.
- I.A. n’oublie généralement rien, contrairement au nouveau système de Facebook. Voici pourquoi
- L'IA qui détecte les émotions est là, et cela pourrait être lors de votre prochain entretien d'embauche
- Mannequin du langage: comment GPT-3 inaugure discrètement l'IA. révolution