I.A. Un algorithme peut révéler des préjugés politiques dans les informations que vous lisez

Ici, en 2020, les internautes ont facilement accès à plus de médias d’information qu’à tout autre moment de l’histoire. Mais les choses ne sont pas parfaites. Les modèles publicitaires basés sur les clics, les bulles de filtres en ligne et la concurrence pour attirer l’attention des lecteurs signifient que les préjugés politiques sont devenus plus ancrés que jamais. Dans le pire des cas, cela peut basculer fausses nouvelles. D’autres fois, cela signifie simplement que les lecteurs reçoivent une version biaisée des événements, sans nécessairement s’en rendre compte.

Et si l’intelligence artificielle pouvait être utilisée pour analyser avec précision les préjugés politiques afin d’aider les lecteurs à mieux comprendre les biais de la source qu’ils lisent? Un tel outil pourrait éventuellement être utilisé comme une fonction de type vérification orthographique ou grammaticale, uniquement au lieu de vous informer lorsqu'un message est envoyé. un mot ou une phrase n’est pas correct, cela aurait le même effet pour la neutralité des médias d’information – qu’il s’agisse de reportages ou d’opinions pièces.

Vidéos recommandées

C'est ce que pensent les créateurs d'un nouvel algorithme développé par La presse bipartite prétend être capable de le faire. Ils ont construit une I.A. cela peut, disent-ils, prédire si le texte penche à gauche ou à droite avec une précision de plus de 96 %.

« L’IA, qui repose sur une technologie de pointe comme BERTE et XLNet prend en compte la saisie de texte et génère une valeur numérique pour indiquer le biais », a déclaré Winston Wang, rédacteur en chef de Bipartisan Press, à Digital Trends. « Nous avons utilisé une échelle de -1 à 1 pour plus de simplicité, où une valeur négative indique un biais à gauche, tandis qu'une valeur positive indique un biais à droite. La valeur absolue du résultat montre le degré de biais. Par exemple, un article avec une note de 0,8 présente un biais considérable en faveur de la droite.

Le système utilise une variété d’IA. approches, dont certains sont décrits ici. L’enthousiasme de pouvoir utiliser l’IA. car une tâche comme celle-ci ouvre la possibilité d’évaluer la couverture médiatique et d’autres contenus à une échelle qui serait impossible à des évaluateurs humains. (Et, à condition que cela fonctionne aussi bien que décrit, potentiellement avec une précision plus constante également.)

Wang a déclaré que l'équipe travaillait actuellement à la création d'un plugin pour le navigateur Chrome. Cela pourrait être utilisé pour aider à éduquer les lecteurs sur les préjugés des articles de presse qu’ils lisent. L'A.I. pourrait également potentiellement être utilisé pour de meilleurs systèmes de recommandation de contenu. Enfin, cela pourrait aider les rédacteurs à prendre conscience des préjugés dont ils ne se rendent peut-être même pas compte, les incitant ainsi à plus d’objectivité.

Tu peux Découvrez une démo de l'A.I. ici. Pour ce qu’elle vaut, cette histoire a un biais « minime ».

Recommandations des rédacteurs

  • Des robots de sécurité pourraient arriver dans une école près de chez vous
  • Une IA analogique? Ça paraît fou, mais ça pourrait être l'avenir
  • La dernière A.I. de Nvidia les résultats prouvent qu'ARM est prêt pour le centre de données
  • L’IA peut-elle battre les ingénieurs humains dans la conception de micropuces? Google le pense
  • Lisez les « écritures synthétiques » étrangement belles d’un IA. qui pense que c'est Dieu

Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde en évolution rapide de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.