L’idée derrière Wikipédia est, avouons-le, folle. Une encyclopédie en ligne remplie d’informations vérifiables, idéalement avec un minimum de biais, et pouvant être librement éditée par toute personne disposant d’une connexion Internet est une idée ridicule qui n’aurait jamais fonctionné. Pourtant, d’une manière ou d’une autre, c’est le cas.
Contenu
- Les robots à la rescousse
- Un certain degré d'autonomie
- Rendre les robots à nouveau géniaux
Dix-neuf ans ce mois-ci (il a été lancé en janvier 2001, le même mois où le président George W. Bush a pris ses fonctions), la promesse de Wikipédia d'une encyclopédie collaborative a abouti aujourd'hui à une ressource composé de plus de 40 millions d'articles dans 300 langues différentes, s'adressant à une audience de 500 millions de personnes utilisateurs mensuels. La Wikipédia en anglais ajoute à elle seule quelque 572 nouveaux articles par jour.
Vidéos recommandées
Pour tous ceux qui ont déjà parcouru la section des commentaires d’une vidéo YouTube, le fait que Wikipédia La vision utopique de la collaboration participative a connu un succès, même à distance, c'est en quelque sorte ahurissant. Il s’agit d’une réalisation imposante, qui montre comment les humains du monde entier peuvent s’unir pour créer quelque chose qui,
malgré ses défauts, est toujours aussi impressionnant.Que devons-nous remercier pour le fait que ce rêve de connaissance collective, centré sur l’humain, fonctionne? Eh bien, il s’avère que la réponse est les robots. Beaucoup, beaucoup de robots.
Les robots à la rescousse
Les robots sont apparus sur Wikipédia par nécessité. Le terme, utilisé comme raccourci pour « robot logiciel », est un outil automatisé conçu pour effectuer des tâches spécifiques. Au début de Wikipédia, cela impliquait en grande partie de lutter contre le vandalisme. Ce problème pourrait être résolu manuellement lorsque le nombre total de contributeurs actifs sur Wikipédia se compte en dizaines, voire en centaines. Mais alors que le site Internet a connu son premier boom de popularité, cela n’était plus aussi facile à réaliser. En 2007, par exemple, Wikipédia recevait plus de 180 modifications chaque minute. C’était bien trop de choses à gérer pour les éditeurs humains.
« Une chose très importante pour laquelle [les robots Wikipédia ont été créés] est de se protéger contre le vandalisme » Dr Jeff Nickerson, professeur au Stevens Institute of Technology à Hoboken, dans le New Jersey, qui a étudié les robots Wikipédia, a déclaré à Digital Trends. « Il arrive souvent que quelqu’un accède à une page Wikipédia et la dégrade. C'est comme des graffitis. Cela est devenu très ennuyeux pour les personnes qui gèrent ces pages de devoir y accéder manuellement et annuler les modifications. Il était donc logique de disposer d’un robot capable de détecter ces attaques.
Avec d’autres chercheurs du Stevens Institute of Technology, Nickerson a récemment réalisé la première analyse complète des 1 601 robots de Wikipédia. Selon cette étude, publiée dans le Actes de la revue ACM sur l'interaction homme-machine, les robots représentent environ 10 % de toutes les activités sur Wikipédia. Cela représente 88 % de l'activité de Wikidata, la plate-forme centrale de stockage des données structurées utilisées sur les différents sites Wikimédia.
Rôles des robots Wikipédia et fonctions associées | |
Générateur |
Générez des pages de redirection. Générer des pages basées sur d'autres sources |
Fixateur |
Corrigez les liens. Corriger le contenu Réparer les fichiers Corriger les paramètres dans le modèle/catégorie/infobox |
Connecteur |
Connectez Wikipédia à d'autres wikis. Connectez Wikipédia à d'autres sites |
Tagueur |
Statut de l'article de balise. Évaluation de l'article de balise Tagguer les projets Wiki Statut multimédia des balises |
Greffier |
Mettre à jour les statistiques. Documenter les données utilisateur Mettre à jour les pages de maintenance Envoyer une alerte article |
Archiveur |
Archiver le contenu. Nettoyer le bac à sable |
Protecteur |
Identifiez les violations de la politique. Identifier le spam Identifier les vandales |
Conseiller |
Fournissez des suggestions pour les projets Wiki. Fournir des suggestions aux utilisateurs Saluer les nouveaux arrivants |
Notifiant |
Envoyer des notifications aux utilisateurs |
Les recherches menées par Nickerson et ses collègues ont divisé l'activité des robots sur Wikipédia en neuf catégories différentes. Il existe, comme indiqué précédemment, des « protecteurs » dédiés à l'identification des violations de politique, du spam et des vandales. Ensuite, il y a les « réparateurs », qui vivent une vie virtuelle axée sur la réparation de liens, de contenus, de fichiers et de tout ce qui nécessite une bonne mise au point. Il existe des « taggers » pour marquer les statuts et les évaluations des articles; des « commis » pour la mise à jour des statistiques et des pages de maintenance; des « archiveurs » pour l'archivage de contenus; des « conseillers » pour accueillir les nouveaux arrivants et fournir des suggestions aux utilisateurs; « notificateurs » pour envoyer des notifications aux utilisateurs; et des « générateurs » pour créer des pages de redirection ou générer de nouveaux contenus basés sur d’autres sources.
"Leur complexité varie beaucoup", a déclaré Morten Warncke-Wang, le contrôleur actuel de SuggérerBot, un robot qui suggère aux éditeurs des articles à modifier, en fonction de leur historique de modifications précédent. « Cela dépend de la tâche pour laquelle ils sont chargés d’accomplir. »
Un certain degré d'autonomie
Nickerson était d'accord. Un bot, a-t-il suggéré, peut être n'importe quoi, depuis un algorithme relativement simple jusqu'à une IA d'apprentissage automatique plus complexe. Ce qu’ils ont en commun, dit-il, c’est un certain degré d’autonomie. Un bot est quelque chose qui est créé puis déployé pour agir selon ses ordres, un peu comme un objectif de mission délégué à un collaborateur. "[Un robot] peut effectuer seul des centaines, des milliers, parfois des millions de modifications", a déclaré Nickerson. "Ce n'est pas quelque chose qu'un éditeur humain exécute une seule fois pendant que vous êtes assis là." Les 24 meilleurs robots présents Wikipédia a effectué plus d'un million de modifications au cours de sa vie: bien plus que pratiquement tous les éditeurs humains du monde. site web.
Si l’éventail des catégories de robots ressemble, franchement, un peu à une colonie médiévale de moines – tous poursuivant le même objectif: objectif unifié d’illumination dogmatique à travers un assortiment de tâches apparemment subalternes – vous n’êtes pas entièrement faux. Le fait que le monde des robots rappelle une sorte de communauté n’est pas du tout accidentel.
N’importe qui peut développer un bot, tout comme n’importe qui peut modifier un article.
Malgré le fait que la plupart des utilisateurs occasionnels de Wikipédia n’interagiront jamais avec un robot, leur création est tout aussi collaborative que n’importe quoi sur le front-end de Wikipédia. Les robots ne sont pas mis en œuvre par Wikimédia de manière descendante. N’importe qui peut développer un bot, tout comme n’importe qui peut modifier un article. Ils le font en fonction des problèmes perçus pour lesquels ils pensent qu’un robot pourrait les aider. Pour que leur robot soit approuvé, ils doivent soumettre une demande d'approbation au BAG, le Bot Approvals Group. Si BAG considère que le robot constitue un ajout précieux au collectif, il sera approuvé pour une courte période d'essai afin de garantir qu'il fonctionne comme prévu. Ce n’est qu’après cela qu’il sera diffusé sur Wikipédia dans son ensemble.
« De nombreux éditeurs de Wikipédia ont un caractère prosocial », a déclaré Nickerson. « La plupart du temps, les gens écrivent ces robots pour eux-mêmes et les mettent ensuite à la disposition de la communauté. C’est souvent ainsi que ces robots apparaissent. Certains éditeurs effectuent une tâche dont ils réalisent qu’elle pourrait être résolue avec un robot assez simple. Ils ont les compétences nécessaires pour le construire, puis ce robot est déployé et utilisé par tout le monde.
À l’image d’une journée algorithmique « amenez votre chien au travail », le propriétaire de chaque robot est responsable de son comportement. Si vous ne répondez pas aux problèmes de comportement, votre bot sera révoqué.
Rendre les robots à nouveau géniaux
Ici, en 2020, les robots ont souvent une réputation populaire qui se situe quelque part entre les maladies vénériennes et John Wilkes Booth. Ils sont fréquemment présentés comme le remplacement d'emploi humain, influence électorale des outils conçus pour faire bien plus de mal que de bien. L’exemple de Wikipédia montre le revers de cette image. Les robots de Wikipédia sont le système immunitaire du site: des outils quasi invisibles qui aident à fournir une résistance aux infections (métaphoriques) et aux toxines, tout en renforçant le système dans le processus.
Cependant, comme le souligne Nickerson, les robots ne sont pas entièrement invisibles. Et c’est pour leur mieux. « Lorsque les gens pensent qu’ils n’ont pas reçu une bonne recommandation, ils en parlent régulièrement sur le site Web. page de bot », a-t-il déclaré, décrivant les « conseillers » et les « notificateurs » destinés à inciter les contributeurs humains à le faire. mieux. « Pour moi, c’est très intéressant. J’aimerais pouvoir modifier les flux d’actualités que je reçois [ailleurs], mais je ne peux pas. Je n’ai aucun moyen de m’adresser aux sociétés qui sélectionnent les informations pour moi et de leur dire: « Je pense que vous m’en donnez trop. ce; Je préfère en avoir plus que.’ Avoir le contrôle sur les algorithmes qui communiquent avec vous est une chose importante. Et cela semble vraiment fonctionner avec Wikipédia.
Certains robots Wiki effectuent une génération de texte simple. Le tout premier robot Wikipédia, apparu fin 2002, a été conçu pour ajouter et gérer des pages pour chaque comté et ville des États-Unis. Mais Nickerson et Morten Warncke-Wang, l'homme derrière SuggestBot, ont déclaré qu'ils ne pouvaient pas prévoir que Wikipédia confierait un jour le contrôle du site Web entièrement à des algorithmes de génération de texte. "Ils sont rarement utilisés pour créer du contenu", a déclaré Warncke-Wang. "Ils sont beaucoup plus utilisés comme outils pour gérer le développement du contenu."
À la base, Wikipédia est un effort profondément humain – et les robots sont là pour aider, pas pour gêner. Comme le dit Manfred E. Clynes et Nathan S. Kline, les deux chercheurs qui ont inventé le terme « cyborg » a écrit dans un essai influent de 1960: « Le but de la [collaboration idéale entre les humains et la machine] est de fournir un système organisationnel dans lequel les problèmes de type robotique sont résolus automatiquement et inconsciemment; laissant l’homme libre d’explorer, de créer, de penser et de ressentir.
Les robots Wikipédia suivent cet esprit. Tant que cette relation perdure, puissent-ils continuer longtemps à nous aider à trouver les informations que nous recherchons. Et empêchez les mauvais acteurs de dégrader les pages de célébrités qu’ils n’aiment pas.
Recommandations des rédacteurs
- Bot ou pas? Cette extension de navigateur identifiera le texte écrit par A.I.