Facebook utilise des robots pour prédire et prévenir les mauvais comportements

Malgré les nombreux efforts de Facebook, les mauvais acteurs parviennent toujours à s’infiltrer à travers ses mesures de protection et ses politiques. Le réseau social expérimente désormais une nouvelle manière de renforcer ses murs anti-spam et d’anticiper les mauvais comportements qui pourraient potentiellement violer ses protections: une armée de robots.

Facebook dit qu'il développe un nouveau système de robots capables de simuler de mauvais comportements et de tester sa plate-forme pour découvrir les défauts et les failles. Ces robots automatisés sont formés et apprennent à agir comme une vraie personne en utilisant le trésor des modèles de comportement. Facebook a acquis auprès de ses plus de deux milliards d'utilisateurs.

Vidéos recommandées

Pour garantir que cette expérience n’interfère pas avec les utilisateurs réels, Facebook a également construit une sorte de version parallèle de son réseau social. Ici, les robots sont lâchés et autorisés à se déchaîner: ils peuvent s'envoyer des messages, commenter des publications factices, envoyer des demandes d'amis, visiter des pages, etc. Plus important encore, ces I.A. les robots sont programmés pour simuler des scénarios extrêmes tels que la vente de drogues et d’armes à feu afin de tester comment les algorithmes de Facebook tenteraient de les empêcher.

En rapport

  • Les enquêtes de Facebook et Google sur les coronavirus pourraient bientôt prédire des épidémies, selon des chercheurs
  • Un bug de Facebook a provoqué le marquage d'articles valides sur le coronavirus comme spam
  • Facebook rappelle aux utilisateurs de se faire vacciner contre la grippe et limite la portée des publications anti-vax

Facebook affirme que ce nouveau système peut héberger « des milliers, voire des millions de robots ». Puisqu'il fonctionne sur le même code, les utilisateurs expérience, il ajoute que « les actions des robots sont fidèles aux effets dont seraient témoins de vraies personnes utilisant le plate-forme."

"Bien que le projet soit actuellement au stade de la recherche uniquement, nous espérons qu'un jour il nous aidera à améliorer nos services et à repérer problèmes potentiels de fiabilité ou d’intégrité avant qu’ils n’affectent de vraies personnes utilisant la plateforme. a écrit le responsable du projet, Mark Harman, dans un article de blog.

On ne sait pas encore à quel point le nouvel environnement de simulation de Facebook sera efficace. Comme Harman l’a mentionné, il n’en est encore qu’à ses débuts et la société n’a encore utilisé aucun de ses résultats pour des mises à jour destinées au public. Au cours des dernières années, le réseau social a activement investi et soutenu la recherche basée sur l'intelligence artificielle pour développer de nouveaux outils de lutte contre le harcèlement et le spam. Lors de sa conférence annuelle des développeurs il y a deux ans, Mark Zuckerberg a annoncé que l'entreprise construisait des outils d'intelligence artificielle pour lutter contre les publications contenant du contenu terroriste, des discours de haine, du spam et plus.

Recommandations des rédacteurs

  • La nouvelle recherche de Meta sur l’IA pourrait stimuler les traductions sur Facebook et Instagram
  • Facebook partage des données de localisation avec des chercheurs sur les coronavirus
  • Les données privées de certains utilisateurs de Facebook et Twitter ont été divulguées via des applications malveillantes
  • Facebook utilise Minecraft comme terrain d'entraînement pour la prochaine étape de l'IA.
  • Facebook construit des maisons virtuelles pour former l'IA. agents dans des environnements réalistes

Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde en évolution rapide de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.