Grâce à une demande d'accès à l'information et à quelques recherches plus approfondies, l'Electronic Frontier Foundation (EFF) a découvert à peu près tout. il y a tout ce qu’il faut savoir sur le sergent chatbot de l’armée américaine – y compris sur le passé de cette technologie en tant qu’outil permettant d’attraper des pédophiles et des terroristes sur le terrain. La toile. Ces révélations font partie de l’enquête en cours de l’EFF sur la manière dont l’armée interagit avec le public et collecte des informations auprès du public sur Internet.
Le sergent. Star est le porte-parole public virtuel bien connu de l'armée américaine, apparaissant sur le site Web Army Careers et les pages Facebook associées pour répondre aux questions des recrues potentielles. EFF a compilé toutes ses réponses possibles dans un document de 288 pages qui couvrent tous les aspects du service militaire et même la question de savoir si les soldats peuvent utiliser des parapluies (oui, dans certaines circonstances). Il y a aussi une page de
Statistiques d'utilisation — Le sergent. Star a participé à près de 600 000 discussions en ligne en 2013.Vidéos recommandées
Le chatbot a été introduit comme mesure de réduction des coûts en 2006, conçue pour réduire le temps que les opérateurs humains devaient consacrer aux demandes de renseignements en ligne – l'armée estime que le Sgt. Star peut faire le travail de 55 vrais recruteurs. La société derrière le robot, Next IT de Spokane à Washington, a également développé une technologie similaire pour le FBI et la CIA dans le passé. Dans ce cas, des chatbots ont été utilisés pour interagir avec des pédophiles et des terroristes présumés, à la recherche de signaux. cela indiquerait un comportement suspect et permettrait à un agent fédéral de surveiller 20 à 30 conversations à une fois.
L'EFF estime que ce type d'activité soulève des questions sur la collecte de données et la surveillance en ligne – une fois de plus, le L'équilibre entre la nécessité d'arrêter les criminels en ligne et de protéger la vie privée du citoyen ordinaire est remis en question. question. « Qu’arrive-t-il aux conversations qui ne sont pas pertinentes pour une enquête et comment les agences les éliminent-elles? les faux positifs, par exemple lorsqu'un chatbot interprète à tort une conversation inoffensive comme dangereuse? » demande Dave Maass, chercheur à l'EFF.
« Malgré toutes les bizarreries de son personnage, un utilisateur ne confondrait jamais le Sgt. Étoile pour humain – ce n’est tout simplement pas ainsi qu’il a été conçu », poursuit Maas. « On ne peut pas nécessairement en dire autant des autres robots gouvernementaux. L'armée, les forces de l'ordre et les agences de renseignement ont employé des personnes virtuelles capables de interagir avec le public et le surveiller à grande échelle, et chaque réponse en soulève bien d’autres. des questions."
Recommandations des rédacteurs
- Une faute de frappe détourne des millions de messages militaires américains vers le Mali
Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde en évolution rapide de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.