EFF revela os segredos dos chatbots do Exército dos EUA

eff levanta a tampa segredos dos chatbots do exército dos eua sgt star

Graças a um pedido de liberdade de informação e a algumas pesquisas adicionais, a Electronic Frontier Foundation (EFF) descobriu quase tudo há o que saber sobre o sargento chatbot do Exército dos EUA – incluindo o passado da tecnologia como ferramenta para capturar pedófilos e terroristas no Rede. As revelações fazem parte da investigação em curso da EFF sobre como os militares interagem e recolhem informações do público através da Internet.

Sargento Star é o conhecido porta-voz público virtual das forças armadas dos Estados Unidos, aparecendo no site Army Careers e nas páginas associadas do Facebook para responder a perguntas de potenciais recrutas. A EFF compilou todas as suas possíveis respostas em um documento de 288 páginas que cobrem todos os aspectos do serviço militar e até mesmo a questão de saber se os soldados podem usar guarda-chuvas (sim, em determinadas circunstâncias). Há também uma página de estatísticas de utilização - Sargento. Star participou de quase 600.000 bate-papos online em 2013.

Vídeos recomendados

O chatbot foi introduzido como uma medida de redução de custos em 2006, projetado para reduzir o tempo que os operadores humanos precisavam gastar em consultas on-line – os militares estimam que o sargento. A Star pode fazer o trabalho de 55 recrutadores reais. A empresa por trás do bot, Next IT de Spokane em Washington, também já desenvolveu tecnologia semelhante para o FBI e a CIA. Neste caso, os chatbots foram usados ​​para envolver suspeitos de pedófilos e terroristas, em busca de sinais isso apontaria para comportamento suspeito e permitiria que um agente federal monitorasse de 20 a 30 conversas em uma vez.

A EFF acredita que este tipo de actividade levanta questões sobre a recolha de dados e a monitorização online – mais uma vez, o equilíbrio entre a necessidade de capturar criminosos online e proteger a privacidade do cidadão comum é necessário pergunta. “O que acontece com conversas que não são relevantes para uma investigação e como as agências eliminam descobrir os falsos positivos, como quando um chatbot interpreta erroneamente uma conversa benigna como perigosa?” pergunta Pesquisador da EFF Dave Maass.

“Apesar de todas as peculiaridades de seu personagem, um usuário nunca confundiria o sargento. Estrela para humano – não foi assim que ele foi projetado”, continua Maas. “Isso não pode necessariamente ser dito de outros bots governamentais. As agências militares, policiais e de inteligência empregaram pessoas virtuais capazes de interagindo e vigiando o público em grande escala, e cada resposta levanta muitos, muitos mais questões."

Recomendações dos Editores

  • Erro de digitação em e-mail desvia milhões de mensagens militares dos EUA para o Mali

Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.