Grazie a una richiesta di libertà di informazione e ad ulteriori ricerche, la Electronic Frontier Foundation (EFF) ha scoperto praticamente tutto c'è da sapere sul chatbot sergeant dell'esercito americano, incluso il passato della tecnologia come strumento per catturare pedofili e terroristi sul posto Ragnatela. Le rivelazioni fanno parte dell’indagine in corso dell’EFF su come i militari interagiscono e raccolgono informazioni dal pubblico su Internet.
Sergente Star è il noto portavoce pubblico virtuale dell'esercito degli Stati Uniti, che appare sul sito web Army Careers e sulle pagine Facebook associate per rispondere alle domande di potenziali reclute. EFF ha raccolto tutte le sue possibili risposte in un documento di 288 pagine che coprono tutti gli aspetti del servizio militare e persino la questione se i soldati possono usare gli ombrelli (sì, in determinate circostanze). C'è anche una pagina di statistiche di utilizzo – Sergente. Star ha partecipato a quasi 600.000 chat online nel 2013.
Video consigliati
Il chatbot è stato introdotto come misura di riduzione dei costi nel 2006, progettato per ridurre il tempo che gli operatori umani dovevano dedicare alle richieste online: l'esercito stima che il sergente. Star può svolgere il lavoro di 55 veri reclutatori. La società dietro il bot, Next IT di Spokane a Washington, ha già sviluppato in passato una tecnologia simile per l'FBI e la CIA. In questo caso, i chatbot sono stati utilizzati per coinvolgere presunti pedofili e terroristi, alla ricerca di segnali ciò indicherebbe un comportamento sospetto e consentirebbe a un agente federale di monitorare 20-30 conversazioni una volta.
L’EFF ritiene che questo tipo di attività sollevi interrogativi sulla raccolta dei dati e sul monitoraggio online – ancora una volta, il viene richiesto un equilibrio tra la necessità di catturare i criminali online e di proteggere la privacy del cittadino comune domanda. “Cosa succede alle conversazioni che non sono rilevanti per un’indagine e come eliminano le agenzie i falsi positivi, come quando un chatbot interpreta erroneamente una conversazione benevola come pericolosa?" chiede Il ricercatore dell'EFF Dave Maass.
“Nonostante tutte le peculiarità del suo personaggio, un utente non confonderebbe mai Sgt. Star for human: non è proprio così che è stato progettato”, continua Maas. “Questo non si può necessariamente dire per altri robot governativi. Militari, forze dell'ordine e agenzie di intelligence hanno impiegato persone virtuali capaci di farlo interagendo e sorvegliando il pubblico su vasta scala, e ogni risposta ne solleva molti, molti altri domande."
Raccomandazioni degli editori
- Un errore di battitura delle e-mail indirizza erroneamente milioni di messaggi militari statunitensi al Mali
Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.