Dank einer Informationsfreiheitsanfrage und weiterer Nachforschungen hat die Electronic Frontier Foundation (EFF) so ziemlich alles aufgedeckt Es gibt viel Wissenswertes über den Chatbot-Sergeant der US-Armee – einschließlich der Vergangenheit der Technologie als Werkzeug zur Ergreifung von Pädophilen und Terroristen Netz. Die Enthüllungen sind Teil der laufenden Untersuchung der EFF darüber, wie das Militär über das Internet mit der Öffentlichkeit interagiert und Informationen von ihr sammelt.
Sergeant. Star ist der bekannte virtuelle öffentliche Sprecher des US-Militärs, der auf der Army Careers-Website und zugehörigen Facebook-Seiten erscheint, um Fragen potenzieller Rekruten zu beantworten. EFF hat alle seine möglichen Antworten zusammengestellt ein 288-seitiges Dokument die alle Aspekte des Militärdienstes abdecken und sogar die Frage, ob Soldaten Regenschirme benutzen dürfen (ja, unter bestimmten Umständen). Es gibt auch eine Seite von Nutzungsstatistiken – Sergeant. Im Jahr 2013 beteiligte sich Star an fast 600.000 Online-Chats.
Empfohlene Videos
Der Chatbot wurde 2006 als Kostensenkungsmaßnahme eingeführt, um die Zeit zu reduzieren, die menschliche Bediener für Online-Anfragen aufwenden mussten – das Militär schätzt, dass Sgt. Star kann die Arbeit von 55 echten Personalvermittlern erledigen. Das Unternehmen hinter dem Bot, Next IT aus Spokane in Washington, hat in der Vergangenheit bereits ähnliche Technologien für das FBI und die CIA entwickelt. In diesem Fall wurden Chatbots eingesetzt, um mutmaßliche Pädophile und Terroristen anzusprechen und nach Signalen zu suchen Das würde auf verdächtiges Verhalten hinweisen und es einem Bundesagenten ermöglichen, 20 bis 30 Gespräche zu überwachen einmal.
EFF glaubt, dass diese Art von Aktivität Fragen zur Datenerfassung und Online-Überwachung aufwirft – wieder einmal Es muss ein Gleichgewicht zwischen der Notwendigkeit, Kriminelle online zu fassen, und dem Schutz der Privatsphäre des normalen Bürgers bestehen Frage. „Was passiert mit Gesprächen, die für eine Untersuchung nicht relevant sind, und wie beseitigen die Behörden sie?“ Fehlalarme erkennen, etwa wenn ein Chatbot ein harmloses Gespräch fälschlicherweise als gefährlich interpretiert?“ fragt EFF-Forscher Dave Maass.
„Trotz all seiner Charakter-Macken würde ein Benutzer Sgt. niemals verwechseln. Stern für Mensch – so war er einfach nicht konzipiert“, fährt Maas fort. „Das gilt nicht unbedingt für andere Regierungs-Bots. Militär, Strafverfolgungsbehörden und Geheimdienste haben virtuelle Leute eingestellt, die dazu fähig sind Wir interagieren in großem Umfang mit der Öffentlichkeit und überwachen sie, und jede Antwort wirft viele, viele weitere auf Fragen."
Empfehlungen der Redaktion
- Durch einen E-Mail-Tippfehler werden Millionen Nachrichten des US-Militärs an Mali fehlgeleitet
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.