Könnte KI-basierte Überwachung Verbrechen vorhersagen, bevor sie passieren?

Programme für künstliche Intelligenz verspreche, alles zu tun, von der Wettervorhersage bis zum Steuern autonomer Autos. Jetzt wird KI auf Videoüberwachungssysteme angewendet und verspricht, kriminelle Aktivitäten nicht durch die Erkennung laufender Straftaten zu vereiteln, sondern durch die Identifizierung eines Verbrechens – bevor es geschieht. Ziel ist es, Gewalt wie sexuelle Übergriffe zu verhindern, könnte aber z bewundernswerte Absichten einbiegen in MinderheitsberichtAlbträume im Vorfeld eines Verbrechens?

Eine solche Möglichkeit könnte wie ein Handlungsstrang aus einer Episode von erscheinen Schwarzer Spiegel, aber es ist kein Science-Fiction-Stoff mehr. Cortica, ein israelisches Unternehmen mit tiefen Wurzeln in der Sicherheit und KI-Forschung, kürzlich eine Partnerschaft gegründet in Indien mit Best Group, um die Terabytes an Datenströmen von CCTV-Kameras in öffentlichen Bereichen zu analysieren. Eines der Ziele besteht darin, die Sicherheit an öffentlichen Orten wie Stadtstraßen, Bushaltestellen und Bahnhöfen zu verbessern.

In Städten wie London und New York ist dies bei Strafverfolgungsbehörden bereits üblich Gesichtserkennung einsetzen und Nummernschildabgleich im Rahmen ihrer Videokameraüberwachung. Aber die KI von Cortica verspricht, noch viel weiter zu gehen, indem sie nach „Verhaltensanomalien“ sucht, die darauf hinweisen, dass jemand im Begriff ist, ein Gewaltverbrechen zu begehen.

Die Software basiert auf der Art militärischer und staatlicher Sicherheitsüberprüfungssysteme, die versuchen, Terroristen durch Überwachung zu identifizieren Menschen in Echtzeit auf der Suche nach sogenannten Mikroausdrücken – winzigen Zuckungen oder Manierismen, die über die Schändlichkeit einer Person hinwegtäuschen können Intentionen. Solche verräterischen Anzeichen sind so klein, dass sie einem erfahrenen Detektiv entgehen können, nicht aber dem blicklosen Auge der KI.

Bei einem Treffen in Tel Aviv vor Bekanntgabe des Deals erläuterte Mitbegründerin und COO Karina Odinaev die Software von Cortica soll Herausforderungen bei der Identifizierung von Objekten angehen, die sich nicht einfach nach traditionellen Stereotypen klassifizieren lassen. Ein Beispiel dafür beschrieb Odinaev Eckfälle (z. B. das Herunterfallen einer Ladefläche von einem LKW auf der Autobahn), die in Fahrsituationen auftreten, genau die Art von einzigartigen Ereignissen, mit denen Programme, die autonome Autos steuern, in der Lage sein müssen, damit umzugehen Zukunft.

„Dafür braucht man unbeaufsichtigtes Lernen“, sagte Odinaev. Mit anderen Worten: Die Software muss auf die gleiche Weise lernen, wie Menschen lernen.

Geht direkt ins Gehirn

Die KI-Software von Cortica Monitore Menschen in Echtzeit auf der Suche nach Mikroausdrücken – winzigen Zuckungen oder Manierismen, die über die schändlichen Absichten einer Person hinwegtäuschen können.

Um ein solches Programm zu erstellen, hat sich Cortica nicht die Mühe gemacht Route des neuronalen Netzwerks (das trotz seines Namens auf Wahrscheinlichkeiten und Computermodellen basiert und nicht darauf, wie tatsächliche Gehirne funktionieren). Stattdessen ging Cortica zur Quelle, in diesem Fall zu einem kortikalen Segment des Gehirns einer Ratte. Indem Cortica einen Teil des Gehirns ex vivo (außerhalb des Körpers) am Leben hielt und ihn mit einem Mikroelektroden-Array verband, konnte er untersuchen, wie der Kortex auf bestimmte Reize reagierte. Durch die Überwachung der elektrischen Signale konnten die Forscher bestimmte Gruppen von Neuronen, sogenannte Cliquen, identifizieren, die bestimmte Konzepte verarbeiteten. Von dort aus erstellte das Unternehmen Signaturdateien und mathematische Modelle, um die ursprünglichen Prozesse im Gehirn zu simulieren.

Das Ergebnis ist laut Cortica ein KI-Ansatz, der fortgeschrittenes Lernen ermöglicht und gleichzeitig transparent bleibt. Mit anderen Worten: Wenn dem System ein Fehler unterläuft, geht es beispielsweise fälschlicherweise davon aus, dass bald ein Aufstand ausbrechen wird oder dass ein vorausfahrendes Auto im Begriff ist, auszubrechen Aus einer Einfahrt herausfahren – Programmierer können das Problem leicht auf den Prozess oder die Signaturdatei zurückführen, die für den Fehler verantwortlich ist Beurteilung. (Vergleichen Sie dies mit sogenannten Deep-Learning-Neuronalen Netzen, bei denen es sich im Wesentlichen um Black Boxes handelt und die möglicherweise komplett neu trainiert werden müssen, wenn sie einen Fehler machen.)

Zunächst wird die autonome KI von Cortica von der Best Group in Indien eingesetzt, um die riesigen Datenmengen zu analysieren, die von Kameras an öffentlichen Orten generiert werden, um die Sicherheit und Effizienz zu verbessern. Best Group ist ein diversifiziertes Unternehmen, das sich mit der Infrastrukturentwicklung befasst und ein wichtiger Lieferant für Regierungs- und Baukunden ist. Es möchte also lernen, zu erkennen, wann alles reibungslos läuft – und wann nicht.

Eine Ausstellung, die ein Gesichtserkennungssystem für Strafverfolgungsbehörden während der NVIDIA GPU Technology Conference zeigt, die KI, Deep Learning, virtuelle Realität und autonome Maschinen präsentiert.Saul Loeb/AFP/Getty Images

Es besteht jedoch die Hoffnung, dass die Software von Cortica in Zukunft noch deutlich mehr leisten wird. Es könnte in zukünftigen Robotaxis eingesetzt werden, um das Fahrgastverhalten zu überwachen und beispielsweise sexuelle Übergriffe zu verhindern. Die Software von Cortica kann auch Daten nicht nur von Videokameras, sondern auch von Drohnen und Satelliten kombinieren. Und es kann lernen, Verhaltensunterschiede zu beurteilen, nicht nur zwischen gesetzestreuen Bürgern und ehemaligen Bürgern Kriminellen, sondern auch zwischen einem friedlichen, überfüllten Markt und einer politischen Demonstration, die kurz vor der Wende steht gewalttätig.

Solche prädiktiven Informationen würden es einer Stadt ermöglichen, Strafverfolgungsmaßnahmen in einer potenziell gefährlichen Situation einzusetzen, bevor Menschenleben verloren gehen. Allerdings kann es in den falschen Händen auch missbraucht werden. Ein despotisches Regime könnte solche Informationen beispielsweise nutzen, um abweichende Meinungen zu unterdrücken und Menschen zu verhaften, bevor sie überhaupt die Möglichkeit hatten, einen Protest zu organisieren.

Software zur Kriminalitätsvorhersage würde es einer Stadt ermöglichen, Strafverfolgungsmaßnahmen in einer potenziell gefährlichen Situation einzusetzen, bevor Menschenleben verloren gehen. Allerdings kann es in den falschen Händen auch missbraucht werden.

In New York City, während einer Demonstration, wie Corticas autonome KI auf autonome Autos angewendet wird, sagte Corticas Vizepräsident Patrick Flynn erklärte, dass das Unternehmen sich darauf konzentriert, die Software effizient und zuverlässig zu machen, um möglichst genaue Klassifizierungsdaten zu liefern möglich. Was die Kunden mit diesen Informationen machen – zum Beispiel ein Auto anhalten oder beschleunigen, um einen Unfall zu vermeiden – bleibt ihnen überlassen. Dasselbe würde für die Art und Weise gelten, wie eine Stadt oder Regierung Polizeiressourcen zuweisen könnte.

„Die politischen Entscheidungen liegen ausschließlich außerhalb des Zuständigkeitsbereichs von Cortica“, sagte Flynn.

Würden wir für mehr Sicherheit auf Privatsphäre verzichten?

Dennoch führt die Verknüpfung von KI mit Netzwerken, in denen Webcams allgegenwärtig sind, zunehmend zu Ängsten hinsichtlich der Privatsphäre und der persönlichen Freiheit. Und es sind nicht nur ausländische despotische Regierungen, über die sich die Menschen Sorgen machen.

In New Orleans hat Bürgermeister Mitch Landrieu einen Überwachungsplan zur Verbrechensbekämpfung im Wert von 40 Millionen US-Dollar vorgeschlagen, der Folgendes umfasst: Vernetzung kommunaler Kameras mit den Live-Feeds privater Webcams von Unternehmen und Einzelpersonen. Der Vorschlag hat bereits öffentliche Proteste von Einwanderern hervorgerufen, die befürchten, dass die Einwanderungsbehörden des Bundes die Kameras nutzen werden, um undokumentierte Arbeitnehmer zu jagen und abzuschieben.

Algorithmus hilft der Polizei, Verbrechen vorherzusagen | Mach | NBC-Nachrichten

In der Zwischenzeit, wie Themen, die in einem gefangen sind Schwarzer Spiegel Weltweit unterwerfen sich Verbraucher möglicherweise bereits unwissentlich einer solchen KI-gestützten Überwachung. Googles 249 $ Clip-KameraBeispielsweise nutzt es eine rudimentäre Form der KI, um automatisch Bilder aufzunehmen, wenn es etwas sieht, das es für bedeutsam hält. Amazon, dessen Alexa bereits Gegenstand von Lauschparanoia ist, hat das beliebte Video-Türklingelunternehmen Ring gekauft. GE Appliances plant außerdem, später in diesem Jahr einen mit Videokameras ausgestatteten Hub für Küchen auf den Markt zu bringen. In Europa wird Electrolux dieses Jahr einen Dampfbackofen mit integrierter Webcam vorstellen.

Während diese Technologien das Gespenst von Big Brother heraufbeschwören Wir überwachen jede unserer Bewegungen, es gibt immer noch die lobenswerte Hoffnung, dass die Verwendung ausgefeilte KI wie das Programm von Cortica könnte die Sicherheit und Effizienz verbessern und Leben retten. Man fragt sich zum Beispiel, was passiert wäre, wenn eine solche Technologie verfügbar gewesen wäre und eingesetzt worden wäre der Uber, mit dem der 19-jährige Nikolas Cruz unterwegs war, um 17 Menschen an der Marjory Stoneman Douglas High zu ermorden Schule. Dem Uber-Fahrer fiel nichts auf, was mit Cruz nicht in Ordnung war, aber hätte eine mit KI ausgestattete Kamera Mikroausdrücke erkennen können, die seine Absichten verrieten, und die Polizei alarmieren können? In der Zukunft werden wir es vielleicht herausfinden.