Täuschung neuronaler Netze in der physischen Welt
In ihrem Papierbeschreibt das MIT-Forscherteam einen Algorithmus, der die Textur eines Objekts gerade so weit verändert, dass er Bildklassifizierungsalgorithmen täuschen kann. Der Beweis dessen, was das Team „kontradiktorische Beispiele“ nennt, erweist sich für Bilderkennungssysteme als verwirrend. unabhängig vom Winkel, aus dem die Objekte betrachtet werden – wie zum Beispiel die 3D-gedruckte Schildkröte, die immer als solche identifiziert wird ein Gewehr. Das sind schlechte Nachrichten für Sicherheitssysteme, die KI nutzen. zum Erkennen potenzieller Sicherheitsbedrohungen.
1 von 5
„Eigentlich vermeiden sie nicht nur die korrekte Kategorisierung – sie werden auch als auserwählte Gegner eingestuft Klasse, also hätten wir daraus alles andere machen können, wenn wir gewollt hätten“, sagte der Forscher Anish Athalye gegenüber Digital Trends. „Die Klassen Gewehr und Espresso wurden einheitlich nach dem Zufallsprinzip ausgewählt. Die kontradiktorischen Beispiele wurden mit einem Algorithmus namens Expectation Over Transformation (EOT) erstellt, der in unserer Forschungsarbeit vorgestellt wird. Der Algorithmus berücksichtigt jedes texturierte 3D-Modell, beispielsweise eine Schildkröte, und findet einen Weg, das Modell auf subtile Weise zu verändern Textur, die ein bestimmtes neuronales Netzwerk so verwirrt, dass es denkt, die Schildkröte sei ein beliebiges Ziel Klasse."
Verwandt
- Der winzige Laufroboter des MIT könnte schließlich andere, größere Roboter bauen
- Wissenschaftlern ist es gelungen, mithilfe menschlicher Zellen ein echtes Herz in 3D zu drucken
Es mag zwar lustig sein, wenn eine 3D-gedruckte Schildkröte als Gewehr erkannt wird, doch die Forscher weisen darauf hin, dass die Implikationen ziemlich erschreckend sind. Stellen Sie sich zum Beispiel ein Sicherheitssystem vor, das KI nutzt, um Waffen oder Bomben zu kennzeichnen, aber dazu verleitet werden kann, zu denken, es handele sich stattdessen um Tomaten oder Tassen Kaffee oder sogar um völlige Unsichtbarkeit. Es unterstreicht auch die Schwäche der Art von Bilderkennungssystemen, auf die selbstfahrende Autos bei hoher Geschwindigkeit angewiesen sind, um die Welt um sie herum zu erkennen.
Empfohlene Videos
„Unsere Arbeit zeigt, dass kontradiktorische Beispiele ein größeres Problem darstellen, als viele Menschen bisher dachten, und sie zeigt, dass kontradiktorische Beispiele für Neuronale Netze sind in der physischen Welt ein echtes Problem“, fuhr Athalye fort. „Dieses Problem ist nicht nur eine intellektuelle Kuriosität: Es ist ein Problem, das gelöst werden muss, damit praktische Systeme, die Deep Learning nutzen, vor Angriffen sicher sind.“
Empfehlungen der Redaktion
- Ford kann Ihre Stimme nutzen, um die Räder Ihres Autos diebstahlsicher zu machen
- Ein Durchbruch im Bioprinting könnte den 3D-Druck von Ersatzorganen ermöglichen
- Endlich gibt es eine Möglichkeit, „nicht auffindbare“ 3D-gedruckte Waffen aufzuspüren
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.