Sie kennen es wahrscheinlich Deepfakes, die digital veränderten „synthetischen Medien“, die Menschen dazu verleiten können, Dinge zu sehen oder zu hören, die nie wirklich passiert sind. Kontroverse Beispiele sind wie Deepfakes für Bilderkennungs-KI. Systeme – und obwohl sie für uns nicht einmal im Geringsten seltsam aussehen, sind sie in der Lage, Maschinen völlig zu verwirren.
Inhalt
- Abwehr gegnerischer Angriffe
- Es gibt noch mehr Arbeit zu erledigen
Vor einigen Jahren, fanden Forscher des Computer Science and Artificial Intelligence Laboratory (CSAIL) des Massachusetts Institute of Technology heraus Sie könnten selbst hochentwickelte Bilderkennungsalgorithmen dazu verleiten, Objekte zu verwirren, indem sie einfach deren Oberfläche leicht verändern Textur. Dabei handelte es sich auch nicht um geringfügige Verwechslungen.
In der Demonstration der Forscher zeigten sie, dass es möglich ist, ein hochmodernes neuronales Netzwerk dazu zu bringen, eine 3D-gedruckte Schildkröte zu betrachten und stattdessen ein Gewehr zu sehen. Oder einen Baseball zu betrachten und zu dem Schluss zu kommen, dass es sich um einen Espresso handelt. Würde sich eine solche visuelle Agnosie bei einem Menschen manifestieren, wäre das eine neurologische Fallstudie, die ihren Weg in ein Buch wie den Klassiker von Oliver Sacks finden würde
Der Mann, der seine Frau mit einem Hut verwechselte.Empfohlene Videos
Kontroverse Beispiele stellen eine faszinierende Schwachstelle dar, wenn es darum geht, wie visuelle KI funktioniert. Systeme sehen die Welt. Aber sie stellen auch, wie man es von einem Fehler erwarten kann, der eine neuartige Spielzeugschildkröte mit einem Gewehr verwechselt, einen möglicherweise alarmierenden Fehler dar. Forscher haben verzweifelt versucht, herauszufinden, wie man das Problem beheben kann.
Jetzt hat eine andere Forschergruppe des MIT ein neues System entwickelt, das dabei helfen könnte, „feindlichen“ Eingaben auszuweichen. Dabei haben sie sich einen geradezu erschreckenden Anwendungsfall für gegnerische Beispiele ausgedacht, der, wenn er von Hackern umgesetzt würde, mit tödlicher Wirkung eingesetzt werden könnte.
Das Szenario sieht so aus: Autonome Autos werden immer besser darin, die Welt um sie herum wahrzunehmen. Aber was wäre, wenn die auf visuellen Eingaben basierenden Bordkameras in einem Auto plötzlich entweder absichtlich oder versehentlich nicht in der Lage wären, zu erkennen, was sich vor ihnen befindet? Die falsche Kategorisierung eines Objekts auf der Straße – etwa das Versäumnis, einen Fußgänger richtig zu identifizieren und einzuordnen – könnte möglicherweise sehr, sehr schlimm enden.
Abwehr gegnerischer Angriffe
„Unsere Gruppe arbeitet seit mehreren Jahren an der Schnittstelle von Deep Learning, Robotik und Kontrolltheorie – unter anderem arbeiten an der Nutzung von Deep RL [Reinforcement Learning], um Robotern beizubringen, sozialbewusst um Fußgänger herum zu navigieren.“ Michael Everett, ein Postdoktorand in der MIT-Abteilung für Luft- und Raumfahrt, sagte gegenüber Digital Trends. „Als wir darüber nachdachten, wie wir diese Ideen auf größere und schnellere Fahrzeuge umsetzen könnten, wurden die Sicherheits- und Robustheitsfragen zur größten Herausforderung. Wir sahen eine großartige Gelegenheit, dieses Problem im Deep Learning aus der Perspektive einer robusten Steuerung und robusten Optimierung zu untersuchen.“
Sozialbewusste Bewegungsplanung mit Deep Reinforcement Learning
Reinforcement Learning ist ein auf Versuch und Irrtum basierender Ansatz für maschinelles Lernen, der von Forschern bekanntermaßen dazu genutzt wird Bringen Sie Computer dazu, das Spielen von Videospielen zu erlernen ohne dass uns explizit beigebracht wird, wie. Der neue auf Verstärkungslernen und tiefen neuronalen Netzwerken basierende Algorithmus des Teams heißt CARRL, kurz für Certified Adversarial Robustness for Deep Reinforcement Learning. Im Wesentlichen ist es ein neurales Netzwerk mit einer zusätzlichen Portion Skepsis gegenüber dem, was es sieht.
In einer Demonstration ihrer Arbeit, die von der Ford Motor Company unterstützt wurde, bauten die Forscher einen Reinforcement-Learning-Algorithmus, der das klassische Atari-Spiel spielen kann Pong. Aber im Gegensatz zu früheren RL-Spielern führten sie in ihrer Version einen gegnerischen Angriff durch, der die KI außer Gefecht setzte. Die Einschätzung des Agenten zur Ballposition des Spiels ließ ihn vermuten, dass sie ein paar Pixel niedriger war als sie tatsächlich war War. Normalerweise würde dies die K.I. Dadurch ist der Spieler stark im Nachteil, was dazu führt, dass er wiederholt gegen den Computergegner verliert. In diesem Fall denkt der RL-Agent jedoch an alle Orte, an denen sich der Ball befindet könnte sein, und platziert dann das Paddel an einer Stelle, an der es unabhängig von der Positionsänderung nicht verfehlt.
„Diese neue Kategorie robuster Deep-Learning-Algorithmen wird von entscheidender Bedeutung sein, um vielversprechende KI-Lösungen zu entwickeln. Techniken in die reale Welt.“
Natürlich sind Spiele viel einfacher als die reale Welt, wie Everett ohne weiteres zugibt.
„In der realen Welt herrscht viel mehr Unsicherheit als in Videospielen, was auf fehlerhafte Sensoren oder gegnerische Angriffe zurückzuführen ist, was ausreichen kann, um Deep Learning auszutricksen Systeme, um gefährliche Entscheidungen zu treffen – [wie] das Aufsprühen eines Punktes auf die Straße [was dazu führen kann, dass ein selbstfahrendes Auto] auf eine andere Fahrspur ausweicht“, sagte er erklärt. „Unsere Arbeit präsentiert einen Deep-RL-Algorithmus, der nachweislich robust gegenüber unvollständigen Messungen ist. Die wichtigste Neuerung besteht darin, dass unser Algorithmus denkt, anstatt seinen Messungen blind zu vertrauen, wie es heute der Fall ist Durchläuft alle möglichen Messungen, die hätten durchgeführt werden können, und trifft eine Entscheidung, die den Worst-Case berücksichtigt Ergebnis."
In einer weiteren Demonstration zeigten sie, dass der Algorithmus in einem simulierten Fahrkontext Kollisionen vermeiden kann, selbst wenn seine Sensoren von einem Gegner angegriffen werden, der den Agenten kollidieren lassen möchte. „Diese neue Kategorie robuster Deep-Learning-Algorithmen wird von entscheidender Bedeutung sein, um vielversprechende KI-Lösungen zu entwickeln. Techniken in die reale Welt“, sagte Everett.
Es gibt noch mehr Arbeit zu erledigen
Diese Arbeit steht noch am Anfang und es muss noch mehr getan werden. Es besteht auch das potenzielle Problem, dass dies in manchen Szenarien dazu führen könnte, dass die K.I. Der Agent verhält sich zu konservativ und wird dadurch weniger effizient. Dennoch handelt es sich um eine wertvolle Forschungsarbeit, die tiefgreifende Auswirkungen auf die Zukunft haben könnte.
„[Es gibt andere Forschungsprojekte], die sich auf den Schutz vor [bestimmten Arten] von Gegnern konzentrieren, wo die Aufgabe des neuronalen Netzwerks besteht.“ „Klassifizieren Sie ein Bild und es ist entweder richtig [oder] falsch, und die Geschichte endet dort“, sagte Everett, als er nach dem klassischen Schildkröten-gegen-Gewehr-Spiel gefragt wurde Problem. „Unsere Arbeit baut auf einigen dieser Ideen auf, konzentriert sich jedoch auf das verstärkende Lernen, bei dem der Agent Maßnahmen ergreifen muss und eine Belohnung erhält, wenn er gute Leistungen erbringt. Wir beschäftigen uns also mit einer längerfristigen Frage: „Wenn ich sage, dass es sich um eine Schildkröte handelt, welche Auswirkungen hat diese Entscheidung dann auf die Zukunft?“ Und hier kann unser Algorithmus wirklich helfen. Unser Algorithmus würde über die schlimmsten zukünftigen Auswirkungen der Wahl einer Schildkröte oder eines Gewehrs nachdenken könnte ein wichtiger Schritt zur Lösung wichtiger Sicherheitsprobleme sein, wenn K.I. Die Entscheidungen der Agenten haben eine langfristige Wirkung Wirkung."
Ein Papier, das die Forschung beschreibt, ist zum Lesen im elektronischen Preprint-Repository arXiv verfügbar.
Empfehlungen der Redaktion
- Analoge KI? Es klingt verrückt, aber es könnte die Zukunft sein
- Hier erfahren Sie, was eine trendanalysierende K.I. glaubt, dass es das nächste große Ding in der Technik sein wird
- Kalifornien hat ein Blackout-Problem. Könnten riesige Flow-Batterien die Lösung sein?
- Algorithmische Architektur: Sollten wir K.I. Entwerfen Sie Gebäude für uns?
- Emotionserfassende KI ist hier, und es könnte in Ihrem nächsten Vorstellungsgespräch sein