Das MIT bringt selbstfahrenden Autos bei, wie man Menschen auf der Straße psychoanalysiert

Im März 2004 organisierte die US-amerikanische Defense Advanced Research Projects Agency (DARPA) eine besondere Grand Challenge-Veranstaltung, um das Versprechen – oder das Fehlen davon – selbstfahrender Autos der aktuellen Generation zu testen. Teilnehmer der weltbesten KI-Unternehmen Labore wetteiferten um einen Preis von 1 Million US-Dollar; Ihre speziell angefertigten Fahrzeuge versuchen ihr Bestes, um autonom eine 142 Meilen lange Strecke durch die kalifornische Mojave-Wüste zu befahren. Es lief nicht gut. Das „Siegerteam“ schaffte es, in mehreren Stunden nur 7,4 Meilen zurückzulegen, bevor es zitternd zum Stillstand kam. Und Feuer fangen.

Inhalt

  • Soziale Werteorientierung
  • Vorhersage des Verhaltens von Fahrern

Eineinhalb Jahrzehnte, a Es hat sich eine ganze Menge verändert. Selbstfahrende Autos haben Hunderttausende Kilometer erfolgreich auf echten Straßen zurückgelegt. Es ist unumstritten, dass Menschen in einem von einem Roboter gesteuerten Auto mit ziemlicher Sicherheit sicherer sind als in einem von einem Menschen gesteuerten. Doch auch wenn es irgendwann einen Wendepunkt geben wird, an dem jedes Auto auf der Straße autonom ist, gibt es diesen auch Es wird eine chaotische Übergangsphase geben, in der selbstfahrende Autos die Straße mit menschengesteuerten Autos teilen müssen Autos. Wissen Sie, wer in diesem Szenario wahrscheinlich die Problemparteien sein werden? Das ist richtig: die fleischigen, unberechenbaren, manchmal vorsichtigen, manchmal zu Wutausbrüchen neigenden Menschen.

xijian/Getty Images

Um dieses Problem zu lösen, haben Forscher des Computer Science and Artificial Intelligence Laboratory (CSAIL) des MIT versucht, dieses Problem zu lösen hat einen neuen Algorithmus entwickelt, der es selbstfahrenden Autos ermöglichen soll, die „sozialen Persönlichkeiten“ anderer Fahrer auf dem Auto zu klassifizieren Straße. Auf die gleiche Weise, wie Menschen (oft ohne wissenschaftliche Erkenntnisse) versuchen, die Reaktionen anderer Fahrer zu ermitteln, wenn wir uns bewegen an einer Kreuzung, sodass die autonomen Fahrzeuge versuchen herauszufinden, mit wem sie es zu tun haben, um Unfälle auf der Kreuzung zu vermeiden Straße.

Verwandt

  • Autonome Autos verwirrt durch den Nebel von San Francisco
  • Tesla hofft, dass die vollständige Betaversion des autonomen Fahrens bis Ende 2022 weltweit verfügbar sein wird
  • Mit einer Flotte autonomer Autos ist gerade etwas Seltsames passiert

„Wir haben ein System entwickelt, das Werkzeuge der Sozialpsychologie in die Entscheidungsfindung und Steuerung autonomer Fahrzeuge integriert.“ Wilko Schwarting, ein wissenschaftlicher Mitarbeiter am MIT CSAIL, sagte gegenüber Digital Trends. „Es ist in der Lage, das Verhalten von Fahrern im Hinblick darauf abzuschätzen, wie egoistisch oder selbstlos ein bestimmter Fahrer zu sein scheint. Die Fähigkeit des Systems, die sogenannte „soziale Wertorientierung“ der Fahrer abzuschätzen, ermöglicht eine bessere Vorhersage dessen, was menschliche Fahrer tun werden, und ist somit in der Lage, das Fahren sicherer zu gestalten.“

Empfohlene Videos

Soziale Werteorientierung

Im Großen und Ganzen funktionieren unsere Fahrrahmen recht gut; einem Fahrer Vorrang vor einem anderen geben, uns in Richtungsspuren aufteilen und so weiter. Aber es gibt noch viele subjektivere Momente, in denen mehrere Parteien herausfinden müssen, wie sie ihre Bemühungen koordinieren können, um ein Manöver, manchmal bei hohen Geschwindigkeiten, durchzuführen. Zu wissen, ob Sie es mit einem ungeduldigen Fahrer zu tun haben, der Sie in Stücke reißen wird, oder mit einem geduldigen, der das tut Zu warten oder Platz zu machen, kann den Unterschied zwischen einer erfolgreichen Reise und einer schweren Panne ausmachen. Die Tatsache, dass es allein in den Vereinigten Staaten jedes Jahr Hunderttausende Unfälle beim Spurwechsel, beim Einfädeln und beim Rechts- oder Linksabbiegen gibt, zeigt, dass der Mensch diese subtile Kunst nicht ganz beherrscht.

Soziale Werteorientierung ist ein Teilbereich der interdependenten Entscheidungsfindung und betrachtet die strategischen Interaktionen zwischen zwei oder mehr Menschen. Es hat seine Wurzeln in der Spieltheorie, deren Konzepte erstmals 1944 in einem Buch von Oskar Morgenstein und John von Veumann mit dem Titel „ Spieltheorie und wirtschaftliches Verhalten.

Die allgemeine Idee ist im Wesentlichen diese: Agenten haben ihre eigenen Präferenzen, die nach ihrem Nutzen (Grad der Zufriedenheit) geordnet werden können. Innerhalb dieser Parameter verhalten sie sich logisch und entsprechend ihren Präferenzen. Übertragen auf das Fahrverhalten, egal wie unvorhersehbar die Straße zur Hauptverkehrszeit erscheinen mag, durch das Wissen, wie altruistisch, Unabhängig davon, ob die Fahrer um Sie herum prosozial, egoistisch oder wettbewerbsorientiert sind, können Sie ein Verhalten vorhersagen, ohne das Sie Ihre Reise beenden werden Problem.

Sozialverhalten für autonome Fahrzeuge

Durch die Beobachtung der Fahrweise anderer Autos bewertet der MIT-Algorithmus andere Fahrer hinsichtlich der „Belohnung für andere“ vs. Skala „Belohnung für sich selbst“. Das würde bedeuten, die Mitbewohner in die Kategorien „altruistisch“, „prosozial“, „egoistisch“, „wettbewerbsorientiert“, „sadistisch“, „sadomasochistisch“, „masochistisch“ und „Märtyrer“ einzuteilen. Durch die Erkenntnis, dass sich nicht alle anderen Autos gleich verhalten, glaubt das Team, dass sich sein Modell als willkommene Ergänzung zu selbstfahrenden Autosystemen erweisen könnte.

„Wir haben das System zunächst trainiert, indem wir Straßenszenarien modelliert haben, bei denen jeder Fahrer versuchte, sein eigenes zu maximieren Nutzen und Analyse ihrer effektivsten Reaktionen im Lichte der Entscheidungen aller anderen Agenten“, sagte Schwarting. „Der Nutzen berücksichtigt, wie stark ein Fahrer seinen eigenen Nutzen gegenüber dem Nutzen eines anderen Fahrers gewichtet, gewichtet durch die SVO. Basierend auf diesem winzigen Bewegungsausschnitt anderer Autos könnte unser Algorithmus dann vorhersagen, wie sich die umliegenden Autos bei Interaktionen kooperativ, altruistisch oder egoistisch verhalten. Wir haben die Belohnungen basierend auf realen Fahrdaten mit maschinellem Lernen kalibriert und im Wesentlichen kodiert, wie viel Wert menschliche Fahrer auf Komfort, Sicherheit oder die schnelle Erreichung ihres Ziels legen.“

Vorhersage des Verhaltens von Fahrern

In Tests zeigte das Team, dass sein Algorithmus das Verhalten anderer Autos um den Faktor 25 % genauer vorhersagen konnte. Dies half dem Fahrzeug zu erkennen, wann es bei einer Linkskurve abbiegen sollte, anstatt vor einem entgegenkommenden Fahrer abzubiegen.

„Außerdem können wir je nach Szenario entscheiden, wie kooperativ oder egoistisch ein autonomes Fahrzeug sein soll“, fuhr Schwarting fort. „Überkonservatives Verhalten ist nicht immer die sicherste Option, da es bei menschlichen Fahrern zu Missverständnissen und Verwirrung führen kann.“

Autonomer Volkswagen e-Golf Prototyp Hamburg

Das Team sagt, dass der Algorithmus im Hinblick auf reale Straßentests noch nicht für die Hauptsendezeit bereit ist. Aber sie entwickeln es weiter und glauben, dass seine Anwendungsmöglichkeiten noch über die hier beschriebene hinausgehen könnten. Einerseits könnte die Beobachtung anderer Autos dazu beitragen, dass zukünftige selbstfahrende Fahrzeuge lernen, menschlichere Eigenschaften an den Tag zu legen, die für menschliche Fahrer leichter zu verstehen sind.

„[Darüber hinaus] könnte dies nicht nur für völlig selbstfahrende Autos nützlich sein, sondern auch für bestehende Autos, die wir nutzen“, sagte Schwarting. „Stellen Sie sich zum Beispiel vor, dass plötzlich ein Auto in Ihren toten Winkel gerät. Mit dem [von uns entwickelten] System erhalten Sie möglicherweise eine Warnung im Rückspiegel, dass das Auto in Ihrem toten Winkel einen aggressiven Fahrer hat, was eine besonders wertvolle Information sein könnte.“

Als nächstes hoffen die Forscher, das Modell auf Fußgänger, Fahrräder und andere Agenten anzuwenden, die in Fahrumgebungen auftauchen könnten. „Wir würden uns auch gerne mit anderen Robotersystemen befassen, die mit uns interagieren müssen, beispielsweise Haushaltsrobotern“, bemerkte Schwarting.

Empfehlungen der Redaktion

  • Volkswagen startet in den USA ein eigenes Testprogramm für selbstfahrende Autos.
  • Gerüchten zufolge könnte Apples Auto genauso viel kosten wie ein Tesla Model S
  • Ex-Apple-Mitarbeiter bekennt sich schuldig, Geheimnisse über das Apple-Auto gestohlen zu haben
  • Beamte verwirrt, als sie ein leeres selbstfahrendes Auto anhalten
  • Wie ein großer blauer Transporter aus dem Jahr 1986 den Weg für selbstfahrende Autos ebnete