Mit Eye-Tracking können Sie Drohnen mit einem einfachen Blick steuern

Durch den menschlichen Blick gesteuertes räumliches Tasking einer autonomen MAV-Stimme

Es gibt alle möglichen seltsame und wunderbare Kontrollsysteme erfunden, um Drohnenpiloten dabei zu helfen, ihre unbemannten Luftfahrzeuge durch den Himmel zu steuern. Was jedoch ziemlich intuitiv klingt, wird in einer neuen Forschungsarbeit von Ingenieuren der New York University, der University of Pennsylvania und dem U.S. Army Research Laboratory dargelegt. Sie haben eine Methode erfunden, die es Drohnenpiloten ermöglicht Fliegen Sie mit einer Eye-Tracking-Brille. Was könnte einfacher sein?

Empfohlene Videos

„Diese Lösung bietet die Möglichkeit, neue, nicht-invasive Formen der Interaktion zwischen Mensch und Roboter zu schaffen, die es dem Menschen ermöglichen, neue 3D-Navigationswegpunkte an den Roboter zu senden Roboter in einer nicht instrumentierten Umgebung“, sagte Dr. Giuseppe Loianno, Assistenzprofessor an der New York University und Direktor des Agile Robotics and Perception Lab, gegenüber Digital Trends. „Der Benutzer kann die Drohne steuern, indem er einfach mit seinem Blick auf einen räumlichen Ort zeigt, was sich in unserem Fall von der Kopfausrichtung unterscheidet.“

Die Methode ist sowohl einfach anzuwenden als auch eigenständig. Was die Hardware angeht, erfordert es die Drohne (natürlich!), eine kleine Recheneinheit und ein Paar Tobii Pro Brille 2. Diese Blickverfolgungsbrille verfügt über eine Trägheitsmesseinheit (IMU) und eine integrierte HD-Kamera. Mithilfe intelligenter neuronaler Netzwerktechnologie und Kopfausrichtungsdaten der IMU kann die Brille erkennen, wohin der Benutzer schaut und wie weit die Drohne entfernt ist.

New Yorker Universität

Die Forscher hoffen, dass diese Technologie dazu genutzt werden könnte, Menschen mit wenig Erfahrung im Drohnenfliegen dabei zu helfen, sie sicher zu fliegen, ohne dass ein erfahrener Pilot erforderlich ist.

„Die vorgeschlagene Lösung eröffnet neue Möglichkeiten, die menschliche Aufmerksamkeit zu interpretieren und neue vorausschauende Mensch-Roboter-Schnittstellen zu schaffen“, fuhr Loianno fort. „Unser Ziel ist es, neue Wege der Interaktion zwischen Agenten zu schaffen. Insbesondere sind wir daran interessiert, ein multimodales Interaktionssetup zu entwickeln – [mit] visuellen, stimmlichen [und gestenbasierten Interaktionen] – und dem Framework mehrere Agenten hinzuzufügen. Wir möchten auch die Vorteile untersuchen, die die vorgeschlagene Lösung für Menschen mit Körper- oder Augenerkrankungen bieten kann.“

Kürzlich erschien ein Artikel mit dem Titel „Human Gaze-Driven Spatial Tasking of an Autonomous MAV“, in dem die Arbeit beschrieben wird eingereicht bei der International Conference on Robotics and Automation 2019, die im Mai stattfinden wird 2019. Achten Sie darauf, dass Ihr Blick in diese Richtung gerichtet ist!

Empfehlungen der Redaktion

  • Mit den NordicTrack iSelect-Hanteln können Sie Ihr Training mit Alexa individuell anpassen
  • Neuer Drohnenbesitzer? Schauen Sie sich dieses Video an, bevor Sie fliegen
  • Sony wird voraussichtlich in den Drohnenmarkt vordringen, um es mit dem mächtigen DJI aufzunehmen
  • Mit dem M-200 „Shield Kit“ von V-Moda können Sie das Aussehen Ihrer Kopfhörer individuell anpassen
  • Die Drohnensoftware eines kalifornischen Startups verfolgt soziale Distanzierung aus der Luft

Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.