Eye-tracking lader dig kontrollere droner med et enkelt blik

Menneskelig blik-drevet rumlig opgave af en autonom MAV-stemme

Der er alle mulige mærkelige og vidunderlige kontrolsystemer bliver opfundet for at hjælpe dronepiloter med at guide deres ubemandede luftfartøjer gennem himlen. En, der dog lyder ret intuitiv, er lagt frem i et nyt stykke forskning fra ingeniører ved New York University, University of Pennsylvania og U.S. Army Research Laboratory. De har opfundet en metode til at tillade dronepiloter flyve med et par eye-tracking-briller. Hvad kunne være enklere?

Anbefalede videoer

"Denne løsning giver mulighed for at skabe nye, ikke-invasive former for interaktioner mellem et menneske og robotter, hvilket giver mennesket mulighed for at sende nye 3D-navigations-waypoints til robot i et uinstrumenteret miljø,” fortalte Dr. Giuseppe Loianno, assisterende professor ved New York University og direktør for Agile Robotics and Perception Lab, til Digital Trends. "Brugeren kan styre dronen, der bare peger på et rumligt sted ved hjælp af sit blik, som er forskelligt fra hovedorienteringen i vores tilfælde."

Metoden er både nem at bruge og selvstændig. Med hensyn til hardware kræver det dronen (naturligvis!), en lille beregningsenhed og et par Tobii Pro-briller 2. Disse bliksporende briller kan prale af en inertimåleenhed (IMU) og et indbygget HD-kamera. Ved at bruge nogle smarte dybe neurale netværksteknologier og hovedorienteringsdata fra IMU'en er brillerne i stand til at registrere, hvor brugeren kigger, og hvor langt væk dronen er.

New York University

Forskernes håb er, at en sådan teknologi kan bruges til at hjælpe folk med lidt droneflyvningserfaring til sikkert at flyve dem uden behov for en ekspertpilot.

"Den foreslåede løsning åbner op for nye måder at fortolke menneskelig opmærksomhed og skabe nye anticipative menneske-robot-grænseflader," fortsatte Loianno. ”Vi sigter mod at skabe nye måder at interagere mellem agenter på. Specifikt er vi interesserede i at udvikle en multimodal interaktionsopsætning - [med] visuelle, vokale [og gestus-baserede interaktioner] - og tilføje flere agenter i rammen. Vi vil også [gerne] undersøge de fordele, som den foreslåede løsning kan give til mennesker, der er ramt af krops- eller øjensygdomme."

Et papir, der beskriver værket med titlen "Human Gaze-Driven Spatial Tasking of an Autonomous MAV", blev for nylig indsendt til 2019 International Conference on Robotics and Automation, som finder sted i maj 2019. Sørg for at holde dine øjne trænet i den retning!

Redaktørens anbefalinger

  • NordicTrack iSelect håndvægte lader dig tilpasse din træning med Alexa
  • Ny drone ejer? Tjek denne video, før du flyver
  • Sony ser ud til at flyve ind på dronemarkedet for at tage imod den mægtige DJI
  • V-Modas M-200 'Shield Kit' giver dig mulighed for at tilpasse udseendet af dine hovedtelefoner
  • Californiens startups dronesoftware sporer social distancering fra luften

Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.