Eye-tracking låter dig kontrollera drönare med en enkel blick

click fraud protection

Human Gaze-Driven Spatial Tasking av en autonom MAV-röst

Det finns alla möjliga konstiga och underbara kontrollsystem uppfanns för att hjälpa drönarpiloter att styra sina obemannade flygfordon genom himlen. En som låter ganska intuitiv, dock, presenteras i ett nytt stycke forskning från ingenjörer vid New York University, University of Pennsylvania och U.S. Army Research Laboratory. De har uppfunnit en metod för att tillåta drönarpiloter flyga med ett par eyetracking-glasögon. Vad kan vara enklare?

Rekommenderade videor

"Denna lösning ger möjlighet att skapa nya, icke-invasiva former av interaktioner mellan en människa och robotar, vilket gör att människan kan skicka nya 3D-navigeringsvägpunkter till robot i en oinstrumenterad miljö, säger Dr Giuseppe Loianno, biträdande professor vid New York University och chef för Agile Robotics and Perception Lab, till Digital Trender. "Användaren kan styra drönaren genom att bara peka på en rumslig plats med hjälp av hans blick, som är skild från huvudets orientering i vårt fall."

Metoden är både enkel att använda och fristående. Hårdvarumässigt kräver det drönaren (uppenbarligen!), en liten beräkningsenhet och ett par Tobii Pro glasögon 2. Dessa blickföljande glasögon har en tröghetsmätningsenhet (IMU) och en inbyggd HD-kamera. Genom att använda lite smart djup neural nätverksteknik och huvudorienteringsdata från IMU, kan glasögonen upptäcka var användaren tittar och hur långt borta drönaren är.

New York University

Forskarnas förhoppning är att sådan teknik skulle kunna användas för att hjälpa människor med liten erfarenhet av drönarflygning att flyga dem säkert utan att behöva en expertpilot.

"Den föreslagna lösningen öppnar för nya sätt att tolka mänsklig uppmärksamhet och skapa nya förutseende gränssnitt mellan människa och robot," fortsatte Loianno. ”Vi strävar efter att skapa nya sätt för interaktion mellan agenter. Specifikt är vi intresserade av att utveckla en multimodal interaktionsuppsättning – [med] visuella, vokala [och gestbaserade interaktioner] – och lägga till flera agenter i ramverket. Vi skulle också [vilka] undersöka fördelarna som den föreslagna lösningen kan ge människor som drabbats av kropps- eller ögonsjukdomar."

En artikel som beskriver arbetet, med titeln "Human Gaze-Driven Spatial Tasking of an Autonomous MAV", kom nyligen lämnas till 2019 års internationella konferens om robotik och automation, som äger rum i maj 2019. Se till att hålla ögonen tränade i den riktningen!

Redaktörens rekommendationer

  • NordicTrack iSelect-hantlar låter dig anpassa ditt träningspass med Alexa
  • Ny drönareägare? Kolla in den här videon innan du flyger
  • Sony ser ut att flyga in på drönarmarknaden för att ta sig an den mäktiga DJI: n
  • V-Modas M-200 'Shield Kit' låter dig anpassa utseendet på dina hörlurar
  • California startups drönarmjukvara spårar social distansering från luften

Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.