Menselijke blikgestuurde ruimtelijke taakstelling van een autonome MAV-stem
Er zijn allerlei vreemde en prachtige besturingssystemen Het wordt uitgevonden om dronepiloten te helpen hun onbemande luchtvaartuigen door de lucht te loodsen. Eén die echter behoorlijk intuïtief klinkt, wordt uiteengezet in een nieuw onderzoek van ingenieurs aan de New York University, de University of Pennsylvania en het US Army Research Laboratory. Ze hebben een methode bedacht om dronepiloten dit mogelijk te maken vlieg met een eye-trackingbril. Wat kan eenvoudiger?
Aanbevolen video's
“Deze oplossing biedt de mogelijkheid om nieuwe, niet-invasieve vormen van interactie tussen mens en robot te creëren, waardoor de mens nieuwe 3D-navigatie-waypoints naar de wereld kan sturen. robot in een niet-geïnstrumenteerde omgeving”, vertelde Dr. Giuseppe Loianno, assistent-professor aan de New York University en directeur van het Agile Robotics and Perception Lab, aan Digital Trends. “De gebruiker kan de drone besturen door met zijn blik naar een ruimtelijke locatie te wijzen, wat in ons geval anders is dan de hoofdoriëntatie.”
De methode is zowel eenvoudig te gebruiken als op zichzelf staand. Qua hardware vereist het de drone (uiteraard!), een kleine rekeneenheid en een paar Tobii Pro-bril 2. Deze bril voor het volgen van de blik beschikt over een inertiële meeteenheid (IMU) en een ingebouwde HD-camera. Met behulp van slimme diepe neurale netwerktechnologie en hoofdoriëntatiegegevens van de IMU kan de bril detecteren waar de gebruiker kijkt en hoe ver weg de drone is.
De hoop van de onderzoekers is dat dergelijke technologie kan worden gebruikt om mensen met weinig drone-vliegervaring te helpen deze veilig te besturen zonder de noodzaak van een deskundige piloot.
“De voorgestelde oplossing opent nieuwe manieren om menselijke aandacht te interpreteren en nieuwe anticiperende mens-robotinterfaces te creëren”, vervolgde Loianno. “We streven ernaar nieuwe manieren van interactie tussen agenten te creëren. Concreet zijn we geïnteresseerd in het ontwikkelen van een multimodale interactieopstelling – [met] visuele, vocale [en op gebaren gebaseerde interacties] – en het toevoegen van meerdere agenten aan het raamwerk. We willen ook de voordelen onderzoeken die de voorgestelde oplossing kan bieden aan mensen die lijden aan lichaams- of oogziekten.”
Onlangs verscheen een paper waarin het werk werd beschreven, getiteld ‘Human Gaze-Driven Spatial Tasking of an Autonomous MAV’. ingediend voor de Internationale Conferentie over Robotica en Automatisering 2019, die in mei zal plaatsvinden 2019. Zorg ervoor dat je je ogen in die richting gericht houdt!
Aanbevelingen van de redactie
- Met NordicTrack iSelect-halters kunt u uw training aanpassen met Alexa
- Nieuwe drone-eigenaar? Bekijk deze video voordat u vliegt
- Sony lijkt klaar om de drone-markt te betreden om het op te nemen tegen de machtige DJI
- Met de M-200 ‘Shield Kit’ van V-Moda kunt u het uiterlijk van uw hoofdtelefoon aanpassen
- De dronesoftware van de Californische startup volgt de sociale afstand vanuit de lucht
Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.