RadarCat: radarcategorisatie voor invoer en interactie met Soli [UIST2016]
RadarCat is ontstaan binnen de onderzoeksgroep Computer Human Interaction van de universiteit. De radargebaseerde sensor die in RadarCat wordt gebruikt, komt voort uit de Project Sol alpha-ontwikkelaarskit geleverd door het Google Advanced Technology and Projects (ATAP)-programma. Deze sensor is oorspronkelijk gemaakt om de kleinste vingerbewegingen te detecteren, maar het RadarCat-team zag nog meer potentieel.
Aanbevolen video's
“De Soli-miniatuurradar opent een breed scala aan nieuwe vormen van contactloze interactie. Zodra Soli in producten wordt geïmplementeerd, kan onze RadarCat-oplossing een revolutie teweegbrengen in de manier waarop mensen omgaan met een computer. het gebruik van alledaagse voorwerpen die op kantoor of thuis te vinden zijn, voor nieuwe toepassingen en nieuwe soorten interactie,”
zei professor Aaron Quigley, voorzitter van Human Computer Interaction aan de universiteit.De Soli-chip van Google is kleiner dan een kwart, meet slechts 8 mm x 10 mm en bevat zowel de sensor als de antenne-array. Volgens Google zendt deze chip een brede straal elektromagnetische golven uit. Wanneer een object deze golven binnengaat, wordt de energie op een specifieke manier verspreid ten opzichte van het object. Zo kan de sensor specifieke gegevens uit het energiepatroon halen, zoals vorm, grootte, oriëntatie en materiaal.
“Soli volgt en herkent dynamische gebaren die worden uitgedrukt door fijne bewegingen van vingers en hand”, zegt Google. “Om dit met één enkele chipsensor te bereiken, hebben we een nieuw radardetectieparadigma ontwikkeld met op maat gemaakte hardware, software en algoritmen.”
Zoals te zien is in de video hierboven, is het RadarCat-apparaat via een USB-kabel verbonden met een Surface 3. Wanneer de gebruiker een hand op het apparaat legt, tekent het programma op de laptop de ruwe radarsignalen terwijl deze veranderen terwijl de hand op en neer beweegt. De demonstratie gaat verder met het scannen van a smartphone, een metalen bord, een glas water en meer. Machine learning stelt de pc in staat te herkennen wat hij scant en zijn menselijke meester(s) correct te vertellen wat het object werkelijk is.
Wat interessant is, is dat het RadarCat-systeem het verschil kan zien tussen voor- en achterkant. Merk op in de video dat de groep tijdens de demonstratie een Nexus 5-smartphone gebruikt, waarbij RadarCat de telefoon met succes identificeert met het scherm naar beneden en wanneer deze naar boven is gericht. Het systeem deed hetzelfde met de 10-inch Nexus 10-tablet van Google.
Volgens de universiteit heeft het team drie tests uitgevoerd om aan te tonen dat RadarCat werkt. De eerste test bestond uit 26 materialen, waaronder complexe samengestelde objecten, terwijl de tweede test bestond uit 16 transparante materialen met verschillende diktes en kleurstoffen. De laatste test omvatte 10 lichaamsdelen, geleverd door zes deelnemers.
Een voordeel van RadarCat is dat gebruikers aanvullende informatie over het gescande object kunnen vinden. Plaats bijvoorbeeld een sinaasappel op RadarCat en deze identificeert niet alleen het fruit, maar laadt ook de voedingsinformatie in het proces – en in elke taal. Het systeem zou ook in winkels kunnen worden gebruikt, zodat shoppers smartphones kunnen vergelijken.
Bekijk de video hierboven om te zien welke andere toepassingen RadarCat kan bieden.
Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.