RadarCat: Radarkategorisering for input og interaksjon med Soli [UIST2016]
RadarCat ble opprettet innenfor universitetets forskningsgruppe Computer Human Interaction. Den radarbaserte sensoren som brukes i RadarCat stammer fra Prosjekt Soli alpha-utviklersett levert av Google Advanced Technology and Projects (ATAP)-programmet. Denne sensoren ble opprinnelig laget for å oppdage de minste fingerbevegelser, men RadarCat-teamet så enda større potensiale.
Anbefalte videoer
"Soli-miniatyrradaren åpner for et bredt spekter av nye former for berøringsfri interaksjon. Når Soli er implementert i produkter, kan vår RadarCat-løsning revolusjonere hvordan folk samhandler med en datamaskin, bruke hverdagslige gjenstander som kan finnes på kontoret eller hjemme, for nye bruksområder og nye typer interaksjon,"
sa professor Aaron Quigley, styreleder for Human Computer Interaction ved universitetet.Googles Soli-brikke er mindre enn en fjerdedel, måler bare 8 mm x 10 mm og pakker både sensoren og antennegruppen. Ifølge Google sender denne brikken en bred stråle av elektromagnetiske bølger. Når et objekt kommer inn i disse bølgene, spres energien på en spesifikk måte i forhold til objektet. Dermed kan sensoren få spesifikke data fra energimønsteret som form, størrelse, orientering og materiale.
"Soli sporer og gjenkjenner dynamiske bevegelser uttrykt av fine bevegelser av fingrene og hånden," uttaler Google. "For å oppnå dette med en enkelt brikkesensor, utviklet vi et nytt radarsensorparadigme med skreddersydd maskinvare, programvare og algoritmer."
Som vist i videoen ovenfor, er RadarCat-enheten koblet til en Surface 3 via en USB-kabel. Når brukeren legger en hånd over enheten, tegner programmet på den bærbare datamaskinen de rå radarsignalene mens de endres mens hånden beveger seg opp og ned. Demonstrasjonen fortsetter med å skanne en smarttelefon, en metallplate, et glass vann og mer. Maskinlæring gjør at PC-en kan gjenkjenne hva den skanner og riktig fortelle sin menneskelige mester(e) hva objektet egentlig er.
Det som er interessant er at RadarCat-systemet kan se forskjell på foran og bak. Legg merke til i videoen at gruppen bruker en Nexus 5-smarttelefon i demonstrasjonen, der RadarCat har identifisert telefonen med skjermen vendt ned og når den vender opp. Systemet gjorde det samme med Googles 10-tommers Nexus 10-nettbrett.
Ifølge universitetet gjennomførte teamet tre tester for å vise at RadarCat fungerer. Den første testen besto av 26 materialer inkludert komplekse komposittobjekter, mens den andre testen besto av 16 transparente materialer med varierende tykkelse og fargestoffer. Den siste testen inkluderte 10 kroppsdeler levert av seks deltakere.
En fordel med RadarCat er at brukere kan finne ut tilleggsinformasjon om det skannede objektet. For eksempel, plasser en appelsin på RadarCat og ikke bare vil den identifisere frukten, men vil laste opp næringsinformasjonen i prosessen - og på et hvilket som helst språk. Systemet kan også brukes i butikker slik at shoppere kan sammenligne smarttelefoner.
For å se hvilke andre applikasjoner RadarCat kan tilby, sjekk ut videoen som er lagt ut ovenfor.
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.