RadarCat: Radarkategorisering för input och interaktion med Soli [UIST2016]
RadarCat skapades inom universitetets forskargrupp för Computer Human Interaction. Den radarbaserade sensorn som används i RadarCat härrör från Projekt Soli alpha-utvecklarsats som tillhandahålls av programmet Google Advanced Technology and Projects (ATAP). Denna sensor skapades ursprungligen för att upptäcka de minsta fingerrörelser, men RadarCat-teamet såg ännu större potential.
Rekommenderade videor
"Solis miniatyrradar öppnar upp ett brett utbud av nya former av beröringsfri interaktion. När Soli väl har implementerats i produkter kan vår RadarCat-lösning revolutionera hur människor interagerar med en dator, använda vardagliga föremål som kan hittas på kontoret eller i hemmet, för nya applikationer och nya typer av samspel,"
sa professor Aaron Quigley, ordförande för Human Computer Interaction vid universitetet.Googles Soli-chip är mindre än en fjärdedel, mäter bara 8 mm x 10 mm och packar både sensorn och antennuppsättningen. Enligt Google sänder detta chip en bred stråle av elektromagnetiska vågor. När ett objekt kommer in i dessa vågor sprids energin på ett specifikt sätt i förhållande till objektet. Således kan sensorn få specifika data från energimönstret såsom form, storlek, orientering och material.
"Soli spårar och känner igen dynamiska gester uttryckta av fina rörelser av fingrar och hand", säger Google. "För att åstadkomma detta med en enda chipsensor utvecklade vi ett nytt radaravkänningsparadigm med skräddarsydd hårdvara, mjukvara och algoritmer."
Som framgår av videon ovan är RadarCat-enheten ansluten till en Surface 3 via en USB-kabel. När användaren lägger en hand över enheten, ritar programmet på den bärbara datorn de råa radarsignalerna när de ändras medan handen rör sig upp och ner. Demonstrationen fortsätter med att skanna en smartphone, en metallplatta, ett glas vatten och mer. Maskininlärning gör det möjligt för PC: n att känna igen vad den skannar och korrekt tala om för sin mänskliga mästare vad objektet verkligen är.
Det som är intressant är att RadarCat-systemet kan se skillnad på fram och bak. Lägg märke till i videon att gruppen använder en Nexus 5-smarttelefon i demonstrationen, där RadarCat framgångsrikt identifierar telefonen med skärmen vänd nedåt och när den är vänd uppåt. Systemet gjorde samma sak med Googles 10-tums Nexus 10-surfplatta.
Enligt universitetet genomförde teamet tre tester för att visa att RadarCat fungerar. Det första testet bestod av 26 material inklusive komplexa kompositobjekt medan det andra testet bestod av 16 transparenta material med olika tjocklekar och färgämnen. Det sista testet inkluderade 10 kroppsdelar tillhandahållna av sex deltagare.
En fördel med RadarCat är att användare kan ta reda på ytterligare information om det skannade objektet. Till exempel, placera en apelsin på RadarCat och inte bara kommer den att identifiera frukten, utan kommer att ladda upp näringsinformationen under processen - och på vilket språk som helst. Systemet skulle också kunna användas i butiker så att shoppare kan jämföra smartphones.
För att se vilka andra applikationer RadarCat kan tillhandahålla, kolla in videon ovan.
Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.