RadarCat: categorizzazione radar per input e interazione utilizzando Soli [UIST2016]
RadarCat è stato creato all’interno del gruppo di ricerca Computer Human Interaction dell’università. Il sensore basato su radar utilizzato in RadarCat deriva da Progetto Soli kit per sviluppatori alpha fornito dal programma Google Advanced Technology and Projects (ATAP). Questo sensore è stato originariamente creato per rilevare il minimo movimento delle dita, ma il team RadarCat ha visto un potenziale ancora maggiore.
Video consigliati
“Il radar in miniatura Soli apre una vasta gamma di nuove forme di interazione senza contatto. Una volta implementato Soli nei prodotti, la nostra soluzione RadarCat può rivoluzionare il modo in cui le persone interagiscono con un computer, utilizzando oggetti di uso quotidiano che si possono trovare in ufficio o in casa, per nuove applicazioni e inedite tipologie interazione," ha detto il professor Aaron Quigley, Cattedra di Interazione Uomo-Macchina all'Università.
Il chip Soli di Google è più piccolo di un quarto, misura solo 8 mm x 10 mm e racchiude sia il sensore che l'array di antenne. Secondo Google, questo chip trasmette un ampio fascio di onde elettromagnetiche. Quando un oggetto entra in quelle onde, l'energia viene dispersa in un modo specifico rispetto all'oggetto. Pertanto, il sensore può ottenere dati specifici dal modello energetico come forma, dimensione, orientamento e materiale.
"Soli traccia e riconosce i gesti dinamici espressi dai movimenti fini delle dita e della mano", afferma Google. “Per raggiungere questo obiettivo con un sensore a chip singolo, abbiamo sviluppato un nuovo paradigma di rilevamento radar con hardware, software e algoritmi su misura”.
Come visto nel video sopra, il dispositivo RadarCat è collegato a Surface 3 tramite un cavo USB. Quando l'utente posiziona una mano sul dispositivo, il programma sul laptop disegna i segnali radar grezzi mentre cambiano mentre la mano si muove su e giù. La dimostrazione procede con la scansione di a smartphone, una piastra di metallo, un bicchiere d'acqua e altro ancora. L'apprendimento automatico consente al PC di riconoscere ciò che sta scansionando e di dire correttamente ai suoi padroni umani cosa è realmente l'oggetto.
Ciò che è interessante è che il sistema RadarCat può distinguere tra fronte e retro. Si noti nel video che il gruppo utilizza uno smartphone Nexus 5 nella dimostrazione, con RadarCat che identifica con successo il telefono con lo schermo rivolto verso il basso e quando è rivolto verso l'alto. Il sistema ha fatto la stessa cosa con il tablet Nexus 10 da 10 pollici di Google.
Secondo l'università, il team ha condotto tre test per dimostrare che RadarCat funziona. Il primo test comprendeva 26 materiali inclusi oggetti compositi complessi mentre il secondo test consisteva in 16 materiali trasparenti con spessori e coloranti variabili. Il test finale comprendeva 10 parti del corpo fornite da sei partecipanti.
Un vantaggio di RadarCat è che gli utenti possono trovare ulteriori informazioni sull'oggetto scansionato. Ad esempio, posiziona un'arancia su RadarCat e non solo identificherà il frutto, ma caricherà le informazioni nutrizionali nel processo - e in qualsiasi lingua. Il sistema potrebbe essere utilizzato anche nei negozi in modo che gli acquirenti possano confrontare gli smartphone.
Per vedere quali altre applicazioni RadarCat potrebbe fornire, guarda il video pubblicato sopra.
Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.