RadarCat: Radarkategorisierung für Eingabe und Interaktion mit Soli [UIST2016]
RadarCat wurde innerhalb der Forschungsgruppe Computer Human Interaction der Universität entwickelt. Der in RadarCat verwendete Radarsensor stammt aus dem Projekt Soli Alpha-Entwicklerkit, bereitgestellt vom Google Advanced Technology and Projects (ATAP)-Programm. Dieser Sensor wurde ursprünglich entwickelt, um kleinste Fingerbewegungen zu erkennen, aber das RadarCat-Team sah noch größeres Potenzial.
Empfohlene Videos
„Das Soli-Miniaturradar eröffnet vielfältige neue Formen der berührungslosen Interaktion. Sobald Soli in Produkten eingesetzt wird, kann unsere RadarCat-Lösung die Art und Weise revolutionieren, wie Menschen mit einem Computer interagieren. Nutzung von Alltagsgegenständen, die im Büro oder Zuhause zu finden sind, für neue Anwendungen und neuartige Arten von Interaktion,"
sagte Professor Aaron Quigley, Lehrstuhl für Mensch-Computer-Interaktion an der Universität.Der Soli-Chip von Google ist kleiner als ein Viertel, misst nur 8 mm x 10 mm und enthält sowohl den Sensor als auch das Antennenarray. Laut Google sendet dieser Chip einen breiten Strahl elektromagnetischer Wellen. Wenn ein Objekt in diese Wellen eintritt, wird die Energie relativ zum Objekt auf eine bestimmte Weise gestreut. Somit kann der Sensor spezifische Daten aus dem Energiemuster wie Form, Größe, Ausrichtung und Material gewinnen.
„Soli verfolgt und erkennt dynamische Gesten, die durch feine Bewegungen der Finger und der Hand ausgedrückt werden“, erklärt Google. „Um dies mit einem Ein-Chip-Sensor zu erreichen, haben wir ein neuartiges Radarsensorparadigma mit maßgeschneiderter Hardware, Software und Algorithmen entwickelt.“
Wie im Video oben zu sehen ist, ist das RadarCat-Gerät über ein USB-Kabel mit einem Surface 3 verbunden. Wenn der Benutzer eine Hand über das Gerät legt, zeichnet das Programm auf dem Laptop die Rohradarsignale auf, während sie sich ändern, während sich die Hand auf und ab bewegt. Die Demonstration fährt mit dem Scannen von a fort Smartphone, eine Metallplatte, ein Glas Wasser und mehr. Maschinelles Lernen ermöglicht es dem PC, zu erkennen, was er scannt, und seinen menschlichen Meistern korrekt mitzuteilen, um welches Objekt es sich tatsächlich handelt.
Interessant ist, dass das RadarCat-System den Unterschied zwischen Vorder- und Rückseite erkennen kann. Beachten Sie im Video, dass die Gruppe in der Demonstration ein Nexus 5-Smartphone verwendet, wobei RadarCat das Telefon erfolgreich identifiziert, wenn der Bildschirm nach unten zeigt und wenn es nach oben zeigt. Dasselbe tat das System auch mit dem 10-Zoll-Tablet Nexus 10 von Google.
Nach Angaben der Universität führte das Team drei Tests durch, um zu zeigen, dass RadarCat funktioniert. Der erste Test umfasste 26 Materialien, darunter komplexe Verbundobjekte, während der zweite Test aus 16 transparenten Materialien mit unterschiedlichen Dicken und Farbstoffen bestand. Der Abschlusstest umfasste 10 Körperteile, die von sechs Teilnehmern bereitgestellt wurden.
Ein Vorteil von RadarCat besteht darin, dass Benutzer zusätzliche Informationen über das gescannte Objekt erhalten können. Platzieren Sie beispielsweise eine Orange auf RadarCat und es erkennt nicht nur die Frucht, sondern lädt dabei auch die Nährwertinformationen – und das in jeder beliebigen Sprache. Das System könnte auch in Geschäften zum Einsatz kommen, damit Käufer Smartphones vergleichen können.
Um zu sehen, welche anderen Anwendungen RadarCat bieten könnte, schauen Sie sich das oben gepostete Video an.
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.