Google Assistant 2.0 wird die Art und Weise verändern, wie wir unsere Telefone nutzen

Sundar Pichai steht bei Google IO 2021 vor einem Google-Logo.
Diese Geschichte ist Teil unserer vollständigen Google I/O-Berichterstattung

Faltgeräte wie die Galaxy Fold Und Huawei Mate X stellen die nächste große Änderung im Telefondesign dar, aber was ist mit der nächsten, nächsten? Was wird die Art und Weise verändern, wie wir mit unseren Telefonen interagieren, wenn wir sie erst einmal in zwei Hälften gefaltet haben?

Inhalt

  • Lernen Sie Google Assistant 2.0 kennen
  • Transformativ
  • Szenarien
  • Google ist nicht der Erste
  • Wann wird es passieren?

Empfohlene Videos

Google hat uns währenddessen einen Teaser gegeben Google I/O 2019 Keynote-Präsentation, da sie das Können von demonstrierte Google Assistant wenn die für den Betrieb erforderlichen Datenmassen von der Cloud auf das Gerät verlagert werden. Die Sprachsteuerung gehört schon seit einiger Zeit zu unserem Smartphone-Erlebnis, aber die Geschwindigkeit, Vielseitigkeit und Genauigkeit dieses fortschrittlichen Systems könnten bahnbrechend sein.

Lernen Sie Google Assistant 2.0 kennen

Was hat Google angekündigt? A

nächste Generation von Google Assistant wir kennen und lieben derzeit von unseren Android-Telefonen, Google Nest-Produkten oder sogar Android Auto. Google Assistant verwendet drei komplexe Algorithmen, um das, was wir sagen, zu verstehen, vorherzusagen und darauf zu reagieren. Für den Betrieb sind 100 GB Datenspeicher und eine Netzwerkverbindung erforderlich. Google gab bekannt, dass es Deep Learning verwendet hat, um diese algorithmischen Modelle zu kombinieren und auf 500 MB zu verkleinern – und das bedeutet, dass es problemlos auf unsere Telefone passt und verhindert, dass die Netzwerklatenz Reaktionen und Aktionen verlangsamt runter.

Verwandt

  • Das Verschwinden des Pixel 3a ist eine Erinnerung daran, dass Google einfach nicht so auf Hardware steht
  • Samsung One UI 2.0 ermöglicht eine einfachere Einhandbedienung und unaufdringliche Benachrichtigungen
  • So funktionieren der neue Google Assistant und Motion Sense auf dem Pixel 4
Google io-Assistent
Julian Chokkattu/Digitale Trends

Sundar Pichai, CEO von Google, sagte, die Verwendung des Assistenten der nächsten Generation sei so schnell, dass das Tippen auf den Bildschirm langsam erscheint.

„Ich denke, dass dies die Zukunft des Assistenten verändern wird“, sagte Pichai.

Hyperbel? NEIN. Die Demo war umwerfend. Die verbalen Befehle erfolgten nacheinander und umfassten das Einstellen von Timern, das Öffnen von Apps, das Durchführen von Suchen, das Durchführen grundlegender Telefonfunktionen und sogar das Aufnehmen eines Selfies. Eine zweite Demo zeigte, wie Assistant mithilfe von Google Fotos und der Suche schnell und einfach Nachrichten und E-Mail-Antworten generieren und erstellen konnte. Es nutzte eine kontinuierliche Konversation, ohne das Aktivierungswort „Hey Google“ auszusprechen, zusammen mit natürlichen Befehlen und oft über mehrere Apps hinweg.

Google Assistant der nächsten Generation: Demo 2 auf der Google I/O 2019

Scott Huffman, Googles Vice President of Engineering für Google Assistant, fasste die Möglichkeiten des neuen Assistant zusammen und sagte: „Diese nächste Generation.“ Mit Assistant können Sie Ihr Telefon sofort mit Ihrer Stimme bedienen, mehrere Aufgaben in mehreren Apps ausführen und komplexe Aktionen ausführen – und das alles nahezu ohne Zeitverlust Latenz."

Einfach ausgedrückt: Google gibt Ihnen die Tools an die Hand, mit denen Sie sicher mit Ihrem Telefon sprechen und dafür sorgen können, dass es schneller funktioniert, als wenn Sie es berühren. Dies hat das Potenzial, die Art und Weise, wie wir unsere Geräte nutzen, und sogar das Gesamtdesign der Software und Hardware in Zukunft zu verändern.

Transformativ

Die Integration einer zuverlässigen, schnellen Version von Google Assistant in unsere Telefone, ohne dass eine Netzwerkverbindung erforderlich ist, ist die letzte Hürde für die Entwicklung eines wirklich sprachgesteuerten Geräts. Sprachgesteuerte Programme wie dieses müssen für uns hilfreich sein, und solange sie nicht alles mit nur geringen oder gar keinen Änderungen an der Art und Weise, wie wir von uns sprechen, erledigen können, werden sie nicht unverzichtbar. Der On-Device-Assistent ist ein großer Schritt in diese Richtung.

Geschwindigkeit ist alles, denn damit geht Bequemlichkeit einher.

Kürzlich hat Google auf Änderungen bei der Art und Weise gedrängt, wie wir Assistant auf unseren Telefonen aufrufen. Viele neue Geräte nutzen zum Öffnen von Assistant ein kurzes Drücken der Schlaf-/Wach-Taste und nicht eine Aktion auf dem Bildschirm. Viele Telefone sind mittlerweile auch mit einem ausgestattet spezielle Google Assistant-Schaltfläche sowie. Diese Walkie-Talkie-Aktion macht es einfacher, den Assistenten anzurufen, ohne auf das Telefon zu schauen Die verbale Kontrolle über einen Kopfhörer ist entscheidend für die Beschleunigung und Vereinfachung des Starts Verfahren.

Wichtig ist auch, die Notwendigkeit eines Weckworts wie „Hey Google“ zu beseitigen und eine kontinuierliche Konversation einzuführen. Fortsetzung des Gesprächs ist bereits Teil von Google Home, aber nicht Assistant auf unseren Telefonen, aber ohne ihn wäre die Geschwindigkeit, die für eine echte nahtlose Sprachsteuerung erforderlich ist, nicht möglich. All dies zusammengenommen gibt Ihnen einen Einblick in Googles Plan, uns dabei zu helfen, Assistant zu einem Teil unserer normalen Telefonroutine zu machen.

Geschwindigkeit ist alles, denn damit geht Bequemlichkeit einher. Ohne sie gibt es nur Frustration. Sie können jetzt per Diktat auf Nachrichten antworten, müssen jedoch zunächst eine Reihe von Schritten ausführen, und der Assistent kann nicht immer helfen. Die Verwendung von Sprache ist schneller, vorausgesetzt, die Software ist genau und reaktionsschnell genug. Google Assistant 2.0 scheint dieses Ziel zu erreichen und unsere Telefone für noch mehr zu nutzen Nicht nur grundlegende, häufig wiederholte Aufgaben werden möglicherweise schneller und weniger bildschirmintensiv Verfahren.

Szenarien

Weniger bildschirmintensiv? Definitiv. Wenn wir darauf vertrauen, dass die Software selbst in der einfachsten Situation das tut, was wir von ihr verlangen, werden wir weniger auf unser Telefon schauen. Mit Assistant und unserer Stimme können wir jetzt einfache Grundaufgaben erledigen; aber nicht mit der gleichen Genauigkeit, Vielseitigkeit und Geschwindigkeit wie gezeigt bei Google I/O.

Google

Es ist die Vielseitigkeit, die nicht übersehen werden sollte. Durch das Ausführen mehrerer Aufgaben nacheinander, ohne manuell durch Apps zu blättern oder mehrere gestenbasierte Auswahlen zu treffen, wird die Verwendung unserer Telefone natürlicher. Es geht um die Art und Weise, wie wir Aufgaben in der realen Welt ausführen und wie wir anderen sagen, was wir von ihnen erwarten, oder mitteilen, was wir gerade tun werden. Es ist alles sehr natürlich.

Es wird einige Zeit dauern, bis wir unser Gehirn so umgewöhnt haben, dass wir auf unseren Telefonen nicht mehr auf die Verwendung eines Fingers oder einer Geste zurückgreifen.

Allerdings ist das Konzept eines sprachgesteuerten Telefons nicht unproblematisch. Um all dies zu tun, ist zunächst einmal etwas Übung erforderlich. Sie müssen verstehen, wie man die Stimme nutzt – von den Befehlen, die sie annehmen kann, bis hin zum Beenden eines Gesprächs Geduld und die Umschulung unseres Gehirns, nicht auf die Verwendung eines Fingers oder einer Geste auf unseren Telefonen zurückzugreifen, werden einiges erfordern Zeit.

Darüber hinaus müssen wir uns besser mit der Steuerung per Sprache vertraut machen, vor allem außerhalb des Hauses. Es muss auch akzeptiert werden, dass Google mehr über uns weiß und dass unvorsichtiges Gerede möglicherweise zu Datenschutzproblemen führen kann, wenn man in der Öffentlichkeit mit einem Telefon telefoniert. Wir alle müssen wachsamer sein bei dem, was wir mit Google teilen und welche Aktionen wir in der Öffentlichkeit durchführen, wenn wir beginnen, die Stimme häufiger zu nutzen.

Google ist nicht der Erste

Die Assistant-Demo auf der Bühne war mit Sicherheit das umfassendste und nachvollziehbarste Beispiel dafür, wie Sprache unsere Telefonnutzung verändern kann, das wir bisher gesehen haben. Aber Google ist nicht der Erste, der versucht, die Macht der Sprache für die Gerätesteuerung zu nutzen oder die Geschwindigkeit der KI auf dem Gerät zu erforschen. wird bearbeitet.

Huawei hat die On-Device-KI hervorragend genutzt. für Bilderkennung und andere kamerabezogene Funktionen, als der Kirin 970-Prozessor vorgestellt wurde eine Neural Processing Unit (NPU) An Bord, bereit, die KI zu übernehmen. Belastung, anstatt die Verarbeitung einem Cloud-basierten System zu überlassen. Der Die Geschwindigkeitsvorteile waren enormund damals einzigartig. Seitdem wurde dies demonstriert Fähigkeit der NPU auf interessante Weise und skizzieren Sie, wie es aussieht K.I. Gestaltung der Zukunft, während einige andere Hersteller mit Cloud-gesteuerter KI zu kämpfen haben. mit schlechten Ergebnissen.

Huawei AI Kirin 970-Chip
Huawei

Als Samsung 2017 seinen eigenen virtuellen Assistenten, Bixby, auf den Markt brachte, bestand das Ziel darin, einen Assistenten zu entwickeln, der alles abdecken kann, was wir normalerweise mit einem Berührungsbefehl tun würden. Samsungs Injong Rhee sagte Digital Trends Damals: „Wir wollen die Benutzeroberfläche revolutionieren.“ Bixby ist nicht das beste Beispiel dafür ein leistungsfähiger Sprachassistent, aber Samsungs Vorhersage einer Revolution, sollte er richtig funktionieren, ist es genau.

Wann wird es passieren?

Da Google nun einen Weg gefunden hat, 100 GB kompetente und komplexe Datenmodellierung auf 500 MB zu komprimieren, stehen wir hier an der Schwelle die Entwicklung von Telefonschnittstellen, Apps und möglicherweise sogar Hardwaredesigns, die darauf angewiesen sind, dass wir weniger hinsehen, weniger berühren und weniger sprechen mehr. Pichai übertreibt nicht, als er diesen Durchbruch als „bedeutenden Meilenstein“ bezeichnet.

Wir werden nicht einmal lange warten müssen, bis es möglich sein wird, es auszuprobieren. Huffman versprach, dass der Assistent der nächsten Generation zuerst auf den neuen Pixel-Telefonen erscheinen wird – und zwar auf dem Pixel 4 – später im Jahr 2019. Der Assistent ist auf den meisten Android-Smartphones verfügbar, und obwohl er auf der neuen Pixel- und Android-Q-Software eingeführt wird, werden in Zukunft mit ziemlicher Sicherheit weitere Telefone über diese Funktion verfügen.

Die Frage ist: Sind Sie bereit, die Sprache genauso oft zu nutzen wie die Touch-Steuerung Ihres Telefons?

Empfehlungen der Redaktion

  • Der Single-Take-Kameramodus von Samsung auf dem Galaxy S21 ist kein Gimmick für Einsteiger
  • Google Assistant kann jetzt ganz alleine Kinokarten für Sie buchen
  • Google Assistant 2.0 wird jetzt eingeführt, beginnend mit Pixel-Telefonen
  • Neues Leak zeigt Samsungs One UI 2.0 – und es basiert auf Android 10
  • Die von Google Assistant unterstützte Link Bar von JBL ist jetzt zum Kauf erhältlich