Asystent Google 2.0 zmieni sposób, w jaki korzystamy z telefonów

Sundar Pichai stoi przed logo Google podczas Google IO 2021.
Ta historia jest częścią naszego pełnego opisu Google I/O

Urządzenia składane, takie jak Galaxy Fold I Huawei Mate X stanowią kolejną poważną zmianę w konstrukcji telefonu, ale co z następną, następną? Co zmieni sposób, w jaki wchodzimy w interakcję z naszymi telefonami, gdy skończymy je składać na pół?

Zawartość

  • Poznaj Asystenta Google 2.0
  • Przemieniający
  • Scenariusze
  • Google nie jest pierwszy
  • Kiedy to się stanie?

Polecane filmy

Google dał nam zwiastun podczas We/Wy Google 2019 prezentacja główna, która pokazała umiejętności Asystent Google gdy masa danych wymaganych do działania jest przenoszona z chmury na urządzenie. Sterowanie głosowe było już od jakiegoś czasu częścią naszych smartfonów, ale szybkość, wszechstronność i dokładność tego zaawansowanego systemu mogą zmienić reguły gry.

Poznaj Asystenta Google 2.0

Co ogłosiło Google? A wersja Asystenta Google nowej generacji obecnie znamy i kochamy z naszych telefonów z Androidem, produktów Google Nest, a nawet Android Auto. Asystent Google wykorzystuje trzy złożone algorytmy, aby rozumieć, przewidywać i reagować na to, co mówimy, co wymaga 100 GB miejsca na dane i połączenia sieciowego. Google ogłosił, że wykorzystał głębokie uczenie się do połączenia i zmniejszenia rozmiaru modeli algorytmicznych do 500 MB — a to oznacza, że ​​zmieści się na naszych telefonach i zapobiegnie opóźnieniom sieci, spowalniając reakcje i działania w dół.

Powiązany

  • Zniknięcie Pixela 3a przypomina, że ​​Google po prostu nie interesuje się sprzętem
  • Samsung One UI 2.0 zapewnia łatwiejszą obsługę jedną ręką i nieinwazyjne powiadomienia
  • Oto, jak nowy Asystent Google i Motion Sense będą działać na Pixelu 4
Asystent Google io
Julian Chokkattu/Trendy cyfrowe

Dyrektor generalny Google, Sundar Pichai, powiedział, że korzystanie z Asystenta nowej generacji jest tak szybkie, że stukanie w ekran wydaje się powolne.

„Myślę, że to zmieni przyszłość Asystenta” – powiedział Pichai.

Hiperbola? NIE. Demo był oszałamiający. Polecenia słowne były powtarzane i obejmowały ustawianie timerów, otwieranie aplikacji, przeprowadzanie wyszukiwania, wykonywanie podstawowych operacji na telefonie, a nawet robienie sobie selfie. Druga demonstracja pokazała, jak Asystent może szybko i łatwo generować oraz tworzyć odpowiedzi na wiadomości i e-maile za pomocą Zdjęć Google i wyszukiwania. Wykorzystywał ciągłą rozmowę bez wypowiadania słowa „Hej, Google, obudź się”, wraz z naturalnymi poleceniami i często w wielu aplikacjach.

Asystent Google nowej generacji: wersja demonstracyjna 2 na targach Google I/O 2019

Scott Huffman, wiceprezes Google ds. inżynierii Asystenta Google, podsumował możliwości nowego Asystenta, mówiąc: „Ta nowa generacja Asystent pozwoli Ci natychmiast obsługiwać telefon za pomocą głosu, wykonywać wiele zadań w aplikacjach i wykonywać złożone czynności, a wszystko to przy niemal zerowym czas oczekiwania."

Mówiąc najprościej, Google udostępnia narzędzia umożliwiające bezproblemową komunikację z telefonem i sprawiające, że działa on szybciej niż po dotknięciu. Może to w przyszłości zmienić sposób, w jaki korzystamy z naszych urządzeń, a nawet ogólny projekt oprogramowania i sprzętu.

Przemieniający

Zintegrowanie niezawodnej, szybkiej wersji Asystenta Google z naszymi telefonami bez konieczności połączenia sieciowego to ostatnia przeszkoda w stworzeniu urządzenia prawdziwie sterowanego głosem. Tego typu programy sterowane głosem muszą być dla nas pomocne i dopóki nie będą w stanie zrobić wszystkiego przy niewielkich lub żadnych zmianach w sposobie, w jaki się wypowiadamy, nie staną się niezbędne. Asystent na urządzeniu to ogromny krok w tym kierunku.

Szybkość jest najważniejsza, ponieważ wraz z nią przychodzi wygoda.

Niedawno Google nalegało na zmiany w sposobie przywoływania Asystenta na naszych telefonach, a wiele nowych urządzeń korzysta z krótkiego naciśnięcia klawisza uśpienia/wybudzenia, aby otworzyć Asystenta, zamiast wykonać czynność na ekranie. Wiele telefonów jest obecnie wyposażonych w dedykowany przycisk Asystenta Google również. Dzięki temu walkie-talkie możesz zadzwonić do Asystenta bez patrzenia na telefon, gotowy do działania sterowanie werbalne przez słuchawki i ma kluczowe znaczenie dla przyspieszenia i uproszczenia uruchomienia proces.

Kluczowe jest również wyeliminowanie potrzeby stosowania słów budzących, takich jak „Hej Google”, i wprowadzenie ciągłej rozmowy. Kontynuacja rozmowy jest już częścią Google Home, ale nie Asystenta w naszych telefonach, ale bez niego prędkość wymagana do prawdziwie płynnej kontroli głosowej nie byłaby możliwa. Wszystko to razem daje wgląd w plan Google, który ma pomóc nam włączyć Asystenta do naszej zwykłej rutyny telefonicznej.

Szybkość jest najważniejsza, ponieważ wraz z nią przychodzi wygoda. Bez tego jest tylko frustracja. Możesz teraz odpowiadać na wiadomości, używając dyktowania, ale najpierw musisz wykonać szereg czynności, a Asystent nie zawsze może pomóc. Korzystanie z głosu jest szybsze, pod warunkiem, że oprogramowanie jest wystarczająco dokładne i responsywne. Wygląda na to, że Asystent Google 2.0 osiągnie ten cel, a wykorzystanie naszych telefonów do czegoś więcej niż tylko podstawowe, często powtarzane zadania mogą wkrótce stać się szybsze i mniej wymagające dużego ekranu proces.

Scenariusze

Mniej intensywne korzystanie z ekranu? Zdecydowanie. Jeśli zaufamy oprogramowaniu, że zrobi to, o co go poprosimy, nawet w najbardziej podstawowej sytuacji, będziemy mniej patrzeć na nasz telefon. Możemy teraz wykonywać proste, podstawowe zadania, korzystając z Asystenta i naszego głosu; ale nie z tym samym poziomem dokładności, wszechstronności i szybkości, jak pokazano w Google I/O.

Google

To wszechstronność, której nie można przeoczyć. Wykonywanie wielu zadań po kolei, bez ręcznego przeglądania aplikacji lub dokonywania wielu wyborów na podstawie gestów, sprawi, że korzystanie z naszych telefonów będzie bardziej naturalne. To sposób, w jaki wykonujemy zadania w prawdziwym świecie i jak mówimy innym, czego od nich oczekujemy, lub komunikujemy, co mamy zamiar zrobić. To wszystko jest bardzo naturalne.

Przekwalifikowanie naszych mózgów tak, aby nie uciekały się do używania palca lub gestów na naszych telefonach, zajmie trochę czasu.

Jednak koncepcja telefonu sterowanego głosem nie jest pozbawiona problemów. Po pierwsze, wykonanie tego wszystkiego będzie wymagało pewnej praktyki. Wymaga zrozumienia, jak korzystać z głosu — od jakich poleceń może on przyjmować po zakończenie rozmowy cierpliwość i przekwalifikowanie naszych mózgów tak, aby nie uciekały się do używania palca lub gestów na naszych telefonach, zajmie trochę czasu czas.

Co więcej, będzie to wymagało od nas większej wygody w używaniu głosu do sterowania, głównie poza domem. Będzie także wymagać akceptacji faktu, że Google będzie wiedział o nas więcej i że nieostrożna rozmowa może potencjalnie spowodować problemy związane z prywatnością podczas publicznych rozmów przez telefon. Gdy zaczniemy częściej używać głosu, wszyscy będziemy musieli zachować większą czujność w kwestii tego, co udostępniamy Google i jakie działania wykonujemy publicznie.

Google nie jest pierwszy

Demo Asystenta na scenie było z pewnością najbardziej wszechstronnym i wiarygodnym przykładem tego, jak głos może zmienić sposób korzystania z telefonu, jaki widzieliśmy do tej pory; ale Google nie jest pierwszą osobą, która próbuje wykorzystać mowę do sterowania urządzeniami lub zbadać szybkość sztucznej inteligencji na urządzeniu. przetwarzanie.

Huawei doskonale wykorzystał sztuczną inteligencję w swoim urządzeniu. do rozpoznawania obrazu i innych funkcji związanych z aparatem, kiedy wprowadził procesor Kirin 970, który miał jednostka przetwarzania neuronowego (NPU) na pokładzie, gotowy do przyjęcia A.I. obciążać, zamiast pozostawiać przetwarzanie w rękach systemu opartego na chmurze. The korzyści związane z szybkością były ogromnei wyjątkowy jak na tamte czasy. Od tego czasu zaczęto demonstrować możliwości NPU w ciekawy sposób i opisz, jak to widzi sztuczna inteligencja kształtować przyszłość, podczas gdy niektórzy inni producenci mają problemy ze sztuczną inteligencją opartą na chmurze. ze słabymi wynikami.

Układ Huawei AI Kirin 970
Huaweia

Kiedy w 2017 roku Samsung wypuścił na rynek własnego wirtualnego asystenta Bixby, jego celem było stworzenie asystenta, który mógłby wykonywać wszystkie czynności, które normalnie wykonujemy za pomocą polecenia dotykowego. Injong Rhee z Samsunga powiedział Digital Trends w tamtym czasie: „To, na co patrzymy, rewolucjonizuje interfejs”. Bixby nie jest najlepszym przykładem zdolny asystent głosowy, ale przewidywania Samsunga dotyczące rewolucji, jeśli będą działać poprawnie, tak dokładny.

Kiedy to się stanie?

Teraz, gdy Google znalazł sposób na zmieszczenie 100 GB kompetentnych i złożonych modeli danych w 500 MB, jesteśmy już u progu tej sytuacji. rozwój interfejsów telefonów, aplikacji, a potencjalnie nawet projektów sprzętu, które polegają na tym, że mniej patrzymy, dotykamy i mówimy więcej. Pichai nie przesadził, nazywając ten przełom „znaczącym kamieniem milowym”.

Nie będziemy nawet musieli długo czekać, zanim będzie można to wypróbować. Huffman obiecał, że asystent nowej generacji pojawi się najpierw w nowych telefonach Pixel – czyli Piksel 4 – później w 2019 r. Asystent jest dostępny na zdecydowanej większości smartfonów z Androidem i chociaż zadebiutuje w nowym oprogramowaniu Pixel i Android Q, w przyszłości prawie na pewno więcej telefonów otrzyma tę funkcję.

Pytanie brzmi, czy jesteś gotowy na używanie głosu tak często, jak dotyk do sterowania telefonem?

Zalecenia redaktorów

  • Tryb aparatu Single Take firmy Samsung w Galaxy S21 nie jest chwytem dla początkujących
  • Asystent Google może teraz sam zarezerwować dla Ciebie bilety do kina
  • Asystent Google 2.0 jest już udostępniany, począwszy od telefonów Pixel
  • Nowy wyciek pokazuje Samsung One UI 2.0 – oparty na systemie Android 10
  • Pasek łączy JBL obsługujący Asystenta Google jest już dostępny w sprzedaży