のような折りたたみデバイス ギャラクシーフォールド そして ファーウェイメイトX 携帯電話の設計における次の大きな変更を表していますが、その次、その次はどうでしょうか? 携帯電話を半分に折りたたんだ後、私たちの携帯電話とのやり取りの方法はどう変わるでしょうか?
コンテンツ
- Google アシスタント 2.0 をご紹介します
- 変革的
- シナリオ
- Googleが最初ではない
- それはいつ起こりますか?
おすすめ動画
Google は、この期間中にティーザーを提供しました。 Google I/O 2019 基調講演では、 Googleアシスタント 動作に必要な大量のデータがクラウドからデバイスに移されるとき。 音声コントロールはしばらくの間、私たちのスマートフォン体験の一部でしたが、この高度なシステムの速度、多用途性、正確さはゲームチェンジャーとなる可能性があります。
Google アシスタント 2.0 をご紹介します
Googleは何を発表しましたか? あ Google アシスタントの次世代バージョン 私たちは現在、Android スマートフォン、Google Nest 製品、さらには Android Auto をよく知っており、愛用しています。 Google アシスタントは 3 つの複雑なアルゴリズムを使用して、ユーザーの発言を理解し、予測し、それに基づいて行動します。その動作には 100 GB のデータ ストレージとネットワーク接続が必要です。 Googleは、ディープラーニングを使用してこれらのアルゴリズムモデルを結合し、500MBまで縮小したと発表した。 つまり、私たちの携帯電話にうまくフィットし、応答やアクションを遅くするネットワーク遅延を防ぐことができます。 下。
関連している
- Pixel 3a の消滅は、Google がハードウェアにそれほど興味がないことを思い出させます
- Samsung One UI 2.0 により、片手で簡単に使用でき、通知が煩わしくない
- 新しい Google アシスタントと Motion Sense が Pixel 4 でどのように機能するかは次のとおりです。
Google CEOのサンダー・ピチャイ氏は、次世代アシスタントの使用が非常に速いため、画面をタップするのが遅く感じると述べた。
「これはアシスタントの未来を変えることになると思います」とピチャイ氏は語った。
誇張? いいえ。 デモ 衝撃的でした。 口頭命令は連続して行われ、タイマーの設定、アプリの起動、検索の実行、電話の基本的な操作、さらには自撮り写真の撮影なども含まれていました。 2 番目のデモでは、アシスタントが Google フォトと検索を使用して、メッセージや電子メールの返信を迅速かつ簡単に生成および作成する方法を示しました。 これは、Hey Google ウェイク ワードを言わずに、自然なコマンドとともに継続的な会話を使用し、多くの場合、複数のアプリ間で行われました。
次世代 Google アシスタント: Google I/O 2019 でのデモ 2
GoogleのGoogleアシスタントエンジニアリング担当バイスプレジデントであるスコット・ハフマン氏は、新しいアシスタントができることを次のように要約した。 アシスタントを使用すると、音声で瞬時に携帯電話を操作したり、アプリ間でマルチタスクを実行したり、複雑なアクションを完了したりすることが、ほぼゼロで実現します。 待ち時間。」
簡単に言えば、Google は、自信を持って携帯電話に話しかけ、タッチするよりも速く動作させるためのツールを提供しています。 これは、将来的にはデバイスの使用方法、さらにはソフトウェアとハードウェアの全体的な設計を変える可能性があります。
変革的
ネットワーク接続を必要とせずに、信頼性の高い高速バージョンの Google アシスタントを携帯電話に統合することは、真の音声操作デバイスを作成するための最後のハードルです。 このような音声制御プログラムは、私たちが使用するのに役立つ必要があり、私たちの話し方をほとんど、またはまったく変更せずにすべてを実行できるようになるまでは、不可欠なものにはなりません。 オンデバイス アシスタントは、これに向けた大きな一歩です。
スピードがすべてなので、スピードには利便性が伴います。
最近、Google はスマートフォンでアシスタントを呼び出す方法の変更を推進しており、多くの新しいデバイスでは、画面上のアクションではなく、スリープ/ウェイク キーを短く押してアシスタントを開くようになっています。 現在、多くの携帯電話には 専用のGoogleアシスタントボタン 同じように。 このトランシーバー アクションにより、電話を見ずにアシスタントに簡単に電話をかけることができ、いつでも簡単に電話をかけることができます。 ヘッドフォンを介して口頭で制御でき、起動のスピードアップと簡素化に非常に重要です。 プロセス。
「Hey Google」などのウェイクワードの必要性をなくし、継続的な会話を導入することも重要です。 会話の継続 はすでに Google Home の一部ですが、携帯電話のアシスタントには含まれていません。しかし、これなしでは真のシームレスな音声制御に必要な速度は実現できません。 これらすべてを組み合わせると、アシスタントを通常の電話ルーチンの一部にするための Google の計画がわかります。
スピードがすべてなので、スピードには利便性が伴います。 それがなければ、フラストレーションだけが残ります。 ディクテーションを使用してメッセージに返信できるようになりましたが、最初に一連の手順を実行する必要があり、アシスタントが常にサポートしてくれるわけではありません。 ソフトウェアの精度と応答性が十分であれば、音声を使用した方が高速です。 Google アシスタント 2.0 はこの目標を達成し、スマートフォンをさらに何かに活用できるようになります 基本的で頻繁に繰り返されるタスクだけではなく、より迅速で画面の使用量が少なくなる可能性があります。 プロセス。
シナリオ
画面の使用量が少なくなりますか? 絶対に。 ソフトウェアが私たちが要求したことを実行してくれると信頼できれば、たとえ最も基本的な状況であっても、私たちは携帯電話を見ることが少なくなります。 アシスタントと音声を使用して、単純な基本タスクを実行できるようになりました。 ただし、示されているのと同じレベルの精度、多用途性、速度ではありません Google I/O で.
見逃せないのはその汎用性です。 手動でアプリをフリックしたり、ジェスチャーベースで複数の選択をしたりせずに、複数のタスクをすべて連続して実行すると、携帯電話がより自然に使用できるようになります。 それは、私たちが現実世界でタスクを実行する方法であり、他の人に何をしてもらいたいかを伝える方法、または私たちがしようとしていることを伝える方法です。 それはすべてとても自然なことです。
携帯電話で指やジェスチャーを使用しないように脳を再訓練するには、時間がかかります。
ただし、音声制御電話のコンセプトに問題がないわけではありません。 まず、これをすべて行うにはある程度の練習が必要です。 音声の使用方法 (受け付けられるコマンドから会話の終了まで) を理解するには、次のことが必要です。 忍耐力を持ち、携帯電話で指やジェスチャーを使用しないように脳を再訓練するには、ある程度の時間がかかります。 時間。
それだけでなく、主に家の外で音声による制御にもっと慣れる必要があります。 また、Google が私たちのことをもっと知っていること、そして公共の場で電話で話すときに不用意な会話がプライバシーの問題を引き起こす可能性があることを受け入れる必要もあります。 音声をより頻繁に使用し始めると、私たち全員が Google と何を共有するか、公共の場でどのような行動を行うかについて、より注意を払う必要があります。
Googleが最初ではない
ステージ上のアシスタントのデモは、これまで見てきた中で、音声が電話の使用法をどのように変革するかを示す、最も包括的で共感しやすい例でした。 しかし、音声の力をデバイス制御に利用しようとしたり、デバイス上の AI の速度を探求したりするのは Google が最初ではありません。 処理。
ファーウェイはオンデバイスの AI をうまく活用しました。 Kirin 970 プロセッサを導入したとき、画像認識やその他のカメラ関連機能に対応しました。 ニューラル プロセッシング ユニット (NPU) AI を搭載する準備ができています。 処理をクラウドベースのシステムに任せるのではなく、負担をかけません。 の 速度の利点は非常に大きかった、当時としてはユニークでした。 それ以来、次のことを実証し続けています。 NPUの能力 興味深い方法で、それがどのように見えるかを概説します A.I. 未来を形作る、他のいくつかのメーカーはクラウド駆動型の AI に苦戦しています。 悪い結果でした。
Samsung が 2017 年に独自の仮想アシスタント Bixby を発表したときの目標は、私たちが通常タッチ コマンドで行うすべての操作をカバーできるアシスタントを作成することでした。 サムスンの李仁宗氏 デジタルトレンドに語った 当時、「私たちが注目しているのはインターフェースの革命です。」 Bixby はその最良の例ではありません 有能な音声アシスタントですが、それが正しく機能する場合の革命についてのサムスンの予測は次のとおりです。 正確な。
それはいつ起こりますか?
Google が 100 GB の有能で複雑なデータ モデリングを 500 MB に圧縮する方法を発見した今、私たちがここで目前に迫っているのは、 電話インターフェース、アプリ、さらにはハードウェア設計の開発も、私たちが見ること、触れること、話すことに依存することが少なくなります。 もっと。 ピチャイ氏がこの躍進を「重要なマイルストーン」と呼んだのは誇張ではなかった。
試すことができるようになるまで、それほど長く待つ必要はありません。 ハフマン氏は、次世代アシスタントはまず新しい Pixel スマートフォンに搭載されると約束しました。 ピクセル4 — 2019 年後半。 アシスタントはほとんどの Android スマートフォンで利用でき、新しい Pixel および Android Q ソフトウェアでデビューしますが、将来的にはさらに多くのスマートフォンにこの機能が搭載されることはほぼ確実です。
問題は、タッチを使用して携帯電話を制御するのと同じくらい頻繁に音声を使用する準備ができているかということです。
編集者のおすすめ
- Samsung の Galaxy S21 のシングルテイクカメラモードは初心者向けのギミックではありません
- Google アシスタントが単独で映画チケットを予約できるようになりました
- Google アシスタント 2.0 は現在、Pixel スマートフォンから順次展開されています
- 新たなリークでサムスンの One UI 2.0 が明らかに - それは Android 10 上に構築されている
- JBLのGoogleアシスタント搭載リンクバーが購入可能に