デジタルで作られた代替現実は、それをどのように想像するかによって、興奮したり不快になったりすることがあります。 しかし、Apple は、AR と VR が主流の未来に投資している他の企業の中でも、明らかに明るい面に注目してほしいと考えています。 それが、Apple がかなりの時間を費やした理由です。 WWDC 2023 のさまざまな機能を強調する開発者カンファレンス アップルビジョンプロ — Apple の豪華な新しい複合現実ヘッドセット。
コンテンツ
- Appleの新しいFaceTimeアバターは素晴らしく見える
- Vision Pro 専用のものであってはなりません
- Appleはすでに策略を練っている
- iPhoneとiPadの準備は完了です
- モバイルデバイスは AR への入り口です
- Appleはまだ失望するかもしれない
- iPhone で空間 FaceTime が欲しい
イベントでの Apple の確かな説明によると、Vision Pro は私たちをコンピューティングの新時代に導き、押し上げます。 固定ディスプレイの枠を超えて. プロモーションのウォークスルーを見ると、このヘッドセットが視覚的にも機能的にも多くの点でユニークであることが簡単にわかります。
おすすめ動画
アンビエント空間に広がる無数のスクリーンでワークフローを拡張できます。 超現実的な自然のゲートウェイに没頭するために、ヘッドセットには多くの魅力的な機能が備わっています。 そして私たちは、その機能のいくつかが他のデバイス、特に iPhone に導入されることを期待しています。
関連している
- iPhoneがオークションで法外な金額で落札された
- iPhone 15 Proにこの機能がなかったら激怒するだろう
- Apple デバイスの重要なセキュリティ アップデートのインストールには数分しかかかりません
Appleの新しいFaceTimeアバターは素晴らしく見える
Vision Pro は、現実のシナリオと想像上のシナリオをシームレスにブレンドすると宣言されており、人間の心に物理的領域と仮想的領域の境界を実際に忘れさせることができます。 これは、物理空間に単純に浮遊するのではなく、物理環境を強化する仮想要素によって実現されます。 方法の 1 つは、浮遊するウィンドウからの影などの微細なディテールを周囲の現実世界のオブジェクトに投影することです。
Apple が非ユーザーを驚かせる(そして当惑させる)もう 1 つの方法は、FaceTime で仮想アバターを使用することです。 このヘッドセットにより、Apple は「空間 FaceTime」の新時代を歓迎しており、Vision Pro ユーザーの実際の環境を織り交ぜたウィンドウに各参加者のビデオが表示されます。 しかし、反対側の人には、ヘッドギアに包まれたあなたの顔は見えません。
代わりに、Vision Pro は、ユーザーの巧みにリアルな、そして同時に奇妙に不安を抱かせるような仮想表現を作成します。 これらのアバターは、実際のビューの代わりに表示され、ヘッドセット上の 2 つの TrueDepth カメラで作成されます。 特に、TrueDepth カメラは、iPhone X で最初に導入されたユニークなカメラ システムです。 赤外線投光器、ドットプロジェクター、赤外線カメラで構成されます。 これら 3 つのシステムをすべて組み合わせると、Face ID を使用して iPhone のロックを解除するために使用できるユーザーの顔の 3D マップが作成されます。
アバターはあなたの顔の表情、目の動き、ジェスチャーをより自然に再現します。 これにより、iPhone を常に手に持ったり、iPhone の使用中に Mac の画面に向き合ったりする問題が解決されます。 FaceTime — または、最新のテクノロジーを試しながら何も考えずにいるのが好きな、気の抜けたテクノロジー愛好家のように見える ガジェット。
Apple にとって、これは、空間コンピューティングという初期のイデオロギーに参加するよう、より多くの人々を惹きつける具体的な方法でもあります。それが他の理由ではないにしても、取り逃すことへの恐怖 (FOMO) を避けるためです。 しかし、既存の Apple ユーザーを説得するだけでなく、 新興テクノロジーに 3,500 ドルを費やす、Apple がこれらの超現実的なアバターをよりありふれたものに感じさせる別の方法があります。それは、iPhone や iPad にアバターを搭載することです。
Vision Pro 専用のものであってはなりません
仮想 FaceTime アバターが Vision Pro だけでなく他の Apple デバイスにも適しているのには十分な理由があります。
まず、空間 FaceTime をすべてのデバイスに導入することは、Apple が提案する新時代の「空間コンピューティング」と一致します。 拡張現実がコンピュータとの他の対話を完全に引き継ぎ、 特に 私たちの愛するスマートフォンを置き換えます, Apple はこの機会を利用してテクノロジーへの習熟度を高めることができます。
現実世界と仮想世界の間の境界をなくすことに加えて、空間化された FaceTime エクスペリエンスを提供することも重要です。 Apple のエコシステム原則の範囲内で、すべてのデバイス (少なくとも最上位のもの) が同様に、それぞれのデバイスと調和して動作します。 他の。 著名なアナリスト ミンチー・クオ また、ヘッドセットの初期の成功にはそれが重要であるとして、Vision Pro と Apple エコシステム内の他のデバイスとの間の調和を確立する必要性を確認しています。
さらに、統合されたソフトウェアエクスペリエンスを推進するために、Apple は他のデバイス、特に iPhone のハードウェアの強化に取り組む予定です。 当然、iPad (少なくとも Pro バージョン) もこれに続くでしょう。 このため、iPhone と iPad Pro は Vision Pro とエクスペリエンスを共有するのにふさわしい候補となり、空間的な FaceTime エクスペリエンスが私たちの期待リストの最上位にあります。
Appleはすでに策略を練っている
Apple はすでに、現実的なアバターへの移行に向けた基礎を築いており、作成と改善に何年もの労力を費やしています。 アニ文字. Apple デバイス上のこれらの大きなアニメーション絵文字は、人の顔の表情や頭の動きを模倣しています。
よく知らない方のために説明すると、Apple は Animoji と呼ばれる特殊なバージョンも提供しています。 ミー文字 — iPhone ユーザーの顔の 3D 似顔絵を作成します。 この似顔絵は、iMessage 内のアニメーション リアクションとして、またはドラムロール内の FaceTime 内で顔を隠すために、パーソナライズされた絵文字として使用することもできます。
Memoji が Vision Pro のアニメーション アバターの前兆であることを考えると、それほど驚くべきことではありません。 Vision Pro のアニメーション アバターと同様に、Memoji は iPhone または iPad Pro の TrueDepth カメラを利用して頭の動きを追跡します。
Apple は、Face ID とアニ文字に加えて、iPhone のスタジオ照明効果などの追加のカメラ機能にも TrueDepth カメラを使用しています。 センターステージ iPad Proの機能。 さらに、サードパーティの開発者が新しい次元を追加できるようになります。 TrueDepth センサーからのデータ API を介してアプリケーションに送信します。 Apple がこれらの既存の機能を基盤にして、Vision Pro と同様の強化された FaceTime エクスペリエンスのサポートを組み込むことは理にかなっています。
Apple が近年アニ文字の外観を更新していないという事実も、私たちの議論に有利です。 アニ文字の最後のアップデートは、 iPhone14 リリース時には新しいアニメーションといくつかの表情が追加されただけで、改善の余地が残されていました。
iPhoneとiPadの準備は完了です
TrueDepth カメラの他に、このアイデアに一致するもう 1 つの側面は、Apple のモバイル デバイスのハードウェアです。 iPhone および iPad Pro モデルの大部分は、Vision Pro ヘッドセットと同じ (または同様の) 強力なハードウェアを内部で搭載しており、Apple のカスタム機能が詰め込まれています。 M2シリコン. MacBook Air、13 インチ MacBook Pro、および 2022年iPad Pro.
同様に、 A16 バイオニック を駆動するチップセット iPhone14プロ と iPhone 14 プロマックス モデルは M2 と同じですが、CPU と GPU が比較的強力ではないため、処理能力がわずかに劣ります。 iPhone のパフォーマンスはそれほど強力ではありませんが、顔の表情や手のジェスチャーをリアルタイムで再現しながら、3D バージョンのユーザーをレンダリングするのに十分強力です。
A16 の後継機では、Apple はより効率的な 3 ナノメートル (3nm) 製造プロセスに移行することにより、チップセットの構造を改善すると予想されています。 噂されている一連のベンチマーク結果に基づくと、A17 Bionic M2にさらに近づく可能性がある.
モバイルデバイスは AR への入り口です
iPhone の TrueDepth カメラを使用して FaceTime、iPad Pro、iPhone Pro 用の仮想ペルソナを作成することに加えて、 モデルは、ビジョン上に幾何学的に展開された FaceTime で各参加者のタイルを複製する機能を十分に備えています。 プロ。 iPad Pro (2020 以降) と iPhone (12 Pro 以降) には、背面のカメラとともに LIDAR スキャナーが搭載されています。
LIDAR (Light Detection and Ranging の略) スキャナは、物体からの距離を正確に検出できます。 iPhone および iPad Pro をあらゆる物体に光を当て、その反射量を測定する 戻る。 このため、LIDAR スキャナは拡張現実 (AR) アプリケーションにとって非常に役立ちます。
以前の iPhone と iPad の発売時に、Apple は精巧なデモを専用に提供してきました。 AR ゲームとアプリ. Apple 独自の FaceTime へのこのテクノロジーの拡張は、Vision Pro を超えて空間 FaceTime を拡張するのに完全に理にかなっています。
Appleはまだ失望するかもしれない
私たちの希望的観測にもかかわらず、今年は他のデバイスで空間 FaceTime が表示されることはないかもしれません。 Apple が Vision Pro の FaceTime エクスペリエンスを発売前に他のデバイスに提供すること。 「2024年初頭」に予定されているが、それはその未来的な興奮と目新しさを薄めることを意味するだろう。 ヘッドセット。 それだけでなく、豪華なガジェットの売り上げを独占的に促進するために、これらの機能が Vision Pro に限定されているとしたら、それは Apple と変わらないでしょう。
Apple が空間 FaceTime を他のデバイスに導入することを決定した場合、最も早く恩恵を受けるのは 2024 年の iPad Pro または iPhone 16 になるでしょう。 しかし、それが真実であると判明した場合、iPhone 16 の空間 FaceTime は、改良された TrueDepth システムの恩恵を受けることになります。 推測された ディスプレイの下に隠れて収納できます。
iPhone で空間 FaceTime が欲しい
共有エクスペリエンスは次のとおりです。 Appleの哲学の核心、このため、この重要なVision Pro機能がiPhoneやその他のサポートされているデバイスに導入されることに過度の期待を抱いています。 私たちの期待は、お金をかけずに斬新でエキサイティングな方法で FaceTime を体験したいという純粋な欲求によって部分的に支えられていますが、 3,500 ドルという価格は、最近の iPhone および iPad Pro モデルがその夢を実現するために必要なハードウェアを搭載しているという事実にも裏付けられています。 現実。
ただし、これが起こらない可能性も同じくらい、あるいはおそらくそれ以上にあります。 Apple は、超現実的でありながらデジタルで織り込まれたものに対するビジョン (冗談です!) をより多くの人に共有させることができる 未来。 結局のところ、Vision Pro 1 台で、お金に飢えた牛に iPhone や iPad Pro のおよそ 3 倍の収益がもたらされるのです。 噂によると、比較的 VisionOS を搭載した安価なヘッドセット、しかし、それは大幅に手頃な価格のSE版には程遠いでしょう。
おそらく、現時点での最善の行動は、2024 年まで数か月待つことです。 これは、Vision Pro が(うまくいけば)すでに市場に投入され、Apple に、 ヘッドセットは、スタンドアロン デバイスとして(明確な最先端を備えて)利益を上げて販売できるか、または、その感覚に裏付けられた古い兄弟からのサポートが必要です。 馴染み。
編集者のおすすめ
- iPadOS 17 により、私のお気に入りの iPad 機能がさらに向上しました
- 私は iPad Pro を捨てて Android タブレットを購入しました - その理由は次のとおりです
- この折りたたみ式携帯電話は iPhone 14 Pro Max よりも軽いです
- Appleの32インチM3 iMacはさらなる遅れに直面する可能性がある
- Apple の Vision Pro ヘッドセットに関する悪いニュースがたくさんあります