디지털로 제작된 대체 현실은 상상하는 방식에 따라 흥미롭거나 불편할 수 있습니다. 그러나 AR과 VR이 지배하는 미래에 투자한 다른 회사들 중에서 애플은 분명히 당신이 밝은 면에 집중하기를 원합니다. 그렇기 때문에 Apple은 상당한 시간을 WWDC 2023 다양한 기능을 강조하는 개발자 회의 애플 비전 프로 — Apple의 화려한 새 혼합 현실 헤드셋.
내용물
- Apple의 새로운 FaceTime 아바타는 놀랍습니다.
- Vision Pro에만 국한되어서는 안 됩니다.
- 애플은 이미 비법을 가지고 있다
- iPhone과 iPad가 준비되었습니다.
- 모바일 장치는 AR의 관문입니다.
- 애플은 여전히 실망할지도 모른다
- 내 iPhone에서 공간 FaceTime을 원합니다
이벤트에서 Apple의 확실한 내러티브에 따라 Vision Pro는 우리를 컴퓨팅의 새로운 시대로 안내하고 고정 디스플레이의 경계를 넘어. 판촉 연습을 통해 헤드셋이 여러 면에서 시각적으로나 기능적으로 독특하다는 것을 쉽게 확신할 수 있습니다.
추천 동영상
주변 공간에 펼쳐지는 무수한 화면으로 작업 흐름을 확장할 수 있게 하는 것에서 초현실적인 자연 관문에 몰입하기 위해 헤드셋은 많은 매력적인 기능을 자랑합니다. 그리고 우리는 그 기능 중 일부가 다른 장치, 특히 iPhone에 적용되기를 바랍니다.
관련된
- 경매에서 어마어마한 금액에 팔린 아이폰
- iPhone 15 Pro에 이 기능이 하나도 없으면 화가 날 것입니다.
- Apple 장치용 필수 보안 업데이트는 설치하는 데 몇 분밖에 걸리지 않습니다.
Apple의 새로운 FaceTime 아바타는 놀랍습니다.
Vision Pro는 실제와 상상의 시나리오를 매끄럽게 혼합하여 인간의 마음이 물리적 영역과 가상 영역 사이의 경계를 실제로 잊도록 설득할 수 있다고 합니다. 이는 물리적 공간에서 단순히 떠다니는 것이 아니라 물리적 환경을 향상시키는 가상 요소를 통해 달성됩니다. 그 방법 중 하나는 떠다니는 창의 그림자와 같은 미세한 세부 정보를 주변의 실제 개체에 드리우는 것입니다.
Apple이 사용자가 아닌 사용자를 놀라게 하는 또 다른 방법은 FaceTime에서 가상 아바타를 사용하는 것입니다. 헤드셋을 통해 Apple은 각 참가자의 비디오가 Vision Pro 사용자의 실제 환경을 연결하는 창에 표시되는 "공간 FaceTime"의 새로운 시대를 환영합니다. 그러나 저편에 있는 사람들은 모자에 싸인 당신의 얼굴을 보지 못할 것입니다.
Vision Pro는 대신 사용자의 가상 표현을 예술적으로 사실적으로 만들며 동시에 이상하게도 불안하게 만듭니다. 이 아바타는 실제 보기 대신 표시되며 헤드셋에 있는 두 개의 TrueDepth 카메라로 생성됩니다. 특히 TrueDepth 카메라는 원래 iPhone X에 도입된 독특한 카메라 시스템입니다. 적외선 투광 조명기, 도트 프로젝터 및 적외선 카메라로 구성됩니다. 이 세 가지 시스템이 모두 결합되어 Face ID를 사용하여 iPhone을 잠금 해제하는 데 사용할 수 있는 사용자 얼굴의 3D 맵을 생성하는 데 도움이 됩니다.
아바타는 더 자연스럽게 보이도록 얼굴 표정, 눈 움직임 및 제스처를 복제합니다. 이렇게 하면 계속해서 iPhone을 손에 들고 있거나 켜져 있는 동안 Mac 화면을 마주하는 문제가 해결됩니다. FaceTime — 또는 최신 기술을 시도하는 동안 방해받지 않는 것을 좋아하는 루니 기술 애호가처럼 보입니다. 가제트.
Apple의 경우 이는 공간 컴퓨팅이라는 초기 이데올로기에 참여하도록 더 많은 사람들을 끌어들이는 가시적인 방법이기도 합니다. 다른 이유가 아니라 누락에 대한 두려움(FOMO)을 피하기 위해서입니다. 그러나 기존 Apple 사용자를 설득하는 것 외에도 신기술에 3,500달러 지출, Apple이 이러한 초현실적인 아바타를 iPhone 및 iPad로 가져옴으로써 보다 평범한 느낌을 줄 수 있는 또 다른 방법이 있습니다.
Vision Pro에만 국한되어서는 안 됩니다.
Virtual FaceTime 아바타가 Vision Pro뿐만 아니라 다른 Apple 기기에도 적합한 이유가 있습니다.
첫째, 모든 장치에 공간 FaceTime을 제공하는 것은 Apple이 제안한 "공간 컴퓨팅"의 새로운 시대와 일치합니다. 증강 현실이 컴퓨터와의 다른 상호 작용을 완전히 대체하고 특히 우리가 사랑하는 스마트폰 대체, Apple은 이 기회를 사용하여 기술에 대한 친숙도를 높일 수 있습니다.
현실 세계와 가상 세계 사이의 경계를 없애는 것 외에도 공간화된 FaceTime 경험을 제공합니다. Apple의 생태계 원칙 내에서 모든 장치(최소한 최상위 장치)가 유사하게 작동하고 서로 일치합니다. 다른. 저명한 분석가 쿠오 밍치 또한 Vision Pro와 Apple 에코시스템 내의 다른 장치 간에 조화를 이루어야 할 필요성을 확인하고 헤드셋의 초기 성공에 중요한 요소라고 언급했습니다.
또한 소프트웨어 경험을 통합하기 위해 Apple은 다른 장치, 특히 iPhone의 하드웨어를 강화하기 위해 노력할 것입니다. 당연히 iPad(최소한 Pro 버전)도 그 뒤를 따를 것입니다. 이로 인해 iPhone과 iPad Pro는 Vision Pro와 경험을 공유할 수 있는 가치 있는 후보자가 되며, 공간 FaceTime 경험은 우리의 기대치 중 1위를 차지합니다.
애플은 이미 비법을 가지고 있다
Apple은 이미 현실적인 아바타로의 전환을 위한 토대를 마련하여 제작 및 개선에 수년간의 노력을 기울였습니다. 애니모티콘. Apple 기기의 이 큰 애니메이션 이모티콘은 사람의 얼굴 표정과 머리 움직임을 모방합니다.
익숙하지 않은 경우 Apple은 Animoji의 특수 버전도 제공합니다. 메모지 — iPhone 사용자 얼굴의 3D 캐리커처를 만듭니다. 그런 다음 이 캐리커처를 iMessage 내에서 또는 —드럼롤 — FaceTime 내에서 얼굴을 가리는 애니메이션 반응으로 개인화된 이모티콘에 사용할 수 있습니다.
Memoji가 Vision Pro의 애니메이션 아바타의 선구자라고 생각할 때 전혀 놀라운 일이 아닙니다. Vision Pro의 애니메이션 아바타처럼 Memoji는 iPhone 또는 iPad Pro의 TrueDepth 카메라를 활용하여 머리의 움직임을 추적합니다.
Face ID와 Animoji 외에도 Apple은 iPhone의 스튜디오 조명 효과와 같은 추가 카메라 기능을 위해 TrueDepth 카메라를 사용합니다. 중앙 무대 아이패드 프로의 기능. 또한 타사 개발자가 새로운 차원을 추가할 수 있습니다. TrueDepth 센서의 데이터 API를 통해 애플리케이션에 Apple이 Vision Pro와 유사한 향상된 FaceTime 경험에 대한 지원을 포함하기 위해 이러한 기존 기능을 구축하는 것이 이치에 맞습니다.
우리의 주장을 지지하는 것은 Apple이 최근 몇 년 동안 Animoji의 시각적 모양을 업데이트하지 않았다는 사실입니다. 에 가까운 마지막 Animoji 업데이트 아이폰 14 출시에는 새로운 애니메이션과 몇 가지 표정만 추가되어 개선의 여지가 있었습니다.
iPhone과 iPad가 준비되었습니다.
TrueDepth 카메라 외에도 아이디어와 일치하는 또 다른 측면은 Apple 모바일 장치의 하드웨어입니다. 대부분의 iPhone 및 iPad Pro 모델은 Apple의 맞춤형 헤드셋을 포함하는 Vision Pro 헤드셋과 동일하거나 유사한 강력한 하드웨어에 의해 구동됩니다. M2 실리콘. MacBook Air, 13인치 MacBook Pro 및 2022 아이패드 프로.
유사하게, A16 바이오닉 구동하는 칩셋 아이폰 14 프로 그리고 아이폰 14 프로 맥스 모델은 M2와 동일하지만 상대적으로 덜 강력한 CPU 및 GPU로 인해 처리 능력이 약간 떨어집니다. iPhone의 성능은 다소 떨어지지만 얼굴 표정과 손동작을 실시간으로 재현하면서 사용자의 3D 버전을 렌더링할 수 있을 만큼 강력합니다.
A16의 후속 제품을 통해 Apple은 훨씬 더 효율적인 3나노미터(3nm) 제조 공정으로 이동하여 칩셋의 구조적 개선을 이룰 것으로 예상됩니다. 일련의 소문난 벤치마크 결과를 기반으로 A17 Bionic M2에 더 근접할 수 있습니다..
모바일 장치는 AR의 관문입니다.
iPhone의 TrueDepth 카메라를 사용하여 FaceTime, iPad Pro 및 iPhone Pro용 가상 페르소나 생성 모델은 Vision에 기하학적으로 펼쳐진 FaceTime에서 각 참가자의 타일을 복제할 수 있도록 잘 갖추어져 있습니다. 찬성. iPad Pro(2020 이상) 및 iPhone(12 Pro 이상)에는 뒷면에 카메라와 함께 LiDAR 스캐너가 있습니다.
LiDAR(Light Detection and Ranging의 줄임말) 스캐너는 물체와의 거리를 정확하게 감지할 수 있습니다. iPhone 및 iPad Pro에 빛을 비추고 반사되는 양을 측정하여 모든 물리적 물체에 비추기 뒤쪽에. 따라서 LiDAR 스캐너는 증강 현실(AR) 애플리케이션에 매우 유용합니다.
이전 iPhone 및 iPad 출시에서 Apple은 다음을 위한 정교한 데모를 제공했습니다. AR 게임 및 앱. Apple의 자체 FaceTime에 대한 기술 확장은 Vision Pro를 넘어 공간 FaceTime을 확장하는 데 완벽하게 적합합니다.
애플은 여전히 실망할지도 모른다
우리의 희망사항에도 불구하고 올해는 언제라도 다른 장치에서 공간 FaceTime을 볼 수 없습니다. Apple이 Vision Pro의 FaceTime 경험을 출시 전에 다른 장치로 가져오려면 "2024년 초"로 예정되어 있는 헤드폰. 뿐만 아니라 이러한 기능이 화려한 장치의 판매를 독점적으로 유도하기 위해 Vision Pro로 제한된다면 Apple과 다르지 않을 것입니다.
Apple이 공간 FaceTime을 다른 장치에 제공하기로 결정하면 가장 빠른 수혜자는 2024 iPad Pro 또는 iPhone 16이 될 것입니다. 그러나 그것이 사실이라면 iPhone 16의 공간 FaceTime은 향상된 TrueDepth 시스템의 이점을 누릴 것입니다. 추측 멀리 집어 넣어 디스플레이 아래에 숨길 수 있습니다.
내 iPhone에서 공간 FaceTime을 원합니다
공유 경험은 애플 철학의 핵심, 이 핵심 Vision Pro 기능을 iPhone 및 기타 지원 장치에 제공하는 것에 대해 터무니없이 희망적입니다. 우리의 기대는 FaceTime을 참신하고 흥미로운 방식으로 경험하고 싶은 열망에 의해 부분적으로 뒷받침되는 반면 3,500달러, 최근 iPhone 및 iPad Pro 모델이 그 꿈을 실현하는 데 필요한 하드웨어를 자랑한다는 사실도 뒷받침됩니다. 현실.
그러나 이것이 일어나지 않을 확률은 같거나 더 높을 수 있습니다. Apple은 초현실적이면서도 디지털 방식으로 짜여진 것에 대한 비전(말장난 의도!)을 공유하도록 더 많은 사람들을 강요할 수 있습니다. 미래. 결국 비전 프로 한 대는 현금에 굶주린 소에게 아이폰이나 아이패드 프로보다 대략 3배의 수익을 안겨줄 것이다. 소문은 또한 상대적으로 VisionOS가 탑재된 저렴한 헤드셋, 그러나 훨씬 더 저렴한 SE 버전과는 거리가 멀 것입니다.
아마도 현재 최선의 행동 방침은 2024년까지 몇 개월까지 기다리는 것입니다. 이것은 Vision Pro가 (바라건대) 이미 시장에 출시되고 Apple에게 기회와 충분한 지표를 제공하여 다음을 평가할 수 있는 기간이 될 것입니다. 헤드셋은 독립형 장치로 수익성 있게 잘 팔릴 수 있거나(확실한 출혈 가장자리 포함) 정통.
편집자 추천
- iPadOS 17은 내가 가장 좋아하는 iPad 기능을 더욱 향상시켰습니다.
- Android 태블릿을 위해 iPad Pro를 버렸습니다. 이유는 다음과 같습니다.
- 아이폰 14 프로 맥스보다 가벼워진 폴더블폰
- Apple의 32인치 M3 iMac이 또 다른 지연에 직면할 수 있습니다.
- Apple의 Vision Pro 헤드셋에 대한 나쁜 소식이 많이 있습니다.