Jag hoppas att Apple tar med sig denna Vision Pro-funktion till iPhone

Apple Vision Pro avslöjar bärarens ögon på en frontvänd skärm.
Äpple

Digitalt skapade alternativa verkligheter kan vara spännande eller obehagliga, baserat på hur du föreställer dig dem. Men Apple, bland andra företag som investerat i AR- och VR-dominerande framtid, vill helt klart att du ska fokusera på den ljusa sidan. Det är därför Apple tillbringade en stor del av tiden på det WWDC 2023 utvecklarkonferens för att lyfta fram de olika funktionerna i Apple Vision Pro — Apples extravaganta nya mixed reality-headset.

Innehåll

  • Apples nya FaceTime-avatarer ser otroliga ut
  • De bör inte vara exklusiva för Vision Pro
  • Apple har redan tricken i rockärmen
  • iPhone och iPad är klara
  • Mobila enheter är porten till AR
  • Apple kan fortfarande göra dig besviken
  • Jag vill ha rumslig FaceTime på min iPhone

Enligt Apples säkra berättelse vid evenemanget, ger Vision Pro oss in i en ny era inom datoranvändning och push bortom gränserna för fasta displayer. Kampanjgenomgångarna övertygar oss lätt att headsetet är både visuellt och funktionellt unikt på många sätt.

Rekommenderade videor

Från att låta dig utöka ditt arbetsflöde med otaliga skärmar som sprids ut i det omgivande rummet för att fördjupa dig i hyperrealistiska naturportar har headsetet många fascinerande funktioner. Och vi hoppas verkligen att några av dess funktioner tar sig till andra enheter, särskilt iPhone.

Relaterad

  • En iPhone såldes precis för en galen summa på auktion
  • Jag kommer att bli arg om iPhone 15 Pro inte får den här funktionen
  • Viktig säkerhetsuppdatering för Apple-enheter tar bara några minuter att installera

Apples nya FaceTime-avatarer ser otroliga ut

Någon skannar sitt ansikte med Apple Vision Pro.
Äpple

Vision Pro utropas för att blanda verkliga och fantasifulla scenarier sömlöst, vilket kan övertala det mänskliga sinnet att faktiskt glömma gränserna mellan den fysiska och virtuella världen. Detta uppnås genom virtuella element som inte helt enkelt flyter runt i ditt fysiska utrymme utan också förbättrar din fysiska omgivning. Ett av sätten är att låta små detaljer, som skuggor från de flytande fönstren, kasta över verkliga objekt i din omgivning.

Ett annat sätt som Apple ser för att förvåna (likväl som förvirrande) icke-användare är att använda virtuella avatarer i FaceTime. Med headsetet hyllar Apple den nya eran av "spatial FaceTime", där videor av varje deltagare kommer att dyka upp i fönster som spetsar Vision Pro-användarnas verkliga miljöer. Men folket på andra sidan kommer inte att se ditt ansikte insvept i huvudbonaderna.

Vision Pro kommer istället att skapa konstfullt realistiska – och samtidigt konstigt irriterande – virtuella representationer av användaren. Dessa avatarer visas istället för den faktiska vyn och skapas med de två TrueDepth-kamerorna på headsetet. TrueDepth-kameran är särskilt ett unikt kamerasystem som ursprungligen introducerades på iPhone X. Den består av en infraröd översvämningslampa, en punktprojektor och en infraröd kamera. Alla dessa tre system kombineras för att skapa en 3D-karta över användarens ansikte som kan användas för att låsa upp iPhone med Face ID.

Virtuell persona av en person i rumslig Facetime på Apple Vision Pro.
Äpple

Avataren replikerar dina ansiktsuttryck, ögonrörelser och gester för att se mer naturliga ut. Detta löser problemet med att ständigt hålla din iPhone i handen eller vända dig mot din Macs skärm när den är på FaceTime – eller framstå som en looney-teknikentusiasten som gillar att hålla sig oberörd medan han provar det senaste prylar.

För Apple är detta också ett påtagligt sätt att locka fler människor att komma ombord på dess begynnande ideologi om rumslig datoranvändning – om inte av någon annan anledning men för att undvika rädslan för att missa något (FOMO). Men förutom att övertyga befintliga Apple-användare att spendera $3 500 på en ny teknik, det finns ett annat sätt som Apple kan få dessa hyperrealistiska avatarer att kännas mer vanliga – genom att ta dem till iPhone och iPad.

De bör inte vara exklusiva för Vision Pro

Spatial FaceTime på Apple Vision Pro-headset
Äpple

Det finns goda skäl till varför Virtual FaceTime-avatarer passar lika bra för andra Apple-enheter som Vision Pro.

För det första, att ta med rumslig FaceTime till alla enheter är i linje med Apples föreslagna nya tidsålder för "spatial computing". Tills en påtaglig framtid när förstärkt verklighet helt tar över annan interaktion med datorer och framförallt ersätter våra älskade smartphones, Apple kan använda denna möjlighet för att förbättra förtrogenhet med tekniken.

Förutom att vara i linje med att eliminera gränserna mellan den verkliga och den virtuella världen, erbjuder en rumslig FaceTime-upplevelse precis inom Apples principer för ett ekosystem, där alla enheter - åtminstone de översta - fungerar på liknande sätt och i överensstämmelse med varje Övrig. Erkänd analytiker Ming-Chi Kuo bekräftar också behovet av att skapa harmoni mellan Vision Pro och andra enheter inom Apples ekosystem, och citerar det som avgörande för headsetets initiala framgång.

Dessutom, för att skapa en konvergerande mjukvaruupplevelse, kommer Apple att arbeta för att stärka hårdvaran på sina andra enheter, särskilt iPhone. Naturligtvis kommer iPad (åtminstone Pro-varianten) att följa efter. Detta gör iPhone och iPad Pro värdiga kandidater att dela erfarenheter med Vision Pro, och en rumslig FaceTime-upplevelse toppar listan över våra förväntningar.

Apple har redan tricken i rockärmen

Apple Animoji och Memoji på en iPhone.
Digitala trender

Apple har redan lagt grunden för denna övergång till realistiska avatarer, och lagt ner år av arbete på att skapa och förbättra Animoji. Dessa stora animerade emojis på Apple-enheter efterliknar en persons ansiktsuttryck och huvudrörelser.

Om du inte är bekant erbjuder Apple också en specialiserad version av Animoji - kallad Memoji – som skapar en 3D-karikatyr av iPhone-användarens ansikte. Den här karikatyren kan sedan användas för personliga emojis, som animerade reaktioner i iMessage, eller till och med inom - trumrulle - FaceTime för att beslöja deras ansikte.

Det är inte helt förvånande när vi tänker på att Memoji är förebudet för Vision Pros animerade avatarer. Precis som den animerade avataren på Vision Pro, använder Memoji TrueDepth-kameran på iPhone eller iPad Pro för att spåra huvudets rörelser.

Förutom Face ID och Animoji använder Apple även TrueDepth-kameran för ytterligare kamerafunktioner, såsom studioljuseffekter på iPhone och Huvudscenen funktion på iPad Pro. Dessutom tillåter det tredjepartsutvecklare att lägga till en ny dimension av data från TrueDepth-sensorerna till sina applikationer via ett API. Det är bara vettigt för Apple att bygga vidare på dessa befintliga funktioner för att inkludera stöd för en förbättrad FaceTime-upplevelse som liknar Vision Pro.

Att gynna vårt argument är också det faktum att Apple inte har uppdaterat det visuella utseendet på Animoji de senaste åren. Den senaste Animoji-uppdateringen nära iPhone 14 lanseringen hade bara lagt till nya animationer och några fler ansiktsuttryck, vilket lämnade utrymme för förbättringar.

iPhone och iPad är klara

iPhone 14 Pro Max i handen.
Prakhar Khanna / Digitala trender

Förutom TrueDepth-kameran är en annan aspekt som överensstämmer med idén hårdvaran på Apples mobila enheter. Majoriteten av iPhone- och iPad Pro-modellerna drivs av samma (eller liknande) kraftfulla hårdvara under huven som på Vision Pro-headsetet, som packar Apples anpassade M2 kisel. Detsamma kan ses på MacBook Air, 13-tums MacBook Pro och 2022 iPad Pro.

På samma sätt A16 Bionic chipset som driver iPhone 14 Pro och iPhone 14 Pro Max modellerna är identiska med M2, men med något mindre processorkraft på grund av en jämförelsevis mindre kraftfull CPU och GPU. Trots en mindre kraftfull prestanda på iPhone är den ändå kraftfull nog att rendera en 3D-version av dig samtidigt som ansiktsuttryck och handgester återskapas i realtid.

Med A16:s efterföljare förväntas Apple göra strukturella förbättringar av styrkretsen genom att gå över till en mycket effektivare 3-nanometer (3nm) tillverkningsprocess. Baserat på en uppsättning ryktade benchmarkresultat, A17 Bionic skulle kunna närma sig M2 ytterligare.

Mobila enheter är porten till AR

Två personer som spelar ett förstärkt verklighetsspel på Apple iPad.
Äpple

Förutom att använda iPhones TrueDepth-kamera för att skapa virtuella personas för FaceTime, iPad Pro och iPhone Pro modellerna är väl utrustade för att replikera varje deltagares brickor i FaceTime geometriskt utspridda på Vision Proffs. iPad Pro (2020 och nyare) och iPhone (12 Pro och nyare) har en lidar-skanner tillsammans med kamerorna på baksidan.

Lidar-skannern (förkortning för Light Detection and Ranging) kan exakt detektera avståndet från iPhone och iPad Pro till alla fysiska föremål genom att lysa ljus på den och mäta mängden reflekterat tillbaka. Detta gör lidar-skannern oerhört användbar för AR-applikationer (augmented reality).

Vid tidigare lanseringar av iPhone och iPad har Apple dedikerat utarbetade demos till AR-spel och appar. Teknikens utvidgning till Apples egen FaceTime är perfekt för att den ska kunna utöka rumslig FaceTime bortom Vision Pro.

Apple kan fortfarande göra dig besviken

En man bär Apple Vision Pro.
Äpple

Trots vårt önsketänkande kanske vi inte ser rumslig FaceTime på andra enheter någon gång i år. För Apple att ta med Vision Pros FaceTime-upplevelse till andra enheter innan den lanseras, dvs planerat till "tidigt 2024" skulle det innebära att späda på spänningen och nyheten i samband med dess futuristiska headset. Inte bara det, det skulle inte heller vara olikt Apple om dessa funktioner är begränsade till Vision Pro för att uteslutande driva försäljningen av den extravaganta gadgeten.

Om Apple bestämmer sig för att ta med rumslig FaceTime till andra enheter, skulle de tidigaste förmånstagarna vara 2024 iPad Pro eller iPhone 16. Men om det visar sig vara sant, kommer rumslig FaceTime på iPhone 16 att dra nytta av ett förbättrat TrueDepth-system som är spekulerade att gömmas undan och gömmas under displayen.

Jag vill ha rumslig FaceTime på min iPhone

En person som bär Apples Vision Pro-headset.
Äpple

Delade upplevelser finns på kärnan i Apples filosofi, vilket gör oss orimligt hoppfulla om att den här viktiga Vision Pro-funktionen kommer till iPhone och andra enheter som stöds. Medan våra förväntningar delvis stärks av den rena önskan att uppleva FaceTime på ett nytt och spännande sätt utan att skjuta ut $3 500, det stöds också av det faktum att de senaste iPhone- och iPad Pro-modellerna har den hårdvara som krävs för att göra den drömmen till en verklighet.

Men det finns en lika stor – eller förmodligen högre – chans att detta inte händer, bara så att Apple kan tvinga fler människor att dela sin vision (ordlek!) för det surrealistiska men ändå digitalt vävda framtida. När allt kommer omkring kommer en enda enhet av Vision Pro att ge ungefär tre gånger så mycket intäkter som en iPhone eller iPad Pro till den kontanthungriga kon. Rykten pekar också på en relativt billigare headset med visionOS, men det kommer att vara långt ifrån en SE-fied version som är betydligt mer prisvärd.

Kanske är det bästa tillvägagångssättet just nu att vänta till några månader in i 2024. Detta kommer att vara den period då Vision Pro (förhoppningsvis) redan kommer att ha lanserats på marknaden och gett Apple en chans – och gott om mätvärden – att bedöma om headsetet kan sälja lönsamt som en fristående enhet (med en tydlig blödande kant) eller behöver stöd från sina äldre syskon med en känsla av förtrogenhet.

Redaktörens rekommendationer

  • iPadOS 17 har precis gjort min favorit-iPad-funktion ännu bättre
  • Jag lämnade min iPad Pro för en Android-surfplatta - här är anledningen
  • Den här hopfällbara telefonen är lättare än iPhone 14 Pro Max
  • Apples 32-tums M3 iMac kan utsättas för ännu en försening
  • Det finns en massa dåliga nyheter om Apples Vision Pro-headset