Digitalt fremstillede alternative virkeligheder kan være spændende eller ubehagelige, baseret på hvordan du forestiller dig dem. Men Apple, blandt andre virksomheder, der er investeret i AR- og VR-dominerende fremtid, ønsker tydeligvis, at du fokuserer på den lyse side. Det er derfor, Apple brugte en betydelig del af tiden på det WWDC 2023 udviklerkonference for at fremhæve de forskellige funktioner i Apple Vision Pro — Apples ekstravagante nye mixed reality-headset.
Indhold
- Apples nye FaceTime-avatarer ser utrolige ud
- De bør ikke være eksklusive for Vision Pro
- Apple har allerede tricks i ærmet
- iPhone og iPad er klar
- Mobile enheder er porten til AR
- Apple kan stadig skuffe
- Jeg vil have rumlig FaceTime på min iPhone
I henhold til Apples sikre fortælling ved begivenheden, bringer Vision Pro os ind i en ny æra inden for databehandling og skubber ud over grænserne for faste skærme. De salgsfremmende gennemgange overbeviser os nemt om, at headsettet er både visuelt og funktionelt unikt på mange måder.
Anbefalede videoer
Fra at give dig mulighed for at udvide din arbejdsgang med utallige skærme, der spreder sig ud i det omgivende rum til at fordybe dig i hyperrealistiske naturgateways, har headsettet mange fascinerende funktioner. Og vi håber bestemt, at nogle af dens funktioner finder vej til andre enheder, især iPhone.
Relaterede
- En iPhone er lige blevet solgt for et vanvittigt beløb på auktion
- Jeg vil blive rasende, hvis iPhone 15 Pro ikke får denne ene funktion
- Vital sikkerhedsopdatering til Apple-enheder tager kun et par minutter at installere
Apples nye FaceTime-avatarer ser utrolige ud
Vision Pro er udråbt til at blande ægte og fantasifulde scenarier problemfrit, hvilket kan overtale det menneskelige sind til rent faktisk at glemme grænserne mellem det fysiske og det virtuelle verden. Dette opnås gennem virtuelle elementer, der ikke ligefrem svæver rundt i dit fysiske rum, men som også forbedrer dine fysiske omgivelser. En af måderne er ved at få små detaljer, såsom skygger fra de svævende vinduer, kastet over objekter fra den virkelige verden i dine omgivelser.
En anden måde, Apple ser ud til at forbløffe (såvel som forvirrede) ikke-brugere på, er ved at bruge virtuelle avatarer i FaceTime. Med headsettet hylder Apple den nye æra af "spatial FaceTime", hvor videoer af hver deltager vil blive vist i vinduer, der spænder over Vision Pro-brugernes virkelige miljøer. Men folkene på den anden side vil ikke se dit ansigt viklet ind i hovedbeklædningen.
Vision Pro vil i stedet skabe kunstfærdigt realistiske - og på samme tid underligt foruroligende - virtuelle repræsentationer af brugeren. Disse avatarer vises i stedet for den faktiske visning og er skabt med de to TrueDepth-kameraer på headsettet. Navnlig er TrueDepth-kameraet et unikt kamerasystem, der oprindeligt blev introduceret på iPhone X. Den består af en infrarød oversvømmelsesbelysning, en punktprojektor og et infrarødt kamera. Alle tre af disse systemer hjælper sammen med at skabe et 3D-kort over brugerens ansigt, som kan bruges til at låse iPhone op ved hjælp af Face ID.
Avataren vil replikere dine ansigtsudtryk, øjenbevægelser og bevægelser for at fremstå mere naturlige. Dette løser problemet med konstant at holde din iPhone i hånden eller vende mod din Macs skærm, mens den er tændt FaceTime - eller fremstå som den looney teknologientusiast, der kan lide at forblive uhængt, mens han prøver det nyeste gadgets.
For Apple er dette også en håndgribelig måde at tiltrække flere mennesker til at komme ombord på dens begyndende ideologi om rumlig databehandling - hvis ikke af en anden grund, men for at undgå frygten for at gå glip af noget (FOMO). Men udover at overbevise eksisterende Apple-brugere om at bruge $3.500 på et stykke ny teknologi, der er en anden måde, Apple kan få disse hyperrealistiske avatarer til at føles mere almindelige - ved at bringe dem til iPhone og iPad.
De bør ikke være eksklusive for Vision Pro
Der er gode grunde til, at Virtual FaceTime-avatarer er velegnede til andre Apple-enheder lige så godt som Vision Pro.
For det første er det at bringe rumlig FaceTime til alle enheder på linje med Apples foreslåede nye tidsalder for "spatial computing". Indtil en håndgribelig fremtid, hvor augmented reality fuldstændig overtager andre interaktioner med computere og især erstatter vores elskede smartphones, Apple kan bruge denne mulighed til at forbedre kendskabet til teknologien.
Udover at være på linje med at eliminere grænserne mellem den virkelige og den virtuelle verden, tilbyder en rumlig FaceTime-oplevelse lige inden for Apples principper for et økosystem, hvor alle enheder - i det mindste de øverste - fungerer på samme måde og i overensstemmelse med hver Andet. Anerkendt analytiker Ming-Chi Kuo bekræfter også behovet for at etablere harmoni mellem Vision Pro og andre enheder i Apples økosystem, og citerer det som afgørende for headsettets første succes.
For at skabe en konvergerende softwareoplevelse vil Apple desuden arbejde på at styrke hardwaren på sine andre enheder, specifikt iPhone. Naturligvis vil iPad (i hvert fald Pro-varianten) følge trop. Dette gør iPhone og iPad Pro værdige kandidater til at dele oplevelser med Vision Pro, og en rumlig FaceTime-oplevelse topper listen over vores forventninger.
Apple har allerede tricks i ærmet
Apple har allerede lagt grunden til denne overgang til realistiske avatarer og har lagt mange års arbejde i at skabe og forbedre Animoji. Disse store animerede emojis på Apple-enheder efterligner en persons ansigtsudtryk og hovedbevægelser.
Hvis du ikke er bekendt, tilbyder Apple også en specialiseret version af Animoji - kaldet Memoji - som skaber en 3D-karikatur af iPhone-brugerens ansigt. Denne karikatur kan derefter bruges til personlige emojis, som animerede reaktioner i iMessage eller endda inden for - trommerulle - FaceTime for at tilsløre deres ansigt.
Det er ikke alle overraskende, når vi tænker på, at Memoji er forløberen for Vision Pros animerede avatarer. Ligesom den animerede avatar på Vision Pro bruger Memoji TrueDepth-kameraet på iPhone eller iPad Pro til at spore hovedets bevægelser.
Udover Face ID og Animoji bruger Apple også TrueDepth-kameraet til yderligere kamerafunktioner, såsom studielyseffekter på iPhone og Center Stage funktion på iPad Pro. Derudover giver det tredjepartsudviklere mulighed for at tilføje en ny dimension af data fra TrueDepth-sensorerne til deres applikationer gennem en API. Det giver kun mening for Apple at bygge videre på disse eksisterende funktioner for at inkludere understøttelse af en forbedret FaceTime-oplevelse, der ligner Vision Pro.
At favorisere vores argument er også det faktum, at Apple ikke har opdateret det visuelle udseende af Animoji i de seneste år. Den sidste Animoji-opdatering tæt på iPhone 14 launch havde kun tilføjet nye animationer og et par flere ansigtsudtryk, hvilket gav plads til forbedringer.
iPhone og iPad er klar
Udover TrueDepth-kameraet er et andet aspekt i overensstemmelse med ideen hardwaren på Apples mobile enheder. Størstedelen af iPhone- og iPad Pro-modellerne er drevet af den samme (eller tilsvarende) kraftfulde hardware under hætten som på Vision Pro-headsettet, som pakker Apples brugerdefinerede M2 silicium. Det samme kan ses på MacBook Air, 13-tommer MacBook Pro og 2022 iPad Pro.
Tilsvarende A16 Bionic chipset, der driver iPhone 14 Pro og iPhone 14 Pro Max modeller er identiske med M2, dog med lidt mindre processorkraft på grund af en forholdsvis mindre kraftfuld CPU og GPU. På trods af en mindre kraftfuld ydeevne på iPhone, er den ikke desto mindre kraftfuld nok til at gengive en 3D-version af dig, mens den genskaber ansigtsudtryk og håndbevægelser i realtid.
Med A16's efterfølger forventes Apple at foretage strukturelle forbedringer af chipsættet ved at gå over til en meget mere effektiv 3-nanometer (3nm) fremstillingsproces. Baseret på et sæt rygter om benchmark-resultater, A17 Bionic kunne yderligere tæt på M2.
Mobile enheder er porten til AR
Udover at bruge iPhones TrueDepth-kamera til at skabe virtuelle personas til FaceTime, iPad Pro og iPhone Pro modeller er godt rustet til at replikere hver deltagers fliser i FaceTime geometrisk spredt ud på Vision Pro. iPad Pro (2020 og nyere) og iPhone (12 Pro og nyere) har en lidar-scanner sammen med kameraerne på bagsiden.
Lidar (en forkortelse for Light Detection and Ranging) scanneren kan nøjagtigt registrere afstanden fra iPhone og iPad Pro til enhver fysisk genstand ved at skinne lys på den og måle den reflekterede mængde tilbage. Dette gør lidar-scanneren enormt anvendelig til augmented reality (AR) applikationer.
Ved tidligere iPhone- og iPad-lanceringer har Apple dedikeret omfattende demoer til AR-spil og apps. Teknologiens udvidelse til Apples egen FaceTime giver den perfekte mening for den at udvide rumlig FaceTime ud over Vision Pro.
Apple kan stadig skuffe
På trods af vores ønsketænkning ser vi muligvis ikke rumlig FaceTime på andre enheder på noget tidspunkt i år. For Apple at bringe Vision Pro's FaceTime-oplevelse til andre enheder før dens lancering, dvs planlagt til "begyndelsen af 2024", ville det betyde udvanding af spændingen og nyheden forbundet med dets futuristiske headset. Ikke bare det, det ville heller ikke være ulig Apple, hvis disse funktioner er begrænset til Vision Pro for udelukkende at drive salget af den ekstravagante gadget.
Hvis Apple beslutter sig for at bringe rumlig FaceTime til andre enheder, vil de tidligste modtagere være 2024 iPad Pro eller iPhone 16. Men hvis det viser sig at være sandt, vil rumlig FaceTime på iPhone 16 drage fordel af et forbedret TrueDepth-system, der er spekuleret skal gemmes væk og skjules under displayet.
Jeg vil have rumlig FaceTime på min iPhone
Fælles oplevelser er på kernen i Apples filosofi, hvilket gør os urimeligt håbefulde med hensyn til at bringe denne vigtige Vision Pro-funktion til iPhone og andre understøttede enheder. Mens vores forventning delvist understøttes af det rene ønske om at opleve FaceTime på en ny og spændende måde uden at beskyde $3.500, det understøttes også af det faktum, at nyere iPhone- og iPad Pro-modeller har den hardware, der er nødvendig for at gøre den drøm til en virkelighed.
Der er dog en lige stor - eller sandsynligvis større - chance for, at dette ikke sker, bare for at Apple kan tvinge flere mennesker til at dele sin vision (ordspil beregnet!) for det surrealistiske, men digitalt vævede fremtid. Når alt kommer til alt, vil en enkelt enhed af Vision Pro bringe omtrent tre gange så meget omsætning som en iPhone eller iPad Pro til den pengehungrende ko. Rygterne peger også på et relativt billigere headset med visionOS, men det vil langt fra være en SE-fied version, der er væsentligt mere overkommelig.
Måske er den bedste fremgangsmåde lige nu at vente til et par måneder ind i 2024. Dette vil være den periode, hvor Vision Pro (forhåbentlig) allerede er lanceret på markedet og givet Apple en chance - og rigelige målinger - til at vurdere, om headsettet kan sælge godt som en selvstændig enhed (med en klar blødningskant) eller har brug for støtte fra sine ældre søskende bakket op af en følelse af fortrolighed.
Redaktørens anbefalinger
- iPadOS 17 har lige gjort min yndlings iPad-funktion endnu bedre
- Jeg droppede min iPad Pro til en Android-tablet - her er grunden
- Denne foldetelefon er lettere end iPhone 14 Pro Max
- Apples 32-tommer M3 iMac kan blive udsat for endnu en forsinkelse
- Der er en masse dårlige nyheder om Apples Vision Pro-headset