Specifiche complete, caratteristiche e dettagli di Apple Vision Pro
Oggi Apple ha finalmente rivelato Vision Pro, il suo "computer spaziale" da 3.500 dollari che verrà lanciato nel 2024. Ecco una carrellata delle specifiche e delle caratteristiche annunciate.
Vision Pro è un visore ultra high-end che offre la risoluzione più alta e il maggior numero di sensori mai visti in un prodotto AR/VR. Introduce nuove funzionalità mai rilasciate prima e il suo visionOS ripensa il confine tra 2D, AR e VR.
Vision Pro ha un telaio personalizzato in lega di alluminio che supporta una piastra frontale in vetro laminato curvo "formato tridimensionalmente" per ottenere un design sottile.
Ciò che mantiene Vision Pro relativamente leggero è la separazione della batteria dalle cuffie. Alcuni altri auricolari come Meta Quest Pro e Pico 4 hanno la batteria nella parte posteriore del cinturino, ma il design di Apple te lo toglie completamente dalla testa con una batteria esterna collegata a un connettore magnetico sulla sinistra dell'archetto.
Apple afferma che la batteria esterna è durata 2 ore nelle seguenti condizioni di test:
In alternativa, Vision Pro può essere utilizzato per sempre collegando la batteria a una fonte di alimentazione USB-C. Apple non è ancora entrata nei dettagli sulla quantità di energia necessaria.
Vision Pro ha un totale di dodici fotocamere, un sensore TrueDepth, un sensore LiDAR e sei microfoni.
Sei delle dodici fotocamere sono sotto il vetro anteriore.
Due di questi forniscono colori ad alta risoluzione per la visione passthrough del mondo reale del visore, trasmettendo in streaming "oltre un miliardo di pixel a colori al secondo".
Le altre quattro fotocamere anteriori vengono utilizzate per il rilevamento della posizione delle cuffie e probabilmente hanno obiettivi fisheye.
Uno degli scopi del sensore TrueDepth è il tracciamento delle mani. Apple descrive la qualità del tracciamento delle mani come "così precisa che libera completamente le mani dalla necessità di goffi controller hardware".
Vision Pro non ha alcun tipo di controller tracciato, sebbene supporti la riproduzione dei tradizionali giochi per iPad su uno schermo virtuale con un gamepad.
Il sensore LiDAR viene utilizzato per eseguire la "mappatura 3D in tempo reale" del tuo ambiente insieme alle altre fotocamere anteriori.
Apple afferma che Vision Pro ha una "comprensione dettagliata" di pavimenti, pareti, superfici e mobili, che le app possono sfruttare. Un esempio fornito da Apple riguarda gli oggetti virtuali che proiettano ombre su tavoli reali, ma questo rappresenta solo la superficie di ciò che dovrebbe essere possibile.
Due telecamere rivolte verso il basso seguono il tuo viso, mentre quattro telecamere IR interne accanto a loro seguono i tuoi occhi, aiutate da un anello di illuminatori LED attorno alle lenti.
Il tracciamento oculare di Vision Pro ha tre scopi: autenticazione, rendering foveato e guida del tuo avatar FaceTime.
Apple chiama la sua nuova autenticazione con scansione dell'iride OpticID, seguendo lo schema di denominazione di TouchID e FaceID degli altri suoi dispositivi. OpticID è il modo in cui sblocchi Vision Pro e funziona anche con gli acquisti Apple Pay e il riempimento automatico della password. Come con TouchID e FaceID, i dati biometrici che alimentano OpticID vengono elaborati sul dispositivo da un processore Secure Enclave.
Il rendering foveato è una tecnica in cui solo la piccola regione del display che i tuoi occhi stanno attualmente guardando viene renderizzata a piena risoluzione, liberando così prestazioni poiché il resto ha una risoluzione inferiore. Le risorse GPU liberate possono essere utilizzate per prestazioni migliori, per aumentare la risoluzione di rendering o per aumentare le impostazioni grafiche. Sfrutta il fatto che i nostri occhi vedono in alta risoluzione solo nel centro della fovea.
Infine, il tracciamento oculare si combina con le fotocamere rivolte verso il basso per tracciare le tue espressioni facciali in tempo reale per guidare la tua FaceTime Persona, la versione di Apple degli avatar fotorealistici. Meta mette in mostra la ricerca in questo senso ormai da oltre quattro anni, ma sembra che Apple sarà la prima a lanciare il prodotto, anche se non con la stessa qualità della ricerca di Meta.
Per fondere insieme l'input di tutte queste fotocamere, sensori e microfoni, Apple ha sviluppato un chip personalizzato chiamato R1.
Apple afferma che R1 "elimina virtualmente il ritardo, trasmettendo nuove immagini ai display entro 12 millisecondi".
Per fare un confronto, il fondatore della startup francese di cuffie Lynx afferma che la latenza passthrough di Meta Quest Pro è di 35-60 millisecondi. Non è chiaro però se si tratti di un confronto omogeneo.