Sterling Crispin, che ha lavorato oltre 9 anni nel settore AR/VR, è stato per oltre 3 anni parte del team neurotecnologico che ha contribuito alla creazione di Apple Vision Pro. E non chiamatelo visore: Apple ha coniato la definizione spatial computer, in cui il PC non è più una macchina da scrivania bensì un qualcosa da indossare e che ci cala in uno spazio virtuale dove realtà virtuale e aumentata si mischiano in un’unica esperienza (Mixed Reality, appunto). È interessante parlarne perché, fra le varie mansioni di cui si è occupato, Sterling ha parlato su Twitter della capacità del visore di prevedere cosa cliccheremo prima ancora di farlo: “come leggere la mente“, afferma. Ovviamente molto è coperto da accordi di non divulgazione, ma le sue affermazioni e alcuni brevetti pubblici ci aiutano a fare un po’ di chiarezza sull’argomento.
Quando il visore può leggerti la mente: la parola a chi ha inventato Apple Vision Pro
Non avendo controller esterni, Apple Vision Pro ha una serie di videocamere nell’alloggiamento oculare che ne traccia il movimento, rendendoli cursori per muoversi nell’interfaccia assieme alle dita, anch’esse filmate per captarne i movimenti. Per anticipare il clic dell’utente, il visore monitora la pupilla, che reagisce agli stimoli prima che la persona usi le dita per interagirci. Mancano dettagli, ma sapendo che la pupilla si contrae e si allarga per reagire agli stimoli luminosi, ipotizzo un esempio: la pupilla punta un’icona e si contrae/allarga, il visore registra quell’input e quando l’utente clicca il sistema sa già che quel clic sarebbe avvenuto e fa sì che l’interazione sia più istantanea. Un altro dettaglio interessante è che, in base al biofeedback del cervello, è possibile “ridisegnare la UI in tempo reale per sfruttare la risposta anticipata della pupilla“.
Andando oltre, Sterling si è occupato anche del rilevamento dello stato mentale degli utenti durante l’uso del visore, che viene captato non solo tramite tracciamento degli occhi ma anche attività cardiaca, attività elettrica nel cervello, attività muscolare, pressione sanguigna, densità del sangue nel cervello e conduttanza cutanea. Tuttavia, molte di queste misurazioni non sono ancora attuabili con i prodotti Apple (né col visore né con lo smartwatch), pertanto rimaniamo nel campo della sperimentazione in ottica futura.
Per capire lo stato cognitivo dell’utente, il team Apple ha testato varie tecniche, fra cui la misurazione del tempo di risposta dell’utente quando stimolato con un rapido lampeggio d’immagini ma anche di suoni. In generale, i campi di applicazione di Apple Vision Pro sono ancora da esplorare, ma in base ai segnali corporei il visore può adattare le sue esperienze, per esempio creando “ambienti immersivi adattivi che aiutino a imparare, lavorare o rilassarsi cambiando ciò che vedi e senti in sottofondo“