Ho provato il futuro dell’AR secondo Snapchat, nuovi occhiali smart in arrivo nel 2026

Snapchat Spectacles

Nella giornata di ieri, ho avuto modo di vivere un’esperienza hi-tech particolare e che si allontana dalle classiche prove di smartphone che permeano il mio quotidiano, tenutasi in un accogliente loft di Milano.

L’incontro, organizzato da Snap Inc., non aveva i tratti della classica conferenza stampa con slide proiettate su un muro, ma si è configurato come una prova sul campo di quello a cui l’azienda sta ormai lavorando da un po’ di tempo: un paio di occhiali per la “realtà aumentata ottica” (AR), distinta dalla realtà mista/estesa (MR/XR) di visori chiusi come quelli Apple o Meta Quest.

La realtà aumentata di Snap Inc., tra nuovo hardware in arrivo e software in evoluzione

Snapchat Spectacles

A guidarmi in questa esplorazione c’era Tristan Quil, Production Manager AR Studio di Snapchat e figura centrale nella divulgazione della piattaforma Spectacles. Tristan, operando come specialista di prodotto e guida tecnica per l’evento europeo, ha dimostrato una conoscenza profonda della piattaforma.

La sua figura professionale, nel contesto di questo lancio, si delinea come quella di un ponte tra l’ingegneria dell’azienda di Palo Alto (sebbene lui operi in Francia) e l’utenza. Durante le demo, Quil ha illustrato la filosofia del “design spaziale” secondo l’azienda. Non si è limitato a spiegare i comandi ma ha curato anche l’onboarding, traducendo le specifiche tecniche in un’esperienza d’uso che è stata sorprendentemente intuitiva.

Oggetto dell’analisi è stato il dev kit della quinta generazione di Spectacles equipaggiato con il nuovo sistema operativo Snap OS 2.0.

Tristan Quil, Production Manager, AR Studio di Snapchat
Tristan Quil, Production Manager, AR Studio di Snapchat

Non è la forma finale

Indossando il dispositivo, la prima valutazione riguarda inevitabilmente l’ergonomia. Gli Spectacles in questione pesano 226 grammi: un valore considerevole se paragonato a occhiali tradizionali, ma decisamente inferiore agli oltre 600 grammi di un visore come l’Apple Vision Pro. Sono anche decisamente più voluminosi e “notabili” dei recentemente annunciati Meta Ray-Ban Display.

Anche Snap utilizza micro-proiettori LCoS (Liquid Crystal on Silicon) e guide d’onda che trasportano la luce davanti all’occhio mantenendo le lenti trasparenti. Non ci sono schermi opachi che riproducono il mondo tramite telecamere, qui il digitale si sovrappone al fisico senza mediazioni.

Snapchat Spectacles

Il dispositivo integra due processori Qualcomm Snapdragon e un sistema di dissipazione basato su camere in titanio, scelto per leggerezza e capacità termica, che permette il funzionamento senza ventole rumorose. L’autonomia in modalità standalone si sposta tra i 45 minuti e le 2 ore, un tempo sufficiente per sessioni specifiche ma ancora limitante per un uso continuativo.

Durante la prova, i due display hanno mostrato una buona capacità di adattamento automatico alla luce ambientale, garantendo visibilità sia in zone d’ombra che sotto luce diretta.

Tenete a mente, però, che ci è stato detto che gli occhiali che arriveranno nel 2026 non saranno così grossi e ingombranti. Allo stesso modo, i due display avranno un FOV (campo visivo) più ampio, un sospiro di sollievo visto che usando questo prototipo i contenuti spesso vengono tagliati dalla “strettezza” laterale dei display integrati nelle lenti.

Attualmente, il dispositivo è accessibile solo tramite un programma per sviluppatori al costo di 110 euro al mese.

La piattaforma software la crea Snap Inc., ma i developer sono fondamentali

L’interazione è gestita da Snap OS 2.0, un sistema operativo che elimina periferiche esterne. L’interfaccia è definita “bio-mimetica”: il menu principale appare guardando il palmo della propria mano aperta. Quattro fotocamere (due a infrarossi e due visibili) tracciano le mani e mappano l’ambiente con una latenza di 13 millisecondi, rendendo la risposta ai gesti quasi istantanea.

Rispetto alla versione precedente, il software punta ora a un’utilità più quotidiana. È stata introdotta una Modalità Viaggio che utilizza sensori inerziali per stabilizzare i contenuti AR anche su treni o auto, risolvendo il conflitto sensoriale tipico di questi scenari.

Inoltre, il sistema supporta ora lo standard WebXR, permettendo la navigazione web e l’uso di finestre ridimensionabili nello spazio, trasformando potenzialmente l’occhiale in uno strumento di produttività.

Snapchat Spectacles

Lo streaming di contenuti da PC non è tuttavia ancora possibile. Mi è stato spiegato che il brand, al momento, vede questi occhiali come un accessorio da affiancare allo smartphone, con l’idea di voler sostituire completamente il rettangolo nero che teniamo in tasca solamente in futuro. I tempi non sono maturi per soppiantare una tecnologia così radicata nelle nostre vite, non potrei che essere più d’accordo.

Sono invece prontissimi gli strumenti e gli SDK messi a disposizione da Snap Inc. agli sviluppatori di terze parti che vogliono creare esperienze AR da eseguire sulla piattaforma. Tristan l’ha ribadito, ma non è ovviamente una novità, “senza le app è difficile convincere gli utenti“.

Il software di creazione, Lens Studio 5.0, è stato riscritto per supportare TypeScript e JavaScript, linguaggi familiari a milioni di sviluppatori web, abbassando la barriera all’ingresso. Lo Spectacles Interaction Kit fornisce moduli pronti all’uso, così che i creatori non debbano reinventare la ruota per gestire il tracciamento delle mani o i menu.

Com’è stata la mia l’esperienza?

Sotto la supervisione di Tristan, abbiamo testato diverse applicazioni per valutare la maturità della piattaforma. La prima demo, focalizzata sull’anatomia, ha posizionato un modello tridimensionale del corpo umano al centro della stanza.

Non essendo un’immagine statica, è stato possibile camminargli attorno e avvicinarsi fino a osservare l’interno della cassa toracica, suggerendo un potenziale interessante per l’apprendimento esperienziale piuttosto che mnemonico.

Snapchat Spectacles

Particolarmente interessante è stata la prova con l’app di “finger paint“. Utilizzando l’indice come pennello, ho potuto disegnare linee di luce nell’aria, le quali sono rimaste sospese nello spazio 3D in modo impeccabile.

Grazie alla sincronizzazione cloud, il disegno era visibile e modificabile contemporaneamente da me e da Quil nello stesso spazio fisico. Questo aspetto rompe l’isolamento tipico della realtà virtuale, rendendo l’AR un’attività sociale e collaborativa. La precisione del tracking nello spazio dei contenuti di entrambi i partecipanti all’esperienza “multiplayer” è stato ciò che più mi ha colpito.

Un aspetto emerso durante la mia chiacchierata è la volontà di integrare in modo pervasivo l’Intelligenza Artificiale generativa. Grazie a partnership con OpenAI e Google, gli occhiali non si limitano a mostrare immagini, ma possono “vedere e capire” il contesto.

Un esempio che ho potuto provare riguarda la traduzione in tempo reale con i sottotitoli, una demo resa possibile dall’integrazione degli LLM della famiglia Gemini.

C’è ancora una leggera latenza tra il parlato e la comparsa del testo, un qualcosa di comprensibile, ma tutto sommato la dimostrazione è stata molto d’effetto. Non solo gli occhiali hanno mostrato una traduzione testuale di quello che mi veniva detto, ma ha agganciato questi sottotitoli al corpo della persona che stava parlando. Notevole!

Per concludere, un’esperienza più complessa ha previsto l’esecuzione di un gioco a tema Avatar: The Last Airbender direttamente sugli occhiali. Il frame rate è stato costante e l’esperienza interessante per comprendere meglio le potenzialità del prototipo. Vi lascio qui di seguito una breve clip registrata direttamente dagli occhiali.

L’anno degli occhiali smart, cosa aspettarci dal 2026?

L’esperienza di Milano è servita anche a tracciare la rotta verso il 2026, anno in cui è previsto il lancio di una versione consumer di questi Spectacles.

Le aspettative per quel modello sono un peso ridotto sotto i 200 grammi, un campo visivo più ampio e un posizionamento di mercato che lo proponga come workstation flessibile oltre che come accessorio social.

La competizione sarà però feroce, con l’arrivo già programmato della diretta concorrenza di Meta, i Ray-Ban Display, e i tanto attesi occhiali smart Android XR nati dalla collaborazione tra Google e Samsung.

Se volete saperne di più continuate quindi a seguirci. Il prossimo sarà l’anno in cui gli smart glasses dei brand più noti, non solo quelli di Snap Inc., invaderanno sul mercato, aprendo la porta a nuove e interessanti esperienze d’uso. E noi non ce li faremo di certo sfuggire!