Con la presentazione dei nuovi iPhone 16, Apple ha anche annunciato alcune funzionalità inedite che andranno a sfruttare l’intelligenza artificiale per riconoscere in pochi secondi oggetti, luoghi e testi. Proprio come Google Lens, la nuova Apple Visual Intelligence permetterà di sfruttare le peculiarità dei nuovi smartphone per ottenere informazioni semplicemente inquadrando i soggetti con la fotocamera.
Apple Visual Intelligence riconosce luoghi e oggetti con l’intelligenza artificiale
Apple Visual Intelligence funzionerà come funzione aggiuntiva del nuovo tasto Controllo fotocamera, presente per la prima volta su iPhone 16, iPhone 16 Plus, iPhone 16 Pro e Pro Max. Gli utenti, infatti, potranno configurare questo tasto per avviare immediatamente la fotocamera ed effettuare una ricerca dell’oggetto inquadrato, un po’ come avviene con Google Lens per gli smartphone Android.
In questo caso, però, verrà chiamata in causa la nuova Apple Intelligence, che riconoscerà la scena e fornirà le informazioni sul contesto, oppure ne estrarrà delle nuove. Nella demo mostrata dalla compagnia di Cupertino all’evento “It’s Glowtime“, infatti, viene mostrato come questa nuova funzione è in grado di aggiungere automaticamente al calendario le informazioni contenute su un manifesto, oppure cercare in rete delle biciclette simili a quella fotografata.
Apple Visual Intelligence sarà disponibile sui nuovi iPhone entro la fine del 2024, ma attualmente non è stata ancora annunciata una data di lancio ufficiale. Il debutto, quindi, potrebbe avvenire con iOS 18.2 o iOS 18.3.
Sai che siamo anche su WhatsApp? Iscriviti subito ai canali di GizChina.it e GizDeals per restare sempre informato sulle notizie del momento e sulle migliori offerte del web!
⭐️ Scopri le migliori offerte online grazie al nostro canale Telegram esclusivo.