Per molti potrebbe non accendere nessuna lampadina, ma dietro a nomi come quelli di Imran Chaudhri e Bethany Bongiorno c’è una buona fetta delle creazioni più recenti di Apple. Ai tempi in cui lavoravano in quel di Cupertino, hanno partecipato in prima linea alla creazione dell’interfaccia utente di macOS, nonché al design di iPhone, iPod, iPad, Apple Watch, AirPods, HomePod, Mac ed Apple TV. Non c’è da meravigliarsi, quindi, se la notizia della loro dipartita da Apple nel 2017 per la fondazione della compagnia tech Humane abbia creato una certa curiosità nell’ambiente. Dopo qualche anno, finalmente scopriamo la prima creazione di Humane, fra luci e ombre.
Due storici ex dipendenti Apple creano Humane, l’azienda dietro a un ambizioso wearable IA
Humane ha raccolto partnership e oltre 240 milioni di dollari di investimenti da partner eccellenti come Microsoft, OpenAI, SoftBank (proprietaria di ARM), Volvo ed LG; il suo business model si fonda sul concetto di “intelligenza artificiale giusta“: che sia affidabile, etica, trasparente, innovativa, utile, efficiente, incentrata sull’uomo, accessibile, inclusiva e senza tempo, come riporta il sito ufficiale. Ma come si traduce ciò in un prodotto vero e proprio? Quello che era stato anticipato dai brevetti è stato confermato al TED Talk a cui ha partecipato Imran, cioè un wearable IA ancora misterioso nelle fattezze ma le cui capacità iniziano a essere più chiare.
Quello di Humane è un prodotto facilmente utilizzabile, non richiedendo alcun dispositivo esterno per poter funzionare, fondando tutte le sue attività sul cloud. Basta metterlo nel taschino o agganciarlo al vestito per avere a disposizione quello che pare essere un dispositivo quadrato dotato di proiettore, fotocamera, speaker, microfono e un pulsante d’attivazione (non è chiaro se touch o fisico). “Interagisce con il mondo nel modo in cui tu interagisci con il mondo, ascoltando ciò che senti, vedendo ciò che vedi, e svanendo completamente sullo sfondo della tua vita“.
È a tutti gli effetti un telefono, potendo ricevere telefonate a cui l’utente risponde mettendo la mano davanti al proiettore per vedere proiettata con un laser verde l’interfaccia che comunica chi ci sta chiamando. Il microfono può essere utilizzato anche per altro, in particolare per le traduzioni IA: l’assistente ascolta ciò che viene detto e lo ripete con lo stesso tono di voce (!) nella lingua in cui vogliamo tradurre. Lo stesso assistente può dare una panoramica degli impegni che ci aspettano, fra mail, messaggi e calendario; non mancano funzioni più peculiari, come il riconoscimento di oggetti e testi, con una demo in cui vengono scansionati i valori nutrizionali di uno snack per sapere se sia in linea con la propria dieta e se cozzi con le proprie intolleranze.
Per il momento, questo è tutto quello che sappiamo sul wearable IA firmato Humane, una dimostrazione che lascia con più dubbi che risposte. Non è scomodo un indossabile che richiede di essere attaccato a un vestito? Quanto è efficace un’interfaccia quasi interamente basata sulle gesture? Un laser del genere si vede sotto la luce del sole? Qual è qualità di speaker e microfoni in ambienti affollati? Chi vuole un telefono dove posso usare solo il vivavoce? Ma soprattutto, perché non dovrei usare uno smartphone che fa tutto ciò e con più efficacia e discrezione? Qual è il vantaggio di avere un dispositivo extra ma che ha solo una porzione delle sue capacità? Vedremo se Humane saprà fugarli o meno.
⭐️ Scopri le migliori offerte online grazie al nostro canale Telegram esclusivo.