Gemini arriva sugli occhiali: Google lancia i primi smart glasses con Android XR nel 2026

Gemini arriva sugli occhiali: Google lancia i primi smart glasses con Android XR nel 2026

Occhiali intelligenti con integrazione completa dell’IA Gemini, due modelli distinti in arrivo nel 2026, sviluppati da Google per un’esperienza indossabile sempre connessa, pensata per assistenza in tempo reale e utilizzo quotidiano prolungato

di pubblicata il , alle 10:41 nel canale Wearables
GoogleAndroidGemini
 

Google sta lavorando allo sviluppo di due modelli di occhiali smart con intelligenza artificiale che arriveranno sul mercato nel 2026, introducendo una nuova generazione di dispositivi indossabili pensati per offrire assistenza “screen-free” e funzionalità avanzate direttamente sul viso dell’utente. Secondo quanto dichiarato dall’azienda, gli occhiali saranno strettamente integrati con Gemini, la piattaforma di IA di Google, con l’obiettivo di rendere più naturale l’interazione con l’assistente digitale e di portare le funzioni tipiche dello smartphone in una forma discreta ma sempre presente. E' la stessa azienda di Mountain View a darne notizia, tramite un post sul blog ufficiale.

Il primo modello di questi occhiali intelligenti punta su un’esperienza senza display, sfruttando altoparlanti, microfoni e fotocamere integrate per permettere all’utente di parlare con Gemini, scattare foto e chiedere informazioni in tempo reale su ciò che lo circonda. Il secondo modello aggiunge un display all’interno delle lenti, capace di mostrare indicazioni, traduzioni in tempo reale e altri contenuti contestuali direttamente nel campo visivo, aprendo la strada a un utilizzo più simile alla realtà aumentata leggera e sempre connessa.

Il primo paio di occhiali AI di Google è quindi ideato come dispositivo di assistenza senza schermo, in cui l’interazione avviene principalmente tramite comandi vocali e risposte audio, con la fotocamera che serve a contestualizzare lo scenario e a supportare le capacità di riconoscimento e interpretazione di Gemini. L’utente potrà scattare immagini dell’ambiente e chiedere all’assistente spiegazioni o suggerimenti, ottenendo una risposta vocale che consente di mantenere lo sguardo libero senza dover consultare un display tradizionale.

Il secondo modello integra invece un display in-lens, ovvero un piccolo schermo visibile all’interno della lente, che permette di visualizzare informazioni come le indicazioni passo-passo per la navigazione oppure sottotitoli e traduzioni in tempo reale durante una conversazione in lingua straniera. Questo approccio mira a rendere l’esperienza più immersiva e immediata, avvicinando gli occhiali di Google alle soluzioni di wearable computing che uniscono audio, video e sovrapposizioni grafiche direttamente nel campo visivo.

Piattaforma Android XR e connessione allo smartphone

Entrambi i modelli di occhiali smart saranno collegati a uno smartphone (i secondi tramite cavo), che gestirà la maggior parte dell’elaborazione, sfruttando così la potenza di calcolo del dispositivo mobile e limitando il carico hardware sugli occhiali stessi. Questa scelta consente di mantenere la struttura degli occhiali più leggera e confortevole, lasciando al telefono il compito di elaborare le richieste verso Gemini e le funzioni di riconoscimento e generazione di contenuti.

Gli occhiali eseguiranno Android XR, la piattaforma di Google dedicata ai dispositivi indossabili e alla realtà estesa, che dovrebbe garantire integrazione con l’ecosistema Android e supporto a future applicazioni specifiche per questo tipo di form factor. L’uso di Android XR suggerisce la volontà di costruire un ambiente software condiviso tra visori, headset e occhiali, offrendo agli sviluppatori una base unica su cui creare esperienze dedicate alla realtà aumentata e ai servizi contestuali.

Collaborazioni con Samsung, Warby Parker e Gentle Monster

Come era stato annunciato al Google I/O 2025, l'azienda di Mountain View sta collaborando con Samsung per le operazioni di produzione dei dispositivi, in una partnership che rafforza ulteriormente il legame tra i due gruppi sul fronte dei dispositivi XR e indossabili. Allo stesso tempo, Google lavora con marchi specializzati in occhialeria come Warby Parker e Gentle Monster, con l’obiettivo di proporre soluzioni che non siano solo tecnologicamente avanzate ma anche curate dal punto di vista estetico.

L’azienda sottolinea che gli occhiali saranno leggeri, eleganti e confortevoli, pensati per essere indossati per tutta la giornata senza risultare invasivi, ponendo grande attenzione al design e alla vestibilità. L’integrazione con brand di occhiali “di moda” punta a superare l’immagine dei dispositivi hi-tech ingombranti, favorendo una maggiore accettazione presso il pubblico e un posizionamento che unisce tecnologia e stile.

Concorrenza: Meta e le voci su Apple

L’arrivo degli occhiali AI di Google nel 2026 si inserisce in un contesto competitivo in cui Meta è già presente con le sue soluzioni Ray-Ban e Oakley dotate di funzionalità di intelligenza artificiale e, in alcuni modelli, di display integrato nelle lenti. Questi prodotti offrono già oggi la possibilità di interagire con un assistente vocale, scattare foto e video, e visualizzare informazioni direttamente sugli occhiali, anticipando alcune delle funzioni che Google intende proporre.

Parallelamente, circolano indiscrezioni secondo cui anche Apple starebbe lavorando alle proprie prime soluzioni di occhiali smart con IA, con una possibile presentazione già nel 2026, anno che potrebbe quindi diventare un punto di svolta per l’intero segmento degli occhiali intelligenti. In questo scenario, l’ingresso di Google con una doppia proposta – modello senza display e modello con display in-lens – rappresenta un tassello importante nella competizione per il controllo della prossima piattaforma di computing indossabile.

Le caratteristiche annunciate per gli occhiali AI di Google indicano una forte attenzione agli usi quotidiani, come la consultazione di informazioni mentre si cammina, la traduzione in tempo reale durante i viaggi, la navigazione in città o il supporto contestuale in situazioni lavorative in mobilità. La possibilità di usare la fotocamera per chiedere a Gemini di riconoscere oggetti, luoghi o testi può trasformare gli occhiali in uno strumento sempre pronto ad affiancare l’utente in modo discreto.

La combinazione tra assistenza vocale, elaborazione sullo smartphone, piattaforma Android XR e design sviluppato con marchi di occhialeria suggerisce che Google intende posizionare questi occhiali come prodotti mainstream e non solo come prototipi per appassionati di tecnologia. Molto dipenderà dal prezzo, dalla qualità dell’esperienza d’uso e dalla capacità dell’ecosistema di app e servizi di sfruttare appieno il potenziale di Gemini in un form factor adatto per essere indossato per svariate ore ogni giorno.

1 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
supertigrotto09 Dicembre 2025, 12:39 #1
Stavo pensando,ma questo uso smodato della IA,non finirà per atrofizzare il cervello che non verrà più stimolato dalla realtà reale?
Cioè non riuscire più ad effettuare un ragionamento scientifico profondo per risolvere i problemi reali?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^