L'obiettivo che mette tutto a fuoco: la rivoluzione ottica arriva dalla Carnegie Mellon

L'obiettivo che mette tutto a fuoco: la rivoluzione ottica arriva dalla Carnegie Mellon

Un team della Carnegie Mellon University ha sviluppato una lente computazionale capace di mantenere ogni elemento di un'immagine perfettamente nitido, dal primo piano allo sfondo. Il risultato promette di trasformare fotografia, imaging scientifico e visione artificiale

di pubblicata il , alle 12:31 nel canale Scienza e tecnologia
 

Un gruppo di ricercatori della Carnegie Mellon University ha realizzato un particolarissimo obiettivo capace di mettere a fuoco contemporaneamente soggetti a diverse distanze, rimettendo in discussione il concetto di profondità di campo e aprendo la strada alla possibilità di realizzare nuovi strumenti fotografici e ottici per applicazioni specialistiche. 

Il team è composto da Yingsi Qin, dottoranda in ingegneria elettrica e informatica, dal professore Aswin Sankaranarayanan e dall’associate professor Matthew O’Toole. Il gruppo ha presentato i propri risultati all’International Conference on Computer Vision 2025, ricevendo una menzione d’onore nella categoria “Best Paper”.

Come ben sanno gli appassionati di fotografia, con le fotocamere e gli obiettivi "tradizionali" è possibile mettere a fuoco perfettamente solo una superficie piana parallela al piano del sensore/pellicola. Tutto quello che si trova davanti o dietro quel piano è, formalmente parlando, "fuori fuoco" ma nella pratica, a seconda dell'apertura del diaframma, l'immagine risultante può essere accettabilmente nitida anche in una zona anteriore e posteriore al piano di fuoco. Questa zona accettabilmente nitida è ciò che viene chiamata profondità di campo: la progressiva chiusura del diaframma ne aumenta l'estensione, al costo di sacrificare la quantità di luce che attraversa l'obiettivo e arriva sul sensore/pellicola e, in determinate condizioni, di peggiorare la nitidezza complessiva dell'immagine per via di effetti ottici di diffrazione. 

“Ci siamo chiesti: e se una lente non dovesse necessariamente mettere a fuoco su un solo piano?”, spiega Qin. “E se potesse adattare la messa a fuoco alla forma stessa del mondo che osserva?”. La risposta di questa domanda è stata concretizzata in ciò che i ricercatori chiamano "lente computazionale", ovvero un sistema ibrido composto da elementi ottici e algoritmi in grado di variare il fuoco in modo diverso per ogni porzione dell’immagine. L’idea parte dal design di una lente di Lohmann, formata da due lenti cubiche curve che scorrono una sull’altra per regolare la messa a fuoco. Integrando questo schema con un modulatore spaziale di luce a sola fase, un dispositivo che controlla la curvatura della luce su ciascun pixel, il team è riuscito a ottenere la messa a fuoco simultanea su differenti profondità della scena.

Il sistema combina due tecniche di autofocus. Con l'autofocus a rilevamento di contrasto, il sistema suddivide l’immagine in piccole regioni chiamate “superpixel”. Ogni zona calcola autonomamente la regolazione che massimizza la nitidezza locale. Usando invece l'autofocus a rilevamento di fase, si sfrutta un sensore dual-pixel per misurare non solo quanto un punto sia fuori fuoco, ma anche in quale direzione correggere. Quest’ultimo metodo risulta più rapido e adatto alle scene dinamiche, permettendo al sistema di raggiungere 21 fotogrammi al secondo con un sensore modificato.

“Combinando i due approcci, la fotocamera può decidere quali parti dell’immagine devono essere nitide, come se ogni pixel avesse una propria minuscola lente regolabile”, spiega O’Toole.

Gli appassionati fotografi ben sanno, in realtà, che la possibilità offerta dalle tradizionali macchine fotografiche di controllare l'estensione della profondità di campo, e quindi "quanta immagine" lasciare fuori fuoco, non è un limite ma un potente strumento di espressione creativa. Ecco perché il sistema ideato dai ricercatori della Carnegie Mellon University è rivolto principalmente ad applicazioni diverse dalla semplice fotografia. L'uso di un sistema di questo tipo può consentire di realizzare strumenti di analisi d'immagine per applicazioni scientifiche, mediche e di ricerca, ma anche soluzioni di "visione" per le auto a guida autonoma o per dispositivi robotici.

“Il nostro sistema rappresenta una nuova categoria di progettazione ottica”, afferma Sankaranarayanan. “Una direzione che potrebbe cambiare radicalmente il modo in cui le fotocamere vedono il mondo.”

0 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^