Meta: Inside the Lab! Come si sta evolvendo il mondo dei visori a realtà aumentata e virtuale?

Cosa occorre per creare gli schermi di prossima generazione per la realtà virtuale e aumentata? Quali sono i problemi che Meta quotidianamente ha dovuto affrontare per creare un device capace di mostrare immagini vivide e realistiche come quelle del mondo fisico? Mark Zuckerberg in ''Inside the Lab'' affronta tutti questi importanti concetti per lo sviluppo dei visori di nuova generazione.
di Bruno Mucciarelli pubblicata il 20 Giugno 2022, alle 16:01 nel canale WearablesMetaOculus
Mark Zuckerberg, CEO di Meta (ex Facebook), ha voluto incontrare la stampa in un evento online per spiegare in modo dettagliato quali sono i problemi e quali sono anche le soluzioni che la sua azienda ha dovuto affrontare, e tuttora affronta, per realizzare quelli che saranno i visori di realtà aumentata e virtuale del futuro. C'è di mezzo il Metaverso ma anche la volontà di portare in un mondo virtuale quello che potremmo vivere nel mondo reale. Zuckerberg lo spiega bene in ''Inside The Lab'' e spiega anche quale sia la volontà della sua azienda nello sviluppo di questi strumenti di percezione.
Indice
- Meta: come funzionano i visori di realtà aumentata e virtuale?
- Cosa significa usare la realtà aumentata e virtuale?
- Cosa sono in grado di fare i visori odierni?
- Che cos'è il Test id Turing visivo?
- Creare schermi VR 3D indossabili è molto più complicato di come sembra?
- La sfida della profondità della messa a fuoco
- Come eliminare la distorsione prodotta dalle ottiche per la VR?
- L'ultima frontiera da risolvere: la luminosità
- Ecco ''Holocake 2" e ''Mirror Lake'': i due prototipi più evoluti
Meta: come funzionano i visori di realtà aumentata e virtuale?
Cosa significa usare la realtà aumentata e virtuale?
Un visore a realtà aumentata o virtuale non è altro che uno strumento che mostra immagini vivide e realistiche come quelle del mondo fisico ma in schermi 3D di ultima generazione. E proprio questi schermi, come anche tutto il device che li alimenta, sono senza dubbio una frontiera di non facile superamento da parte degli ingegneri e di chi si occupa del loro sviluppo. Il motivo è semplice: la nostra percezione fisica delle cose, il modo in cui i nostri occhi elaborano i segnali visivi e come questi vengono interpretati dal nostro cervello per costruire un modello del mondo non sono facilmente replicabili su di uno schermo 3D, anche se gli sviluppi degli ultimi tempi anche grazie a Meta, hanno permesso di realizzare notevoli passi in avanti.
Come spiegato da Mark Zuckerberg, sappiamo che gli schermi in grado di riprodurre completamente l'ampiezza della visione umana ci permetteranno di raggiungere risultati davvero fondamentali. Il primo è un senso realistico della presenza, ovvero la sensazione di trovarsi con qualcuno o in un luogo come se fossimo davvero lì. Utilizzando un visore e guardando intorno a noi stessi, è possibile osservare l'ambiente proprio come quello in cui realmente si è presenti. Togliendo il visore, tutto rimarrebbe esattamente uguale, tranne il fatto che nella stanza non ci sarebbe alcuna persona con cui interagire, presente invece con la realtà virtuale in cui è possibile vederla muoversi e avere la sensazione che sia davvero lì con voi. Se tutto questo lo si associa magari ad un membro della famiglia che vive lontano o a qualcuno con cui collaborate a un progetto o persino un artista che amate. Ecco, immaginate come sarebbe avere la sensazione di trovarvi fisicamente insieme nello stesso ambiente. Questa è la presenza e questo è il significato che il termine ha per Zuckerberg.
Cosa rende così importanti questi schermi realistici? Secondo Zuckerberg è la loro capacità di aprire la strada a una generazione di esperienze visive senza precedenti, che contribuirà a fare la storia della tecnologia e della cultura nel tempo. Il CEO di Meta ribadisce come la nostra cultura si evolva per integrare i livelli di completezza e profondità che la tecnologia è in grado di offrire. Questo porta inevitabilmente all'accesso a nuove forme d'arte e di espressione individuale. Le persone desiderano essere capite. Ecco perché in Meta ritengono fondamentale la possibilità di esprimersi nel modo più immersivo e realistico possibile. Risulta un importante passo avanti verso il realismo e la creatività. Non ci vorrà ancora molto per arrivare a creare scene con una fedeltà praticamente perfetta. Ma invece di guardarle su uno schermo, sarà possibile partecipare e vivere così esperienze altrimenti inaccessibili.
Cosa sono in grado di fare i visori odierni?
Gli attuali sistemi VR sono già in grado di offrire la sensazione di trovarsi altrove ed è difficile spiegare quanto questa sensazione sia profonda. Per capirla, bisogna provarla in prima persona. Tuttavia, per quanto riguarda gli schermi e gli stack grafici, secondo Mark Zuckerberg, c'è ancora molta strada da percorrere prima di arrivare al realismo visivo. Il sistema visivo umano, infatti, è profondamente integrato e la visione di una semplice immagine realistica non è sufficiente. Per ottenere la sensazione di immersività, occorre tutta una serie di altri indizi visivi. Si tratta di un problema ben più complesso che limitarsi a visualizzare un'immagine realistica sullo schermo di un computer o di una TV. È necessario uno schermo stereoscopico che crei immagini 3D. È necessario riuscire a effettuare il rendering degli oggetti e concentrare lo sguardo su varie distanze: attività diversa da quella richiesta dai display o dagli schermi tradizionali, con i quali è sufficiente mettere a fuoco su un'unica distanza, ovvero quella a cui si trova il telefono o il monitor.
Il limite da superare riguarda intanto la necessità di avere uno schermo che copra un angolo del campo visivo molto più ampio rispetto ai display tradizionali. Per assicurare una risoluzione a livello di retina nell'intero campo visivo, occorre un numero di pixel decisamente superiore.
È necessario disporre di schermi in grado di approssimare la luminosità e la gamma dinamica del mondo fisico e questo richiede una luminosità almeno dieci volte superiore a quella dei televisori HD di oggi.
Non solo perché è altrettanto necessario un tracking dei movimenti realistico a bassa latenza, che offra la sensazione, quando si gira la testa, di occupare la posizione corretta nel mondo immersivo in cui ci si trova. Inoltre, per garantire tutti i pixel necessari allo schermo, è necessario creare una nuova pipeline grafica, in grado di ottenere le migliori prestazioni dalle CPU e dalle GPU che possiamo inserire in un visore senza che questo si surriscaldi esaurendo rapidamente la batteria o generi un calore talmente elevato da non poter rimanere a contatto con il viso. E, naturalmente, è necessario integrare tutto in un dispositivo che sia comodo da indossare. In definitiva, se tutti questi elementi non saranno implementati e combinati in modo ottimale, sarà impossibile ottenere una sensazione di immersività decisamente superiore a quella offerta dagli attuali schermi 2D.
E Meta in questo caso ricorda come gli ingegneri abbiano già risolto alcune di queste sfide, mentre per altre il cammino da percorrere è ancora lungo. Realizzare questi dispositivi richiede un impegno più ampio, che riguarda non solo gli schermi, ma anche soluzioni all'avanguardia a livello di software, di circuiti e sensori e di altri elementi hardware che devono risultare perfettamente compatibili. In questo caso gli schermi sono i componenti che convertono il risultato grafico finale nei fotoni che gli occhi rilevano. Si tratta ovviamente di una fase importante e provare a immaginare cosa occorreva per renderla al meglio è stato d'ispirazione agli ingegneri per la creazione di ciò che internamente in Meta chiamano "Test di Turing visivo".
Che cos'è il Test id Turing visivo?
A parlare di questo ''Test di Turing visivo" ci ha pensato Michael Abrash - Chief Scientist of Reality Labs - che ha ricordato come nel 1950, Alan Turing ha ideato il test di Turing, il cui scopo è stabilire se un computer è in grado di assumere comportamenti umani. Il test di Turing visivo, come lo chiamiamo insieme a molti altri ricercatori accademici, è un modo per valutare se ciò che viene visualizzato in VR è distinguibile dal mondo reale.
Si tratta di un test completamente soggettivo perché l'elemento importante è la percezione umana di ciò che vede, piuttosto che le misurazioni tecniche. Attualmente non esiste alcuna tecnologia VR che sia in grado di superarlo. Anche se, come hai detto, la VR è già in grado di creare una forte sensazione di presenza, abbastanza convincente da far credere alle persone di trovarsi davvero in un luogo virtuale, non ha tuttavia raggiunto un livello tale da far sorgere il dubbio se ciò che ci circonda sia virtuale o reale. E il problema è reso più interessante dal fatto che non esistano ancora visori o prodotti per i consumatori dotati di una tecnologia in grado di superare il test di Turing visivo.
Creare schermi VR 3D indossabili è molto più complicato di come sembra?
Gli aspetti da considerare sono davvero tanti. Attualmente, il limite più ovvio è la risoluzione anche se non è l'unica cosa da superare. La VR introduce nuovi problemi che semplicemente non esistono con gli schermi 2D, ovvero il conflitto vergenza-accomodazione, l'aberrazione cromatica, la parallasse oculare, lo spostamento delle pupille. E prima ancora bisogna affrontare la sfida di inserire schermi AR/VR in visori leggeri e compatti e garantire una lunga durata delle batterie: un'impresa decisamente difficile. Una delle sfide uniche legate alla realtà virtuale è il fatto che le lenti usate negli schermi VR attuali spesso distorcono l'immagine virtuale, riducendone il realismo se il problema non viene completamente corretto nel software. Si tratta di un'operazione molto complessa, perché la distorsione varia ogni volta che gli occhi guardano in direzioni diverse. Un altro problema, questa volta non legato al realismo, riguarda la difficoltà a usare i visori per lunghi periodi a causa non solo della distorsione, ma anche del peso. Entrambi i fattori possono infatti causare affaticamento e disagi temporanei.
Un'altra sfida importante è la capacità di mettere a fuoco a qualsiasi distanza. Sì, perché il problema fondamentale è che gli occhi cercano di mettere a fuoco, ma non ci riescono perché lo schermo proietta le immagini come se la distanza fosse fissa. Meta si è impegnata a risolvere il problema, concentrando la ricerca su un paio di aree essenziali che, a loro dire, sono quelle che offrono le maggiori probabilità di compiere un passo in avanti. La prima, e la più ovvia come hai già accennato, è la risoluzione, ovvero la caratteristica principale a cui la maggior parte delle persone pensa quando si parla della qualità di uno schermo. Anche in questo caso, rispetto agli schermi tradizionali la VR pone alcune sfide specifiche.
In questo caso secondo Meta per ottenere la visione perfetta del campo visivo umano sarebbe necessaria una risoluzione superiore agli 8K. Considerato il funzionamento del sistema visivo umano, in effetti tutti questi pixel non sono necessari, perché gli occhi non percepiscono gli oggetti ad alta risoluzione in tutto il campo visivo. Ciò che viene messo a fuoco è ad alta risoluzione. Questa però si riduce notevolmente a livello periferico, anche se rimane comunque ben superiore a quella che uno schermo è attualmente in grado di fornire. Non solo perché la sfida del futuro è quella di avere pixel non solo più numerosi, ma anche di maggiore qualità. I visori VR di oggi dispongono di una gamma di colori e di un grado di luminosità e contrasto decisamente inferiori a quelli di computer portatili, TV o cellulari. Ecco perché la VR non riesce a raggiungere lo stesso livello di dettaglio e accuratezza della rappresentazione a cui ci siamo abituati con gli schermi 2D.
La sfida di Meta è scoprire cosa occorre per realizzare un visore dotato di risoluzione retinica. Questo significa arrivare a circa 60 pixel per grado nello schermo: un valore molto superiore a quello attuale. Il team Display Systems Research ha dovuto mettere in campo tutta la propria creatività per raggiungere i risultati attuali realizzando il prototipo "Butterscotch", dotato di una risoluzione sufficiente da garantire in VR una visione pari ai dieci decimi delle tabelle normalmente usate per le visite oculistiche. Chiaramente si parla di prototipi ossia modelli personalizzati e su misura, realizzati nei laboratori di Meta e dunque non prodotti pronti per la commercializzazione. Tuttavia l'esperienza è straordinaria e le immagini risultano incredibilmente nitide.
La sfida della profondità della messa a fuoco
In Meta è stato compreso che la profonditò della messa a fuoco rappresentava un problema all'incirca nel 2015, ovvero quando Oculus ha rilasciato Rift, seguito poco dopo dai controller Touch. Questo ha evidenziato per la prima volta la presenza delle mani in VR. Una volta inserite davvero le mani in quest grazie alla funzione Mani, l'utente può volersi concentrare su di esse e usarle nel modo più efficace possibile. Può sembrare ovvio e per niente eccezionale, dato che è così che funziona nel mondo reale, ma non in quello virtuale. Questo è proprio uno di quei casi in cui in VR le regole cambiano completamente. Nel mondo reale, infatti, il cristallino cambia continuamente forma per mettere a fuoco gli oggetti che guardiamo in base alla loro distanza e questo permette di rappresentare correttamente la luce che proviene da tale distanza. Ma questo per ora non accade nella realtà virtuale.
Quindi il problema era che, diversamente dagli occhi, le attuali ottiche per la VR usano lenti solide, che non si flettono e non si muovono. Ecco perché il punto di messa a fuoco è fisso. In genere, viene posizionato a una distanza di circa 150-180 cm di fronte all'utente, in modo che sia possibile vedere anche ciò che si trova oltre. Il problema è che gli oggetti virtuali posizionati molto più vicini inviano segnali contrastanti al nostro sistema visivo ed è difficile risolverlo con un'unica lente allo stato solido. Gli occhi sono straordinari e colgono tutti i minimi dettagli riguardanti profondità e posizione. La mancata corrispondenza tra la distanza che separa una persona e un oggetto e la distanza di messa a fuoco può risultare fastidiosa. Gli occhi cercano di mettere a fuoco senza riuscirci e questo causa affaticamento e visione sfocata. Ecco perché la risoluzione retinica da sola non è sufficiente per gli schermi.
Occorre anche che supportino una profondità di messa a fuoco pari a 60 pixel per grado a qualsiasi distanza, sia da vicino, ad esempio per leggere un libro che si trova in prossimità del viso, sia da lontano, in modo da poter vedere dettagli come le foglie di un albero. Questo è un altro esempio delle differenze che distinguono un visore 3D dagli schermi 2D esistenti. Il monitor di un computer si trova infatti a una distanza fissa che diventa il punto di messa a fuoco. Non è necessario riuscire e vedere gli oggetti il cui rendering è eseguito più vicino o più lontano. Per risolvere questo problema, in Meta si sono inventati un metodo per modificare la profondità della messa a fuoco, in modo che corrisponda al punto che viene osservato, mediante lo spostamento dinamico delle lenti, secondo lo stesso principio dell'autofocus delle fotocamere. Nel settore, questa tecnologia viene definita varifocale. Nel 2017, il team ha creato una versione prototipo di Rift con schermi varifocali meccanici, in grado di assicurare una profondità di messa a fuoco corretta. Era inoltre dotata di tracking oculare per indicare il punto guardato e di correzione in tempo reale della distorsione per compensare gli effetti di ingrandimento causati dal movimento delle lenti ed eventuali sfocature nel rendering, in modo che risultassero messi a fuoco solo gli oggetti osservati (proprio come accade quando si cerca di guardare qualcosa che ci è vicino nel mondo fisico).
Come eliminare la distorsione prodotta dalle ottiche per la VR?
Un'altra grande sfida è la distorsione prodotta dalle ottiche per la VR. Sono stati ideati diversi metodi per ovviare al problema nel software di Quest. Per ora è stata ottenuta un'approssimazione accettabile, ma spesso non è sufficiente, perché la distorsione di un'immagine virtuale cambia in base a come gli occhi si muovono per guardare in varie direzioni. Gli algoritmi sono piuttosto statici e quindi non funzionano perfettamente quando ci si guarda intorno in una scena.
Questo influisce sulla qualità complessiva dell'immagine, perché provoca un leggero spostamento della scena in base al movimento degli occhi, facendo sembrare la VR meno realistica. Ecco perché la correzione deve avvenire dinamicamente in relazione al movimento degli occhi e deve funzionare a tutte le profondità di messa a fuoco supportate dalla tecnologia varifocale. Deve inoltre essere abbastanza veloce da rendere gli adeguamenti impercettibili e, quando si parla di percezione visiva, si tratta di una velocità considerevole. È quindi un problema piuttosto difficile da risolvere, ma che possiede il potenziale necessario per produrre immagini sempre stabili, risultato che i sistemi di correzione dei software statici non riescono a ottenere.
L'ultima frontiera da risolvere: la luminosità
L'ultima grande frontiera delle tecnologie degli schermi è la luminosità. Sì, perché anche se la risoluzione, la modalità varifocale e la distorsione apportano tutte un contributo significativo al realismo, il fattore probabilmente più incisivo è l'ampia gamma dinamica o HDR. In sostanza, si tratta del livello complessivo di luminosità e contrasto di uno schermo. L'esperienza dice, infatti che, quando la luce è più forte, i colori risaltano e le ombre sono più scure ed è in quel momento che le scene iniziano davvero a prendere vita. Il problema è che la luminosità degli schermi moderni è incredibilmente superiore rispetto a ciò che l'occhio vede nel mondo fisico.
La metrica fondamentale dell'HDR è il nit, o il livello di luminosità dello schermo; sappiate che secondo alcune ricerche il picco di luminosità preferito in una TV è pari a 10 000 nit. Il settore televisivo ha compiuto notevoli progressi introducendo schermi HDR che si muovono in questa direzione, passando da poche centinaia di nit a un picco valutabile nell'ordine delle migliaia. Nella VR, tuttavia, il livello massimo di nit è circa 100 in Quest 2 e superare questo valore in un fattore di forma indossabile è un'impresa non da poco. Occorreranno livelli di luminosità decisamente più elevati rispetto a quelli usati oggi per definire l'HDR sugli schermi tradizionali.
La difficoltà consiste soprattutto nel fatto che è necessario ottenere questo risultato in un dispositivo alimentato a batteria e comodo da indossare. Per individuare il percorso migliore da seguire, il tema Display Systems Research ha quindi creato un prototipo che in parole semplici posiziona una lampada incredibilmente luminosa dietro i pannelli LCD. Poiché ha un peso considerevole, sono state aggiunte delle maniglie per tenerla in questo modo. È questo il primo sistema HDR per VR, che internamente è stato chiamato "Starburst". Per essere chiari, questa prima generazione è praticamente inutilizzabile in qualsiasi prodotto destinato alla commercializzazione effettiva. Tuttavia, in Meta stanno usando il sistema per eseguire test e approfondire ulteriormente gli studi, in modo da avere un'idea di come sarà l'esperienza offerta.
L'obiettivo di tutto questo lavoro è identificare i percorsi tecnici che ci consentiranno di ottenere miglioramenti significativi per iniziare ad avvicinarci al realismo visivo che vogliamo raggiungere. Se il team riuscirà a progredire a sufficienza verso la risoluzione retinica, a creare sistemi adeguati per la profondità focale, a ridurre la distorsione ottica e aumentare considerevolmente la luminosità, allora ci sarà davvero la possibilità di creare schermi in grado di rendere giustizia a tutta la bellezza e la complessità degli ambienti fisici. Per ottenere questo risultato occorreranno innumerevoli iterazioni per ognuna di queste tecnologie che, una volta raggiunto il traguardo, dovranno anche essere integrate.
Ecco ''Holocake 2" e ''Mirror Lake'': i due prototipi più evoluti
Nel frattempo però Meta ha realizzato alcuni prototipi che rappresentano gli importanti progressi che ha compiuto verso una tecnologia che un giorno darà vita a prodotti all'avanguardia. Il primo è un dispositivo sperimentale che riunisce i risultati di alcune delle ricerche ottiche più recenti in un visore completamente funzionante diverso da qualsiasi altro oggi esistente. Si chiama "Holocake 2" ed è il visore VR più sottile e leggero che sia stato mai realizzato ed è compatibile con tutti i titoli VR per PC esistenti. Nella maggior parte dei visori VR, le lenti sono piuttosto spesse e devono essere posizionate a qualche centimetro dallo schermo, in modo da eseguire una messa a fuoco corretta e indirizzare la luce direttamente negli occhi. È questo che dà ai visori il loro aspetto inconfondibile e concentra il peso sulla fronte.
Holocake 2 introduce due nuove tecnologie che possono ovviare al problema. La prima non invia la luce attraverso una lente, ma attraverso l'ologramma di una lente. In sostanza, gli ologrammi sono registrazioni di ciò che accade quando la luce colpisce un oggetto. Proprio come un ologramma è molto più piatto dell'oggetto che rappresenta, anche le ottiche olografiche sono più piatte delle lenti che modellano, ma influiscono sulla luce in entrata nello stesso identico modo. La seconda nuova tecnologia usa la riflessione polarizzata per ridurre l'effetto della distanza tra lo schermo e l'occhio. Quindi, anziché partire dal pannello, attraversare una lente e raggiungere l'occhio, la luce viene polarizzata e fatta rimbalzare più volte avanti e indietro tra superfici riflettenti. Questo significa che può percorrere la stessa distanza totale, ma in un formato molto più compatto. Il risultato è questo prototipo più sottile e leggero di qualsiasi altra configurazione.
Holocake 2 però richiede l'uso di laser specializzati, decisamente diversi dai LED attualmente utilizzati nei visori VR. Oggi i laser sono abbastanza diffusi, ma non sono presenti in molti prodotti con le dimensioni e il prezzo necessari per i visori VR destinati ai consumatori. È quindi necessario un grande lavoro di progettazione per ottenere un laser commercializzabile che soddisfi le specifiche richieste da Meta, ovvero sicurezza, costo contenuto, efficienza e dimensioni compatibili con un visore VR sottile. A oggi, non è ancora stata individuata una sorgente laser adeguata, ma se questa si dimostrasse utilizzabile, si arriverebbe a ottenere schermi per VR simili a occhiali da sole.
C'è poi un altro progetto. L'obiettivo finale di Meta, ovviamente, è riunire le tecnologie esposte precedentmente, integrando tutti gli elementi visivi necessari per superare il test di Turing visico in un fattore di forma leggero, compatto e con consumi energetici ridotti. Per compiere un importante passo avanti in questa direzione, è stato realizzando il prototipo "Mirror Lake". Si tratta di un concetto che ha la forma di un paio di occhiali da sci e integra non solo l'architettura Holocake 2, ma quasi tutte le avanzate tecnologie visive che abbiamo studiato negli ultimi sette anni, tra cui la modalità varifocale e il tracking oculare.
Mirror Lake è la dimostrazione di come potrebbe essere uno schermo completo di prossima generazione. La caratteristica essenziale di questo progetto è che, grazie all'olografia, tutto è piatto e sottile. La tecnologia varifocale è piatta, così come tutte le pellicole olografiche usate per Holocake, ma anche la correzione prescrittiva e il tracking oculare. In questo modo, aggiungere altre tecnologie piatte e sottili risulta semplice. Questo significa che il prodotto finale può integrare un maggior numero di funzionalità in un formato più piccolo di tutti quelli attualmente esistenti. Mirror Lake è senza dubbio promettente, ma al momento si tratta solo di un concetto che ancora non dispone di un visore completamente funzionante in grado di comprovare in modo definitivo la validità dell'architettura. Tuttavia, se dovesse funzionare, sarebbe una vera rivoluzione per l'esperienza visiva in VR.
Insomma questo è il quadro generale di alcune delle sfide più complesse che Mark Zuckerberg ha voluto esporre e che il team di Meta sta affrontando per ottenere il realismo visivo. Uno dei motivi che rendono questo settore così interessante e coinvolgente è la possibilità di usare tecnologie davvero nuove. Meta non si sta limitando a perfezionare i tipi di schermi già disponibili da decenni su cellulari, TV o monitor di computer, ma esplora nuovi campi per scoprire come combinare i sistemi fisici e come il nostro sistema visivo percepisce il mondo.
Secondo Zuckerberg la realtà aumentata, mista e virtuale diventeranno tecnologie fondamentali, soprattutto quando l'obiettivo risulta quello di offrire la sensazione di presenza e migliorare le interazioni sociali. Il CEO di Meta è sempre più che convinto che se il suo team continuerà a fare progressi nelle tecnologie descritte oggi, si potrà arrivare a un futuro in cui l'informatica sarà più incentrata sulle persone, sul modo in cui interagiscono e sul tipo di esperienza del mondo che vogliamo vivere.
3 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infomancano ancora circa 340 anni
Non tradurrei "concept" con "concetto", che in italiano non ha lo stesso significato, si potrebbe usare "modello concettuale", o magari si trova qualcosa di meglio.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".