NVIDIA annuncia G-Sync anche per i notebook

A margine della presentazione della nuova GeForce GTX 980 Ti, NVIDIA ha annunciato come le schede video basate sulle architetture Maxwell di seconda generazione con GPU GM2xx trarranno vantaggi supplementari dalle DirectX 12, un nuovo strumento di rendering per le immagini in realtà virtuale e, soprattutto, i primi notebook con tecnologia G-Sync.
di Rosario Grasso pubblicato il 03 Giugno 2015 nel canale PortatiliNVIDIA
GameWorks VR
NVIDIA ha poi deciso di inserire uno strumento per la realtà virtuale all'interno della sua suite GameWorks, in modo da venire in soccorso di tutti quegli sviluppatori che intendono realizzare videogiochi in realtà virtuale. All'interno di GameWorks VR gli sviluppatori troveranno un set completo di API e librerie per i loro lavori in realtà virtuale.
In modo da ricreare un'esperienza di realtà virtuale immersiva, come noto è necessario utilizzare un sistema ottico basato su lenti poste a contatto con un display in alta risoluzione, il tutto a pochi centrimetri dagli occhi dell'utente. Queste lenti trasformano ciò che proviene dal display in un campo visivo aperto offerto all'occhio dell'utente. In modo tale da contrastare l'effetto creato dalla lente il sistema video è così chiamato a inviare delle immagini incurvate e distorte. Il centro dell'immagine, infatti, risulta allargato, mentre la parte periferica è compressa. Per effetto della presenza della lente, l'immagine finale è correttamente proporzionata all'occhio dell'utente, permettendogli di focalizzarsi sul centro ma allo stesso tempo godendo del campo visivo aperto che gli consente di spostare lo sguardo dove vuole.
Le GPU, naturalmente, sono originariamente progettate per renderizzare immagini destinate a schermi bidimensionali e quindi non possono nativamente renderizzare le immagini incurvate necessarie per la realtà virtuale. Nel caso della VR, quindi, la GPU renderizza l'immagine normalmente e successivamente applica un filtro che piega la periferia dell'immagine prima che quest'ultima venga visualizzata sul display.
Secondo NVIDIA, sebbene questa soluzione funzioni per la realtà virtuale, non è completamente efficiente. Sostanzialmente la GPU renderizza più pixel rispetto a quelli che poi sono effettivamente visualizzati all'interno dell'esperienza di realtà virtuale, perché molti dei pixel che si trovano nell'area periferica dell'immagine alla fine vengono cestinati.
Per affrontare questo problema NVIDIA può fare ricorso sul Multi-Projection Engine presente nelle GPU della famiglia GM2xx. Il principio alla base di questo motore è che a diverse parti della schermata di gioco possano essere applicate le medesime proprietà geometriche. Per ragioni di performance, quindi, si possono utilizzare elaborazioni già svolte e presenti nel geometry shader invece che ripetere i calcoli per ogni istanza geometrica.
Il nuovo sistema costruito sul Multi-Projection Engine viene definito da NVIDIA Multi-Res Shading, e sostanzialmente funziona suddividendo l'immagine in porzioni. Ciascuna di queste porzioni può poi essere renderizzata a una risoluzione differente sulla base dell'uso che sarà necessario fare all'interno della realtà virtuale e della posizione rispetto al punto di osservazione dell'utente. Quindi l'area centrale verrà renderizzata alla risoluzione nativa, mentre quelle periferiche, le cui immagini non verranno utilizzate nella loro interezza, a una risoluzione inferiore.
Invece di ri-renderizzare da zero la scena per ogni porzione che richiede una risoluzione differente, il Multi-Projection Engine di Maxwell è quindi in grado di riutilizzare le informazioni geometriche già elaborate e associarle a ogni porzione, il tutto in un singolo passaggio. MPE conserva, pertanto, le informazioni geometriche già processate ed è in grado di riutilizzarle all'occorrenza, e si rivela particolarmente utile in un caso come questo, in cui è la medesima immagine a dover essere renderizzata più volte.
Secondo NVIDIA, la tecnologia di Multi-Res Shading consente di avere un miglioramento tra 1,3x e 2x nelle performance dei pixel shader in confronto a ciò che accade con le normali tecniche di VR. Il tutto è disponibile all'interno dell'SDK GameWorks per gli sviluppatori di applicazioni in realtà virtuale.
9 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoMi fa ben sperare per un salto prestazionale nelle sfide che porrà la vr.
Ho sempre pensato che per aver una VR che a colpo d'occhio sembrasse vera (diciamo un bel render con ue4 a 8k) ci sarebero voluti una ventina d'anni, ma se andiamo avanti a questi progressi ce ne vorranno meno di 10!
ma per carità!
ma come abbiamo fatto prima senza il g-sync? non so spiegarmelo, mi hanno inventato un nuovo bisogno così da un giorno all'altro, correte tutti a cambiarvi quel cesso di portatili che avete senza gisinc barboni!!no ma hanno bisogno di Driver che pilotino il tutto; G-sync è un pacchetto, parte hardware + parte driver/software, nel caso dei portatili è solo parte driver/software.
Purtroppo ad oggi, la Asus rifiuta di rispondere ad una caterva di persone che chiedono il supporto G-Sync su tutti i G751JY venduti prima di luglio 2015.
I G751JY venduti da luglio 2015 in poi (IDENTICI dal punto di vista HW se non per la CPU intel di 100 MHz in più
Per chi è interessato, c'è una PETIZIONE sul seguente indiizzo del forum Asus:
https://rog.asus.com/forum/showthre...existing-G751-s!/page57
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".