View Full Version : I visori per la realtà virtuale a trainare lo sviluppo delle GPU del futuro
Redazione di Hardware Upg
27-10-2014, 07:25
Link alla notizia: http://www.hwupgrade.it/news/skvideo/i-visori-per-la-realta-virtuale-a-trainare-lo-sviluppo-delle-gpu-del-futuro_54635.html
Richard Huddy, gaming scientist di AMD, è convinto che la domanda di superiore potenza di calcolo nelle shede video del futuro non tenderà a diminuire: la spinta sarà non da display sempre più grandi ma dai sistemi per la realtà virtuale
Click sul link per visualizzare la notizia.
le news di paolo sono sempre un piacere leggerle ;)
Bella forza! Con la visione 3d, con schermo o visore che sia si ha il doppio secco del lavoro di rendering della GPU visto che deve elaborare un frame differente per ogni occhio.
Quindi con l'arrivo dei visori tutte le schede video dovranno lavorare il doppio.
Un buon margine di evoluzione per le future gpu.
Poi la qualità grafica può ancora salire di molto, il traguardo ultimo resta il ray tracing in real time.
Per la risoluzione boh.. io non sono mai stato un fan delle megarisoluzioni.. per me quando hai un fullHD per ogni occhio è grasso che cola.
Per la risoluzione boh.. io non sono mai stato un fan delle megarisoluzioni.. per me quando hai un fullHD per ogni occhio è grasso che cola.
Se questa applicazione rappresenta in medo verosimile la realtà (mai provato personalmente l'Oculus Rift) direi che il fullHD per occhio non basti di gran lunga.
http://vr.mkeblx.net/oculus-sim/
eheh tutti felici ed entusiasti delle nuove diavolerie tecnologiche... e nessuno che si ferma un attimo a pensare ai possibili danni per la salute, oltre agli occhi anche a livello cerebrale-mentale.
Ma si sa gli effetti collaterali si conoscono sempre dopo, come i farmaci.
Staremo a vedere cosa implicheranno, di certo non sarò tra i primi a fare da cavia eheh
eheh tutti felici ed entusiasti delle nuove diavolerie tecnologiche... e nessuno che si ferma un attimo a pensare ai possibili danni per la salute, oltre agli occhi anche a livello cerebrale-mentale.
Ma si sa gli effetti collaterali si conoscono sempre dopo, come i farmaci.
Staremo a vedere cosa implicheranno, di certo non sarò tra i primi a fare da cavia eheh
Se ti immagino col bastone, ricurvo e pieno di rughe, con la copertina sulle gambe l'iimagine di te che fai questo commento è perfetta. :D
:old: :old: :old: :old:
Se questa applicazione rappresenta in medo verosimile la realtà (mai provato personalmente l'Oculus Rift) direi che il fullHD per occhio non basti di gran lunga.
http://vr.mkeblx.net/oculus-sim/
Anche io non sono fan delle megarisoluzioni e l'ho espresso più volte, secondo me uno schermo sopra il fhd è inutile.
Con i visori però le cose potrebbero cambiare, bisogna pensarci non mi faccio trascinare dall'entusiasmo delle cose inutili ma non bisogna manco scartarle a priori.
Il nuovo fattore è il campo visivo.
Per dare l'effetto immersivo i visori devono coprire un campo visivo molto più ampio, in questo modo ovunque si punti lo sguardo si vede la scena virtuale mentre con un monitor si guarda sempre dritto.
Questo fa in modo che la risoluzione sia più diluita, insomma si guarda sempre e solo un pezzetto di schermo e non tutto come succede con i monitor tradizionali.
Si il discorso del campo visivo non lo avevo valutato.
In effetti la risoluzione può cambiare parecchio.
Molto interessante il simulatore che ha segnalato s12a!
Però ritengo che sia necesario provare live per rendersi conto davvero..
Nota: ma li la simulazione della risoluzione è intesa per DUE occhi contempeoraneamente.. non per singolo occhio!
Spero per 2 occhi, perchè se per usare oculus c'è bisogno di 4k x2 prevedo che il mercato GPU avrà un'impennata nei prossimi anni.
Magari compro azioni nvidia e amd :asd:
Eh nell'articolo si parla di traguardo ultimo (?) ad 8k.. che sta a significare 4k per occhio.
Poi mettiamoci 60fps costanti garantiti (sempre per DUE), e ray tracing in tempo reale per un risultato indistinguibile dalla realtà.. e direi che di strada da fare ce ne è per almeno dieci anni buoni, pure venti.. :)
Spero per 2 occhi, perchè se per usare oculus c'è bisogno di 4k x2 prevedo che il mercato GPU avrà un'impennata nei prossimi anni.
Magari compro azioni nvidia e amd :asd:
Se posso dare consiglio... pensaci davvero a metterci un chippino.. dopo che ho visto questo, ci farò un pensiero pure io!
https://it.finance.yahoo.com/echarts?s=NVDA
Allarga il range da inizio 2013 e vedrai un incremento del 100%... purtroppo lo stesso non si può dire di AMD perchè, anche se ha avuto la stessa impennata, ha una quotazione molto più volatile mentre per Nvidia è solo in aumento :rolleyes:
pin-head
27-10-2014, 09:49
Per la risoluzione boh.. io non sono mai stato un fan delle megarisoluzioni.. per me quando hai un fullHD per ogni occhio è grasso che cola.
mi sembra evidente che non hai mai provato l'oculus.
Io ho il Dk2 e credimi, il full HD per ogni occhio è altamente insufficiente.
Per avere una resa decente ci vorrà il 4k, probabilmente anche l'8k.
pin-head
27-10-2014, 10:07
Eh nell'articolo si parla di traguardo ultimo (?) ad 8k.. che sta a significare 4k per occhio.
Poi mettiamoci 60fps costanti garantiti (sempre per DUE), e ray tracing in tempo reale per un risultato indistinguibile dalla realtà.. e direi che di strada da fare ce ne è per almeno dieci anni buoni, pure venti.. :)
come dice bivvoz, 8k è pari a quattro volte il 4k, non due.
Gli fps dovranno essere 75 (come nel Dk2) o 90 (se ne parla già). Ma non devono essere duplicati! E' una sola grande immagine stereoscopica, se deve andare a 75 Hz farà 75 fps, non 150.
Non so voi ma qualche giorno prima l'uscita di oculus qualche migliaio di euro in azioni AMD e NVIDIA si potrebbero anche buttare :D
eheh tutti felici ed entusiasti delle nuove diavolerie tecnologiche... e nessuno che si ferma un attimo a pensare ai possibili danni per la salute, oltre agli occhi anche a livello cerebrale-mentale.
Ma si sa gli effetti collaterali si conoscono sempre dopo, come i farmaci.
Staremo a vedere cosa implicheranno, di certo non sarò tra i primi a fare da cavia eheh
Gli occhi?
La messa a fuoco è all'infinito, la luminosità anche al massimo sarà tipo un ventesimo di quella di una giornata soleggiata.
Per capirci, uscire di casa è molto, molto più dannoso.
Poi sugli effetti dissociativi di un device del genere siamo anche d'accordo. Mi vengono in mente i malati di WOW, con questo oggetto sarà molto più comune, però il problema non è tanto del device quanto della vita di alcune persone che è tanto terribile, purtroppo, da richiedere una fuga nel virtuale.
Secondo me considerando che una diapositiva scattata su una pellicola 35mm è composta da circa 35K di pigmenti credo che non si avrà fotorealismo fintanto che la risoluzione non raggiungerà questa soglia, per occhio.
Secondo me considerando che una diapositiva scattata su una pellicola 35mm è composta da circa 35K di pigmenti credo che non si avrà fotorealismo fintanto che la risoluzione non raggiungerà questa soglia, per occhio.
I tuoi occhi vedomo molto meno. ;)
non servono pixel di dimensioni molecolari per farli contenti!
CrapaDiLegno
27-10-2014, 12:38
Secondo me considerando che una diapositiva scattata su una pellicola 35mm è composta da circa 35K di pigmenti credo che non si avrà fotorealismo fintanto che la risoluzione non raggiungerà questa soglia, per occhio.
35K cosa?
Una immagine FullHD contiene 2milioni di punti pigmentati.
Una 4K ne contiene 8 milioni.
35K cosa, quindi?
Poi la risoluzoine non è una cosa assoluta. Non ha senso dire"oltre il FullHD non ha senso". Dipende tutto dalla distanza di visione.
A 10cm (o anche meno) il FullHD è un pixel unico. Anche i 4K non sono il massimo (il pixel diventa "solo" 1/4 più piccolo). Serve quindi moooolta potenza di calcolo per renderizzare i motori che abbiamo oggi. Se si vuole invece considerare quello che si vuole fare con la realtà virtuale allora gli algoritmi dovrammo essere molto più complessi.
nvidia si è già mossa in questa direzione con il supporto nativo nelle nuove GPU per gli engine Voxel.
Per quanto rigurda avere 100 volte la potenza di calcolo di oggi, se facciamo conto che negli ultimi anni la potenza è raddoppiata ogni 2 anni, per fare 100 servono poco meno di 7 step (e noi facciamo 7 interi così siamo più che abbondanti). Ovvero tra 14 anni. Nel 2030 dovremmo essere in grado di avere sistemi con capacità computazionali in grado di eseguire questi lavori.
Sempre che le architetture rimangono queste (ovvero rimangono concepite così, con CPU e GPU staccate, ognuna che fa il suo lavoro e collabora in maniera minimale con l'altra, dove le capacità di calcolo della gpu sono legate ad un solo tipo di ALU etc..), che i materiali rimangono questi e che quindi si mantenga il trend di miniaturizzazione fatta negli ultimi 10 anni (grandi dubbi)...
In 14 anni l'evoluzione può essere enorme. E potrebbe cambiare tutto in un attimo solo cambiando il materiale con cui oggi si fanno i transistor.
marchigiano
27-10-2014, 12:43
di certo non sarò tra i primi a fare da cavia eheh
ed è per questo che nessuno ricorderà il tuo nome :sofico:
Come trucco per diminuire le richieste computazionali mi viene in mente un sistema di tracciamento oculare che impegni la maggior parte della potenza di rendering nella direzione nella quale guarda l'occhio, renderizzando in modo più approssimativo e "fuzzy" le altre aree.
Comunque anch'io penso che se emergono nuovi paradigmi (processori quantistici, fotonici) il problema di calcolo diventa un lontano ricordo e a restare al passo dovranno essere i visori (16-32k per occhio) :sofico: :sofico:
mircocatta
27-10-2014, 13:40
c'è qualcosa che tocca però
qui si parla di carichi di lavoro davvero pesanti ..8k ad oltre 90hz? con ray tracing? pura utopia
sembra quasi che mr. Richard Huddy si sia scordato che siamo già a 22nm,il silicio sotto i 10nm la vedo difficile.. verrano trovati nuovi materiali e forse arriveremo al limite..di 1nm? boh, tralasciando i costi, siamo sicuri che una vga con PP da 1nm e consumi da 250-300 watt risultino abbastanza per un carico di lavoro del genere? per me no
come già detto in passato, quello che realisticamente è possibile gestire con future vga (e parlo di prossime 4-5 generazioni) è una realtà virtuale con doppio schermo 2k (due schermi affiancati da 1600x2560) a 75hz (90hz lo vedo solo come uno spreco di risorse) da gestire con due vga in parallelo
Scusate ma la potenza di 100 volte è un tantino esagerata.
100 volte sono necessari per avere anche un rendering fotorealistico, non solo per avere grafica attuale a 8k.
Se già oggi uno SLI di 980 ti fa ottenere a 4k 60 fps quasi ovunque, anche supponendo uno scaling prestazionale non perfetto e qualcosa in più per la VR e molti più fps sarebbe necessario avere solo una decina-quindicina di volte la potenza che abbiamo oggi, per un dual 8k.
Una gtx 280 fa una frazione degli fps di una 980, ed è uscita "solo" 6 anni fa, diciamo un decimo.
Se poi consideriamo che con la vr, il mercato e gli investimenti si allargheranno , e non poco, secondo me tra 6 anni un pc al top avrà la potenza sufficiente per un 8k a 90fps con una grafica paragonabile a quella odierna.
6 anni non sono neanche la generazione di una console, l'unica cosa di cui sono sicuro è che non vorrei aver fatto uscire una console l'anno scorso e tutti gli investimenti collegati :asd:
Secondo me considerando che una diapositiva scattata su una pellicola 35mm è composta da circa 35K di pigmenti credo che non si avrà fotorealismo fintanto che la risoluzione non raggiungerà questa soglia, per occhio.
Questa frase non ha senso.
Posto che anche fosse vero quanto dice, per quale motivo il target di risoluzione deve essere fissato sulla pellicola da 35mm? E ancora, 35k sono sufficienti a quale distanza? Perchè qui è chiaro che molti no nhanno capito che larisoluzione non è un valore che ha senso di per se, è un valore che ha senso in relazione a delle variabili, come la dimensione dello schermo, e la distanza di visione, nel caso di un visore VR ha senso in relazione al FOV, vericale e orizzontale.
QUindi il fullhd sarà anche sufficiente per un monitor da 27 pollici a mezzo meto, uno schermo di un cellulare da 10 cm, una tv da x pollici a 3 metri, man on è certo sufficiente per una tv da 90 pollici a un metro, uno schermo al cinema a 10 metri di distanza o un visore per la realtà virtuale con 120 gradi di fov diagonale, i calcoli fatti da palmer dicevano che 16k erano quanto necessario per una persona con 10 decimi, già se uno era ipervedente poteva necessitare di più pixel, ma la maggior parte del popolo della terra è leggermente ipovedente e potrà accontentarsi di un 8k, ed alcuni anche di 4k
mircocatta
27-10-2014, 16:04
Scusate ma la potenza di 100 volte è un tantino esagerata.
100 volte sono necessari per avere anche un rendering fotorealistico, non solo per avere grafica attuale a 8k.
Se già oggi uno SLI di 980 ti fa ottenere a 4k 60 fps quasi ovunque, anche supponendo uno scaling prestazionale non perfetto e qualcosa in più per la VR e molti più fps sarebbe necessario avere solo una decina-quindicina di volte la potenza che abbiamo oggi, per un dual 8k.
Una gtx 280 fa una frazione degli fps di una 980, ed è uscita "solo" 6 anni fa, diciamo un decimo.
Se poi consideriamo che con la vr, il mercato e gli investimenti si allargheranno , e non poco, secondo me tra 6 anni un pc al top avrà la potenza sufficiente per un 8k a 90fps con una grafica paragonabile a quella odierna.
6 anni non sono neanche la generazione di una console, l'unica cosa di cui sono sicuro è che non vorrei aver fatto uscire una console l'anno scorso e tutti gli investimenti collegati :asd:
non so te, ma io ho notato un lieve "rallentamento" nelle evoluzioni delle gpu negli ultimi anni, tutte dovute ai ritardi nell'introduzione di nuovi processi produttivi, e le cose non possono che "peggiorare"
vedi nvidia, che aveva programmato maxwell per i 20nm e probabilmente il full maxwell non lo vedremo mai (perchè a 22nm fisicamente non ci sta) ma passeranno direttamente a pascal con i 16nm (o 14nm, non ricordo)
Il rallentamento è dovuto al profondo cambiamento del mercato dei videogiochi, trainante del settore, che ha spostato il suo centro dal pc alle console.
Queste ponevano un limite costante alla "corsa alla grafica" degli sviluppatori, e rendevano superflui grossi progressi nel mercato gpu e cpu.
Con oculus e la realtà virtuale è evidente che il pc tornerà ad essere il centro multimediale casalingo, e non solo per i giochi, ma per film vr, eventi sportivi vr e quante altre applicazioni si avranno, pertanto secondo me, e non solo, ci sarà una nuova corsa per avere hardware sempre più potente, paragonabile agli anni 90, in cui abbiamo avuto in pochi anni balzi spaventosi, da doom, a quake, a unreal, a unreal 2, a doom3, a crysis, per poi essenzialmente fermarci lì, raggiunto il limite delle console del tempo (non che quelle attuali vadano molto oltre).
Scusate ma la potenza di 100 volte è un tantino esagerata.
100 volte sono necessari per avere anche un rendering fotorealistico, non solo per avere grafica attuale a 8k.
Infatti è proprio di quello che si parla, una realtà virtuale quasi indistinguibile dalla realtà "reale".
Quindi quella potenza di calcolo dovrà essere coinvolta non solo per la gestione dell'alta risoluzione, ma anche nel raggiungere un certo livello di realismo.
Comunque non è solo questione di potenza, ma anche di tecnica. L'introduzione di nuove tecnologie potrebbe portare a drastici miglioramenti anche a parità di potenza computazionale. Sono cambiamenti che non accadono di continuo, ma in tanti anni non escluderei che possa esserci qualcosa che rivoluzioni l'attuale approccio alla grafica 3D.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.