PDA

View Full Version : 3DMark Port Royal è il primo benchmark sul Ray Tracing


Redazione di Hardware Upg
05-02-2019, 19:01
Link alla notizia: https://gaming.hwupgrade.it/news/videogames/3dmark-port-royal-il-primo-benchmark-sul-ray-tracing_80557.html

Futuremark ha rilasciato un nuovo test per il Deep Learning Super Sampling (DLSS) NVIDIA al benchmark 3DMark Port Royal, il primo benchmark sul Ray Tracing

Click sul link per visualizzare la notizia.

nessuno29
05-02-2019, 19:26
Il senso del dlss su un benchmark?

Nhirlathothep
05-02-2019, 19:33
è per mostrare che rispetto al TAA utilizza meno risorse e come vedi da quasi il 20% dei frames al secondo in più

Hulk9103
05-02-2019, 19:55
DXR, RT, DLSS, TAA..... poi?
Fino al 50% di prestazioni in più... sognare è gratis.

Ma la cosa più bella è la confusione e la disinformazione che hanno creato. Ho svariati amici che pensano che le vga con Ray Tracing siano manna dal cielo e le comprano sperando nel 50% in più, quando in realtà non esiste, anzi attivandolo andranno meno della 1080ti che avevano prima. Belle le loro facce che cercano di autoconvincersi che vadano meglio :(

Ci ho perso pomeriggi e serate intere a cercare di far capire il funzionamento di questa "tecnologia", per carità bellissima, un po acerba ma darà i suoi frutti (forse) in futuro.

Ma un utente di media informazione che segue e non segue ma vuole avere il top senza approfondire più di tanto come deve fare?

Ma è così difficile mettere SEMPRE a paragone il tracing on con l'off?


Scappo un amico mi chiede cosa sia il DLSS. Ciao.

mirkonorroz
05-02-2019, 20:25
A me piacerebbe che, visto che (con molta calma) si punta anche al fotorealismo, facessero un bench con uno scenario, appunto realistico e non le solite "cose strane" che non hanno alcun termine di paragone nella memoria di chi le guarda.

Gyammy85
05-02-2019, 21:43
A me piacerebbe che, visto che (con molta calma) si punta anche al fotorealismo, facessero un bench con uno scenario, appunto realistico e non le solite "cose strane" che non hanno alcun termine di paragone nella memoria di chi le guarda.

Contano solo i riflessini perché senza ray tracing secondo Nvidia non si possono fare, anche se sono 15 anni che li fanno nei giochi.

Intanto stiamo ancora aspettando il 3dmark serra con fp16, vabbè...

deglia
05-02-2019, 22:00
Contano solo i riflessini perché senza ray tracing secondo Nvidia non si possono fare, anche se sono 15 anni che li fanno nei giochi.

Intanto stiamo ancora aspettando il 3dmark serra con fp16, vabbè...

veramente hanno ragione...quelli che vedi nei videogiochi sono effetti riprodotti con qualche trucchetto e non calcolati in tempo reale,come fanno le rtx (per quello sono così pesanti,richiedono una mole di calcoli spropositata tanto da non essere ancora full raytracing).
sulle schede non rtx girerebbero a 3 fps (forse).

djmatrix619
05-02-2019, 22:38
veramente hanno ragione...quelli che vedi nei videogiochi sono effetti riprodotti con qualche trucchetto e non calcolati in tempo reale,come fanno le rtx (per quello sono così pesanti,richiedono una mole di calcoli spropositata tanto da non essere ancora full raytracing).
sulle schede non rtx girerebbero a 3 fps (forse).

Non é un trucchetto.
Come hai detto, sono riflessi che non sono in tempo reale, e che quindi sono VERI nell'istante in cui vengono generati, stop. Si chiamano cubemap.

I riflessi VERI in tempo reale non esistono senza Ray Tracing, e quest'ultima é una tecnologia FONDAMENTALE se si vuole fare un passo in avanti verso una grafica fotorealistica.

cignox1
06-02-2019, 07:41
>>Non é un trucchetto.
>>Come hai detto, sono riflessi che non sono in tempo reale, e che quindi sono VERI >>nell'istante in cui vengono generati, stop. Si chiamano cubemap.

Si e no. Le cubemaps possono senza problemi essere generate in tempo reale, renderizzando la scena da prospettive che passano attraverso le facce del cubo, poi si "proietta" sull'oggetto il cubo. Funziona anche piuttosto bene in determinati scenari (es, le auto in un gioco da corsa). Il problema é che questa tecnica é molto limitata: non tiene ad esempio in conto le autoriflessioni (oggetti che riflettono se stessi), le riflessioni ricorsive (riflessi di altri riflessi) e non possono essere usati in maniera davvero estensiva (non puoi creare cubemaps per ogni singolo oggetto potenzialmente riflettente nella scena).

>>Contano solo i riflessini perché senza ray tracing secondo Nvidia non si possono fare, anche se sono 15 anni che li fanno nei giochi.

Vedi sopra.

>>A me piacerebbe che, visto che (con molta calma) si punta anche al fotorealismo, facessero un bench con uno scenario, appunto realistico e non le solite "cose strane" che non hanno alcun termine di paragone nella memoria di chi le guarda.

Concordo pienamente. Vorrei che facessero una demo che riproduca un tipico scenario da videogioco, cosí da mostrare dove potremmo essere tra un paio di anni, cono un uso piú maturo del raytracing. Sarebbe fantastico che proponessero qualcosa del tipo la strepitosa demo "toyshop" che fece ATI una dozzina di anni fa...

Molti pensano (anche per colpa del tipo di pubblicitá fatta) che il raytracing serva solo per specchi e metalli, ma non é cosí. Il raytracing (il path tracing che ne é una estensione) risolve tutta una serie di problemi che fino ad oggi viene affrontata con miriade di trucchetti complessi, parziali e dai risultati non definitivi. Ad esempio, la GI in tempo reale (SSAO é stato un passo avanti interessante, ma di certo non puó essere definito l'ultima parola in materia), le ombre (ci sono 1000 tipi diversi di shadow maps che funzionano in diversi contesti, sono complesse da implementare e hanno una serie di controindicazioni, come l'aliasing e la memoria usata), partecipating media (come il fumo), materiali avanzati multistrato, il subsurface scattering etc.

Moltissimi materiali del mondo reale hanno una componente di riflessi: alcuni tipi di piastrelle, l'asfalto umido, il legno laccato, la plastica lucida, la vernice per auto. Molti materiali sono multistrato, con uno strato "glossy" superiore che, tramite la legge di fresnel, variano in riflettivitá in base al punto di vista: per rendere davvero bene questi materiali é necessario avere a disposizione un modo per generare riflessi su un numero arbitrario di superfici, e la rasterizzazione, a questo livello di realismo, semplicemente fatica molto ad arrivare.

Gyammy85
06-02-2019, 07:48
veramente hanno ragione...quelli che vedi nei videogiochi sono effetti riprodotti con qualche trucchetto e non calcolati in tempo reale,come fanno le rtx (per quello sono così pesanti,richiedono una mole di calcoli spropositata tanto da non essere ancora full raytracing).
sulle schede non rtx girerebbero a 3 fps (forse).

1) si, il trucchetto si chiama shading, in uso fin dalle dx8. E ha sempre prodotto riflessi in tempo reale, oppure vuoi dirmi che in hl2 se un oggetto passa sull'acqua i programmatori avevano previsto infinito^infinito possibilità e quindi avevano disegnato con la matita ombre riflessi rifrazioni ecc...
2) tutto da dimostrare, dato che non c'è modo di farli andare sulle altre schede.

Non é un trucchetto.
Come hai detto, sono riflessi che non sono in tempo reale, e che quindi sono VERI nell'istante in cui vengono generati, stop. Si chiamano cubemap.

I riflessi VERI in tempo reale non esistono senza Ray Tracing, e quest'ultima é una tecnologia FONDAMENTALE se si vuole fare un passo in avanti verso una grafica fotorealistica.

Sono veri fino ad un certo momento, poi si ricordano "oh ma non siamo ray" e smettono di esserlo, interessante teoria.
Tralasciando il fatto che il 3dmark da 5 anni ha sempre la stessa grafica di base tweakata per metterci prima le dx12 fake ora il ray tracing, il fotorealismo è ben altro, e quello che fanno loro lo puoi fare benissimo con la grafica tradizionale. Gli sviluppatori hanno a disposizione da 10 anni opencl e da 7 anni le dx12, parallelizzazione e features che ottimizzerebbero non poco il codice, ma no, non si può, dx11 per sempre, al massimo patchina dx12 dxr.

Decrbov
06-02-2019, 08:02
Le parole insegnate dal marketing.

Non é un trucchetto.
Come hai detto, sono riflessi che non sono in tempo reale, e che quindi sono VERI nell'istante in cui vengono generati, stop. Si chiamano cubemap.

I riflessi VERI in tempo reale non esistono senza Ray Tracing, e quest'ultima é una tecnologia FONDAMENTALE se si vuole fare un passo in avanti verso una grafica fotorealistica.

La realtà.

https://youtu.be/66e_pvVlRMU
https://youtu.be/HdGciJvAiBA

Roland74Fun
06-02-2019, 08:37
Le parole insegnate dal marketing.

La realtà.

https://youtu.be/66e_pvVlRMU
https://youtu.be/HdGciJvAiBA

Half life lo conosciamo è un capolavoro assoluto.

In Bioshock 2 del primo video vorrei sapere come si è proceduto a precalcolare solo il riflesso nel pavimento allagato del nemico in movimento e dei suoi razzi quando non viene inquadrato dalla telecamera.

Cfranco
06-02-2019, 08:43
Serve a far vedere che funziona bene anche se nell'unico gioco in cui c'è (in realtà nella demo, non nel gioco) fa schifo.

Questo non è un benchmark, è un tool per dare qualcosa da farci a chi ha comprato una RTX, visto che di giochi che utilizzano le parti nuove non ce ne sono, nonostante ne abbiano annunciati decine al lancio delle schede. Per esempio Tomb Raider e Assetto Corsa Competizione sul mercato da 5 mesi, che dovevano avere supporto RT e non se ne vede l'ombra (e la lista DLSS è anche più lunga, ma visto che non funziona probabilmente rimarrà una lista morta)

Dunque da Agosto 2018 ( 6 mesi ) quelli che hanno comprato RTX possono godersi nell' ordine :
I riflessi sulle pozzanghere di BFV in ray tracing
La riedizione di Quake II in RT
Una versione apposita di 3DMark con RT e DLSS

Ah, per molti c' è stata anche una versione speciale di Space Invaders

"Just buy it" :fagiano:

Roland74Fun
06-02-2019, 09:03
Ma il Bench in oggetto funziona anche colle altre schede video? Ovviamente con ricadute al livello prestazionale?

Gyammy85
06-02-2019, 09:25
Ma il Bench in oggetto funziona anche colle altre schede video? Ovviamente con ricadute al livello prestazionale?

Non credo proprio, gira sempre attraverso unità dedicate

D4N!3L3
06-02-2019, 09:34
Non credo proprio, gira sempre attraverso unità dedicate

Oh cavolo, vedendo l'avatar credevo ti fossi risposto da solo. :stordita:

propriolui!
06-02-2019, 09:44
Ma sbaglio o con DLSS si vede meglio di TAA oltre andare di più? :confused:

Decrbov
06-02-2019, 09:50
Ma sbaglio o con DLSS si vede meglio di TAA oltre andare di più? :confused:

Più che altro è con TAA che si vede peggio di qualsiasi altra cosa.

D4N!3L3
06-02-2019, 09:51
Sempre polemico...le RTX sono delle schede video mostruose a livello di potenza. Tutte riescono a far girare al massimo i giochi in FHD oltre i 144 fps. la 2080 e 2080ti permettono di giocare al massimo i giochi 4k. Il problema al massimo è il costo ma quello è un classico di tutte le cose nuove e uniche. Tenendo presente che ci sono le 2070 a poco più di 400 euro, le 2080 nella fascia dei 500 euro circa. Al momento sono l'unica alternativa possibile sul mercato dove Amd ha accusato parecchio ritardo.

Si ma possiamo dire che il costo maggiore è dovuto al RT che a tutti gli effetti non viene praticamente usato?

Quindi tu compri maggior potenza rispetto alla precedente generazione ad un prezzo più alto dovuto ad una funzione utilizzata poco o nulla (al momento) per poi usufruirne solo in ambito potenza?

Giusto che si vada avanti per carità così magari tra un paio di generazioni avremo una scheda di grande potenza e magari il RT implementato a dovere. A parte i primi tempi della computer grafica poi è sempre stato così per ogni novità.

propriolui!
06-02-2019, 09:52
Sempre polemico...le RTX sono delle schede video mostruose a livello di potenza. Tutte riescono a far girare al massimo i giochi in FHD oltre i 144 fps. la 2080 e 2080ti permettono di giocare al massimo i giochi 4k. Il problema al massimo è il costo ma quello è un classico di tutte le cose nuove e uniche. Tenendo presente che ci sono le 2070 a poco più di 400 euro, le 2080 nella fascia dei 500 euro circa. Al momento sono l'unica alternativa possibile sul mercato dove Amd ha accusato parecchio ritardo.

:eek:
puoi linkarmi gli shop? grazie :)

Roland74Fun
06-02-2019, 09:52
Ma sbaglio o con DLSS si vede meglio di TAA oltre andare di più? :confused:

È stato concepito proprio per quello. L'innovazione prosegue, altrimenti non avrebbe senso che tennici ed ingenieri lavorino ore al giorno per cercare di ottimizzare il tutto.
Pensiamo solo a come è pesante il Super Sampling.
chi lo usa seriamente oggi? È un mattone quindi improponibile pensare di utilizzarlo sui giochi in maniera diffusa senza pagare dazio alle prestazioni.
Oggi ci sono metodi nuovi di antialiasin quasi altrettanto efficaci ma più leggeri.

Questo DLSS è solo l'ultimo step.

propriolui!
06-02-2019, 09:53
Più che altro è con TAA che si vede peggio di qualsiasi altra cosa.

ricordo i test di FFV e non era così, con DLSS si vedeva peggio, in questo bench invece con DLSS è perfetto e TAA tutto sfuocato.

cignox1
06-02-2019, 10:02
Sono state citate le cubemaps per i riflessi, e di recente si é parlato molto di SS reflections.
Cose come pozzanghere, laghi etc vengono realizzate da quasi un ventennio in maniera estremamente semplice: renderizzando la scena "riflettendo" sul piano di riflessione il punto di vista del giocatore, e poi usando il risultato sulla superficie stessa. Tecnica molto semplice, ma che funziona solo in alcuni casi specifici (come, appunto, grandi superfici piane).

Il fatto stesso che vengano comunemente usati almeno 3 tipi diversi di algoritmi per riprodurre i fenomeni di riflessione e che, nonostante questo, sia comunque impossibile coprire anche casi d'uso molto comuni nelle scene reali la dice lunga sulla necessitá di introdurre nuove tecniche.

Tramite RT c'é (sostanzialmente) un solo modo, e pure molto semplice: rifletti il raggio e sparalo nuovamente nella scena. Copri il 100% dei casi (estendendo il concetto hai anche le riflessioni "sfumate"), usi lo stesso identico codice che usi per tutti gli altri casi (ombre, raggi primari etc) ed é anche molto scalabile, perché puoi decidere quanti raggi sparare in base all'hardware a disposizione.

>>Gli sviluppatori hanno a disposizione da 10 anni opencl e da 7 anni le dx12
Personalmente sono convinto che si potesse implementare RT nei giochi giá prima di RTX. Se Brigade 3 (cercatelo su youtube) ha potuto renderizzare in path tracing una scena intera con hw di anni e anni fa, di sicuro si poteva fare qualcosa anche senza RTX.
Credo che la vera "rivoluzione" non sia tanto quello, infatti, ma il supporto esplicito da parte di DirectX (da una parte) e il sistema di denoising (dall'altra).

Cfranco
06-02-2019, 10:11
Sempre polemico...
Quando qualcuno chiede certe cifre mi aspetto e pretendo dei risultati, e subito.
Voglio essere trattato da cliente, non come una mucca da mungere.

ci sono le 2070 a poco più di 400 euro, le 2080 nella fascia dei 500 euro circa.
Intendi iva esclusa, vero ?

djmatrix619
06-02-2019, 10:12
Le parole insegnate dal marketing.



La realtà.

https://youtu.be/66e_pvVlRMU
https://youtu.be/HdGciJvAiBA

Semplicemente ancora non hai capito la differenza.. ma va bene cosí.

propriolui!
06-02-2019, 10:15
Semplicemente ancora non hai capito la differenza.. ma va bene cosí.

sinceramente anch'io non l'ho capita, cioè capisco che la tecnica è differente ma il risultato no e li troviamo in giochi vecchi e che girano bene.

puoi spiegarti? :)

propriolui!
06-02-2019, 10:17
Sono state citate le cubemaps per i riflessi, e di recente si é parlato molto di SS reflections.
Cose come pozzanghere, laghi etc vengono realizzate da quasi un ventennio in maniera estremamente semplice: renderizzando la scena "riflettendo" sul piano di riflessione il punto di vista del giocatore, e poi usando il risultato sulla superficie stessa. Tecnica molto semplice, ma che funziona solo in alcuni casi specifici (come, appunto, grandi superfici piane).

Il fatto stesso che vengano comunemente usati almeno 3 tipi diversi di algoritmi per riprodurre i fenomeni di riflessione e che, nonostante questo, sia comunque impossibile coprire anche casi d'uso molto comuni nelle scene reali la dice lunga sulla necessitá di introdurre nuove tecniche.

Tramite RT c'é (sostanzialmente) un solo modo, e pure molto semplice: rifletti il raggio e sparalo nuovamente nella scena. Copri il 100% dei casi (estendendo il concetto hai anche le riflessioni "sfumate"), usi lo stesso identico codice che usi per tutti gli altri casi (ombre, raggi primari etc) ed é anche molto scalabile, perché puoi decidere quanti raggi sparare in base all'hardware a disposizione.

>>Gli sviluppatori hanno a disposizione da 10 anni opencl e da 7 anni le dx12
Personalmente sono convinto che si potesse implementare RT nei giochi giá prima di RTX. Se Brigade 3 (cercatelo su youtube) ha potuto renderizzare in path tracing una scena intera con hw di anni e anni fa, di sicuro si poteva fare qualcosa anche senza RTX.
Credo che la vera "rivoluzione" non sia tanto quello, infatti, ma il supporto esplicito da parte di DirectX (da una parte) e il sistema di denoising (dall'altra).

Il quanti raggi sparare ti da la risoluzione? troppo pochi quindi troppo sgranato e troppo lavoro per il denoise dopo?

Decrbov
06-02-2019, 10:47
sinceramente anch'io non l'ho capita, cioè capisco che la tecnica è differente ma il risultato no e li troviamo in giochi vecchi e che girano bene.

puoi spiegarti? :)

Sinceramente non l'ha capita manco lui, a schermo si vedono le stesse cose, ma se accidia ha detto che è "greatest leap since 2006" deve essere così per forza perchè accidia non mente.

Sono state citate le cubemaps per i riflessi, e di recente si é parlato molto di SS reflections.
Cose come pozzanghere, laghi etc vengono realizzate da quasi un ventennio in maniera estremamente semplice: renderizzando la scena "riflettendo" sul piano di riflessione il punto di vista del giocatore, e poi usando il risultato sulla superficie stessa. Tecnica molto semplice, ma che funziona solo in alcuni casi specifici (come, appunto, grandi superfici piane).

Il fatto stesso che vengano comunemente usati almeno 3 tipi diversi di algoritmi per riprodurre i fenomeni di riflessione e che, nonostante questo, sia comunque impossibile coprire anche casi d'uso molto comuni nelle scene reali la dice lunga sulla necessitá di introdurre nuove tecniche.

Tramite RT c'é (sostanzialmente) un solo modo, e pure molto semplice: rifletti il raggio e sparalo nuovamente nella scena. Copri il 100% dei casi (estendendo il concetto hai anche le riflessioni "sfumate"), usi lo stesso identico codice che usi per tutti gli altri casi (ombre, raggi primari etc) ed é anche molto scalabile, perché puoi decidere quanti raggi sparare in base all'hardware a disposizione.

>>Gli sviluppatori hanno a disposizione da 10 anni opencl e da 7 anni le dx12
Personalmente sono convinto che si potesse implementare RT nei giochi giá prima di RTX. Se Brigade 3 (cercatelo su youtube) ha potuto renderizzare in path tracing una scena intera con hw di anni e anni fa, di sicuro si poteva fare qualcosa anche senza RTX.
Credo che la vera "rivoluzione" non sia tanto quello, infatti, ma il supporto esplicito da parte di DirectX (da una parte) e il sistema di denoising (dall'altra).

Quindi devo pagare 1400€ per giocare in fullhd, vedere le stesse cose ma far sbattere meno i programmatori?
Che innovazione!

Gyammy85
06-02-2019, 10:53
Semplicemente ancora non hai capito la differenza.. ma va bene cosí.

Si ma di raytracing l'approccio di nvidia avrà il nome e qualche tecnica, perché il raytracing vero e proprio è un'altra cosa, è fotorealistico.

Poi se uno deve credere che dentro la scheda c'è un sole artificiale che illumina tutto realmente grazie a complicatissimi calcoli che solo huang sa e che solo le unità dedicate possono fare in the world, è un altro discorso. Non è niente che non si possa fare con le tecniche attuali, che tra l'altro sono utilizzate per il 10% causa retrocompatibilità con le miliardi di maxwell da 80 euro nel globo.

Il lavoro degli sviluppatori dovrebbe essere del tipo "accendiamo la lampadina lì che rimbalza ovunque grazie al fantastico compilatore(?) che fa tutto lui", guarda di giochi preconfezionati ce ne sono abbastanza, partendo da unity fino ad arrivare alla spazzatura ue4.

Gyammy85
06-02-2019, 10:54
Il problema sono funzioni DOA fatte pagare come oro, schede DOA fatte pagare come platino, e RMA che avrei potuto gestire meglio io.

Ottima sintesi.

Decrbov
06-02-2019, 11:05
Si ma di raytracing l'approccio di nvidia avrà il nome e qualche tecnica, perché il raytracing vero e proprio è un'altra cosa, è fotorealistico.

Quello che invidia chiama "raytracing" è un render ibrido dove il 99% è raster e lo 1% raytracing sgranato ripulito in qualche modo dai tensor.
Costo economico x2, costo prestazionale x2, resa a video 1%.
Venghino siori!

cignox1
06-02-2019, 15:18
Scusate, ma mi pare che qui i commenti siano fuori controllo, lo dico senza animositá...

>>a schermo si vedono le stesse cose, ma se accidia ha detto che è "greatest leap since 2006"

e "accidia" ha ragione. Il raytracing porterá potenzialmente ad una rivoluzione analoga a quella degli shaders programmabili. Solo che, sfortunatamente, il modo in cui lo hanno commercializzato e pubblicizzato non é stato dei migliori.

>>Quindi devo pagare 1400€ per giocare in fullhd, vedere le stesse cose ma far sbattere meno i programmatori?
Che innovazione!

Nessuno ha mai detto che devi pagare 1400 euro. O qui si parla di tecnologia o si parla di scelte commerciali. É inutile mischiare le cose. La cifra a cui vendono la scheda é folle oltre ogni dire, ma il raytracing (di cui RTX é solo l'implementazione nVidia) potrebbe rivoluzionare il settore nel corso dei prossimi anni.
Se improvvisamente il codice che ls sh devono sviluppare, testare e mantenere viene decimato, e la sua complessitá si riduce ad una frazione di quella attuale pur risultando in una grafica superiore, chi pensi che ci guadagna?

>>perché il raytracing vero e proprio è un'altra cosa, è fotorealistico.
Detta cosí non ha senso proprio. Di cosa stiamo parlando? Di Whitted style raytracing? Di path tracing? Di cosa? Il "raytracing" é una famiglia di algoritmi, basati sul tracciamento dei raggi in una scena. Il realismo dipende peró dall'implementazione: Il whitted style non é realistico, di per se (non per gli standard moderni). Il path tracing lo puó essere. Ma dipende da quali fenomeni vengono replicati (solo riflessioni delta o anche "sfuocate"?) e, ancora di piú, dipende da come vengono implementati i materiali (fisicamente corretti? multistrato?)

La novitá sta nel fatto che il "raytracing" puó, in principio, portare alla grafica fotorealistica, mentre la rasterizzazione no. Ma é inutile pretendere di avere tutto e subito, ci vorrá del tempo, come per tutto.

>>Quello che invidia chiama "raytracing" è un render ibrido dove il 99% è raster e lo 1% raytracing sgranato ripulito in qualche modo dai tensor.
Costo economico x2, costo prestazionale x2, resa a video 1%.

Vero. E alla prossima generazione sará 85%-15%, e quella dopo 60%-40%, e poi 40%-60% etc etc.
ESATTAMENTE come é stato per gli shader programmabili, che hanno convissuto assieme alla fixed function pipeline per anni prima di soppiantarla in toto. E come, prima di loro, le "schede video", che hanno condiviso parte del lavoro con la cpu prima che arrivasse il T&L hardware.
É sempre stato cosí e non capisco perché ora si pretenda qualcosa di diverso.

Cfranco
06-02-2019, 15:33
É sempre stato cosí e non capisco perché ora si pretenda qualcosa di diverso.
Il motivo è uno e solo uno : il prezzo.

Se sforni una scheda che va il 50% in più della precedente a parità di costo e dentro ci sono funzionalità mirabolanti che però nessuno usa, pazienza, comunque spendo di meno e ho di più di prima.
Se sforni una scheda che va il 50% in più di prima e costa il 50% in più io cosa ci guadagno ? dovrei pagare di più per avere della meravigliosa tecnologia che nessuno usa ?


O qui si parla di tecnologia o si parla di scelte commerciali. É inutile mischiare le cose.
Assolutamente no
Non puoi parlare di tecnologie senza considerare il prezzo, con qualche miliardo di $ ti fai una macchina che fa ray tracing in tempo reale, quindi vale la pena comprarla ?
Il prezzo è un elemento fondamentale della valutazione di una tecnologia, fare qualcosa di straordinario spendendo una barca di soldi è facilissimo, basta aggiungere silicio fregandosene dei costi, come diceva Henry Ford "C'è vero progresso solo quando i vantaggi di una nuova tecnologia diventano per tutti".
nVidia ha preteso un prezzo oltraggioso per le RTX dicendo che ne sarebbe valsa la pena con 25 titoli a supportare il DLSS e altri 20 in RTX.
Dove sono ?
I soldi però li ha presi tutti e subito, mica puoi prendere una RTX e pagarla il 20% in meno dicendo che il resto lo verserai quando ci saranno i giochi promessi.

Decrbov
06-02-2019, 15:47
Scusate, ma mi pare che qui i commenti siano fuori controllo, lo dico senza animositá...

>>a schermo si vedono le stesse cose, ma se accidia ha detto che è "greatest leap since 2006"

e "accidia" ha ragione. Il raytracing porterá potenzialmente ad una rivoluzione analoga a quella degli shaders programmabili. Solo che, sfortunatamente, il modo in cui lo hanno commercializzato e pubblicizzato non é stato dei migliori.

>>Quindi devo pagare 1400€ per giocare in fullhd, vedere le stesse cose ma far sbattere meno i programmatori?
Che innovazione!

Nessuno ha mai detto che devi pagare 1400 euro. O qui si parla di tecnologia o si parla di scelte commerciali. É inutile mischiare le cose. La cifra a cui vendono la scheda é folle oltre ogni dire, ma il raytracing (di cui RTX é solo l'implementazione nVidia) potrebbe rivoluzionare il settore nel corso dei prossimi anni.
Se improvvisamente il codice che ls sh devono sviluppare, testare e mantenere viene decimato, e la sua complessitá si riduce ad una frazione di quella attuale pur risultando in una grafica superiore, chi pensi che ci guadagna?

>>perché il raytracing vero e proprio è un'altra cosa, è fotorealistico.
Detta cosí non ha senso proprio. Di cosa stiamo parlando? Di Whitted style raytracing? Di path tracing? Di cosa? Il "raytracing" é una famiglia di algoritmi, basati sul tracciamento dei raggi in una scena. Il realismo dipende peró dall'implementazione: Il whitted style non é realistico, di per se (non per gli standard moderni). Il path tracing lo puó essere. Ma dipende da quali fenomeni vengono replicati (solo riflessioni delta o anche "sfuocate"?) e, ancora di piú, dipende da come vengono implementati i materiali (fisicamente corretti? multistrato?)

La novitá sta nel fatto che il "raytracing" puó, in principio, portare alla grafica fotorealistica, mentre la rasterizzazione no. Ma é inutile pretendere di avere tutto e subito, ci vorrá del tempo, come per tutto.

>>Quello che invidia chiama "raytracing" è un render ibrido dove il 99% è raster e lo 1% raytracing sgranato ripulito in qualche modo dai tensor.
Costo economico x2, costo prestazionale x2, resa a video 1%.

Vero. E alla prossima generazione sará 85%-15%, e quella dopo 60%-40%, e poi 40%-60% etc etc.
ESATTAMENTE come é stato per gli shader programmabili, che hanno convissuto assieme alla fixed function pipeline per anni prima di soppiantarla in toto. E come, prima di loro, le "schede video", che hanno condiviso parte del lavoro con la cpu prima che arrivasse il T&L hardware.
É sempre stato cosí e non capisco perché ora si pretenda qualcosa di diverso.

Tante chiacchiere ma la realtà è che costa il doppio, va la metà e non cambia nulla.

La prossima generazione... vale zero, se io pago una 2080ti guardo cosa fa una 2080ti, di cosa farà la 3080ti che mi frega?
Il raytracing sarà il futuro? Lo comprerò in futuro.

propriolui!
06-02-2019, 17:11
Tante chiacchiere ma la realtà è che costa il doppio, va la metà e non cambia nulla.

La prossima generazione... vale zero, se io pago una 2080ti guardo cosa fa una 2080ti, di cosa farà la 3080ti che mi frega?
Il raytracing sarà il futuro? Lo comprerò in futuro.

Severo, ma giusto.

cignox1
07-02-2019, 12:04
>Non puoi parlare di tecnologie senza considerare il prezzo, con qualche miliardo di $ ti fai una macchina che fa ray tracing in tempo reale, quindi vale la pena comprarla ?

Certo che posso, perché sto parlando di tecnologia e non di consigli per gli acquisti.
Da mesi si sentono cose come "il raytracing é inutile", "solo qualche effettino e nulla piú", "si potevano fare le stesse cose anche prima". E io rispondo in merito a queste. E se mi dici che il prezzo é folle ti rispondo che hai ragione. E se mi dici che non hai intenzione di comprarla per 1 solo gioco ti rispondo "neppure io". E se mi dici che quello che hanno mostrato in Battlefield non é nulla di sconvolgente ti dico "no, in effetti no".
Ma se mi dici che "il raytracing é inutile, non serve a nulla, etc etc" allora ti dico che non sai di che parli perché potremmo essere sulla soglia di una rivoluzione nella grafica per videogiochi e possiamo decidere di varcarla o di chiudere la porta solo perché nVidia non ha saputo venderla bene.

>>fare qualcosa di straordinario spendendo una barca di soldi è facilissimo, basta aggiungere silicio fregandosene dei costi

Argomento fantoccio. Non stiamo parlando di un prototipo commissionato dalla Pixar. Stiamo parlando di un prodotto consumer che si trova in negozio e che, evidentemente, costa troppo per quello che offre. Capita. Questo non rende la tecnologia che introduce meno ambiziosa o innovativa. Solo mal venduta.

>>Il raytracing sarà il futuro? Lo comprerò in futuro.

E fai bene. E, torno a ripetere, non difendo (e mai lo faró) la 2080TI RTX in sé, quanto la decisione di Microsoft/nVidia di affrontare (finalmente) l'annosa questione di come superare gli evidenti limiti della rasterizzazione. La prima iterazione é andata male? Pazienza, andrá meglio la prossima. O quando anche AMD si butterá nella corsa al numero di raggi e la competizione fará scendere i prezzi.

D4N!3L3
07-02-2019, 12:24
Se mi è permesso, nonostante sia contento di questa nuova tecnologia, la vera evoluzione la vedrei nell'interazione con i mondi virtuali, ma a quanto pare sono l'unico sulla faccia della terra.

Quando gioco spesso ho l'impressione di stare dentro una foto, tutto meraviglioso e luccicante ma con un missile non sposto nemmeno una foglia.

Con il primo Crysis o anche Far Cry 2 la cosa stava prendendo una bella piega, poi arrestata in nome del fotorealismo a tutti i costi.

Non dimentichiamoci che non stiamo guardando un film ma stiamo interagendo con un ambiente anche se virtuale. Il realismo cade quando in un ambiente fotorealistico il mio passaggio non lascia nulla o quasi.

Hulk9103
07-02-2019, 17:47
>Non puoi parlare di tecnologie senza considerare il prezzo, con qualche miliardo di $ ti fai una macchina che fa ray tracing in tempo reale, quindi vale la pena comprarla ?

Certo che posso, perché sto parlando di tecnologia e non di consigli per gli acquisti.
Da mesi si sentono cose come "il raytracing é inutile", "solo qualche effettino e nulla piú", "si potevano fare le stesse cose anche prima". E io rispondo in merito a queste. E se mi dici che il prezzo é folle ti rispondo che hai ragione. E se mi dici che non hai intenzione di comprarla per 1 solo gioco ti rispondo "neppure io". E se mi dici che quello che hanno mostrato in Battlefield non é nulla di sconvolgente ti dico "no, in effetti no".
Ma se mi dici che "il raytracing é inutile, non serve a nulla, etc etc" allora ti dico che non sai di che parli perché potremmo essere sulla soglia di una rivoluzione nella grafica per videogiochi e possiamo decidere di varcarla o di chiudere la porta solo perché nVidia non ha saputo venderla bene.

>>fare qualcosa di straordinario spendendo una barca di soldi è facilissimo, basta aggiungere silicio fregandosene dei costi

Argomento fantoccio. Non stiamo parlando di un prototipo commissionato dalla Pixar. Stiamo parlando di un prodotto consumer che si trova in negozio e che, evidentemente, costa troppo per quello che offre. Capita. Questo non rende la tecnologia che introduce meno ambiziosa o innovativa. Solo mal venduta.

>>Il raytracing sarà il futuro? Lo comprerò in futuro.

E fai bene. E, torno a ripetere, non difendo (e mai lo faró) la 2080TI RTX in sé, quanto la decisione di Microsoft/nVidia di affrontare (finalmente) l'annosa questione di come superare gli evidenti limiti della rasterizzazione. La prima iterazione é andata male? Pazienza, andrá meglio la prossima. O quando anche AMD si butterá nella corsa al numero di raggi e la competizione fará scendere i prezzi.

Scusami tanto, siamo in un forum no? E' impossibile e irreale pensare di poter parlare di una tecnologia IN VENDITA e di non elargire consigli per l'acquisto nel medesimo momento.
In questo momento chi sta leggendo questi commenti si starà SICURAMENTE facendo un'idea sul ray tracing o sbaglio?
Non si parla di qualcosa che potrebbe arrivare, si parla di qualcosa che ESISTE e che tutti possono avere.

Tu in questo momento stai dando un consiglio che è quello di non comprarla, se poi in futuro sarà come dici te un'innovazione a me e a tutto il mondo francamente non interessa. Le schede le stanno vendendo nel 2019 non nel 2025.

Basta guardare il mercato per capire. Attualmente il mercato ha parlato ed ha parlato chiaro.


Attualmente stanno vendendo una cosa acerba, spacciata per miracolo al doppio del prezzo che dovrebbe stare una normale vga e, ricollegandomi al mio post precedente parecchi l'hanno presa nel sacco...

cignox1
08-02-2019, 07:06
>>Scusami tanto, siamo in un forum no? E' impossibile e irreale pensare di poter parlare di una tecnologia IN VENDITA e di non elargire consigli per l'acquisto nel medesimo momento.

Ma io NON sto parlando di RTX 2080Ti, RTX 2080 o RTX 2070 etc. Io rispondo e commento riguardo al raytracing, che é una tecnica impiegata da una famiglia di algoritmi, non un prodotto in vendita.
Il prodotto in vendita é RTX, cioé la GPU nVidia che implementa RTX, che a sua volta é l'implementazione nVidia di DXR (DirectX raytracing). E il "raytracing" NON ha prezzi, posizionamenti nel mercato etc. È RTX ad averlo. E se (proprio) mi tocca parlare di RTX, allora (come ho giá scritto) sono d'accordo con chi sostiene che costa troppo etc.
Incoraggio solo la discussione a non confondere RTX con "il raytracing" in generale, e a non pensare che i limiti di questa prima implementazione nVidia siano limiti del "raytracing" in generale. O si parla di algoritmi grafici, o si parla di prodotto in commercio.
Preferisco distinguere le due cose: avendo implementato io stesso un raytracer anni fa e conoscendo qualcosa in merito, fatico un pó a capire lo scetticismo che c'é initorno a RTX (al netto di un prezzo che io per primo trovo eccessivo. Ma questo é un non problema: si compra altro).

Hulk9103
08-02-2019, 11:55
>>Scusami tanto, siamo in un forum no? E' impossibile e irreale pensare di poter parlare di una tecnologia IN VENDITA e di non elargire consigli per l'acquisto nel medesimo momento.

Ma io NON sto parlando di RTX 2080Ti, RTX 2080 o RTX 2070 etc. Io rispondo e commento riguardo al raytracing, che é una tecnica impiegata da una famiglia di algoritmi, non un prodotto in vendita.
Il prodotto in vendita é RTX, cioé la GPU nVidia che implementa RTX, che a sua volta é l'implementazione nVidia di DXR (DirectX raytracing). E il "raytracing" NON ha prezzi, posizionamenti nel mercato etc. È RTX ad averlo. E se (proprio) mi tocca parlare di RTX, allora (come ho giá scritto) sono d'accordo con chi sostiene che costa troppo etc.
Incoraggio solo la discussione a non confondere RTX con "il raytracing" in generale, e a non pensare che i limiti di questa prima implementazione nVidia siano limiti del "raytracing" in generale. O si parla di algoritmi grafici, o si parla di prodotto in commercio.
Preferisco distinguere le due cose: avendo implementato io stesso un raytracer anni fa e conoscendo qualcosa in merito, fatico un pó a capire lo scetticismo che c'é initorno a RTX (al netto di un prezzo che io per primo trovo eccessivo. Ma questo é un non problema: si compra altro).


Ma io vedo che 3dmark da la possibilità di fare test sul ray tracing no? Qual'è, attualmente, l'unico strumento a mia disposizione per poter effettuare il test? Una scheda video nvidia rtx... non posso scindere le due cose.

Certo che ha prezzo, lo ha da quando nvidia lo ha messo nel mercato. Anche l'aria ha un costo quindi dubito nvidia lavori a gratis.

Il costo invece è un problema eccome perchè se a me del ray tracing non me ne importa una mazza, vista la sua dubbia utilità e funzionalità, non mi viene data la possibilità di comprare una top vga senza dxr a minor costo.


Poi ovvio sono settimane e mesi che escono post su post notizie su notizie che parlano solo ed esclusivamente del dxr, tant'è che molti non sanno nemmeno le potenzialità con dxr off della vga....
E' stata cambiata pure la sigla da GTX a RTX solo per questa tecnologia. Ma come si fa a dire che non ha prezzo? ci hanno fatto una campagna marketing allucinante.


Le vga non le vendono, BF5 non lo vendono. Le conclusioni sono poche, anzi una sola.

Fos
10-02-2019, 18:35
Si ma di raytracing l'approccio di nvidia avrà il nome e qualche tecnica, perché il raytracing vero e proprio è un'altra cosa, è fotorealistico.

...causa retrocompatibilità con le miliardi di maxwell da 80 euro nel globoIl Raytracing è un'approssimazione, e l'implementazione di Nvidia è un'approssimazione dell'approssimazione.

Da più di qualche anno ci sono metodi nettamente migliori, tipo quello che ha preso spunto dallo stesso fisico... Maxwell:
http://www.nextlimit.com/maxwell/gallery/

Con la potenza computazionale di ora si può usare, non si è più costretti al Raytracing per diminuire i tempi e le spese (almeno non come prima).

Riguardo al Raytracing:
https://it.wikipedia.org/wiki/Ray_tracing
...ma semplifica alcuni effetti ottici avanzati, ad esempio un'accurata simulazione della riflessione e della rifrazione, restando abbastanza efficiente da permetterne l'uso in caso si voglia ottenere un risultato di alta qualità

Riguardo ad un render Unbiased come Maxell:
Maxwell Render è un motore di rendering basato sulla fisica della luce reale. I suoi algoritmi e le sue equazioni riproducono il comportamento della luce in modo esaustivo e meticoloso. Tutti gli elementi di Maxwell Render, quali ad esempio i light emitters, i material shaders e le cameras, sono completamente basati su accurati modelli fisici.

Il metodo di calcolo di Maxwell Render converge sempre verso la corretta soluzione senza introdurre artifici in quanto è un renderer unbiased. Maxwell Render può calcolare interamente tutte le interazioni luminose fra gli elementi presenti in una scena

Rendering Unbiased:
https://en.wikipedia.org/wiki/Unbiased_rendering
In computer graphics, unbiased rendering refers to a rendering technique that does not introduce any systematic error, or bias, into the radiance approximation. Because of this, it is often used to generate the reference image to which other rendering techniques are compared

Ogni volta che si parla di Raytracing spunta l'ombra del fotorealismo, e tocca ricordare alcuni dettagli... :O