PDA

View Full Version : GeForce RTX 4090 e 4080, NVIDIA parla delle prestazioni con o senza DLSS


Redazione di Hardware Upg
22-09-2022, 10:01
Link alla notizia: https://www.hwupgrade.it/news/skvideo/geforce-rtx-4090-e-4080-nvidia-parla-delle-prestazioni-con-o-senza-dlss_110355.html

NVIDIA spiega perché parla di prestazioni dalle 2 alle 4 volte maggiori per la nuova generazione di GPU GeForce RTX 4000 rispetto alla serie RTX 3000. Se le prestazioni shader crescono, l'impatto del DLSS oggi, e ancora di più in futuro, deve essere tenuto in considerazione.

Click sul link per visualizzare la notizia.

pity91
22-09-2022, 10:14
"Gli appassionati di hardware, noi in primis, dovranno cambiare un po' prospettiva nel valutare le schede video in arrivo perché le tecnologie di upscaling diventeranno sempre più preponderanti e diffuse. Guardare alle sole prestazioni degli shader potrebbe quindi risultare limitante, anche se comunque la nuova gamma di NVIDIA compie un passo avanti non trascurabile."

mah che l'Upscaling diventi una regola, no grazie

Zappz
22-09-2022, 10:21
Perciò un +50% dal grafico fatto da nvidia stessa che più realisticamente diventerenno un +30/40%.

Iceman69
22-09-2022, 10:35
In sostanza ci stanno prendendo in giro e dovremmo pure abituarci? Ma anche no, consumi allucinanti per un vantaggio prestazionale reale risicato senza attivare trucchetti vari. A questo giro le 4080 sono una vera presa in giro. L'unica valida è la 4090, ma ad un prezzo e con consumi molto elevati (decisamente poco ecosostenibili). Senza i minatori Nvidia avrà i suoi problemi a venderle. Speriamo calino presto i prezzi.

Ragerino
22-09-2022, 10:38
Ci gira Crysis?

ningen
22-09-2022, 11:03
Nella sostanza, se consideriamo che le prestazioni di una 4080 da 12 gb siano paragonabili ad una 3090 ti o giù di li, la 4080 da 12 gb sarà più veloce di una 3080 da 10 gb (che tecnicamente è il modello che dovrebbe sostituire stando ad Nvidia) di circa un 20% in 4K e di un 14% a 1440p (ho preso queste percentuali dalla recensione della 3090 ti qui su HWU), se non consideriamo i miglioramenti con Raytracing e DLSS3, che però saranno limitati dal numero di titoli che li supporteranno.
Effettivamente il miglioramento è un pò risicato, rispetto alle mirabolanti prestazioni mostrate in certi titoli del grafico dove a quanto pare hanno attivato il DLSS3 per raggiungere tali risultati e nei confronti della 3080 da 12 gb il miglioramento è ancora più risicato, visto che i risultati di quest'ultima sono praticamente identici alla 3080 ti.
Credo che chi ha una 3080 non ha molti motivi per cambiare.

FaTcLA
22-09-2022, 11:09
Ci gira Crysis?

SOLO se abiliti il dlss, altrimenti va a 22fps

Mars95
22-09-2022, 11:23
Se ha prestazioni doppie solo con il DLSS 3.0 che di fatto raddoppia i frame inserendone di finti vuol dire che senza vanno come prima :doh:
Quindi alla fine la 4080 16gb tolto il DLSS 3.0 va come una 3090ti, costa uguale, consuma uguale e ha meno ram? :fagiano:
E la 4090 non sono altro che 2 3080 saldate assieme con il DLSS 3.0

coschizza
22-09-2022, 11:30
Se ha prestazioni doppie solo con il DLSS 3.0 che di fatto raddoppia i frame inserendone di finti vuol dire che senza vanno come prima :doh:
Quindi alla fine la 4080 16gb tolto il DLSS 3.0 va come una 3090ti, costa uguale, consuma uguale e ha meno ram? :fagiano:
E la 4090 non sono altro che 2 3080 saldate assieme con il DLSS 3.0

devi aspettare i benchmark prima di dire una cosa simile, ma visto l'architettura direi che andra un po di piu consumando molto meno perche hanno aumentato molto l'efficienza

RaZoR93
22-09-2022, 11:34
Se ha prestazioni doppie solo con il DLSS 3.0 che di fatto raddoppia i frame inserendone di finti vuol dire che senza vanno come prima :doh:
Quindi alla fine la 4080 16gb tolto il DLSS 3.0 va come una 3090ti, costa uguale, consuma uguale e ha meno ram? :fagiano:
E la 4090 non sono altro che 2 3080 saldate assieme con il DLSS 3.0No.
Prima di tutto consuma meno (320W vs 450W di TDP).
Secondo ha performance superiori (20-25%) nei game con solo rasterizzazione (secondo Nvidia, ma ho pochi dubbi sarà così).
Terzo, ha performance significativamente superiori in ray tracing, cosa che sarà più evidente in futuro e solo con un numero limitato di titoli al momento.
Quarto, DLSS3, la cui qualita sarà da valutare, promette un sostanziale aumento di performance che non necessariamente sarà del 100% in ogni titolo, ma sicuramente a doppia cifra percentuale.
DLSS3 é l’incognita più grossa, dato che dipenderà tutto dalla qualità.
Questa generazione somiglia per certi versi a Turing: grossa enfasi alle feature “RTX”, ovvero DLSS e Raytracing.
Ho l’impressione che il successo della gen dipenderà dalla qualità di DLSS3.

Mars95
22-09-2022, 11:34
devi aspettare i benchmark prima di dire una cosa simile, ma visto l'architettura direi che andra un po di piu consumando molto meno perche hanno aumentato molto l'efficienza

Come tutti mi baso sulle loro slide e informazioni, chiaro che le recensioni diranno molto di più.
"Hanno aumentato di molto l'efficienza" mi fa ridere, considerato che sono passati dagli 8nm Samsung ai 4nm TSMC l'hanno pure peggiorata l'efficienza.

pity91
22-09-2022, 11:34
fino ai test reali, però se ti scrivono che dovremo valutare le schede per altro e non per la potenza ha ha ha ha ha ha ha.
:doh:
Cambiate il finale vi prego

coschizza
22-09-2022, 11:35
Come tutti mi baso sulle loro slide e informazioni, chiaro che le recensioni diranno molto di più.
"Hanno aumentato di molto l'efficienza" mi fa ridere, considerato che sono passati dagli 8nm Samsung ai 4nm TSMC l'hanno pure peggiorata l'efficienza.

l'efficienza è aumentata di 2x secondo nvidia e secondo i test direi che è vero per quel poco che si è visto
Maggiore efficienza vuol dire piu fps a parita di consumo e qua ci siamo abbondantemente dentro come concetto

CrapaDiLegno
22-09-2022, 11:48
Va be', prima di fasciarci la testa vediamo le recensioni dopo l'NDA cosa dicono.
La 4090 ha il doppio della potenza di calcolo della 3090Ti con gli shader e unità RTX.
Significa che nello stesso spazio con gli stessi consumi sono riusciti a raddoppiare la potenza di calcolo.
Vedremo se questo si traduce nel raddoppio di FPS o se ci sono dei bottleneck da qualche parte che lo impediscono.

Personalmente, con un balzo di PP da Samsung a TSMC pensavo avrebbero fatto un po' meglio. Se ADA102 è 76 miliardi di transistor vs i 28 miliardi e rotti del GA102, i risultati sono un po' deludenti. Hanno investito forse troppo nelle unità matriciali tralasciando quello che è il vero succo del discorso: fare frame completi in meno tempo possibile tramite le unità classiche, cioè shader, ROP e TMU.
Forse con qualche aggiustatina driver riescono a migliorare le prestazioni anche sui giochi "classici", ma tutte queste risorse destinate alle unità matriciali+RT forse è stato un po' esagerato.
Durante la progettazione di Ada forse pensavano che i motori dei giochi sarebbero evoluti più velocemente di quanto in effetti hanno fatto. Purtroppo, colpa delle console o meno, siamo ancora a usare le unità RT per 4 effetti in croce e non c'è ancora nulla all'orizzonte per quanto riguarda il resto delle funzionalità, come per esempio il mesh shading.
E il carnet di giochi AAA è sempre il solito, FPS di tuti i tipi, C&P della versione vecchia + nuove mappe + texture migliori. Ormai siamo alla noia totale.
Almeno per me.

CrapaDiLegno
22-09-2022, 11:53
Come tutti mi baso sulle loro slide e informazioni, chiaro che le recensioni diranno molto di più.
"Hanno aumentato di molto l'efficienza" mi fa ridere, considerato che sono passati dagli 8nm Samsung ai 4nm TSMC l'hanno pure peggiorata l'efficienza.
Dovresti imparare cosa è l'efficienza e come si calcola prima di sparare queste assurdità. :muro:

Dark_Wolf
22-09-2022, 14:35
Bah, quello che sfugge guardando oltre ai numeri è che hanno deciso che non ci sarà un upgrade con sostituzione di fascia ma semplicemente una nuova categoria di prodotti che va ad inserirsi male embricandosi con la linea prodotti invenduta

Max Power
22-09-2022, 14:38
Va be', prima di fasciarci la testa vediamo le recensioni dopo l'NDA cosa dicono.
La 4090 ha il doppio della potenza di calcolo della 3090Ti con gli shader e unità RTX.
Significa che nello stesso spazio con gli stessi consumi sono riusciti a raddoppiare la potenza di calcolo.
Vedremo se questo si traduce nel raddoppio di FPS o se ci sono dei bottleneck da qualche parte che lo impediscono.

Personalmente, con un balzo di PP da Samsung a TSMC pensavo avrebbero fatto un po' meglio. Se ADA102 è 76 miliardi di transistor vs i 28 miliardi e rotti del GA102, i risultati sono un po' deludenti. Hanno investito forse troppo nelle unità matriciali tralasciando quello che è il vero succo del discorso: fare frame completi in meno tempo possibile tramite le unità classiche, cioè shader, ROP e TMU.
Forse con qualche aggiustatina driver riescono a migliorare le prestazioni anche sui giochi "classici", ma tutte queste risorse destinate alle unità matriciali+RT forse è stato un po' esagerato.
Durante la progettazione di Ada forse pensavano che i motori dei giochi sarebbero evoluti più velocemente di quanto in effetti hanno fatto. Purtroppo, colpa delle console o meno, siamo ancora a usare le unità RT per 4 effetti in croce e non c'è ancora nulla all'orizzonte per quanto riguarda il resto delle funzionalità, come per esempio il mesh shading.
E il carnet di giochi AAA è sempre il solito, FPS di tuti i tipi, C&P della versione vecchia + nuove mappe + texture migliori. Ormai siamo alla noia totale.
Almeno per me.

Fino a ieri non andavi in bagno, senza le unità all'amatriciana. :rotfl:

CrapaDiLegno
22-09-2022, 15:29
Fino a ieri non andavi in bagno, senza le unità all'amatriciana. :rotfl:

Mi mancava il commento infantile del fanboy AMD che non aspettava altro che mostrare il suo limitato QI e l'incapacità completa di comprensione delle cose.
Un conto è averli per aggiungere funzionalità avanzate, un conto è puntarci tutta una architettura.
I motori dei giochi non sono maturi a sufficienza per sfruttare tutti quelle unità diverse da quelle usate per fare raster.
Come se tu oggi facessi una GPU tutta di TMU e il triplo delle ROP pensando che tra 3 anni si useranno texture da 16K su monitor con quella definizione.
Non è che le TMU e le ROP sono inutili, quindi "non andavi al cesso se non le avevi".. se vuoi un processore grafico post seconda guerra mondiale le ROP e le TMU sono fondamentali, come ritengo ormai fondamentali avere unità matriciali per eseguire i nuovi algoritmi basati su AI e non più roba deterministica vecchia di 40 anni.
Ma così forse è troppo sbilanciata. I giochi continuano a sfruttare il raster in modo massiccio e continueranno a farlo fino a che le console non si aggiorneranno a poter calcolare più di qualche poligono in ray tracing.

Questo giro Nvidia ha messo in mano agli sviluppatori delle bestie per usare il ray tracing ma ha lasciato i giocatori con schede un po' monche per quanto riguarda l'aumento di prestazioni in raster.
Forse tra 2 anni si comincerà a sviluppare giochi con più parti calcolate in RT che in raster, dando ragione a questo sbilanciamento, ma questo giro mi sembra perso. Ed è un giro lungo, molto più lungo di quello passato.
A meno che AMD non faccia un pastrocchio completo con l'MCM, a quel punto siamo fregati da entrambi le parti con l'aumento di prestazioni. E dei prezzi.
Tutto a favore di Intel che potrà recuperare l'enorme gap in cui si colloca adesso.

k0nt3
22-09-2022, 19:02
Un conto è averli per aggiungere funzionalità avanzate, un conto è puntarci tutta una architettura.
I motori dei giochi non sono maturi a sufficienza per sfruttare tutti quelle unità diverse da quelle usate per fare raster.
Come se tu oggi facessi una GPU tutta di TMU e il triplo delle ROP pensando che tra 3 anni si useranno texture da 16K su monitor con quella definizione.
Non è che le TMU e le ROP sono inutili, quindi "non andavi al cesso se non le avevi".. se vuoi un processore grafico post seconda guerra mondiale le ROP e le TMU sono fondamentali, come ritengo ormai fondamentali avere unità matriciali per eseguire i nuovi algoritmi basati su AI e non più roba deterministica vecchia di 40 anni.
Ma così forse è troppo sbilanciata. I giochi continuano a sfruttare il raster in modo massiccio e continueranno a farlo fino a che le console non si aggiorneranno a poter calcolare più di qualche poligono in ray tracing.

Questo giro Nvidia ha messo in mano agli sviluppatori delle bestie per usare il ray tracing ma ha lasciato i giocatori con schede un po' monche per quanto riguarda l'aumento di prestazioni in raster.
Forse tra 2 anni si comincerà a sviluppare giochi con più parti calcolate in RT che in raster, dando ragione a questo sbilanciamento, ma questo giro mi sembra perso. Ed è un giro lungo, molto più lungo di quello passato.
A meno che AMD non faccia un pastrocchio completo con l'MCM, a quel punto siamo fregati da entrambi le parti con l'aumento di prestazioni. E dei prezzi.
Tutto a favore di Intel che potrà recuperare l'enorme gap in cui si colloca adesso.
Ti sembrerà strano ma sono d'accordo :p
Secondo me però la ragione di un'architettura così sbilanciata è un'altra, non hanno sopravvalutato l'evoluzione dei motori di rendering, ma piuttosto dedicato più risorse a settori che non sono "gaming". Nvidia già da tempo ha fiutato altri business più profittevoli e ci si è buttata a capofitto, uno su tutti DC. Poi c'è anche il mining, non dimentichiamoci che Lovelace è un'architettura che è stata concepita anni fa in pieno boom mining e per quanto Nvidia possa celarlo probabilmente alcune scelte architetturali servivano anche a quello.
Una grossa differenza strategica tra Nvidia e AMD è che quest'ultima ha differenziato l'architettura gaming (RDNA) da quella dedicata al computing (CDNA), mentre Nvidia ha una sola architettura che deve andare bene per tutto. Per questo ora si trovano con un'architettura sbilanciata (EDIT: a proposito non aveva architetture differenziate anche Nvidia in passato?). Forse davvero la chiave è stata accaparrarsi il mercato delle console per AMD, nonostante "qualcuno" al tempo contestò la scelta per via dei margini bassi.
Ora vediamo cosa presenterà AMD, perchè non è affatto scontato che farà meglio di Nvidia anche se i presupposti per recuperare terreno ci sono tutti.
Su Intel non ci farei molto affidamento, purtroppo sembrano molto in affanno con le GPU.

Gringo [ITF]
23-09-2022, 11:23
La RTX 5000 Avrà solo Output in formato DLSS 4 così non potremo lamentarci delle differenze sul rendering, andrà 8x confronto alla RTX4090 Titan con DLSS OFF.

Perchè ho solo visto quel confronto..... avrei voluto sapere la differenza confrontando rendering con ENTRAMBE le uscite DLSS 2.0 Vs 3.0....
... invece il confronto è Gioco con RTX ma DLSS 2.0 OFF (25fps) contro Nuova scheda ma con DLSS ON (200fps)..... in pratica visto che c'erano potevano fare:

Gioco con RTX 3000 ma renderizzato dalla CPU.... così era un bel 200x la differenza.

CarmackDocet
02-10-2022, 11:25
mi piace la tua analisi molto tecnica.
In pratica è come se ora fossero meno ottimizzate per la generazione di giochi attuali ma potrebbero essere un investimento migliore a lungo termine per i giochi che verranno.