|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://www.hwupgrade.it/news/skvide...ss_110355.html
NVIDIA spiega perché parla di prestazioni dalle 2 alle 4 volte maggiori per la nuova generazione di GPU GeForce RTX 4000 rispetto alla serie RTX 3000. Se le prestazioni shader crescono, l'impatto del DLSS oggi, e ancora di più in futuro, deve essere tenuto in considerazione. Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Jan 2008
Città: Vercelli
Messaggi: 788
|
"Gli appassionati di hardware, noi in primis, dovranno cambiare un po' prospettiva nel valutare le schede video in arrivo perché le tecnologie di upscaling diventeranno sempre più preponderanti e diffuse. Guardare alle sole prestazioni degli shader potrebbe quindi risultare limitante, anche se comunque la nuova gamma di NVIDIA compie un passo avanti non trascurabile."
mah che l'Upscaling diventi una regola, no grazie
__________________
Case:NZXT H5 Flow|PSU:630W|Cpu:5700X3D|AirCooling:Hyper Evo212V2|M/b:MSI MPG X570|Ram:32GB DDR4 3600|GPU:RX 7800 XT|SSD:1TB M2+1TB Sata|Screen:Asus 31.5" 2k|Imput device:Logitech G Pro, Mx518|Controls: G27, X52 Pro|Os:Win 11 Pro |
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Jan 2003
Città: Bologna
Messaggi: 14031
|
Perciò un +50% dal grafico fatto da nvidia stessa che più realisticamente diventerenno un +30/40%.
__________________
CPU:Intel i9 9900k@5GHz+corsair h115i pro MOBO:Asus Z390 ROG maximus XI hero RAM:Corsair vengeance pro DDR4 3600 64GB VIDEO:Pny RTX 3090 PSU:Corsair RM1000i HD:SSD M.2 Samsung 970 EVO 500gb+SSD Samsung 850 evo 1TB Case:CoolerMaster H500P Monitor:Sony 49XE9005 Laptop:MSI GE67HX-12UGS-OLED |
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Nov 2001
Città: Milano
Messaggi: 3658
|
In sostanza ci stanno prendendo in giro e dovremmo pure abituarci? Ma anche no, consumi allucinanti per un vantaggio prestazionale reale risicato senza attivare trucchetti vari. A questo giro le 4080 sono una vera presa in giro. L'unica valida è la 4090, ma ad un prezzo e con consumi molto elevati (decisamente poco ecosostenibili). Senza i minatori Nvidia avrà i suoi problemi a venderle. Speriamo calino presto i prezzi.
|
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Jun 2018
Messaggi: 1955
|
Ci gira Crysis?
|
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Mar 2015
Messaggi: 1672
|
Nella sostanza, se consideriamo che le prestazioni di una 4080 da 12 gb siano paragonabili ad una 3090 ti o giù di li, la 4080 da 12 gb sarà più veloce di una 3080 da 10 gb (che tecnicamente è il modello che dovrebbe sostituire stando ad Nvidia) di circa un 20% in 4K e di un 14% a 1440p (ho preso queste percentuali dalla recensione della 3090 ti qui su HWU), se non consideriamo i miglioramenti con Raytracing e DLSS3, che però saranno limitati dal numero di titoli che li supporteranno.
Effettivamente il miglioramento è un pò risicato, rispetto alle mirabolanti prestazioni mostrate in certi titoli del grafico dove a quanto pare hanno attivato il DLSS3 per raggiungere tali risultati e nei confronti della 3080 da 12 gb il miglioramento è ancora più risicato, visto che i risultati di quest'ultima sono praticamente identici alla 3080 ti. Credo che chi ha una 3080 non ha molti motivi per cambiare. |
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: Sep 2013
Città: Vicenza
Messaggi: 1436
|
SOLO se abiliti il dlss, altrimenti va a 22fps
__________________
Lancool III - 7800x3d - b650m riptide - 32gb 6000 cl30 - 9070 XT pulse - rad 420x30 + 360x56 - EK flt 80 D5 - strix 850w - x34 21:9 1440@180 |
![]() |
![]() |
![]() |
#8 |
Senior Member
Iscritto dal: Nov 2019
Messaggi: 3044
|
Se ha prestazioni doppie solo con il DLSS 3.0 che di fatto raddoppia i frame inserendone di finti vuol dire che senza vanno come prima
![]() Quindi alla fine la 4080 16gb tolto il DLSS 3.0 va come una 3090ti, costa uguale, consuma uguale e ha meno ram? ![]() E la 4090 non sono altro che 2 3080 saldate assieme con il DLSS 3.0 Ultima modifica di Mars95 : 22-09-2022 alle 11:28. |
![]() |
![]() |
![]() |
#9 | |
Senior Member
Iscritto dal: May 2004
Messaggi: 7465
|
Quote:
|
|
![]() |
![]() |
![]() |
#10 | |
Senior Member
Iscritto dal: Aug 2008
Messaggi: 3480
|
Quote:
Prima di tutto consuma meno (320W vs 450W di TDP). Secondo ha performance superiori (20-25%) nei game con solo rasterizzazione (secondo Nvidia, ma ho pochi dubbi sarà così). Terzo, ha performance significativamente superiori in ray tracing, cosa che sarà più evidente in futuro e solo con un numero limitato di titoli al momento. Quarto, DLSS3, la cui qualita sarà da valutare, promette un sostanziale aumento di performance che non necessariamente sarà del 100% in ogni titolo, ma sicuramente a doppia cifra percentuale. DLSS3 é l’incognita più grossa, dato che dipenderà tutto dalla qualità. Questa generazione somiglia per certi versi a Turing: grossa enfasi alle feature “RTX”, ovvero DLSS e Raytracing. Ho l’impressione che il successo della gen dipenderà dalla qualità di DLSS3. Ultima modifica di RaZoR93 : 22-09-2022 alle 11:39. |
|
![]() |
![]() |
![]() |
#11 | |
Senior Member
Iscritto dal: Nov 2019
Messaggi: 3044
|
Quote:
"Hanno aumentato di molto l'efficienza" mi fa ridere, considerato che sono passati dagli 8nm Samsung ai 4nm TSMC l'hanno pure peggiorata l'efficienza. |
|
![]() |
![]() |
![]() |
#12 |
Senior Member
Iscritto dal: Jan 2008
Città: Vercelli
Messaggi: 788
|
fino ai test reali, però se ti scrivono che dovremo valutare le schede per altro e non per la potenza ha ha ha ha ha ha ha.
![]() Cambiate il finale vi prego
__________________
Case:NZXT H5 Flow|PSU:630W|Cpu:5700X3D|AirCooling:Hyper Evo212V2|M/b:MSI MPG X570|Ram:32GB DDR4 3600|GPU:RX 7800 XT|SSD:1TB M2+1TB Sata|Screen:Asus 31.5" 2k|Imput device:Logitech G Pro, Mx518|Controls: G27, X52 Pro|Os:Win 11 Pro |
![]() |
![]() |
![]() |
#13 | |
Senior Member
Iscritto dal: May 2004
Messaggi: 7465
|
Quote:
Maggiore efficienza vuol dire piu fps a parita di consumo e qua ci siamo abbondantemente dentro come concetto |
|
![]() |
![]() |
![]() |
#14 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3552
|
Va be', prima di fasciarci la testa vediamo le recensioni dopo l'NDA cosa dicono.
La 4090 ha il doppio della potenza di calcolo della 3090Ti con gli shader e unità RTX. Significa che nello stesso spazio con gli stessi consumi sono riusciti a raddoppiare la potenza di calcolo. Vedremo se questo si traduce nel raddoppio di FPS o se ci sono dei bottleneck da qualche parte che lo impediscono. Personalmente, con un balzo di PP da Samsung a TSMC pensavo avrebbero fatto un po' meglio. Se ADA102 è 76 miliardi di transistor vs i 28 miliardi e rotti del GA102, i risultati sono un po' deludenti. Hanno investito forse troppo nelle unità matriciali tralasciando quello che è il vero succo del discorso: fare frame completi in meno tempo possibile tramite le unità classiche, cioè shader, ROP e TMU. Forse con qualche aggiustatina driver riescono a migliorare le prestazioni anche sui giochi "classici", ma tutte queste risorse destinate alle unità matriciali+RT forse è stato un po' esagerato. Durante la progettazione di Ada forse pensavano che i motori dei giochi sarebbero evoluti più velocemente di quanto in effetti hanno fatto. Purtroppo, colpa delle console o meno, siamo ancora a usare le unità RT per 4 effetti in croce e non c'è ancora nulla all'orizzonte per quanto riguarda il resto delle funzionalità, come per esempio il mesh shading. E il carnet di giochi AAA è sempre il solito, FPS di tuti i tipi, C&P della versione vecchia + nuove mappe + texture migliori. Ormai siamo alla noia totale. Almeno per me. Ultima modifica di CrapaDiLegno : 22-09-2022 alle 11:51. |
![]() |
![]() |
![]() |
#15 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3552
|
Quote:
![]() |
|
![]() |
![]() |
![]() |
#16 |
Senior Member
Iscritto dal: Jan 2006
Messaggi: 1287
|
Bah, quello che sfugge guardando oltre ai numeri è che hanno deciso che non ci sarà un upgrade con sostituzione di fascia ma semplicemente una nuova categoria di prodotti che va ad inserirsi male embricandosi con la linea prodotti invenduta
|
![]() |
![]() |
![]() |
#17 | |
Senior Member
Iscritto dal: Jan 2003
Messaggi: 3113
|
Quote:
![]()
__________________
MASTER: Ryzen 5 9600X LC,Powercolor RX 7700XT,MSI PRO B650M-A WIFI,32GB Ram 6000 CL30 FLARE X in DC,Samsung 980Pro 512GB G4 + 980Pro 2TB G4 + SSHD 2TB SATA + HDD 1TB SATA,Audio ALC897,MSI MPG A650GF,Win 11 PRO,TK X-SUPERALIEN + AQUARIUS III,MSI 32" Optix MAG322CQR,MSI VIGOR GK30 COMBO,MSI Agility GD20 PAD,MSI IMMERSE GH10 HEADSET |
|
![]() |
![]() |
![]() |
#18 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3552
|
Quote:
Un conto è averli per aggiungere funzionalità avanzate, un conto è puntarci tutta una architettura. I motori dei giochi non sono maturi a sufficienza per sfruttare tutti quelle unità diverse da quelle usate per fare raster. Come se tu oggi facessi una GPU tutta di TMU e il triplo delle ROP pensando che tra 3 anni si useranno texture da 16K su monitor con quella definizione. Non è che le TMU e le ROP sono inutili, quindi "non andavi al cesso se non le avevi".. se vuoi un processore grafico post seconda guerra mondiale le ROP e le TMU sono fondamentali, come ritengo ormai fondamentali avere unità matriciali per eseguire i nuovi algoritmi basati su AI e non più roba deterministica vecchia di 40 anni. Ma così forse è troppo sbilanciata. I giochi continuano a sfruttare il raster in modo massiccio e continueranno a farlo fino a che le console non si aggiorneranno a poter calcolare più di qualche poligono in ray tracing. Questo giro Nvidia ha messo in mano agli sviluppatori delle bestie per usare il ray tracing ma ha lasciato i giocatori con schede un po' monche per quanto riguarda l'aumento di prestazioni in raster. Forse tra 2 anni si comincerà a sviluppare giochi con più parti calcolate in RT che in raster, dando ragione a questo sbilanciamento, ma questo giro mi sembra perso. Ed è un giro lungo, molto più lungo di quello passato. A meno che AMD non faccia un pastrocchio completo con l'MCM, a quel punto siamo fregati da entrambi le parti con l'aumento di prestazioni. E dei prezzi. Tutto a favore di Intel che potrà recuperare l'enorme gap in cui si colloca adesso. |
|
![]() |
![]() |
![]() |
#19 | |
Senior Member
Iscritto dal: Dec 2005
Messaggi: 7237
|
Quote:
![]() Secondo me però la ragione di un'architettura così sbilanciata è un'altra, non hanno sopravvalutato l'evoluzione dei motori di rendering, ma piuttosto dedicato più risorse a settori che non sono "gaming". Nvidia già da tempo ha fiutato altri business più profittevoli e ci si è buttata a capofitto, uno su tutti DC. Poi c'è anche il mining, non dimentichiamoci che Lovelace è un'architettura che è stata concepita anni fa in pieno boom mining e per quanto Nvidia possa celarlo probabilmente alcune scelte architetturali servivano anche a quello. Una grossa differenza strategica tra Nvidia e AMD è che quest'ultima ha differenziato l'architettura gaming (RDNA) da quella dedicata al computing (CDNA), mentre Nvidia ha una sola architettura che deve andare bene per tutto. Per questo ora si trovano con un'architettura sbilanciata (EDIT: a proposito non aveva architetture differenziate anche Nvidia in passato?). Forse davvero la chiave è stata accaparrarsi il mercato delle console per AMD, nonostante "qualcuno" al tempo contestò la scelta per via dei margini bassi. Ora vediamo cosa presenterà AMD, perchè non è affatto scontato che farà meglio di Nvidia anche se i presupposti per recuperare terreno ci sono tutti. Su Intel non ci farei molto affidamento, purtroppo sembrano molto in affanno con le GPU. Ultima modifica di k0nt3 : 22-09-2022 alle 19:08. |
|
![]() |
![]() |
![]() |
#20 |
Senior Member
Iscritto dal: Sep 2004
Città: Veneto Orientale
Messaggi: 4330
|
La RTX 5000 Avrà solo Output in formato DLSS 4 così non potremo lamentarci delle differenze sul rendering, andrà 8x confronto alla RTX4090 Titan con DLSS OFF.
Perchè ho solo visto quel confronto..... avrei voluto sapere la differenza confrontando rendering con ENTRAMBE le uscite DLSS 2.0 Vs 3.0.... ... invece il confronto è Gioco con RTX ma DLSS 2.0 OFF (25fps) contro Nuova scheda ma con DLSS ON (200fps)..... in pratica visto che c'erano potevano fare: Gioco con RTX 3000 ma renderizzato dalla CPU.... così era un bel 200x la differenza. |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 23:17.