GeForce RTX 4090 FE, una demo di Cyberpunk 2077 svela dettagli interessanti su clock, temperature e consumi

GeForce RTX 4090 FE, una demo di Cyberpunk 2077 svela dettagli interessanti su clock, temperature e consumi

La GeForce RTX 4090 Founders Edition è stata protagonista di una dimostrazione post-keynote con Cyberpunk 2077 che ci svela qualche informazione in più non solo sulle sue prestazioni, ma anche sui consumi, le temperature e il clock in-game.

di pubblicata il , alle 07:01 nel canale Schede Video
gaming hardwareschede video top di gammaLovelaceNVIDIARTXGeForce
 

In attesa di mettere le mani sulla GeForce RTX 4090, la prima scheda video di nuova generazione di casa NVIDIA, ogni giorno scopriamo qualche dettaglio in più sulle prestazioni della nuova architettura e il suo funzionamento (nota: l'articolo sul lancio è in costante aggiornamento).

Nelle scorse ore NVIDIA ha precisato cosa intende per prestazioni dalle 2 alle 4 volte superiori alla generazione Ampere, ma più dei grafici e delle barrette sono le dimostrazioni reali a poterci restituire un'idea di cosa attenderci dal progetto Ada Lovelace.

Partecipando a una sessione con il team tecnico di NVIDIA e altri colleghi, abbiamo assistito a una dimostrazione del DLSS 3 con Cyberpunk 2077 da cui sono emersi dettagli interessanti (che poi verificheremo in redazione) sul comportamento sotto carico della GeForce RTX 4090 Founders Edition. Durante la dimostrazione, NVIDIA ha usato FrameView per illustrare le capacità del DLSS 3, permettendoci così di carpire qualche dettaglio tecnico.

Quale? Ad esempio, in quel test la GPU della GeForce RTX 4090 Founders Edition ha operato stabilmente a oltre 2800 MHz, una frequenza ben più alta del boost clock dichiarato da NVIDIA di 2520 MHz. Non bisogna stupirsi, gli algoritmi che gestiscono gli incrementi di clock dei chip grafici si spingono notoriamente oltre le indicazioni dei produttori, sempre che vi sia il margine in termini di temperatura e potenza per farlo.

E in questo caso, con una temperatura di funzionamento di circa 50-55 °C, la GeForce RTX 4090 FE in Cyberpunk 2077 sembra lasciare le briglie sciolte all'algoritmo. Durante il keynote di lancio, il CEO di NVIDIA aveva dichiarato che in laboratorio NVIDIA ha portato l'architettura a funzionare a oltre 3 GHz, quindi il dato mostrato da FrameView sembra plausibile.

Il test, svolto a 1440p con RT Ultra e impostazioni Psycho (massime), ci dice anche che il gioco a risoluzione nativa si mantiene intorno ai 60 FPS medi con una latenza di 70-75 ms per l'intero PC (equipaggiato con un 12900K di Intel). Attivando il DLSS 3 (con Reflex) su Quality, il frame rate balza a circa 170 FPS di media e la latenza del sistema scende a circa 53 ms.

Il balzo in termini di FPS medi e la riduzione della latenza del sistema sono molto interessanti, ma c'è di più: usando una nuova versione di PCAT, soluzione hardware che permette di tracciare i consumi in modo preciso, la GeForce RTX 4090 FE ha toccato una media di 461W durante la sessione senza DLSS, scendendo a 348W con la tecnologia attiva.

Sembra quindi che l'uso del DLSS e dei Tensor core sia un toccasana per i consumi, forse ancora di più rispetto alle generazioni precedenti. Un aspetto che, ovviamente, ci riserviamo di testare non appena avremo la scheda a disposizione.

21 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
nessuno2923 Settembre 2022, 07:47 #1
461 watt porca miseria ahaha
NickOne23 Settembre 2022, 07:57 #2
Attivando il DLSS 3 ... la latenza scende a circa 53 ms.

Urge spieogone
Pandemio23 Settembre 2022, 08:05 #3
La la latenza non è qualcosa che riguarda il monitor o al massimo la connessione internet?
Anche io aspetto spiegazioni ...
Karandas23 Settembre 2022, 08:19 #4
C'è poco da capire, se in 1 secondo fai 60 fps ogni frame verrà generato ogni 16.68 millisecondi circa: 1000:60
Se in 1 secondo ne fai 120 ogni frame sarà renderizzato ad una cadenza di 8.8 e rotti millisecondi.
Poi aggiungi a questi numeri la latenza dei dispositivi di input output che rimane più o meno fissa al variare del framerate.
Quindi la latenza complessiva scende all'aumentare dei frame in maniera non proporzionale.
Credo che sia l'inverso del quadrato? Qualcuno bravo in matematica mi corregga.
mackillers23 Settembre 2022, 08:29 #5
Originariamente inviato da: Pandemio
La la latenza non è qualcosa che riguarda il monitor o al massimo la connessione internet?
Anche io aspetto spiegazioni ...


la latenza non è altro che il ritardo fra un imput e l'effettivo verificarsi del suo risultato.

la si può verificare ad esempio fra il movimento del mouse e quello del cursore a schermo o dem personaggio di un videogioco.

la si può anche misurare fra il momento in cui la cpu finisce di costruire la scena di un frame (con tanto di movimenti dati dagli imput del giocatore) e la produzione del frame completo da inviare a schermo.

ogni anello della catena introduce un po' di latenza.

le tecnologie reflex di Nvidia e anti lag di AMD (mi pare si chiami così tentano di ridurre questa latenza, che ovviamente più è alto il framerate e più tendezialmente si riduce.

ovviamente non è una curva lineare, perché tu puoi fare 100fps e magari avere dei microscatti in cui per qualche decimo di secondo un frame resta fermo ecc..

ovviamente incidono anche le tecnologie di collegamento del monitor e le sue prestazioni ecc..


DLSS 3 riuscendo a generare dei frame intermedi anche quando la CPU non ha pronto il reale frame successivo dovrebbe sicuramente restituire una sensazione di maggiore fluidità visiva (grazie al maggior framerate) ma a logica potrebbe introdurre un po' di latenza fra comando del giocatore ed effettivo movimento a schermo visto che non può prevedere il nostro imput e se tale imput arriva mentre lui sta "inventando" un frame dovremo attendere il successivo per vederlo palesarsi a schermo.

certo si tratta di un tempo veramente limitato ed il guadagno in temrini di fluidità a schermo sembra davvero sensazionale.

speriamo HW faccia un ottima ed approfondita recensione che tocchi tutti questi temi.
ninja75023 Settembre 2022, 08:54 #6
clock altissimi rispetto al (mio) previsto

consumi beh, quelli inverecondi della 3090ti

in una immagine qui non riportata c'è il test puro raster 35.8 vs 59.9

+65%

le prestazioni con DLSS sembrano mostruose, sempre da verificare il lato qualitativo
k0nt323 Settembre 2022, 08:56 #7
Originariamente inviato da: NickOne
Attivando il DLSS 3 ... la latenza scende a circa 53 ms.

Urge spieogone

DLSS 3 con Reflex
Gyammy8523 Settembre 2022, 09:03 #8
Quindi abbiamo la 4090 per il 1440p uber-mega-iper-ultra-maxed-out dlss3
Poi c'è la 4080 16 giga per il 1080p uber-mega-iper-ultra-maxed-out dlss3
Poi c'è la 4080 12 giga per il 1080p maxed-out dlss3

Poi verranno le 4070 per il 720p sempre dlss3 (upscaliamo da 240p)
La 4060 forse per giocare sull'iwatch

Io ero rimasto alla 3090 8k ready
DevilsAdvocate23 Settembre 2022, 09:10 #9
Originariamente inviato da: mackillers
DLSS 3 riuscendo a generare dei frame intermedi anche quando la CPU non ha pronto il reale frame successivo dovrebbe sicuramente restituire una sensazione di maggiore fluidità visiva (grazie al maggior framerate) ma a logica potrebbe introdurre un po' di latenza fra comando del giocatore ed effettivo movimento a schermo visto che non può prevedere il nostro imput e se tale imput arriva mentre lui sta "inventando" un frame dovremo attendere il successivo per vederlo palesarsi a schermo.



Il trucco qua sarebbe che nonostante un frame ogni due sia interpolato, gli FPS sono più che doppi quindi la latenza si abbassa comunque. (la formula di calcolo è 1/fps senza e 1/(2*fps) con DLSS)
Max Power23 Settembre 2022, 09:27 #10
La latenza non è un termine specifico relativo alla risposta degli input.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^