GeForce RTX 4090 FE, una demo di Cyberpunk 2077 svela dettagli interessanti su clock, temperature e consumi
La GeForce RTX 4090 Founders Edition è stata protagonista di una dimostrazione post-keynote con Cyberpunk 2077 che ci svela qualche informazione in più non solo sulle sue prestazioni, ma anche sui consumi, le temperature e il clock in-game.
di Manolo De Agostini pubblicata il 23 Settembre 2022, alle 07:01 nel canale Schede Videogaming hardwareschede video top di gammaLovelaceNVIDIARTXGeForce
In attesa di mettere le mani sulla GeForce RTX 4090, la prima scheda video di nuova generazione di casa NVIDIA, ogni giorno scopriamo qualche dettaglio in più sulle prestazioni della nuova architettura e il suo funzionamento (nota: l'articolo sul lancio è in costante aggiornamento).
Nelle scorse ore NVIDIA ha precisato cosa intende per prestazioni dalle 2 alle 4 volte superiori alla generazione Ampere, ma più dei grafici e delle barrette sono le dimostrazioni reali a poterci restituire un'idea di cosa attenderci dal progetto Ada Lovelace.

Partecipando a una sessione con il team tecnico di NVIDIA e altri colleghi, abbiamo assistito a una dimostrazione del DLSS 3 con Cyberpunk 2077 da cui sono emersi dettagli interessanti (che poi verificheremo in redazione) sul comportamento sotto carico della GeForce RTX 4090 Founders Edition. Durante la dimostrazione, NVIDIA ha usato FrameView per illustrare le capacità del DLSS 3, permettendoci così di carpire qualche dettaglio tecnico.
Quale? Ad esempio, in quel test la GPU della GeForce RTX 4090 Founders Edition ha operato stabilmente a oltre 2800 MHz, una frequenza ben più alta del boost clock dichiarato da NVIDIA di 2520 MHz. Non bisogna stupirsi, gli algoritmi che gestiscono gli incrementi di clock dei chip grafici si spingono notoriamente oltre le indicazioni dei produttori, sempre che vi sia il margine in termini di temperatura e potenza per farlo.

E in questo caso, con una temperatura di funzionamento di circa 50-55 °C, la GeForce RTX 4090 FE in Cyberpunk 2077 sembra lasciare le briglie sciolte all'algoritmo. Durante il keynote di lancio, il CEO di NVIDIA aveva dichiarato che in laboratorio NVIDIA ha portato l'architettura a funzionare a oltre 3 GHz, quindi il dato mostrato da FrameView sembra plausibile.
Il test, svolto a 1440p con RT Ultra e impostazioni Psycho (massime), ci dice anche che il gioco a risoluzione nativa si mantiene intorno ai 60 FPS medi con una latenza di 70-75 ms per l'intero PC (equipaggiato con un 12900K di Intel). Attivando il DLSS 3 (con Reflex) su Quality, il frame rate balza a circa 170 FPS di media e la latenza del sistema scende a circa 53 ms.

Il balzo in termini di FPS medi e la riduzione della latenza del sistema sono molto interessanti, ma c'è di più: usando una nuova versione di PCAT, soluzione hardware che permette di tracciare i consumi in modo preciso, la GeForce RTX 4090 FE ha toccato una media di 461W durante la sessione senza DLSS, scendendo a 348W con la tecnologia attiva.

Sembra quindi che l'uso del DLSS e dei Tensor core sia un toccasana per i consumi, forse ancora di più rispetto alle generazioni precedenti. Un aspetto che, ovviamente, ci riserviamo di testare non appena avremo la scheda a disposizione.










ASUS Expertbook PM3: il notebook robusto per le aziende
Test ride con Gowow Ori: elettrico e off-road vanno incredibilmente d'accordo
Recensione OnePlus 15: potenza da vendere e batteria enorme dentro un nuovo design
POCO conferma l'arrivo della serie F8: ci sarà anche il top di gamma Ultra
HONOR 500: confermata data di lancio e design in stile iPhone Air
iPhone Fold non è ancora pronto? Alcuni elementi tecnici starebbero rallentando lo sviluppo
Nuovo smartphone in arrivo da OnePlus: tanta potenza e una super batteria
Amazon abbassa ancora il prezzo dei MacBook Air con chip M4: oggi a 853€ in tutti i colori, il risparmio reale è di ben 295€
Steam verso un 2025 da record: ricavi stimati a 16,2 miliardi di dollari. Ed è solo l'inizio
El Capitan ancora al comando della classifica dei supercomputer, JUPITER porta l'Europa nell'era exascale
Arm nel programma NVLink Fusion: NVLink farà parlare le CPU Neoverse con le GPU NVIDIA
Bonus Elettrodomestici 2025, si parte: come richiederlo da domani (con click day)
Jeff Bezos torna al comando, stavolta di una startup AI che promette di rivoluzionare auto, computer ed esplorazione spaziale
Anthesi sceglie OVHcloud per digitalizzare la Pubblica Amministrazione
Cube presenta Trike Flatbed Hybrid 750, il pick-up delle e-bike cargo
Call of Duty Black Ops 7 peggio di Infinite Warfare: è il capitolo con la valutazione più bassa di sempre
L'Italia è il secondo mercato per pompe di calore, ma molti non sanno di poterle usare per riscaldamento









20 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoUrge spieogone
Anche io aspetto spiegazioni ...
Se in 1 secondo ne fai 120 ogni frame sarà renderizzato ad una cadenza di 8.8 e rotti millisecondi.
Poi aggiungi a questi numeri la latenza dei dispositivi di input output che rimane più o meno fissa al variare del framerate.
Quindi la latenza complessiva scende all'aumentare dei frame in maniera non proporzionale.
Credo che sia l'inverso del quadrato? Qualcuno bravo in matematica mi corregga.
Anche io aspetto spiegazioni ...
la latenza non è altro che il ritardo fra un imput e l'effettivo verificarsi del suo risultato.
la si può verificare ad esempio fra il movimento del mouse e quello del cursore a schermo o dem personaggio di un videogioco.
la si può anche misurare fra il momento in cui la cpu finisce di costruire la scena di un frame (con tanto di movimenti dati dagli imput del giocatore) e la produzione del frame completo da inviare a schermo.
ogni anello della catena introduce un po' di latenza.
le tecnologie reflex di Nvidia e anti lag di AMD (mi pare si chiami così
ovviamente non è una curva lineare, perché tu puoi fare 100fps e magari avere dei microscatti in cui per qualche decimo di secondo un frame resta fermo ecc..
ovviamente incidono anche le tecnologie di collegamento del monitor e le sue prestazioni ecc..
DLSS 3 riuscendo a generare dei frame intermedi anche quando la CPU non ha pronto il reale frame successivo dovrebbe sicuramente restituire una sensazione di maggiore fluidità visiva (grazie al maggior framerate) ma a logica potrebbe introdurre un po' di latenza fra comando del giocatore ed effettivo movimento a schermo visto che non può prevedere il nostro imput e se tale imput arriva mentre lui sta "inventando" un frame dovremo attendere il successivo per vederlo palesarsi a schermo.
certo si tratta di un tempo veramente limitato ed il guadagno in temrini di fluidità a schermo sembra davvero sensazionale.
speriamo HW faccia un ottima ed approfondita recensione che tocchi tutti questi temi.
consumi beh, quelli inverecondi della 3090ti
in una immagine qui non riportata c'è il test puro raster 35.8 vs 59.9
+65%
le prestazioni con DLSS sembrano mostruose, sempre da verificare il lato qualitativo
Urge spieogone
DLSS 3 con Reflex
Poi c'è la 4080 16 giga per il 1080p uber-mega-iper-ultra-maxed-out dlss3
Poi c'è la 4080 12 giga per il 1080p maxed-out dlss3
Poi verranno le 4070 per il 720p sempre dlss3 (upscaliamo da 240p)
La 4060 forse per giocare sull'iwatch
Io ero rimasto alla 3090 8k ready
Il trucco qua sarebbe che nonostante un frame ogni due sia interpolato, gli FPS sono più che doppi quindi la latenza si abbassa comunque. (la formula di calcolo è 1/fps senza e 1/(2*fps) con DLSS)
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".