GeForce RTX 4090, prestazioni più del doppio superiori alla RTX 3080 in Overwatch 2

GeForce RTX 4090, prestazioni più del doppio superiori alla RTX 3080 in Overwatch 2

NVIDIA ha condiviso un interessante benchmark della nuova GeForce RTX 4090 con Overwatch 2. Dai dati emerge che la nuova top di gamma supera di oltre il doppio la RTX 3080. Un miglioramento che, però, è da mettere in relazione al prezzo.

di pubblicata il , alle 10:21 nel canale Schede Video
schede video top di gammaRTXNVIDIA
 
38 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
ningen06 Ottobre 2022, 11:52 #11
A mio modo di vedere questi test su giochi come Overwatch 2 (che a meno che tu non sia un demente dovresti aver capito che è praticamente uguale al primo) lasciano il tempo che trovano, così come i test su Counter strike o Fortnite che spesso vedo nelle recensioni.
In cosa dovrebbe essere significativo un test del genere quando probabilmente anche una vecchia 1060 sta sui 60 fps?
La bontà di queste schede la si vedrà con titoli più avanzati tecnicamente che possano metterle in difficoltà.
Del fatto che faccia 500 fps in un gioco graficamente del cazzo come Overwatch 2, non dovrebbe interessare a nessuno a parte qualche fissato o gente che gioca super competitivo (ma anche li c'è un limite a tutto) e credo che questi risultati siano inseriti solo per drogare i risultati delle schede video nelle recensioni, in quanto nel computo finale delle prestazioni medie si tengono conto anche di questi risultati estremamente elevati che non raggiungeranno mai in altri giochi tecnicamente più avanzati e moderni.
Gringo [ITF]06 Ottobre 2022, 11:53 #12
Ne aggiungo una terza, mandare tutto a malora e dedicarsi ad altro.

Non serve, semplicemente noterai che i giochi ti funzionano bene anche sulla tua RTX 3080 se gli sviluppatori tirano il freno a mano e puntano al settore Console / PC Family, perchè investire milioni per il 3% dei videogiocatori, quando il 37% ha una 3080 e il 50% inferiore.
Per quei 4 titoli che puntano al 4K 120fps..... possono anche tenerseli li, visto che lo stesso gioco ci sarà anche per PS5 / X-BOX.

Mentre il confronto e fantastico:
- La Ferrari F40 va ben il doppio della tua Fiat 500 XL...... (Ma che caz. di raggionamento è.....
- Forse va anche 5 volte la 3050 TI ? ..... ma fate il piacere... Mr. Giacchetta, che alla fine tutti si fionderanno sulle schede intel a questo punto, costano il 20% in meno e coprono il mercato che avete lasciato in mutande... due anni in cui la 3060 costava 1000euro e la 3050 sui 450euro follia.
StylezZz`06 Ottobre 2022, 12:06 #13
Originariamente inviato da: Luxor83
Non rincorro nulla, ho una RTX2060 consuma all'incirca 160W. Personalmente ritengo che oltre la soglia dei 250W non dovrebbero esistere GPU.


E allora stai sereno, non devi mandare nulla a malora...con una RTX 2060 giochi tutto a 1080p maxato, e ti puoi permettere anche 1440p 60fps con il DLSS senza sacrificare troppo i settaggi.
lauda06 Ottobre 2022, 12:07 #14
Direi che possiamo ipotizzare che la 4070 andrà come la 3080 (in rasterizzazione), ma al prezzo della 3080 e non di quello della 3070.

Mi sembra uno scenario un po' triste..
Gyammy8506 Ottobre 2022, 12:08 #15
Originariamente inviato da: coschizza
esisete anche la serie 3000 non è che è scaduta nel frattempo


L'acquirente elle 3000 non potrà concepire di giocare senza il favoloso dlss3
Ripper8906 Ottobre 2022, 12:10 #16
la RTX 4080 16 GB, il distacco è del 37,7%.

Dalla prova, però, emergono altri fattori persino più interessanti. Innanzitutto, la differenza tra la RTX 3080 e la RTX 4080 12 GB. Quest'ultima guadagna un modesto +18%

Il risultato penso sia a dir poco scandaloso.

Solo un 18% sulla 3080 per la 4080/12GB ?
E solo un 38% per la versione da 16GB ?

Cioè con il salto dall'8nm Samsung al 5nm TSMC questo è tutto quello che si riesce a fare ?

Considerando che la 3080 e la 4080/16 hanno un TDP simile significa che l'efficienza è aumentata meno del 40%, più verso il 35 se consideriamo che la 4080 ha qualcosina in più come consumo.
Luxor8306 Ottobre 2022, 12:11 #17
Originariamente inviato da: coschizza
1 queste gpu sono molto piu efficienti della serie precedenti
2 sono il super top di gamma non devi comprartele per giocare quindi le tue preoccupazioni sono ingiustificate
3 da quando esiste il gioco su pc non è mai servito e non serve tuttora un pc di fascia alta ma nemmeno lontanamente


1 si ma non vedo consumi da 200W e aspetteremo la fascia media per vedere se ci saranno, ma ho i miei dubbi

2 quindi se la serie 50 consumera 1KW è giustificato perchè sono il supertop quindi non sono problemi miei, come per dire tu vai in giro con l'hammer inquini tanto quanto un turbostar e non sono problemi miei. ok.

3 Ti do ragione, infatti io viaggio su vecchissimo i7 4790k e rtx 2060 e sto a circa 250/270W in full load di consumo, il problema è che non esiste regolamentazione sui consumi come per quasi la totalità degli apparecchi elettronici a casa e avere specialmente in questo periodo 500W di solo pc per giocare, non so, ce poco di cui vantarsi.

Il discorso in succo è che tutti i consumi sia dal top di gamma a scalare stanno aumentando, a parer mio sarebbe giusto darsi una calmata e definire delle fasce per consumo.

La Top 350W----> quella dopo 300W.....a scalare, tutto qua.
Luxor8306 Ottobre 2022, 12:17 #18
Originariamente inviato da: lauda
Direi che possiamo ipotizzare che la 4070 andrà come la 3080 (in rasterizzazione), ma al prezzo della 3080 e non di quello della 3070.

Mi sembra uno scenario un po' triste..


Considerando i commenti, potrebbero prezzarla anche a 5000€, tanto ce chi la compra lo stesso.
supertigrotto06 Ottobre 2022, 12:25 #19
Mi piace come funziona la comunicazione e il marketing,quando la serie 6000 era una bomba in fatto di rasterizzazione pura c'erano gli eeeeeh ma non hanno il super effetto avanzato RT che abbiamo noi,adesso si sbandiera che la loro rasterizzazione è un portento.
Sono veramente perplesso,senza nulla togliere il merito a un prodotto costosissimo ma molto potente.
Gyammy8506 Ottobre 2022, 12:32 #20
Originariamente inviato da: Ripper89
Il risultato penso sia a dir poco scandaloso.

Solo un 18% sulla 3080 per la 4080/12GB ?
E solo un 38% per la versione da 16GB ?

Cioè con il salto dall'8nm Samsung al 5nm TSMC questo è tutto quello che si riesce a fare ?

Considerando che la 3080 e la 4080/16 hanno un TDP simile significa che l'efficienza è aumentata meno del 40%, più verso il 35 se consideriamo che la 4080 ha qualcosina in più come consumo.


Esattamente il motivo per cui le unità hardware dedicate sono uno svantaggio e vanno evitate il più possibile, hanno messo su un numero enorme di roba per fare il dlss3, che non funzionerà mai per tutto il resto, oltre quello lo shader core sarà sostanzialmente lo stesso di ampere che è sostanzialmente lo stesso di turing, a parte forse qualche istruzione in più, ma abbiamo visto come la doppia fp non serva praticamente a niente

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^