PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 [400] 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466

Dono89
21-08-2023, 18:32
Il problema è che nvidia punta sulle tecnologie e anche se le hanno pochi titoli te le fanno pagare
Lato amd il dlss è qualcosa di irrinunciabile per me, così come prestazioni un po' decenti in RT e li amd soffre, tanto!

EffeX
21-08-2023, 18:49
Il problema è che nvidia punta sulle tecnologie e anche se le hanno pochi titoli te le fanno pagare
Lato amd il dlss è qualcosa di irrinunciabile per me, così come prestazioni un po' decenti in RT e li amd soffre, tanto!

Idem per me, arrivando da RTX 2070 e 3070Ti ho valutato bene prima di provare Intel e posso dirti però che sento più la mancanza (ma fino a un certo punto) del DLAA e i vari filtri nitidezza ecc ecc piuttosto che il DLSS, in quanto XeSS è praticamente simile, anche se implementato in pochi titoli e, riesce a superare agevolmente FSR2 come qualità.
Avendo fatto il passaggio ad altro dopo anni di Nvidia ora mi son preso coraggio rendendomi conto che l'ecosistema verde alla fine non fa una gran differenza per le mie esigenze. Detto questo penso che potrei provare una RDNA3 senza problemi ora come ora. :)

Dono89
21-08-2023, 22:04
Idem per me, arrivando da RTX 2070 e 3070Ti ho valutato bene prima di provare Intel e posso dirti però che sento più la mancanza (ma fino a un certo punto) del DLAA e i vari filtri nitidezza ecc ecc piuttosto che il DLSS, in quanto XeSS è praticamente simile, anche se implementato in pochi titoli e, riesce a superare agevolmente FSR2 come qualità.
Avendo fatto il passaggio ad altro dopo anni di Nvidia ora mi son preso coraggio rendendomi conto che l'ecosistema verde alla fine non fa una gran differenza per le mie esigenze. Detto questo penso che potrei provare una RDNA3 senza problemi ora come ora. :)

Non ho capito, sei passato da una 3070ti ad una A770? :confused:

Perchè?:mbe:

EffeX
21-08-2023, 23:41
Non ho capito, sei passato da una 3070ti ad una A770? :confused:

Perchè?:mbe:

Sostanzialmente per i consumi e per gli 8 GB di ram, in origine volevo prendere la 3070 D1 che non su trovava, decisi di ripiegare sulla 6800xt che non si trovava nemmeno quella, allora ho tirato avanti con la 2070 fino a quando non son riuscito a prendere una 3070Ti FE dai drop di LDLC, pagata a msrp, ma per me troppo cara per offrire una sputo in più della liscia.
Me la son tenuta fino allo scorso autunno quando la voglia di provare le schede Intel ha preso il sopravvento.
Prima ho trovato una A750, dopo un paio di mesi, appena son state disponibili le A770 ho venduto la A750 e preso quella dato che già con la sorella minore ero rimasto positivamente sorpreso seppure non si avvicinava alle prestazioni della 3070Ti ( neanche ai consumi però si avvicinava, 190W contro i 280W a stock).

Dono89
22-08-2023, 07:31
È una scheda che va più del 40% in meno su risoluzioni dove 8gb di vram sono tantissimi!

Secondo me hai fatto una cavolata e ti sei concentrato solo sul numerino, che ripeto conta zero sopratutto per potenze così basse

StylezZz`
22-08-2023, 10:20
È una scheda che va più del 40% in meno su risoluzioni dove 8gb di vram sono tantissimi!

Secondo me hai fatto una cavolata e ti sei concentrato solo sul numerino, che ripeto conta zero sopratutto per potenze così basse

Tantissimi assolutamente no, direi sufficienti se giochi a 1440p DLSS Quality (960p) con settaggi medio/alti ai nuovi giochi.

EffeX
22-08-2023, 10:32
È una scheda che va più del 40% in meno su risoluzioni dove 8gb di vram sono tantissimi!

Secondo me hai fatto una cavolata e ti sei concentrato solo sul numerino, che ripeto conta zero sopratutto per potenze così basse

Ma 8 GB tantissimi non sempre a 1440p.
Io non la reputo una cavolata, mi son ripreso i soldi della 3070Ti FE per tempo prima che si svalutasse troppo e con 350€ mi son preso la ARC appena uscita.
Che sia stato un sidegrade non c'è dubbio, ma son testardo, la 3070Ti non è mai stata la mia prima scelta e non l'ho mai digerita troppo, il mio budget massimo era quello e me la sono fatta andare bene.
Altro discorso la curiosità di provare una scheda Intel dopo anni di Nvidia e qualche parentesi con AMD.
Sicuramente per ora non ne sono pentito.

EffeX
22-08-2023, 10:49
Aggiornamenti su dlss

https://videocardz.com/newz/nvidia-announces-dlss-3-5-with-ray-reconstruction-launches-this-fall

Ma quindi sarà utilizzabile solo sulle 4000 o funzionerà anche sulle 3000 o le 2000?

Salfox
22-08-2023, 10:59
Ma quindi sarà utilizzabile solo sulle 4000 o funzionerà anche sulle 3000 o le 2000?

No, il DLSS 3, 3.1, e il prossimo 3.5 sarà utilizzabile solo sulle 4000.

EffeX
22-08-2023, 11:03
No, il DLSS 3, 3.1, e il prossimo 3.5 sarà utilizzabile solo sulle 4000.

Come immaginavo. Grazie. :)

ChioSa
22-08-2023, 11:17
No, il DLSS 3, 3.1, e il prossimo 3.5 sarà utilizzabile solo sulle 4000.

peccato io contavo di sfruttarlo sulla 5050 :cry:



:asd:

StylezZz`
22-08-2023, 11:18
No, il DLSS 3, 3.1, e il prossimo 3.5 sarà utilizzabile solo sulle 4000.

L'articolo parla di upscaling, non framegen, e non specifica se sarà utilizzabile solo sulle 4000.

EffeX
22-08-2023, 11:42
Dovrebbe, alla fine è l'aggiornamento delle DLL.

https://www.techpowerup.com/download/nvidia-dlss-dll/

Migliora sempre e questo è un bene, ormai ha raggiunto una qualità ottima, nelle prime implementazioni con turing era un disastro, DLSS Q partendo da una fonte in 4k fa sempre meglio rispetto alla nativa con AA implementato dai giochi (es TAA etc..)

E oserei dire che anche in 1440p sta messo su quei livelli, dipende dal training dei singoli giochi.

Ottimo pure XESS di intel, l'altro metodo che nemmeno nomino lasciamo perdere.

p.s Si confonde sempre DLSS3 con FRAME GENERATOR

Ah ecco, non capivo se il 3.5 è vincolato dal FG o lo si può usare indipendentemente.
Perché avendo ancora la 2070 FE, magari se funzionasse anche su Turing, un giro glielo farei fare per provarlo rispetto DLSS2 in 1440p.
XeSS avendolo provato di persona è ottimo sulle ARC che hanno le unità dedicate, in open su altre schede fa abbastanza schifo, e comunque nonostante con l'ultima release sia migliorato, patisce ancora di un leggero ghosting in alcuni casi rispetto al DLSS2 che usavo con la 3070Ti.

Salfox
22-08-2023, 11:43
Dovrebbe, alla fine è l'aggiornamento delle DLL.

https://www.techpowerup.com/download/nvidia-dlss-dll/

Migliora sempre e questo è un bene, ormai ha raggiunto una qualità ottima, nelle prime implementazioni con turing era un disastro, DLSS Q partendo da una fonte in 4k fa sempre meglio rispetto alla nativa con AA implementato dai giochi (es TAA etc..)

E oserei dire che anche in 1440p sta messo su quei livelli, dipende dal training dei singoli giochi.

Ottimo pure XESS di intel, l'altro metodo che nemmeno nomino lasciamo perdere.

p.s Si confonde sempre DLSS3 con FRAME GENERATOR

Guarda, io ho entrambe le schede la 3090 e la 4090 e ti posso confermare che in tutti i giochi che lo supportano il DLSS3 non è selezionabile con la 3090 mentre lo è con la 4090, quindi non so se mai sarà utilizzabile con le 2000\3000 ad ora è impossibile.

Ubro92
22-08-2023, 12:19
Nvidia ha fatto un macello con la release del DLSS2 e il DLSS3.

In questo caso ci stiamo riferendo alla release del DLLS2 che passerà dall'attuale 3.1 a 3.5 portando alcuni miglioramenti.

Il DLSS3 è invece l'acronimo per indicare l'introduzione del frame generator, che attualmente è ufficialmente supportato solo dalle 4000 e per ora non si è ancora espressa nvidia se intenderà estenderlo anche alle ampere.

fraussantin
22-08-2023, 12:20
L'articolo parla di upscaling, non framegen, e non specifica se sarà utilizzabile solo sulle 4000.Ma anche se fosse utilizzabile , sarà senza FG e senza RR , specificati ben separati. Quindi sarà un dlss normale.

Salfox
22-08-2023, 13:13
Ma cosa intendi per non selezionabile? Non è che stai confondendo Dlss3 con Frame generator?


Il frame generator è un esclusiva delle 4000 e non è utilizzabile sulle 3000/2000.

Intendo che quando è presente l'opzione DLSS3 con e senza FG utilizzando la 3090 non è selezionabile mentre con la 4090 si. Se invece l'opzione è indicata come DLSS semplice senza numeri allora è selezionabile da entrambe. Comunque Il DLSS3 quando c'è nei giochi ha sempre anche il FG.

EffeX
22-08-2023, 13:59
Intendo che quando è presente l'opzione DLSS3 con e senza FG utilizzando la 3090 non è selezionabile mentre con la 4090 si. Se invece l'opzione è indicata come DLSS semplice senza numeri allora è selezionabile da entrambe. Comunque Il DLSS3 quando c'è nei giochi ha sempre anche il FG.

Sì, questo lo avevo notato anche io con la 3070Ti, il DLSS3 non era abilitabile.
Stavo solo cercando di capire se la versione 3.5 rientrasse sotto DLSS3 o un'aggiormamento del DLSS "classico".

amon.akira
22-08-2023, 14:33
Intendo che quando è presente l'opzione DLSS3 con e senza FG utilizzando la 3090 non è selezionabile mentre con la 4090 si. Se invece l'opzione è indicata come DLSS semplice senza numeri allora è selezionabile da entrambe. Comunque Il DLSS3 quando c'è nei giochi ha sempre anche il FG.

il dlss3 è il frame generation, non esiste senza quest ultimo

dlss = deep learning super samples = usa il frame a -res % ed elabora i pixel mancanti della res di riferimento per il medesimo frame

il frame generation usa le info del frame1 e frame3 (che possono essere sia nativi che con dlss) per calcolare da zero il frame2, questo introduce latenza e lo compensa con il reflex

tutto il pacchetto insieme dlss+framegen+reflex nvidia lo chiama dlss3

la 3090 non supporta il dlss3 perchè di quel pacchetto non riesce a fare il frame generation, ma solo il dlss e il reflex

e come per RTX che non è RT bensi è la sigla che nvidia usa per racchiudere le sue tecnlogie come DLSS RT etc..

ma ormai tutti usano dire RTX=RT :p

StylezZz`
22-08-2023, 14:47
NVIDIA DLSS 3.5 | New Ray Reconstruction Enhances Ray Tracing with AI (https://www.youtube.com/watch?v=sGKCrcNsVzo)

minuto 2:42 ''With DLSS 3.5 we're introducing ray reconstruction which runs on all RTX gpus'' quindi non esclusiva delle 4000.

https://i.imgur.com/Sg16IDM.jpg

EffeX
22-08-2023, 15:08
NVIDIA DLSS 3.5 | New Ray Reconstruction Enhances Ray Tracing with AI (https://www.youtube.com/watch?v=sGKCrcNsVzo)

minuto 2:42 ''With DLSS 3.5 we're introducing ray reconstruction which runs on all RTX gpus'' quindi non esclusiva delle 4000.

https://i.imgur.com/Sg16IDM.jpg

Nativa senza dlss CONTRO DLSS 3.5 con RR

Le immagini parlano da sole:

Non vedono l'ora di spararmi l'espansione di cb2077 con sta nuove feature, in modalità overdrive DLSS Q e FG

https://i.ibb.co/3hBSB9R/ewdwe.jpg (https://ibb.co/3hBSB9R)

Figo HL2

https://videocardz.com/newz/half-life-2-rtx-project-announced-dlss3-full-ray-tracing-and-more-added-with-nvidia-rtx-remix

Bom, è deciso, rimonto la RTX 2070 FE al posto della ARC, nvidia fine wine! :p
Scherzi a parte la curiosità di rimettere su la 2070 per vedere i benefici di questi aggiornamenti in termini di performance e qualità l'avrei eh.

RoUge.boh
22-08-2023, 15:52
Bom, è deciso, rimonto la RTX 2070 FE al posto della ARC, nvidia fine wine! :p
Scherzi a parte la curiosità di rimettere su la 2070 per vedere i benefici di questi aggiornamenti in termini di performance e qualità l'avrei eh.

Vedi quando ti dicevo che la 4070 tirava di più? :muro: :muro: :muro: :muro:

ultimate trip
22-08-2023, 15:52
Una cosa un po' noiosa, dlss3 per starfield a pagamento

https://multiplayer.it/notizie/starfield-mod-dlss-sara-pagamento.html

lo sviluppatore ha chiuso un accordo con amd per il suo fsr, che poi faccia cagare o meno non ci riguarda c'è un contratto e così han deciso le parti

il modder sviluppa la patch e giustamente dice che la fa pagare perchè è lui che l'ha sviluppata e il lavoro va onorato e pagato. chi siamo noi per contestare?

l'utente nvidia compra la scheda con una feature costosa che paga e che ora deve ripagare per un singolo titolo.

ma sbaglio o alla fine ci perdiamo solo noi?

RoUge.boh
22-08-2023, 15:59
Una cosa un po' noiosa, dlss3 per starfield a pagamento

https://multiplayer.it/notizie/starfield-mod-dlss-sara-pagamento.html

lo sviluppatore ha chiuso un accordo con amd per il suo fsr, che poi faccia cagare o meno non ci riguarda c'è un contratto e così han deciso le parti

il modder sviluppa la patch e giustamente dice che la fa pagare perchè è lui che l'ha sviluppata e il lavoro va onorato e pagato. chi siamo noi per contestare?

l'utente nvidia compra la scheda con una feature costosa che paga e che ora deve ripagare per un singolo titolo.

ma sbaglio o alla fine ci perdiamo solo noi?

Ad oggi siamo SEMPRE e solo noi a pagare tutto. l'unica arma non pagare.

Slater91
22-08-2023, 16:29
Evidentemente [CUT] se lo può permettere.

Sai quando la concorrenza arriva con la top che è uno scaldabagno da 450-500w e che in rt le prende da un ad103 smunto come la 4080 (4070) ed in raster sono li li con la differenza che la prima consuma 300w stock max ed in uv scende sotto i 200w.

Con 450w se permetti ci sta una scheda he quando va male fa +35% raster e quando va bene siamo al.+50%
In rt non ne parliamo proprio.

Cosa vuoi farci? non te le mette di certo al prezzo degli scaldabagni.

Pensiamoa quanto sono dei pagliacci, FSR3 dopo mesi e mesi non è ancora pervenuto, faranno in tempo ad uscire le 8000.




Inviato dal mio SM-A715F utilizzando Tapatalk

Per ora sono 14 giorni. Alla prossima è ban.

EffeX
22-08-2023, 16:31
Vedi quando ti dicevo che la 4070 tirava di più? :muro: :muro: :muro: :muro:

Bè, ero un po' ironico nel post, ma alla fine la curiosità l'avrei davvero, senza dubbio il DLSS aiuta a far invecchiare "meglio" le schede, però ormai oggettivamente la 2070 è una scheda che ha fatto il suo tempo, può andare bene per 1080p, ma per il 1440p ormai è anziana.
Nonostante ciò vorrei farti notare che ha un collegamento a vuoto per raggiungere i 256 bit, dove nella 4070 son 192.
Ora, ok l'ottimizzazione, ok l'ecosistema, ma alla fine io cosa pago? Il software mi viene da dire, perché una 4070 come costo finale penso sia abbondantemente sotto i 200$ a chi le produce data la relativa semplicità del pcb, die e fasi di alimentazione.

ste-87
22-08-2023, 17:12
NVIDIA DLSS 3.5 | New Ray Reconstruction Enhances Ray Tracing with AI (https://www.youtube.com/watch?v=sGKCrcNsVzo)

minuto 2:42 ''With DLSS 3.5 we're introducing ray reconstruction which runs on all RTX gpus'' quindi non esclusiva delle 4000.



ottima notizia, una volta tanto :D

mikael84
22-08-2023, 17:27
Bè, ero un po' ironico nel post, ma alla fine la curiosità l'avrei davvero, senza dubbio il DLSS aiuta a far invecchiare "meglio" le schede, però ormai oggettivamente la 2070 è una scheda che ha fatto il suo tempo, può andare bene per 1080p, ma per il 1440p ormai è anziana.
Nonostante ciò vorrei farti notare che ha un collegamento a vuoto per raggiungere i 256 bit, dove nella 4070 son 192.
Ora, ok l'ottimizzazione, ok l'ecosistema, ma alla fine io cosa pago? Il software mi viene da dire, perché una 4070 come costo finale penso sia abbondantemente sotto i 200$ a chi le produce data la relativa semplicità del pcb, die e fasi di alimentazione.

Questa frase non mi è nuova, vecchie mie terminologie..:p

Cmq, si, collegamento a vuoto, nel senso che potevi bypassare i GPC e creare un canale di accesso per bus e cache, ma non potevi utilizzare le rop's (come la 1070, ed anche la 970 aveva varie rogne).
Quindi la 2070, aveva: 72 rop's memorizzabili, 48 rasterizzate, 16 a vuoto.
Le 64 dichiarate sono solo sul silicio.

Nvidia ancora ha problemi a rasterizzare più di 16 pixel per volta. Teoricamente con 6 TPC potrebbe rasterizzarne 24.
AMD da RDNA2 e 3 è riuscita a rasterizzare a 32 pixel, ma con risultati pessimi su RDNA3.

Cmq ora è diverso, ci sono molti più GPC rispetto ai collegamenti, quindi si creano strozzature, che provano a colmare con la cache.
Per dire, una 4070ti simmetrica, sarebbe da 320bit.:)

EffeX
22-08-2023, 17:41
Questa frase non mi è nuova, vecchie mie terminologie..:p

Cmq, si, collegamento a vuoto, nel senso che potevi bypassare i GPC e creare un canale di accesso per bus e cache, ma non potevi utilizzare le rop's (come la 1070, ed anche la 970 aveva varie rogne).
Quindi la 2070, aveva: 72 rop's memorizzabili, 48 rasterizzate, 16 a vuoto.
Le 64 dichiarate sono solo sul silicio.

Nvidia ancora ha problemi a rasterizzare più di 16 pixel per volta. Teoricamente con 6 TPC potrebbe rasterizzarne 24.
AMD da RDNA2 e 3 è riuscita a rasterizzare a 32 pixel, ma con risultati pessimi su RDNA3.

Cmq ora è diverso, ci sono molti più GPC rispetto ai collegamenti, quindi si creano strozzature, che provano a colmare con la cache.
Per dire, una 4070ti simmetrica, sarebbe da 320bit.:)

Bè, a me personalmente una 4070Ti collegata a 320bit schifo non mi avrebbe fatto. :D
Per la "terminologia "seguivo il thread passivamente quando decisi di prendere la 2070... ;)

mikael84
22-08-2023, 17:59
Bè, a me personalmente una 4070Ti collegata a 320bit schifo non mi avrebbe fatto. :D
Per la "terminologia "seguivo il thread passivamente quando decisi di prendere la 2070... ;)

Ma tranquillo:D

Dono89
22-08-2023, 19:04
Ma da un punto di vista tecnico, perché nvidia ha fatto leva sulla cache?
Non è collegata al bus e non va quindi a sopperire ad un calo dato dal taglio per i 192bit

Ale55andr0
22-08-2023, 19:22
Ma da un punto di vista tecnico, perché nvidia ha fatto leva sulla cache?
Non è collegata al bus e non va quindi a sopperire ad un calo dato dal taglio per i 192bit

la banda, un po' striminzita, ci può stare perchè compensa con la cache e le memorie ad altro clock e alla fin fine facendo cosi' sta sul livello di una 90/90ti.
Il problema è che dal 192bit derivano solo 12gb, troppo pochi per questa fascia. Bastava farla a 256 bit e 16gb e darsi una calmata col prezzo esoso, si sarebbe posizionata meglio fra 70 e 80 e nessuno avrebbe fiatato, anzi probabilmente sarebbe stata la gpu più interessante


Per dire, una 4070ti simmetrica, sarebbe da 320bit.:)

E allora la facevano da venti e facevano pari e patta con la 7900XT visto che tanto è proprio in quella fascia ed la sua rivale. L'avrebbe sdrumata a 360 e ci faceva digerire meglio 800 euro con 20gb.

RoUge.boh
22-08-2023, 19:32
la banda, un po' striminzita, ci può stare perchè compensa con la cache e le memorie ad altro clock e alla fin fine facendo cosi' sta sul livello di una 90/90ti.
Il problema è che dal 192bit derivano solo 12gb, troppo pochi per questa fascia. Bastava farla a 256 bit e 16gb e darsi una calmata col prezzo esoso, si sarebbe posizionata meglio fra 70 e 80 e nessuno avrebbe fiatato, anzi probabilmente sarebbe stata la gpu più interessante



E allora la facevano da venti e facevano pari e patta con la 7900XT visto che tanto è proprio in quella fascia ed la sua rivale. L'avrebbe sdrumata a 360 e ci faceva digerire meglio 800 euro con 20gb.

grazie ottima spiegazione

MATTEW1
22-08-2023, 19:52
Salve ragazzi ho appena letto dell'uscita del dlss 3.5 in autunno.
Vi chiedo visto che volevo prender un 70ti. Il senso di prenderla quando cmq a meno trovo una 3090 con molti più giga..cioè la 3090 con questo 3.5 risulterà sempre superiore no?

Dono89
22-08-2023, 20:00
Salve ragazzi ho appena letto dell'uscita del dlss 3.5 in autunno.
Vi chiedo visto che volevo prender un 70ti. Il senso di prenderla quando cmq a meno trovo una 3090 con molti più giga..cioè la 3090 con questo 3.5 risulterà sempre superiore no?


La 90/90ti (la 90ti è una 90 con uv e buon bios) è superiore solo in 4k.
In 2k la spunta la 70ti o siamo lì.

fraussantin
22-08-2023, 20:08
Salve ragazzi ho appena letto dell'uscita del dlss 3.5 in autunno.

Vi chiedo visto che volevo prender un 70ti. Il senso di prenderla quando cmq a meno trovo una 3090 con molti più giga..cioè la 3090 con questo 3.5 risulterà sempre superiore no?Io sono sempre per il nuovo e in garanzia.

Cmq la ram della 3090 te la ritrovi in 4k con i giochi amd sorpatutto .

Per il resto il dlss 3.5 ha l'8% delle prestazioni in più rispetto al liscio. ( dai dati riportati nello screenshot oltre alla qualità grafica da capire )
Il resto lo da il fg che cmq non avrai sulla 3090.

Quindi aspetterei quanto meno di vederlo prima di giudicarlo conveniente.
.

mikael84
22-08-2023, 20:57
Ma da un punto di vista tecnico, perché nvidia ha fatto leva sulla cache?
Non è collegata al bus e non va quindi a sopperire ad un calo dato dal taglio per i 192bit

la banda, un po' striminzita, ci può stare perchè compensa con la cache e le memorie ad altro clock e alla fin fine facendo cosi' sta sul livello di una 90/90ti.

Molto semplificato, ma il succo è questo.
L'aumento delle cache è partito grazie alle possibilità offerte dalle densità sram.
Nvidia l'ha introdotta con Ampere HPC a marzo 2020, AMD risponde con l'infinity cache l3 a fine 2020, ed ora Lovelace, grazie al PP la usa anche lei (per dire, su samsung ga102, 96mb di cache volevano quasi 800mm2 di die, ora neppure 90).

Per come la usano AMD e nvidia è giusto per metterci una pezza, più per questioni warp stall.
Rispetto a quella di AMD è molto meglio, in quanto la l2 può far lavorare tanti gruppi di calcolo a bassa latenza, mentre quella di AMD è meglio con pochi, in quanto aumentando il gruppo di calcolo deve andare sulla l3.

Il problema di banda e cache si può notare in ambienti di calcolo estremi o rop's intensive, solitamente ad alte res.


Il problema è che dal 192bit derivano solo 12gb, troppo pochi per questa fascia.

Si questo è un problema delle cache. La cache, dovrebbe essere un plus non una pezza.




E allora la facevano da venti e facevano pari e patta con la 7900XT visto che tanto è proprio in quella fascia ed la sua rivale. L'avrebbe sdrumata a 360 e ci faceva digerire meglio 800 euro con 20gb.

Si, e la 4080 da 448bit in simmetria.:p
Capisco che per come se le fa pagare, un 256 bit, doveva metterlo per principio, ma essendo scarti pensati per il pro, ad obsolescenza programmata, puoi capire tu...

Riguardo il pareggiare la 7900xt, beh, non dovrebbe essere il bersaglio di quest'ultima, ma per forza di cose ci si ritrova li.
Chi è l'ingegnere che spenderebbe circa 8-9mtransistor su 35 totali, per instradare 840 gb/s e 80mb di cache su un chip del genere?:p

Alessa... con te ci farei un farei un bel impianto audio, ma non ti affiderei mai un progetto grafico.:sofico:


La 90/90ti (la 90ti è una 90 con uv e buon bios) è superiore solo in 4k.
In 2k la spunta la 70ti o siamo lì.

Oltre alle 21 default e a 256 cuda, ma a pari clock è poca cosa. Il problema è arrivarci al clock della 3090ti in modo easy.:)

devil_mcry
22-08-2023, 22:42
Io sono sempre per il nuovo e in garanzia.

Cmq la ram della 3090 te la ritrovi in 4k con i giochi amd sorpatutto .

Per il resto il dlss 3.5 ha l'8% delle prestazioni in più rispetto al liscio. ( dai dati riportati nello screenshot oltre alla qualità grafica da capire )
Il resto lo da il fg che cmq non avrai sulla 3090.

Quindi aspetterei quanto meno di vederlo prima di giudicarlo conveniente.
.
quel 8 in più ci sarebbe anche con la 3090, è il fg affare il suo

onestamente non so cosa comprerei

Ale55andr0
22-08-2023, 22:58
Molto semplificato, ma il succo è questo.
L'aumento delle cache è partito grazie alle possibilità offerte dalle densità sram.
Nvidia l'ha introdotta con Ampere HPC a marzo 2020, AMD risponde con l'infinity cache l3 a fine 2020, ed ora Lovelace, grazie al PP la usa anche lei (per dire, su samsung ga102, 96mb di cache volevano quasi 800mm2 di die, ora neppure 90).

Per come la usano AMD e nvidia è giusto per metterci una pezza, più per questioni warp stall.
Rispetto a quella di AMD è molto meglio, in quanto la l2 può far lavorare tanti gruppi di calcolo a bassa latenza, mentre quella di AMD è meglio con pochi, in quanto aumentando il gruppo di calcolo deve andare sulla l3.

Il problema di banda e cache si può notare in ambienti di calcolo estremi o rop's intensive, solitamente ad alte res.



Si questo è un problema delle cache. La cache, dovrebbe essere un plus non una pezza.



Si, e la 4080 da 448bit in simmetria.:p
Capisco che per come se le fa pagare, un 256 bit, doveva metterlo per principio, ma essendo scarti pensati per il pro, ad obsolescenza programmata, puoi capire tu...

Riguardo il pareggiare la 7900xt, beh, non dovrebbe essere il bersaglio di quest'ultima, ma per forza di cose ci si ritrova li.
Chi è l'ingegnere che spenderebbe circa 8-9mtransistor su 35 totali, per instradare 840 gb/s e 80mb di cache su un chip del genere?:p

Alessa... con te ci farei un farei un bel impianto audio, ma non ti affiderei mai un progetto grafico.:sofico:




Oltre alle 21 default e a 256 cuda, ma a pari clock è poca cosa. Il problema è arrivarci al clock della 3090ti in modo easy.:)


Ma infatti per me doveva essere 256/16 e amen, ne usciva molto meglio. Ora ci dobbiamo sorbire ste schede fino al 25, sempre se non finisce prima il mondo

mikael84
23-08-2023, 01:22
Ma infatti per me doveva essere 256/16 e amen, ne usciva molto meglio. Ora ci dobbiamo sorbire ste schede fino al 25, sempre se non finisce prima il mondo

E si, sarebbe stata devastante per noi e per il mercato, ed onestamente anche a me garberebbe, mantenendo l'ecosistema nvidia, senza spendere oltre 1000euro (io ho pure un g-sync a modulino). Purtroppo per noi, JHH, tra linea mobile e pro, è su altre vedute . Con AD104 ci taglia le 4080 mobile e le 4500pro da 2250$, dove mette il clamshell g6.
La pro da 256bit, te la fa pagare il doppio.

Pensa che con Turing, al debutto della doppia densità, fece: RTX6000 24gb, TU102 a 6000$... RTXA8000 48gb clamshell 10000$. Pensa 4000$ per 24gb di ram praticamente, una soglia di 96gb in nvlink.

Avendo già scritto i codici sino alle 6000, sa bene quello che fa, e bisogna sperare che gli vada storto qualcosa.:D

argez
23-08-2023, 08:15
la banda, un po' striminzita, ci può stare perchè compensa con la cache e le memorie ad altro clock e alla fin fine facendo cosi' sta sul livello di una 90/90ti.
Il problema è che dal 192bit derivano solo 12gb, troppo pochi per questa fascia. Bastava farla a 256 bit e 16gb e darsi una calmata col prezzo esoso, si sarebbe posizionata meglio fra 70 e 80 e nessuno avrebbe fiatato, anzi probabilmente sarebbe stata la gpu più interessante



E allora la facevano da venti e facevano pari e patta con la 7900XT visto che tanto è proprio in quella fascia ed la sua rivale. L'avrebbe sdrumata a 360 e ci faceva digerire meglio 800 euro con 20gb.

Una 4070 da 16gb a 600 euro avrebbe preso tutto il mercato probabilmente.

Dono89
23-08-2023, 09:08
Molto semplificato, ma il succo è questo.
L'aumento delle cache è partito grazie alle possibilità offerte dalle densità sram.
Nvidia l'ha introdotta con Ampere HPC a marzo 2020, AMD risponde con l'infinity cache l3 a fine 2020, ed ora Lovelace, grazie al PP la usa anche lei (per dire, su samsung ga102, 96mb di cache volevano quasi 800mm2 di die, ora neppure 90).

Per come la usano AMD e nvidia è giusto per metterci una pezza, più per questioni warp stall.
Rispetto a quella di AMD è molto meglio, in quanto la l2 può far lavorare tanti gruppi di calcolo a bassa latenza, mentre quella di AMD è meglio con pochi, in quanto aumentando il gruppo di calcolo deve andare sulla l3.

Il problema di banda e cache si può notare in ambienti di calcolo estremi o rop's intensive, solitamente ad alte res.
Grazie della spiegazione Mikael, ma mi manca un pezzo.
Mi torna sui vantaggi che apporta la cache e (ora) perchè non fosse stato fatto prima, non sapevo fosse così legata al PP, ma continuo a non capire la dipendenza del bus.
In altri termini, una migliore cache, così come non compensa una scarsa memoria (non è questo il caso) non compensa nemmeno un taglio del bus.
E' una pezza come dici/palliativo o comunque un boost a livello di performance secche.
Il bus ha un altro obiettivo, tant'è che a volte da 192 a 320 non cambia, specie a basse res mentre con la cache bene o male hai comunque sempre vantaggi. Se hanno una natura così diversa, perchè uno ssotituisce l'altro?

O banalmente (rasoio di occam), la perdita che hai dal bus viene compensata e quindi tanti saluti?




Oltre alle 21 default e a 256 cuda, ma a pari clock è poca cosa. Il problema è arrivarci al clock della 3090ti in modo easy.:)
i cuda sono circa il 2% in più, contando che non scalano nemmeno in modo lineare non credo il vantaggio arrivi da lì.
Le memorie della 3090 nascono a 21 e le porti facile facile alla stessa frequenza, la 3090 ti viaggia in media a 1980MHz. Non è poco, ma mediamente a 1920 ci arrivano tutte le 3090 dai voltaggi di 850 alle medie 890/900 e cambiano una manciata di w, nulla di più, non credo siano i 60MHz a far la differenza:
https://tpucdn.com/review/nvidia-geforce-rtx-3090-ti-founders-edition/images/clock-vs-voltage.png

La asus 3090 che avevo stava a 1920 con 880mV ed ora la 3080ti (altri 256cuda in meno) sta a 1935 con 893mV.
Va un filino più nei bench (un nulla) la 80ti a 1935 che la 3090 a 1920.
Diciamo che sono pari e se la differenza di 256 cuda non cambia tra 3080ti e 3090, matematicamente cambia anche meno tra 3090 e 3090ti.
Di certo non devo spiegarlo io a te :D

Una 4070 da 16gb a 600 euro avrebbe preso tutto il mercato probabilmente.

Una 4070 è una 3080, forse pure uno sputo in meno. Per la cronaca, dove una 3080 arrivava a 10gb e la 3090 causa texture extra etc in CP arrivava a 15GB, cadevano comunque i frame. Il problema di queste schede è la potenza, non la memoria.
Figurati che la 4070 ha 12gb, basta e avanza. Non è perchè AMD ne mette 16 allora quello è il riferimento :D

EffeX
23-08-2023, 10:34
Una 4070 è una 3080, forse pure uno sputo in meno. Per la cronaca, dove una 3080 arrivava a 10gb e la 3090 causa texture extra etc in CP arrivava a 15GB, cadevano comunque i frame. Il problema di queste schede è la potenza, non la memoria.
Figurati che la 4070 ha 12gb, basta e avanza. Non è perchè AMD ne mette 16 allora quello è il riferimento :D

Non è il riferimento, ma 12 GB son comunque giusti giusti senza DLSS.
Se domani nvidia tirasse fuori un algoritmo di compressione miracoloso che riuscisse a far crollare di 1/3 l'utilizzo della vram occupata stai sicuro che ti venderebbe allo stesso prezzo, o addirittura di più, schede con 4 GB di ram, perché tanto con l'algoritmo basterebbero e avanzerebbero.
Peccato che i moduli di gddr6 costano una miseria oggi.
Io capisco che la vram è determinata dal bus, però 12 GB a 900€ (4070Ti) a me il naso lo fanno storcere parecchio.

Fos
23-08-2023, 10:55
Non è il riferimento, ma 12 GB son comunque giusti giusti senza DLSS.Infatti il riferimento è la quantità messa da Nvidia, per cui deve avanzare...

Con 16GB avrebbe avuto pure più banda, il discorso del quando serve non serve è la solita scusa, ma cosa importa, deve essere così.

12GB son troppi, prima avanzavano i 10 della 3080, adesso avanza lo stuttering... Neanche la storia recente si considera, quando non conviene.

EffeX
23-08-2023, 11:12
Infatti il riferimento è la quantità messa da Nvidia, per cui deve avanzare...

Con 16GB avrebbe avuto pure più banda, il discorso del quando serve non serve è la solita scusa, ma cosa importa, deve essere così.

12GB son troppi, prima avanzavano i 10 della 3080, adesso avanza lo stuttering... Neanche la storia recente si considera, quando non conviene.

Ma purtroppo noi possiamo discutere quanto vogliamo, alla fine son chiacchiere da bar. :)
Son loro che decidono come e con quanta vram "tagliarle", noi possiamo solo decidere se acquistarle o meno, è l'unico feedback noi consumatori possiamo dare.
Resto sempre dell'idea che la serie 4000 le prestazioni le ha, sono i prezzi che sono esagerati, figli anche di un post pandemia dove la gente rinchiusa in casa si è riscoperta gamer e hanno acquistato schede a prezzi doppi o tripli da strozzini.

Dono89
23-08-2023, 11:35
Non è il riferimento, ma 12 GB son comunque giusti giusti senza DLSS.
Se domani nvidia tirasse fuori un algoritmo di compressione miracoloso che riuscisse a far crollare di 1/3 l'utilizzo della vram occupata stai sicuro che ti venderebbe allo stesso prezzo, o addirittura di più, schede con 4 GB di ram, perché tanto con l'algoritmo basterebbero e avanzerebbero.
Peccato che i moduli di gddr6 costano una miseria oggi.
Io capisco che la vram è determinata dal bus, però 12 GB a 900€ (4070Ti) a me il naso lo fanno storcere parecchio.


A me onestamente no e non lo dico da possessore di una scheda da 12gb.

La compressione è decisamente migliorata negli anni e schede che oggi hanno 12gb non sono nemmeno lontanamente paragonabili a quelle che ne avevano 16 anni fa. La 70ti in 4k le prende dalla 90ti per il bus, non per la ram.
Il problema può esserci solo con rt, ma nel 99% dei casi con RT c'è anche il dlss e il problema non si pone nemmeno lì.
Schede con 12gb sono schede da 2k e in 2k 12gb anche con texture al massimo non li saturi in nativo.

Poi se vogliamo portarci una 3080 nel 2030 è un altro discorso

Inoltre (per fortuna) il trend è sempre quello di spendere tanto sul sw e risparmiare su hw.
Secondo me vedremo sempre più ottimizzazioni sw e un taglio all'hw.
Ridurrebbe di tantissimo i costi nvidia e sicuro lo sa

EffeX
23-08-2023, 11:55
A me onestamente no e non lo dico da possessore di una scheda da 12gb.

La compressione è decisamente migliorata negli anni e schede che oggi hanno 12gb non sono nemmeno lontanamente paragonabili a quelle che ne avevano 16 anni fa. La 70ti in 4k le prende dalla 90ti per il bus, non per la ram.
Il problema può esserci solo con rt, ma nel 99% dei casi con RT c'è anche il dlss e il problema non si pone nemmeno lì.
Schede con 12gb sono schede da 2k e in 2k 12gb anche con texture al massimo non li saturi in nativo.

Poi se vogliamo portarci una 3080 nel 2030 è un altro discorso

Inoltre (per fortuna) il trend è sempre quello di spendere tanto sul sw e risparmiare su hw.
Secondo me vedremo sempre più ottimizzazioni sw e un taglio all'hw.
Ridurrebbe di tantissimo i costi nvidia e sicuro lo sa

Che Nvidia lo sappia e che le convenga lo so.
Non so se conviene a me spendere tutti quei soldi per ottimizzazioni sw.
Principalmente sono un appassionato di hw, del software me ne importa il giusto.
Riguardo ai 12 GB oggi in 2K bastano, domani non so, io passando da 8 a 16 GB, in 2K, la differenza l'ho notata, non nei frame ma nella omogeneità di essi, niente stuttering o texture che compaiono all'improvviso in alcuni giochi anche se maxate.
Parlo per esperienza diretta sul mio sistema, che è un po' datato ormai, magari su nuove piattaforme il problema si nota meno, però io ho riscontrato un netto miglioramento, non posso negarlo.
PS una 4070Ti, visto che costa 900€, gradirei tenerla almeno 4 anni, ma tra 4 anni son quasi sicuro che sarà giusta giusta, il discorso dei troppi soldi nasce da lì, per dire, la GTX 980 pagata quasi 500€ al lancio mi durò 4 anni per essere poi sostituita dalla RTX 2070, ma quando la cambiai era ancora una signora scheda, ecco la 4070Ti per 900€ non so se fra 4 anni sarà come la 980...

mikael84
23-08-2023, 12:19
Grazie della spiegazione Mikael, ma mi manca un pezzo.
Mi torna sui vantaggi che apporta la cache e (ora) perchè non fosse stato fatto prima, non sapevo fosse così legata al PP, ma continuo a non capire la dipendenza del bus.
In altri termini, una migliore cache, così come non compensa una scarsa memoria (non è questo il caso) non compensa nemmeno un taglio del bus.
E' una pezza come dici/palliativo o comunque un boost a livello di performance secche.
Il bus ha un altro obiettivo, tant'è che a volte da 192 a 320 non cambia, specie a basse res mentre con la cache bene o male hai comunque sempre vantaggi. Se hanno una natura così diversa, perchè uno ssotituisce l'altro?

O banalmente (rasoio di occam), la perdita che hai dal bus viene compensata e quindi tanti saluti?

E' basilare, e detto senza giri di parole, i gruppi di calcolo ora vengono alimentati in buona parte dalla cache grazie ad una banda che raggiunge i 5tb/s, quindi il traffico verso la banda passante sarà minore.
Con Ampere, un thread o più gruppi di thread, bussavano in cache e trovavano quasi sempre chiuso (troppo piccola), quindi oltre a quel viaggio, dovevano andare in banda ad una distanza grande 3 volte, e nel mentre i thread aspettavano fermi tanto tempo.
Con Lovelace, buona parte dei gruppi di calcolo, passa dalla cache, e più è grande la cache, più gruppi di calcolo riesco ad alimentare.

https://i.postimg.cc/tT34qFL1/cache-miss.png





i cuda sono circa il 2% in più, contando che non scalano nemmeno in modo lineare non credo il vantaggio arrivi da lì.
Le memorie della 3090 nascono a 21 e le porti facile facile alla stessa frequenza, la 3090 ti viaggia in media a 1980MHz. Non è poco, ma mediamente a 1920 ci arrivano tutte le 3090 dai voltaggi di 850 alle medie 890/900 e cambiano una manciata di w, nulla di più, non credo siano i 60MHz a far la differenza:


Si lato cuda è un qualcosa di irrisorio, la ram è a 21 stock ed arriva anche a 24 gb/s, non penso che tu arrivi a 24 gb/s, anzi, mi hai detto che la tenevi a 21, visto che di base è tarata a 19,5.:)

Sui clock, avrei da ridire, è vero che tutte arrivano a 1920, ma salvo configurazioni a liquido, non fai molta più strada.
Sempre secondo quel sito, una LC, ha tenuto in OC, un usage di 2210, le altre erano cmq sopra i 2100 ad aria.
https://www.techpowerup.com/review/msi-geforce-rtx-3090-ti-suprim-x/40.html





Una 4070 è una 3080, forse pure uno sputo in meno. Per la cronaca, dove una 3080 arrivava a 10gb e la 3090 causa texture extra etc in CP arrivava a 15GB, cadevano comunque i frame. Il problema di queste schede è la potenza, non la memoria.
Figurati che la 4070 ha 12gb, basta e avanza. Non è perchè AMD ne mette 16 allora quello è il riferimento :D

Io qua, sono il primo che ha sempre condannato la partigianeria di alcune testate, ma su questo non sono del tutto daccordo.

Una 3080 muore, almeno per un appassionato (poi c'è anche chi gioca a 10-15 fps ma ha le texture ultra e vabbè...) quando non mantiene più i titoli sopra i 50-60fps, e con gli scaling, muore quando non li tiene neppure sotto i 1080p. Quindi parlare di morte GPU è una parola pesante, soprattutto per una scheda capace anche del 4k in svariati titoli.

Tuttavia per giocare a RE4, devo abbassare due step di texture e uno le ombre. Non cambia niente, ok, o poco e niente, ma se sto facendo 100-120fps la cosa mi rode un pochino.
Potrei elencarne un bel paio di giochi così. Quindi, dove non bastano 10, con 12 è meglio sicuramente.:p

Ale55andr0
23-08-2023, 13:13
Una 4070 da 16gb a 600 euro avrebbe preso tutto il mercato probabilmente.

avranno voluto non infierire su AMD :D

e niente, ma se sto facendo 100-120fps la cosa mi rode un pochino.
Potrei elencarne un bel paio di giochi così. Quindi, dove non bastano 10, con 12 è meglio sicuramente.:p


e con 16 è meglio ancora, specie che ora arriva la "vera" net gen (UE5 et simili) e che i porting da PS4 svaniranno, quindi asset e texture più pesanti.
12 Giga sono micragnosi già oggi

mikael84
23-08-2023, 13:34
avranno voluto non infierire su AMD :D




e con 16 è meglio ancora, specie che ora arriva la "vera" net gen (UE5 et simili) e che i porting da PS4 svaniranno, quindi asset e texture più pesanti.
12 Giga sono micragnosi già oggi

Sui nuovi giochi, bisogna che vengano anche ottimizzati un pochino, in quanto li più che la ram, muore la GPU letteralmente.
Una 4070ti su Immortals of Aveum fa 33-41 fps in nativo 1440p e 54-61 in DLLS quality. 90-101 DLSS3, ma ram usata 7-8gb
Remnant 2 usa pochissima ram, ma era sulla stessa strada.

Praticamente ci stiamo trovando titoli estremamente pesanti con basso usage di vram, e titoli vecchiotti leggerissimi, con estremo bisogno di ram per accordi con AMD.

EffeX
23-08-2023, 14:34
Sui nuovi giochi, bisogna che vengano anche ottimizzati un pochino, in quanto li più che la ram, muore la GPU letteralmente.
Una 4070ti su Immortals of Aveum fa 33-41 fps in nativo 1440p e 54-61 in DLLS quality. 90-101 DLSS3, ma ram usata 7-8gb
Remnant 2 usa pochissima ram, ma era sulla stessa strada.

Praticamente ci stiamo trovando titoli estremamente pesanti con basso usage di vram, e titoli vecchiotti leggerissimi, con estremo bisogno di ram per accordi con AMD.

Quoto, però sulla vram son scettico, siamo da troppi anni fermi alla soglia degli 8 GB, presto o tardi qualcosa dovrà muoversi, ed il momento mi sembra quasi arrivato con gli UE5, poi sul fatto che le gpu alzino bandiera bianca prima della vram è vero se non ottimizzano niente di niente che tanto c'è DLSS e compagnia.
Ricordo la stessa nvidia quando faceva questo bel giochetto con le FX, equipaggiate con 256 MB di ram per renderle appetibili, quando le Radeon ne avevano la metà ed andavano di più senza avere troppi problemi.
Ora la situazione è ribaltata. :D

RoUge.boh
23-08-2023, 15:07
Quoto, però sulla vram son scettico, siamo da troppi anni fermi alla soglia degli 8 GB, presto o tardi qualcosa dovrà muoversi, ed il momento mi sembra quasi arrivato con gli UE5, poi sul fatto che le gpu alzino bandiera bianca prima della vram è vero se non ottimizzano niente di niente che tanto c'è DLSS e compagnia.
Ricordo la stessa nvidia quando faceva questo bel giochetto con le FX, equipaggiate con 256 MB di ram per renderle appetibili, quando le Radeon ne avevano la metà ed andavano di più senza avere troppi problemi.
Ora la situazione è ribaltata. :D

Si ma alla fine il succo è nella tua frase:
"Non so se conviene a me spendere tutti quei soldi per ottimizzazioni sw."

Io giuro sono veramente nel pallone su cosa comprare come scheda video.
So solo che a casa ho preso AW3423DWF, qundi ho bisogno di una scheda decente.
Non nego che mi sto informado sulla 4080 il salto è abbastanza esoso. (anche se dovrei confrontarla con la XTX) ma i 12 GB della 70Ti nonmi scendono.

https://i.redd.it/nlku4rbpbrjb1.jpg

EffeX
23-08-2023, 15:20
Si ma alla fine il succo è nella tua frase:
"Non so se conviene a me spendere tutti quei soldi per ottimizzazioni sw."

Io giuro sono veramente nel pallone su cosa comprare come scheda video.
So solo che a casa ho preso AW3423DWF, qundi ho bisogno di una scheda decente.
Non nego che mi sto informado sulla 4080 il salto è abbastanza esoso. (anche se dovrei confrontarla con la XTX) ma i 12 GB della 70Ti nonmi scendono.

https://i.redd.it/nlku4rbpbrjb1.jpg

Guarda, io son difficile di sti tempi: vorrei più vram e prestazioni RT insieme e non dover scegliere o l'una o l'altra sotto i 1000€.
La 4080 coniuga entrambe le cose ma siamo sopra i 1000€ quindi per me è no.
Tu che budget hai?

mikael84
23-08-2023, 16:13
Quoto, però sulla vram son scettico, siamo da troppi anni fermi alla soglia degli 8 GB, presto o tardi qualcosa dovrà muoversi, ed il momento mi sembra quasi arrivato con gli UE5, poi sul fatto che le gpu alzino bandiera bianca prima della vram è vero se non ottimizzano niente di niente che tanto c'è DLSS e compagnia.

Con la vram a piccoli balzi ci saranno aumenti, vuoi per un salto bus, o per le g7 da 3gb, ma se l'andazzo è quello visto dagli ultimi UE5, dove una 4090 viene data per 60-70fps a 1440p, beh i problemi cominciano ad essere altri:p


Ricordo la stessa nvidia quando faceva questo bel giochetto con le FX, equipaggiate con 256 MB di ram per renderle appetibili, quando le Radeon ne avevano la metà ed andavano di più senza avere troppi problemi.
Ora la situazione è ribaltata. :D

Certo, ma è dovuto soprattutto al bus installato ed alla fascia ricoperta, nonchè all'esigenza di avere una adeguata quantità di banda. Un tempo una 7800xt se la sarebbe giocata con la 4080 a pari collegamenti.

Ale55andr0
23-08-2023, 17:28
Si ma alla fine il succo è nella tua frase:
"Non so se conviene a me spendere tutti quei soldi per ottimizzazioni sw."

Io giuro sono veramente nel pallone su cosa comprare come scheda video.
So solo che a casa ho preso AW3423DWF, qundi ho bisogno di una scheda decente.
Non nego che mi sto informado sulla 4080 il salto è abbastanza esoso. (anche se dovrei confrontarla con la XTX) ma i 12 GB della 70Ti nonmi scendono.

https://i.redd.it/nlku4rbpbrjb1.jpg

La ram la hai sempre, l'AI solo sui giochi sponsorizzati.

Sennò prendi appunto la 4080 ed hai chillo e chillo

Con la vram a piccoli balzi ci saranno aumenti, vuoi per un salto bus, o per le g7 da 3gb, ma se l'andazzo è quello visto dagli ultimi UE5, dove una 4090 viene data per 60-70fps a 1440p, beh i problemi cominciano ad essere altri:p
.

si' ma ora non è che dev'essere una scusa perchè non ottimizzano (ma poi chi? sono solo alcuni giochi mica tutti) e allora stra-sovrapago una 12gb che tanto muore prima la gpu

mikael84
23-08-2023, 17:52
La ram la hai sempre, l'AI solo sui giochi sponsorizzati.

Sennò prendi appunto la 4080 ed hai chillo e chillo



si' ma ora non è che dev'essere una scusa perchè non ottimizzano (ma poi chi? sono solo alcuni giochi mica tutti) e allora stra-sovrapago una 12gb che tanto muore prima la gpu

Chiaro che anche la ram avrà sempre la sua importanza, un aspetto non asseconda l'altro. Quello che stanno cercando di far passare è: noi non ottimizziamo, o lo facciamo come viene, voi compratevi GPU top, o arrangiatevi con gli scaling.

RoUge.boh
23-08-2023, 19:55
Guarda, io son difficile di sti tempi: vorrei più vram e prestazioni RT insieme e non dover scegliere o l'una o l'altra sotto i 1000€.
La 4080 coniuga entrambe le cose ma siamo sopra i 1000€ quindi per me è no.
Tu che budget hai?

Io vorrei stare sotto i € 1.000 che già mi sembra un esagerazione ma... ho accettato di spenderli quando ho preso il monitor nuovo.

La ram la hai sempre, l'AI solo sui giochi sponsorizzati.

Sennò prendi appunto la 4080 ed hai chillo e chillo



si' ma ora non è che dev'essere una scusa perchè non ottimizzano (ma poi chi? sono solo alcuni giochi mica tutti) e allora stra-sovrapago una 12gb che tanto muore prima la gpu

Si ma a che prezzo? e la "tassa" per usare un software che saraà implementato e come? dall'altra parte facendo cosi vi è un obsalescenza programmata dietro l'angolo.

Chiaro che anche la ram avrà sempre la sua importanza, un aspetto non asseconda l'altro. Quello che stanno cercando di far passare è: noi non ottimizziamo, o lo facciamo come viene, voi compratevi GPU top, o arrangiatevi con gli scaling.

Assolutamente, se da un lato ho il pacchetto AMD completo (7800X3D -> SAM -> 7900 ) ma FSR 3.0 dove è? quanti problemi ci sono ancora dopo 10 mesi?

A sto punto aspetto la conferenza AMD dove però, per me, se non manterrano le parole promesse con FSR 3.0 gli si potrebbe tornare contro a livello di vendite.

Nel frattempo marketing o non marketing NVIDIA sta facendo veramente un sacco di cose:

https://www.youtube.com/@TwoMinutePapers/videos

Gigibian
23-08-2023, 20:34
Io vorrei stare sotto i € 1.000 che già mi sembra un esagerazione ma... ho accettato di spenderli quando ho preso il monitor nuovo.



Si ma a che prezzo? e la "tassa" per usare un software che saraà implementato e come? dall'altra parte facendo cosi vi è un obsalescenza programmata dietro l'angolo.



Assolutamente, se da un lato ho il pacchetto AMD completo (7800X3D -> SAM -> 7900 ) ma FSR 3.0 dove è? quanti problemi ci sono ancora dopo 10 mesi?

A sto punto aspetto la conferenza AMD dove però, per me, se non manterrano le parole promesse con FSR 3.0 gli si potrebbe tornare contro a livello di vendite.

Nel frattempo marketing o non marketing NVIDIA sta facendo veramente un sacco di cose:

https://www.youtube.com/@TwoMinutePapers/videos

Con la config in firma sono in linea con le performance di una 4090 (+50% prezzo) senza RAYTracing.
Considerando che già la 3090TI (top precedente generazione) è già troppo lenta per molti giochi raytracing , evito di rincorrere l'ultima scheda ogni anno.

Mi sono buttato sulla 7900XTX almeno RAM e potenza mi garantiscono gaming maxato al 100% senza RT, ed al 95% dei giochi con RT per i prossimi anni.
Considera inoltre il bonus FSR3 che potrebbe essere utilizzabile dappertutto.

Aniway, de gustibus, capisco anche chi dice che se deve spendere 1000 euro di schede, allora ne spende 1500 e prende una 4090. Per me quei 500 euro in più (+50%!) non erano giustificati. Non è un discorso di disponibilità economica, ma proprio non mi avrebbero portato guadagno nell'esperienza di utilizzo.

P.S.:
Vi piace il PC in firma? :P

Gigibian
23-08-2023, 20:47
Chiaro che anche la ram avrà sempre la sua importanza, un aspetto non asseconda l'altro. Quello che stanno cercando di far passare è: noi non ottimizziamo, o lo facciamo come viene, voi compratevi GPU top, o arrangiatevi con gli scaling.

#define NUMBER_OF_RAY_BOUNCES ( 128 ) //Old was 16, moved to 128 to make obsolete 3090TI cards


Quanto sopra è tutta la differenza tra CyberPunk con path-tracyng e Raytracing normale.

E sostanzialmente quello che fanno in tutti i videogiochi.

Lasciano le stesse texture cagose, gli stessi 4 poligoni, ma sparano a palla il numero di riflessi ed il numero di shader effect che portano zero all'esperienza grafica, ma ti distruggono le performance di qualsiasi scheda video.

E via tutti di 4090.

E con le scatolette hai la stessa qualità grafica.

Cutter90
24-08-2023, 06:56
La ram la hai sempre, l'AI solo sui giochi sponsorizzati.

Sennò prendi appunto la 4080 ed hai chillo e chillo



si' ma ora non è che dev'essere una scusa perchè non ottimizzano (ma poi chi? sono solo alcuni giochi mica tutti) e allora stra-sovrapago una 12gb che tanto muore prima la gpu

In verità sono molti meno i giochi in cui la ram in più serve davvero dei giochi con dlss e rt. Ma molti molti meno. Anche perchè perchè il dlss non c'è solo nei giochi sponsorizzati nvidia
Con la config in firma sono in linea con le performance di una 4090 (+50% prezzo) senza RAYTracing.
Considerando che già la 3090TI (top precedente generazione) è già troppo lenta per molti giochi raytracing , evito di rincorrere l'ultima scheda ogni anno.

Mi sono buttato sulla 7900XTX almeno RAM e potenza mi garantiscono gaming maxato al 100% senza RT, ed al 95% dei giochi con RT per i prossimi anni.
Considera inoltre il bonus FSR3 che potrebbe essere utilizzabile dappertutto.

Aniway, de gustibus, capisco anche chi dice che se deve spendere 1000 euro di schede, allora ne spende 1500 e prende una 4090. Per me quei 500 euro in più (+50%!) non erano giustificati. Non è un discorso di disponibilità economica, ma proprio non mi avrebbero portato guadagno nell'esperienza di utilizzo.

P.S.:
Vi piace il PC in firma? :P

#define NUMBER_OF_RAY_BOUNCES ( 128 ) //Old was 16, moved to 128 to make obsolete 3090TI cards


Quanto sopra è tutta la differenza tra CyberPunk con path-tracyng e Raytracing normale.

E sostanzialmente quello che fanno in tutti i videogiochi.

Lasciano le stesse texture cagose, gli stessi 4 poligoni, ma sparano a palla il numero di riflessi ed il numero di shader effect che portano zero all'esperienza grafica, ma ti distruggono le performance di qualsiasi scheda video.

E via tutti di 4090.

E con le scatolette hai la stessa qualità grafica.

Se tra un path tracing e un raster per te "non porta nulla all'esperienza grarfica" si capisce perchè hai scelto di rimanere su amd. Ma la realtà è che la sua differenza la fa ed è enorme, perchè l'illuminazione ben fatta (non si parla certo solo di riflessi e shader effect eh) la vedi molto di più di texture migliori mentre giochi. E meno che non ti fermi a zoommare ogni 2 metri.
Con la 7900xtx di maxato in rt vero (non quello amd) giochi poco o nulla a meno di pesanti compromessi lato dettagli e/o FSR (che sotto alla qualità è quasi initulizzabile).

Pc molto ben equilibrato cmq e al top possibile, lato AMD

Gigibian
24-08-2023, 07:12
In verità sono molti meno i giochi in cui la ram in più serve davvero dei giochi con dlss e rt. Ma molti molti meno. Anche perchè perchè il dlss non c'è solo nei giochi sponsorizzati nvidia




Se tra un path tracing e un raster per te "non porta nulla all'esperienza grafica" si capisce perchè hai scelto di rimanere su amd. Ma la realtà è che la sua differenza la fa ed è enorme, perchè l'illuminazione ben fatta (non si parla certo solo di riflessi e shader effect eh) la vedi molto di più di texture migliori mentre giochi. E meno che non ti fermi a zoommare ogni 2 metri.
Con la 7900xtx di maxato in rt vero (non quello amd) giochi poco o nulla a meno di pesanti compromessi lato dettagli e/o FSR (che sotto alla qualità è quasi initulizzabile).

Pc molto ben equilibrato cmq e al top possibile, lato AMD

Tra path tracing e Ray tracing cambia solo il numero di rimbalzi che il singolo raggio fà. Tutto qui.

In CP2077, nello specifico, la grafica in path-tracing è assolutamente irrealistica, brillano e riflettono come se fossero una lastra di argento: asfalto, muri, persone etc... E' solo una techdemo per quello che mi riguarda.

E tutti gli altri li giochi li gioco in RT MAXATO, compreso hogwarts e sto intorno ai 75/80 FPS. Ricordati che la 7900XTX ha performance a metà strada tra 3090TI e 4080 in RT.

Ale55andr0
24-08-2023, 07:42
E tutti gli altri li giochi li gioco in RT MAXATO, compreso hogwarts e sto intorno ai 75/80 FPS. Ricordati che la 7900XTX ha performance a metà strada tra 3090TI e 4080 in RT.

in RT intensivo non è affatto a metà tra 3090ti a 4080, ma al livello della 3090. Accettabile, la 3090 resta una bella scheda, ma considera che la 7900XTX è il top assoluto di amd della nuova generazione poteva e doveva fare qualcosa in più anche perchè i modelli a scendere scalano di conseguenza...per dire una 7900XT se la gioca a stento con una 3080 e parliamo di una gpu da 8/900 euro...


https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/relative-performance-rt_3840-2160.png

https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/cyberpunk-2077-rt-3840-2160.png

Nei giochi in cui AMD va bene in RT è solo perchè è applicato solo sulle Ombre, ossia un palliativo
In verità sono molti meno i giochi in cui la ram in più serve davvero dei giochi con dlss e rt. Ma molti molti meno. Anche perchè perchè il dlss non c'è solo nei giochi sponsorizzati nvidia




Ripeto: la ram la hai sempre.
I giochi nuovi on avranno asset sempre più leggeri in generale mentre di giochi next gen DLSS3+ ne sono annunciati pochissimi



PS: toh, col DLSS 3.0 nvidia stessa parla di meno di stabilità dell'immagine sotto DLSS (s30)

https://www.youtube.com/watch?v=HwGbQwoMCxM

Eh si, io non ne capisco, io ci vedo male... quando lo dicevo già eoni fa e a quanto pare sino al DLSS 3.0 "che aveva risolto" al contrario di quanto diceva qualcuno :asd:....

Gigibian
24-08-2023, 07:51
in RT intensivo non è affatto a metà tra 3090ti a 4080, ma al livello della 3090. Accettabile, la 3090 resta una bella scheda, ma considera che la 7900XTX è il top assoluto di amd della nuova generazione poteva e doveva fare qualcosa in più anche perchè i modelli a scendere scalano di conseguenza...per dire una 7900XT se la gioca a stento con una 3080 e parliamo di una gpu da 8/900 euro...


https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/relative-performance-rt_3840-2160.png

https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/cyberpunk-2077-rt-3840-2160.png

Nei giochi in cui AMD va bene in RT è solo perchè è applicato solo sulle Ombre, ossia un palliativo

Ti dico che in hogwarts legacy, una delle migliori implementazioni dell'RT, la config in firma va tranquillamente di più rispetto ad una 3090TI.

In Hogsmeade in RT 1440p sto quasi ad 80FPS stabili.

Il problema è che in rete di benchmark non se ne trovano. Si trovano solo video fake su youtube, e bench di qualche sito fatti con i driver vecchi che ancora non avevano supporto al gioco. la situazione è cambiata molto con gli aggiornamenti driver.

Ale55andr0
24-08-2023, 08:00
Ti dico che in hogwarts legacy, una delle migliori implementazioni dell'RT, la config in firma va tranquillamente di più rispetto ad una 3090TI.

In Hogsmeade in RT 1440p sto quasi ad 80FPS stabili.

Il problema è che in rete di benchmark non se ne trovano. Si trovano solo video fake su youtube, e bench di qualche sito fatti con i driver vecchi che ancora non avevano supporto al gioco. la situazione è cambiata molto con gli aggiornamenti driver.

Ti credo, ma anche l'altra migliora coi sui driver ;)

Gigibian
24-08-2023, 08:48
Ti credo, ma anche l'altra migliora coi sui driver ;)

Se trovi qualcuno con la 3090TI facciamo bench e ti faccio vedere, a disposizione :)

ultimate trip
24-08-2023, 08:49
Chiedo ai possessori o più esperti, con un monitor 4k la 4080 basta? ho come l'impressione guardando qualche video che stai poco sopra i 60 con qualche sporadico calo

Cutter90
24-08-2023, 08:53
Tra path tracing e Ray tracing cambia solo il numero di rimbalzi che il singolo raggio fà. Tutto qui.

In CP2077, nello specifico, la grafica in path-tracing è assolutamente irrealistica, brillano e riflettono come se fossero una lastra di argento: asfalto, muri, persone etc... E' solo una techdemo per quello che mi riguarda.

E tutti gli altri li giochi li gioco in RT MAXATO, compreso hogwarts e sto intorno ai 75/80 FPS. Ricordati che la 7900XTX ha performance a metà strada tra 3090TI e 4080 in RT.

Irrelistico? Forse non hai mai visto una città di notte. I riflessi sono ovunque e la luce si irradia esattamente come in cp 2077 con Path tracing. "Solo il numero dei rimbalzi", fa una differenza enorme, alla faccia del solo.
Scusa, non avevo visto che tu giochi in 1440p e non in 4k. Beh per me avere 75-80 fps in 1440p con rt maxato su HL, dove tra l'latro il Rt non è granchè, non è un risultato buono per me.
Considera che con dlss + FG si fanno 70-80 fps in 1440p con una 4070.... si fanno 50-60 fps in 4k.

Cutter90
24-08-2023, 08:57
in RT intensivo non è affatto a metà tra 3090ti a 4080, ma al livello della 3090. Accettabile, la 3090 resta una bella scheda, ma considera che la 7900XTX è il top assoluto di amd della nuova generazione poteva e doveva fare qualcosa in più anche perchè i modelli a scendere scalano di conseguenza...per dire una 7900XT se la gioca a stento con una 3080 e parliamo di una gpu da 8/900 euro...


https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/relative-performance-rt_3840-2160.png

https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/cyberpunk-2077-rt-3840-2160.png

Nei giochi in cui AMD va bene in RT è solo perchè è applicato solo sulle Ombre, ossia un palliativo



Ripeto: la ram la hai sempre.
I giochi nuovi on avranno asset sempre più leggeri in generale mentre di giochi next gen DLSS3+ ne sono annunciati pochissimi



PS: toh, col DLSS 3.0 nvidia stessa parla di meno di stabilità dell'immagine sotto DLSS (s30)

https://www.youtube.com/watch?v=HwGbQwoMCxM

Eh si, io non ne capisco, io ci vedo male... quando lo dicevo già eoni fa e a quanto pare sino al DLSS 3.0 "che aveva risolto" al contrario di quanto diceva qualcuno :asd:....

Ma cosa stai dicendo scusa? Guarda che l'instabilità dell'immagine nelle reti o nei reticoli c'è sempre stata ed è andata via via migliorando, restava una piccolezza che si notava in qualche sporadico caso in qualche gioco. D'altra parte il TAA la rete zoommata te la mostra con reticoli mancanti del tutto, quindi anche la nativa ha i suoi problemi. Chi aveva detto che non c'era scusa? Ora con il dlss 3.5 pare addirittura risolto questo problemino....
Dai tira fuori il parabrezza di cp 2077 della porsche provato 2 anni fa solo con dlss non aggiornato e senza paragonarlo al TAA che lo faceva uguale.

Cutter90
24-08-2023, 09:00
Chiedo ai possessori o più esperti, con un monitor 4k la 4080 basta? ho come l'impressione guardando qualche video che stai poco sopra i 60 con qualche sporadico calo

Poco sopra i 60 con la 4080 in 4k? nemmeno con la 3090 stavo poco sopra ai 60, figuriamoci con la 4080 che ha pure il FG a disposizione.

ultimate trip
24-08-2023, 09:16
Poco sopra i 60 con la 4080 in 4k? nemmeno con la 3090 stavo poco sopra ai 60, figuriamoci con la 4080 che ha pure il FG a disposizione.

lo chiedo perchè vedendo le recensioni verrebbe più o meno fuori che la 4080 è il 50% più veloce di una 3080 ed io giocando in 4k a returnal e the last of us ho avuto seri problemi a tenere i 60, per cui con una 4080 è corretto supporre che starei sui 80-90?

poi effettivamente non mi è chiaro se il fg lo puoi attivare su qualsiasi titolo, se così fosse recupereresti tanti fps, è vero

Gigibian
24-08-2023, 09:19
Irrelistico? Forse non hai mai visto una città di notte. I riflessi sono ovunque e la luce si irradia esattamente come in cp 2077 con Path tracing. "Solo il numero dei rimbalzi", fa una differenza enorme, alla faccia del solo.
Scusa, non avevo visto che tu giochi in 1440p e non in 4k. Beh per me avere 75-80 fps in 1440p con rt maxato su HL, dove tra l'latro il Rt non è granchè, non è un risultato buono per me.
Considera che con dlss + FG si fanno 70-80 fps in 1440p con una 4070.... si fanno 50-60 fps in 4k.

probabilmente abbiamo occhi diversi.

Io i muri di cemento degli edifici che brillano così non li ho mai visti:

https://i.ibb.co/D9cJkhb/maxresdefault.jpg (https://ibb.co/ByWpjbP)

Ubro92
24-08-2023, 09:22
lo chiedo perchè vedendo le recensioni verrebbe più o meno fuori che la 4080 è il 50% più veloce di una 3080 ed io giocando in 4k a returnal e the last of us ho avuto seri problemi a tenere i 60, per cui con una 4080 è corretto supporre che starei sui 80-90?

poi effettivamente non mi è chiaro se il fg lo puoi attivare su qualsiasi titolo, se così fosse recupereresti tanti fps, è vero

In media si, boosta un 50% in più, anche il RT su lovelace performa leggermente in più a pari prestazioni di Ampere.

L'FG deve essere supportato dal gioco, cosi come il DLSS, non è qualcosa che passa semplicemente per il driver o pannello di controllo nvidia, per quello al massimo c'è il NIS che si allinea all'FSR 1.0

Kvarat
24-08-2023, 09:24
Chiedo ai possessori o più esperti, con un monitor 4k la 4080 basta? ho come l'impressione guardando qualche video che stai poco sopra i 60 con qualche sporadico calo

E' una domanda del tutto errata perchè gli fps dipendono da milioni di fattori. Come fai a sapere quanti fps farai, su quale gioco, con quale pc e con quale configurazione ma soprattutto a quanti hz. Io gioco con una 3060ti in 4k e faccio 150 fps tutto alto. Vai a capire adesso perchè faccio tutti questi fps :D

Vul
24-08-2023, 09:26
Nvidia 13 miliardi di fatturato in un trimestre.

Revenue gaming ormai pressapoco irrilevante per la compagnia, non arriva nemmeno al 18% ormai.

Vi consiglio vivamente di non farvi grandi aspettative per le prossime generazioni ;)

Alzeranno le performance raw di pochissimo e continueranno a puntare tutto su ray tracing e dlss. Sempre che puntino o sforzino qualsiasi cosa.

ultimate trip
24-08-2023, 09:28
E' una domanda del tutto errata perchè gli fps dipendono da milioni di fattori. Come fai a sapere quanti fps farai, su quale gioco, con quale pc e con quale configurazione ma soprattutto a quanti hz. Io gioco con una 3060ti in 4k e faccio 150 fps tutto alto. Vai a capire adesso perchè faccio tutti questi fps :D

la mia config è in firma e ho specificato i giochi, poi chiaro che non posso prendere in considerazione tutte le variabili, cmq dai l'idea di un 50% in più rispetto alla mia, una 3080, è quello che indicativamente si desume dalle recensioni

Kvarat
24-08-2023, 09:32
Nvidia 13 miliardi di fatturato in un trimestre.

Revenue gaming ormai pressapoco irrilevante per la compagnia, non arriva nemmeno al 18% ormai.

Vi consiglio vivamente di non farvi grandi aspettative per le prossime generazioni ;)

Alzeranno le performance raw di pochissimo e continueranno a puntare tutto su ray tracing e dlss. Sempre che puntino o sforzino qualsiasi cosa.

Il fatturato di Nvidia conta davvero poco per lo sviluppo dell'hardware e del software. Nvidia muove tutto il mondo gaming su PC e in piccolo parte su console con la Switch. Nvidia permette a centinaia di software house di fare fatturati mostruosi. La prossima generazione sarà spettacolare e il prezzo sarà in linea con questa generazione.

StylezZz`
24-08-2023, 09:33
In CP2077, nello specifico, la grafica in path-tracing è assolutamente irrealistica, brillano e riflettono come se fossero una lastra di argento: asfalto, muri, persone etc... E' solo una techdemo per quello che mi riguarda

Concordo sui riflessi, è una cosa che feci notare anche io nel thread dedicato a CP77...poi se mettiamo da parte il reale e lo vediamo semplicemente come un modo per enfatizzare l'atmosfera cyberpunk del gioco, allora ci può stare.

Irrelistico? Forse non hai mai visto una città di notte. I riflessi sono ovunque e la luce si irradia esattamente come in cp 2077 con Path tracing. "Solo il numero dei rimbalzi", fa una differenza enorme, alla faccia del solo

Le strade di Las Vegas non riflettono come se fossero fatte di vetro, i riflessi ci sono ok, ma non così marcati.

Stiamo pur sempre parlando di un gioco, ed è normale che vengano messi in risalto certi aspetti per fare scena.

AceGranger
24-08-2023, 09:55
probabilmente abbiamo occhi diversi.

Io i muri di cemento degli edifici che brillano così non li ho mai visti:

https://i.ibb.co/D9cJkhb/maxresdefault.jpg (https://ibb.co/ByWpjbP)


Nariwa Museum

https://pictruct.com/media/photos/2014/11/25/d89d69ef-8eb5-428c-9ced-632c2efc3a33.jpg
https://pictruct.com/media/photos/2014/11/25/cde65fa6-640f-4cb8-80d2-6b200d9e163b.jpg

questo è un pavimento in cemento lucido
https://previews.123rf.com/images/pramotephotostock/pramotephotostock2307/pramotephotostock230701849/209238692-vuoto-di-fabbrica-moderna-per-impianto-di-produzione-manifatturiero-o-grande-magazzino-pavimento-in.jpg


tolto un effetto bloom un po marcato, determinati cementi si comportano quasi come specchi.

CP usa un po di filtri che simulano le lenti di fotocamere/videocamere, un po come se la visuale di CP non sia attraverso gli occhi diretti del personaggio ma attraverso un obiettivo; nella maggior parte delle situazioni questi effetti aumentano il realismo in alcuni un po meno.

Gigibian
24-08-2023, 10:08
Nariwa Museum

https://pictruct.com/media/photos/2014/11/25/d89d69ef-8eb5-428c-9ced-632c2efc3a33.jpg
https://pictruct.com/media/photos/2014/11/25/cde65fa6-640f-4cb8-80d2-6b200d9e163b.jpg

questo è un pavimento in cemento lucido
https://previews.123rf.com/images/pramotephotostock/pramotephotostock2307/pramotephotostock230701849/209238692-vuoto-di-fabbrica-moderna-per-impianto-di-produzione-manifatturiero-o-grande-magazzino-pavimento-in.jpg


tolto un effetto bloom un po marcato, determinati cementi si comportano quasi come specchi.

CP usa un po di filtri che simulano le lenti di fotocamere/videocamere, un po come se la visuale di CP non sia attraverso gli occhi diretti del personaggio ma attraverso un obiettivo; nella maggior parte delle situazioni questi effetti aumentano il realismo in alcuni un po meno.

la prima foto che hai postato è totalmente irrealistica, l'effetto bloom è forzato dalla saturazione e dal sovraesposto della foto, nella realtà non è così.

Nella seconda mi posso fidare che sia cemento "lucido", ma sembra più uno specchio d'acqua. In ogni caso non è lo stesso materiale dell'edificio che ti ho postato io.

Rimane il fatto che come affermi anche tu quegli effetti su CP2077 sono irrealistici. Figa come tech-demo. stop.

carloUba
24-08-2023, 10:27
ora sono fiinte anche le foto...

AceGranger
24-08-2023, 10:40
la prima foto che hai postato è totalmente irrealistica, l'effetto bloom è forzato dalla saturazione e dal sovraesposto della foto, nella realtà non è così.


è come si comportano le macchine fotografiche e telecamere; senza imitare fotocamere e telecamere saresti a lamentarti ancora di piu :ciapet:


Nella seconda mi posso fidare che sia cemento "lucido", ma sembra più uno specchio d'acqua.


che è esattamente come si comportano determinati cementi;

Tadao Ando


In ogni caso non è lo stesso materiale dell'edificio che ti ho postato io.


ah perchè hai chiesto la tipologia del cemento utilizzato a CD PROJEKT RED :asd:


Rimane il fatto che come affermi anche tu quegli effetti su CP2077 sono irrealistici. Figa come tech-demo. stop.


non è irrealistico è come una ripresa cinematografica.

che poi a qualcuno non piaccia è soggettivo.

kiwivda
24-08-2023, 10:42
ora sono fiinte anche le foto...

Beh certo siamo in Matrix, che ne sai di come sono i muri veri. Il cucchiaio non esiste :D :D
Lascia stare sono palle perse.

Cutter90
24-08-2023, 11:00
probabilmente abbiamo occhi diversi.

Io i muri di cemento degli edifici che brillano così non li ho mai visti:

https://i.ibb.co/D9cJkhb/maxresdefault.jpg (https://ibb.co/ByWpjbP)

Scusa e cosa ci sarebbe di strano? io lo vedfo perfettamente realistico, se provassi a fare una foto dal vero di quella zona il risultato sarebbe esattamente quello

Cutter90
24-08-2023, 11:04
la prima foto che hai postato è totalmente irrealistica, l'effetto bloom è forzato dalla saturazione e dal sovraesposto della foto, nella realtà non è così.

Nella seconda mi posso fidare che sia cemento "lucido", ma sembra più uno specchio d'acqua. In ogni caso non è lo stesso materiale dell'edificio che ti ho postato io.

Rimane il fatto che come affermi anche tu quegli effetti su CP2077 sono irrealistici. Figa come tech-demo. stop.
Ma non è vero. Il path tracing di cp è assolutamente realistico. le superfici non hanno quello "sporco" che magari si accumula e varia con il tempo, ma l'illuminazione è assolutamente fedele. Molto, molto molto più reale dello stesso gioco in raster.
Concordo sui riflessi, è una cosa che feci notare anche io nel thread dedicato a CP77...poi se mettiamo da parte il reale e lo vediamo semplicemente come un modo per enfatizzare l'atmosfera cyberpunk del gioco, allora ci può stare.



Le strade di Las Vegas non riflettono come se fossero fatte di vetro, i riflessi ci sono ok, ma non così marcati.

Stiamo pur sempre parlando di un gioco, ed è normale che vengano messi in risalto certi aspetti per fare scena.

https://www.youtube.com/watch?v=p_GnUkm-G1M

Eehmm mi sa che non hai mai nvisto un video come questo di las vegas penso. I riflessi sono su strada come su tutte le superfici. Andate a 1 ora e 38 circa..... le luci si riflettono persino sul legno delle panchine

lordsnk
24-08-2023, 11:33
lo chiedo perchè vedendo le recensioni verrebbe più o meno fuori che la 4080 è il 50% più veloce di una 3080 ed io giocando in 4k a returnal e the last of us ho avuto seri problemi a tenere i 60, per cui con una 4080 è corretto supporre che starei sui 80-90?

poi effettivamente non mi è chiaro se il fg lo puoi attivare su qualsiasi titolo, se così fosse recupereresti tanti fps, è vero

La 4080 per 4K 60fps va benissimo.
Sicuramente qualcuno dirà il contrario perché vede i soliti benchmark fatti ad ultra.
Il preset ad ultra serve solo per i benchmark ma per giocare toglie prestazioni senza un reale ritorno da un punto di vista visivo.
Da possessore di 4090 non uso MAI il preset ultra, ma parto da molto alto e ci smanetto sopra per avere lo stesso impatto visivo senza perdere prestazioni.
Quindi la 4080 per i 4K 60fps va benissimo a patto di non utilizzare il preset Ultra :D

StylezZz`
24-08-2023, 12:34
https://www.youtube.com/watch?v=p_GnUkm-G1M

Eehmm mi sa che non hai mai nvisto un video come questo di las vegas penso. I riflessi sono su strada come su tutte le superfici. Andate a 1 ora e 38 circa..... le luci si riflettono persino sul legno delle panchine

Mica ho scritto che non ci sono riflessi, ho scritto che su CP77 sono esagerati:

https://www.youtube.com/watch?v=G30WE9H2cUk

mi sembra evidente l'effetto ''lucido'' alla mastro lindo :D

Vul
24-08-2023, 12:43
Il fatturato di Nvidia conta davvero poco per lo sviluppo dell'hardware e del software. Nvidia muove tutto il mondo gaming su PC e in piccolo parte su console con la Switch. Nvidia permette a centinaia di software house di fare fatturati mostruosi. La prossima generazione sarà spettacolare e il prezzo sarà in linea con questa generazione.

Si certo come no, sara' una delusione come questa e la gen 2000 ;)

Secondo te si mettono a perdere tempo per le noccioline delle gpu gaming nel 2023?

Faranno il minimissimo indispensabile puntando tutto sull'rt, chissa' quando.

Ale55andr0
24-08-2023, 13:03
Ma cosa stai dicendo scusa? Guarda che l'instabilità dell'immagine nelle reti o nei reticoli c'è sempre stata ed è andata via via migliorando, restava una piccolezza che si notava in qualche sporadico caso in qualche gioco. D'altra parte il TAA la rete zoommata te la mostra con reticoli mancanti del tutto, quindi anche la nativa ha i suoi problemi. Chi aveva detto che non c'era scusa? Ora con il dlss 3.5 pare addirittura risolto questo problemino....
Dai tira fuori il parabrezza di cp 2077 della porsche provato 2 anni fa solo con dlss non aggiornato e senza paragonarlo al TAA che lo faceva uguale.

ma quale 2 anni fa era lo scorso anno :sofico:

amon.akira
24-08-2023, 13:03
Mica ho scritto che non ci sono riflessi, ho scritto che su CP77 sono esagerati:

https://www.youtube.com/watch?v=G30WE9H2cUk

mi sembra evidente l'effetto ''lucido'' alla mastro lindo :D

ma è bagnato a terra o sbaglio...

Cutter90
24-08-2023, 13:06
Mica ho scritto che non ci sono riflessi, ho scritto che su CP77 sono esagerati:

https://www.youtube.com/watch?v=G30WE9H2cUk

mi sembra evidente l'effetto ''lucido'' alla mastro lindo :D

Ma scusa non è bagnato a terra? nelle prime immagini? Infatti dopo il terreno non è più così lucido nel proseguire del video... tipo al minuto 4:15

ma quale 2 anni fa era lo scorso anno :sofico:

Inizio anno scorso. Cambia zero.

Ale55andr0
24-08-2023, 13:06
Si certo come no, sara' una delusione come questa e la gen 2000 ;)

Secondo te si mettono a perdere tempo per le noccioline delle gpu gaming nel 2023?

Faranno il minimissimo indispensabile puntando tutto sull'rt, chissa' quando.

la gen 2000? :stordita:

non era male, la 2080ti era mostruosa e la 70s se la giocava con la 1080ti

Cutter90
24-08-2023, 13:16
la gen 2000? :stordita:

non era male, la 2080ti era mostruosa e la 70s se la giocava con la 1080ti

La serie 2000 è stata una delle gen peggiori per la verità. La 2080 andava come la 1080 ti. Hanno avuto il pregio di introdurre RT e dlss però

Baingiu
24-08-2023, 13:20
2080ti ''space invaders'' non andava bene manco quella.

Nelle precedenti pagine leggo che la 7900xtx va quanto la 4090, anche se quest'ultima costa tipo il 50% in più.

Mi sono perso qualcosa? hanno migliorato la storia del dual issue oppure sono solo congetture?

azz a saperlo avrei risparmiato 700 euro..

HSH
24-08-2023, 13:20
La serie 2000 è stata una delle gen peggiori per la verità. La 2080 andava come la 1080 ti. Hanno avuto il pregio di introdurre RT e dlss peròEh ma non siete mai content! La 2000 faceva schifo, la 3000 non si trovava la 4000 ancora peggio, e allora non compriamo niente! Eppure mi pare Nvidia venda sempre parecchio

Inviato dal mio 2107113SG utilizzando Tapatalk

Cutter90
24-08-2023, 13:45
Eh ma non siete mai content! La 2000 faceva schifo, la 3000 non si trovava la 4000 ancora peggio, e allora non compriamo niente! Eppure mi pare Nvidia venda sempre parecchio

Inviato dal mio 2107113SG utilizzando Tapatalk

la 2000 aveva un salto pietoso, il peggiore che ricordi o quasi. la 3000 invece è stata molto molto buona. La 4000 il salto c'è stato solo nelle top di gamma, il resto come le 2000 se non peggio.
Io passando dalla Titan X alla 1080ti, alla 2080 ti, alla 3090 e alla 4090 non sono mai stato scontento dei salti :)

Motenai78
24-08-2023, 14:52
Grazia, Graziella e Grazie ar.. xD

Inviato dal mio SM-A226B utilizzando Tapatalk

Ubro92
24-08-2023, 15:17
la 2000 aveva un salto pietoso, il peggiore che ricordi o quasi. la 3000 invece è stata molto molto buona. La 4000 il salto c'è stato solo nelle top di gamma, il resto come le 2000 se non peggio.
Io passando dalla Titan X alla 1080ti, alla 2080 ti, alla 3090 e alla 4090 non sono mai stato scontento dei salti :)

Purtroppo con Turing non c'è stato un salto di nodo che permettesse di spremere bene i chip, infatti anche i die erano giganteschi, il passaggio dai 16 ai 12nm ha per lo più migliorato l'efficienza energetica e nulla più.

Nel raster puro la 1080ti era li con la 2070 Super, e la titan XP praticamente se la giocava con la 2080, però ha comunque portato novità importanti come tensor, rt core, fp16...

C'è da dire che le 2080ti viaggiavano un pò monche, con un bios tarato come le attuali 4090 e dissipatori più corposi già avrebbe performato decisamente di più, infatti lo stacco dalla 2080/2080s non era cosi elevato, nonostante il +40% di ALU e un bus più ampio.

Ampere pure non è che sia stato esaltante, gli 8nm di samsung cloccavano anche peggio dei 16nm di tsmc, però l'architettura era valida e gli 8nm hanno comunque permesso un'ottima densità.

Gigibian
24-08-2023, 19:35
2080ti ''space invaders'' non andava bene manco quella.

Nelle precedenti pagine leggo che la 7900xtx va quanto la 4090, anche se quest'ultima costa tipo il 50% in più.

Mi sono perso qualcosa? hanno migliorato la storia del dual issue oppure sono solo congetture?

azz a saperlo avrei risparmiato 700 euro..

Nessuna congettura, solo mia esperienza.

Senza RT sei su quel livello di performance.

Un esempio di gioco recentissimo:

https://tpucdn.com/review/immortals-of-aveum-benchmark-test-and-performance-analysis/images/performance-3840-2160.png

Poi con la xtx custom come la mia guadagni un altro 15% almeno

Cutter90
24-08-2023, 19:44
Nessuna congettura, solo mia esperienza.

Senza RT sei su quel livello di performance.

Un esempio di gioco recentissimo:

https://tpucdn.com/review/immortals-of-aveum-benchmark-test-and-performance-analysis/images/performance-3840-2160.png

Poi con la xtx custom come la mia guadagni un altro 15% almeno

Ma che. Ci sono un triliardo di giochi in cui la 4090 se la mangia la 7900 xtx. Sei andato a cercare a fondo per trovare questo eh :D

marbasso
24-08-2023, 19:51
Doppio post

marbasso
24-08-2023, 19:53
Ma che. Ci sono un triliardo di giochi in cui la 4090 se la mangia la 7900 xtx. Sei andato a cercare a fondo per trovare questo eh :D

LoL, spetta le prime patch....:D

amon.akira
24-08-2023, 20:17
Poi con la xtx custom come la mia guadagni un altro 15% almeno

Conviene allora, troppo modesta amd...disse che il target della xtx era la 4080 xD

Legolas84
24-08-2023, 20:23
Secondo me siamo sopra di un buon 10% con la mitica 7900XTX custom overclockata....

https://www.techpowerup.com/review/asus-geforce-rtx-4060-ti-dual-oc/31.html

o forse no? :asd:

A parte gli scherzi.... 7900XTX e 4090 sono schede di due fasce diverse, vendute ovviamente e giustamente a prezzi diversi (entrambi troppo alti? ovviamente si, ma questo è un altro discorso)....

PS
Anche la Vega64 liquid overclokkata raggiungeva la 1080ti... Mi pare lo avesse appurato il buon gnammy ai tempi no?

mikael84
24-08-2023, 20:27
La 4090 vive di potenza bruta, soprattutto in RT, ma lo scaling è un mix tra vega. Sarei curioso di vedere la versione full cache, se riesce ad alimentarla un pò meglio.

RTX 4090 VS 4080: + 68,4% di cuda = 19,3%

RTX 4080 vs 4070: +65,22% di cuda = 62,8%

Basterà molto poco per batterla dai chip blackwell.

Baingiu
24-08-2023, 20:28
Nessuna congettura, solo mia esperienza.

Senza RT sei su quel livello di performance.

Un esempio di gioco recentissimo:

Poi con la xtx custom come la mia guadagni un altro 15% almeno

Ma itte... (ma cosa)

Mi sono rivisto le medie e vanno quanto le 4080 in raster o poco più (3-5%)e le prendono sonoramente in RT.

La 4090 è un altra cosa proprio, la annienta, come giusto che sia alla fine un chip da 76mld di transistor non lo prendi con quel chippino che si allinea a AD103.

Tutto come agli inizi insomma, ha solo i consumi della 4090 è questo è molto negativo, il resto è un bidonagio.


Mi stavano già tremando le gambe, spendere 1950 euro per poì ritrovarsi al livello di gpu da 1000.

Legolas84
24-08-2023, 20:28
Ma che. Ci sono un triliardo di giochi in cui la 4090 se la mangia la 7900 xtx. Sei andato a cercare a fondo per trovare questo eh :D

Più che altro questo gioco ha problemi di performance e ottimizzazione con tutte le schede... si attende che lo sistemino...

Legolas84
24-08-2023, 20:29
La 4090 vive di potenza bruta, soprattutto in RT, ma lo scaling è un mix tra fury/vega. Sarei curioso di vedere la versione full cache, se riesce ad alimentarla un pò meglio.

RTX 4090 VS 4080: + 68,4% di cuda = 19,3%

RTX 4080 vs 4070: +65,22% di cuda = 62,8%

Basterà molto poco per batterla dai chip blackwell.


Oddio non mi paragonare la 4090 a Vega che mi viene l'orticaria :asd:

OrazioOC
24-08-2023, 20:31
Secondo me siamo sopra di un buon 10% con la mitica 7900XTX custom overclockata....

https://www.techpowerup.com/review/asus-geforce-rtx-4060-ti-dual-oc/31.html

o forse no? :asd:

A parte gli scherzi.... 7900XTX e 4090 sono schede di due fasce diverse, vendute ovviamente e giustamente a prezzi diversi (entrambi troppo alti? ovviamente si, ma questo è un altro discorso)....

PS
Anche la Vega64 liquid overclokkata raggiungeva la 1080ti... Mi pare lo avesse appurato il buon gnammy ai tempi no?

Beh se metti sullo stesso tavolo una vega 64 e una 1080 ti allora sarebbero molto vicine. :asd:

Ragazzi ma di che parliamo? C'è un motivo se le 7900 xtx custom le trovi a neanche il prezzo della 4080. :rolleyes:
Il paragone con la 4090 è fuori luogo, neanche i pr della stessa amd nei bachmark più amichevoli si azzarderebbero a tanto. :doh:

Legolas84
24-08-2023, 20:32
Beh se metti sullo stesso tavolo una vega 64 e una 1080 ti allora sarebbero molto vicine. :asd:


Eh be... questa è stata bella.... sono colpito :D

mikael84
24-08-2023, 20:32
Oddio non mi paragonare la 4090 a Vega che mi viene l'orticaria :asd:

li siamo più su fury,:asd: :asd:

Onestamente la scheda è devastante, ma scala che è uno schifo. Vorrei vedere AD102 full cache.:)
Dovrebbe mantenere il rapporto 4070 vs 4080, ma è ben lontana in tutti gli scenari.

Baingiu
24-08-2023, 20:47
PS
Anche la Vega64 liquid overclokkata raggiungeva la 1080ti... Mi pare lo avesse appurato il buon gnammy ai tempi no?

Qua anche se fai oc la 4090 non la vedi nemmeno in cartolina, nvidia ha un architettura ottima e stavolta si è presa il pp vincente, con ampere aveva arch buona ma pp scadente, altrimenti anche le 3000 sarebbero state di ben altro livello con curva efficienza migliore.

Le 2000 pp pessimo, è da pascal che non aveva un pp decente se ci pensiamo.

Mentre amd con le 6000 andava forte per via del pp, ma in rt le prendeva ugualmente, quindi archittetturalmente parlando sono sempre state dietro.

un pò come i ryzen e gli intel, intel ha un ottima architettura ma frenata dal nodo, gli amd hanno pp buono e sono discreti.

Ma come si fa a scrivere certe cose? boh boh essss

mikael84
24-08-2023, 21:02
Beh se metti sullo stesso tavolo una vega 64 e una 1080 ti allora sarebbero molto vicine. :asd:

Ragazzi ma di che parliamo? C'è un motivo se le 7900 xtx custom le trovi a neanche il prezzo della 4080. :rolleyes:
Il paragone con la 4090 è fuori luogo, neanche i pr della stessa amd nei bachmark più amichevoli si azzarderebbero a tanto. :doh:

La 4090 è imparagonabile anche fosse più lenta, essendo prosumer. Non è prezzata per il raster puro.:p

Sul valore, è quello, bisogna sommare anche queste performance sul valore, e la mancanza dell'ecosistema nvidia (DLAA-DLSS-FG-DLSS3.5 a breve).

Passare da battere leggermente la 4080, a battere leggermente la 3080/4070 è un attimo.

https://i.postimg.cc/50vLwyBQ/r-e-c.png

amon.akira
24-08-2023, 21:03
La 4090 vive di potenza bruta, soprattutto in RT, ma lo scaling è un mix tra vega. Sarei curioso di vedere la versione full cache, se riesce ad alimentarla un pò meglio.

RTX 4090 VS 4080: + 68,4% di cuda = 19,3%

RTX 4080 vs 4070: +65,22% di cuda = 62,8%

Basterà molto poco per batterla dai chip blackwell.

ue5 è iniziato proprio male e purtroppo sarà l engine piu usato nel 90%+ dei titoli

per ora abbiamo immortals,remnant2,fort solis tutti senza rt ma che non tengono i 60 a 4k nativo (sono pesanti come cp2077 con rt psycho a res nativa), remnant2 addirittura senza lumen e nanite

finora la media vs 4080 (esempio techpowerup) era +25% su 25titoli raster e +40% su 7titoli RT

Fos
24-08-2023, 22:39
per ora abbiamo immortals,remnant2,fort solis tutti senza rt ma che non tengono i 60 a 4k nativo (sono pesanti come cp2077 con rt psycho a res nativa), remnant2 addirittura senza lumen e naniteRemnant 2 integra Nanite.

amon.akira
24-08-2023, 22:47
Remnant 2 integra Nanite.

si vero, ricordavo male dall intervista ai gunfire, no lumen, si nanite :P

OrazioOC
25-08-2023, 07:22
La 4090 è imparagonabile anche fosse più lenta, essendo prosumer. Non è prezzata per il raster puro.:p

Sul valore, è quello, bisogna sommare anche queste performance sul valore, e la mancanza dell'ecosistema nvidia (DLAA-DLSS-FG-DLSS3.5 a breve).

Passare da battere leggermente la 4080, a battere leggermente la 3080/4070 è un attimo.



La 4090 diventa "prosumer" data l'enorme forza bruta intesa come tflops e vram a disposizione, non che nvidia punti realmente a venderti una quadro/tesla molto potente al prezzo di una rtx. :asd:
Sulla validità di dlss e performance rt c'è poco da sindacare, anche se io personalmente a quasi un anno dal lancio del dlss3 fatico ad aggiungerlo tra i pro di una rtx 4000(troppi pochi giochi lo supportano ad oggi, inoltre sulle rtx 4000 di fascia bassa come le 4060/ti impatta molto meno che non sulle high end).
Inoltre trovo che il dlss2 nelle sue ultime versioni oltre che molto più diffuso, sia il giusto trade union tra fps/qualità e latenze. Tutt'ora riesce a salvare la giornata a gente che ha nel case le 2060/2070 di 4 anni fa. :D

Che poi un piccolo appunto per 4090/4080 e 4070 ti sarebbe dal fare sul tdp, escono con valori troppo alti.
450w di tdp per la 4090 sono bullshit, quasi tutte girano a stock con quelle frequenze con 350w(e qui sul forum abbiamo ottimi esempi).
Cosa costava farlo puntare al ribasso di 100w?Al massimo 100/150 mhz di picco sul core clock per gli esemplari più sfigati? :rolleyes: :rolleyes:

Discorso simile per 4080 e 4070 ti, quest'ultima vista con mano stare sui 200/220w di picco per le performance che mantiene a stock(data a 280w di tdp). :doh:

Ubro92
25-08-2023, 07:40
Ma un pò tutti i chipponi spesso hanno questo problema.

Pure la 2080ti ha il 45% di ALU e bus in più della 2080s ma alla fine lo stacco è contenuto.

Baingiu
25-08-2023, 08:38
Non è cosi, se avessero levato 100w di TGP alla 4090, nei giochi più pesanti con assorbimento elevato risulterebbe castrata, non perderà tantissimo in termini % e nelle medie risulterà quel 3 4% più lenta ma tutto fa brodo, discorso diverso se undervolti li ci rientra benissimo, ma appunto è un altra cosa.

La mia a 0,95 2820 gira a 300w nei titoli più intensive

Non credo che gli ingegneri NVidia siano cosi stupidi da non saper dimensionare un GPC X Watt in base anche al backend che si porta dietro, quindi 450w anche se molte volte non vengono raggiunti (idem i 320w per la 4080) li vedo giusti e lasciano un buon headroom, tenendo conto che ormai le FE sono delle custom con dissi massicci e che per l'appunto sono stati messi quesi TGP per figurare bene in fase di review, ormai sia lato cpu che gpu vendono prodotti overclockati, l'headroom per l'oc è ridotto ed è meglio undervoltare e fissare una frequenza, che il più delle volte è uguale o poco maggiore a quella stock con un voltaggio minore (dipende dal chip)


La 2080ti è ben altra cosa rispetto alla 2080s, a parità di clock non la vede è solo tarpata da un bios molto restrittivo e da un dissipatore poco efficiente che la fa downcloccare sotto i 1700, per il chip che monta (parlando di FE)quel dissi non va bene, 2080s è una scheda molto furba molto più vicina alla 2080 ma di birra ne ha ben poca, in condizioni ottimali 4k e filtri spinti AA la prima stacca la seconda del 25-30%

Cutter90
25-08-2023, 08:41
ue5 è iniziato proprio male e purtroppo sarà l engine piu usato nel 90%+ dei titoli

per ora abbiamo immortals,remnant2,fort solis tutti senza rt ma che non tengono i 60 a 4k nativo (sono pesanti come cp2077 con rt psycho a res nativa), remnant2 addirittura senza lumen e nanite

finora la media vs 4080 (esempio techpowerup) era +25% su 25titoli raster e +40% su 7titoli RT

E la cosa preoccupante è che graficamente non sono nulla di che. Ma io l'avevo detto, tutti ad aspettare sto U5 e poi finora i giochi sono solo più pesanti. Fine.
Mi aspetto un evoluzione sia grafica che di performance.

Cmq ho visto che Immortal of aveum ha il dlss 3, quindi il paragone rtx 4090 e 7900 xtx nemmeno si pone. Quel grafico di prima è fuorviante. Su 4090 si fanno 120 fps con Fg+ dlss qualità invece dei 40 su 7900xtx. Se mettiamo solo il FG (giusto perchè se no la gente si lamenta che ho inserito un upscaler, anche se ovviamente sarà normale inserirlo per ovvie ragioni) saremo attaccati ai 90. Il doppio della 7900 xtx....

Baingiu
25-08-2023, 08:54
Stessa situazione vista con Remnant II, pre patch 7900xtx andava in RASTER quanto 4090, post patch le nvidia hanno preso roba tipo il +35-50% di performance e ciao.
Intanto nei vari lidi si spacciava già il sorpasso di RDNA3 sulla 4090 come MANTRA assoluto.

https://www.youtube.com/watch?v=iRWoBWDGQnE

la 7900xtx e ritornata al suo posto, ovvero livello 4080 raster, e ad essere massacrata con il frame generator.

Oltre che fa proprio ridere a livello di scaling:

1440p (4k crepano tutte)

https://www.techpowerup.com/review/immortals-of-aveum-benchmark-test-and-performance-analysis/5.html


4080: 69.4 - 4090: 80.3

+15.7%

Uno degli scaling più bassi visti tra 4080 e 4090, pesante per nulla e scala malissimo.

Gigibian
25-08-2023, 10:11
Ma itte... (ma cosa)

Mi sono rivisto le medie e vanno quanto le 4080 in raster o poco più (3-5%)e le prendono sonoramente in RT.

La 4090 è un altra cosa proprio, la annienta, come giusto che sia alla fine un chip da 76mld di transistor non lo prendi con quel chippino che si allinea a AD103.

Tutto come agli inizi insomma, ha solo i consumi della 4090 è questo è molto negativo, il resto è un bidonagio.


Mi stavano già tremando le gambe, spendere 1950 euro per poì ritrovarsi al livello di gpu da 1000.

Ti ho già girato qualche dato.
In raster una xtx custom sta a quei livelli, simil 4090.

Acquista una 4090 poi facciamo qualche confronto, e vedrai :)

Cmq per carità non voglio accendere nessun flame, anzi: se qualcuno con una 4090 vuole fare bench su qualche gioco con benchmark integrato, sono a disposizione :) sarebbe divertente

Baingiu
25-08-2023, 10:21
Era sarcasmo spicciolo il mio, mi fa girare solo il mancato senso di obbiettività.

So benissimo quanto vanno le due, la 4090 la ho già.

Quale dato? l'unico bench dove una 7900xtx tallona la 4090, e dove la stessa 4090 sta ad appena +15% sopra la 4080?

è lo stesso caso di Remnant II pre patch, se sei convinto di avere una scheda simil 4090 in raster ti sbagli, va quanto una 4080 ed è poco più veloce ma non sempre (dipende dai giochi) e le prende in RT.

Ma non mi sembra neppure il caso di trattare il discorso, mi ricorda gp102 vs vega, dove la prima era infintamente più veloce ed uscivano dalla tana gli user amd dicendo che con il voltaggio a tot, la frequenza a tot, dissipata con, vento a favore in discesa andava quanto la 1080ti.

Ti girerei pure qualche confronto che ho fatto su oc.net (ma ora sono in vacanza) contro 4080 e 7900xtx custom, giusto in warzone 2 passa nettamente la 4080 (e quest'ultima la saluta nella stessa misura in cp2077) e si avvicina alla 4090, per il resto +40% raster in rt livello medio 308oti/3090.

FaTcLA
25-08-2023, 10:43
1440p (4k crepano tutte)

https://www.techpowerup.com/review/immortals-of-aveum-benchmark-test-and-performance-analysis/5.html

Scusate, una info: ma gli fps clamorosamente bassi in questi grafici sono dovuti a ue5 o alla totale negligenza dei dev in fatto di ottimizzazioni?

Gigibian
25-08-2023, 11:05
Era sarcasmo spicciolo il mio, mi fa girare solo il mancato senso di obbiettività.

So benissimo quanto vanno le due, la 4090 la ho già.

Quale dato? l'unico bench dove una 7900xtx tallona la 4090, e dove la stessa 4090 sta ad appena +15% sopra la 4080?

è lo stesso caso di Remnant II pre patch, se sei convinto di avere una scheda simil 4090 in raster ti sbagli, va quanto una 4080 ed è poco più veloce ma non sempre (dipende dai giochi) e le prende in RT.

Ma non mi sembra neppure il caso di trattare il discorso, mi ricorda gp102 vs vega, dove la prima era infintamente più veloce ed uscivano dalla tana gli user amd dicendo che con il voltaggio a tot, la frequenza a tot, dissipata con, vento a favore in discesa andava quanto la 1080ti.

Ti girerei pure qualche confronto che ho fatto su oc.net (ma ora sono in vacanza) contro 4080 e 7900xtx custom, giusto in warzone 2 passa nettamente la 4080 (e quest'ultima la saluta nella stessa misura in cp2077) e si avvicina alla 4090, per il resto +40% raster in rt livello medio 308oti/3090.

Scegli un gioco con un bench integrato in raster e facciamo un test. Shadow of the tomb raider va bene ? Cyberpunk ?

nessuno29
25-08-2023, 11:58
Scegli un gioco con un bench integrato in raster e facciamo un test. Shadow of the tomb raider va bene ? Cyberpunk ?

Credo sia cutter90 che è stato bannato di la, ed ora ha creato account fresco fresco per continuare a gettare odio contro una marca di schede video ahah o comunque uno dei tanti "tifosi 40-50enni".

EffeX
25-08-2023, 12:17
Io tra 4090 e 7900xtx ora come ora prenderei la seconda visto che costa meno e scala meglio, però a me del DLSS e altre chicche che nvidia ha nel suo ecosistema non interessa troppo.
Il frame generator ok che li raddoppia, ma parliamo sempre immagini "sporcate", che poi l'occhio non lo noti è un altro discorso come il deinterlacciamento dei video, la compressione dei file audio ecc ecc.
Inoltre credo che con FSR3 anche AMD integrerà qualcosa di analogo, quindi, basta avere pazienza.
La 4090 la vedo come ex Titan o GPU che serve per lavorare e ANCHE giocare, per il resto c'è la 4080, che per come è prezzato il chip non mi fa impazzire anche se ha 16 GB di ram e 256 bit di bus.
Però ripeto, ognuno sceglie in base alle proprie esigenze, se uno non può fare a meno dell'ecosistema nvidia è un altro paio di maniche, anche se domani tornasse nel mondo delle vga un ex tipo Matrox che propone una scheda 4070 like a 250€, sempre nvidia si prenderebbe.

mikael84
25-08-2023, 12:26
La 4090 diventa "prosumer" data l'enorme forza bruta intesa come tflops e vram a disposizione, non che nvidia punti realmente a venderti una quadro/tesla molto potente al prezzo di una rtx. :asd:
Sulla validità di dlss e performance rt c'è poco da sindacare, anche se io personalmente a quasi un anno dal lancio del dlss3 fatico ad aggiungerlo tra i pro di una rtx 4000(troppi pochi giochi lo supportano ad oggi, inoltre sulle rtx 4000 di fascia bassa come le 4060/ti impatta molto meno che non sulle high end).
Inoltre trovo che il dlss2 nelle sue ultime versioni oltre che molto più diffuso, sia il giusto trade union tra fps/qualità e latenze. Tutt'ora riesce a salvare la giornata a gente che ha nel case le 2060/2070 di 4 anni fa. :D

Che poi un piccolo appunto per 4090/4080 e 4070 ti sarebbe dal fare sul tdp, escono con valori troppo alti.
450w di tdp per la 4090 sono bullshit, quasi tutte girano a stock con quelle frequenze con 350w(e qui sul forum abbiamo ottimi esempi).
Cosa costava farlo puntare al ribasso di 100w?Al massimo 100/150 mhz di picco sul core clock per gli esemplari più sfigati? :rolleyes: :rolleyes:

Discorso simile per 4080 e 4070 ti, quest'ultima vista con mano stare sui 200/220w di picco per le performance che mantiene a stock(data a 280w di tdp). :doh:

Ormai con le RTX gran parte del lavoro pro, lo fai con le prosumer.
Per il TDP, hanno spremuto il più possibile, fregandosene del rapporto efficienza ottimale, ma ci può anche stare, non costa nulla moddarsele un pò da soli. inoltre anche per una questione di alimentazione per gli overclock.:)


Ma un pò tutti i chipponi spesso hanno questo problema.

Pure la 2080ti ha il 45% di ALU e bus in più della 2080s ma alla fine lo stacco è contenuto.

Più thread hai, più hai stalli interni, e turing rispetto a Pascal ha enormemente introdotto il warp stall.
Cmq bisogna dire, che per il tdp che aveva, boostava molto basso, infatti nei test la vediamo qualche volta scendere anche a 1600-1700, le 2080 si mantenevano a 1900.
Messa a 1900 (ok anche le ram a 16, ma ha il bus monco), allunga abbastanza.:)


https://i.postimg.cc/V6WXjDTM/2080ti.png

Baingiu
25-08-2023, 12:39
Scegli un gioco con un bench integrato in raster e facciamo un test. Shadow of the tomb raider va bene ? Cyberpunk ?

Dalla spiaggia mi viene un pò male, ho le biglie in ammollo:D cyberpunk sei sicuro? guarda che ti fai male:D

Dai appena rientro dalle vacanze faccio i bench, ma limito il pl al 60%, tu vai pure in oc al +15% cosi vediamo step to step quanto PL serve alla 4090 per pareggiare a livello di frame rate una 7900xtx custom in OC da 450-500w.

Rt e raster, scegliamo una sfilza di giochi e testiamo, poi facciamo la media matematica, possiamo tentare anche dei test in 5k e salire il più possibile.

Sarebbe divertente, paragoniamo l'efficienza (anche se testate come cbase ha fatto già dei test a riguardo) giusto quella, poichè in termini di prestazioni assolute lo trovo un pò stupido ed ingiusto, quel tipo di confronto andrebbe fatto con una 4080, anche se in RT avrebbe la meglio comunque.

marbasso
25-08-2023, 13:05
Scegli un gioco con un bench integrato in raster e facciamo un test. Shadow of the tomb raider va bene ? Cyberpunk ?

Presumo voglia benchare in 2k, hai il monitor come il mio.
Io ho la 4090 se vuoi si può fare un test su cp2077.
Bencha in 2k ultra quality settings togliendo ogni filtro (va be tu fsr), in raster insomma.
Comincia e posta lo screen del risultato io ti seguo subito.
Giusto per passare quella mezzoretta... :)

Baingiu
25-08-2023, 13:18
Poi provate con la 4090 stock e PL 60-70% e 7900xtx stock

Prima in raster poi in RT.

1440p tutto maxato no dlss RT folle

Vediamo quanto PL serve per pareggiarla.

Andate in regime di gpu limited, spostatevi anche in 4k, l'i9 di marbasso in cp2077 va un pelo meglio rispetto al 7800x3d, quindi per evitare...

amon.akira
25-08-2023, 13:23
Stessa situazione vista con Remnant II, pre patch 7900xtx andava in RASTER quanto 4090, post patch le nvidia hanno preso roba tipo il +35-50% di performance e ciao.
Intanto nei vari lidi si spacciava già il sorpasso di RDNA3 sulla 4090 come MANTRA assoluto.

https://www.youtube.com/watch?v=iRWoBWDGQnE


questo video non va bene come confronto, nel post patch gli sviluppatori hanno messo le detailed shadow separate dai setting grafici, infatti anche nel video puoi vedere che sono off di default, il miglioramento ce stato ma è minore, inoltre hanno anche segato la densità dell erba altro motivo di fps gain (e questo non lo puoi riabilitare :P)

marbasso
25-08-2023, 13:24
Poi provate con la 4090 stock e PL 60-70% e 7900xtx stock

Prima in raster poi in RT.

1440p tutto maxato no dlss RT folle

Vediamo quanto PL serve per pareggiarla.

Andate in regime di gpu limited, spostatevi anche in 4k, l'i9 di marbasso in cp2077 va un pelo meglio rispetto al 7800x3d, quindi per evitare...

ok, attendo i suoi screen, intanto ho già pronto raster in oc (visto che la sua 7900xtx la tiene in oc) sia in 2k che 4k.
Appena poi vedo i suoi screen a stock mi muovo di conseguenza. Non vorrei fare tt il lavoro per nulla.

mikael84
25-08-2023, 13:25
Benissimo i bench, ma fateli nei relativi thread ufficiali di lovelace e navi.:)

Baingiu
25-08-2023, 13:30
questo video non va bene come confronto, nel post patch gli sviluppatori hanno messo le detailed shadow separate dai setting grafici, infatti anche nel video puoi vedere che sono off di default, il miglioramento ce stato ma è minore, inoltre hanno anche segato la densità dell erba altro motivo di fps gain (e questo non lo puoi riabilitare :P)

Chiedo venia, assurdo non ho guardato bene, bravo!

Non fa proprio a prendere nulla da youtube, per una volta che lo faccio tac..

Quindi in quel titolo starà a metà strada tra 4080 e 4090.

Gigibian
25-08-2023, 13:33
Presumo voglia benchare in 2k, hai il monitor come il mio.
Io ho la 4090 se vuoi si può fare un test su cp2077.
Bencha in 2k ultra quality settings togliendo ogni filtro (va be tu fsr), in raster insomma.
Comincia e posta lo screen del risultato io ti seguo subito.
Giusto per passare quella mezzoretta... :)

ho anche un oled 4k da 55" a cui gioco spesso.
Non è un problema, vogliamo fare 1440p o 4k ? :)

marbasso
25-08-2023, 13:35
ho anche un oled 4k da 55" a cui gioco spesso.
Non è un problema, vogliamo fare 1440p o 4k ? :)

Come preferisci, anche entrambi. Fa ciò che ti vien più comodo.

Gigibian
25-08-2023, 13:38
ok, attendo i suoi screen, intanto ho già pronto raster in oc (visto che la sua 7900xtx la tiene in oc) sia in 2k che 4k.
Appena poi vedo i suoi screen a stock mi muovo di conseguenza. Non vorrei fare tt il lavoro per nulla.

Poi provate con la 4090 stock e PL 60-70% e 7900xtx stock

Prima in raster poi in RT.

1440p tutto maxato no dlss RT folle

Vediamo quanto PL serve per pareggiarla.

Andate in regime di gpu limited, spostatevi anche in 4k, l'i9 di marbasso in cp2077 va un pelo meglio rispetto al 7800x3d, quindi per evitare...

Presumo voglia benchare in 2k, hai il monitor come il mio.
Io ho la 4090 se vuoi si può fare un test su cp2077.
Bencha in 2k ultra quality settings togliendo ogni filtro (va be tu fsr), in raster insomma.
Comincia e posta lo screen del risultato io ti seguo subito.
Giusto per passare quella mezzoretta... :)

ci spostiamo sul thread della 7900XTX? io stasera dopo le 21 dovrei riuscire a fare tutto.

marbasso
25-08-2023, 13:45
ci spostiamo sul thread della 7900XTX? io stasera dopo le 21 dovrei riuscire a fare tutto.

meglio su quello di Lovelace, c'è più calma...

https://www.hwupgrade.it/forum/showthread.php?t=2969685&page=486

Man mano che fai i bench postali.

Baingiu
25-08-2023, 14:22
https://videocardz.com/newz/amd-fidelityfx-super-resolution-3-fsr3-is-coming-soon-to-forspoken-and-immortals-of-aveum

Finita per gli user nvidia, non ci resta che raccogliere i cocci, sperare che il dlss migliori e che non si notino più zig-zagate tipo quelle viste sul lunotto termico della Porsche 911 di Johnny Silverhand :muro:

Ale55andr0
25-08-2023, 14:44
https://videocardz.com/newz/amd-fidelityfx-super-resolution-3-fsr3-is-coming-soon-to-forspoken-and-immortals-of-aveum

Finita per gli user nvidia, non ci resta che raccogliere i cocci, sperare che il dlss migliori e che non si notino più zig-zagate tipo quelle viste sul lunotto termico della Porsche 911 di Johnny Silverhand :muro:


..l'onestà...del farsi il nick clone pur di flammare :rolleyes:


E per la cronaca, come puoi BEN notare, era settembre 2022, non inizio 2022, ma il vizio di mentire è tua qualità principale, caro taglierino90

https://www.hwupgrade.it/forum/showpost.php?p=48278388&postcount=101127


https://www.hwupgrade.it/forum/showpost.php?p=47944376&postcount=89360

Baingiu
25-08-2023, 14:53
..l'onestà...del farsi il nick clone pur di flammare e pure quella di mentire, l'ennesima volta


https://www.hwupgrade.it/forum/showpost.php?p=48278388&postcount=101127


https://www.hwupgrade.it/forum/showpost.php?p=47954251&postcount=90741

era autunno 2022, non inizio caro taglieino90

?? mi sa che hai sbagliato a quotare.

Ai tempi c'erano dei post su reddit con le immagini comparative della porsche e degli edifici e altri dettagli per far capire la differenza che ci passava tra DLSS e nativa, il lunotto della porsche era diventato una sorta di MEME.

Ma vedo che da questi quote ne avete parlato pure qua.

Ale55andr0
25-08-2023, 15:06
?? mi sa che hai sbagliato a quotare.

Ai tempi c'erano dei post su reddit con le immagini comparative della porsche e degli edifici e altri dettagli per far capire la differenza che ci passava tra DLSS e nativa, il lunotto della porsche era diventato una sorta di MEME.

Ma vedo che da questi quote ne avete parlato pure qua.

Non ho sbagliato proprio un tubo: la foto del lunotto l'ho CREATA IO sul momento all'epoca con il photomode di CP2077 a chi mi chiedeva di cosa parlassi, TESTIMONI QUI SUL FORUM, primo fra tutti Jurassic con cui ebbi la discussione, ma con lui è un perculo amichevole e confidenziale da tempo immemore sul DLSS (:asd:), non ci si abbassa alla menzogne e alla disonestà. E non la ho MAI postata su reddit, a limite l'avrà presa qualcuno in seguito, la data e l'ora del resto è li' :read:.

https://www.hwupgrade.it/forum/showpost.php?p=47944376&postcount=89360

Guarda caso ora spunta fuori con un nuovo nick che la cita in contemporanea a uno appena sospeso a nome di chi sai bene...
A ogni modo, buon per te che non ti fai sti problemi (clonarsi l'account, mentire per darsi ragione), buon proseguimento.

Baingiu
25-08-2023, 15:12
Non ho sbagliato proprio un tubo: la foto del lunotto l'ho CREATA IO sul momento all'epoca con il photomode di CP2077 a chi mi chiedeva di cosa parlassi, TESTIMONI QUI SUL FORUM, primo fra tutti Jurassic con cui ebbi la discussione, ma con lui è un perculo amichevole e confidenziale da tempo immemore sul DLSS (:asd:), non ci si abbassa alla menzogne e alla disonestà. E non la ho MAI postata su reddit, a limite l'avrà presa qualcuno in seguito, la data del resto è li' :read:.
Guarda caso ora spunta fuori con un nuovo nick che la cita in contemporanea uno appena sospeso a nome di chi sai bene...
A ogni modo, buon per te che non ti fai sti problemi (clonarsi l'account, mentire), buon proseguimento.

Allora ragazzo devo darti una buona notizia sei diventato famoso oltreoceano.

''Grande Giove! Il tuo altro io mancherà il fulmine alla torre dell'orologio, tu non tornerai nel futuro e ci ritroveremo in un paradosso!''

OrazioOC
25-08-2023, 15:19
Edit

marbasso
25-08-2023, 16:27
https://www.youtube.com/watch?v=TJvfFWxfrWI

Slater91
25-08-2023, 17:01
..l'onestà...del farsi il nick clone pur di flammare :rolleyes:


E per la cronaca, come puoi BEN notare, era settembre 2022, non inizio 2022, ma il vizio di mentire è tua qualità principale, caro taglierino90

https://www.hwupgrade.it/forum/showpost.php?p=48278388&postcount=101127


https://www.hwupgrade.it/forum/showpost.php?p=47944376&postcount=89360

Non ho sbagliato proprio un tubo: la foto del lunotto l'ho CREATA IO sul momento all'epoca con il photomode di CP2077 a chi mi chiedeva di cosa parlassi, TESTIMONI QUI SUL FORUM, primo fra tutti Jurassic con cui ebbi la discussione, ma con lui è un perculo amichevole e confidenziale da tempo immemore sul DLSS (:asd:), non ci si abbassa alla menzogne e alla disonestà. E non la ho MAI postata su reddit, a limite l'avrà presa qualcuno in seguito, la data e l'ora del resto è li' :read:.

https://www.hwupgrade.it/forum/showpost.php?p=47944376&postcount=89360

Guarda caso ora spunta fuori con un nuovo nick che la cita in contemporanea a uno appena sospeso a nome di chi sai bene...
A ogni modo, buon per te che non ti fai sti problemi (clonarsi l'account, mentire per darsi ragione), buon proseguimento.

Baingiu è un clone, sì, ma non di Cutter90. Le polemiche diventano sterili dopo molto poco: o la smetti, o al prossimo battibecco parte la sospensione. Regolati da solo.

Gigibian
25-08-2023, 19:52
meglio su quello di Lovelace, c'è più calma...

https://www.hwupgrade.it/forum/showthread.php?t=2969685&page=486

Man mano che fai i bench postali.

Stasera li faccio ma va a finire un po' tardi...ok per quello di lovelace, basta che non iniziate a flammare ed insultarmi in quanto ho una 7900XTX :D

Gigibian
25-08-2023, 19:52
https://www.youtube.com/watch?v=TJvfFWxfrWI

Ecco questa è un'illuminazione realisticva! vedete qualche differenza con CP2077 "overdrive" ? :D

marbasso
25-08-2023, 19:59
Stasera li faccio ma va a finire un po' tardi...ok per quello di lovelace, basta che non iniziate a flammare ed insultarmi in quanto ho una 7900XTX :D

Vai tranquillo non ti attacca nessuno, tu man mano che benchi posta gli screen.

1440 oc
2160 oc

1440 stock
2160 stock

1440 stock rt folle
2160 stock rt folle

Tutto in raster preset ultra

Gigibian
25-08-2023, 22:47
Vai tranquillo non ti attacca nessuno, tu man mano che benchi posta gli screen.

1440 oc
2160 oc

1440 stock
2160 stock

1440 stock rt folle
2160 stock rt folle

Tutto in raster preset ultra

Fatto, continuamo di la con chiunque interessato :)

https://www.hwupgrade.it/forum/showpost.php?p=48279905&postcount=9722

Ubro92
26-08-2023, 03:04
Più thread hai, più hai stalli interni, e turing rispetto a Pascal ha enormemente introdotto il warp stall.
Cmq bisogna dire, che per il tdp che aveva, boostava molto basso, infatti nei test la vediamo qualche volta scendere anche a 1600-1700, le 2080 si mantenevano a 1900.
Messa a 1900 (ok anche le ram a 16, ma ha il bus monco), allunga abbastanza.:)

Dipende anche dal PL, la FE si spingeva fino a massimo 320w, alcune varianti come manli addirittura erano ferme a 300w, ma altre soluzioni come la EVGA FTW3 arrivavano fino a 375w, cosi come la Giga Xtreme.

Ubro92
26-08-2023, 09:11
Qualche info in più sull'FSR3 che supporterà anche Turing:

https://community.amd.com/t5/gaming/first-look-at-amd-fidelityfx-super-resolution-3/ba-p/626581?sf268493061=1

Su schede Pascal/Maxwell invece niente frame generator ma sembra che potranno comunque godere dei miglioramenti sull'algoritmo dell'FSR.

Gigibian
26-08-2023, 12:43
Secondo me siamo sopra di un buon 10% con la mitica 7900XTX custom overclockata....

https://www.techpowerup.com/review/asus-geforce-rtx-4060-ti-dual-oc/31.html

o forse no? :asd:

A parte gli scherzi.... 7900XTX e 4090 sono schede di due fasce diverse, vendute ovviamente e giustamente a prezzi diversi (entrambi troppo alti? ovviamente si, ma questo è un altro discorso)....

PS
Anche la Vega64 liquid overclokkata raggiungeva la 1080ti... Mi pare lo avesse appurato il buon gnammy ai tempi no?

Conviene allora, troppo modesta amd...disse che il target della xtx era la 4080 xD

LoL, spetta le prime patch....:D

Ma che. Ci sono un triliardo di giochi in cui la 4090 se la mangia la 7900 xtx. Sei andato a cercare a fondo per trovare questo eh :D


Però adesso dopo tutti questi commentini sarcastici ... Diciamo che dalle prove fatte con il buon marbasso abbiamo dimostrato che in CP 2077 in raster tra la mia 7900XTX ed una suprim X 4090 c'è il 12% di differenza :D

https://www.hwupgrade.it/forum/showpost.php?p=48280121&postcount=9740

Quello che giochi con la 7900xtx giochi anche con la 4090...60 vs 67 fps...direi assolutamente stesso range di performance.

marbasso
26-08-2023, 13:09
Però adesso dopo tutti questi commentini sarcastici ... Diciamo che dalle prove fatte con il buon marbasso abbiamo dimostrato che in CP 2077 in raster tra la mia 7900XTX ed una suprim X 4090 c'è il 12% di differenza :D

https://www.hwupgrade.it/forum/showpost.php?p=48280121&postcount=9740

Quello che giochi con la 7900xtx giochi anche con la 4090...60 vs 67 fps...direi assolutamente stesso range di performance.

Si ma.vediamo anche in 4k che è il loro territorio. Io ho già fatto, sbrigati su.....:)

mikael84
26-08-2023, 13:10
Però adesso dopo tutti questi commentini sarcastici ... Diciamo che dalle prove fatte con il buon marbasso abbiamo dimostrato che in CP 2077 in raster tra la mia 7900XTX ed una suprim X 4090 c'è il 12% di differenza :D

https://www.hwupgrade.it/forum/showpost.php?p=48280121&postcount=9740

Quello che giochi con la 7900xtx giochi anche con la 4090...60 vs 67 fps...direi assolutamente stesso range di performance.

Si però raga, chi gioca cyber con la 4090 lo fa con l'overdrive in 4k + FG, non certo in raster in 1440p.:p
Lo gioco in overdrive io, 1440p e DLSS quality...

Se si prende un raster ok, ma se si prende un cyber, devono essere le condizioni reali in cui uno gioca.:)

Legolas84
26-08-2023, 13:17
Però adesso dopo tutti questi commentini sarcastici ... Diciamo che dalle prove fatte con il buon marbasso abbiamo dimostrato che in CP 2077 in raster tra la mia 7900XTX ed una suprim X 4090 c'è il 12% di differenza :D

https://www.hwupgrade.it/forum/showpost.php?p=48280121&postcount=9740

Quello che giochi con la 7900xtx giochi anche con la 4090...60 vs 67 fps...direi assolutamente stesso range di performance.

No no tranquillo... io rimango fermamente convinto che le due schede sono proprio diverse altro che... vanno bene i test che fate e ci mancherebbe ma come ho linkato stamane la situazione con driver aggiornati, stessa configurazione e test condotti da professionisti è questa:

https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen_mit_und_ohne_raytracing

Se poi ci metti il ray tracing addio proprio...

La 7900XTX non è una brutta scheda ci mancherebbe...
Ma tu ti sei convinto di avere una 4090 rossa sotto il cofano e l' errore è proprio li. Buon per te che sei convinto, ma non puoi pensare di convincere tutti gli altri, quando AMD è la prima a dire che la 7900XTX è antagonista della 4080.

I test che fate qui sono sicuramente indicativi ma non possono paragonarsi ai test fatti sulla stessa macchina da professionisti, entrano in gioco troppe cose come ad esempio il sistema operativo incasinato, software che girano in background, impostazioni dei driver ecc...

La mia battuta di vega64 liquid che pareggia la 1080 ti era proprio riferito a questo... ogni volta che AMD fa una scheda che va di meno, esce qualcuno che sostiene che con un pò di overclock si recuperano intere fasce di mercato.... ma non è così...

Lo era ai tempi della 9500pro che abilitando 4 pipeline da bios se non crashava tutto ottenevi una 9700... ma li abilitavi unità di elaborazione disabilitate, non clokkavi un pò una gpu...

Detto questo pace e bene, non voglio farti cambiare idea (al giorno d'oggi chi la cambia più?), ma solo esporre il mio pensiero.

marbasso
26-08-2023, 13:31
Si però raga, chi è gioca cyber con la 4090 lo fa con l'overdrive in 4k + FG, non certo in raster in 1440p.:p
Lo gioco in overdrive io, 1440p è DLSS quality...

Se si prende un raster ok, ma se si prende un cyber, devono essere le condizioni reali in cui uno gioca.:)

Si ma lui come fa a mettere l'overdrive e l' FG? A breve li fa in 4k......
Poi vediamo se è il caso di farli anche in rt.

mikael84
26-08-2023, 13:42
Si ma lui come fa a mettere l'overdrive e l' FG? A breve li fa in 4k......
Poi vediamo se è il caso di farli anche in rt.

L' overdrive lo può attivare mi pare.
Cmq il mio voleva essere un esempio. Se si prende un unreal5 e si bencha raster ok, ma se si prende un cyber dev'essere testato nella sua forma massima. Altrimenti che confronto è...:)

marbasso
26-08-2023, 13:48
L' overdrive lo può attivare mi pare.
Cmq il mio voleva essere un esempio. Se si prende un unreal5 e si bencha raster ok, ma se si prende un cyber dev'essere testato nella sua forma massima. Altrimenti che confronto è...:)

Io disponibile x tutto.

nessuno29
26-08-2023, 13:56
No no tranquillo... io rimango fermamente convinto che le due schede sono proprio diverse altro che... vanno bene i test che fate e ci mancherebbe ma come ho linkato stamane la situazione con driver aggiornati, stessa configurazione e test condotti da professionisti è questa:

https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen_mit_und_ohne_raytracing

Se poi ci metti il ray tracing addio proprio...

La 7900XTX non è una brutta scheda ci mancherebbe...
Ma tu ti sei convinto di avere una 4090 rossa sotto il cofano e l' errore è proprio li. Buon per te che sei convinto, ma non puoi pensare di convincere tutti gli altri, quando AMD è la prima a dire che la 7900XTX è antagonista della 4080.

I test che fate qui sono sicuramente indicativi ma non possono paragonarsi ai test fatti sulla stessa macchina da professionisti, entrano in gioco troppe cose come ad esempio il sistema operativo incasinato, software che girano in background, impostazioni dei driver ecc...

La mia battuta di vega64 liquid che pareggia la 1080 ti era proprio riferito a questo... ogni volta che AMD fa una scheda che va di meno, esce qualcuno che sostiene che con un pò di overclock si recuperano intere fasce di mercato.... ma non è così...

Lo era ai tempi della 9500pro che abilitando 4 pipeline da bios se non crashava tutto ottenevi una 9700... ma li abilitavi unità di elaborazione disabilitate, non clokkavi un pò una gpu...

Detto questo pace e bene, non voglio farti cambiare idea (al giorno d'oggi chi la cambia più?), ma solo esporre il mio pensiero.

Non credo abbia mai detto questo Gigi, sono test così fatti per gioco (magari sarebbe carino vedere anche qualche gioco in ue5). L'abbiamo capito che dai test di computer e tech non è così lo stai dicendo in tutti e due i thread, ma questa era una comparativa raster su un singolo gioco (monca tra l'altro visto che nessuno con schede così costose giocherebbe only raster).

Gigibian
26-08-2023, 13:59
Si però raga, chi gioca cyber con la 4090 lo fa con l'overdrive in 4k + FG, non certo in raster in 1440p.:p
Lo gioco in overdrive io, 1440p e DLSS quality...

Se si prende un raster ok, ma se si prende un cyber, devono essere le condizioni reali in cui uno gioca.:)

Che discorsi sono Mikael? Cp2077 o qualsiasi altro gioco é usato come benchmark per le performance in raster. Quelle sono.

E vi posso dire che se usiamo Hogwarts o plague tale, facendo confronto in passato con un mio amico la differenza é ancora minore secondo me.

Adesso appena riesco faccio i test in 4k ma in raster le due schede sono alla fine sullo stello livello. Dire l'opposto é un falso.

Poi certo ci sarà il gioco in cui la 7900xtx prende il 30% così come la 4090...ma in media siamo lì....

(Parlo solo di raster)

Gigibian
26-08-2023, 14:02
No no tranquillo... io rimango fermamente convinto che le due schede sono proprio diverse altro che... vanno bene i test che fate e ci mancherebbe ma come ho linkato stamane la situazione con driver aggiornati, stessa configurazione e test condotti da professionisti è questa:

https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_benchmarks_in_spielen_mit_und_ohne_raytracing

Se poi ci metti il ray tracing addio proprio...

La 7900XTX non è una brutta scheda ci mancherebbe...
Ma tu ti sei convinto di avere una 4090 rossa sotto il cofano e l' errore è proprio li. Buon per te che sei convinto, ma non puoi pensare di convincere tutti gli altri, quando AMD è la prima a dire che la 7900XTX è antagonista della 4080.

I test che fate qui sono sicuramente indicativi ma non possono paragonarsi ai test fatti sulla stessa macchina da professionisti, entrano in gioco troppe cose come ad esempio il sistema operativo incasinato, software che girano in background, impostazioni dei driver ecc...

La mia battuta di vega64 liquid che pareggia la 1080 ti era proprio riferito a questo... ogni volta che AMD fa una scheda che va di meno, esce qualcuno che sostiene che con un pò di overclock si recuperano intere fasce di mercato.... ma non è così...

Lo era ai tempi della 9500pro che abilitando 4 pipeline da bios se non crashava tutto ottenevi una 9700... ma li abilitavi unità di elaborazione disabilitate, non clokkavi un pò una gpu...

Detto questo pace e bene, non voglio farti cambiare idea (al giorno d'oggi chi la cambia più?), ma solo esporre il mio pensiero.

Si vabbè, continuano la paragonare la reference am da 350W di tdp con schede da 500W.

Cmq non si tratta di cambiare pensiero. Ma solo di dati oggettivi fatte su schede di pari livello.

4090 suprim X vs xtx nitro + c'è il 12% in raster.
Disponibile a testare su altri giochi tranquillamente.

Mi interessa avere una visione chiara delle performance oggettiva, non pendo per nessun partito io.

Se tutti i giochi in raster rimaniamo tra il 10 e 15%, semplicemente non si può dire che siamo su livelli diversi. Tutto qua.

Legolas84
26-08-2023, 14:08
Oh che ti devo dire... sbagliano tutti i siti del settore e AMD stessa, tranne te...

Aspettiamo i test in 4k....

Gigibian
26-08-2023, 14:28
Oh che ti devo dire... sbagliano tutti i siti del settore e AMD stessa, tranne te...

Aspettiamo i test in 4k....

Guarda che stiamo facendo apposta i test nel thread. Non c'è da avere opinioni su nulla: basta vedere i risultati e prenderne atto, fine. Se risulta un 10% di differenza quello é, se la differenza é 40% lo stesso. Ma continuare a negare l'evidenza é inutile.

Ti ho già spiegato che nelle comparative inseriscono sempre la reference amd che non é rappresentativa delle performance delle custom. Invece lato 4090 la FE va come le custom.

Legolas84
26-08-2023, 14:35
Quindi la suprim X va come la FE.... ok basta saperlo...
In pratica si overclokkano solo le AMD e con un pò di clock sulla gpu ecco risolto il divario con la 4090.

Cavolo peccato solo che AMD non ci ha pensato altrimenti ecco risolto il problema anche a livello di immagine... Peccato...

Cavolo ora mi sento un fesso ad aver preso la 4090 quando potevo risparmiare e farmi la 7900XTX Nitro plus che va uguale tenendomi 500 euri nel portafoglio

marbasso
26-08-2023, 14:42
Calmezzaaaaaa......state sereni. Io ripeto che bisogna vedere il test in 4k. Poi se ne riparla. Io uso sempre il dsr e gioco in 4k.

nessuno29
26-08-2023, 14:49
Quindi la suprim X va come la FE.... ok basta saperlo...
In pratica si overclokkano solo le AMD e con un pò di clock sulla gpu ecco risolto il divario con la 4090.

Cavolo peccato solo che AMD non ci ha pensato altrimenti ecco risolto il problema anche a livello di immagine... Peccato...

Cavolo ora mi sento un fesso ad aver preso la 4090 quando potevo risparmiare e farmi la 7900XTX Nitro plus che va uguale tenendomi 500 euri nel portafoglio

Premesso che sei l'unico agitato e senza alcun motivo tra l'altro, non ha detto che solo le AMD si overcloccano... ha detto che la rtx 4090 FE è qualitativamente pari ad una custom ( e lo è effettivamente) mentre le AMD reference rispetto alle custom hanno maggiori differenze perché limitate dal power limit etcetc.

Legolas84
26-08-2023, 14:55
Premesso che sei l'unico agitato e senza alcun motivo tra l'altro, non ha detto che solo le AMD si overcloccano... ha detto che la rtx 4090 FE è qualitativamente pari ad una custom ( e lo è effettivamente) mentre le AMD reference rispetto alle custom hanno maggiori differenze perché limitate dal power limit etcetc.

Ma scusami, perchè ti sembro agitato? Eddai :asd: con questa storia dell'agitato mi sembrate Amadeus quando dice a Pedro di calmarsi :asd:

Non mi pare di aver scritto niente di strano o niente di male... se vuoi aggiungo qualche faccina la prossima volta :D

anzi ti dirò di più mi fa piacere che sei entrato anche tu nella discussione su entrambi i thread :)

Gigibian
26-08-2023, 14:55
Premesso che sei l'unico agitato e senza alcun motivo tra l'altro, non ha detto che solo le AMD si overcloccano... ha detto che la rtx 4090 FE è qualitativamente pari ad una custom ( e lo è effettivamente) mentre le AMD reference rispetto alle custom hanno maggiori differenze perché limitate dal power limit etcetc.

Oh! Mi sembra di essere scemo altrimenti, scrivo una cosa e tutti l'opposto... Grazie :)

nessuno29
26-08-2023, 15:00
Ma scusami, perchè ti sembro agitato? Eddai :asd:

Non mi pare di aver scritto niente di strano o niente di male... se vuoi aggiungo qualche faccina la prossima volta :D

anzi ti dirò di più mi fa piacere che sei entrato anche tu nella discussione su entrambi i thread :)

Sembri agitato perché il tizio scrive una cosa e tu rispondi con insinuazioni a caso, tipo ho fatto male a spendere 500 euro in più per la 4090!!!1!1 ma chi l'ha detto... i due utenti hanno provato un solo gioco in 1440p in una condizione tra l'altro irrealistica perché vogliono isolare le prestazioni raster.

Sembri agitato anche quando loro stanno facendo un confronto esterno alle review e continui a postare i risultati di medie fatte da siti del settore :D

Sono entrato nella discussione perché una volta tanto che ci sono due utenti disposti a postare dati "non sponsorizzati" su un forum tecnico ne approfitto, mi piacciono le comparative ahah

Legolas84
26-08-2023, 15:05
Sembri agitato perché il tizio scrive una cosa e tu rispondi con insinuazioni a caso, tipo ho fatto male a spendere 500 euro in più per la 4090!!!1!1 ma chi l'ha detto... i due utenti hanno provato un solo gioco in 1440p in una condizione tra l'altro irrealistica perché vogliono isolare le prestazioni raster.

Sembri agitato anche quando loro stanno facendo un confronto esterno alle review e continui a postare i risultati di medie fatte da siti del settore :D

Bo e questo ti da la sensazione che io sia agitato?
Ripeto sembrate Amadeus che dice a Pedro di star calmo :asd:

La mia frase era in risposta al fatto che Gigibian sostiene che le due schede sono di pari fascia... tutto qui.
Mi sembra che anche di la ho seguito con interesse i test (sebbene il primo fosse con FSR), e ora sto aspettando quello a 4k... :)
Le medie fatte dai recensori le ho postate una volta di la e ho girato un link qua... le sto continuando a postare? :fagiano:

Dai ragazzi su la state mettendo sul personale (appiccicandomi uno stato d'animo completamente sbagliato) quando non è davvero il caso...

mikael84
26-08-2023, 15:16
Che discorsi sono Mikael? Cp2077 o qualsiasi altro gioco é usato come benchmark per le performance in raster. Quelle sono.

E vi posso dire che se usiamo Hogwarts o plague tale, facendo confronto in passato con un mio amico la differenza é ancora minore secondo me.

Adesso appena riesco faccio i test in 4k ma in raster le due schede sono alla fine sullo stello livello. Dire l'opposto é un falso.

Poi certo ci sarà il gioco in cui la 7900xtx prende il 30% così come la 4090...ma in media siamo lì....

(Parlo solo di raster)

Ma il raster va testato su giochi raster, es: Immortals of Aveum - remnant2 - BG3 e così via.
Se prendi Cyberpunk, bisogna testarlo in qualità massima, overdrive, o lo stesso rachet and clank, DL2, tutti in massimo RT.

Altrimenti non si può giudicare la bontà delle due schede, in modo obbiettivo.
Lo scopo di una comparativa, è quello di inquadrare le schede a 360°, in situazioni di gioco reali.:)

Cyber raster, è leggero, sono tutte appaiate alla fine (1440p), con la 7900xtx che se la cava bene.
https://www.hwupgrade.it/articoli/6438/cb2077.png

marbasso
26-08-2023, 15:28
Ma il raster va testato su giochi raster, es: Immortals of Aveum - remnant2 - BG3 e così via.
Se prendi Cyberpunk, bisogna testarlo in qualità massima, overdrive, o lo stesso rachet and clank, DL2, tutti in massimo RT.

Altrimenti non si può giudicare la bontà delle due schede, in modo obbiettivo.
Lo scopo di una comparativa, è quello di inquadrare le schede a 360°, in situazioni di gioco reali.:)

Cyber raster, è leggero, sono tutte appaiate alla fine (1440p), con la 4090 che se la cava bene.
https://www.hwupgrade.it/articoli/6438/cb2077.png

E dimmi esattamente che impostazioni vuoi e te lo faccio se ti interessa.

mikael84
26-08-2023, 15:31
E dimmi esattamente che impostazioni vuoi e te lo faccio se ti interessa.

Se si vuole fare una comparativa, dettagli completamente massimi, compreso di path tracing. :)

Però non qui, nei thread ufficiali.

Anche se io non ho ancora capito, cosa si vuole dimostrare, quando ci sono le testate, boh... :D

marbasso
26-08-2023, 15:33
Se si vuole fare una comparativa, dettagli completamente massimi, compreso di path tracing. :)

Dopo guardo il panello dei settaggi, ma in 2k o 4k?
FG attivo?
Rt folle?

mikael84
26-08-2023, 15:34
Dopo guardo il panello dei settaggi, ma in 2k o 4k?

4k

amon.akira
26-08-2023, 15:39
in overdrive (path tracing) imho un raffronto sensato sarebbe 4k dlss/fsr performance (1080p) non potendo abilitare il FG ed avere cmq un frame accettabile

oppure 1440p con dlss/fsr quality...che è la stessa cosa (1080p)

Gigibian
26-08-2023, 15:41
Ma il raster va testato su giochi raster, es: Immortals of Aveum - remnant2 - BG3 e così via.
Se prendi Cyberpunk, bisogna testarlo in qualità massima, overdrive, o lo stesso rachet and clank, DL2, tutti in massimo RT.

Altrimenti non si può giudicare la bontà delle due schede, in modo obbiettivo.
Lo scopo di una comparativa, è quello di inquadrare le schede a 360°, in situazioni di gioco reali.:)

Cyber raster, è leggero, sono tutte appaiate alla fine (1440p), con la 7900xtx che se la cava bene.
https://www.hwupgrade.it/articoli/6438/cb2077.png

Beh no, già lo vedi che quel grafico che hai postato non riporta con le performance reali. in 1440p nella realtà, test che abbiamo appena fatto, c'è molta meno differenza rispetto a quanto sta in quel grafico, per il motivo che spiegavo prima.

Secondo quale principio CP in raster non è un test affidabile, bah.
"Perchè avendo l'opzione RT deve essere testato in RT" ma che c'entra?

Testiamo alle Plague Tale dai, che per 1 anno e mezzo non ha avuto RT ed è nato in raster, vediamo :)


Cmq in CP2077, ho fatto i test, ed in 4k 10.6% di differenza contro il 12% del 1440p, stock vs stock :)

Andy1111
26-08-2023, 15:42
Ma il raster va testato su giochi raster, es: Immortals of Aveum - remnant2 - BG3 e così via.
Se prendi Cyberpunk, bisogna testarlo in qualità massima, overdrive, o lo stesso rachet and clank, DL2, tutti in massimo RT.

Altrimenti non si può giudicare la bontà delle due schede, in modo obbiettivo.
Lo scopo di una comparativa, è quello di inquadrare le schede a 360°, in situazioni di gioco reali.:)

Cyber raster, è leggero, sono tutte appaiate alla fine (1440p), con la 7900xtx che se la cava bene.
https://www.hwupgrade.it/articoli/6438/cb2077.png

Certo che vedi li che ti scrivono 7900xtx a 1440p 132 poi un utente fa 167 sul bench e stessa cosa a 2160p 74 contro 83 qualcosa non torna vero che li era un reference e l'altra una custom , ma ricordiamoci che la FE è una custom, messa anche meglio di diverse custom, parole anche tue giusto? e sul sito nvidia una FE te la vende a 1789€ menìtre sul sito amd una 7900 xtx 1.115€ una 4080 FE €1.349

Gigibian
26-08-2023, 15:42
Bo e questo ti da la sensazione che io sia agitato?
Ripeto sembrate Amadeus che dice a Pedro di star calmo :asd:

La mia frase era in risposta al fatto che Gigibian sostiene che le due schede sono di pari fascia... tutto qui.
Mi sembra che anche di la ho seguito con interesse i test (sebbene il primo fosse con FSR), e ora sto aspettando quello a 4k... :)
Le medie fatte dai recensori le ho postate una volta di la e ho girato un link qua... le sto continuando a postare? :fagiano:

Dai ragazzi su la state mettendo sul personale (appiccicandomi uno stato d'animo completamente sbagliato) quando non è davvero il caso...

Guardati i test nell'altro thread.
In RASTER si, le due schede sono quasi alla pari.

in 4k 10% di differenza.

:read:

mikael84
26-08-2023, 15:53
Certo che vedi li che ti scrivono 7900xtx a 1440p 132 poi un utente fa 167 sul bench e stessa cosa a 2160p 74 contro 83 qualcosa non torna vero che li era un reference e l'altra una custom , ma ricordiamoci che la FE è una custom, messa anche meglio di diverse custom, parole anche tue giusto? e sul sito nvidia una FE te la vende a 1789€ menìtre sul sito amd una 7900 xtx 1.115€ una 4080 FE €1.349

Certo che i risultati non saranno mai uguali, diversità di driver, OC, sistema etc.:p

Lui ad esempio ne fa 175, quindi neppure lui rientra appieno, in base all'OC driver.
https://www.hwupgrade.it/forum/showpost.php?p=48280108&postcount=9739


La 4090 FE però è venduta come prosumer, e per RT. Quindi per raggiungere quei valori, dovrebbe essere vicina anche in RT massivo ed in software pro, esempio blender-v-ray.
E' inutile continuare a menarla con, "io sono furbo e con 1200 euro ne ho speso meno di chi ha preso una 4090, che è meno furbo".

Capite che a lungo andare crea casini e basta, e dovresti saperlo.

Ale55andr0
26-08-2023, 15:53
Ma il raster va testato su giochi raster, es: Immortals of Aveum - remnant2 - BG3 e così via.
Se prendi Cyberpunk, bisogna testarlo in qualità massima, overdrive, o lo stesso rachet and clank, DL2, tutti in massimo RT.


Perdonami ma non sono d'accordo, se stanno facendo un confronto sul raster lo fai sul raster. Poi se lo vuoi fare anche in Rt lo fai ma non è che se c'è l'opzione "o lo fai rt o non lo fai" ;)

Inoltre CP2077 non ha affatto un motore next gen NATIVO RT quindi questa "imposizione" non la capisco ancor meno

Gigibian
26-08-2023, 15:59
Certo che i risultati non saranno mai uguali, diversità di driver, OC, sistema etc.:p

Lui ad esempio ne fa 175, quindi neppure lui rientra appieno, in base all'OC driver.
https://www.hwupgrade.it/forum/showpost.php?p=48280108&postcount=9739


La 4090 FE però è venduta come prosumer, e per RT. Quindi per raggiungere quei valori, dovrebbe essere vicina anche in RT massivo ed in software pro, esempio blender-v-ray.
E' inutile continuare a menarla con, "io sono furbo e con 1200 euro ne ho speso meno di chi ha preso una 4090, che è meno furbo".

Capite che a lungo andare crea casini e basta, e dovresti saperlo.

Ma non esiste nessun casino: io non ho mai detto che l'acquisto della 4090 non è giustificata, anzi! Capisco chi sta in fissa con RT.

Il casino lo crea unicamente chi con sogghigni e faccine dice che 7900XTX e 4090 in RASTER sono di due fasce assolutamente diverse, quando non è assolutamente così.

In CP2077 il 10% ci passa in raster. Confrontata poi con una suprimx che consuma molto più della mia, per dire.

Andy1111
26-08-2023, 16:00
Certo che i risultati non saranno mai uguali, diversità di driver, OC, sistema etc.:p

Lui ad esempio ne fa 175, quindi neppure lui rientra appieno, in base all'OC driver.
https://www.hwupgrade.it/forum/showpost.php?p=48280108&postcount=9739


La 4090 FE però è venduta come prosumer, e per RT. Quindi per raggiungere quei valori, dovrebbe essere vicina anche in RT massivo ed in software pro, esempio blender-v-ray.
E' inutile continuare a menarla con, "io sono furbo e con 1200 euro ne ho speso meno di chi ha preso una 4090, che è meno furbo".

Capite che a lungo andare crea casini e basta, e dovresti saperlo.

RT perchè tutti i giochi sono fatti in RT ? software pro non metterlo in mezzo parliamo di schede da gioco, come ti ha scritto Alessandro trovami un gioco nativo RT e non sviluppato in dx11 e poi rattoppato a suon di dollaroni di sponsorizzazione, perchè poi dobbiamo anche considerare questo fattore non ti pare?

Legolas84
26-08-2023, 16:06
Secondo me non c'è nemmeno bisogno di tirare fuori il RT... marbasso che ha fatto i test con la 4090 ha qualche problema visto che fa dei minimi da Voodoo2...

Amon con la 4090 FE va il 18% in più...

mikael84
26-08-2023, 16:09
RT perchè tutti i giochi sono fatti in RT ? software pro non metterlo in mezzo parliamo di schede da gioco, come ti ha scritto Alessandro trovami un gioco nativo RT e non sviluppato in dx11 e poi rattoppato a suon di dollaroni di sponsorizzazione, perchè poi dobbiamo anche considerare questo fattore non ti pare?

Se tu, in ogni post, metti in confronto i prezzi, devi mettere in conto pure quello. Si sa che è venduta come prosumer ed ha un prezzo più alto, per un confronto più equo, ci vorrebbe una 4080.

Riguardo RT no, o RT si, mi sono spiegato prima. Se prendi: Immortals of Aveum - remnant2 - BG3 e vari, li testi in Raster.

Se il gioco di riferimento è cyber/ R e C, Metro-DL2 li testi in RT, in quanto sono pensati per il RT.
Altrimenti che comparativa è.

Qua si sta ponendo una 7900xtx ben occata a stock, vs una 4090, bene, vediamola a 360°.
Ha testato il raster, è ok, ora il PT, idem per gli altri.

marbasso
26-08-2023, 16:10
Secondo me non c'è nemmeno bisogno di tirare fuori il RT... marbasso che ha fatto i test con la 4090 ha qualche problema visto che fa dei minimi da Voodoo2...

Amon con la 4090 FE va il 18% in più...

DX ma gli FPS finali vanno bene....LOL...:D

Gigibian
26-08-2023, 16:12
Secondo me non c'è nemmeno bisogno di tirare fuori il RT... marbasso che ha fatto i test con la 4090 ha qualche problema visto che fa dei minimi da Voodoo2...

Amon con la 4090 FE va il 18% in più...

Guarda che i medi di marbasso sono più alti dei medi di akira.
il 10% è sui medi.

Sono già 2 4090 con cui si evidenzia il 10% di differenza rispetto alla XTX.

Testatene altre 20, sempre quello è.

amon.akira
26-08-2023, 16:15
Confrontata poi con una suprimx che consuma molto più della mia, per dire.

ma la tua quanto consuma? la suprim x arriva max a 520w con power limit al max

la nitro non avevi detto 500w?

Andy1111
26-08-2023, 16:17
ma la tua quanto consuma? la suprim x arriva max a 520w con power limit al max

la nitro non avevi detto 500w?

quella di Bang4BuckPC Gamer che è tirata a morte sta sui 460W

Gigibian
26-08-2023, 16:17
ma la tua quanto consuma? la suprim x arriva max a 520w con power limit al max

la nitro non avevi detto 500w?

Non l'ho mai vista superare i 464W la mia.

amon.akira
26-08-2023, 16:21
Non l'ho mai vista superare i 464W la mia.

presumi quindi che la sua su cyberpunk era a 520w ovvero il suo max? quando la mia a 1100mv ha fatto di picco 498w

marbasso
26-08-2023, 16:31
presumi quindi che la sua su cyberpunk era a 520w ovvero il suo max? quando la mia a 1100mv ha fatto di picco 498w

Idem la mia 498w

Ale55andr0
27-08-2023, 09:49
Se il gioco di riferimento è cyber/ R e C, Metro-DL2 li testi in RT, in quanto sono pensati per il RT.


gli è stato appiccicato sopra, i metro originali non ci sono proprio nati con l'RT sono usciti prima senza, CP2077 ha un motore vecchio come il cucco rimaneggiato (e infatti cambieranno visto anche quante grane gli ha dato :D) inoltre c'è l'opzione di scelta, non sta scritto nella costituzione che devi farlo così perchè si' :fagiano:
I giochi davvero pensati per RT devono ancora nascere, ammesso li vedremo in questa gen visto che se parti dalle console non programmi nativo per l'RT tout court anche se magari l'engine è next gen. Io aspetto ancora di vedere asset degni :asd:
Cmq a mio avviso sti confronti vanno fatti solo con video real time e non tagliati, non con immagini statiche col risultato finale, visto che nessuno mi dice quali siano le reali impostazioni totali. A ogni modo mi pare che le rece confermino che la XTX in raster è una bella brestiolina, non ho seguito bene perchè è nata sta diatriba da dover fare sti test incrociati :confused:

EffeX
27-08-2023, 11:20
Lo era ai tempi della 9500pro che abilitando 4 pipeline da bios se non crashava tutto ottenevi una 9700... ma li abilitavi unità di elaborazione disabilitate, non clokkavi un pò una gpu...

Per puntualizzare, era la Radeon 9500 liscia che si poteva portare da 4 a 8 pipe e sfruttare i 256 bit bloccati da BIOS in quanto il chip era lo stesso R300 e il PCB anche in quanto ATi usava gli stessi componenti delle 9700 pro solo castrati via BIOS appunto.
La 9500 pro aveva già 8 pipe sbloccate però aveva il PCB con soli 128 bit di bus fisici e quindi si poteva occare un po' senza arrivare ai livelli della 9700 pro però. ;)
Anche Nvidia nelle prime sfornate di chip aveva le GeForce 6200 che si potevano sbloccare e trasformare in 6600.
Poi si fecero furbi e laserarono fisicamente il chip bloccandole. Bei tempi!

Legolas84
27-08-2023, 11:29
Per puntualizzare, era la Radeon 9500 liscia che si poteva portare da 4 a 8 pipe e sfruttare i 256 bit bloccati da BIOS in quanto il chip era lo stesso R300 e il PCB anche in quanto ATi usava gli stessi componenti delle 9700 pro solo castrati via BIOS appunto.
La 9500 pro aveva già 8 pipe sbloccate però aveva il PCB con soli 128 bit di bus fisici e quindi si poteva occorre un po' senza arrivare ai livelli della 9700 pro però. ;)
Anche Nvidia nelle prime sfornate di chip aveva le GeForce 6200 che si potevano sbloccare e trasformare in 6600.
Poi si fecero furbi e laserarono fisicamente il chip bloccandole. Bei tempi!


Hai ragione era la 9500 liscia.. e si davvero bei tempi :)


Inviato dal mio iPhone utilizzando Tapatalk Pro

Mallardo
28-08-2023, 08:20
Buongiorno signori, avrei da chiedere un chiarimento sul DLSS 3.5. A quanto ho capito il ray recostruction è slegato dal frame generator, quello che non mi è chiaro è se con questa versione del DLSS si potrà usare il frame generator anche con le rtx serie 2 e 3.

pedra92
28-08-2023, 08:41
Buongiorno signori, avrei da chiedere un chiarimento sul DLSS 3.5. A quanto ho capito il ray recostruction è slegato dal frame generator, quello che non mi è chiaro è se con questa versione del DLSS si potrà usare il frame generator anche con le rtx serie 2 e 3.No, per ora è sempre esclusiva delle 4000

Inviato dal mio SM-S908B utilizzando Tapatalk

Ubro92
28-08-2023, 09:14
No, per ora è sempre esclusiva delle 4000

Inviato dal mio SM-S908B utilizzando Tapatalk

Il 3.5 dovrebbe essere supportato da tutte le RTX, turing compreso.

https://i.postimg.cc/RFDY3sD9/Senza-titolo.png

https://www.nvidia.com/en-us/geforce/news/nvidia-dlss-3-5-ray-reconstruction/

Non è chiaro se la DLL è un aggiornamento di quella del DLSS2 passando dall'attuale 3.1.30 alla 3.5 o sarà proprio una DLL separata da quella del DLSS2 e DLSS3

StylezZz`
28-08-2023, 09:20
La DLL è già scaricabile:

NVIDIA DLSS 3.5 DLL (https://www.techpowerup.com/download/nvidia-dlss-dll/)

NVIDIA DLSS 3.5 Frame Generation DLL (https://www.techpowerup.com/download/nvidia-dlss-3-frame-generation-dll/)

Ubro92
28-08-2023, 09:22
La DLL è già scaricabile:

NVIDIA DLSS DLL (https://www.techpowerup.com/download/nvidia-dlss-dll/)

NVIDIA DLSS Frame Generation DLL (https://www.techpowerup.com/download/nvidia-dlss-3-frame-generation-dll/)

Ottimo! Thanks :fagiano:

lordsnk
28-08-2023, 09:22
Il 3.5 dovrebbe essere supportato da tutte le RTX, turing compreso.

https://i.postimg.cc/RFDY3sD9/Senza-titolo.png

https://www.nvidia.com/en-us/geforce/news/nvidia-dlss-3-5-ray-reconstruction/

Non è chiaro se la DLL è un aggiornamento di quella del DLSS2 passando dall'attuale 3.1.30 alla 3.5 o sarà proprio una DLL separata da quella del DLSS2 e DLSS3

Appena rilasciato il DLSS 3.5 disponibile qui (https://www.techpowerup.com/download/drivers/) :D

FaTcLA
28-08-2023, 09:28
Anche Nvidia nelle prime sfornate di chip aveva le GeForce 6200 che si potevano sbloccare e trasformare in 6600.
Poi si fecero furbi e laserarono fisicamente il chip bloccandole. Bei tempi!

Come la splendida 6800LE <3
Si sbloccavano con un programmino le pipelines e i vertex shader

nessuno29
28-08-2023, 09:52
Come la splendida 6800LE <3
Si sbloccavano con un programmino le pipelines e i vertex shader

Anche la mia 8400gs zotac divenne una 8500gt a 128bit grazie a rivatuner ahah

ninja750
28-08-2023, 10:00
Come la splendida 6800LE <3
Si sbloccavano con un programmino le pipelines e i vertex shader

io avevo la 6800 liscia e sbloccai alcune pipe e vertex in modo che andasse QUASI come la 6800GT, ma le memorie erano più lente e non recuperavi tutto con OC

lordsnk
28-08-2023, 10:23
Come la splendida 6800LE <3
Si sbloccavano con un programmino le pipelines e i vertex shader

io avevo la 6800 liscia e sbloccai alcune pipe e vertex in modo che andasse QUASI come la 6800GT, ma le memorie erano più lente e non recuperavi tutto con OC

I bei tempi del soft modding :D
Io fui fortunato e sulla mia 6800LE riusci a sbloccare quasi tutto :D

marbasso
28-08-2023, 10:58
La DLL è già scaricabile:

NVIDIA DLSS 3.5 DLL (https://www.techpowerup.com/download/nvidia-dlss-dll/)

NVIDIA DLSS 3.5 Frame Generation DLL (https://www.techpowerup.com/download/nvidia-dlss-3-frame-generation-dll/)

Ma sono eseguibili o cosa? Basta installarli?

Ubro92
28-08-2023, 11:00
Ma sono eseguibili o cosa? Basta installarli?

Basta che apri la root del gioco e sostituisci la DLL presente con quella aggiornata.
Poi se vuoi smanettarci c'è anche il tool DLSSTweaks (https://github.com/emoose/DLSSTweaks/releases)ma non è essenziale.

marbasso
28-08-2023, 15:14
Basta che apri la root del gioco e sostituisci la DLL presente con quella aggiornata.
Poi se vuoi smanettarci c'è anche il tool DLSSTweaks (https://github.com/emoose/DLSSTweaks/releases)ma non è essenziale.

Non saprei in che gioco provarli....attenderò che li introducano direttamente di base.
Provare ancora roba su cp2077 anche no...mi son rotto di aprire quello pseudo gioco abominevole.

EffeX
28-08-2023, 15:51
Come la splendida 6800LE <3
Si sbloccavano con un programmino le pipelines e i vertex shader

Da Rivatuner diventava da 8/4 a 16/6, poi un pò di oc e si arrivava quasi ai livelli della 6800GT. :)
Tra l'altro ho ancora la 6800LE della Asus in qualche scatola in cantina.

Ubro92
31-08-2023, 06:39
Certo che leggere slim è poi vedere una tri ventola dual slot fa strano 😂

https://videocardz.com/newz/msi-preparing-twenty-geforce-rtx-40-gaming-slim-graphics-cards

Inviato dal mio M2012K11AG utilizzando Tapatalk

Legolas84
31-08-2023, 06:41
È l evoluzione :asd:
No comunque a parte gli scherzi, io sono contento di queste schede ciccione: boostano bene con ventole silenziose.. :)


Inviato dal mio iPhone utilizzando Tapatalk Pro

fraussantin
31-08-2023, 06:45
Certo che leggere slim è poi vedere una tri ventola dual slot fa strano 😂

https://videocardz.com/newz/msi-preparing-twenty-geforce-rtx-40-gaming-slim-graphics-cards

Inviato dal mio M2012K11AG utilizzando TapatalkSismo nell'era del politically correct e del curvy , cge ci vuoi fa :asd:

Salfox
31-08-2023, 06:58
Certo che leggere slim è poi vedere una tri ventola dual slot fa strano 😂

https://videocardz.com/newz/msi-preparing-twenty-geforce-rtx-40-gaming-slim-graphics-cards

Inviato dal mio M2012K11AG utilizzando Tapatalk

Io direi che finalmente si sono accorti che Lovelace non richiede dissipatori enormi ed era ora. La mia credo che nella sua vita non abbia mai superato i 50° come temp massima.....

Cutter90
31-08-2023, 07:05
Io direi che finalmente si sono accorti che Lovelace non richiede dissipatori enormi ed era ora. La mia credo che nella sua vita non abbia mai superato i 50° come temp massima.....

Si ma il tuo non è certo un caso di un un utilizzo normale, dato che la usi castrata sia come pl ( a metà se non erro), sia come fps, dove non superi i 60. È come dire che una Ferrari consuma poco..... ai 40 km/h.
Gli scenari usuali di utilizzo sono ben altri. La mia in full load sta sui 50-56 gradi.

Salfox
31-08-2023, 07:06
Si ma il tuo non è certo un caso di un un utilizzo normale, dato che la usi castrata sia come pl ( a metà se non erro), sia come fps, dove non superi i 60.
Gli scenari usuali di utilizzo sono ben altri. La mia in full load sta sui 50-56 gradi.

No Cutter, da quando sono rientrato a casa vedendo le meraviglie che sono uscite ho deciso di lasciarla a briglia sciolta (Pl a 133%) ed anche così sta sotto i 50°, più o meno 46° di media.

Qui ho il monitor settato a 80hz e quindi gioco con Vsync attivo ed ho i condizionatori in casa per quando fa molto caldo.

Cutter90
31-08-2023, 08:29
No Cutter, da quando sono rientrato a casa vedendo le meraviglie che sono uscite ho deciso di lasciarla a briglia sciolta (Pl a 133%) ed anche così sta sotto i 50°, più o meno 46° di media.

Qui ho il monitor settato a 80hz e quindi gioco con Vsync attivo ed ho i condizionatori in casa per quando fa molto caldo.

Si ma l'utilizzo della gpu risulta comunque molto basso evidentemente. Ad aria si sta tra i 65 e gli 80 gradi in utilizzo "pieno" della gpu, con 99% di utilizzo ingame.
Non esiste tu faccia 50 gradi ad aria in queste condizioni, da me descritte.
Tra l'altro aumentare il pl al 133% per poi castrarla a 80 fps, non in 4k tra l'altro, non ha senso se poi ingame tieni la gpu al 60 % di utilizzo.

Vul
31-08-2023, 10:02
Si sa qualcosa delle 5000 o se ne fregheranno altamente delle gpu gaming visto che ormai sono noccioline rispetto ai datacenter?

Abbiamo speranze di vedere qualcosa da qui a fine 2024?

Salfox
31-08-2023, 10:36
Si sa qualcosa delle 5000 o se ne fregheranno altamente delle gpu gaming visto che ormai sono noccioline rispetto ai datacenter?

Abbiamo speranze di vedere qualcosa da qui a fine 2024?

Ad oggi le notizie confermate riportano l'uscita di Blackwell nel primo quarto 2025, ma da come si stanno mettendo le cose e per l'assoluta mancanza di concorrenza è probabile che Nvidia se la prenda comoda e che ritardi ancora di più. La speranza di vedere qualcosa nel 2024 è nulla.

Vul
31-08-2023, 14:27
Quindi l'unica gen di GPU rilasciate nel 2024 sara' Blackmage di Intel.

OrazioOC
31-08-2023, 14:42
Quindi l'unica gen di GPU rilasciate nel 2024 sara' Blackmage di Intel.

E rdna4. :D

Comunque le premesse per un refresh di ada nel 2024 forse ci sono. :stordita:

Salfox
31-08-2023, 15:20
E rdna4. :D

Comunque le premesse per un refresh di ada nel 2024 forse ci sono. :stordita:

Refesh non credo, forse forse Nvidia farà uscire i chip completi AD102 e AD103 ma visto che quelli che già ci sono, sono già ampiamente sopra la top della concorrenza la vedo una mossa un po' inutile, ma comunque vedremo.

OrazioOC
31-08-2023, 15:28
Refesh non credo, forse forse Nvidia farà uscire i chip completi AD102 e AD103 ma visto che quelli che già ci sono, sono già ampiamente sopra la top della concorrenza la vedo una mossa un po' inutile, ma comunque vedremo.

Beh io una 4080 super non la vedo male, ma anche tirar fuori 4060 e 4070 super aiuterebbero a far concorrenza alle prossime intel/amd. :)

mikael84
31-08-2023, 15:40
Refesh non credo, forse forse Nvidia farà uscire i chip completi AD102 e AD103 ma visto che quelli che già ci sono, sono già ampiamente sopra la top della concorrenza la vedo una mossa un po' inutile, ma comunque vedremo.

Vorrei vedere soprattutto la 4090ti con 96mb di cache.:)

Beh io una 4080 super non la vedo male, ma anche tirar fuori 4060 e 4070 super aiuterebbero a far concorrenza alle prossime intel/amd. :)

Il problema è che ci sono già le TI, salvo sulla fascia alta. Al massimo rivedrei il rapporto tra 4070-4070 super-4070ti, visto che la 7800xt (16gb) con -100 di msrp gli farà una discreta concorrenza. :)

Ubro92
31-08-2023, 17:59
Ma anche la 7700xt a 450$ demolisce in toto la 4060ti, nei prossimi mesi con il rilascio dell'FSR3 penso che per forza di cose verranno rivisti i listini.

Il refresh è la soluzione più elegante a livello marketing, poichè offri gli stessi chip ma rimarchiati e riposizionati come tagli e prezzi, ma non è detto che si vedrà.

mikael84
31-08-2023, 18:35
Ma anche la 7700xt a 450$ demolisce in toto la 4060ti, nei prossimi mesi con il rilascio dell'FSR3 penso che per forza di cose verranno rivisti i listini.

Il refresh è la soluzione più elegante a livello marketing, poichè offri gli stessi chip ma rimarchiati e riposizionati come tagli e prezzi, ma non è detto che si vedrà.

Beh sì, n32 è un chip superiore ad AD106. Per eguagliarlo ( e batterlo easy in RT) servirebbe un chip da 5120 cc e 192bit. La 4060ti per caratteristiche rimane troppo legata al 1080p.
Tra la 4070 e la 4060ti, serviva un chip a cavallo, non una versione da 16gb.

OrazioOC
31-08-2023, 19:10
Per assurdo, a nvidia basterebbe mettere due cut ulteriori di ad104 per bastonare 7700 xt e 7800 xt. :fagiano:
La prima sarebbe la 4060 super con ad104 ultra cuttato con 5120 cc e 12gb di vram, l'altra sarebbe con 6144 cc e magari le gddr6x della 4070 ti. :rolleyes:

ninja750
31-08-2023, 19:32
Per assurdo, a nvidia basterebbe mettere due cut ulteriori di ad104 per bastonare 7700 xt e 7800 xt. :fagiano:
La prima sarebbe la 4060 super con ad104 ultra cuttato con 5120 cc e 12gb di vram, l'altra sarebbe con 6144 cc e magari le gddr6x della 4070 ti. :rolleyes:

a che pro? passare dal 90% di share al 91% di share? non infieriscano :(

Lo Straniero Misterioso
06-09-2023, 18:52
a che pro? passare dal 90% di share al 91% di share? non infieriscano :(

La maggior parte dei gamer non capisce niente di hardware: ha sempre comprato nvidia e sempre lo farà, anche quando costa di più, anche quando va di meno. O entrambe.

Non è colpa loro: sono ignoranti (in senso buono, non c'è niente di male a non essere esperti di hardware dopotutto) e si fidano di "quelli che se ne intendono".

Che per l'80% sono fanboy.

Ed è tutto merito loro, dei fanboy del mondo intero, se ieri la 980ti modello "rocco siffredi" costava 700 euro ed oggi ci compri a malapena la 4070 liscia della Asus biventola con gli stessi soldi.

Grazie ragazzi. Avete vinto. Avete bastonato la concorrenza e ora nVIDIA è leader indiscusso del mercato. Inutile anche soltanto far paragoni.

L'unica piccola e meschina soddisfazione è pensare che adesso la maggior parte di costoro non se la possono più permettere una scheda di fascia alta. A volte son persino stati costretti a passare alla console (powered by AMD, ironia della sorte!) o a cambiar proprio hobby.

Chi è causa del suo mal, pianga sè stesso.

devil_mcry
06-09-2023, 19:02
La maggior parte dei gamer non capisce niente di hardware: ha sempre comprato nvidia e sempre lo farà, anche quando costa di più, anche quando va di meno. O entrambe.

Non è colpa loro: sono ignoranti (in senso buono, non c'è niente di male a non essere esperti di hardware dopotutto) e si fidano di "quelli che se ne intendono".

Che per l'80% sono fanboy.

Ed è tutto merito loro, dei fanboy del mondo intero, se ieri la 980ti modello "rocco siffredi" costava 700 euro ed oggi ci compri a malapena la 4070 liscia della Asus biventola con gli stessi soldi.

Grazie ragazzi. Avete vinto. Avete bastonato la concorrenza e ora nVIDIA è leader indiscusso del mercato. Inutile anche soltanto far paragoni.

L'unica piccola e meschina soddisfazione è pensare che adesso la maggior parte di costoro non se la possono più permettere una scheda di fascia alta. A volte son persino stati costretti a passare alla console (powered by AMD, ironia della sorte!) o a cambiar proprio hobby.

Chi è causa del suo mal, pianga sè stesso.

ma no, non è tanto quello. secondo me la pandemia ha convinto nvidia che poteva tirare su i prezzi e la mancanza di competitività di amd ha fatto il resto

non mi stupisce tanto che nel momento in cui continuano a definire l'innovazione mettano i prezzi che vogliono, mi sembra fuori dal mondo che amd che ormai è cronicamente indietro dalle 290x faccia la gara del prezzo anche lei

fraussantin
06-09-2023, 20:14
La maggior parte dei gamer non capisce niente di hardware: ha sempre comprato nvidia e sempre lo farà, anche quando costa di più, anche quando va di meno. O entrambe.

Non è colpa loro: sono ignoranti (in senso buono, non c'è niente di male a non essere esperti di hardware dopotutto) e si fidano di "quelli che se ne intendono".

Che per l'80% sono fanboy.

Ed è tutto merito loro, dei fanboy del mondo intero, se ieri la 980ti modello "rocco siffredi" costava 700 euro ed oggi ci compri a malapena la 4070 liscia della Asus biventola con gli stessi soldi.

Grazie ragazzi. Avete vinto. Avete bastonato la concorrenza e ora nVIDIA è leader indiscusso del mercato. Inutile anche soltanto far paragoni.

L'unica piccola e meschina soddisfazione è pensare che adesso la maggior parte di costoro non se la possono più permettere una scheda di fascia alta. A volte son persino stati costretti a passare alla console (powered by AMD, ironia della sorte!) o a cambiar proprio hobby.

Chi è causa del suo mal, pianga sè stesso.Per curiosità e un gamer non ignorante oggi cosa comprerebbe?

Ale55andr0
06-09-2023, 20:27
l'altra sarebbe con 6144 cc e magari le gddr6x della 4070 ti. :rolleyes:

Se non non trovano modo di buttarci 16gb possono darsela sui denti

Per curiosità e un gamer non ignorante oggi cosa comprerebbe?

nulla :O

Ubro92
06-09-2023, 20:55
Per i 16GB dovresti riciclare gli scarti di AD103, praticamente una soluzione analoga alla vecchia 2070s.

Per la 4060ti c'è poco da fare, AD106 è quello, con l'uscita della 7700xt/7800xt sia 4060ti che 4070 si trovano in svantaggio come rapporto prezzo/prestazioni quindi non è impossibile che vengano ritoccati i listini di nvidia e si inizino a vedere 4070 ben sotto i 600€.

L'opzione migliore sarebbe un refresh con chip meglio bilanciati, ma non penso che li vedremo, alla fine con una ritoccatina ai listini già la concorrenza verrebbe tolta di mezzo, e amd a sto giro non è che abbia offerto chissà che grandi opzioni.

Lo Straniero Misterioso
06-09-2023, 22:14
Per curiosità e un gamer non ignorante oggi cosa comprerebbe?Meglio una 3050, una 6600 o una ARC?

Meglio una 6700xt, una 4060 o una Arcazzo LE? :D

Anche la 6800 liscia a 450 euro non è malvagia. Vedremo la 7700xt come se la caverà, ma non mi sembra fuori mercato soprattutto se scende un po'.

Tanto fino a qui non c'è abbastanza ciccia per usare RT o frame generator in maniera significativa (generi troppi pochi frame).



4070 a 700 se proprio non puoi permetterti di meglio, ma non è un buon affare. Meglio arrivare alla 4080 a 1000 euro se la trovi in offerta, ma sono veramente tanti soldi.

Alla fine cmq la 4090 è l'unica scheda che vale il suo prezzo di questa serie, perchè praticamente è next gen. Ma è una cifra veramente alta.

Inviato dal mio SM-S911B utilizzando Tapatalk

Kvarat
07-09-2023, 00:38
Ed è tutto merito loro, dei fanboy del mondo intero, se ieri la 980ti modello "rocco siffredi" costava 700 euro ed oggi ci compri a malapena la 4070 liscia della Asus biventola con gli stessi soldi.


Da quanto tempo non esci di casa per fare la spesa o per andare in farmacia o per recarti da un concessionario? Altro che schede video. Anzi le schede video hanno il lusso di poter essere comprate usate e dare comunque grosse soddisfazioni. Ho provato a comprare un collirio che uso abitualmente ma usato non funziona e nuovo costa +50% in 3 anni.
Tu pensa che sono aumentati in modo pesante addirittura i domini .com! Una cosa assurda :mc:

fraussantin
07-09-2023, 06:49
Meglio una 3050, una 6600 o una ARC?

Meglio una 6700xt, una 4060 o una Arcazzo LE? :D

Anche la 6800 liscia a 450 euro non è malvagia. Vedremo la 7700xt come se la caverà, ma non mi sembra fuori mercato soprattutto se scende un po'.

Tanto fino a qui non c'è abbastanza ciccia per usare RT o frame generator in maniera significativa (generi troppi pochi frame).



4070 a 700 se proprio non puoi permetterti di meglio, ma non è un buon affare. Meglio arrivare alla 4080 a 1000 euro se la trovi in offerta, ma sono veramente tanti soldi.

Alla fine cmq la 4090 è l'unica scheda che vale il suo prezzo di questa serie, perchè praticamente è next gen. Ma è una cifra veramente alta.

Inviato dal mio SM-S911B utilizzando Tapatalk

Il punto è che nessuna scheda vale il suo prezzo , la 4090 è solamente l'unica che non ha compromessi , nvidia lo sa e ha calcato la mano.

L'offerta amd secondo me si ferma alla 7900xt se trovata in sconto , ma di compromessi da accettare ce ne sono parecchi.

Quindi alla fine la situazione è di cacca cmq la si veda , e forse è meglio far finta di essere ignoranti e prendersi quello che la scimmia e il portafoglio ci consiglia di fare.


Questo per dire che sicuramente il marketing e la sensazione di superiorità verde portano i gamer meno esperti a comprare verde , ma anche gli esperti non è che abbiano tutti sti vantaggi e risparmi col rosso.

Ubro92
07-09-2023, 07:30
Nella fascia alta la 7900xtx non é male in quanto in raster va anche qualcosina in più della 4080, mentre in RT siamo ai livelli della 4070ti, però il costo si pone nel mezzo delle due, quindi non é malvagia come opzione.

Stessa cosa si ripropone con la 7700xt che in raster va simile alla 4070 forse anche un pelo in più quando ben sfruttata, ma costa quanto la 4060ti e rispetto quest'ultima anche in RT se la cava meglio.

A livello software Nvidia lavora oggettivamente meglio con le varie tecnologie come DLSS e Frame generator, vedremo con l'FSR3 come si comporterà e se sarà migliorata anche l'accuratezza dell'FSR.

Oggettivamente si sono proprio divise il mercato, non c'è una vera concorrenza, Nvidia la peggior mossa commerciale l'ha fatta con la 4060ti 16gb che poteva allegramente risparmiarsela, se ad106 fosse stato dotato di un bus a 192bit sarebbe stata una proposta decisamente più bilanciata.

Comunque i listini penso saranno sicuramente ritoccati, anche perché gli stock di 6000 e 3000 si stanno riducendo notevolmente.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Ale55andr0
07-09-2023, 07:34
gli stock di 6000 e 3000 si stanno riducendo notevolmente.




C'è qualche dato oggettivo disponibile in merito?

OrazioOC
07-09-2023, 07:52
Comunque i listini penso saranno sicuramente ritoccati, anche perché gli stock di 6000 e 3000 si stanno riducendo notevolmente.

Inviato dal mio M2012K11AG utilizzando Tapatalk

A me non sembra, o meglio è così solo per certe SKU di gen precedente, parlo di navi 21 e GA102.
Però su trovaprezzi vedo qualcosa come 500 risultati per le 3060/TI, 190 risultati per le rtx 3050, 120 risultati per rx 6600 e circa 100 per le 6700(+80 risultati per le 6750).

Purtroppo qui mi toccherebbe dare ragione a quel finto leaker di Moore Law, con quello stock di rdna2 e rtx 3000 di fascia media ci tirano dritti tranquilli per almeno un anno. :rolleyes:

Lan_Di
07-09-2023, 07:58
Da quel che ho capito le rx 6000 le stanno ancora producendo.
Mi pare fosse di qualche settimana fa la notizia che a breve smetteranno di produrre le 6650

Ubro92
07-09-2023, 08:10
A me non sembra, o meglio è così solo per certe SKU di gen precedente, parlo di navi 21 e GA102.

Però su trovaprezzi vedo qualcosa come 500 risultati per le 3060/TI, 190 risultati per le rtx 3050, 120 risultati per rx 6600 e circa 100 per le 6700(+80 risultati per le 6750).



Purtroppo qui mi toccherebbe dare ragione a quel finto leaker di Moore Law, con quello stock di rdna2 e rtx 3000 di fascia media ci tirano dritti tranquilli per almeno un anno. :rolleyes:Devi guardare anche i prezzi, molti store tengono ad ammuffire molti chip senza fare alcuna offerta da mesi.

Sia le 3000 che 6000 sono chip EOL, e diventa sempre più difficile trovarle a prezzi veramente convenienti rispetto le nuove serie, soprattutto se appunto si guardano le 3080/6800.

Quelle in volumi maggiori sono 3060ti/6700xt e sono forse le uniche che effettivamente vale la pena valutare ancora.

La fascia dei 2-300&euro; é quella che ha vagonate di chip tra 3050/2060/3060/4060, la 3050 é proprio quella che resterà ad ammuffire visto che il prezzo medio oscilla sui 220/250&euro; ed é il più scarso tra i sample.

Inviato dal mio M2012K11AG utilizzando Tapatalk

OrazioOC
07-09-2023, 08:11
Da quel che ho capito le rx 6000 le stanno ancora producendo.
Mi pare fosse di qualche settimana fa la notizia che a breve smetteranno di produrre le 6650

Purtroppo è una convivenza forzata a questo giro, eccesso di chip prodotti in epoca di mining ora non trovano occupazione se non negli scaffali.
Peccato che i prezzi non calano manco per sbaglio, per dire una sempreverde 3060 ti(poco più lenta della 4060 ti) costa ancora 360/370 euro spedita, un po' troppi per una gpu in giro da 3 annetti. :rolleyes:

HSH
07-09-2023, 08:21
A me non sembra, o meglio è così solo per certe SKU di gen precedente, parlo di navi 21 e GA102.
Però su trovaprezzi vedo qualcosa come 500 risultati per le 3060/TI, 190 risultati per le rtx 3050, 120 risultati per rx 6600 e circa 100 per le 6700(+80 risultati per le 6750).

Purtroppo qui mi toccherebbe dare ragione a quel finto leaker di Moore Law, con quello stock di rdna2 e rtx 3000 di fascia media ci tirano dritti tranquilli per almeno un anno. :rolleyes:
ora come ora ha ancora senso prendere una 3060ti sui 300€ per il 1440p?

OrazioOC
07-09-2023, 08:24
Devi guardare anche i prezzi, molti store tengono ad ammuffire molti chip senza fare alcuna offerta da mesi.

Sia le 3000 che 6000 sono chip EOL, e diventa sempre più difficile trovarle a prezzi veramente convenienti rispetto le nuove serie, soprattutto se appunto si guardano le 3080/6800.

Quelle in volumi maggiori sono 3060ti/6700xt e sono forse le uniche che effettivamente vale la pena valutare ancora.

La fascia dei 2-300&euro; é quella che ha vagonate di chip tra 3050/2060/3060/4060, la 3050 é proprio quella che resterà ad ammuffire visto che il prezzo medio oscilla sui 220/250&euro; ed é il più scarso tra i sample.

Inviato dal mio M2012K11AG utilizzando Tapatalk
I prezzi fluttuano in media a tanti fattori per una scheda, la provenienza dello store, il brand scelto, la variante di custom scelta, se ci sono versioni di quel chip diverse(es. di 3060 ti ce ne sono due, gddr6 e gddr6x).
Chiaro che quello che vende la 3060 ti a 700 euro nel 2023 merita che gli rimanga l'inserzione a vita, ma sono una decina di casi su quanti risultati?200 e rotti? :rolleyes:
Diciamo che chi volesse una 3060 ti sotto i 400 euro, ne ha veramente l'imbarazzo della scelta a 3 anni dal lancio e con la 4060 ti in giro da qualche mese. :D

Condivido il discorso sulla 3050, però vedo che è quella che quando "va' in offerta" tipo a 220 spedita su amazon(la zotac monoventola) viene comunque acchiappata.
E' più facile vendere quel tipo di schede entry level che non schede più pompate e con un miglior rapporto prezzo/prestazioni.

Comunque è uno dei motivi per cui non vediamo in giro le rtx 4050, le rx 7500 xt, e altre sku tipo 7600 xt o 7700 lisce.
Ci sono già gpu di precedente gen ancora in vendita che possono fornire quelle performance. :rolleyes:

ora come ora ha ancora senso prendere una 3060ti sui 300€ per il 1440p?

A 300 euro o poco più si, ma nuova, se è usata non ne vale più di 250(da possessore della suddetta scheda).
Se è fuori garanzia, farei anche 200, è una gpu che inizia ad avere una certa vita sulle spalle, e di sti tempi le gpu non valgono oro colato come in epoca mining l'anno scorso. :rolleyes:

HSH
07-09-2023, 08:33
I prezzi fluttuano in media a tanti fattori per una scheda, la provenienza dello store, il brand scelto, la variante di custom scelta, se ci sono versioni di quel chip diverse(es. di 3060 ti ce ne sono due, gddr6 e gddr6x).
Chiaro che quello che vende la 3060 ti a 700 euro nel 2023 merita che gli rimanga l'inserzione a vita, ma sono una decina di casi su quanti risultati?200 e rotti? :rolleyes:
Diciamo che chi volesse una 3060 ti sotto i 400 euro, ne ha veramente l'imbarazzo della scelta a 3 anni dal lancio e con la 4060 ti in giro da qualche mese. :D

Condivido il discorso sulla 3050, però vedo che è quella che quando "va' in offerta" tipo a 220 spedita su amazon(la zotac monoventola) viene comunque acchiappata.
E' più facile vendere quel tipo di schede entry level che non schede più pompate e con un miglior rapporto prezzo/prestazioni.

Comunque è uno dei motivi per cui non vediamo in giro le rtx 4050, le rx 7500 xt, e altre sku tipo 7600 xt o 7700 lisce.
Ci sono già gpu di precedente gen ancora in vendita che possono fornire quelle performance. :rolleyes:



A 300 euro o poco più si, ma nuova, se è usata non ne vale più di 250(da possessore della suddetta scheda).
Se è fuori garanzia, farei anche 200, è una gpu che inizia ad avere una certa vita sulle spalle, e di sti tempi le gpu non valgono oro colato come in epoca mining l'anno scorso. :rolleyes:

si nuova, vedo che ce ne sono molte sui 300-330€ spedite.
vorrei fare upgrade della 2060Super senza spendere un botto per una 4070:D

ninja750
07-09-2023, 08:36
Per la 4060ti c'è poco da fare, AD106 è quello, con l'uscita della 7700xt/7800xt sia 4060ti che 4070 si trovano in svantaggio come rapporto prezzo/prestazioni quindi non è impossibile che vengano ritoccati i listini di nvidia e si inizino a vedere 4070 ben sotto i 600€.

se come pare stanno vendendo bene non vedo perchè abbassare il prezzo tanto chi vuole verde (per feature o anche solo per simpatia) non considererà in ogni modo il rosso e aprirà conseguentemente il portafoglio dando 6 pezzi da 100€ a Giacco per una manli biventola, e saranno tutti e due contenti


amd che ormai è cronicamente indietro dalle 290x

nella precedente generazione mi pare che fascia per fascia fossero perfettamente appaiate (6900XT/3090 6800XT/3080 6700XT/3070..)

OrazioOC
07-09-2023, 08:37
si nuova, vedo che ce ne sono molte sui 300-330€ spedite.
vorrei fare upgrade della 2060Super senza spendere un botto per una 4070:D

Non è un upgrade che consiglio dalla 2060 super, piuttosto veramente, ti consiglierei di aspettare le 7700 xt o 7800 xt.
Spendi qualcosa in più ma hai gpu solide a 360 gradi, più vram, più performance raster, più performance in raytracing ecc...
O aspettare un calo di prezzi della 4070(650 euro sono oggettivamente tanti per le performance che mette sul banco). :doh:

HSH
07-09-2023, 08:41
Non è un upgrade che consiglio dalla 2060 super, piuttosto veramente, ti consiglierei di aspettare le 7700 xt o 7800 xt.
Spendi qualcosa in più ma hai gpu solide a 360 gradi, più vram, più performance raster, più performance in raytracing ecc...
O aspettare un calo di prezzi della 4070(650 euro sono oggettivamente tanti per le performance che mette sul banco). :doh:

con AMD ho avuto problemi anni scorsi , gradirei rimanere su nvidia...
4070 è da due mesi che aspetto cali, e invece sembra crescere di prezzo, per quello pensavo di traghettare con una 3060ti per un annetto fino alla prossima gen

Ubro92
07-09-2023, 08:54
La 3060ti ha senso solo sui 300€, oramai le 4060ti 8GB si iniziano a vedere anche sotto i 400€, e altri chip come 3070/3070ti sono totalmente fuori contesto come prezzo/prestazioni sul nuovo.

La maggior parte dei chip EOL già da diversi mesi non subisce modiche sul prezzo e non è strano che stiano li ferme a marcire sugli scaffali.

Anche la 4070 si inizia a vedere qualche soluzione sotto i 600€, e senza delle concrete promozioni non ha molto senso investire sul vecchio.

Nei prossimi mesi vedremo come si stabilizzerà il mercato con l'introduzione delle 7700/7800xt che andranno a sostituire in toto le attuali 6800/6800xt, e dovrebbero contrastare proprio la fascia di prezzo contesa tra 4060ti e 4070, inoltre anche AMD nelle ultime release driver sta dando priorità alle 7000.

HSH
07-09-2023, 09:01
La 3060ti ha senso solo sui 300€, oramai le 4060ti 8GB si iniziano a vedere anche sotto i 400€, e altri chip come 3070/3070ti sono totalmente fuori contesto come prezzo/prestazioni sul nuovo.

La maggior parte dei chip EOL già da diversi mesi non subisce modiche sul prezzo e non è strano che stiano li ferme a marcire sugli scaffali.

Anche la 4070 si inizia a vedere qualche soluzione sotto i 600€, e senza delle concrete promozioni non ha molto senso investire sul vecchio.

Nei prossimi mesi vedremo come si stabilizzerà il mercato con l'introduzione delle 7700/7800xt che andranno a sostituire in toto le attuali 6800/6800xt, e dovrebbero contrastare proprio la fascia di prezzo contesa tra 4060ti e 4070, inoltre anche AMD nelle ultime release driver sta dando priorità alle 7000.

si ma 300 e 600 sono guadacaso il doppio
e non penso che la 4070 abbia il doppio di prestazioni
dici che le nuove 7700-7800xt pèotrebbero ridurre i prezzi della 4070?
vediamo allora come va ad Ottobre.
grazie