PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 [385] 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466

Gigibian
03-02-2023, 09:21
questo lo dici tu, per ovvi motivi :D
anche se io vado sempre di offerte per cui approfitto del momento giusto....certo a 1200 preferirei sempre una 4080, senza pensarci, poi per chi non interessa il rt è diverso

No, io riporto solo dati oggettivi, non sono un fanboy, vado dove il portafoglio mi porta:

https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/performance-per-dollar_3840-2160.png

craesilo
03-02-2023, 09:24
No, io riporto solo dati oggettivi, non sono un fanboy, vado dove il portafoglio mi porta:

https://tpucdn.com/review/amd-radeon-rx-7900-xtx/images/performance-per-dollar_3840-2160.png

non intendevo mica quello, ma il proprio acquisto è visto spesso come il migliore degli altri
tabellina basata su msrp americano, oggettivamente utilissima :D
vedi, loro mettono ultima la 4090 (2400? non era 1600?), che in teoria è la scheda più sensata di tutte
chiudo l'ot, anche perchè non è il topic di bench amd

Gigibian
03-02-2023, 09:27
tabellina basata su msrp americano, oggettivamente utilissima :D
chiudo l'ot, anche perchè non è il topic di bench amd

Beh, il prezzo in italia MSRP è 1140, vs 1439 (es 4080). Oggettivamente sarebbe ancora più conveniente considerando gli MSRP in italia.

Si chiudiamo gli OT :)

shauni86
03-02-2023, 09:29
https://babeltechreviews.com/hellhound-rx-7900-xtx-vs-rtx-4080-50-games-vr/

https://hothardware.com/reviews/nvidia-geforce-rtx-4070-ti-review-with-asus?page=3

Mi servirebbe una nuova vga per la realtà virtuale principalmente, ero orientato sulla 4070ti, se vedete il secondo link sembra che non vada benissimo sulle risoluzioni alte per via del bandwidth bassino, mentre nel secondo link le amd sembra vadano bene (nel primo link invece non sembrano buone)
A chi credere e cosa prendere? E sta 4070ti è buona per la vr o no?

Inviato dal mio M2102J20SG utilizzando Tapatalk

Cutter90
03-02-2023, 09:54
Ah boh, chiedi a lui visto che ha iniziato a fare confronti improponibile tra due schede differenti. Se si vuole divertire fate i test a 1440p, che è la risoluzione del mio monitor, disponibile a fare qualche confronto per divertimento.

Poi per carità, sarà anche macchia di leopardo, ma meglio giocare in 1440p che in stop-motion in 4k :sofico:

La 7900 xtx costa 1300. La 4090 sta a 1800. 500 euro non sono il doppio, intanto.
E poi certo che si devono confrontare. Sono le due top di gamma nvidia e amd? Si. Quindi si confrontano. Poi se 500 per te non valgono la spesa lecito e sacrosanto.
Ma giusto per sottolineare, parliamo di 65 fps in 1440p con la xtx vs 105 fps in 4k della 4090. La differenza è abissale e a parere mio vale molto più di 500 euro.
Parliamo del caso Requiem.

Gigibian
03-02-2023, 10:05
La 7900 xtx costa 1300. La 4090 sta a 1800. 500 euro non sono il doppio, intanto.
E poi certo che si devono confrontare. Sono le due top di gamma nvidia e amd? Si. Quindi si confrontano. Poi se 500 per te non valgono la spesa lecito e sacrosanto.
Ma giusto per sottolineare, parliamo di 65 fps in 1440p con la xtx vs 105 fps in 4k della 4090. La differenza è abissale e a parere mio vale molto più di 500 euro.
Parliamo del caso Requiem.

Falso, su sito AMD costa 1140.
io Ho acquistato la custom XFX a 1199.
Su amazon prime c'era la gigabyte gaming OC a 1164 settimana scorsa.

Boh, secondo me non ha nessun senso paragonare una scheda da 1800 con una da 1100.

Anzi il fatto che in raster in molti giochi hanno FPS simili,è già una gran cosa.

lordsnk
03-02-2023, 10:11
La 7900 xtx costa 1300. La 4090 sta a 1800. 500 euro non sono il doppio, intanto.
E poi certo che si devono confrontare. Sono le due top di gamma nvidia e amd? Si. Quindi si confrontano. Poi se 500 per te non valgono la spesa lecito e sacrosanto.
Ma giusto per sottolineare, parliamo di 65 fps in 1440p con la xtx vs 105 fps in 4k della 4090. La differenza è abissale e a parere mio vale molto più di 500 euro.
Parliamo del caso Requiem.

Paragonare la 4090 con XTX non ha senso.
La 4090 fa parte di un altro pianeta sia come prestazioni che come budget.
Se il punto di riferimento è il budget le schede da confrontare sono XTX vs 4080.
Cmq al momento per entrambe i prezzi sono alti.
Se si ha necessità di comprare un GPU ora è meglio tenere sott'occhio la 4070Ti per prenderla a 810€ come è successo qualche giorno fa da Mediaworld.

Alla fine se non si ha fretta l'opzione migliore è aspettare :D

Cutter90
03-02-2023, 11:22
Falso, su sito AMD costa 1140.
io Ho acquistato la custom XFX a 1199.
Su amazon prime c'era la gigabyte gaming OC a 1164 settimana scorsa.

Boh, secondo me non ha nessun senso paragonare una scheda da 1800 con una da 1100.

Anzi il fatto che in raster in molti giochi hanno FPS simili,è già una gran cosa.

Ha senso paragonarle perchèp se io voglio andare sulla top amd e nvidia queste sono le due schede da guardare. AMD non offre una scheda di pari potenza/prezzo? Ok. Ma restano le due top di gamma. E il confronto è impietoso

parcher
03-02-2023, 11:42
alla fine ho ceduto, 4090 is coming..

https://i.postimg.cc/hvNn39Gt/4090-i-CHILL-x3-card.png (https://postimages.org/)

:sofico::sofico: :sofico:

ninja750
03-02-2023, 11:59
Ma restano le due top di gamma. E il confronto è impietoso

pensa con la top gamma ARC770LE :eek:

Gigibian
03-02-2023, 12:08
Ha senso paragonarle perchèp se io voglio andare sulla top amd e nvidia queste sono le due schede da guardare. AMD non offre una scheda di pari potenza/prezzo? Ok. Ma restano le due top di gamma. E il confronto è impietoso

Scherzi a parte, riesci a fare un test in raster a 1440p tutto a manetta ?
Sono curioso di vedere quanti fps in più fa la 4090 :)

La scena iniziale del gioco, capitolo 1

Cutter90
03-02-2023, 12:19
Scherzi a parte, riesci a fare un test in raster a 1440p tutto a manetta ?
Sono curioso di vedere quanti fps in più fa la 4090 :)

La scena iniziale del gioco, capitolo 1

Ovviamente verrò limitato tanto dalla cpu, ma ci provo appena ho un attimo

Cutter90
03-02-2023, 12:20
Ha senso paragonare solo per i partigiani che vogliono spostare l'acqua verso il proprio mulino. Film già visto.

Non è così, ma tu pensalo pure.

EffeX
03-02-2023, 12:24
pensa con la top gamma ARC770LE :eek:

We, non sminuitemi la Arc AZZ0, che per 370€ con 16 GB di vram il suo sporco lavoro lo fa in 1440p. :ciapet:

lordsnk
03-02-2023, 12:44
We, non sminuitemi la Arc AZZ0, che per 370€ con 16 GB di vram il suo sporco lavoro lo fa in 1440p. :ciapet:

Se dovessero fare il cut price anche alla 770 la situazione diventerebbe molto interessante :D

lordsnk
03-02-2023, 12:46
alla fine ho ceduto, 4090 is coming..

https://i.postimg.cc/hvNn39Gt/4090-i-CHILL-x3-card.png (https://postimages.org/)

:sofico::sofico: :sofico:
Complimenti per l'ottimo acquisto.
Se uno può la 4090 è l'UNICA gpu che ha senso comprare :D

EffeX
03-02-2023, 12:54
Complimenti per l'ottimo acquisto.
Se uno può la 4090 è l'UNICA gpu che ha senso comprare :D

Perfettamente d'accordo, quelle sotto per me, con quei prezzi, sono no sense.

PowerUp
03-02-2023, 12:57
Scherzi a parte, riesci a fare un test in raster a 1440p tutto a manetta ?
Sono curioso di vedere quanti fps in più fa la 4090 :)

La scena iniziale del gioco, capitolo 1

Incuriosito , ho fatto un test veloce a 1440p

RT : 92 Fps nella scena a inizio del tuo video , 90 nella scena finale...fps minimi 78 durante il percorso

RASTER : 120 fps inizio , 130 fine ...fps minimi 103 durante il percorso

Preciso che la scheda è castrata , la tengo al 70% di PL e consuma in gioco meno di 270w siccome è undervoltata e downclockata a 2630Mhz

Gigibian
03-02-2023, 13:04
Incuriosito , ho fatto un test veloce a 1440p

RT : 92 Fps nella scena a inizio del tuo video , 90 nella scena finale...fps minimi 78 durante il percorso

RASTER : 120 fps inizio , 130 fine ...fps minimi 103 durante il percorso

Preciso che la scheda è castrata , la tengo al 70% di PL e consuma in gioco meno di 270w siccome è undervoltata e downclockata a 2630Mhz

In RT 67 vs 92! Che bestia in RT la 4090.

In raster andiamo uguale :D se farai un test con PL sbloccato fammi sapere!

Cmq il fatto che in raster si vada uguale non fa altro che confermare la bontà del mio acquisto :) (ovviamente per le mie esigenze di gaming 1440p)

Gundam1973
03-02-2023, 13:24
Non è così, ma tu pensalo pure.

Se lo dici tu ci fidiamo.

mikael84
03-02-2023, 13:30
We, non sminuitemi la Arc AZZ0, che per 370€ con 16 GB di vram il suo sporco lavoro lo fa in 1440p. :ciapet:

Se Koduri riuscisse ad utilizzare i 5nm poteva vincere sulla fascia medio-bassa.
Considerando che la 4060ti sarà una sorta di 3070/ti da 8gb.
La AMD navi33, sarà una sorta di serie 670(5)0 con 8gb.

Un terzo competitor servirebbe li, visto che nvidia ed AMD a sto giro hanno fatto le peggiori porcate in declassamento.

mikael84
03-02-2023, 13:43
In RT 67 vs 92! Che bestia in RT la 4090.

In raster andiamo uguale :D se farai un test con PL sbloccato fammi sapere!

Cmq il fatto che in raster si vada uguale non fa altro che confermare la bontà del mio acquisto :) (ovviamente per le mie esigenze di gaming 1440p)

Volendo comparare, puoi metterla tu a 2630 e vedere quanto ti esce in rapporto, visto che stai facendo vari test..:)
Tanto anche il tuo clock di 2,9 lo prende anche la 4090.

Cmq anche dai bench medi delle testate, in 1440p, si ha un 60%, sul 4k un 80%.

Uno dei problemi relativi a quel gioco, è l'assenza del FSR, ed abilitando il RT, sei costretto a scendere sotto i 60.

appleroof
03-02-2023, 13:47
Incuriosito , ho fatto un test veloce a 1440p

RT : 92 Fps nella scena a inizio del tuo video , 90 nella scena finale...fps minimi 78 durante il percorso

RASTER : 120 fps inizio , 130 fine ...fps minimi 103 durante il percorso

Preciso che la scheda è castrata , la tengo al 70% di PL e consuma in gioco meno di 270w siccome è undervoltata e downclockata a 2630Mhz

Poi dice di AM5 che durerà anni solo a cambiare la cpu, qua basterà cambiare ali e pompare la 4090 per avere boost :D :D

Cutter90
03-02-2023, 13:52
Se lo dici tu ci fidiamo.

Quando dirò cose inesatte o bugie sarò lieto di ascoltare critiche per rimettermi in gioco, nessun problema.

PowerUp
03-02-2023, 15:38
In RT 67 vs 92! Che bestia in RT la 4090.

In raster andiamo uguale :D se farai un test con PL sbloccato fammi sapere!

Cmq il fatto che in raster si vada uguale non fa altro che confermare la bontà del mio acquisto :) (ovviamente per le mie esigenze di gaming 1440p)
Stasera proveró , ma non mi aspetto sostanziali differenze , siccome la cpu non sta dietro

Gigibian
03-02-2023, 15:46
Stasera proveró , ma non mi aspetto sostanziali differenze , siccome la cpu non sta dietro

basta che vedi la percentuali di utilizzo della GPU: se è intorno al 98+% la CPU gli sta dietro, se è sotto no.

Maury
03-02-2023, 15:57
Se Koduri riuscisse ad utilizzare i 5nm poteva vincere sulla fascia medio-bassa.
Considerando che la 4060ti sarà una sorta di 3070/ti da 8gb.
La AMD navi33, sarà una sorta di serie 670(5)0 con 8gb.

Un terzo competitor servirebbe li, visto che nvidia ed AMD a sto giro hanno fatto le peggiori porcate in declassamento.

Sai che ho rivalutato Koduri ? :D

Smanettando con Arc 770 devo dire che ha tirato fuori un bel pezzo di gpu :)

OrazioOC
03-02-2023, 16:15
Sai che ho rivalutato Koduri ? :D

Smanettando con Arc 770 devo dire che ha tirato fuori un bel pezzo di gpu :)

Too little too late. :)

Ubro92
03-02-2023, 16:25
Too little too late. :)

Considera che intel deve fare un grosso lavoro lato driver, queste arc stanno praticamente spianando la strada ai prossimi chip, non credo che investire risorse su chip più grossi avrebbe portato a grossi margini per intel.

Comunque la A750 ha solo il 13% di ALU in meno della A770 e già ora si trova sui 300€ ed è stato annunciato un ulteriore cut sul prezzo.

Vedremo in futuro come si evolverà, ma un terzo competitor non può che far bene.

EffeX
03-02-2023, 17:03
Considera che intel deve fare un grosso lavoro lato driver, queste arc stanno praticamente spianando la strada ai prossimi chip, non credo che investire risorse su chip più grossi avrebbe portato a grossi margini per intel.

Comunque la A750 ha solo il 13% di ALU in meno della A770 e già ora si trova sui 300€ ed è stato annunciato un ulteriore cut sul prezzo.

Vedremo in futuro come si evolverà, ma un terzo competitor non può che far bene.

OT mode ON
Avendo avuto sia prima la A750 che ora la A770 posso dire con certezza che tra le due nell'uso non si notano sostanziali differenze, a meno di non giocare con l'overlay degli gli fps in vista, ma lo scarto è veramente minino, intorno al 10% al massimo.
È la vram la vera differenza in alcuni giochi.
OT mode OFF

Cutter90
03-02-2023, 17:46
basta che vedi la percentuali di utilizzo della GPU: se è intorno al 98+% la CPU gli sta dietro, se è sotto no.

Fatti i test.... appena ho un attimo li posto. Premetto che li ho fatto nella schermata iniziale senza toccare il controller una volta che ti lasciano i comandi.

Innanzitutto l oc sulla mia scheda mi da guadagnare un 5% di perf. Portando da 2790 a 3030 la frequenza.

PowerUp
03-02-2023, 18:00
basta che vedi la percentuali di utilizzo della GPU: se è intorno al 98+% la CPU gli sta dietro, se è sotto no.

RT :100 fps all'inizio , 80 fps minimi durante il percorso , 100 fps alla fine

RASTER : 130 fps all'inizio , 118 fps minimi durante il percorso , 140 alla fine

Stock , 2730 Mhz , consumo massimo 370w
In ray tracing l'utilizzo della gpu rimane ancorato al 99-100%
In raster l'utilizzo della gpu scende fino al 88% nella seconda metà del percorso

Sapete dirmi se influisce il fatto che stia benchando la versione gamepass? Leggevo in giro che la piattaforma xbox non è l'ideale per le performance dei giochi

amon.akira
03-02-2023, 18:57
4k (66fps) vs 1440p (106fps) a 2835mhz

https://i.ibb.co/Gdg7vMw/Immagine-2023-02-03-195103.jpg (https://ibb.co/Gdg7vMw)

a 4k fa quanto la 7900xtx a 2900mhz nonostante il +125% di pixel

PowerUp
03-02-2023, 19:17
4k (66fps) vs 1440p (106fps) a 2835mhz

https://i.ibb.co/Gdg7vMw/Immagine-2023-02-03-195103.jpg (https://ibb.co/Gdg7vMw)

a 4k fa quanto la 7900xtx a 2900mhz nonostante il +125% di pixel

Poi è assurdo che quei 66 fps col frame generator sulla res nativa si moltiplicano senza perdere qualità...ho provato prima , siccome quando lo giocai in raster non aveva senso usarlo , ma adesso col RT sul mio 21:9 ha il suo perchè ed assurda come tecnologia...sono curioso di sapere quanto aumenta la latenza

Ubro92
03-02-2023, 20:44
Con il reflex dovresti sopperire alla latenza aggiuntiva.
Comunque l'esperienza diretta è sempre la miglior cosa, aldilà del numeretto degli FPS, dovresti vedere se abilitando il DLSS3 noti effettivamente una miglior fluidità.

amon.akira
03-02-2023, 20:55
Con il reflex dovresti sopperire alla latenza aggiuntiva.
Comunque l'esperienza diretta è sempre la miglior cosa, aldilà del numeretto degli FPS, dovresti vedere se abilitando il DLSS3 noti effettivamente una miglior fluidità.

la fluidità è quella dei frame, la latenza la noti nella risposta ai comandi...effetto che sicuramente scema al salire dei frame, nel senso che è meno notabile. (come un triple buffer accentuato)

Ubro92
03-02-2023, 20:58
la fluidità è quella dei frame, la latenza la noti nella risposta ai comandi...effetto che sicuramente scema al salire dei frame, nel senso che è meno notabile. (come un triple buffer accentuato)

Eh ma il punto è quello, devi testare personalmente l'esperienza nel complesso.

Personalmente credo che il DLSS3 dia quella marcia in più quando già si ha un framerate decente di base, se già arranchi per i 50-60fps non so quanti vantaggi porti all'esperienza.

Poi dipende anche dalla tipologia di giochi, giochi estremamente frenetici probabilmente noteresti molto di più la latenza.

amon.akira
03-02-2023, 21:04
Eh ma il punto è quello, devi testare personalmente l'esperienza nel complesso.

Personalmente credo che il DLSS3 dia quella marcia in più quando già si ha un framerate decente di base, se già arranchi per i 50-60fps non so quanti vantaggi porti all'esperienza.

Poi dipende anche dalla tipologia di giochi, giochi estremamente frenetici probabilmente noteresti molto di più la latenza.

ti dirò anche se non lo ho usato, ma solo provato...è accettabile già a 60 (il mio cap), l unico dove mi serviva era portal rtx ma mi stutterava quando attivavo il framegen...poi l hanno patchato e ora va bene...ci farò un altra run con frame gen piu in la...in spiderman e requiem per dire si nota un pochetto nei comandi nel mio caso (60fps)

ovviamente in un multi competitivo sarebbe da scartare a prescindere

Cutter90
03-02-2023, 22:19
basta che vedi la percentuali di utilizzo della GPU: se è intorno al 98+% la CPU gli sta dietro, se è sotto no.

Ecco i risultati dei test, scena iniziale di Plague tale senza muovere il controller. I risultati sono in hdr (1-2 fps di performance perse rispetto all sdr) e con Re bar attivo (2 fps di differenza)
1440p
RASTER 139 fps
RT 110 fps
RT + FRAME GENERATOR 180 fps
2160p
RASTER 80 fps
RT 65 fps
RT + FRAME GENERATOR 105 fps

Risultati ottenuti senza il dlss tutto al max tranne il blur a 0.
Scheda in oc a 3030, 450-470 watt di consumo.
Oc che rispetto allo stock mio mi fa guardare un 5% come detto

Quindi sono 110 fps della 4090 in 1440p in quel punto vs i tuoi 67 della 7900xtx. Io 65 fps li faccio in 4k.
Una differenza incredibile

Gigibian
03-02-2023, 22:43
Ecco i risultati dei test, scena iniziale di Plague tale senza muovere il controller. I risultati sono in hdr (1-2 fps di performance perse rispetto all sdr) e con Re bar attivo (2 fps di differenza)
1440p
RASTER 139 fps
RT 110 fps
RT + FRAME GENERATOR 180 fps
2160p
RASTER 80 fps
RT 65 fps
RT + FRAME GENERATOR 105 fps

Risultati ottenuti senza il dlss tutto al max tranne il blur a 0.
Scheda in oc a 3030, 450-470 watt di consumo.
Oc che rispetto allo stock mio mi fa guardare un 5% come detto

Quindi sono 110 fps della 4090 in 1440p in quel punto vs i tuoi 67 della 7900xtx. Io 65 fps li faccio in 4k.
Una differenza incredibile

In RT fai il doppio quasi! Min*ia :D pero considerando che é un titolone Nvidia tutto normale
Mi accontento di essere passato da 52 (3080) a 68 (7900xtx) fps. Un bel salto in RT !

In raster sto intorno a 122/123 quindi la differenza é davvero trascurabile per me.

Di nuovo contentissimo così per quanto mi riguarda :)

amon.akira
03-02-2023, 22:44
la 4090 prende il 60% di fps in 1440p su requiem, ora sarebbe bello sapere la 7900xtx a 4k quanto fa per capire se il divario aumenta o diminuisce

Gigibian
03-02-2023, 22:49
la 4090 prende il 60% di fps in 1440p su requiem, ora sarebbe bello sapere la 7900xtx a 4k quanto fa per capire se il divario aumenta o diminuisce

Non ho un monitor 4k a disposizione. Posso usare il vsr?

Gigibian
03-02-2023, 22:50
la 4090 prende il 60% di fps in 1440p su requiem, ora sarebbe bello sapere la 7900xtx a 4k quanto fa per capire se il divario aumenta o diminuisce

In RT cmq, perché in raster sei solo il 10% sopra.

amon.akira
03-02-2023, 22:50
Non ho un monitor 4k a disposizione. Posso usare il vsr?

si stessa cosa certo

mikael84
04-02-2023, 00:33
la 4090 prende il 60% di fps in 1440p su requiem, ora sarebbe bello sapere la 7900xtx a 4k quanto fa per capire se il divario aumenta o diminuisce

Alla fine si torna li. +60 1440p, + 80 4k.:)
https://www.hwupgrade.it/articoli/6438/media-rt.png

Cutter90
04-02-2023, 06:37
In RT cmq, perché in raster sei solo il 10% sopra.

Mmm no aspetta. 140 vs 122sono il 15% sopra. Poi magari si, 18 fps in più sopra i 100 possono anche contare il giusto, lo capisco. Onestamente però il raster spero e credo ce ne sarà sempre meno.
E il tutto senza considerare il frame generator. Frame generator che da fps "gratis" senza perdere nulla. Non è come il dlss 2 o l frs 2 che qualche minimo sacrificio lo vedi. Con il dlss 3 non c'è alcuna differenza tra attivarlo o no se non nell aumento massiccio degli fps

amon.akira
04-02-2023, 13:11
Alla fine si torna li. +60 1440p, + 80 4k.:)
https://www.hwupgrade.it/articoli/6438/media-rt.png

quindi un 8900xtx tra 2anni con +80% sulla 7900xtx dovrebbe pareggiare la 4090 :p

Ubro92
04-02-2023, 13:17
quindi un 8900xtx tra 2anni con +80% sulla 7900xtx dovrebbe pareggiare la 4090 :p

Chissà se tra 2 anni la 5070ti non arrivi a 1800€ poichè va come 4090 :sofico:

amon.akira
04-02-2023, 13:24
Chissà se tra 2 anni la 5070ti non arrivi a 1800€ poichè va come 4090 :sofico:

non ce la chiamiamo XD

mikael84
04-02-2023, 15:12
quindi un 8900xtx tra 2anni con +80% sulla 7900xtx dovrebbe pareggiare la 4090 :p

Ma devono veramente lavorarci su per fare un 80%, a meno che la situazione migliori con gli unreal 5.:)
AMD dichiara sempre >+50% perf/watt, e per due anni ha calcolato + 54%. Nel grafico fa +55% in RT 4k.:)
Secondo i primi rumour, dovrebbe implementare 9216/18432 shader (+50%) e clock. Lo stesso potrebbe fare nvidia, con 18 GPC (27648) o 20 (30720).
La 5080 potrebbe fare come Lovelace su AD103, una sorta di shrink di AD102 con 256bit e g7.
AMD magari, lavora seriamente sul RT a sto giro, più che sul raster.

ninja750
04-02-2023, 16:55
Ma devono veramente lavorarci su per fare un 80%

in realtà con la questione mcm sappiamo che non è così ;) la tecnologia per fare un 2x è a portata di mano, devono solo lavorare sui consumi

mikael84
04-02-2023, 17:15
in realtà con la questione mcm sappiamo che non è così ;) la tecnologia per fare un 2x è a portata di mano, devono solo lavorare sui consumi

AMD è monolitica sul die. La differenza nel MCM sta nelle rese, ma vale soprattutto su die molto piccoli, comi i ryzen. Se per un 600mm2, devi usarne 2 da 300 più interposer non ti cambia molto . :)

mikael84
05-02-2023, 16:31
Potrebbero starci come risultati.

Da notare però, che pare il chip full, quello della 4060ti, dovrebbe essere da 4352cc.
https://i.postimg.cc/vBH6tnTC/4060.png

https://wccftech.com/alleged-nvidia-geforce-rtx-ad106-gpu-benchmarks-leak-out-on-par-with-rtx-3070-ti/

Ubro92
07-02-2023, 16:11
Sono uscite le prime review della 4090 mobile, in 150w eguaglia la 3090 desktop :sofico:

Dono89
07-02-2023, 23:20
Sono uscite le prime review della 4090 mobile, in 150w eguaglia la 3090 desktop :sofico:


Peccato i prezzi, perché quello che ha fatto nvidia con ada è qualcosa di pazzesco!

Prestazioni da 3090 su laptop.
Rende quasi inutile il desktop

mikael84
08-02-2023, 00:00
Peccato i prezzi, perché quello che ha fatto TSMC 5nm con ada è qualcosa di pazzesco!

Prestazioni da 3090 su laptop.
Rende quasi inutile il desktop

fix:)

nessuno29
08-02-2023, 11:17
Avete provato hogwarts legacy? Come gira sulle vostre schede da 8 e 10 gb? A me uno schifo, sono vram limited a 1440p :( e col rt faccio 45 fps quando va bene eheh

ninja750
08-02-2023, 11:54
Avete provato hogwarts legacy? Come gira sulle vostre schede da 8 e 10 gb? A me uno schifo, sono vram limited a 1440p :( e col rt faccio 45 fps quando va bene eheh

pare ci siano vistosi drop anche su 3080 10gb

siamo sicuri sia vram saturata e non altro problema?

mikael84
08-02-2023, 12:00
Avete provato hogwarts legacy? Come gira sulle vostre schede da 8 e 10 gb? A me uno schifo, sono vram limited a 1440p :( e col rt faccio 45 fps quando va bene eheh

pare ci siano vistosi drop anche su 3080 10gb

siamo sicuri sia vram saturata e non altro problema?

https://www.youtube.com/watch?v=v-_mmniyBY4&ab_channel=GameBenchmarks

Da 8 minuti in poi, non tiene.

https://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/hogwarts-legacy-test-gpu-cpu

Anche se, sembra decisamente pesante senza un DLSS.

Ubro92
08-02-2023, 12:03
pare ci siano vistosi drop anche su 3080 10gb

siamo sicuri sia vram saturata e non altro problema?

Il gioco è molto scalabile da quello che vedo, ovviamente a seconda dell'HW va scalato.

Con una 3070 non puoi tenere tutto a palla e con RT attivo, i set vanno ottimizzati e sicuramente qualche patch correttiva servirà.

https://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/hogwarts-legacy-test-gpu-cpu

Mobi_82
08-02-2023, 13:07
Sono uscite le prime review della 4090 mobile, in 150w eguaglia la 3090 desktop :sofico:

Più o meno la stessa efficienza e prestazioni di una 4070 Ti desktop in undervolt o power limit al 70% :sofico:

Ubro92
08-02-2023, 14:07
Più o meno la stessa efficienza e prestazioni di una 4070 Ti desktop in undervolt o power limit al 70% :sofico:

Si fondamentalmente è una 4080 undercloccata intorno ai 2-2.1ghz.
Dati i 9728cc se la gioca con 3080ti/3090 con in più il DLSS3.

Sarà interessante vedere la 4060 mobile, con un profilo 75/90w andrebbe come una 3060ti, decisamente non male, soprattutto se finisce nei notebook intorno al millino.

EDIT: visto meglio le specifiche mobile, la 4060 mobile sarà su AD107, quindi 3072cc, dato il clock dovrebbe bene o male giocarsela con una 3060 desktop.
Mentre la 4070 sarà invece su AD106 e quindi effettivamente tallonerà 3060ti/3070.

Vul
08-02-2023, 22:49
Mentre la 4070 sarà invece su AD106 e quindi effettivamente tallonerà 3060ti/3070.

capirai...

Ubro92
08-02-2023, 22:59
capirai...

Parliamo di chip mobile, il salto è marcato rispetto Ampere...
Soprattutto 4060 e 4070 sono chip che finiscono in genere sulle soluzioni da 900-1500€.

devil_mcry
12-02-2023, 12:36
https://tech.everyeye.it/notizie/nvidia-finito-mining-rischio-shortage-ia-come-chatgpt-634474.html

preparatevi :D

mikael84
13-02-2023, 11:39
https://tech.everyeye.it/notizie/nvidia-finito-mining-rischio-shortage-ia-come-chatgpt-634474.html

preparatevi :D

Ormai le GPU di punta, sono quasi a livello delle "tesla" in certi calcoli, salvo FP64, ram, nvlink.:)

eXeS
14-02-2023, 19:20
https://tecit.net/il-ceo-di-nvidia-definisce-chatgpt-come-una-delle-cose-piu-grandi-mai-realizzate-per-linformatica-afferma-che-e-il-momento-iphone-dellia/

Se l'addestramento fosse stato fatto con le GPU del competitor, la penserebbe allo stesso modo ? ;)

Inviato dal mio 21051182G utilizzando Tapatalk

Gello
14-02-2023, 21:05
1 Il competitor non esiste

2 Giacchetta e' sempre stato frai maggiori sostenitori (e ci credo praticamente insieme e' diventato il core business) facendo investimenti di ogni tipo su IA e Deep learning

3 "Se il mi nonno aveva le rote era un caretto"

EffeX
19-02-2023, 17:13
Sembrerebbe che il 21 marzo al GTC presenteranno le RTX 4070 e 4060.

Ale55andr0
20-02-2023, 07:46
https://wccftech.com/gigabyte-geforce-rtx-4070-gpu-listing-shows-16-gb-12-gb-10-gb-variants/


ci hanno fatto penare con la 3070 con 8 fetentissimi gb e ora la 4070 la fanno con più tagli di Edward mani di forbice? :confused:

Ubro92
20-02-2023, 08:25
https://wccftech.com/gigabyte-geforce-rtx-4070-gpu-listing-shows-16-gb-12-gb-10-gb-variants/


ci hanno fatto penare con la 3070 con 8 fetentissimi gb e ora la 4070 la fanno con più tagli di Edward mani di forbice? :confused:

Se è vero non sono varianti consumer ma OEM, fisicamente AD104 è limitato a 192bit, per avere 16gb o subisce un cut sul bus a 128bit e si montano memorie a conchiglia oppure si prende AD103 e si taglia brutalmente.

Comunque vedremo quando usciranno, tra le altre cose si parla anche di 4060 desktop su AD107 giusto per avere il degrado assoluto... come prestazioni se fosse vero non prenderebbe neanche la 3060ti, bene o male si allineerebbe a una 2070s.

Salfox
20-02-2023, 08:41
Se è vero non sono varianti consumer ma OEM, fisicamente AD104 è limitato a 192bit, per avere 16gb o subisce un cut sul bus a 128bit e si montano memorie a conchiglia oppure si prende AD103 e si taglia brutalmente.



Mi chiedevo anch'io la stessa cosa visto che il quantitativo di ram è strettamente connesso al bus utilizzato. Chissà come faranno....

ninja750
20-02-2023, 13:21
Mi chiedevo anch'io la stessa cosa visto che il quantitativo di ram è strettamente connesso al bus utilizzato. Chissà come faranno....

disabilitano via firmware?

Salfox
20-02-2023, 14:30
disabilitano via firmware?

Non avrebbe senso, mettere una risorsa e disabilitarla via software/hardware sarebbe economicamente insostenibile, se davvero ci saranno tutte queste versioni si creerà una nuova 3080 presente in listino con vari bus/memorie.

mikael84
20-02-2023, 15:13
Mi chiedevo anch'io la stessa cosa visto che il quantitativo di ram è strettamente connesso al bus utilizzato. Chissà come faranno....

Non avrebbe senso, mettere una risorsa e disabilitarla via software/hardware sarebbe economicamente insostenibile, se davvero ci saranno tutte queste versioni si creerà una nuova 3080 presente in listino con vari bus/memorie.

Gigabyte ha lanciato sul mercato, proprio delle 3080ti 20gb, con il bus della 3080. Penso inedite sul nostro mercato. L'ha fatto sfruttando il clamshell.

Per creare una x70 da 16, le strade sono 2, ovvero quella di riabilitare i die fallati, che di solito difettano sulla sram, ed utilizzare il clamshell per avere un 128bit a 16gb. Oppure squartare il chip AD103 lato potenza di calcolo. Questo dipenderà dai guasti dei die da salvare.
La seconda ipotesi, sarebbe impensabile vederla nel mercato attuale, in quanto, non avrebbe senso una x70 con un 256bit, l'altra lo stesso, in quanto, si ritroverebbe una ram enorme, ed un bus strozzatissimo per tale sku.
Tutta roba o OEM o per mercati cinesi.

Lo stesso la 4070 da 10gb, non la vedremmo, in quanto per salvare i collegamenti e ottenere i 12gb, gli hanno amputato la cache, da 48mb a 36mb. Con 10gb di ram, si ritroverebbe con 30mb.

OrazioOC
20-02-2023, 17:32
Gigabyte ha lanciato sul mercato, proprio delle 3080ti 20gb, con il bus della 3080. Penso inedite sul nostro mercato. L'ha fatto sfruttando il clamshell.

Per creare una x70 da 16, le strade sono 2, ovvero quella di riabilitare i die fallati, che di solito difettano sulla sram, ed utilizzare il clamshell per avere un 128bit a 16gb. Oppure squartare il chip AD103 lato potenza di calcolo. Questo dipenderà dai guasti dei die da salvare.
La seconda ipotesi, sarebbe impensabile vederla nel mercato attuale, in quanto, non avrebbe senso una x70 con un 256bit, l'altra lo stesso, in quanto, si ritroverebbe una ram enorme, ed un bus strozzatissimo per tale sku.
Tutta roba o OEM o per mercati cinesi.

Lo stesso la 4070 da 10gb, non la vedremmo, in quanto per salvare i collegamenti e ottenere i 12gb, gli hanno amputato la cache, da 48mb a 36mb. Con 10gb di ram, si ritroverebbe con 30mb.

Io da nvidia posso solo aspettarmi il peggio dopo aver visto l'erede naturale della 3080 a 2000 dollari o la nuova 3060 ti a 800.
Non escluderei niente onestamente, come sono esistite due 1060, due 3060, può anche darsi che ci diano due 4070.
Se poi ci arriva veramente una 4060 desktop con AD107 apriti cielo. :doh:

E comunque, in tutto questo, settimana prossima siamo a marzo, e dal versante amd tutto tace.:rolleyes:

mikael84
20-02-2023, 18:51
Io da nvidia posso solo aspettarmi il peggio dopo aver visto l'erede naturale della 3080 a 2000 dollari o la nuova 3060 ti a 800.
Non escluderei niente onestamente, come sono esistite due 1060, due 3060, può anche darsi che ci diano due 4070.
Se poi ci arriva veramente una 4060 desktop con AD107 apriti cielo. :doh:

E comunque, in tutto questo, settimana prossima siamo a marzo, e dal versante amd tutto tace.:rolleyes:

A sto giro se la sono studiata bene lui e lei.
E' la prima volta che una x60 prende il chip 07, che era della 1050ti-1650 liscia- 750/ti.
Se la 4070ti, mantiene le prestazioni, pur essendo un chippetto, qua siamo fuori logica.
Di AMD si parla di nav33 a metà anno, ma non ancora di navi32.

OrazioOC
20-02-2023, 20:03
A sto giro se la sono studiata bene lui e lei.
E' la prima volta che una x60 prende il chip 07, che era della 1050ti-1650 liscia- 750/ti.
Se la 4070ti, mantiene le prestazioni, pur essendo un chippetto, qua siamo fuori logica.
Di AMD si parla di nav33 a metà anno, ma non ancora di navi32.

Infatti è un colpo talmente basso che sarebbe da boicottare, erano chip pensati per notebook di fascia media e desktop entry level, roba da <200 euro, non certo un chip che mi aspetto su una gpu da quasi 400 euro. :rolleyes:
E torno a ripetermi, a chi è utile sta scheda?No perchè con quelle specifiche, è quasi un sidegrade rispetto alla 3060 12gb odierna.:doh:


Di AMD si parla di nav33 a metà anno, ma non ancora di navi32.
Si vede che con le 7900 xt/x sono rimasti scottati, certo che però il chip più sensato della gamma, navi 32(vera risposta a 4070/4060 ti), così tanto distante dal lancio di navi 31 la dice lunga sugli investimenti che stanno facendo di là. :rolleyes:

Kvarat
20-02-2023, 21:38
Si vede che con le 7900 xt/x sono rimasti scottati, certo che però il chip più sensato della gamma, navi 32(vera risposta a 4070/4060 ti), così tanto distante dal lancio di navi 31 la dice lunga sugli investimenti che stanno facendo di là. :rolleyes:

Hanno i magazzini stracolmi di 6600/xt/6650 e compagnia bella. Oltre al fatto che una ipotetica 7600/xt/7650 andrebbe più forte della 6700 praticamente. Vuol dire uccidere metà del mercato nuovo e completamente l'usato.
Ti immagini una 7600 liscia, consumo massimo 100w, costo sui 300 euro, prestazioni da 6700, andare benissimo in FHD e bene in 2K? Non venderebbero più nulla praticamente.

mikael84
20-02-2023, 21:43
Infatti è un colpo talmente basso che sarebbe da boicottare, erano chip pensati per notebook di fascia media e desktop entry level, roba da <200 euro, non certo un chip che mi aspetto su una gpu da quasi 400 euro. :rolleyes:
E torno a ripetermi, a chi è utile sta scheda?No perchè con quelle specifiche, è quasi un sidegrade rispetto alla 3060 12gb odierna.:doh:


Si vede che con le 7900 xt/x sono rimasti scottati, certo che però il chip più sensato della gamma, navi 32(vera risposta a 4070/4060 ti), così tanto distante dal lancio di navi 31 la dice lunga sugli investimenti che stanno facendo di là. :rolleyes:

Sul quasi 400 euro... mah, considerando che è per lui (solo per lui) una x60, e visti gli aumenti per chip, se mette 399$ è buono.:p
Cmq sotto la 4070ti, è tutto un refresh a costi simili, ne più, ne meno. Anzi questa avrà difficoltà a prendere la 3060ti.

Il salto nodo devastante, gli ha permesso l'uso dei chippini, come quello della x80 (di fatto una x70) e della x70ti, ma qua bene o male, le prestazioni ci sono.
Sotto però è molto peggio, con fasce al ribasso. X60 chiamata x70, e x50, chiamato x60.
Chi ha ampere su certe fasce, o cambia fascia, facendo il suo gioco, o aspetta blackwell.

Anche la competizione, a sto giro, è stata più un danno che altro, soprattutto in quelle fasce, visto che la 7600xt, sarà una 6600 RDNA3.

Kvarat
20-02-2023, 22:40
Anche la competizione, a sto giro, è stata più un danno che altro, soprattutto in quelle fasce, visto che la 7600xt, sarà una 6600 RDNA3.

What? Come prestazioni invece?

mikael84
21-02-2023, 00:18
What? Come prestazioni invece?

Internamente la 7600xt sarà una 66/50xt RDNA3 con le gddr6 a 20 gb/s. Quindi a pari clock, soprattutto in RT, dovrebbe superare agevolmente la 6650xt, ma in raster, salvo clock finale, non ci saranno queste gran migliorie.
Infatti la 7900xt vs la 6900xt si distaccano del 9% a pari potenza, ma la 7900, ha un bus a 320bit, banda cache superiore, 1,5 le rop's e 1,5 la geometria.
A pari condizioni, il distacco sarebbe davvero minimo.
La 7600 liscia, sarà la 6600 liscia in salsa RDNA3.:)

Lan_Di
21-02-2023, 06:14
Si è passati dalla 7600 in linea con la 6900, previsione poco realistica, ad essere praticamente alla pari alla 6600 attuale.
Probabilmente scalerà sulla fascia delle 6700.
Bisogna tener conto anche che attualmente il Dual issue è ancora poco sfruttato, da quel che ho letto è richiesto diverso lavoro lato driver e che già in questi mesi i driver hanno dato qualche miglioramento.
È auspicabile che saranno risolti ulteriori problemi al tempo del lancio, previsto tra.... 6 mesi?

mikael84
21-02-2023, 11:33
Si è passati dalla 7600 in linea con la 6900, previsione poco realistica, ad essere praticamente alla pari alla 6600 attuale.
Probabilmente scalerà sulla fascia delle 6700.
Bisogna tener conto anche che attualmente il Dual issue è ancora poco sfruttato, da quel che ho letto è richiesto diverso lavoro lato driver e che già in questi mesi i driver hanno dato qualche miglioramento.
È auspicabile che saranno risolti ulteriori problemi al tempo del lancio, previsto tra.... 6 mesi?

Le aspettative erano ben più alte, in quanto si parlava di doppie ALU, alla RDNA2, non doppie ALU dual issue. Nel dual issue le doppie ALU, sono suddivise in due wave 32, di cui uno specializzato anche in calcoli interi, l'altro solo in FP.
Quindi dalle prime stime, si doveva avere un chip da 4096 shader alla RDNA2.


Come con le GCN si è tornati dipendenti dall'ILP, ed il dual issue dipende dal compilatore, a cui è stato addirittura affiancato uno schedulatore che tramite cicli di clock analizza il dato e verifica la parallelizzazione di 2 istruzioni identiche sui CU.

Al momento su RDNA3, si sta utilizzando il wave64 praticamente, quindi è come se ti trovassi a pilotare 6144 shader o 5376.
Anzi in alcuni giochi, la ricerca delle istruzioni ha procurato più latenze, andando un pelo peggio delle unità native classiche.

La situazione è che, sia per AMD che per nvidia, chi cerca prodotti in fascia bassa, non avrà grosse alternative con queste serie, rispetto alle vecchie.

Ubro92
21-02-2023, 11:48
Aggiungerei che per AMD ci si ritrova anche meno vram, la 7600xt avrà un bus a 128bit rispetto i 192bit di RX 6700xt e anche la cache l3 viene ridotta da 96mb a 32mb.

Scenario simile per 6900xt vs 7700xt, dove lato vram si passa da 16 a 12gb e la cache l3 da 128mb a 48mb.

Quindi non le vedo benissimo poi ci sarà da vedere con l'FSR3 come si comporteranno e se l'aggiunta degli AI Accelerator porta benefici.

Vik94
21-02-2023, 19:19
Hanno i magazzini stracolmi di 6600/xt/6650 e compagnia bella. Oltre al fatto che una ipotetica 7600/xt/7650 andrebbe più forte della 6700 praticamente. Vuol dire uccidere metà del mercato nuovo e completamente l'usato.
Ti immagini una 7600 liscia, consumo massimo 100w, costo sui 300 euro, prestazioni da 6700, andare benissimo in FHD e bene in 2K? Non venderebbero più nulla praticamente.
Ma così non finiscono per uccidere il loro mercato in generale?
A furia di cercare di rifilare prodotti che nessuno vuole non vendono né i vecchi né i nuovi :oink:

ninja750
21-02-2023, 19:22
Non avrebbe senso, mettere una risorsa e disabilitarla via software/hardware sarebbe economicamente insostenibile, se davvero ci saranno tutte queste versioni si creerà una nuova 3080 presente in listino con vari bus/memorie.

ok altri tempi ma quando c'erano le varie 6800 potevi sbloccare (firmware e poi software) pipeline e altro per portarla es come la 6800GT, il chip è sempre stato lo stesso per quelle due (forse pure la LE)

Ubro92
21-02-2023, 21:15
Ma così non finiscono per uccidere il loro mercato in generale?
A furia di cercare di rifilare prodotti che nessuno vuole non vendono né i vecchi né i nuovi :oink:

Infatti personalmente la scimmia è completamente morta...
Chi acquista ora è perchè non ha acquistato prima.

E penso che chi ha già una RX 6000 o RTX 3000 questa gen la salta di sana pianta...

Tra l'altro non vedo neanche titoloni spacca-mascella, il più recente atomic heart che stavo aspettando da tempo ha anche un motore molto ottimizzato:

https://i.postimg.cc/WdGGB4H0/GPU.png (https://postimg.cc/WdGGB4H0) https://i.postimg.cc/94cdCj6K/VRAM.png (https://postimg.cc/94cdCj6K)

Salfox
22-02-2023, 05:58
E penso che chi ha già RTX 3000 questa gen la salta di sana pianta...



Guarda, senza nessun intento polemico lasciami dire che questa frase è completamente priva di senso, sono assolutamente d'accordo che l'attuale generazione Nvidia sia stata prezzata male e troppo in alto e le vendite lo stanno mettendo in risalto ma dire che un appassionato possa saltare questa generazione è un po' azzardato, io per fortuna, avendo lavorato una vita intera posso permettermi di spendere e quindi ho preso la 4090 al day one e ti posso dire che un salto generazionale come c'è stato nel passaggio da 3090 a 4090 non l'ho mai nemmeno lontanamente visto nella mia lunga vita da videogiocatore, forse è vero l'esatto opposto e cioè che chi ha una Lovelace potrà saltare la prossima generazione perchè penso che le prestazioni stratosferiche di una 4090 saranno davvero difficili da superare di molto visto anche il fantastico processo produttivo utilizzato. Pensa che io mi posso permettere di tenere la VGA con il PL bloccato al 50% perchè attualmente non serve assolutamente più di quella potenza per poter maxare tutto. Quindi, ripeto, chi ha la fortuna di poter acquistare ora una 4090 (le altre Lovelace secondo me sono meno convenienti) lo deve fare senza indugio.

Cfranco
22-02-2023, 06:21
Guarda, senza nessun intento polemico lasciami dire che questa frase è completamente priva di senso, sono assolutamente d'accordo che l'attuale generazione Nvidia sia stata prezzata male e troppo in alto e le vendite lo stanno mettendo in risalto ma dire che un appassionato possa saltare questa generazione è un po' azzardato, io per fortuna, avendo lavorato una vita intera posso permettermi di spendere e quindi ho preso la 4090 al day one e ti posso dire che un salto generazionale come c'è stato nel passaggio da 3090 a 4090 non l'ho mai nemmeno lontanamente visto nella mia lunga vita da videogiocatore, forse è vero l'esatto opposto e cioè che chi ha una Lovelace potrà saltare la prossima generazione perchè penso che le prestazioni stratosferiche di una 4090 saranno davvero difficili da superare di molto visto anche il fantastico processo produttivo utilizzato. Pensa che io mi posso permettere di tenere la VGA con il PL bloccato al 50% perchè attualmente non serve assolutamente più di quella potenza per poter maxare tutto. Quindi, ripeto, chi ha la fortuna di poter acquistare ora una 4090 (le altre Lovelace secondo me sono meno convenienti) lo deve fare senza indugio.
Invece secondo me il discorso è perfettamente logico.
La 4090 è una bella bestia, ma il prezzo è solo per pochi, chi ha un budget "normale" non ha alcun incentivo a cambiare una 30x0
Chi ha un budget infinito può sicuramente prendere una 4090 e vivere felice, ma per chi ha dei limiti di spesa le 40x0 hanno le stesse prestazioni delle 30x0 vendute allo stesso prezzo
E per le fasce inferiori le prospettive sono ancora peggiori, le supposte 4060 / 4050 sembra avranno prestazioni ridicole e prezzi spaventosi

Dono89
22-02-2023, 06:47
Guarda, senza nessun intento polemico lasciami dire che questa frase è completamente priva di senso, sono assolutamente d'accordo che l'attuale generazione Nvidia sia stata prezzata male e troppo in alto e le vendite lo stanno mettendo in risalto ma dire che un appassionato possa saltare questa generazione è un po' azzardato, io per fortuna, avendo lavorato una vita intera posso permettermi di spendere e quindi ho preso la 4090 al day one e ti posso dire che un salto generazionale come c'è stato nel passaggio da 3090 a 4090 non l'ho mai nemmeno lontanamente visto nella mia lunga vita da videogiocatore, forse è vero l'esatto opposto e cioè che chi ha una Lovelace potrà saltare la prossima generazione perchè penso che le prestazioni stratosferiche di una 4090 saranno davvero difficili da superare di molto visto anche il fantastico processo produttivo utilizzato. Pensa che io mi posso permettere di tenere la VGA con il PL bloccato al 50% perchè attualmente non serve assolutamente più di quella potenza per poter maxare tutto. Quindi, ripeto, chi ha la fortuna di poter acquistare ora una 4090 (le altre Lovelace secondo me sono meno convenienti) lo deve fare senza indugio.


Esattamente, che "porta ti ha aperto" in gaming la 4090 rispetto una 3080 che costa 1/3?

Giustissimo che l'hai presa ed è una grandissima scheda (in tutti i sensi), ma dire che ha senso e oggi ne valga la pena, no

Salfox
22-02-2023, 06:53
Invece secondo me il discorso è perfettamente logico.

Chi ha un budget infinito può sicuramente prendere una 4090 e vivere felice,

Senza volerlo, credo, hai esattamente ripetuto quello che ho detto io, il salto generazionale tra Ampere e Lovelace è stratosferico e quindi dire che un appassionato può saltare questa generazione senza problemi è falso a mio parere, poi eh, sono d'accordo che non tutti possono permettersela, ma questo è un altro discorso.

Salfox
22-02-2023, 07:02
Esattamente, che "porta ti ha aperto" in gaming la 4090 rispetto una 3080 che costa 1/3?

Giustissimo che l'hai presa ed è una grandissima scheda (in tutti i sensi), ma dire che ha senso e oggi ne valga la pena, no

Guarda, ti elenco solo i quattro giochi che in questo periodo avvio regolarmente e che hanno avuto un salto stratosferico da una scheda all'altra: RDO, Requiem, Dead space remake e Hogwarts Legacy, con la 3080 non ti puoi nemmeno avvicinare a maxarli con la 4090 lo puoi fare e poi la 3080 non costa un terzo ma la metà, io, la mia 3080 FTW3 l'ho venduta a 800 euro ed era usata....

PConly92
22-02-2023, 07:10
Guarda, senza nessun intento polemico lasciami dire che questa frase è completamente priva di senso...

neanche io non voglio creare polemiche ma ti ricordo che non tutti si possono permettere una 4090 (tra case e psu ti partono altri soldi) a 2000+euro. in questa gen sia amd che nvidia hanno ucciso sia la fascia medio-bassa che quella media. chi ha ora una rtx 3060/ti/70 o equivalente amd queste schede non hanno nessun senso. comunque ti sto parlando da semplice metalmeccanico che ha sempre speso non più di 500e a vga.

Salfox
22-02-2023, 07:17
neanche io non voglio creare polemiche ma ti ricordo che non tutti si possono permettere una 4090 (tra case e psu ti partono altri soldi) a 2000+euro.

E questo mi sembra di averlo detto anch'io, il mio discorso era solo per dire che non si può affermare che rimanere con una 3080 è la stessa cosa di avere una 4090, mica ho detto che dovrebbero comprarla tutti. Avevo solo risposto ad un altro utente che aveva detto, se non ho capito male, che anche avendone la possibilità prendere la 4090 non valeva la pena perchè giocare con una 3080 era uguale e solo questo che ho detto che è falso a mio parere, spero di avere chiarito il mio pensiero questa volta.

nessuno29
22-02-2023, 07:36
E questo mi sembra di averlo detto anch'io, il mio discorso era solo per dire che non si può affermare che rimanere con una 3080 è la stessa cosa di avere una 4090, mica ho detto che dovrebbero comprarla tutti. Avevo solo risposto ad un altro utente che aveva detto, se non ho capito male, che anche avendone la possibilità prendere la 4090 non valeva la pena perchè giocare con una 3080 era uguale e solo questo che ho detto che è falso a mio parere, spero di avere chiarito il mio pensiero questa volta.

Non ha detto che è uguale, ha detto che chi ha le 3000 visti i prezzi difficilmente passerà alle 4000 ed è vero.

Chi ha una 3060 non passerà alla 4060 che è già tanto se prende la 3060ti e chissà a che prezzi.

Chi ha una 3070 non passerà ad una 4070 visto che partiranno 800 bombe quando sarà, per avere limiti in 4k andando come una 3080.

Chi ha una 3080\3090 difficilmente spenderà 1k per una 4070ti:muro: 1,5k per una 4080 o 2k per una 4090, tranne quei pochi "appassionati".

Un bellissimo trend per i prossimi anni, speriamo che le trimestrali diano ragione al popolo e non agli appassionati, così magari iniziano a ridurre i margini astronomici che hanno.

Re-voodoo
22-02-2023, 08:01
Non ha detto che è uguale, ha detto che chi ha le 3000 visti i prezzi difficilmente passerà alle 4000 ed è vero.

Chi ha una 3060 non passerà alla 4060 che è già tanto se prende la 3060ti e chissà a che prezzi.

Chi ha una 3070 non passerà ad una 4070 visto che partiranno 800 bombe quando sarà, per avere limiti in 4k andando come una 3080.

Chi ha una 3080\3090 difficilmente spenderà 1k per una 4070ti:muro: 1,5k per una 4080 o 2k per una 4090, tranne quei pochi "appassionati".

Un bellissimo trend per i prossimi anni, speriamo che le trimestrali diano ragione al popolo e non agli appassionati, così magari iniziano a ridurre i margini astronomici che hanno.

avendo avuto 3070, 3080 e 3090 sono passato alla 4090 ma non perchè realmente ne avevo bisogno ma più per scimmia

è vero che costa 2000 euro ma avendo venduto la 3090 trio a 1000 più della metà del prezzo lo ho recuperato e le prestazioni sono incredibili, senza contare che per 2 anni sono apposto se no conoscendomi avrei comprato altre schede inferiori e alla fine cmq la avrei comprata spendendo molto di più

certo non è solo la scheda video che fà il pc, ci vuole anche un bel sistema intorno

in gioco a 3440x1440 ciò che non riuscivo a maxare con la 3090 a 450w con la 4090 lo maxxo con un pl al 40% sui 170w

Salfox
22-02-2023, 08:14
E penso che chi ha già una RX 6000 o RTX 3000 questa gen la salta di sana pianta...


Riporto la frase incriminata dove è scritto molto chiaramente che chi ha già una 3000 può saltare di sana pianta la 4000

Non ha detto che è uguale, ha detto che chi ha le 3000 visti i prezzi difficilmente passerà alle 4000 ed è vero.



Leggi sopra

amon.akira
22-02-2023, 08:25
Chi ha una 3080\3090 difficilmente spenderà 1k per una 4070ti:muro: 1,5k per una 4080 o 2k per una 4090, tranne quei pochi "appassionati".

Un bellissimo trend per i prossimi anni, speriamo che le trimestrali diano ragione al popolo e non agli appassionati, così magari iniziano a ridurre i margini astronomici che hanno.

chi ha una 3090 ha speso se gli è andato bene almeno 1550 quindi è pienamente nel budget delle 4000

Ubro92
22-02-2023, 08:30
Guarda, senza nessun intento polemico lasciami dire che questa frase è completamente priva di senso, sono assolutamente d'accordo che l'attuale generazione Nvidia sia stata prezzata male e troppo in alto e le vendite lo stanno mettendo in risalto ma dire che un appassionato possa saltare questa generazione è un po' azzardato, io per fortuna, avendo lavorato una vita intera posso permettermi di spendere e quindi ho preso la 4090 al day one e ti posso dire che un salto generazionale come c'è stato nel passaggio da 3090 a 4090 non l'ho mai nemmeno lontanamente visto nella mia lunga vita da videogiocatore, forse è vero l'esatto opposto e cioè che chi ha una Lovelace potrà saltare la prossima generazione perchè penso che le prestazioni stratosferiche di una 4090 saranno davvero difficili da superare di molto visto anche il fantastico processo produttivo utilizzato. Pensa che io mi posso permettere di tenere la VGA con il PL bloccato al 50% perchè attualmente non serve assolutamente più di quella potenza per poter maxare tutto. Quindi, ripeto, chi ha la fortuna di poter acquistare ora una 4090 (le altre Lovelace secondo me sono meno convenienti) lo deve fare senza indugio.

Senza intento polemico ma 4080 e 4090 sono le uniche GPU che offrono un target di prestazioni più alto rispetto Ampere e Turing quindi ha molto poco senso tirarle in ballo visto che parlavamo dei chip mid, per altro sono anche gpu con costi non trascurabili la stessa 4080 costa 4-500e in più della precedente 3080, e di certo non potevi prenderti un'equivalente ampere/turing prima.

Già con 4070ti dove la più scrauza parte da 900€ su trovaprezzi, non c'è alcun miglioramento sul performance/price rispetto una 3080ti o 3080 12GB.

Per i chip inferiori è anche peggiore la situazione, a pari costi in sostanza ti ritrovi un margine risicato di prestazioni in più e l'unica concreta aggiunta è il frame generator, da vedere se anche questo aspetto non venga superato con l'FSR3.

Tra le altre cose il recente rumor sulla 4060 stampata su AD107 è la ciliegina che mancava, un chip che nel migliore dei casi andrà come una 2070s e su un chippino che dovrebbe essere destinato alle x50, scelta più che comprensibile sul mobile data la limitazione a 60-115w, ma sul desktop è quasi una presa in giro.

EffeX
22-02-2023, 10:16
ok altri tempi ma quando c'erano le varie 6800 potevi sbloccare (firmware e poi software) pipeline e altro per portarla es come la 6800GT, il chip è sempre stato lo stesso per quelle due (forse pure la LE)

Bei tempi quelli, ti confermo che la LE montava sempre NV40 sbloccabile a 6800 GT con rivatuner. :D

https://i.ibb.co/1G1Fbjm/20220505-204824.jpg (https://ibb.co/QvLyXtK)
https://i.ibb.co/mFpD96V/20220506-214331.jpg (https://ibb.co/LhKkxnX)

Discorso 4090 è vero che propone uno stacco notevole dalla 3090, ma ricordiamoci che le x90 sono le ex Titan, nessuno penso acquistò la RTX Titan solo per giocare, quindi per le x90 prezzo e prestazioni sono giustificati anche dinanzi ad un eventuale utilizzo pro.
Per me le gaming iniziano dalla x80 o x80 Ti.

OrazioOC
22-02-2023, 10:18
Senza intento polemico ma 4080 e 4090 sono le uniche GPU che offrono un target di prestazioni più alto rispetto Ampere e Turing quindi ha molto poco senso tirarle in ballo visto che parlavamo dei chip mid, per altro sono anche gpu con costi non trascurabili la stessa 4080 costa 4-500e in più della precedente 3080, e di certo non potevi prenderti un'equivalente ampere/turing prima.

Già con 4070ti dove la più scrauza parte da 900€ su trovaprezzi, non c'è alcun miglioramento sul performance/price rispetto una 3080ti o 3080 12GB.

Per i chip inferiori è anche peggiore la situazione, a pari costi in sostanza ti ritrovi un margine risicato di prestazioni in più e l'unica concreta aggiunta è il frame generator, da vedere se anche questo aspetto non venga superato con l'FSR3.

Tra le altre cose il recente rumor sulla 4060 stampata su AD107 è la ciliegina che mancava, un chip che nel migliore dei casi andrà come una 2070s e su un chippino che dovrebbe essere destinato alle x50, scelta più che comprensibile sul mobile data la limitazione a 60-115w, ma sul desktop è quasi una presa in giro.

Quoto ogni parola, le sku previste sotto la 4070/ti sono fortemente limitanti come tflops/vram come upgrade rispetto alle 3070/3060 odierne, e il solo dlss3 è un po' misero come incentivo all'upgrade.
Spero si ravvedano un attimo, perchè l'upgrade stile 3090->4090 3080->4080 e 3070 ti->4070 ti è un miraggio se ci mettono certe sku sulle 4070/4060/4050.

Cutter90
22-02-2023, 10:38
ragazzi vi do una notizia forse scioccante: non tutte le gen la gpu va cambiata obbligatoriamente :O

Ale55andr0
22-02-2023, 11:06
Quoto ogni parola, le sku previste sotto la 4070/ti sono fortemente limitanti come tflops/vram come upgrade rispetto alle 3070/3060 odierne, e il solo dlss3 è un po' misero come incentivo all'upgrade.
Spero si ravvedano un attimo, perchè l'upgrade stile 3090->4090 3080->4080 e 3070 ti->4070 ti è un miraggio se ci mettono certe sku sulle 4070/4060/4050.

chi si "deve" (virgoletto perchè ognuno fa il razzo che vuole, ci mancherebbe) ravvedere è chi le schede gliele compra dandogli ragione a prezzarle così, non AMD e Nvidia che fanno benissimo a fare quello che fanno. La 5070 se ci campo voglio vederla a 2000 "perchè tanto va come la 4090 e in più hai il DLSS 4.0" che è lo stesso, imho allucinante, ragionamento che sto vedendo per la 4070ti rispetto la fu 3090...

OrazioOC
22-02-2023, 11:31
chi si "deve" (virgoletto perchè ognuno fa il razzo che vuole, ci mancherebbe) ravvedere è chi le schede gliele compra dandogli ragione a prezzarle così, non AMD e Nvidia che fanno benissimo a fare quello che fanno. La 5070 se ci campo voglio vederla a 2000 "perchè tanto va come la 4090 e in più hai il DLSS 4.0" che è lo stesso, imho allucinante, ragionamento che sto vedendo per la 4070ti rispetto la fu 3090...

Puoi anche non dargli i soldi, ma il problema di fondo è che se non prendi una nvidia vai da amd, e viceversa, ed entrambe offrono soluzioni quasi speculari.
Alternative non ce ne sono ad oggi(intel non la cito nemmeno, presentarsi a fine 2022 con una simil 3060 è la riprova che Koduri dove lo metti sta male).

In un certo senso, mi ricorda molto la situazione intel/amd prima dei ryzen.:rolleyes:

Ale55andr0
22-02-2023, 11:36
Puoi anche non dargli i soldi, ma il problema di fondo è che se non prendi una nvidia vai da amd, e viceversa, ed entrambe offrono soluzioni quasi speculari.
Alternative non ce ne sono ad oggi(intel non la cito nemmeno, presentarsi a fine 2022 con una simil 3060 è la riprova che Koduri dove lo metti sta male).

In un certo senso, mi ricorda molto la situazione intel/amd prima dei ryzen.:rolleyes:

no, io intendo che non dai i soldi a nessuno e basta, ti tieni la tua

Salfox
22-02-2023, 12:13
Ragazzi, mi dispiace che un mio post sia stato completamente travisato, io ho solo risposto ad un utente che affermava che non valeva la pena, per le sue prestazioni, passare da Ampere a Lovelace ed ho detto che a mio parere il salto generazionale che si è avuto tra la 3090 e la 4090 è stato epocale e non ha precedenti nella storia delle moderne VGA. Non ho mai inteso commentare i prezzi delle VGA che, lo preciso, anche a mio parere sono esagerati per tutte le schede sotto la 4090.
La 4090 invece essendo un prodotto premium ha il giusto prezzo perchè, ad esempio, io ho pagato la 4090 più o meno quanto pagai la 3090 due anni prima, sono le altre ad essere uscite fuori strada e su questo sono pienamente d'accordo.

Andy1111
22-02-2023, 12:16
https://www.notebookcheck.net/Lousy-RTX-4080-sales-allegedly-prompting-Nvidia-to-constrict-RTX-4090-stock-to-push-people-towards-the-US-1-200-offering.696049.0.html

Lousy RTX 4080 sales allegedly prompting Nvidia to constrict RTX 4090 stock to push people towards the US$1,200 offering

EffeX
22-02-2023, 12:21
Puoi anche non dargli i soldi, ma il problema di fondo è che se non prendi una nvidia vai da amd, e viceversa, ed entrambe offrono soluzioni quasi speculari.
Alternative non ce ne sono ad oggi(intel non la cito nemmeno, presentarsi a fine 2022 con una simil 3060 è la riprova che Koduri dove lo metti sta male).

In un certo senso, mi ricorda molto la situazione intel/amd prima dei ryzen.:rolleyes:

Posso garantirti che la ARC A770 per 370€ fa il suo sporco lavoro, ed è più vicina alla 3070 che alla 3060, ha ancora alcuni problemi lato driver, ma un passo alla volta lì stanno sistemando senza contare i 16 GB che manco la 4070 Ti ha per via del bus costando 850 carte.
La 3060 a 350 euro nuova non l'ho ancora vista, tantomeno la 3070....
Io questo giro ho preferito dare i soldi a Koduri piuttosto che finanziare giacchetta e Lisa... son scelte.

amon.akira
22-02-2023, 15:10
Ragazzi, mi dispiace che un mio post sia stato completamente travisato, io ho solo risposto ad un utente che affermava che non valeva la pena, per le sue prestazioni, passare da Ampere a Lovelace ed ho detto che a mio parere il salto generazionale che si è avuto tra la 3090 e la 4090 è stato epocale e non ha precedenti nella storia delle moderne VGA. Non ho mai inteso commentare i prezzi delle VGA che, lo preciso, anche a mio parere sono esagerati per tutte le schede sotto la 4090.
La 4090 invece essendo un prodotto premium ha il giusto prezzo perchè, ad esempio, io ho pagato la 4090 più o meno quanto pagai la 3090 due anni prima, sono le altre ad essere uscite fuori strada e su questo sono pienamente d'accordo.

be dai anche la 4090 aka 4080ti è un po overpriced...la 3090 la pagai 1550, msrp costa 100dollari in piu però da noi sono 400euro in piu

Salfox
22-02-2023, 15:33
be dai anche la 4090 aka 4080ti è un po overpriced...la 3090 la pagai 1550, msrp costa 100dollari in piu però da noi sono 400euro in piu

Però sono passati due anni e poi c'è stata anche la debolezza dell'euro. La 4090 è per chi vuole il massimo e ci sta che costi tanto. Quella che è completamente sbagliata è la scala dei prezzi delle schede cosiddette "normali" dalla 4080 in giù che dovevano stare tutte sotto la soglia dei 1100/1200 euro, ma questo del resto è confermato dalle scarse vendite di queste Lovelace che a mio parere a breve porteranno a un drastico calo dei prezzi e nel lungo termine a prezzare correttamente la prossima generazione di VGA

mtofa
22-02-2023, 15:48
Posso garantirti che la ARC A770 per 370€ fa il suo sporco lavoro, ed è più vicina alla 3070 che alla 3060, ha ancora alcuni problemi lato driver, ma un passo alla volta lì stanno sistemando senza contare i 16 GB che manco la 4070 Ti ha per via del bus costando 850 carte.
La 3060 a 350 euro nuova non l'ho ancora vista, tantomeno la 3070....
Io questo giro ho preferito dare i soldi a Koduri piuttosto che finanziare giacchetta e Lisa... son scelte.

E hai fatto bene, di questo passo queste schede arriveranno a costare quanto un automobile...

Maury
22-02-2023, 15:55
Posso garantirti che la ARC A770 per 370€ fa il suo sporco lavoro, ed è più vicina alla 3070 che alla 3060, ha ancora alcuni problemi lato driver, ma un passo alla volta lì stanno sistemando senza contare i 16 GB che manco la 4070 Ti ha per via del bus costando 850 carte.
La 3060 a 350 euro nuova non l'ho ancora vista, tantomeno la 3070....
Io questo giro ho preferito dare i soldi a Koduri piuttosto che finanziare giacchetta e Lisa... son scelte.

Quoto, la Arc 770 non va solo bene, va benissimo (e migliora di driver in driver), per quello che da costa pure poco. :)

E parlo da possessore, insieme alla 3070...

mikael84
22-02-2023, 15:59
A me questa serie, ricorda molto kepler, dove anche li ci fu un salto epocale per die, ma la differenza è stata il frazionamento, e non subito 780ti post 580.

La 680 prese il posto della 580 in prezzi, era un chippetto con una differenza in ALU simile a quella tra AD103 vs AD102, rispetto a GK110.
Anche rispetto alla concorrenza:
4080-7900xtx
680-7970xt.

Dopo Titan base ieri, 4090 oggi, senza concorrenza, da sole.

La 780, uscita dopo, aveva un -20% di cuda rispetto al chip full.
In un contesto simile, sarebbe 14848 cuda vs AD102 full, che dovrebbe essere l'ipotetica 4080ti (di nome, in realtà la 4090 e la 4080ti).

Quoto, la Arc 770 non va solo bene, va benissimo (e migliora di driver in driver), per quello che da costa pure poco. :)

E parlo da possessore, insieme alla 3070...

Si vende a margine molto basso. Ha un die un pelo più grande della 3070ti, ma il die costa quasi il 70% in più, e ci ha messo pure 16gb di ram.
Una 4080 per dire, non è molto più cara della ARC da produrre.

devil_mcry
22-02-2023, 16:20
Le ARC A770 al momento sono un po' come erano le VGA basate su Kyro 2 tantissimo tempo fa, un pelino meglio perché senza nessun minus hardware

Speriamo in un futuro diverso :D

mikael84
22-02-2023, 16:42
Le ARC A770 al momento sono un po' come erano le VGA basate su Kyro 2 tantissimo tempo fa, un pelino meglio perché senza nessun minus hardware

Speriamo in un futuro diverso :D

:p

Il problema di koduri, è rappresentato dai nodi, dovrebbe debuttare con le integrate battlemage a fine 2024 con i 3nm su arrow, il chip dedicato, chissà se rientra per tale anno.
Cmq, bene o male si allineerà a nvidia e AMD, considerando che anche loro debutteranno nel 2025 con le mid.

Maury
22-02-2023, 17:29
Si vende a margine molto basso. Ha un die un pelo più grande della 3070ti, ma il die costa quasi il 70% in più, e ci ha messo pure 16gb di ram.
Una 4080 per dire, non è molto più cara della ARC da produrre.

Mi sa che il margine è praticamente inesistente, tra dimensione maggiore e numero di transistor ( più della 3070ti ) c'è poco da tenersi in tasca al prezzo di vendita attuale, considerando anche il doppio della ram. Potenzialmente la sua fascia è proprio la media nVidia Ampere.

mikael84
22-02-2023, 19:11
Mi sa che il margine è praticamente inesistente, tra dimensione maggiore e numero di transistor ( più della 3070ti ) c'è poco da tenersi in tasca al prezzo di vendita attuale, considerando anche il doppio della ram. Potenzialmente la sua fascia è proprio la media nVidia Ampere.

La Arc, rimane simile in die, ma abbastanza superiore a transistor in quanto stampata sul 6nm EUV di TSMC. La densità passa da 44 a 54mt x mm2 circa.
La 3070ti fatta sui 6nm sarebbe un chip da 325mm2 circa con clock, nella peggiore delle ipotesi di 2,4.

Chiaro però, che se JHH avesse avuto slot sui 6nm, quella 3070ti, diventava 3080.:p

Nvidia a pari nanometria, è troppo complessa da raggiungere per transistor, anche AMD è distante.

Se paragoniamo un arc alla 6800 AMD, scorporata, sarebbe 446mm2 e 23000mtransistor.
Ecco, la situazione di paragone:
6800 scorporata: 23mt 7nmP
arc 770: 21,7mt 6nm euv.
3070ti: 17,4mt 10nm (3° gen) samsung.
6700xt: 17,1mt 7nmP

Maury
23-02-2023, 09:13
La Arc, rimane simile in die, ma abbastanza superiore a transistor in quanto stampata sul 6nm EUV di TSMC. La densità passa da 44 a 54mt x mm2 circa.
La 3070ti fatta sui 6nm sarebbe un chip da 325mm2 circa con clock, nella peggiore delle ipotesi di 2,4.

Chiaro però, che se JHH avesse avuto slot sui 6nm, quella 3070ti, diventava 3080.:p

Nvidia a pari nanometria, è troppo complessa da raggiungere per transistor, anche AMD è distante.

Se paragoniamo un arc alla 6800 AMD, scorporata, sarebbe 446mm2 e 23000mtransistor.
Ecco, la situazione di paragone:
6800 scorporata: 23mt 7nmP
arc 770: 21,7mt 6nm euv.
3070ti: 17,4mt 10nm (3° gen) samsung.
6700xt: 17,1mt 7nmP

Alla fine Arc A770 è un bel mattoncino, da vedere cosa sarà la versione + in arrivo quest'anno. :)

Il PP alla fine è ottimo, perchè sotto carico e con clock di 2650 mhz non va oltre i 180/190 w assorbiti.

mikael84
23-02-2023, 11:51
Il 6nm EUV, non è molto distante dal 5nm liscio. Solo le versioni HP, e derivate, nx sono abbastanza superiori.
La vera differenza tra i 2 sta nella densità, quindi a pari circuito, è molto meglio stamparlo nel PP superiore, in quanto si va a migliorare drasticamente le rese ed in parte le performance.
Ad esempio, per stampare AD102 su un 6nm, dovresti utilizzare due die da oltre 600mm2.:)

devil_mcry
23-02-2023, 18:35
quello che secondo me intel dovrebbe fare e spingere la comunicazione a fare più test

manca una vera copertura mediatica sui driver, li stanno facendo lavori incredibili e la 770 ormai è davvero diventata una 3070 come prestazioni medie a 1440p il problema è che le recensioni sono ferme al lancio

amd e nvidia sono abbastanza stabili nei driver ma Intel è tutta crescita e una copertura informariva adeguata migliorerebbe la concorrenza

gixio58
23-02-2023, 19:04
quello che secondo me intel dovrebbe fare e spingere la comunicazione a fare più test

manca una vera copertura mediatica sui driver, li stanno facendo lavori incredibili e la 770 ormai è davvero diventata una 3070 come prestazioni medie a 1440p il problema è che le recensioni sono ferme al lancio

amd e nvidia sono abbastanza stabili nei driver ma Intel è tutta crescita e una copertura informariva adeguata migliorerebbe la concorrenza

sei sicuro di quel che dici? a giudicare da questi test condotti 3 settimane fa non prende nemmeno una 3060 TI

nuovi driver certo apporteranno miglioramenti, ma non mi aspetto miracoli

https://www.youtube.com/watch?v=V3A2672bLrY

EffeX
23-02-2023, 19:32
sei sicuro di quel che dici? a giudicare da questi test condotti 3 settimane fa non prende nemmeno una 3060 TI

nuovi driver certo apporteranno miglioramenti, ma non mi aspetto miracoli

https://www.youtube.com/watch?v=V3A2672bLrY

In Need for Speed Unbound si è passati da 50 fps con le vecchie release a 100 fps con le ultime ad esempio in 1440p, ovvio che c'è ancora una marea di lavoro da fare lato driver, se continuano così però son sulla buona strada. :)

devil_mcry
23-02-2023, 20:01
al d1 la situazione era questa

https://tpucdn.com/review/intel-arc-a770/images/relative-performance_2560-1440.png

ma all'epoca molti giochi avevano problemi pure a funzionare, ad ogni release dei driver salgono di un 10%

con uno degli ultimi sulla 750 si ha avuto incrementi pazzeschi sui giochi vecchi e molto sostenuti sui nuovi

https://cdn.arstechnica.net/wp-content/uploads/2023/02/Arc-Q1-2023-05-scaled.jpeg

però pure quei driver ormai sono vecchi

il problema è che cmq siti di rilievo tipo techpower up o anandtech, non danno copertura continua ai driver e diventa difficile andare oltre a ipotesi e speculazioni, infine dipende dal paniere di giochi presi nel video ne ha provati tipo 3 magari su quei 3 effettivamente è cambiato poco

Ubro92
23-02-2023, 20:51
Con Hoguarts Legacy addirittura la A770 prende la 3080

https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/performance-rt-2560-1440.png

Inviato dal mio M2012K11AG utilizzando Tapatalk

fraussantin
23-02-2023, 20:54
Con Hoguarts Legacy addirittura la A770 prende la 3080

https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/performance-rt-2560-1440.png

Inviato dal mio M2012K11AG utilizzando TapatalkMa in rt faccio tipo il triplo di quegli fps , poi lo tengo spento perche stuttera e non è niente di chè


Ps ah visto ora è senza dlss.


Rt low? Cioè?

Ubro92
23-02-2023, 21:04
Era giusto per dire che l'architettura in sè non è malvagia.

HL per il RT ha il set che passa da Ultra a Low, e bene o male tra i due estremi c'è un 40% di prestazioni di differenza, facendo due conti effettivamente si allinea alla 3070 che è comunque un bel risultato per una gpu che puoi portarti a casa con 380€, a mio parere la più interessante da testare è forse la A750 sui 280€.

mikael84
23-02-2023, 21:05
Con Hoguarts Legacy addirittura la A770 prende la 3080



Inviato dal mio M2012K11AG utilizzando Tapatalk

Ma in rt faccio tipo il triplo di quegli fps , poi lo tengo spento perche stuttera e non è niente di chè


Ps ah visto ora è senza dlss.


Rt low? Cioè?

Non è corretto quel test.
Meglio guardare altre review, che dicono tutto l'opposto.;)

https://www.youtube.com/watch?v=qxpqJIO_9gQ&t=625s&ab_channel=HardwareUnboxed

Ubro92
23-02-2023, 21:17
Eh bisogna anche vedere con quale release hanno fatto i test, al day one mi pare ci fossero diversi problemi.

Comunque stavo vedendo dei test tra il gioco originale e quello che bypassa il denuvo ed è assurdo il salto prestazionale...

https://www.youtube.com/watch?v=W_4GwL8zN8A

Ora che è stato bucato forse con le prossime patch renderanno il sistema antipirateria meno avido di risorse.

bagnino89
23-02-2023, 21:30
Denuvo è una piaga da estirpare.

Inviato dal mio Pixel 6 utilizzando Tapatalk

mikael84
23-02-2023, 21:47
Eh bisogna anche vedere con quale release hanno fatto i test, al day one mi pare ci fossero diversi problemi.

Comunque stavo vedendo dei test tra il gioco originale e quello che bypassa il denuvo ed è assurdo il salto prestazionale...

https://www.youtube.com/watch?v=W_4GwL8zN8A

Ora che è stato bucato forse con le prossime patch renderanno il sistema antipirateria meno avido di risorse.

Anche se è stato provato in casi limiti, la differenza è eclatante. Uccide i PC di fascia bassa. A catena ne risentono anche quelli superiori ovviamente.

devil_mcry
23-02-2023, 21:54
il 7700 nemmeno K però è davvero una cpu che oggi è iper obsoleta...

denuvo cmq di certo non è leggero ma provare un gioco di oggi su una cpu che di fatto è un refresh di una del 2015...

Ubro92
23-02-2023, 22:04
il 7700 nemmeno K però è davvero una cpu che oggi è iper obsoleta...

denuvo cmq di certo non è leggero ma provare un gioco di oggi su una cpu che di fatto è un refresh di una del 2015...

Con una 1060 il sistema è più che bilanciato, e rientra anche nei requisiti del gioco che addirittura riportano un 6600 e una 960 come minimi.

Senza contare che dovrebbe girare anche su steam deck che ha un APU con 4c/8t e architettura zen 2.

mikael84
23-02-2023, 22:08
il 7700 nemmeno K però è davvero una cpu che oggi è iper obsoleta...

denuvo cmq di certo non è leggero ma provare un gioco di oggi su una cpu che di fatto è un refresh di una del 2015...

Si chiaro che è una CPU vecchia e obsoleta, ma chi ha una GPU di quei livelli, difficilmente, ha un 13600k almeno. Quindi la sua configurazione è fortemente limitata.

Il 7700, per dire tiene testa, ed in certi casi, batte pure i ryzen serie 1000 e 2000.
https://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/hogwarts-legacy-test-old-gpu-cpu

Se noti sono in tantissimi con queste CPU.:)

Ubro92
23-02-2023, 22:21
I ryzen serie 1000/2000 hanno ipc e latenze comparabili ai sandy e ivy.

Ho avuto modo di provare la 3060ti con un ryzen 2600 liscio di un amico e non cambiava quasi nulla come fps medi e minimi, si palesavano le medesime strozzature del batusto 3930K (cpu di fine 2011 XD) e con utilizzo gpu che calava sotto l'85% in alcuni engine come quello di Kena ma anche sul timespy.

Diciamo che i ryzen il salto grosso lo fecero con i 3000.

Comunque un 7700 liscio non ha grossi problemi a tenere su una configurazione con 2070/3060, inizi a notare deficit dalla 2070s in su.

devil_mcry
23-02-2023, 22:24
Si chiaro che è una CPU vecchia e obsoleta, ma chi ha una GPU di quei livelli, difficilmente, ha un 13600k almeno. Quindi la sua configurazione è fortemente limitata.

Il 7700, per dire tiene testa, ed in certi casi, batte pure i ryzen serie 1000 e 2000.
https://gamegpu.com/rpg/%D1%80%D0%BE%D0%BB%D0%B5%D0%B2%D1%8B%D0%B5/hogwarts-legacy-test-old-gpu-cpu

Se noti sono in tantissimi con queste CPU.:)

dici con i ryzen 1000-2000 o con i 7700? comunque si sicuramente non ha un 13600k

Kvarat
23-02-2023, 22:53
Che avete da dire sul 7700? :O :O
Io ho un pc grande poco più di una mano con 7700 e A2000. Qualcosa di mostruoso per il rapporto consumi prestazioni. :D

appleroof
24-02-2023, 08:03
Quoto, da possessore posso confermare che il 7700 è davvero una gran cpu :ciapet:

bagnino89
24-02-2023, 08:26
Quoto, da possessore posso confermare che il 7700 è davvero una gran cpu :ciapet:Mi sa che non parlano della stessa CPU :asd:

Inviato dal mio Pixel 6 utilizzando Tapatalk

appleroof
24-02-2023, 09:07
Mi sa che non parlano della stessa CPU :asd:

Inviato dal mio Pixel 6 utilizzando Tapatalk

dici? :D

mikael84
24-02-2023, 11:30
dici con i ryzen 1000-2000 o con i 7700? comunque si sicuramente non ha un 13600k

Chiaro che è l'intel. Il ryzen 7700 gli asfalta quei 2, mi pare chiaro.:p
Cmq chiudo OT sulle CPU.:)

devil_mcry
24-02-2023, 11:50
Chiaro che è l'intel. Il ryzen 7700 gli asfalta quei 2, mi pare chiaro.:p
Cmq chiudo OT sulle CPU.:)

si intendevo l'intel

manco più ci pensavo che c'erano i ryzen 7700 ahhaha

Salfox
10-03-2023, 19:01
Questa (https://www.guru3d.com/news-story/nvidia-has-removed-the-founders-edition-rtx-30-series-graphics-cards-from-its-online-shop.html) non l'ho proprio capita, ma non avevano i magazzini pieni di Ampere? Boh

StylezZz`
10-03-2023, 19:16
Questa (https://www.guru3d.com/news-story/nvidia-has-removed-the-founders-edition-rtx-30-series-graphics-cards-from-its-online-shop.html) non l'ho proprio capita, ma non avevano i magazzini pieni di Ampere? Boh

Infatti ci sono ancora tantissime custom da smaltire, la notizia fa riferimento alle founders.

kiwivda
16-03-2023, 11:01
Della serie 500 ci sono notizie?
a parte queste:

https://www.extremetech.com/gaming/nvidia-might-switch-to-gddr7-vram-for-rtx-50-series-gpus

mikael84
16-03-2023, 11:40
Della serie 500 ci sono notizie?
a parte queste:

https://www.extremetech.com/gaming/nvidia-might-switch-to-gddr7-vram-for-rtx-50-series-gpus

Tutto tace ancora.
Per le ram, nvidia ha l'accordo con micron, probabilmente quello sarà il nuovo standard di entrambe.:)

igiolo
21-03-2023, 14:39
prova

edit
ho scritto perchè il forum mi dava errata indicazione delle pagine totali

nessuno29
21-03-2023, 14:43
E' tornato up, giusto in tempo per festeggiare l'abominio che saranno le 4060 le 4070 e le sorelle sceme le 4070 msrp:muro:

mikael84
21-03-2023, 15:07
A proposito di 4070, pare che ci saranno custom con 8pin. Beh sarebbe anche giusto per un chippino simile.
https://wccftech.com/custom-nvidia-geforce-rtx-4070-graphics-card-leak-confirms-8-pin-connector-variant/

Questa è la prima volta che nvidia scende sotto 1/3 delle ALU rispetto alla x60 liscia.
960-GM102: 1024-3072 (1/3)
1060-GP102: 1280-3840 (1-3)
1660ti-TU102: 1536-4608 (1/3)
3060-GA102: 3584-10752 (1/3).
4070-AD102: 5888-18432 (1/3 sarebbe a 6144)

Vul
22-03-2023, 10:07
A proposito di 4070, pare che ci saranno custom con 8pin. Beh sarebbe anche giusto per un chippino simile.
https://wccftech.com/custom-nvidia-geforce-rtx-4070-graphics-card-leak-confirms-8-pin-connector-variant/

Questa è la prima volta che nvidia scende sotto 1/3 delle ALU rispetto alla x60 liscia.
960-GM102: 1024-3072 (1/3)
1060-GP102: 1280-3840 (1-3)
1660ti-TU102: 1536-4608 (1/3)
3060-GA102: 3584-10752 (1/3).
4070-AD102: 5888-18432 (1/3 sarebbe a 6144)

E la gente si offendeva quando dicevo che l'allora 4080 "light", poi rinominata 4070ti era a tutti gli effetti una 4060, al piu 4060ti. Da 1000 euro :stordita:

Kvarat
22-03-2023, 11:00
A proposito di 4070, pare che ci saranno custom con 8pin. Beh sarebbe anche giusto per un chippino simile.
https://wccftech.com/custom-nvidia-geforce-rtx-4070-graphics-card-leak-confirms-8-pin-connector-variant/

Questa è la prima volta che nvidia scende sotto 1/3 delle ALU rispetto alla x60 liscia.
960-GM102: 1024-3072 (1/3)
1060-GP102: 1280-3840 (1-3)
1660ti-TU102: 1536-4608 (1/3)
3060-GA102: 3584-10752 (1/3).
4070-AD102: 5888-18432 (1/3 sarebbe a 6144)

Se pensi che io ho una quadro (la A2000) senza pin da 70W che va forte quasi come una 3060 in gioco, direi che Nvidia ha tutti i mezzi per fare benissimo in fascia bassa e media ma non ha interessi economici nel farlo. Qual è stata l'ultima scheda in formato ITX senza connettore? Possibile che non ci sia un mercato per schede dal basso consumo, dimensioni ridotte e potenza per un FHD? Sono l'unico al mondo? :sofico:

HSH
22-03-2023, 11:27
dai che devo cambiare sk video, quando escono le nuove? :D

mikael84
22-03-2023, 15:56
E la gente si offendeva quando dicevo che l'allora 4080 "light", poi rinominata 4070ti era a tutti gli effetti una 4060, al piu 4060ti. Da 1000 euro :stordita:

Grazie al salto nodo devastante, ha adattato tutti i chip minori a quelli di fascia più alta. La 4060 liscia su AD107 è una barzelletta.
Diciamo che la 4070ti, ha l'intelaiatura da x60, però bene o male mantiene le performance di una X70ti classica, ovvero prende il top chip scorso. Sotto è peggio, in quanto nonostante il nodo, è riuscito a fare peggio di quando il nodo non lo cambiava.

Se pensi che io ho una quadro (la A2000) senza pin da 70W che va forte quasi come una 3060 in gioco, direi che Nvidia ha tutti i mezzi per fare benissimo in fascia bassa e media ma non ha interessi economici nel farlo. Qual è stata l'ultima scheda in formato ITX senza connettore? Possibile che non ci sia un mercato per schede dal basso consumo, dimensioni ridotte e potenza per un FHD? Sono l'unico al mondo? :sofico:

Mi pare la 1650 liscia. Con l'aumento dei consumi e dei chip spremuti, sono sempre più difficili quelle soluzioni. Senza pin, bisogna vedere che tira fuori con la serie 4050, che dovrebbe basarsi sul cut di AD107. Non è stato comunicato un eventuale AD108. Volendo ovviamente giocando con i clock, si potrebbe realizzare facilmente, ma non credo lo facciano, anzi, spremeranno il possibile.:)

dai che devo cambiare sk video, quando escono le nuove? :D

Tra 21 giorni esce la 4070 liscia. La serie x60 in estate se va bene.

bagnino89
22-03-2023, 16:04
Tra 21 giorni esce la 4070 liscia. La serie x60 in estate se va bene.

Grande hype per questa scheda da parte degli appassionati.

Inviato dal mio Pixel 6 utilizzando Tapatalk

mikael84
22-03-2023, 16:28
Grande hype per questa scheda da parte degli appassionati.

Inviato dal mio Pixel 6 utilizzando Tapatalk

Questa serie è come se fosse già morta con la 4090 e la 4080 (se vogliamo farla passare come sostituta della 3080ti), tutto il resto è un'aggiornamento in consumi e DLSS3.
Se AMD tira fuori il FSR3 free, è proprio la fine (ma ad AMD delle GPU ormai importa 0).

HSH
22-03-2023, 16:32
Questa serie è come se fosse già morta con la 4090 e la 4080 (se vogliamo farla passare come sostituta della 3080ti), tutto il resto è un'aggiornamento in consumi e DLSS3.
Se AMD tira fuori il FSR3 free, è proprio la fine (ma ad AMD delle GPU ormai importa 0).

almeno farà abbassare i costi delle serie 3 o almeno si spera, che è quelle che voglio prendere io e molti altri

bagnino89
22-03-2023, 16:49
Questa serie è come se fosse già morta con la 4090 e la 4080 (se vogliamo farla passare come sostituta della 3080ti), tutto il resto è un'aggiornamento in consumi e DLSS3.

Se AMD tira fuori il FSR3 free, è proprio la fine (ma ad AMD delle GPU ormai importa 0).Sono abbastanza sicuro che quando amd tirerà fuori il fsr 3.0, Giacchetta renderà disponibile il dlss 3.0 anche per ampere.

Inviato dal mio Pixel 6 utilizzando Tapatalk

OrazioOC
22-03-2023, 18:51
Questa serie è come se fosse già morta con la 4090 e la 4080 (se vogliamo farla passare come sostituta della 3080ti), tutto il resto è un'aggiornamento in consumi e DLSS3.
Se AMD tira fuori il FSR3 free, è proprio la fine (ma ad AMD delle GPU ormai importa 0).

Quoto su tutta la linea, la serie 4000 viene sponsorizzata in modo troppo pretenzioso dalle performance nei titoli con il dlss3, ma per rapporto prezzo/prestazioni in raster rispetto alle ampere non sta aggiungendo nulla.:rolleyes:

Su amd stendiamo un velo pietoso, lanci le 7900 xt/x e dopo 4 mesi ancora buio totale sulla lineup? Almeno nvidia ha una scaletta e piano piano porterà ada a sostituire completamente ampere. :rolleyes:

fraussantin
22-03-2023, 19:04
Se AMD tira fuori il FSR3 free, è proprio la fine (ma ad AMD delle GPU ormai importa 0).

Se poi lo tira fuori compatibile con le 3000 ,TOP proprio :asd:

Cmq ormai la.scimmia si è totalmente spenta.

Al di la del prezzo non c'è un prodotto che mi faccia venire la voglia di cambiare scheda.

Ps la 4090 è troppo esagerata , e la 80 pure .

Ubro92
22-03-2023, 21:24
Questa serie è come se fosse già morta con la 4090 e la 4080 (se vogliamo farla passare come sostituta della 3080ti), tutto il resto è un'aggiornamento in consumi e DLSS3.
Se AMD tira fuori il FSR3 free, è proprio la fine (ma ad AMD delle GPU ormai importa 0).

Oggettivamente è una generazione che non ha portato miglioramenti come prezzo prestazioni, tralasciando 4080 e 4090, il resto dei chip si allinea, anzi la 4060 per come l'hanno tagliata andrebbe anche meno di una 3060ti.

Pure la 4070 prossima all'arrivo, dubito la si troverà a meno di 700€, quindi si va ad allineare alla vecchia 3080...

Gli unici pro a pari costi sono i consumi e il dlss3, ma è decisamente poca roba, se uno voleva quel target di prezzo/prestazioni non stava li ad attendere una nuova generazione.

mikael84
22-03-2023, 22:01
Il punto forte è proprio il DLSS3, ad esempio, l'11 dovrebbe uscire la patch di cyber in PT, che guarda caso, debutterà 2 giorni prima della 4070, e JHH avrà già pronte le slide 2/3x la 3070.:p
I giochi DLSS3 cominciano ad essere abbastanza, e li una 4070 farà la differenza sulle 3080.
Questa per me è una vera mancanza, che spero si possa bypassare, o con FSR3 o con abilitazione di JHH o con qualche mod.

Lato prezzi, io rimango sulla mia, 599$ e 700 circa la FE da noi. Sicuramente ci saranno le versioni manli e simili a TDP abbassato ed 8pin di connettore.

Sotto di questa, il nulla, chiunque voglia upgradare, è il minimo. Le x60 neppure le considero, hanno intelaiatura da x50, meglio andare di usato.

Ubro92
22-03-2023, 22:41
Si il frame generator è l'unico vero pro che mantiene in piedi questa gen.

Se l'FSR3 sarà compatibile anche con le 2000/3000 di Nvidia praticamente si annulla qualsiasi vantaggio della nuova gen sulla precedente a pari target di prestazioni.

Inoltre con alcuni giochi che supportavano il DLSS e non l'FSR sono stati rilasciati dei mod che andavano a sostituire l'uno con l'altro quindi anche se per qualche strano motivo dovessero presentarti titoli che supportino il DLSS3 ma non l'FSR3 non credo che i modders staranno a guardare XD

mikael84
23-03-2023, 02:10
Si il frame generator è l'unico vero pro che mantiene in piedi questa gen.

Se l'FSR3 sarà compatibile anche con le 2000/3000 di Nvidia praticamente si annulla qualsiasi vantaggio della nuova gen sulla precedente a pari target di prestazioni.

Inoltre con alcuni giochi che supportavano il DLSS e non l'FSR sono stati rilasciati dei mod che andavano a sostituire l'uno con l'altro quindi anche se per qualche strano motivo dovessero presentarti titoli che supportino il DLSS3 ma non l'FSR3 non credo che i modders staranno a guardare XD

Diciamo che Lovelace oltre al DLSS3, mette una prima pietra al path tracing, anche grazie al SER. Fondamentalmente è li che Lovelace fa i veri guadagni, con un primo approccio dignitoso lato PT. Anche se è un'implementazione troppo esosa, la microarchitettura AD, avrà dei vantaggi man mano che aumenteranno le implementazioni. SER più DLSS3, in questo campo saranno 2 vantaggi.
Con Blackwell, si punterà sempre più massivamente al path tracing, e sarà sicuramente un vero salto per chi salterà questa gen.
Si spera di vedere implementata anche la quadrupla densità con le g7.

I costi, ovviamente saranno sempre più elevati con il wafer a 20k, ed in proporzione die più grandi.

fraussantin
23-03-2023, 03:56
I giochi DLSS3 cominciano ad essere abbastanza, e li una 4070 farà la differenza sulle 3080.

.

Il dlss3 sicuramente fa la differenza ma da solo è poco per convincermi a sganciare dei soldi anche se non troppi .

Il resto è un passettino , 12 giga sono meglio di 10 , ma di poco , x la prossima gen sicuramente sarà da ricambiare, o cmq avrà gli stessi limiti di 10 oggi , le rimanenti prestazioni sono li , poco migliori forse rt e dlss , se non peggiori in raster ( voglio vedere i bench)


È anche vero che fra 1 anno e mezzo la 3080 non varrà più molto , e la spesa sarà meno ammortizzata ma boh non ho proprio lo stimolo verso questa gen .




I costi, ovviamente saranno sempre più elevati con il wafer a 20k, ed in proporzione die più grandi.


Sicuramente i costi di produzione andranno a salire , e ci si somma l'inflazione che galoppa e in 2 anni è capace di portare un 15% di aumento solo quella , però adesso ci stanno marginando bene , specialmente sulle piccole . Non penso che una 5070 potra costare molto di più rispetto a questa.
Rischiano veramente di stallare il mercato piu di quanto non stia ristagnando adesso.

ultimate trip
23-03-2023, 07:39
....

Con Blackwell, si punterà sempre più massivamente al path tracing, e sarà sicuramente un vero salto per chi salterà questa gen.
Si spera di vedere implementata anche la quadrupla densità con le g7.

I costi, ovviamente saranno sempre più elevati con il wafer a 20k, ed in proporzione die più grandi.

posto che jensen ci sorprende sempre, secondo te quindi con le 5000 sarà uno scenario simile alle 4000? cioè 5090 top performer e una 5080 poco meglio della 4090?

Ubro92
23-03-2023, 07:50
posto che jensen ci sorprende sempre, secondo te quindi con le 5000 sarà uno scenario simile alle 4000? cioè 5090 top performer e una 5080 poco meglio della 4090?Appoggiandosi al nodo non é possibile, a meno di creare die molto grossi in stile Turing.

Questa gen é andata proprio di lusso a Jensen...
Da vedere però le stime di vendita a fine anno, perché in apparenza non mi sembra ci sia molto movimento lato upgrade.


Inviato dal mio M2012K11AG utilizzando Tapatalk

kiwivda
23-03-2023, 08:13
Appoggiandosi al nodo non é possibile, a meno di creare die molto grossi in stile Turing.

Questa gen é andata proprio di lusso a Jensen...
Da vedere però le stime di vendita a fine anno, perché in apparenza non mi sembra ci sia molto movimento lato upgrade.


Inviato dal mio M2012K11AG utilizzando Tapatalk

No, ma visto il flusso incontrollato di Ampere, dalla 3070ti in giù, che si sta riversando nell'usato direi che il buon JHH ha attuato il suo piano alla perfezione. Il parco GPU si sta aggiornando e pian piano lui potrà nuovamente alzare l'asticella, non a caso siamo a ridosso della 4070 ed il mercato dell'usato sta scoppiando di GPU (basta vedere il mercatino degli ultimi 10 giorni).

Dalla serie 5000 non so che aspettarmi, è tutto da vedere con l'implementazione del Path Tracing, se veramente la 4090 avrà pochi problemi a reggere il 4k, il bisogno di una eventuale 5090 è ridotto all'osso e visto il distacco su qualsiasi altra cosa potrebbero tardare la presentazione delle nuove e mettere in dispensa un altro bel po' di R&D, da sbattere poi in faccia alla concorrenza non appena questa comincerà ad affacciarsi alle prestazioni dell'attuale top di gamma verde.
Resto comunque scettico su una cosa, ovvero che una eventuale 5080 possa surclassare l'attuale 4090. Io fossi il buon JHH preparerei in canna una 5080 calibrata a filo della 4090 con giusto quelle 2 o 3 features in più che le permetteranno con il tempo di rendere un 5-10% in più ma ad un prezzo diciamo di 2/3. (vedi 3070 e 2080Ti, ancora oggi esattamente 2 schede identiche)

Così facendo otterrebbe un nuovo innalzamento dell'asticella dei prezzi;
Un'ottima percezione del valore da parte di chi ha preso una ammiraglia e non la vede completamente deturpata, e sarà invogliato a ripetere l'acquisto;
La possibilità di piazzare la 5090 dove gli pare sia come fascia che come prezzo;
Il tempo di far fuori tutti gli scarti di wafer delle Ada con serie super/ti/ecc...

Non male come piano eh?!
Considerato poi che del raster puro si può tranquillamente decretare la morte alla data del 11/04/2023 in concomitanza con la fine dello sviluppo di Cyberpunk 2077, direi che la strada segnata ormai è chiara.
E per metterla giù con parole sue: " We are in the iPhone moment of GPU".
Ed ho detto tutto.
Preparate i portafogli e speriamo in una bella bull run!

ultimate trip
23-03-2023, 09:43
Appoggiandosi al nodo non é possibile, a meno di creare die molto grossi in stile Turing.

Questa gen é andata proprio di lusso a Jensen...



Inviato dal mio M2012K11AG utilizzando Tapatalk



........
Resto comunque scettico su una cosa, ovvero che una eventuale 5080 possa surclassare l'attuale 4090. Io fossi il buon JHH preparerei in canna una 5080 calibrata a filo della 4090 con giusto quelle 2 o 3 features in più che le permetteranno con il tempo di rendere un 5-10% in più ma ad un prezzo diciamo di 2/3. (vedi 3070 e 2080Ti, ancora oggi esattamente 2 schede identiche)

Così facendo otterrebbe un nuovo innalzamento dell'asticella dei prezzi...


forse con le 5000 sarà una gen dove sarà la 80 che rivaleggerà con la 90 della gen precedente e non più le 70. da verificare effettivamente le vendite, i prezzi attuali delle 3000 sul nuovo sono fuori mercato e c'è tanto usato in giro, le 3080 vedendo i prezzi delle aste chiuse su ebay nell'ultimo trimestre stanno tra i 500 e i 600€ e sono in discesa

kiwivda
23-03-2023, 09:55
forse con le 5000 sarà una gen dove sarà la 80 che rivaleggerà con la 90 della gen precedente e non più le 70. da verificare effettivamente le vendite, i prezzi attuali delle 3000 sul nuovo sono fuori mercato e c'è tanto usato in giro, le 3080 vedendo i prezzi delle aste chiuse su ebay nell'ultimo trimestre stanno tra i 500 e i 600€ e sono in discesa

Esatto che poi ristabilirebbe lo status quo. Dove la nuova gen rivaleggiava con la vecchia una categoria sotto.

StylezZz`
23-03-2023, 10:53
Resto comunque scettico su una cosa, ovvero che una eventuale 5080 possa surclassare l'attuale 4090. Io fossi il buon JHH preparerei in canna una 5080 calibrata a filo della 4090 con giusto quelle 2 o 3 features in più che le permetteranno con il tempo di rendere un 5-10% in più ma ad un prezzo diciamo di 2/3. (vedi 3070 e 2080Ti, ancora oggi esattamente 2 schede identiche)

Così facendo otterrebbe un nuovo innalzamento dell'asticella dei prezzi;
Un'ottima percezione del valore da parte di chi ha preso una ammiraglia e non la vede completamente deturpata, e sarà invogliato a ripetere l'acquisto;

Ti piacerebbe non vedere la 4090 svalutata eh? :D

Non mi pare che i possessori delle vecchie top di gamma abbiano perso la voglia di acquistare...anzi, io vedo gli enthusiast sempre più disposti a comprare, e il buon giacchetta questo lo sa, vedrai che troverà comunque un modo per farvi sganciare i dindini alla prossima gen.

ultimate trip
23-03-2023, 11:09
Vero la scimmia c'è sempre però come per questa gen chi ha da una 3080 in su può cavarsela in 4k anche la prossima se hai una 4090 direi che puoi stare più che tranquillo

appleroof
23-03-2023, 11:25
Possedendo una 2080ti ho paradossalmente più scelta di upgrade che nn di sidegrade rispetto a chi ha una serie 3000, il problema rimangono i prezzi fuori controllo, anche volendo puntare ad una 4070ti figuriamoci una 4080 (che per me che sto a qhd sarebbe già sovrabbondante)

A sto punto mi sa che aspetterò o un calo di prezzi corposo o addirittura la serie 5000 (a quel punto potrei "accontentarmi" di una fascia media a parità di monitor, che tanto verosimilmente sarà cmq un bel balzo rispetto alla 2080ti)

Magistercris
23-03-2023, 11:37
Vero la scimmia c'è sempre però come per questa gen chi ha da una 3080 in su può cavarsela in 4k anche la prossima se hai una 4090 direi che puoi stare più che tranquillo

Penso che chi possiede una 4090 abbia anche una scimmia incorporata notevole :)
Ad esempio io l'ho presa oltre che per giocare, anche per il gusto di provare il prodotto top di gamma, che nel caso aveva anche diverse caratteristiche innovative.
La cosa più importante è anche la svalutazione, all'uscita della 5090, molti cecheranno di vendere la 4090, e con circa 1000 euro in più si faranno la nuova.
Così ho fatto io con la 3800, venduta a 700 10 giorni dopo l'uscita della 4090 (acquistata a 812, bucio di culo...), con 1229 presi la Phantom :D

mikael84
23-03-2023, 12:19
Il dlss3 sicuramente fa la differenza ma da solo è poco per convincermi a sganciare dei soldi anche se non troppi .

Il resto è un passettino , 12 giga sono meglio di 10 , ma di poco , x la prossima gen sicuramente sarà da ricambiare, o cmq avrà gli stessi limiti di 10 oggi , le rimanenti prestazioni sono li , poco migliori forse rt e dlss , se non peggiori in raster ( voglio vedere i bench)


È anche vero che fra 1 anno e mezzo la 3080 non varrà più molto , e la spesa sarà meno ammortizzata ma boh non ho proprio lo stimolo verso questa gen .



Sicuramente i costi di produzione andranno a salire , e ci si somma l'inflazione che galoppa e in 2 anni è capace di portare un 15% di aumento solo quella , però adesso ci stanno marginando bene , specialmente sulle piccole . Non penso che una 5070 potra costare molto di più rispetto a questa.
Rischiano veramente di stallare il mercato piu di quanto non stia ristagnando adesso.

Il problema è che tu, come me, non dovresti guardare la 4070, ma la 4080, o al massimo la 4070ti se ci rimetti poco. Chiaro che la 4070 per noi è poca cosa, se non il DLSS3, che magari in qualche modo riusciremmo ad avere.

Diciamo che, come tutti, dovrebbero scalare di fascia e prezzi a sto giro. Da blackwell sarà diverso, già dalla fascia x70.:)

posto che jensen ci sorprende sempre, secondo te quindi con le 5000 sarà uno scenario simile alle 4000? cioè 5090 top performer e una 5080 poco meglio della 4090?

Si, anche se a sto giro, la differenza di nodo è marginale, non certo abissale come da samsung 10 a 5 di tsmc.
Bisogna vedere, se a sto giro rivedrà la microarchitettura a livello generale, o se attuerà una sorta di 1:1, ma con lavoro tutto incentrato su RT e tensor di 5° gen.

La 5080 probabilmente verrà calibrata in base a RDNA4, che solitamente promette un +54%, anche se a sto giro, l'ha mantenuto solo via RT.:)



Dalla serie 5000 non so che aspettarmi, è tutto da vedere con l'implementazione del Path Tracing, se veramente la 4090 avrà pochi problemi a reggere il 4k, il bisogno di una eventuale 5090 è ridotto all'osso e visto il distacco su qualsiasi altra cosa potrebbero tardare la presentazione delle nuove e mettere in dispensa un altro bel po' di R&D, da sbattere poi in faccia alla concorrenza non appena questa comincerà ad affacciarsi alle prestazioni dell'attuale top di gamma verde.
Resto comunque scettico su una cosa, ovvero che una eventuale 5080 possa surclassare l'attuale 4090. Io fossi il buon JHH preparerei in canna una 5080 calibrata a filo della 4090 con giusto quelle 2 o 3 features in più che le permetteranno con il tempo di rendere un 5-10% in più ma ad un prezzo diciamo di 2/3. (vedi 3070 e 2080Ti, ancora oggi esattamente 2 schede identiche)

Così facendo otterrebbe un nuovo innalzamento dell'asticella dei prezzi;
Un'ottima percezione del valore da parte di chi ha preso una ammiraglia e non la vede completamente deturpata, e sarà invogliato a ripetere l'acquisto;
La possibilità di piazzare la 5090 dove gli pare sia come fascia che come prezzo;
Il tempo di far fuori tutti gli scarti di wafer delle Ada con serie super/ti/ecc...



Surclassare no, non credo, però con i 3nm può facilmente superarla, magari lato RT PT, eventuale DLSS4 con i nuovi tensor blackwell HPC.
Ad esempio, la 4090ti potrebbe essere riprodotta in circa 380mm2, e con i 3nm, anche il clock medio salirebbe.
Penso che la 5080 come detto su, si allinei a RDNA4, con i suoi +50 medi.

La 5090 invece potrebbe essere un chip da 27-30k cuda.:)

mikael84
23-03-2023, 12:24
Possedendo una 2080ti ho paradossalmente più scelta di upgrade che nn di sidegrade rispetto a chi ha una serie 3000, il problema rimangono i prezzi fuori controllo, anche volendo puntare ad una 4070ti figuriamoci una 4080 (che per me che sto a qhd sarebbe già sovrabbondante)

A sto punto mi sa che aspetterò o un calo di prezzi corposo o addirittura la serie 5000 (a quel punto potrei "accontentarmi" di una fascia media a parità di monitor, che tanto verosimilmente sarà cmq un bel balzo rispetto alla 2080ti)

Tu Apple devi far finta di avere una 3070, per certi aspetti migliore lato ram e spesso qualcosina meglio anche in RT. Un balzo verso la 4070 sarebbe interessante lato RT, considerando anche il DLSS3 (anche se questo aumenta l'input non è solo un numerino). Un buon upgrade sarebbe la 4070ti.

Aspettando blackwell invece, sicuramente avremmo una 5070 like 4080 in potenza pura mediamente.

appleroof
23-03-2023, 12:34
Tu Apple devi far finta di avere una 3070, per certi aspetti migliore lato ram e spesso qualcosina meglio anche in RT. Un balzo verso la 4070 sarebbe interessante lato RT, considerando anche il DLSS3 (anche se questo aumenta l'input non è solo un numerino). Un buon upgrade sarebbe la 4070ti.

Aspettando blackwell invece, sicuramente avremmo una 5070 like 4080 in potenza pura mediamente.

Si Mike, stesse mie considerazioni, ma alla fine la 4070 mi attirerebbe solo per un discorso consumi (la 2080ti occata mi supera bellamente i 300w in game) che ultimamente forse per colpa dell'età :D sono un po' la mia fissa... Ma non mi esalta

Altro vantaggio sarebbe monetizzare qualcosa di più vendendo adesso la 2080ti rispetto ad aspettare la serie 5000, ed usare la 4070 come "ponte"... Ma non so

La 4070ti la vedo troppo costosa attualmente

Una ipotetica 5070 con prestazioni da 4080 per me sarebbe l'ideale, ma tocca aspettare molto

Insomma ho vari scenari, vediamo :D

mikael84
23-03-2023, 13:21
Si Mike, stesse mie considerazioni, ma alla fine la 4070 mi attirerebbe solo per un discorso consumi (la 2080ti occata mi supera bellamente i 300w in game) che ultimamente forse per colpa dell'età :D sono un po' la mia fissa... Ma non mi esalta

Altro vantaggio sarebbe monetizzare qualcosa di più vendendo adesso la 2080ti rispetto ad aspettare la serie 5000, ed usare la 4070 come "ponte"... Ma non so

La 4070ti la vedo troppo costosa attualmente

Una ipotetica 5070 con prestazioni da 4080 per me sarebbe l'ideale, ma tocca aspettare molto

Insomma ho vari scenari, vediamo :D

Della 4070 ci dovrebbero essere 2 modelli, una tagliuzzata in clock per l'8pin, quindi TDP a 220max ed una con cavo a 16pin con TDP più elevato.
La scheda nel suo complesso è valida, se non guardiamo tutto il resto. Lato RT, la tua se la beve, considerando anche il DLSS3.

Da vedere però i costi, io credo 599, con 700 euro da noi per la FE, ma ancora non è sicuro.
Perf mediamente da 3080.:)

appleroof
23-03-2023, 13:38
Della 4070 ci dovrebbero essere 2 modelli, una tagliuzzata in clock per l'8pin, quindi TDP a 220max ed una con cavo a 16pin con TDP più elevato.
La scheda nel suo complesso è valida, se non guardiamo tutto il resto. Lato RT, la tua se la beve, considerando anche il DLSS3.

Da vedere però i costi, io credo 599, con 700 euro da noi per la FE, ma ancora non è sicuro.
Perf mediamente da 3080.:)

Si ho letto la questione pin di alimentazione

700 euro? Troppi :D :D

mikael84
23-03-2023, 13:49
Si ho letto la questione pin di alimentazione

700 euro? Troppi :D :D

Beh, è tutto li il problema di questa serie, non le schede in se.:p

appleroof
23-03-2023, 14:01
Beh, è tutto li il problema di questa serie, non le schede in se.:p

;)

mikael84
24-03-2023, 16:43
Il dlss3 sicuramente fa la differenza ma da solo è poco per convincermi a sganciare dei soldi anche se non troppi .



Forse ci siamo per FSR3 free. Ne hanno parlato oggi, e dovrebbe debuttare tra aprile-giugno.
https://wccftech.com/amd-fsr-3-fidelityfx-super-resolution-technology-detailed-2x-the-fps-with-frame-interpolation-easy-to-integrate-in-existing-fsr-2-titles/

Le Ampere avrebbero una sorta di DLSS3 anche loro. Nel caso, si dovrà vedere se JHH risponde, che ovviamente sarebbe la soluzione migliore, anche per compatibilità.

fraussantin
24-03-2023, 18:36
Forse ci siamo per FSR3 free. Ne hanno parlato oggi, e dovrebbe debuttare tra aprile-giugno.
https://wccftech.com/amd-fsr-3-fidelityfx-super-resolution-technology-detailed-2x-the-fps-with-frame-interpolation-easy-to-integrate-in-existing-fsr-2-titles/

Le Ampere avrebbero una sorta di DLSS3 anche loro. Nel caso, si dovrà vedere se JHH risponde, che ovviamente sarebbe la soluzione migliore, anche per compatibilità.

speriamo bene dai ! se su questa ci piazzano il frame generator per i titoli più pesanti siamo davvero a posto per questa gen

Ubro92
25-03-2023, 12:35
Si ho letto la questione pin di alimentazione

700 euro? Troppi :D :D

Considera che la 3080 10GB parte da minimo 702€ nuova, e per come ha ragionato nvidia in questa gen ti va già di lusso se la propongono a 700€...

Sinceramente, se la tua 2080ti risulta compatibile con l'FSR3 me la terrei ancora stretta.

Comunque vediamo come si evolve il mercato, ma i presupposti sono abbastanza pessimi.

Gello
25-03-2023, 13:28
Sara' che io non uso praticamente RTX e poco pure DLSS ma la 2080ti (che ho pure io) per me e' inaggiornabile con queste offerte...

Magari una 4090 usata gia' provvista di wubbo quando usciranno le 5000, personalmente per chi gioca prettamente online non ha bisogno di tante pesudo minchiate next gen a prescindere.

Kvarat
26-03-2023, 11:25
Sara' che io non uso praticamente RTX e poco pure DLSS ma la 2080ti (che ho pure io) per me e' inaggiornabile con queste offerte...

Magari una 4090 usata gia' provvista di wubbo quando usciranno le 5000, personalmente per chi gioca prettamente online non ha bisogno di tante pesudo minchiate next gen a prescindere.

La 2080ti era il top di gamma qualche anno fa. Va come una 3070ti praticamente con più ram. Ad occhio farebbe la felicità di almeno metà dei giocatori pc mondiali vedendo le statistiche Steam. Ha i consumi un pò altini ma chissenefrega. :D

ninja750
27-03-2023, 07:50
Considera che la 3080 10GB parte da minimo 702€ nuova, e per come ha ragionato nvidia in questa gen ti va già di lusso se la propongono a 700€...

e noi che non credevamo alla promessa di Jensen :O seinovenove msrp :O e in volumi :O

HSH
27-03-2023, 11:18
La 2080ti era il top di gamma qualche anno fa. Va come una 3070ti praticamente con più ram. Ad occhio farebbe la felicità di almeno metà dei giocatori pc mondiali vedendo le statistiche Steam. Ha i consumi un pò altini ma chissenefrega. :D

quindi a trovarla a 500€ usata sarebbe un affarone? la pensavo più simile alla 3070 liscia

kiwivda
27-03-2023, 11:21
quindi a trovarla a 500€ usata sarebbe un affarone? la pensavo più simile alla 3070 liscia

La 2080ti è la copia della 3070 liscia con più vram.
Il suo prezzo nell'usato è circa 400 euro, come la 3070.

La 3070Ti è un'altra cosa.

StylezZz`
27-03-2023, 11:25
quindi a trovarla a 500€ usata sarebbe un affarone? la pensavo più simile alla 3070 liscia

Stiamo parlando di una scheda lanciata nel 2018, 500€ sono troppi considerando che si trovano 3070 usate sotto i 400€ e molte ancora in garanzia.

HSH
27-03-2023, 11:32
Stiamo parlando di una scheda lanciata nel 2018, 500€ sono troppi considerando che si trovano 3070 usate sotto i 400€ e molte ancora in garanzia.

ah ok io non ne ho viste, continuerò a cercare allora., grazie
ma come funzionalità, DLSS ecc sono proprio identiche o la serie 3 è cmq da preferire?

Ubro92
27-03-2023, 12:31
La 2080ti è la copia della 3070 liscia con più vram.

Il suo prezzo nell'usato è circa 400 euro, come la 3070.



La 3070Ti è un'altra cosa.Ma anche meno, 400&euro; per una custom spinta, poiché é una GPU senza garanzia e con 4 anni sul groppone.

Le prestazioni sono buone e simili alla 3070, però non ha unità ofa, se per ampere c'è qualche possibilità di supporto con il dlss3, con Turing bisogna solo sperare nel fsr3.

Inviato dal mio M2012K11AG utilizzando Tapatalk

nessuno29
27-03-2023, 12:39
quindi a trovarla a 500€ usata sarebbe un affarone? la pensavo più simile alla 3070 liscia

A 500 sarebbe un affarone per il venditore :D

Massimo sui 350 secondo me, perché sui 400 trovi le 3070.

kiwivda
27-03-2023, 12:41
Ma anche meno, 400&euro; per una custom spinta, poiché é una GPU senza garanzia e con 4 anni sul groppone.

Le prestazioni sono buone e simili alla 3070, però non ha unità ofa, se per ampere c'è qualche possibilità di supporto con il dlss3, con Turing bisogna solo sperare nel fsr3.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Si concordo 400 per una bella custom il resto é più sui 350

StylezZz`
27-03-2023, 12:55
Ma anche meno, 400&euro; per una custom spinta, poiché é una GPU senza garanzia e con 4 anni sul groppone.

Le prestazioni sono buone e simili alla 3070, però non ha unità ofa, se per ampere c'è qualche possibilità di supporto con il dlss3, con Turing bisogna solo sperare nel fsr3

Se non sbaglio le ha pure Turing, anche se di numero inferiore rispetto Ampere.

HSH
27-03-2023, 13:04
A 500 sarebbe un affarone per il venditore :D

Massimo sui 350 secondo me, perché sui 400 trovi le 3070.

su amazon warehouse le 3070 partono da 480. sui siti tipo subito le trovi con poca garanzia residua almeno dalle mie parti

kiwivda
27-03-2023, 13:12
Si beh ma se uno compra usato la garanzia é l'ultimo dei problemi, io sono dell'avviso che se c'è ed é fruibile ben venga, ma di certo non influenza il prezzo. Vuoi la garanzia e tutte le sicurezze, compri nuovo.
Vuoi spendere meno e aggiornare lo stesso facendo l'affare, compri usato.
Poi se come detto se c'è 3d é valida nonostante tu non sia l'acquirente originale ben venga.
Si tratta solo di propensione al rischio.

appleroof
27-03-2023, 14:30
Considera che la 3080 10GB parte da minimo 702€ nuova, e per come ha ragionato nvidia in questa gen ti va già di lusso se la propongono a 700€...

Sinceramente, se la tua 2080ti risulta compatibile con l'FSR3 me la terrei ancora stretta.

Comunque vediamo come si evolve il mercato, ma i presupposti sono abbastanza pessimi.

Assolutamente, per come stanno adesso le cose, sono orientato a tenerla anche a prescindere da fsr3/dlss3, di questa gen mi attira solo la 4080 (sto a 1440p, la 4090 è davvero troppa roba) forse la 4070ti, ma i prezzi sono assurdi come detto molte volte

mikael84
27-03-2023, 16:56
Ma anche meno, 400&euro; per una custom spinta, poiché é una GPU senza garanzia e con 4 anni sul groppone.

Le prestazioni sono buone e simili alla 3070, però non ha unità ofa, se per ampere c'è qualche possibilità di supporto con il dlss3, con Turing bisogna solo sperare nel fsr3.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Se non sbaglio le ha pure Turing, anche se di numero inferiore rispetto Ampere.

La verità sta nel mezzo, turing ha OFA, ma con funzioni estremamente ridotte ad Ampere e Lovelace, tanto che nvidia neppure lo menziona sulle serie successive, e non può essere applicato su motori vulkan.
Ampere invece ha tutte le funzioni per il frame gen, ma ha un ratio di quasi 1/3 le Lovelace in tops, quindi pur potendolo eseguire, si deve tenere conto di un input un tantino più elevato rispetto lovelace, ma non ci dovrebbero essere problemi.
Su turing è abbastanza più complesso, e non sempre fattibile, quindi è inutile mettergli un supporto.
Supporto che è molto dubbio anche su Ampere, per via dell'esclusiva.

StylezZz`
27-03-2023, 17:32
Ma infatti ricordavo di qualcuno che era riuscito a bypassarlo su una 2070 ma con dei problemi:

https://wccftech.com/nvidia-dlss-3-frame-generation-lock-reportedly-bypassed-rtx-2070-gets-double-the-fps/

probabilmente su ampere funzionerebbe bene, considerando che dovrà girare con le 4060.

mikael84
27-03-2023, 18:30
Ma infatti ricordavo di qualcuno che era riuscito a bypassarlo su una 2070 ma con dei problemi:

https://wccftech.com/nvidia-dlss-3-frame-generation-lock-reportedly-bypassed-rtx-2070-gets-double-the-fps/

probabilmente su ampere funzionerebbe bene, considerando che dovrà girare con le 4060.

Si con Ampere, pena un leggero input aggiuntivo dovrebbe funzionare (da vedere poi la ricostruzione finale).
Riguardo la 4060, è vero che funzionerà bene anche li, però il comparto OFA, o meglio il throughput è stato triplicato rispetto ad Ampere. Quindi anche una 4030, si ritroverà il 3x OFA va una 3090ti.:)

Lato tensor, una 4060 liscia, avrà ratio da 3090-3080ti, estendendo la compatibilità ad Ampere, anche la 3050 dovrebbe riuscire a riprodurlo correttamente.

Ecco che qualche limite spunta fuori tra le 2 gen.
In ogni caso, Ampere ha tutti i requisiti.

StylezZz`
27-03-2023, 20:24
Si con Ampere, pena un leggero input aggiuntivo dovrebbe funzionare (da vedere poi la ricostruzione finale).
Riguardo la 4060, è vero che funzionerà bene anche li, però il comparto OFA, o meglio il throughput è stato triplicato rispetto ad Ampere. Quindi anche una 4030, si ritroverà il 3x OFA va una 3090ti.:)

Lato tensor, una 4060 liscia, avrà ratio da 3090-3080ti, estendendo la compatibilità ad Ampere, anche la 3050 dovrebbe riuscire a riprodurlo correttamente.

Ecco che qualche limite spunta fuori tra le 2 gen.
In ogni caso, Ampere ha tutti i requisiti.

Ma il comparto OFA è uguale per tutte le 4000 o varia in base alla scheda?

amon.akira
27-03-2023, 20:49
Si con Ampere, pena un leggero input aggiuntivo dovrebbe funzionare (da vedere poi la ricostruzione finale).
Riguardo la 4060, è vero che funzionerà bene anche li, però il comparto OFA, o meglio il throughput è stato triplicato rispetto ad Ampere. Quindi anche una 4030, si ritroverà il 3x OFA va una 3090ti.:)

Lato tensor, una 4060 liscia, avrà ratio da 3090-3080ti, estendendo la compatibilità ad Ampere, anche la 3050 dovrebbe riuscire a riprodurlo correttamente.

Ecco che qualche limite spunta fuori tra le 2 gen.
In ogni caso, Ampere ha tutti i requisiti.

potrebbero anche dare un supporto selettivo, tipo solo x80+ anzichè tutta la famiglia ampere, ma no lo farà mai penso :P

mikael84
27-03-2023, 21:51
Ma il comparto OFA è uguale per tutte le 4000 o varia in base alla scheda?

Uguale per tutte le GPU Lovelace, ben visibile anche sui classici layout. E' molto piccolo da implementare nel complesso, non costa molto die, anzi...

potrebbero anche dare un supporto selettivo, tipo solo x80+ anzichè tutta la famiglia ampere, ma no lo farà mai penso :P

Così faresti ancora più imbestialire i possessori di Ampere fascia x70.:p
Più che altro, potrebbe dimostrare che l'implementazione su Ampere non va bene, come aveva fatto con il raytracing su Pascal (anche se li c'erano ben pochi dubbi).
Della serie, io lo abilito, poi se fa schifo arrangiatevi, compratevi una Lovelace.:D

fraussantin
27-03-2023, 22:01
potrebbero anche dare un supporto selettivo, tipo solo x80+ anzichè tutta la famiglia ampere, ma no lo farà mai penso :PNo vabbè , se lo mettono deve essere per tutte, poi se sulle piccole non funziona pace. Un po come rt

mikael84
30-03-2023, 12:32
https://videocardz.com/newz/nvidia-geforce-rtx-4070-to-retail-at-599

Livello prestazionale di una 3080, con plus DLSS3 la saluta, +2gb di vram.

599$ MEh.. prezzi del cavolo...

Quindi 599 come avevo ipotizzato. Si perf da 3080 mediamente.:)

Maury
30-03-2023, 13:06
https://videocardz.com/newz/nvidia-geforce-rtx-4070-to-retail-at-599

Livello prestazionale di una 3080, con plus DLSS3 la saluta, +2gb di vram.

599$ MEh.. prezzi del cavolo...

Non è male come scheda, il dlss 3 è un bel plus, dove supportato da un bel boost, cosa che appunto la 3080 non ha.

bagnino89
30-03-2023, 13:30
https://videocardz.com/newz/nvidia-geforce-rtx-4070-to-retail-at-599

Livello prestazionale di una 3080, con plus DLSS3 la saluta, +2gb di vram.

599$ MEh.. prezzi del cavolo...

Una grande scheda insomma!

File e file per acquistarla.

fraussantin
30-03-2023, 21:44
Non è male come scheda, il dlss 3 è un bel plus, dove supportato da un bel boost, cosa che appunto la 3080 non ha.In realta neanche bene , la 70 di solito stava sulla fascia della vecchia 80ti più o meno.

Fosse costata 600 euro su poteva anche digerire , ma 600 dollari + iva ( a partire da ) ti fanno rimpiangere di non aver preso una 3080 2 anni e mezzo fa allo stesso prezzo .

Ubro92
30-03-2023, 21:45
Si, ma come sempre è l'utente che stabilisce il prezzo, se le stime di vendita di nvidia si mantengono proficue, fondamentalmente ha ragione nvidia ad alzare i prezzi...

Personalmente spendere queste cifre è troppo, arrivare a 700€ per una 4070 liscia è veramente fuori dai miei parametri, quindi semplicemente aggiorno più lentamente ed eventualmente andando di usato se la situazione non migliora... Da vedere anche intel cosa tira fuori, a livello di prezzi sta portando avanti una campagna molto aggressiva, la A750 si trova a 250€ e la A770 a poco più di 300€, sche del calibro di 3060ti/3070.

Se con Battleimage mantiene questa politica, un pensierino lo farei più che volentieri.

mikael84
30-03-2023, 21:56
Logico trovarsi questi prezzi, fin quando la 4090 avrá quei prezzi (oggi costa solo 100 euro in meno di quando la presi, dopo mesi e mesi) inutile sperare in una lineup equilibrata, purtroppo tutto quello che sta sotto ha conseguentemente prezzi assurdi, la 4080 gira ancora a prezzi osceni per le prestazioni che offre, le amd no comment.


A loro sta bene cosí, altrimenti con una scheda tipo 4080ti su ad102 una sforbiciata ai prezzi osceni dalla 4080 in giú sarebbe servita.

Sempre se esce la 4080ti.:D
La 4090 teoricamente è una 4080ti, visto il cut massivo, ed il taglio cache per mantenere i canali.

JHH la 4080 nel dev, la mette in competizione con la 3080ti.

Ora come ora, la 4080 oltre che da x70 farà pure da 4080ti.
Se entro settembre non si muove qualcosa, questa serie finirà così... salvo gli ultimi periodi, quando per forza di cosa, cercherà di riciclare AD102, per BL102.

Ubro92
30-03-2023, 22:47
Sempre se esce la 4080ti.:D
La 4090 teoricamente è una 4080ti, visto il cut massivo, ed il taglio cache per mantenere i canali.

JHH la 4080 nel dev, la mette in competizione con la 3080ti.

Ora come ora, la 4080 oltre che da x70 farà pure da 4080ti.
Se entro settembre non si muove qualcosa, questa serie finirà così... salvo gli ultimi periodi, quando per forza di cosa, cercherà di riciclare AD102, per BL102.

Bah vedremo, io ho sempre la sensazione che se ne escono con un refresh un annetto prima della nuova gen come per le super, perchè vedo troppi chip sbilanciati.

A JHH gli è andata di lusso il salto di nodo e il fatto che gli 8nm erano penosi, se no con il piffero che tarava fasce e prezzi in questo modo...

ColdWarGuy
31-03-2023, 00:04
Quindi 599 come avevo ipotizzato. Si perf da 3080 mediamente.:)

"The RTX 4070 to be $200 cheaper than the RTX 4070 Ti"

ergo sul mercato nostrano saremo attorno a 750-800 euro, cosa volete che siano ora come ora che siamo in pieno boom economico ;)

mikael84
31-03-2023, 00:26
Bah vedremo, io ho sempre la sensazione che se ne escono con un refresh un annetto prima della nuova gen come per le super, perchè vedo troppi chip sbilanciati.

A JHH gli è andata di lusso il salto di nodo e il fatto che gli 8nm erano penosi, se no con il piffero che tarava fasce e prezzi in questo modo...

Le super le ha fatte per AMD, qua AMD bisognerà vedere se insisterà, magari con la 3d cache 7950xtx, ma non so quanto voglia investirci.
Il chip full da 10200 cuda, è probabile, a rese maggiori, dovrà castrarlo volutamente quel die.

Purtroppo nvidia si è trovata un abisso in PP, ed AMD per competere deve avere un nodo di differenza, altrimenti JHH fa quello che vuole e Lisa da santarellina si adegua, chiamando la 7800, 7900xt.

"The RTX 4070 to be $200 cheaper than the RTX 4070 Ti"

ergo sul mercato nostrano saremo attorno a 750-800 euro, cosa volete che siano ora come ora che siamo in pieno boom economico ;)

La FE, se il prezzo sarà questo la troverai a 700 euro circa, ma le varie manli, inno3d, pny, anche qualcosa sotto, dai soliti siti.
Il range sarà 650-800. Anche il cambio non aiuta.

nessuno29
31-03-2023, 06:58
Ma la FE della 4070(4060) è prevista?

OrazioOC
31-03-2023, 07:55
Il problema non è solo di prezzi, ma anche di upgrade a parità di fascia, ad oggi per chi volesse sostituire una 3050/3060/ti/70 non ha buoni appigli senza spendere 7/800 euro di scheda per la prossima 4070, che senza dlss3 sarà una simil 3080(quindi neanche un upgrade troppo sostanzioso per chi viene da una 3070/ti ben cloccata).

Ma anche chi ha in mano schede tipo 5700 xt/2070 super/6600 xt si ritrova nella stessa situazione, e parliamo in alcuni casi di gpu di 4/5 anni fa.
Se JHH si aspetta di bilanciare in fatturato la perdita del mining con l'aumento di utili sulla vendita di gpu desktop alla lunga sbaglia, la stragrande maggioranza dell'utenza è gente che è disposta a spendere massimo 2/300 euro nella gpu.
Lo si vede dai sondaggi di steam dove ancora vanno fortissimo 1060/1650/1660/2060/3050 ed equivalenti amd tipo rx 580 o rx 6600.:rolleyes:

Cosa gli proponi a questa gente?La 4050 con 6gb di vram e le performance raster da 2060 allo stesso prezzo 4 anni dopo? Follia. :doh:

Vul
31-03-2023, 08:18
Quindi la 4070 avra' prestazioni da 3080 a 100 euro in meno della 3080, anni dopo la 3080.

Un affarone.

Alla prossima gen l'unica gpu che mostrera' incrementi seri sara' l'ipotetica 5090 e principalmente con dlss4 limitato artificialmente alla prossima gen come hanno fatto con il 3 :mc:

Mi sa che la mia 1060 mi fara' compagnia ancora a lungo.

fraussantin
31-03-2023, 08:21
Quindi la 4070 avra' prestazioni da 3080 a 100 euro in meno della 3080, anni dopo la 3080.



Un affarone.



Alla prossima gen l'unica gpu che mostrera' incrementi seri sara' l'ipotetica 5090 e principalmente con dlss4 limitato artificialmente alla prossima gen come hanno fatto con il 3 :mc:



Mi sa che la mia 1060 mi fara' compagnia ancora a lungo.100 euro in meno ?

Non mi risulta.

StylezZz`
31-03-2023, 10:23
Ma la FE della 4070(4060) è prevista?

Si è prevista:

https://videocardz.com/newz/nvidia-geforce-rtx-4070-founders-edition-packaging-leaks-out

Maury
31-03-2023, 10:32
In realta neanche bene , la 70 di solito stava sulla fascia della vecchia 80ti più o meno.

Fosse costata 600 euro su poteva anche digerire , ma 600 dollari + iva ( a partire da ) ti fanno rimpiangere di non aver preso una 3080 2 anni e mezzo fa allo stesso prezzo .

Guarda 600 tutto incluso l'avrei anche presa, perchè comunque rispetto alla mia 3070 il salto c'è e neanche piccolo, senza considerare poi il dlss3. Ma oltre bho la voglia passa...

Il top sarebbe 4070TI ma costa veramente troppo :rolleyes:

X360X
31-03-2023, 11:05
Essenzialmente
2020 una 3080 719 euro
2023 una 3080 con più RAM e meno watt che minimo 700 euro te li chiederanno

Non bastano affatto le features per giustificare, 600 euro non è definibile nemmeno un buon prezzo a dirla tutta, già da 601 sarebbe da non prenderla nemmeno se si trovano i soldi per strada

bagnino89
31-03-2023, 11:33
Essenzialmente
2020 una 3080 719 euro
2023 una 3080 con più RAM e meno watt che minimo 700 euro te li chiederanno

Non bastano affatto le features per giustificare, 600 euro non è definibile nemmeno un buon prezzo a dirla tutta, già da 601 sarebbe da non prenderla nemmeno se si trovano i soldi per strada

Una truffa legalizzata.

nessuno29
31-03-2023, 11:35
Ricordiamoci che è una 4060 in realtà tra l'altro, a sto prezzo si unisce al ridicolo che pervade tutto il settore.

Vul
31-03-2023, 12:01
100 euro in meno ?

Non mi risulta.

Leggo i rumors che la danno a 599$ contro i 699$ di lancio della 3080.

Vul
31-03-2023, 12:01
edit, doppio post.

Vul
31-03-2023, 12:02
Ricordiamoci che è una 4060 in realtà tra l'altro, a sto prezzo si unisce al ridicolo che pervade tutto il settore.

La gente mi pare corra ad aprire il portafogli pero' pensando di fare affaroni acquistando gpu a 1000/1500/2000 euro.

Giustamente Nvidia e AMD ormai ci mettono a 90, tanto continuiamo a darglieli.

La 5060 di questo passo costera' 7/800 euro dai.

fraussantin
31-03-2023, 12:03
Leggo i rumors che la danno a 599$ contro i 699$ di lancio della 3080.Sono i lostini in dollari senza tasse . In realtá 720 costava la 3080 e 720 non basteranno per questa .

mikael84
31-03-2023, 12:09
Sono i lostini in dollari senza tasse . In realtá 720 costava la 3080 e 720 non basteranno per questa .

La FE dovrebbe venire sulle 700 circa (euro più euro meno).
Mentre si troveranno le varie manli e company sulle 650 dopo un pò.
Sicuramente il range sarà 650-700 (fe) a salire per certe custom.

Qua però ci sarà il giochetto del chip ad 8 pin, strozzato col PL.
Quindi è probabile che le varie manli, pny etc, siano ad 8pin. Quindi per chi vorrà salire di clock, servirà o una FE o una custom decente.

mikael84
31-03-2023, 12:32
Il problema non è solo di prezzi, ma anche di upgrade a parità di fascia, ad oggi per chi volesse sostituire una 3050/3060/ti/70 non ha buoni appigli senza spendere 7/800 euro di scheda per la prossima 4070, che senza dlss3 sarà una simil 3080(quindi neanche un upgrade troppo sostanzioso per chi viene da una 3070/ti ben cloccata).

Ma anche chi ha in mano schede tipo 5700 xt/2070 super/6600 xt si ritrova nella stessa situazione, e parliamo in alcuni casi di gpu di 4/5 anni fa.
Se JHH si aspetta di bilanciare in fatturato la perdita del mining con l'aumento di utili sulla vendita di gpu desktop alla lunga sbaglia, la stragrande maggioranza dell'utenza è gente che è disposta a spendere massimo 2/300 euro nella gpu.
Lo si vede dai sondaggi di steam dove ancora vanno fortissimo 1060/1650/1660/2060/3050 ed equivalenti amd tipo rx 580 o rx 6600.:rolleyes:

Cosa gli proponi a questa gente?La 4050 con 6gb di vram e le performance raster da 2060 allo stesso prezzo 4 anni dopo? Follia. :doh:

Si perchè sotto la 4070, è meglio non comprare nulla. Ipotizzando 600 euro per la 4060ti, per poi ritrovarsi così:
Con RIP 8gb.
https://www.youtube.com/watch?v=_lHiGlAWxio&ab_channel=HardwareUnboxed

Ok non fa testo solo lui, ma per schede che a breve dovranno vedersela con gli UE5, bah.

fraussantin
31-03-2023, 12:38
La FE dovrebbe venire sulle 700 circa (euro più euro meno).

Mentre si troveranno le varie manli e company sulle 650 dopo un pò.

Sicuramente il range sarà 650-700 (fe) a salire per certe custom.



Qua però ci sarà il giochetto del chip ad 8 pin, strozzato col PL.

Quindi è probabile che le varie manli, pny etc, siano ad 8pin. Quindi per chi vorrà salire di clock, servirà o una FE o una custom decente.E se non ho capito male qui il clock conta abbastanza per performance , quanto meno per pareggiare la 3080

mikael84
31-03-2023, 12:47
E se non ho capito male qui il clock conta abbastanza per performance , quanto meno per pareggiare la 3080

Beh considera che a potenza bruta, una 3080@ 1920 calcola 33,4TF, una 4070@2,7 (che è già un buon clock se è strozzata) 31,8TF.
Per il resto mantiene la banda della 4070ti, ma avrà meno cache (32 vs 48).

Nei bench se la giocheranno, in quanto la 3080 downclocka anche a 1750. In linea di massima dovrebbero essere cmq li, ma eviterei modelli strozzati. La FE potrebbe essere una valida alternativa anche per la garanzia. Se si è disposti a spendere 700 euro per questa scheda.

Per noi, o 4080 o blackwell.

bagnino89
31-03-2023, 13:04
Si perchè sotto la 4070, è meglio non comprare nulla. Ipotizzando 600 euro per la 4060ti, per poi ritrovarsi così:
Con RIP 8gb.
https://www.youtube.com/watch?v=_lHiGlAWxio&ab_channel=HardwareUnboxed

Ok non fa testo solo lui, ma per schede che a breve dovranno vedersela con gli UE5, bah.

Il punto è che le nuove schede di fascia medio/bassa non è che potranno avere più di 8 GB di VRAM. Sono i programmatori che devono tenere conto delle configurazioni più diffuse, buona parte dei videogiocatori hanno delle 1650, altro che 3070... E poi TLOU è programmato veramente da cani, le richieste di VRAM e RAM sono assolutamente ingiustificate.

fraussantin
31-03-2023, 13:04
Beh considera che a potenza bruta, una 3080@ 1920 calcola 33,4TF, una 4070@2,7 (che è già un buon clock se è strozzata) 31,8TF.

Per il resto mantiene la banda della 4070ti, ma avrà meno cache (32 vs 48).



Nei bench se la giocheranno, in quanto la 3080 downclocka anche a 1750. In linea di massima dovrebbero essere cmq li, ma eviterei modelli strozzati. La FE potrebbe essere una valida alternativa anche per la garanzia. Se si è disposti a spendere 700 euro per questa scheda.



Per noi, o 4080 o blackwell.Con la garanzia sono a posto per un altro anno e mezzo , ale a quel punto mal che vada varrà poco.

L'unico motivo di upgrade, verso una 4080 ovviamente , è per non far deprezzare troppo una 10 giga , ma se devo sborsare 800 900 euro a differenza , che so deprezzi pure.

Cioè ..

Ormai seguo per sport ma non vedo possibilità di aggiornamento per questa gen






Ok non fa testo solo lui, ma per schede che a breve dovranno vedersela con gli UE5, bah.

ecco questo poi in realtà mi da un altro buon motivo per non aggiornare.

Se devo cacciare cifroni a questi punti lo faccio al d1 Almeno ho 2 anni di supporto buono. ( Difatti secondo me ha fatto benissimo chi si è preso la 4090 al d1 ovviamente se disposto a spendere cifre del genere)

Ormai sono passati 8 mesi , tempo che si assesti la 4080 ne serviranno altri 4 o 5 sempre se non escono le super o le 6000 refresh.

In ogni caso preferirei reggere un altra annata con questa e poi si vedrà.

EffeX
31-03-2023, 13:20
E poi TLOU è programmato veramente da cani, le richieste di VRAM e RAM sono assolutamente ingiustificate.

Bè, sul fatto che sia programmato da cani ricordiamoci che è un titolo sviluppato da Naughty dog. :D
(Me l'hai messa su un piatto d'argento!)

ninja750
31-03-2023, 13:28
Il punto è che le nuove schede di fascia medio/bassa non è che potranno avere più di 8 GB di VRAM.


con la 3060 hanno sbagliato ad inviare l'email al reparto progettazione?

Sono i programmatori che devono tenere conto delle configurazioni più diffuse, buona parte dei videogiocatori hanno delle 1650, altro che 3070... E poi TLOU è programmato veramente da cani, le richieste di VRAM e RAM sono assolutamente ingiustificate.

sicuramente il gioco è mal ottimizzato ma da che mondo è mondo all'uscita dei nuovi AAA si è sempre cercato di spremere il più possibile le VGA top con le impostazioni "ultra", e quelli con vga più scarse hanno sempre dovuto togliere dettaglio magari "very high" o "high" o al peggio "medium" per qualche impostazione

lamentarsi con gli sviluppatori per l'utilizzo VRAM sarebbe come lamentarsi perchè il tal gioco ha il RT e la propria scheda non supporta RT.. si mette l'impostazione OFF e si gioca lo stesso, chi può lo attiva. sicuramente gli sviluppatori non possono focalizzarsi sul target 1650 che citi

alla presentazione delle 3000 anche in questo thread si è sottolineata la tirchieria di jensen lato vram, le risposte per lo più erano che tanto più di 8gb non sarebbero mai serviti. stesse cose che si dicevano 4gb vs 8gb e 2gb vs 4gb meno di 10 anni fa

mikael84
31-03-2023, 13:38
Il punto è che le nuove schede di fascia medio/bassa non è che potranno avere più di 8 GB di VRAM. Sono i programmatori che devono tenere conto delle configurazioni più diffuse, buona parte dei videogiocatori hanno delle 1650, altro che 3070... E poi TLOU è programmato veramente da cani, le richieste di VRAM e RAM sono assolutamente ingiustificate.

Con questa serie la fascia bassa non esiste. Il minimo sindacale è la 4060 (volevo dire 4070). Se volessi perf da 3070, tanto vale andare sull'usato e prenderle a poco.

Con la garanzia sono a posto per un altro anno e mezzo , ale a quel punto mal che vada varrà poco.



La mia è fatturata settembre 2021, quindi dovrebbe valere sino a 2024 se non ho capito male:)


L'unico motivo di upgrade, verso una 4080 ovviamente , è per non far deprezzare troppo una 10 giga , ma se devo sborsare 800 900 euro a differenza , che so deprezzi pure.

Cioè ..

Ormai seguo per sport ma non vedo possibilità di aggiornamento per questa gen




ecco questo poi in realtà mi da un altro buon motivo per non aggiornare.

Se devo cacciare cifroni a questi punti lo faccio al d1 Almeno ho 2 anni di supporto buono. ( Difatti secondo me ha fatto benissimo chi si è preso la 4090 al d1 ovviamente se disposto a spendere cifre del genere)

Ormai sono passati 8 mesi , tempo che si assesti la 4080 ne serviranno altri 4 o 5 sempre se non escono le super o le 6000 refresh.

In ogni caso preferirei reggere un altra annata con questa e poi si vedrà.

Infatti non ha alcun senso, soprattutto se con quella attuale ci giochi ancora benissimo. Anzi son più CPU limit che GPU limit il più delle volte.
La feature che mi piacerebbe è il DLSS3.

La 4080 cmq, non si asseterà, e tempo che magari scenderà, anche la 3080 varrà sempre meno.


Allo stato attuale basterebbe anche una sorta di bidone riciclato di Ad102, quella con 14k cuda 320bit 20gb vram (cut tipo ex 3080) perf a -10% da 4090, con il prezzo della 4080 attuale, sarebbe una soluzione piú convincente

Una scheda del genere starebbe sopra in ogni dove alla flasghip di amd (li dove la 4080 pareggia o sta poco sotto tipo in raster) ma tanto credo che non uscirá nulla, stanno pushando molto lentamente la lineup, sono passati tanti mesi e ancora stiamo aspettando la x70.


Alla fine la stima su AD103 era piú che giusta, sono riusciti a passare la concorrenza (rt,dlss3) con un chippetto del minghia, e non é neanche full chip (fa ridere poiché quel cut non serve nemmeno a risparmiare spazio sul die nasce proprio monca).

Il prezzo rimane osceno, ma vedo che la concorrenza ha inseguito copiando anche quello (in rapporto alle performance complessive ovviamente)

La Ti si potrebbe fare benissimo, per fare la 4070 ha devastato un 300mm2, figuriamoci un 607. Il problema è se la tirerà fuori realmente. Anche con i prezzi si è ben coperto, portando la 4080 al prezzo della TI, e la 4090 che non ha subito variazioni, se non per 100$.
Non si sa nulla neppure della 4090ti, che anch'essa comincio a pensare che non ci sarà, se non alla fine. Una 4090ti andrà il 50% sopra la 4080, e la 5080 probabilmente sarà li, considerando che RDNA4 sarà su quei livelli.

Il prossimo PP, salvo miracoli microarchitetturali, non avrà questo salto enorme di Performance.

bagnino89
31-03-2023, 13:49
Bè, sul fatto che sia programmato da cani ricordiamoci che è un titolo sviluppato da Naughty dog. :D
(Me l'hai messa su un piatto d'argento!)

Lol.

con la 3060 hanno sbagliato ad inviare l'email al reparto progettazione?

Parliamo di una GPU uscita quasi 3 anni fa. Io intendevo le nuove schede di fascia medio/bassa, che devono ancora uscire; pensate davvero che avranno più di 8 GB di VRAM?

sicuramente il gioco è mal ottimizzato ma da che mondo è mondo all'uscita dei nuovi AAA si è sempre cercato di spremere il più possibile le VGA top con le impostazioni "ultra", e quelli con vga più scarse hanno sempre dovuto togliere dettaglio magari "very high" o "high" o al peggio "medium" per qualche impostazione

lamentarsi con gli sviluppatori per l'utilizzo VRAM sarebbe come lamentarsi perchè il tal gioco ha il RT e la propria scheda non supporta RT.. si mette l'impostazione OFF e si gioca lo stesso, chi può lo attiva. sicuramente gli sviluppatori non possono focalizzarsi sul target 1650 che citi

alla presentazione delle 3000 anche in questo thread si è sottolineata la tirchieria di jensen lato vram, le risposte per lo più erano che tanto più di 8gb non sarebbero mai serviti. stesse cose che si dicevano 4gb vs 8gb e 2gb vs 4gb meno di 10 anni fa

Tu non hai il gioco e quindi non capisci bene quale sia il problema.

1) TLOU è tutto meno che un AA. La grafica è carina, ma non è RDR2 o Cyberpunk, per capirci. Ma nemmeno Requiem o Callisto Protolol.

2) Non è un open world come i primi due suddetti. Quindi le richieste di VRAM e RAM (e CPU) sono assolutamente folli per la sua resa grafica. Quando passo da un'area all'altra (e non posso tornare più indietro), la memoria va liberata. Qua pare che in memoria ci sia precaricato tutto il mondo di gioco, ridicolo.

3) Mi starebbe anche bene ridurre la qualità delle texture per usare meno VRAM, il punto è che di 4 setting solo il primo (Min) riduce in modo sensibile la VRAM usata; il problema è che è osceno a vedersi. Con gli altri le differenze sono minime, quindi dove è la scalabilità?

Non parlate a vanvera di cose di cui non avete tangibilità...

mikael84
31-03-2023, 13:57
alla presentazione delle 3000 anche in questo thread si è sottolineata la tirchieria di jensen lato vram, le risposte per lo più erano che tanto più di 8gb non sarebbero mai serviti. stesse cose che si dicevano 4gb vs 8gb e 2gb vs 4gb meno di 10 anni fa

Tirchieria si, però per come sono stati tagliati i chip, c'era poco da fare.
Tralasciando i costi visti con il mining. L'accordo con micron non permetteva di mettere 20gb sulla 3080. Per farlo dovevi mettere il clamshell, con costi e calore maggiore (già si sono particolarmente lamentati i partner di questo).
Fascia x70 invece, potevi benissimo mettere 16gb, ma con la 3080 e 3080ti da 10 e 12, sarebbe stata una pessima scelta commerciale.

AMD con il 256 bit, in fascia top, aveva due scelte, mettere 8 o 16, la 3070 era fascia mid.

Li si potrebbe anche chiudere un'occhio, i giochi nel biennio non sono stati così esosi.
Ora con questa serie stanno nascendo i veri problemi, visto che i requisiti stanno aumentando non poco, e lui ha declassato i chip.

ultimate trip
31-03-2023, 13:57
Si non mi aspetto nulla di eclatante visto il pp, penso che saranno schede abbastanza energivore, con dissi enormi spremute a default piú che mai, se non si rivede l'architettura per bene i miracoli non arrivano.

Vabbé vorrá dire che la 4090 mi durerá abbastanza, se la prossima flagship andrá +30/35% con prezzi folli non cambieró gpu.


poco aumento di performance e prezzi in linea con questa gen se non con lieve balzello...vedremo come finirà

Dany16vTurbo
31-03-2023, 14:06
Si perchè sotto la 4070, è meglio non comprare nulla. Ipotizzando 600 euro per la 4060ti, per poi ritrovarsi così:
Con RIP 8gb.
https://www.youtube.com/watch?v=_lHiGlAWxio&ab_channel=HardwareUnboxed

Ok non fa testo solo lui, ma per schede che a breve dovranno vedersela con gli UE5, bah.

Ma si parla sempre di memoria pre allocata? La storia della VRAM è sempre stata un pò opaca per me, oppure il solo fatto che quel processo consumi X VRAM significa che la stia utilizzando e non pre-allocando? :confused:

fraussantin
31-03-2023, 14:20
Ma si parla sempre di memoria pre allocata? La storia della VRAM è sempre stata un pò opaca per me, oppure il solo fatto che quel processo consumi X VRAM significa che la stia utilizzando e non pre-allocando? :confused:Hogwards legacy la usa davvero e quando si esaurisce inizia a dare di matto con lagg mostruosi mentre sposta roba da ram a vram e viceversa

Ma il punto non è che servono 16 giga , come non servono cpu mostruose : è che se esistono sul mercato i programmatori se ne sbattono di ottimizzare e sfruttano le risorse.

Se uscissero schede gaming a 48 giga , stai certo che qualcuno troverebbe il modo di farle servire.

X360X
31-03-2023, 14:49
Quindi sono 192bit di BUS e 12GB di VRAM per una VGA tra 900 e 1000 euro (simil 3090?).
Minimo 700 per le stesse caratteristiche ma più scarsa (probabilmente simil 3080).

col buon frame generator che però accoppiato al Reflex sembra alzare la latenza più di quanto è col DLSS "normale" accoppiato al Reflex

Non è che facciano pena ste VGA intendiamoci, fanno pena a quel prezzo

EffeX
31-03-2023, 14:54
Hogwards legacy la usa davvero e quando si esaurisce inizia a dare di matto con lagg mostruosi mentre sposta roba da ram a vram e viceversa

Ma il punto non è che servono 16 giga , come non servono cpu mostruose : è che se esistono sul mercato i programmatori se ne sbattono di ottimizzare e sfruttano le risorse.

Se uscissero schede gaming a 48 giga , stai certo che qualcuno troverebbe il modo di farle servire.

Io non ho Hogwarts legacy e nemmeno TLOU, ma già in titoli come Horizon zero dawn, Deathloop, A plague tale requiem e Forza Horizon 5 la differenza dal passaggio da 8 a 16 GB l'ho sentita in 2K.
Ho un collega che ha acquistato recentemente la 4070Ti Gaming X trio, in 4K con Hogwarts legacy e The callisto protocol satura già i 12 GB di ram in nativa.

mikael84
31-03-2023, 15:19
Si non mi aspetto nulla di eclatante visto il pp, penso che saranno schede abbastanza energivore, con dissi enormi spremute a default piú che mai, se non si rivede l'architettura per bene i miracoli non arrivano.

Vabbé vorrá dire che la 4090 mi durerá abbastanza, se la prossima flagship andrá +30/35% con prezzi folli non cambieró gpu.

La prossima micro, sarà incentrata soprattutto sul RT funzione path tracing e tensor new gen. Lato ALU probabilmente 18 GPC e 27k shader.:)

Ma si parla sempre di memoria pre allocata? La storia della VRAM è sempre stata un pò opaca per me, oppure il solo fatto che quel processo consumi X VRAM significa che la stia utilizzando e non pre-allocando? :confused:

Allocata/usata è differente. Ad esempio io su TLOU sto sui 10gb fissi, ma non ho problemi, mentre nei test in 1440p hanno registrato minimi minori.
Se hai molta ram, il driver l'archivia sulla GPU, ad esempio, puoi vederti 20gb allocati su 24 e 12 su 16. Si crea un buffer, in modo da sviare la ram di sistema, ed all'occorrenza la usa, ad esempio per caricare texture in lontananza. Questo minimizza lo stuttering e migliora la percezione dei minimi.
Se ad un programma, serve più ram di quella che hai, ti puoi trovare in difficoltà, o in seria difficoltà, anche se molta di quella ram allocata non la stai utilizzando.
Alcuni giochi appena ti sforano la vram, vanno a 5fps (vedi FC6 texture 4k), altri ti bombardano la ram di spazzatura.

Uno dei metodi efficaci per limitare questo problema, era come faceva la fury di AMD, dove vista la poca ram, avevano impiegato degli ingegneri a programmare il tutto, cercando di caricare solo lo stretto necessario.

Quindi sono 192bit di BUS e 12GB di VRAM per una VGA tra 900 e 1000 euro (simil 3090?).
Minimo 700 per le stesse caratteristiche ma più scarsa (probabilmente simil 3080).

col buon frame generator che però accoppiato al Reflex sembra alzare la latenza più di quanto è col DLSS "normale" accoppiato al Reflex

Non è che facciano pena ste VGA intendiamoci, fanno pena a quel prezzo

Aggiungo che il bus è collegato ad un'ampia cache da 48mb da quasi 6 tb/s, che occupa ben 43mm2 sul die (che è di 300mm2). Questa è in grado di ottenere quasi il 50% di accessi positivi in 1440p.
Sulla 4070 liscia per evitare di tagliare il bus a 160bit, ha tagliato la cache da 48 a 36mb, con meno accessi positivi.

La scheda di per se, sui 1440p è valida, ma di base è classe x60.

Chiaramente l'ha chiamata x70 in quanto il chip purtroppo con i 5nm costicchia.
Siamo a 118$ die (200 con le g6x da 12gb), più tutto il resto.:)
https://i.postimg.cc/bwsM4ZSC/wafer-4070.png

Kvarat
31-03-2023, 15:41
Quindi sono 192bit di BUS e 12GB di VRAM per una VGA tra 900 e 1000 euro (simil 3090?).
Minimo 700 per le stesse caratteristiche ma più scarsa (probabilmente simil 3080).

col buon frame generator che però accoppiato al Reflex sembra alzare la latenza più di quanto è col DLSS "normale" accoppiato al Reflex

Non è che facciano pena ste VGA intendiamoci, fanno pena a quel prezzo

...e possono permetterselo. Semplicemente perchè è tanta e tale la potenza della scorsa generazione che è ancora oggi ottima in qualsiasi situazione in qualsiasi fascia. Pensa a chi ha preso al lancio una 3060ti. Dopo 2 anni e la spesa di 499 euro questa scheda va addirittura meglio del primo giorno. In ufficio ho un pc da lavoro con i7 7700 e una A2000 che va fortissimo nei giochi. La vera domanda è: servono le schede di questa generazione?

ultimate trip
31-03-2023, 18:39
ma infatti credo che, se si è disposti a non cedere all'ultima novità, aggiornare una gen si e una no ti permette di giocare sempre molto bene, tra il top e il molto buono. chi ha una 3080 oggi può pensare di saltare ada e allo stesso modo chi ha preso una ada di fascia alta potrà evitarsi le 5000 con tutto quella riserva a disposizione e dlss3

StylezZz`
31-03-2023, 19:10
...e possono permetterselo. Semplicemente perchè è tanta e tale la potenza della scorsa generazione che è ancora oggi ottima in qualsiasi situazione in qualsiasi fascia. Pensa a chi ha preso al lancio una 3060ti. Dopo 2 anni e la spesa di 499 euro questa scheda va addirittura meglio del primo giorno. In ufficio ho un pc da lavoro con i7 7700 e una A2000 che va fortissimo nei giochi. La vera domanda è: servono le schede di questa generazione?

Bisognerà aspettare la prossima revisione delle console ''pro'' per vedere qualcosa di nuovo che metta in ginocchio le attuali 3000, nel frattempo possono solo appesantire con aggiornamenti come il nuovo raytracing su CP77.

Ubro92
31-03-2023, 21:32
Vabbè i giochi sono sempre scalabili, al più abbassi qualche set grafico e tiri avanti.

Anche perchè ultimamente sto vedendo set grafici che ti ammazzano solo il frame senza portare miglioramenti grafici tangibili, soprattutto su quei titoli che usano engine di 3-5 anni fa spremuti fino all'osso.

Poi anche algoritmi come DLSS/FSR e frame generator sono una manna per spremere al meglio le gpu, unico problema è che spostano il carico sulla cpu, e se non si ha una cpu ben messa non servono a nulla.

nessuno29
01-04-2023, 07:09
Vabbè i giochi sono sempre scalabili, al più abbassi qualche set grafico e tiri avanti.

Anche perchè ultimamente sto vedendo set grafici che ti ammazzano solo il frame senza portare miglioramenti grafici tangibili, soprattutto su quei titoli che usano engine di 3-5 anni fa spremuti fino all'osso.

Poi anche algoritmi come DLSS/FSR e frame generator sono una manna per spremere al meglio le gpu, unico problema è che spostano il carico sulla cpu, e se non si ha una cpu ben messa non servono a nulla.

Il problema però nel caso della mancanza di vram è che sei costretto ad abbassare le texture, ottenendo una qualità mediocre per un settings che normalmente impatta poco sugli fps. Capisco dover settare su medio qualche impostazione esosa di risorse e che serve il fermo immagine per rendersene conto ma dover abbassare le texture su basso in 1440p con una 3070 (750 euro) dopo 2 anni a me brucia tantissimo il culo. Mi ricorda tanto i tempi delle kepler con la 780 che ancora poteva dire la sua ma i soli 3gb la limitavano moltissimo.

fraussantin
01-04-2023, 07:17
Il problema però nel caso della mancanza di vram è che sei costretto ad abbassare le texture, ottenendo una qualità mediocre per un settings che normalmente impatta poco sugli fps. Capisco dover settare su medio qualche impostazione esosa di risorse e che serve il fermo immagine per rendersene conto ma dover abbassare le texture su basso in 1440p con una 3070 (750 euro) dopo 2 anni a me brucia tantissimo il culo. Mi ricorda tanto i tempi delle kepler con la 780 che ancora poteva dire la sua ma i soli 3gb la limitavano moltissimo.Ma mediocre mi pare eccessivo.

Le texture tra alto ultra megagalattico e ipersonico spesso sono le solite , e in casi come hogwards pure a tenerle su low il problema della saturazione della memoria c'era.

Li il problema è la programmazione . O compri una 4090\4080 o aspetti un fix.

Io non mi fascerei troppo la testa , e piuttosto eviterei di voler comprare giochi al d1 perche hanno veramente rotto le scatole.

Ancora devo vedere un gioco con delle texture belle da giustificare la saturazione. Mi aspetto minimo una roba come la demo di unreal 5 per mettere davvero in crisi ampere.

Ubro92
01-04-2023, 08:04
Il problema però nel caso della mancanza di vram è che sei costretto ad abbassare le texture, ottenendo una qualità mediocre per un settings che normalmente impatta poco sugli fps. Capisco dover settare su medio qualche impostazione esosa di risorse e che serve il fermo immagine per rendersene conto ma dover abbassare le texture su basso in 1440p con una 3070 (750 euro) dopo 2 anni a me brucia tantissimo il culo. Mi ricorda tanto i tempi delle kepler con la 780 che ancora poteva dire la sua ma i soli 3gb la limitavano moltissimo.

La 3070 per la pace di chi l'ha presa nel periodo pandemico, non vale 700 e passa € ne in passato ne tanto meno oggi.

Con la 3060ti complessivamente sono più che soddisfatto delle prestazioni, gli 8GB non li vedo cosi problematici in relazione alle prestazioni del chip, una 2080ti con 11GB non è che faccia miracoli rispetto la 3070.

Kepler era un chiodo a prescindere sugli engine moderni, la titan kepler di un amico nonostante avesse 6GB di vram murava allo stesso modo di una 780ti addirittura con prestazioni da 1050ti in alcuni casi, anche una 1060 3gb spingeva meglio, la vram era proprio l'ultimo dei problemi con quell'architettura.

Tralasciando ciò se devo essere onesto molti titoli vram dipendenti, spesso è anche difficile notare un effettivo guadagno da texture medie a ultra, poichè delle volte sono semplicemente upscalate, e se la base fa pena puoi anche scalarla in 16K farà sempre pena XD