PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 [418] 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

bronzodiriace
21-03-2024, 22:37
io penso che in termini prestazioni brute senza l'uso di mirabolanti filtri e stratagemmi basati sui tensor, non avremo chissà quali differenze...

Ma magari con un DLSS più spinto e un possibile miglioramento del frame gen (che se questa è la tendenza saranno prerogative di blackwell), potremmo vedere anche qualcosa in più di quel 40%


Si ma ci vuole anche la sostanza in Ray tracing e raster non il giochetto delle tre carte con frame gen e dlss 4.0

shauni86
22-03-2024, 11:46
per natale 5080 e 5070ti si spera ci siano, a prezzi non esorbitanti, magari 1000 massimo per la 5080...

argez
22-03-2024, 12:25
Si ma ci vuole anche la sostanza in Ray tracing e raster non il giochetto delle tre carte con frame gen e dlss 4.0

Hai visto il marketing con la 4060? Quello era l'antipasto.

Cutter90
22-03-2024, 12:27
Si ma ci vuole anche la sostanza in Ray tracing e raster non il giochetto delle tre carte con frame gen e dlss 4.0

Beh la sostanza c'era nelle 4000

OrazioOC
22-03-2024, 13:14
https://videocardz.com/newz/nvidia-preparing-new-rtx-40-variants-rtx-4070-ad103-rtx-4060-ti-ad104-and-rtx-4060-ad106

Dargli qualche smt in più è chiedere troppo? :rolleyes:

mikael84
22-03-2024, 14:11
https://videocardz.com/newz/nvidia-preparing-new-rtx-40-variants-rtx-4070-ad103-rtx-4060-ti-ad104-and-rtx-4060-ad106

Dargli qualche smt in più è chiedere troppo? :rolleyes:

Per loro è un bene, visto che stanno riuscendo ad utilizzare sino all'ultimo fail, quindi il prezzo per die complessivo diminuisce, soprattutto su AD103, che ne ha abbastanza.

Magistercris
22-03-2024, 15:10
Mikael84, secondo te questa struttura della 5090, per quello che si sa, potrebbe portare benefici rispetto alla dipendenza o meno dalla cpu? O toccherà inevitabilmente montarci un 16900? :)

Cutter90
22-03-2024, 15:22
Mikael84, secondo te questa struttura della 5090, per quello che si sa, potrebbe portare benefici rispetto alla dipendenza o meno dalla cpu? O toccherà inevitabilmente montarci un 16900? :)

Beh ma cosa c'entra? La cpu ha la dipendenza dal RT, dalla cattiva ottimizzazione, dalla fisica, dagli fps ecc ecc
Cosa intendi?

marbasso
22-03-2024, 15:52
Mikael84, secondo te questa struttura della 5090, per quello che si sa, potrebbe portare benefici rispetto alla dipendenza o meno dalla cpu? O toccherà inevitabilmente montarci un 16900? :)

Se giochi in 1080p non basta neanche il 69700

mikael84
22-03-2024, 16:26
Mikael84, secondo te questa struttura della 5090, per quello che si sa, potrebbe portare benefici rispetto alla dipendenza o meno dalla cpu? O toccherà inevitabilmente montarci un 16900? :)

Al momento non si sa praticamente nulla, se non qualche rumour sui cuda, bus e ram.:D
Cmq tu dici, una sorta di Hardware scheduler... penso proprio di no.

CtrlAltSdeng!
22-03-2024, 16:41
Se giochi in 1080p non basta neanche il 69700

e perchè a 1080p dovresti prendere qualcosa di più potente di una 4070/7800XT? :mbe:

OrazioOC
22-03-2024, 17:04
Per loro è un bene, visto che stanno riuscendo ad utilizzare sino all'ultimo fail, quindi il prezzo per die complessivo diminuisce, soprattutto su AD103, che ne ha abbastanza.

La cosa strana, è che devastano tantissimo ad103, potrebbe essere benissimo una 4070 super, invece no, taglio netto lasciando solo 46 smt su 80 disponibili per ad103 full!

mikael84
22-03-2024, 17:40
La cosa strana, è che devastano tantissimo ad103, potrebbe essere benissimo una 4070 super, invece no, taglio netto lasciando solo 46 smt su 80 disponibili per ad103 full!

Probabilmente non è una scelta loro, ma è dovuto al recupero di qualche chip gravemente fallato. AD103 ha 1 die su 3 fail.
Visto che era da buttare, salvano il possibile e lo vendono in base a specifiche salvate o richieste.

Considera che AD104 non ha tutti questi fail per tirare avanti una serie di GPU, buona parte è partizionata, quindi ben vengano per loro chip distrutti da altre sku.
Diversa la 4070 super, dove usano tutti i chip buoni.

marbasso
22-03-2024, 19:03
e perchè a 1080p dovresti prendere qualcosa di più potente di una 4070/7800XT? :mbe:

Non ci sarebbe da stupirsi eh...

Magistercris
23-03-2024, 06:20
Al momento non si sa praticamente nulla, se non qualche rumour sui cuda, bus e ram.:D
Cmq tu dici, una sorta di Hardware scheduler... penso proprio di no.

si, esatto, tipo con un acceleratore ad hoc. Poteva essere interessante.. Grazie!!

Ubro92
23-03-2024, 06:31
Se giochi in 1080p non basta neanche il 697001080p é praticamente un DLSS performance partendo dal 4K o un quality dal 1440p.

Non mi aspetterei miracoli sul fronte: "sgravo dalla cpu", anche perché entro l'anno arriveranno Zen 5 ed Arrow.

Inviato dal mio M2012K11AG utilizzando Tapatalk

bronzodiriace
23-03-2024, 17:39
Beh la sostanza c'era nelle 4000

nella 4090 assolutamente si

bronzodiriace
23-03-2024, 20:46
per natale 5080 e 5070ti si spera ci siano, a prezzi non esorbitanti, magari 1000 massimo per la 5080...Giacchetta vuole sofferenza e dolore. Quindi 5080 1500 euro minimo.

Inviato dal mio MAR-LX1A utilizzando Tapatalk

fraussantin
23-03-2024, 20:49
Giacchetta vuole sofferenza e dolore. Quindi 5080 1500 euro minimo.

Inviato dal mio MAR-LX1A utilizzando TapatalkNon è detto.

bobby10
23-03-2024, 21:51
1080p é praticamente un DLSS performance partendo dal 4K o un quality dal 1440p.

Non mi aspetterei miracoli sul fronte: "sgravo dalla cpu", anche perché entro l'anno arriveranno Zen 5 ed Arrow.

Inviato dal mio M2012K11AG utilizzando Tapatalk

mi auguro non come qualità percepita..

Ubro92
23-03-2024, 21:58
mi auguro non come qualità percepita..Rispetto a settare 1080p su un pannello 4k direi infinitamente meglio...

Inviato dal mio M2012K11AG utilizzando Tapatalk

albero77
24-03-2024, 10:40
Non è detto.

Io speravo in una 5090 prezzata alta ma riservata ad un altro tipo di utenza, non sicuramente quella del gaming e poi una 5080 per il gaming puro ad un prezzo ragionevole in base alle performance. Certo è che finchè la concorrenza è questa non possiamo aspettarci niente di buono. Anni fa non avrei mai pensato di acquistare una cpu amd e oggi invece mi sembra follia tornare ad intel.

shauni86
24-03-2024, 11:27
Giacchetta vuole sofferenza e dolore. Quindi 5080 1500 euro minimo.

Inviato dal mio MAR-LX1A utilizzando TapatalkE forse manco per natale

OrazioOC
24-03-2024, 14:47
https://videocardz.com/newz/microsoft-directsr-revealed-making-resolution-upscalers-easier-to-implement

Da vedere come si frappone con il dlss e l'fsr, sulla carta però potrebbe giovare più ai possessori di gpu amd/intel. :)
Non integra comunque il frame generator.

ste-87
24-03-2024, 15:27
Originariamente inviato da ray_hunter Guarda i messaggi
Dentro di me penso che con la 4090 sto benissimo ma in realtà so già che appena vedrò i bench della 5090 sarò in totale stato di subbuglio ed eccitazione.
Cmq 2.5K€ non glielo do a giacchetta: non se ne parla max 2K

mmmmmm... verrete tutti facilmente convinti dai grafici e da jaccketta, "The more you spend...." :ciapet:

erano i classici discorsi che si sentivano quando la soglia era stata alzata a 999 e poi a 1400, ora la soglia ritenuta "accettabile" sono i 2000, tra altre 2 gen sarà 2500...che futuro roseo (per giacchetta ovviamente:rolleyes: )

marbasso
24-03-2024, 15:31
erano i classici discorsi che si sentivano quando la soglia era stata alzata a 999 e poi a 1400, ora la soglia ritenuta "accettabile" sono i 2000, tra altre 2 gen sarà 2500...che futuro roseo (per giacchetta ovviamente:rolleyes: )

Io continuo a ripetere che a questo giro se Jacket molla un doppio die con gddr7 (magari a 40gps hynix...anche se dubito molto, e mo che legge Mikael mi punisce.... ''perchè è MICRON il partner'') passiamo i 2500 in scioltezza.
Ma più che altro...sono interessato al tdp, possibile trovarci con dissipatori ancora più grossi?

ste-87
24-03-2024, 15:38
Io continuo a ripetere che a questo giro se Jacket molla un doppio die con gddr7 (magari a 40gps hynix...anche se dubito molto, e mo che legge Mikael mi punisce.... ''perchè è MICRON il partner'') passiamo i 2500 in scioltezza.
Ma più che altro...sono interessato al tdp, possibile trovarci con dissipatori ancora più grossi?

in se per se il prezzo della TOP potrebbe anche starci, il fatto è che si tira dietro anche tutte le fasce sotto, diventando un problema che coinvolge tutti non solo chi è interessato ad avere la xx90 di turno che magari può anche buttare 2500-3000€ su una scheda video.

Realisticamente i tdp rimarano nei limiti della 4090, hanno già fatto dei dissipatori assurdamente giganti con questa gen, non possono andare oltre, altrimenti tanto varrebbe venderle già liquidate

per natale 5080 e 5070ti si spera ci siano, a prezzi non esorbitanti, magari 1000 massimo per la 5080...

con una 4080 super a 1150-1250€ non puoi realisticamente sperare che la 5080 sarà lanciata a massimo 1000€, se ci vuoi sperare fallo pure, ma rimarrà solo una speranza nel 99% dei casi...il trend è quello di alzare i prezzi ad ogni tornata, tanto il mercato gli va dietro, nella migliore ipotesi rimangno uguali

marbasso
24-03-2024, 15:43
in se per se il prezzo della TOP potrebbe anche starci, il fatto è che si tira dietro anche tutte le fasce sotto, diventando un problema che coinvolge tutti non solo chi è interessato ad avere la xx90 di turno che magari può anche buttare 2500-3000€ su una scheda video.

Se le fasce sotto rimangono su singolo Die non credo che aumenteranno + di tanto rispetto ad Ada. Magari qualcosa in più potrebbe essere giustificata da della vram maggiore.

mikael84
24-03-2024, 16:33
Io continuo a ripetere che a questo giro se Jacket molla un doppio die con gddr7 (magari a 40gps hynix...anche se dubito molto, e mo che legge Mikael mi punisce.... ''perchè è MICRON il partner'') passiamo i 2500 in scioltezza.
Ma più che altro...sono interessato al tdp, possibile trovarci con dissipatori ancora più grossi?

Niente hynix da 40 gb/s, il valore lo farà inizialmente micron.
Inoltre, hynix afferma "up to", come micron up to 36 gb/s, ma la realtà è un'altra.:)
Diciamo che a 512bit, l'ultimo problema è la banda, ma la densità sui bus minori.

Il TDP possono pure aumentarlo, ma il compromesso sarà sempre il cavo da 600... salvo soluzioni a 2x 16pin, come galax.

A sto giro, o migliori la microarchitettura, o non hai molto margine di PP, il big chip è oltre 2 volte la 4080.

fraussantin
24-03-2024, 16:37
con una 4080 super a 1150-1250€ non puoi realisticamente sperare che la 5080 sarà lanciata a massimo 1000€, se ci vuoi sperare fallo pure, ma rimarrà solo una speranza nel 99% dei casi...il trend è quello di alzare i prezzi ad ogni tornata, tanto il mercato gli va dietro, mellòa migliore rimangno uguali

Nvidia ha dimostrato di gestire il mercato con padronanza e di essere imprevedibile ogni volta.

Le 4000 super di fatto sono migliori delle normali e costano di meno.

Questo perche adesso ha deciso di piazzarle.

Quindi difficile capire come vorrà muoversi , anche perche dipenderà da tantissimo .

Volumi disponibili , mercato datacenter, concorrenza , avanzi di ada da smaltire.

Certezze non ce ne sono .

Telstar
24-03-2024, 16:39
Nvidia ha dimostrato di gestire il mercato con padronanza e di essere imprevedibile ogni volta.

traduzione: giacchetta ha imparato come mettercelo sempre in quel posto.

marbasso
24-03-2024, 16:44
traduzione: giacchetta ha imparato come mettercelo sempre in quel posto.

Io ormai l' ano ce l'ho sfondato da Nvidia, non fa più male da tempo, mi interessano solo le performance fps.

fraussantin
24-03-2024, 20:20
traduzione: giacchetta ha imparato come mettercelo sempre in quel posto.:asd:

caccapupu91
25-03-2024, 08:30
wise words @marbasso :asd:

Kvarat
25-03-2024, 12:42
Per come la vedo io il prossimo giro di gpu sarà molto influenzato da GTA 6. Se si presenta come un mattone allora scatterà la corsa all'acquisto da parte di molti giocatori per goderselo.

Dracula1975
25-03-2024, 12:49
Per come la vedo io il prossimo giro di gpu sarà molto influenzato da GTA 6. Se si presenta come un mattone allora scatterà la corsa all'acquisto da parte di molti giocatori per goderselo.

toglierei il "se"..ma "quanto" sarà un mattone....

marbasso
25-03-2024, 13:04
Se non si prevede un buon salto di nodo con tutti i transistor che aggiungeranno vedrete come si arriva a 700w LOL. Per raffreddare però se i due è doppio viene meglio, più superficie.

Salfox
25-03-2024, 13:16
Se non si prevede un buon salto di nodo con tutti i transistor che aggiungeranno vedrete come si arriva a 700w LOL. Per raffreddare però se i due è doppio viene meglio, più superficie.

Ricordati che c'è sempre il vincolo della connessione elettrica che porta massimo 600W, escludo che facciano qualcosa che abbia un TDP maggiore di 600W ma vedrete che al contrario i consumi saranno molto minori di quello che si pensa.

scorpion73
25-03-2024, 13:25
I dissipatori attuali sono progettati per 600W, tanto è vero che le 4090 sono abbastanza gelide pur avendo consumi nel tdp massimo che non sono propriamente bassi....
A mio avviso, e facendo un paragone anche con quello che hanno presentato sul settore professionale, dove le nuove gen consumano quasi il doppio delle vecchie, il tdp crescerà sulla top di gamma: senza un salto di nodo e con in più le gddr7 e 6000 cuda anche una progettazione differente non ti salverà da un tdp di 550W o comunque non meno di 500W.... a stock ovviamente.
Non spingeranno mai al limite a stock il cavo 16 pin visti i casini che ci sono stati, ma è probabile se sarà questo lo stock che le top di gamma ne abbiano due di prese a 16 pin, non mi meraviglierei.
La 5080 starà secondo me sui 350W, massimo 400W.
Peccato che dai rumor che ci sono in giro come prestazioni secondo me ben che vada arriverà ai livelli di una 4090 attuale (quando normalmente negli ultimi giri le top della vecchia gen erano prese dalle 70 della nuova gen) perché essendo la metà di una 5090 come risorse il divario fra le due aumenterà e già adesso non è che sia proprio poco...

amon.akira
25-03-2024, 13:46
La 5080 starà secondo me sui 350W, massimo 400W.
Peccato che dai rumor che ci sono in giro come prestazioni secondo me ben che vada arriverà ai livelli di una 4090 attuale (quando normalmente negli ultimi giri le top della vecchia gen erano prese dalle 70 della nuova gen) perché essendo la metà di una 5090 come risorse il divario fra le due aumenterà e già adesso non è che sia proprio poco...

prima la differenza senza cut tra full 02 era +75% vs 04 e +40% vs 03, ora sarà il doppio dello 03

mikael84
25-03-2024, 14:13
prima la differenza senza cut tra full 02 era +75% vs 04 e +40% vs 03, ora sarà il doppio dello 03

Probabilmente farano un cut del chippone, magari una doppia x90, tutto può essere. Il divario è pazzesco al momento.
Una versione da 24gb con i 2 die disabilitati o il big die da 16-18k. In campo pro, ci sarà per forza. 48gb in clamshell e 64 per la top.

Senza una via di mezzo, ci si ritroverà una x90 che andrà come la 4090 vs la 4070ti /2080ti vs 2070 liscia / Titant XP vs 1070.

Commercialmente un disastro.

marbasso
25-03-2024, 14:32
I dissipatori attuali sono progettati per 600W, tanto è vero che le 4090 sono abbastanza gelide pur avendo consumi nel tdp massimo che non sono propriamente bassi....
A mio avviso, e facendo un paragone anche con quello che hanno presentato sul settore professionale, dove le nuove gen consumano quasi il doppio delle vecchie, il tdp crescerà sulla top di gamma: senza un salto di nodo e con in più le gddr7 e 6000 cuda anche una progettazione differente non ti salverà da un tdp di 550W o comunque non meno di 500W.... a stock ovviamente.
Non spingeranno mai al limite a stock il cavo 16 pin visti i casini che ci sono stati, ma è probabile se sarà questo lo stock che le top di gamma ne abbiano due di prese a 16 pin, non mi meraviglierei.
La 5080 starà secondo me sui 350W, massimo 400W.
Peccato che dai rumor che ci sono in giro come prestazioni secondo me ben che vada arriverà ai livelli di una 4090 attuale (quando normalmente negli ultimi giri le top della vecchia gen erano prese dalle 70 della nuova gen) perché essendo la metà di una 5090 come risorse il divario fra le due aumenterà e già adesso non è che sia proprio poco...

Si possono giostrare alla fine come ora, tra connettore e pciex sono 675w

Vul
25-03-2024, 14:51
Per come la vedo io il prossimo giro di gpu sarà molto influenzato da GTA 6. Se si presenta come un mattone allora scatterà la corsa all'acquisto da parte di molti giocatori per goderselo.

Ma no, GTA uscira' non nella prossima generazione di gpu ma quella dopo.

Le GPU che lanceranno a fine anno sono belle che finalizzate lato spec da secoli.

fraussantin
25-03-2024, 14:58
Ma no, GTA uscira' non nella prossima generazione di gpu ma quella dopo.



Le GPU che lanceranno a fine anno sono belle che finalizzate lato spec da secoli.Anche gta 6 lo è , ma penso che fra la versione console e quella pc passerà almeno un anno se non 2 , quindi si lo avremo con le 6000.

Vul
25-03-2024, 15:03
Anche gta 6 lo è , ma penso che fra la versione console e quella pc passerà almeno un anno se non 2 , quindi si lo avremo con le 6000.

Stando ai rumours ultimi lanceranno su console per dicembre 2026, quindi mi sa possiamo anche parlare delle 7000 :D

amon.akira
25-03-2024, 15:19
Probabilmente farano un cut del chippone, magari una doppia x90, tutto può essere. Il divario è pazzesco al momento.
Una versione da 24gb con i 2 die disabilitati o il big die da 16-18k. In campo pro, ci sarà per forza. 48gb in clamshell e 64 per la top.

Senza una via di mezzo, ci si ritroverà una x90 che andrà come la 4090 vs la 4070ti /2080ti vs 2070 liscia / Titant XP vs 1070.

Commercialmente un disastro.

lo spero, ma poi magari ne approfitta maggiormente sulla x80 :P (come prezzo intendo)

Ma no, GTA uscira' non nella prossima generazione di gpu ma quella dopo.

Le GPU che lanceranno a fine anno sono belle che finalizzate lato spec da secoli.

si diciamo che queste 5000 saranno un intermezzo in attesa delle 6000 con le nuove console

Kvarat
25-03-2024, 15:28
Stando ai rumours ultimi lanceranno su console per dicembre 2026, quindi mi sa possiamo anche parlare delle 7000 :D

Pensavo molto prima. Allora niente confronto sulle vendite della prossima generazione.

scorpion73
25-03-2024, 15:29
Si possono giostrare alla fine come ora, tra connettore e pciex sono 675w

Sempre un boato sono...
una vga che ciuccia 550W di corrente a stock mi mette paura sinceramente parlando...

scorpion73
25-03-2024, 15:30
si diciamo che queste 5000 saranno un intermezzo in attesa delle 6000 con le nuove console

Quotissimo, saranno solo un passaggio intermedio per me, ciucciatrici di corrente in uno scenario dove la 4090 non viene messa in crisi da niente, a parte forse due giochi che sono più tech demo che giochi veri e propri.

Come sempre, saranno le nuove console a dettare i tempi del prossimo vero salto (in termini di commercializzazione intendo).

mikael84
25-03-2024, 15:32
I dissipatori attuali sono progettati per 600W, tanto è vero che le 4090 sono abbastanza gelide pur avendo consumi nel tdp massimo che non sono propriamente bassi....
A mio avviso, e facendo un paragone anche con quello che hanno presentato sul settore professionale, dove le nuove gen consumano quasi il doppio delle vecchie, il tdp crescerà sulla top di gamma: senza un salto di nodo e con in più le gddr7 e 6000 cuda anche una progettazione differente non ti salverà da un tdp di 550W o comunque non meno di 500W.... a stock ovviamente.
Non spingeranno mai al limite a stock il cavo 16 pin visti i casini che ci sono stati, ma è probabile se sarà questo lo stock che le top di gamma ne abbiano due di prese a 16 pin, non mi meraviglierei.
La 5080 starà secondo me sui 350W, massimo 400W.
Peccato che dai rumor che ci sono in giro come prestazioni secondo me ben che vada arriverà ai livelli di una 4090 attuale (quando normalmente negli ultimi giri le top della vecchia gen erano prese dalle 70 della nuova gen) perché essendo la metà di una 5090 come risorse il divario fra le due aumenterà e già adesso non è che sia proprio poco...

Bisogna dire però che GB200 è dual die, un over dual hopper. Hopper integrava 18432 cc + int, cuttati a 16000, mentre Balckwell, dovrebbe passare a 20480 x 2 / 40960 cc + INT.

Internamente (JHH non ha rilasciato ancora nulla, ma dal layout si intravede), dovrebbero aver snellito il tutto, con SM doppi, quindi l1 condivisa, stessi tensor, ma 4x (2x 256ops + FP4), ma non è stato rilasciato il clock, solo il picco dei tensor, ma non sappendo le unità a disposione è problematico calcolarlo.

Riguardo la gaming, se BL203 consuma 350-400watt è problematico il chip doppio.:)
Pneso che BL203 possa tranquillamente rientrare nei 320watt classici, anzi non è neppure escluso che quel chip, possa far parte di una fascia, come la x70ti.

Se non migliori la microarchitettura, con 12288cc (11700cc in cut), fai poca strada verso la 4090.
Una 5080 che non batte il top chip (che non è neppure top), è davvero brutto da vedere a livello commerciale.

mikael84
25-03-2024, 15:47
lo spero, ma poi magari ne approfitta maggiormente sulla x80 :P (come prezzo intendo)



Può anche fare 2 x x90, una a prezzo classico da 24gb ed una verso l'infinito ed oltre, da 32gb.:D
Cmq l'importante che porti le perf della 4080 e 4090 a prezzi più consomi, poi per quel che mi riguarda può fare come crede.:p

Certo che se BL203, dev'essere una 5080, giò si parte male.

Telstar
25-03-2024, 21:46
Ricordati che c'è sempre il vincolo della connessione elettrica che porta massimo 600W, escludo che facciano qualcosa che abbia un TDP maggiore di 600W ma vedrete che al contrario i consumi saranno molto minori di quello che si pensa.

+75W del bus pcie.

OrazioOC
26-03-2024, 07:20
Può anche fare 2 x x90, una a prezzo classico da 24gb ed una verso l'infinito ed oltre, da 32gb.:D
Cmq l'importante che porti le perf della 4080 e 4090 a prezzi più consomi, poi per quel che mi riguarda può fare come crede.:p

Certo che se BL203, dev'essere una 5080, giò si parte male.

Scenario "What if", BL203 sarebbe la top di gamma di questa generazione, un po' come la gtx 680 in epoca kepler? Non mi sembra che amd e intel abbiano qualcosa da mettere in concorrenza a viso aperto con BL203(Lasciando stare BL202 :asd:). :rolleyes:

mikael84
26-03-2024, 14:10
Scenario "What if", BL203 sarebbe la top di gamma di questa generazione, un po' come la gtx 680 in epoca kepler? Non mi sembra che amd e intel abbiano qualcosa da mettere in concorrenza a viso aperto con BL203(Lasciando stare BL202 :asd:). :rolleyes:

Qualcosa in comune c'è, anche se visti i ritardi del big chip, si crearono 2 fasce praticamente, dove la 680 (quindi BL103 in questo caso) divenne x70. Quello che dovrebbe essere già da ora.

AMD pare debuttare con mid chip e non oltre, ma si spera con il bvh, altrimenti non ci siamo proprio.

Predator_1982
27-03-2024, 14:29
Sempre un boato sono...
una vga che ciuccia 550W di corrente a stock mi mette paura sinceramente parlando...

tireranno fuori i nuovi alimentatori ATX x.x.x.x.x.

Tutti devono guadagnarci qualcosa....:muro:

scorpion73
27-03-2024, 14:45
tireranno fuori i nuovi alimentatori ATX x.x.x.x.x.

Tutti devono guadagnarci qualcosa....:muro:

La notizia di un nuovo cavo all'orizzonte si era palesata.
Pare che sia fake, ma su ste cose sono come San Tommaso: fino a che non vedo, non credo....

Predator_1982
27-03-2024, 16:11
La notizia di un nuovo cavo all'orizzonte si era palesata.
Pare che sia fake, ma su ste cose sono come San Tommaso: fino a che non vedo, non credo....

i tralicci dell'alta tensione :D :D :cool:

CtrlAltSdeng!
27-03-2024, 16:58
La notizia di un nuovo cavo all'orizzonte si era palesata.
Pare che sia fake, ma su ste cose sono come San Tommaso: fino a che non vedo, non credo....

la situazione è già imbarazzante così come è, quello che ipotizzi diventerebbe un vero e proprio circo

le revisioni ATX major avvengono ogni dieci anni o giù di lì quindi ormai questa soluzione ce la teniamo per un bel po', poi ho visto che la gente è felice di pagare 60€ per un cavo sleevato in sostituzione del polipo gratis (orrendo effettivamente) quindi perchè non continuare su questa strada? business is business :fagiano:

der8auer ha giustamente trollato queste soluzioni atx 3.0 nei suoi video recentemente ma se l'industria decide noi obbediamo :stordita:

Ubro92
27-03-2024, 22:25
Sinceramente tutti sti problemi energetici non ce li vedo...

In passato c'erano dual gpu mostruose con 3 o persino 4 connettori 8 pin, vedi la R9 295x2 Devil13 :sofico:

Senza contare le configurazioni con tri o quad sli/cross :fagiano:

In linea di principio, avere un unico connettore anziché 3 o più da 8pin semplifica molto il cablaggio, alleggerendo anche l'estetica.

Forse più sui chip minori da massimo 200w è abbastanza superfluo, li te ne esci con un singolo 8 pin e hai anche un pelo di margine (150+75w).

In futuro potrebbero rendere le mobo più complesse per gestire carichi maggiori dal pcie, ma altre revisioni del cavo se ci saranno in questi anni, serviranno solo a migliorare il sistema di aggancio e ridurre i rischi di rottura senza cambiarne i pin, cambiamenti drastici possono esserci solo a distanza di molti anni e in genere c'è sempre un momento di transizione.

CtrlAltSdeng!
27-03-2024, 22:45
mah se però me lo infili a metà vga perchè il pcb è mini il risultato estetico sinceramente lascia a desiderare e il non poterlo flettere più di tanto lo rende troppo invasivo...un buon sleevato di qualità lo pieghi come vuoi...ma parlare di estetica lascia il tempo che trova imho è troppo soggettivo...il fatto è che der8auer e altri lo hanno trollato proprio tecnicamente.....non ha senso...piuttosto passiamo ai connettori mini

Ubro92
27-03-2024, 23:04
Insomma 4x8pin si fanno notare :sofico:

https://www.techpowerup.com/img/14-06-03/61e.jpg

Il problema del cavo localizzato centralmente lo avresti anche i classici 8 e 6pin, purtroppo come hai detto è un problema dato dalle dimensioni del pcb, decisamente più piccole del dissipatore.

Si potrebbe risolvere posizionando i cavi dietro la gpu, ma è una soluzione che a seconda del case potrebbe creare problemi.

marbasso
28-03-2024, 11:43
Insomma 4x8pin si fanno notare :sofico:
.

Un TDP di 580 W nel 2014, LOL....
Bella cmq non avevo memoria di questa vga.
Ero rimasto ai 3x8 pin + recenti.

mikael84
28-03-2024, 12:22
Un TDP di 580 W nel 2014, LOL....
Bella cmq non avevo memoria di questa vga.
Ero rimasto ai 3x8 pin + recenti.

Con la 295 AMD si era superata, questo anche in barba allo standard AWG20 dei 150w per 8pin.

https://www.techpowerup.com/review/amd-r9-295-x2/4.html


"The card requires two 8-pin PCI-Express power connectors. This configuration would normally be good for up to 375 W of power draw. AMD, however, has chosen to trump those specifications and cites a minimum of 28A (=336 W) for each connector, which brings the total to around 750 W"

Furmark ha sparato 646 watt su 2x 8pin
https://www.techpowerup.com/review/amd-r9-295-x2/22.html

Questo significa che con un 1x8pin (quello va a 9,3 vs 8,3) potresti alimentare una 4080.

Oggi bene o male molti ALI sono AWG16-18, mentre prima già per lo standard AWG18 fregavano, applicando un isolamento eccezionalmente spesso, facendolo sembrare AGW18, mentre erano 20.

marbasso
28-03-2024, 13:08
Con la 295 AMD si era superata, questo anche in barba allo standard AWG20 dei 150w per 8pin.

https://www.techpowerup.com/review/amd-r9-295-x2/4.html


"The card requires two 8-pin PCI-Express power connectors. This configuration would normally be good for up to 375 W of power draw. AMD, however, has chosen to trump those specifications and cites a minimum of 28A (=336 W) for each connector, which brings the total to around 750 W"

Furmark ha sparato 646 watt su 2x 8pin
https://www.techpowerup.com/review/amd-r9-295-x2/22.html

Questo significa che con un 1x8pin (quello va a 9,3 vs 8,3) potresti alimentare una 4080.

Oggi bene o male molti ALI sono AWG16-18, mentre prima già per lo standard AWG18 fregavano, applicando un isolamento eccezionalmente spesso, facendolo sembrare AGW18, mentre erano 20.

A proposito di Furmark, in oc col bios 666w lo utilizza tutto, facendo segnare 663w, col bios da 1000w supero i 740w ...
Che virus di applicazione.

mikael84
28-03-2024, 13:21
A proposito di Furmark, in oc col bios 666w lo utilizza tutto, facendo segnare 663w, col bios da 1000w supero i 740w ...
Che virus di applicazione.

Tutte le protezione invasive che troviamo oggi, nascono principalmente per contrastare quel killer software, che svariati anni fa, faceva saltare i mosfet molto facilmente.
Lo si usava soprattutto per trovare la stabilità in OC, ma a conti fatti non serviva a una mazza.

marbasso
31-03-2024, 17:30
Cmq buona Pasqua

https://i.postimg.cc/xjtgQzf6/SIZED-Ik-T-3778056416-3221367ea7-o.webp

marbasso
31-03-2024, 17:40
Tutte le protezione invasive che troviamo oggi, nascono principalmente per contrastare quel killer software, che svariati anni fa, faceva saltare i mosfet molto facilmente.
Lo si usava soprattutto per trovare la stabilità in OC, ma a conti fatti non serviva a una mazza.

Si ma OCCT ad oggi è anche peggio di furmark....

marbasso
01-04-2024, 16:14
Attenzione!

https://i.postimg.cc/WzNRGcXp/Screenshot-90.png



https://www.youtube.com/watch?v=KjlNzuum69s

cagnaluia
05-04-2024, 08:03
Ciao, non avendo una vga decente per giocare ho trovato e preso su amazon una 3060 12GB "rimarchiata per workstation Lenovo", che costava 200euro.
Chissà che vada bene e che non sia in qualche modo "castrata".


https://product-images.eetgroup.com/images/1400px_jpg/Img_32570142.jpg

https://product-images.eetgroup.com/images/1400px_jpg/Img_32615796.jpg

Ubro92
05-04-2024, 11:54
L'unica cosa castrata è il PL che dovrebbe essere intorno ai 170w, che per un chip come GA106 bastano e avanzano, ti fai una curva con MSI AB e sei apposto.

Salfox
05-04-2024, 12:05
Ciao, non avendo una vga decente per giocare ho trovato e preso su amazon una 3060 12GB "rimarchiata per workstation Lenovo", che costava 200euro.
Chissà che vada bene e che non sia in qualche modo "castrata".


E' un'ottima scheda specie a quel prezzo, l'unica cosa potrebbe essere quella che non venga riconosciuta dai drivers generici Nvidia e richieda quelli Lenovo che non vengono aggiornati con la stessa regolarità ma l'ipotesi è davvero remota.

cagnaluia
05-04-2024, 12:35
L'unica cosa castrata è il PL che dovrebbe essere intorno ai 170w, che per un chip come GA106 bastano e avanzano, ti fai una curva con MSI AB e sei apposto.

Sembrerebbe una msi

Ma il tool msi ab va bene con qualunque brand ?

FrancoBit
05-04-2024, 13:26
Sembrerebbe una msi

Ma il tool msi ab va bene con qualunque brand ?

Assolutamente si

fraussantin
06-04-2024, 12:34
Sembrerebbe una msi



Ma il tool msi ab va bene con qualunque brand ?Riguardo l'impostazione dei voltaggi\ clock\ pl si puoi usarlo tranquillamente.
Per le ventole non sono sicuro che funzioni bene con tutte le schede.

In passato con una 3080 evga mi faceva settare solo la prima ventola le altre andavano a comodo loro

cagnaluia
06-04-2024, 18:52
C e un effettivo miglioramento o niente di che ?

OrazioOC
08-04-2024, 15:18
https://videocardz.com/newz/nvidia-board-partners-expect-geforce-rtx-5090-and-rtx-5080-to-launch-in-fourth-quarter

CtrlAltSdeng!
08-04-2024, 16:41
Bhel la vera notizia è che abbiano ancora dei partner per le gpu :p

R@nda
08-04-2024, 17:21
Ma io leggevo che in Cina i partner stanno aumentando i prezzi.
Non so poi qui da noi

fraussantin
08-04-2024, 20:16
https://videocardz.com/newz/nvidia-board-partners-expect-geforce-rtx-5090-and-rtx-5080-to-launch-in-fourth-quarterCome previsto.

Però ho paura che avremo brutte sorprese sulla fascia media.

cagnaluia
08-04-2024, 20:19
uff :( questa 3060 è fastidiosa, anche in idle le ventole girano e mi girano ...


c'è qualcosa che posso fare per farla tacere prima di spezzarla ? :p

fraussantin
08-04-2024, 20:26
uff :( questa 3060 è fastidiosa, anche in idle le ventole girano e mi girano ...





c'è qualcosa che posso fare per farla tacere prima di spezzarla ? :pProva a vedere se con AB riesci a fargli prendere un profilo silenzioso fino a 40 gradi.


Se il bios non lo prevede dubito , ma tentare ..

cagnaluia
08-04-2024, 20:31
cmq dopo 2 minuti che gioco a BF2042.. si spegne il pc.. l'alimentatore di 450w non ce la fa :D

fraussantin
08-04-2024, 20:33
cmq dopo 2 minuti che gioco a BF2042.. si spegne il pc.. l'alimentatore di 450w non ce la fa :D

Che alimemtatore è?

E che cpu hai?

cagnaluia
08-04-2024, 20:51
Che alimemtatore è?

E che cpu hai?

Corsair CX450M

Intel Core i5-13500

Telstar
08-04-2024, 21:06
Corsair CX450M

La serie CX è la più scarsa di Corsair, cambialo.

CtrlAltSdeng!
08-04-2024, 21:13
cmq dopo 2 minuti che gioco a BF2042.. si spegne il pc.. l'alimentatore di 450w non ce la fa :D

la peggior serie nvidia lato efficienza con la peggiore serie delle psu corsair

cosa potrebbe mai andare male :)

fraussantin
08-04-2024, 21:14
Corsair CX450M

Intel Core i5-13500La serie CX è la più scarsa di Corsair, cambialo.La cx è scarsa, ma non come le vs e la 3060 la dovrebbe reggere.

Prob è rotta o è vecchia e fa parte di una mandata di quelle che all'epoca avevano il logo verde e capitavano difettose.

argez
08-04-2024, 23:22
La serie CX è la più scarsa di Corsair, cambialo.

Dipende quali, gli M sì. Quelli non modulari con la targhetta grigia erano validi.

mikael84
09-04-2024, 00:15
Raga, non per fare il puntiglioso, ma questo è il thread aspettando le nuove GPU, non delle ampere.

Ci sono i thread appositi per le ampere.

cagnaluia
09-04-2024, 05:37
Mi dispiace era da anni che lo usavo con soddisfazione, non faceva il minimo rumore. beh cambiato con seasonic 550

Ok meglio chiudere qui l off topic , ad ogni modo oggi spezzerò la 3060 , io non accetto rumore in idle.

mikael84
10-04-2024, 12:25
https://videocardz.com/newz/nvidia-board-partners-expect-geforce-rtx-5090-and-rtx-5080-to-launch-in-fourth-quarter

Come previsto.

Però ho paura che avremo brutte sorprese sulla fascia media.

Per ora brutte, finchè non avrò modo di vedere la microarchitettura e la densità utilizzata almeno, ma il margine non sarà altissimo.
Al momento dovrebbe essere:
GB202: top 192SM (5090 cut)
GB203: 96 SM /6 GPC (12288cc) 256 bit (+20% teorico 4080s)
GB205: 64 SM /4 GPC (8192cc) 192bit (+6,7 la 4070ti / +14,3 la 4070 super)

Chip che ci stanno, ma bisogna vedere le nomenclature, come le ho proposte io, sono un mezzo schifo, salvo non tirino fuori un maxwell 2.0.

Purtroppo per limiti sul mercato cinese, non bisogna superare i 4800TPP, e GB203 ci rientrebbe ancora, oltre non venderebbe li.

OrazioOC
10-04-2024, 13:20
Per ora brutte, finchè non avrò modo di vedere la microarchitettura e la densità utilizzata almeno, ma il margine non sarà altissimo.
Al momento dovrebbe essere:
GB202: top 192SM (5090 cut)
GB203: 96 SM /6 GPC (12288cc) 256 bit (+20% teorico 4080s)
GB205: 64 SM /4 GPC (8192cc) 192bit (+6,7 la 4070ti / +14,3 la 4070 super)

Chip che ci stanno, ma bisogna vedere le nomenclature, come le ho proposte io, sono un mezzo schifo, salvo non tirino fuori un maxwell 2.0.

Purtroppo per limiti sul mercato cinese, non bisogna superare i 4800TPP, e GB203 ci rientrebbe ancora, oltre non venderebbe li.

Io non sò te mike, ma temo in un'altra generazione parecchio magra per le gpu sub 700 dollars.
In primis per la vram risicata che rischiano di avere, nel caso in cui proseguano con l'adozione delle gddr7 doppia densità.
Ma anche il numero di GPC per tutto ciò che sta sotto GB202(che non mi sembra assolutamente un chip pensato per l'ambito consumer) è parecchio ristretto.
Quindi si, a meno che non tirino fuori un cilindro dal cappello alla maxwell, la vedo gnara. :rolleyes:

CtrlAltSdeng!
10-04-2024, 14:05
Io non sò te mike, ma temo in un'altra generazione parecchio magra per le gpu sub 700 dollars.
In primis per la vram risicata che rischiano di avere, nel caso in cui proseguano con l'adozione delle gddr7 doppia densità.
Ma anche il numero di GPC per tutto ciò che sta sotto GB202(che non mi sembra assolutamente un chip pensato per l'ambito consumer) è parecchio ristretto.
Quindi si, a meno che non tirino fuori un cilindro dal cappello alla maxwell, la vedo gnara. :rolleyes:

la vram la risolvono mettendo dlss 4 o come vogliono chiamarlo secondo loro.....il problema è sul pregresso che non viene aggiornato (vabbèpotrebbe essere un non problema oppure si) e su ciò che non avra day1 il tutto pronto e soprattutto a posto :stordita: un bel azzardo

mikael84
10-04-2024, 14:14
Io non sò te mike, ma temo in un'altra generazione parecchio magra per le gpu sub 700 dollars.
In primis per la vram risicata che rischiano di avere, nel caso in cui proseguano con l'adozione delle gddr7 doppia densità.
Ma anche il numero di GPC per tutto ciò che sta sotto GB202(che non mi sembra assolutamente un chip pensato per l'ambito consumer) è parecchio ristretto.
Quindi si, a meno che non tirino fuori un cilindro dal cappello alla maxwell, la vedo gnara. :rolleyes:

Da maxwell potrebbe ereditare la nuova rasterizzazione, li a 16, qua a 32, grazie agli 8 TPC (rop's virtualmente raddoppiate anche in turing via SFU), ed arrivare a 128 su 4 TPC.
Un punto di svolta, come turing, sarebbe passare ad una SMT64 con gli interi di nuovo separati (come per le classiche HPC), vedi 2070 super vs 1080, ma lo vedo difficile.

Per il resto anche AMD, non avendo nanometria, si concentrerà su chip mid, e la possibilità che quel chippetto proposto da AMD, vada a ripetere in parte ciò che abbiamo visto con 5700 vs 2070.

amon.akira
10-04-2024, 14:35
la vram la risolvono mettendo dlss 4 o come vogliono chiamarlo secondo loro.....il problema è sul pregresso che non viene aggiornato (vabbèpotrebbe essere un non problema oppure si) e su ciò che non avra day1 il tutto pronto e soprattutto a posto :stordita: un bel azzardo

si neural texture ma poi mancherebbe il software e il tempo che arriva ci saranno le 6000

Ubro92
10-04-2024, 14:48
Io sulle mid non mi farei troppi problemi, probabilmente saranno le uniche a beccarsi la tripla densità, in stile 3060 12GB che aveva più vram della 3080 XD

cagnaluia
10-04-2024, 17:42
attualmente ho la 3060 che fa girare sempre le ventole.
Con msi afterburner, non riesco a cambiare la loro velocità, la base di partenza è sempre 30%. Non ho uno 0... se tento di scriverlo a mano, non succede niente. mi rimette 30... :(

OrazioOC
10-04-2024, 18:53
Io sulle mid non mi farei troppi problemi, probabilmente saranno le uniche a beccarsi la tripla densità, in stile 3060 12GB che aveva più vram della 3080 XD

Potrebbe ma non subito, credo che se le risparmino per un eventuale refresh della lineup l'anno successivo, in modo da spremere nuovamente gli early adopters. :rolleyes:

OrazioOC
10-04-2024, 18:56
Da maxwell potrebbe ereditare la nuova rasterizzazione, li a 16, qua a 32, grazie agli 8 TPC (rop's virtualmente raddoppiate anche in turing via SFU), ed arrivare a 128 su 4 TPC.
Un punto di svolta, come turing, sarebbe passare ad una SMT64 con gli interi di nuovo separati (come per le classiche HPC), vedi 2070 super vs 1080, ma lo vedo difficile.

Per il resto anche AMD, non avendo nanometria, si concentrerà su chip mid, e la possibilità che quel chippetto proposto da AMD, vada a ripetere in parte ciò che abbiamo visto con 5700 vs 2070.

Qualcosa si dovranno inventare, o rischiamo l'ennesimo almost-sidegrade.
Ci siamo beccati la 4070 all'msrp originario della 3070 ti, portandosi dietro giusto 4gb di vram, +15% di performance raster e un 120w di tdp in meno. :rolleyes:

E questo per tirare in ballo la migliore del lotto delle ada per early adopters, 4060 e 4060 ti non le cito perchè le loro vendite parlano da sole. :muro:

SnobWatch
10-04-2024, 20:35
Leggevo questa news
https://www.hwupgrade.it/news/skvideo/nvidia-geforce-rtx-50-le-top-di-gamma-potrebbero-arrivare-entro-fine-anno-e-si-sono-previsti-prezzi-piu-alti_126025-30.html

E mi sono fatto una risata.
La mia Suprim X l'ho pagata 2400€, a quanto vorrebbero venderla la 5090? xD

albero77
10-04-2024, 20:41
Leggevo questa news
https://www.hwupgrade.it/news/skvideo/nvidia-geforce-rtx-50-le-top-di-gamma-potrebbero-arrivare-entro-fine-anno-e-si-sono-previsti-prezzi-piu-alti_126025-30.html

E mi sono fatto una risata.
La mia Suprim X l'ho pagata 2400€, a quanto vorrebbero venderla la 5090? xD

e se ci pensi era già una follia così

mikael84
10-04-2024, 21:01
Qualcosa si dovranno inventare, o rischiamo l'ennesimo almost-sidegrade.
Ci siamo beccati la 4070 all'msrp originario della 3070 ti, portandosi dietro giusto 4gb di vram, +15% di performance raster e un 120w di tdp in meno. :rolleyes:

E questo per tirare in ballo la migliore del lotto delle ada per early adopters, 4060 e 4060 ti non le cito perchè le loro vendite parlano da sole. :muro:

Viste così (microarchitettura a parte), sembrano un ulteriore refresh di lovelace sul 4nP e g7, con un uber chip pro da 32gb.
A sto giro, salvo una GPU d'intermezzo, si fa ancora più marcata la situazione tra pro-gaming e gaming.

Leggevo questa news
https://www.hwupgrade.it/news/skvideo/nvidia-geforce-rtx-50-le-top-di-gamma-potrebbero-arrivare-entro-fine-anno-e-si-sono-previsti-prezzi-piu-alti_126025-30.html

E mi sono fatto una risata.
La mia Suprim X l'ho pagata 2400€, a quanto vorrebbero venderla la 5090? xD

Per i prezzi dipende, il PP ha mediamente lo stesso prezzo, ma il problema può derivare da un monolitico molto grande, alla turing.
Inoltre si fortifica ancora di più il legame pro, visto che avrà ben 32gb di ram.
Quindi al momento, i costi di realizzo, aumenteranno sicuramente.
Ancora non si conoscono i costi delle nuove g7.:)

scorpion73
10-04-2024, 22:34
5080 con 20% teorico sopra la 4080S dovrebbe comunque essere sotto rispetto alla 4090 attuale sbaglio?

Ubro92
11-04-2024, 06:28
Penso se la giochi con la 4090D o giù di li, ai limiti delle limitazioni in Cina :fagiano:

Cutter90
11-04-2024, 07:00
Leggevo questa news
https://www.hwupgrade.it/news/skvideo/nvidia-geforce-rtx-50-le-top-di-gamma-potrebbero-arrivare-entro-fine-anno-e-si-sono-previsti-prezzi-piu-alti_126025-30.html

E mi sono fatto una risata.
La mia Suprim X l'ho pagata 2400€, a quanto vorrebbero venderla la 5090? xD

Va beh ma li sei tu che l'hai pagata una fucilata. La 4090 come prezzo stava tra i 1800 e i 2000 al D1.
Anche la mia Liquid X l'ho pagato 2350 mi pare. ma è un modello particolare :)

Ale55andr0
11-04-2024, 07:39
Va beh ma li sei tu che l'hai pagata una fucilata. La 4090 come prezzo stava tra i 1800 e i 2000 al D1.


solo una pistolettata insomma :O fortuna che poi per un periodo è arrivata alla coltellata a serramanico :O

ultimate trip
11-04-2024, 07:43
5080 con 20% teorico sopra la 4080S dovrebbe comunque essere sotto rispetto alla 4090 attuale sbaglio?

e probabilmente 16 gb di ram visto il bus a 256, corretto?

Dono89
11-04-2024, 07:51
Leggevo questa news
https://www.hwupgrade.it/news/skvideo/nvidia-geforce-rtx-50-le-top-di-gamma-potrebbero-arrivare-entro-fine-anno-e-si-sono-previsti-prezzi-piu-alti_126025-30.html

E mi sono fatto una risata.
La mia Suprim X l'ho pagata 2400€, a quanto vorrebbero venderla la 5090? xD


Ne hai tutto il diritto sia chiaro, ma finché si paga una scheda video gaming 2400euro fanno bene. Fossi io nvidia alzerei indubbiamente e così faranno, costi di produzione a parte

ultimate trip
11-04-2024, 07:55
la 4090 è abbastanza op e un po' sprecata per i giochi ce lo siamo detti tante volte. se la 5080 la tenesse intorno ai 1000 sarebbe una scheda ottima per il 4k

fraussantin
11-04-2024, 07:58
Leggevo questa news

https://www.hwupgrade.it/news/skvideo/nvidia-geforce-rtx-50-le-top-di-gamma-potrebbero-arrivare-entro-fine-anno-e-si-sono-previsti-prezzi-piu-alti_126025-30.html



E mi sono fatto una risata.

La mia Suprim X l'ho pagata 2400€, a quanto vorrebbero venderla la 5090? xDConsidera che i leak sono in parte pilotati e sono sempre impostati per non fermare le vendite del "vecchiume".

Secondo me costeranno un po di più , anche perche sono praticamente uniche sul mercato , ma non eccessivamente le 4000 lisce non ê che siano andate a ruba.

Secondo me la fe starà sotto i 2000.
Poi ovvio che una msi presa da un rivenditore terzo con tutti i ricarichi sopra , a 2500 minimo te la schioccano.

fraussantin
11-04-2024, 07:59
la 4090 è abbastanza op e un po' sprecata per i giochi ce lo siamo detti tante volte. se la 5080 la tenesse intorno ai 1000 sarebbe una scheda ottima per il 4kIl mondo va avanti .
È op ora , e neanche in tutti i giochi.

Fra un anno usciranno giochi piu pesanti.

Retro-PC-User-1
11-04-2024, 08:01
Ne hai tutto il diritto sia chiaro, ma finché si paga una scheda video gaming 2400euro fanno bene. Fossi io nvidia alzerei indubbiamente e così faranno, costi di produzione a parte

non condivido il discorso "finche c'è chi compra, alzeranno i prezzi: biocottate"

se non c'è concorrenza aggressiva perchè i produttori si accordano amichevolmente sui prezzi, non ci sono modi per avere + prestazioni a meno

Ubro92
11-04-2024, 08:04
e probabilmente 16 gb di ram visto il bus a 256, corretto?

Si, rimanendo a 256bit per forza di cose 16GB o massimo 24GB con la tripla densità.

Ma non ci spererei troppo, mi sembra di capire che 5080 e 5090 dovrebbero rilasciarle a fine 2024 quindi dubito abbiano la tripla disponibile.

Più probabile che la tripla la infilano solo sui bus piccoli 128/192bit, sia per una questione di tempi che marketing.

Eventualmente per la fascia alta se ne usciranno con una 5080ti, riciclando die fallati di GB202, e tagliando il bus sui 384/448bit (24/28GB vram)

fraussantin
11-04-2024, 08:14
Ma non parlavano di 512 di bus sulla 5090?

Ubro92
11-04-2024, 08:23
Ma non parlavano di 512 di bus sulla 5090?

Si 5090 sarà a 512bit dai vari rumors emersi finora, parlavamo di 5080 che sarà a 256bit.
Essendoci un divario marcato tra GB202 e GB203, presumo ci faranno anche una 5080ti nel mezzo.

Salfox
11-04-2024, 08:29
Si 5090 sarà a 512bit dai vari rumors emersi finora, parlavamo di 5080 che sarà a 256bit.
Essendoci un divario marcato tra GB202 e GB203, presumo ci faranno anche una 5080ti nel mezzo.

Ma il divario ci sarà tra i chip e non tra le VGA, un po' come tra la 4080 e 4090 che sembrano di due generazioni diverse, non vedo come possano mettere qualcosa nel mezzo quando sono i chip a essere distanti anni luce, dovrebbero fare un GB202,5 :D :D :D .
Comunque come considerazione finale non vedo proprio a cosa possa servire una 5090 (e lo dico con la morte nel cuore da appassionato) se già adesso non esiste nulla che metta in ginocchio la 4090.

Ubro92
11-04-2024, 08:32
Ma il divario ci sarà tra i chip e non tra le VGA, un po' come tra la 4080 e 4090 che sembrano di due generazioni diverse, non vedo come possano mettere qualcosa nel mezzo quando sono i chip a essere distanti anni luce, dovrebbero fare un GB202,5 :D :D :D .
Comunque come considerazione finale non vedo proprio a cosa possa servire una 5090 (e lo dico con la morte nel cuore da appassionato) se già adesso non esiste nulla che metta in ginocchio la 4090.

La 5090 sarà MCM, e penso che di die fallati ne avranno, alcuni anche quasi da buttare, ne metti due e hai la 5080ti :sofico:

AceGranger
11-04-2024, 09:04
Ne hai tutto il diritto sia chiaro, ma finché si paga una scheda video gaming 2400euro fanno bene. Fossi io nvidia alzerei indubbiamente e così faranno, costi di produzione a parte

non è una GPU solo gaming e quindi la paghi con il surplus prezzo Pro, visto che viene venduta anche per quel mercato.

x090 = Titan

se la 5090 avra 32 GB e il 70% di prestazioni in piu, ( 70% sulla carta che in GPGPU diventano 69% reali ), potra tranquillamente aumentare il prezzo senza problemi perchè , vista la capacita elaborativa, avrà un mercato comunque molto florido.

FrancoBit
11-04-2024, 09:05
Ma il divario ci sarà tra i chip e non tra le VGA, un po' come tra la 4080 e 4090 che sembrano di due generazioni diverse, non vedo come possano mettere qualcosa nel mezzo quando sono i chip a essere distanti anni luce, dovrebbero fare un GB202,5 :D :D :D .
Comunque come considerazione finale non vedo proprio a cosa possa servire una 5090 (e lo dico con la morte nel cuore da appassionato) se già adesso non esiste nulla che metta in ginocchio la 4090.

Sono scelte di posizionamento, volte a massimizzare il guadagno. Volendo ti possono fare 10 modelli diversi tagliuzzando qua e là, ancor di più con la modularità del chip MCM

Cutter90
11-04-2024, 10:12
Ne hai tutto il diritto sia chiaro, ma finché si paga una scheda video gaming 2400euro fanno bene. Fossi io nvidia alzerei indubbiamente e così faranno, costi di produzione a parte

Eh, quando non c'è concorrenza per chi è appassionato e se lo può permettere non si può fare molto.

albero77
11-04-2024, 10:28
Ma il divario ci sarà tra i chip e non tra le VGA, un po' come tra la 4080 e 4090 che sembrano di due generazioni diverse, non vedo come possano mettere qualcosa nel mezzo quando sono i chip a essere distanti anni luce, dovrebbero fare un GB202,5 :D :D :D .
Comunque come considerazione finale non vedo proprio a cosa possa servire una 5090 (e lo dico con la morte nel cuore da appassionato) se già adesso non esiste nulla che metta in ginocchio la 4090.

Si ma non tutti giocano a 4k 60hz, senza contare che esisterebbe anche l'8k o comunque risoluzioni e framerate più elevati rispetto a quelli a cui siamo abituati.

Salfox
11-04-2024, 10:35
Si ma non tutti giocano a 4k 60hz, senza contare che esisterebbe anche l'8k o comunque risoluzioni e framerate più elevati rispetto a quelli a cui siamo abituati.

L'8k io non lo considererei proprio visto che è solo marketing e per apprezzarlo servirebbero schermi talmente enormi che non entrerebbero nella stanza del giocatore medio. sono d'accordo invece per i frame rate più elevati per chi gioca ai competitivi ma per i vecchietti (come me) che giocano ai tranquilli single player i 60 fps bastano e avanzano. Credo proprio che per farmi comprare una 5090 si dovranno inventare altre meraviglie grafiche (come il RT) che avvicinino ancora di più al fotorealismo ma attualmente non vedo nulla all'orizzonte.

albero77
11-04-2024, 10:36
Il mondo va avanti .
È op ora , e neanche in tutti i giochi.

Fra un anno usciranno giochi piu pesanti.

Ma non serve nemmeno arrivare così avanti nel tempo, banalmente anche un "giochino" come helldiver 2 i 120 fps li tiene con il cavolo in 4k. State tranquilli che il modo lo trovano per saturare qualsiasi scheda video o comunque lo troviamo noi mettendo tutto a palla nelle impostazioni grafiche:asd:

Ubro92
11-04-2024, 11:00
Si ma non tutti giocano a 4k 60hz, senza contare che esisterebbe anche l'8k o comunque risoluzioni e framerate più elevati rispetto a quelli a cui siamo abituati.

La risoluzione è fine a se stessa se poi la tecnologia del pannello fa pena...

Sinceramente preferisco a mani basse giocare su un ultrawide oled a 1440p piuttosto che su un 4K IPS con retroilluminazione edge (anche se con refresh elevato)...

Ultimamente c'è questa costante spinta sulle alte risoluzioni, che è comprensibile su TV che hanno ampie diagonali, ma su pannelli da 27" 16:9 o 34" 21:9, più che la risoluzione, la spinta andrebbe data sulla qualità del pannello.

Almeno per me, già una densità di 110dpi coadiuvata a un pannello di alta qualità come gli oled, o IPS con mini-led mi andrebbe bene.

Il 4K può aver senso dai 32" 16:9 in su, o tipo i 21:9 da 38/43", dove effettivamente con quelle diagonali i 1440p stanno stretti.

amon.akira
11-04-2024, 11:02
Avatar unobtanium te la piega :p

ninja750
11-04-2024, 11:26
La 5090 sarà MCM, e penso che di die fallati ne avranno, alcuni anche quasi da buttare

è proprio il contrario, con MCM hai meno die fallati perchè ne usi n più piccoli

AceGranger
11-04-2024, 11:31
è proprio il contrario, con MCM hai meno die fallati perchè ne usi n più piccoli

dicono sara un MCM a 2 die e il die base sarà comunque grosso.

Ubro92
11-04-2024, 11:37
è proprio il contrario, con MCM hai meno die fallati perchè ne usi n più piccoli

Eh, ma il die complessivo della 5090 da quanto mi pare di capire è praticamente 2xGB203, tanto piccoli non sono. :fagiano:

Sicuramente hai meno die fallati che farti un monolitico da 600/700mmq, ma più o meno le rese dovrebbero essere simili a quelle dell'attuale AD103.

mikael84
11-04-2024, 11:52
La 5090 sarà MCM, e penso che di die fallati ne avranno, alcuni anche quasi da buttare, ne metti due e hai la 5080ti :sofico:

Aspè raga, il MCM l'ho ipotizzato io, non c'è alcuna certezza, potrebbe essere ancora un mono alla turing, o particolarmente denso, variando CGP/CPP/NAND. I nodi, spesso sono derivazioni (vedi Hopper è un 7 misto a 5).

Attualmente la massima densità toccata è di 152mt x mm2, su navi31 die. Il 4np dei ryzen sta sui 145 circa, mentre blackwell HPC, sempre sui 4nP sta appena sui 130 o poco meno (non è stato rilasciato il die).

Ecco che per restare sui monoliti, la densità è minima, ma potrebbe pure bastare in base al progetto, ed ai transistor del progetto.

Se stiamo sulla soglia normale dei 4nP, dovremmo avere un +15-17% di transistor su un 600mm2, che è veramente troppo poco, considerando pure il bus a 512bit.

Quindi, o lo fanno terribilmente denso, magari con mod CGP-CPP, o bisognerà salire di die, o per limitare i costi, utilizzare il MCM.

2 stack da 400mm2 (800mm2 mono), costano qualche $ in più di un 600, e con rese molto migliori.
Il monolitico over 650-700 comincia ad essere troppo oneroso da produrre.

Un 754 come turing, avrebbe costi di quasi il doppio la 4090 e die quasi la metà. Sarebbe un delirio.:p

cody19
11-04-2024, 11:55
in attesa delle 5080 per una 4080 by mercatino
a meno che ammerdì non ne tiri fuori una = in rt a 7-800 € :fagiano: :O :(

mikael84
11-04-2024, 12:00
5080 con 20% teorico sopra la 4080S dovrebbe comunque essere sotto rispetto alla 4090 attuale sbaglio?

Se la microarchitettura non subirà serie modfifiche rimarrà sotto o si avvicinerà.
Da quei 12288cc speculati, ci sarà sicuramente pure un cut (magari 11776) ed ovviamente qualcosa di clock si recupera. 11% perf/watt grezze.

Tuttavia bisogna vedere come si posizionerebbe, nvidia, non so in gaming, ma un chip quadro (ad esempio) a 24gb (48gb pro), quindi cut del chippone (o del multi die) lo tirerà fuori, magari ti fa una 5080 16 ed una 5080 24, come la scorsa volta, solo che a sto giro mette il suffisso TI.

Non è escluso, che nvidia possa uscirsene con 2 x90, una tagliata da 24 a 1599 ed una da prezzo ancora più alto, magari 1999.
Questa ipotesi non è da scartare, troppo rivolto al pro con 32gb.

in attesa delle 5080 per una 4080 by mercatino
a meno che ammerdì non ne tiri fuori una = in rt a 7-800 € :fagiano: :O :(

Niente 4080 di AMD, soprattutto in RT.

amon.akira
11-04-2024, 12:10
Non è escluso, che nvidia possa uscirsene con 2 x90, una tagliata da 24 a 1599 ed una da prezzo ancora più alto, magari 1999.
Questa ipotesi non è da scartare, troppo rivolto al pro con 32gb.


Ma magari...sarebbe un cut molto gradito

fraussantin
11-04-2024, 13:00
Si 5090 sarà a 512bit dai vari rumors emersi finora, parlavamo di 5080 che sarà a 256bit.
Essendoci un divario marcato tra GB202 e GB203, presumo ci faranno anche una 5080ti nel mezzo.Allora mi aspetto anche una 5080ti in mezzo.

A meno che quella a 256 bit non sia la 5070ti o 5080 "lite" ( come volevano fare anche per la 4070ti al lancio)

mikael84
11-04-2024, 14:09
Ma magari...sarebbe un cut molto gradito

In campo quadro un chip da 48gb (24) ci sarà per forza per partizionare il mercato e probabilmente creare una nuova fascia con la 64, ed è probabile anche in campo pro-gaming.

Nvidia non può neppure segmentare in 3-500$ uno scarto così grande, è come se subito sotto la 4090 ci fosse la 4070ti.:p

Allora mi aspetto anche una 5080ti in mezzo.

A meno che quella a 256 bit non sia la 5070ti o 5080 "lite" ( come volevano fare anche per la 4070ti al lancio)

Quel chip è frutto dei divieti in cina, la differenza tra GB202 e GB203, sarà praticamente simile alla 4090 vs 4070ti.
Una 5070ti in zona x90, sarebbe da prassi, ma ne dubito fortemente di questi tempi.:D Anzi, temo che sotto, avremmo incrementi quasi irrisori.

appleroof
12-04-2024, 08:11
In campo quadro un chip da 48gb (24) ci sarà per forza per partizionare il mercato e probabilmente creare una nuova fascia con la 64, ed è probabile anche in campo pro-gaming.

Nvidia non può neppure segmentare in 3-500$ uno scarto così grande, è come se subito sotto la 4090 ci fosse la 4070ti.:p



Quel chip è frutto dei divieti in cina, la differenza tra GB202 e GB203, sarà praticamente simile alla 4090 vs 4070ti.
Una 5070ti in zona x90, sarebbe da prassi, ma ne dubito fortemente di questi tempi.:D Anzi, temo che sotto, avremmo incrementi quasi irrisori.

nuoooo....già mi gustavo una 5070 con prestazioni da 4080 super e max 200w di tbp :cry:

cody19
12-04-2024, 09:51
nuoooo....già mi gustavo una 5070 con prestazioni da 4080 super e max 200w di tbp :cry:

non vedo perchè no
5070-4080
5080-4090

mikael84
12-04-2024, 12:07
nuoooo....già mi gustavo una 5070 con prestazioni da 4080 super e max 200w di tbp :cry:

In quelle fasce, è ancora da vedere. Di certo, la sostituta della 5070, andrà meglio della 4070 super.
Si parla di BL205 da 8196cc, ed è (oltre che da confermare) da vedere se utilizzato per la x70 liscia.
Per i wattaggi, altro bel problema con quel nodo. Non conoscendo le eventuali mod microarchitetturali, difficile stimare. C'è da portare un +35% perf/watt.:)

scorpion73
12-04-2024, 12:11
non vedo perchè no
5070-4080
5080-4090

perché la 5080 con la configurazione che si prospetta non ci arriva alla 4090 attuale come potenza, non ha abbastanza benzina da quello che si diceva prima. Al max andrà come la 4090D.
E comunque nelle gen precedenti la x90 era raggiunta dalla x70: è accaduto così sia con ampere che con ada.
Invece adesso non sarà così, quindi anche al di sopra avrai delle ripercussioni.
D'altra parte il nodo è sempre quello, quindi non puoi avere gli stessi incrementi come da un salto di nodo.

Telstar
12-04-2024, 12:13
in attesa delle 5080 per una 4080 by mercatino
a meno che ammerdì non ne tiri fuori una = in rt a 7-800 € :fagiano: :O :(

Dipende anche dal prezzo e dalle caratteristiche della 5070.

ninja750
12-04-2024, 13:22
in attesa delle 5080 per una 4080 by mercatino
a meno che ammerdì non ne tiri fuori una = in rt a 7-800 € :fagiano: :O :(

ammerdì e RT nella stessa frase non possono esistere

l'unica sarà come al solito comprare una giacca nuova a jensen sperando che le nuove cuciture non facciano superare i 1000€

appleroof
12-04-2024, 13:25
In quelle fasce, è ancora da vedere. Di certo, la sostituta della 5070, andrà meglio della 4070 super.
Si parla di BL205 da 8196cc, ed è (oltre che da confermare) da vedere se utilizzato per la x70 liscia.
Per i wattaggi, altro bel problema con quel nodo. Non conoscendo le eventuali mod microarchitetturali, difficile stimare. C'è da portare un +35% perf/watt.:)

perché la 5080 con la configurazione che si prospetta non ci arriva alla 4090 attuale come potenza, non ha abbastanza benzina da quello che si diceva prima. Al max andrà come la 4090D.
E comunque nelle gen precedenti la x90 era raggiunta dalla x70: è accaduto così sia con ampere che con ada.
Invece adesso non sarà così, quindi anche al di sopra avrai delle ripercussioni.
D'altra parte il nodo è sempre quello, quindi non puoi avere gli stessi incrementi come da un salto di nodo.

si prospetta un salto alla serie 6000 :D

Ubro92
12-04-2024, 13:41
ammerdì e RT nella stessa frase non possono esistere

l'unica sarà come al solito comprare una giacca nuova a jensen sperando che le nuove cuciture non facciano superare i 1000€

Beh oddio se ci troviamo in uno scenario simil 7700xt vs 4060ti , meglio la prima.
Ultimamente pure la 7900gre allo stesso prezzo della 4070 liscia sembra interessante.

Sulla fascia alta, in base agli ultimi rumors non credo ci sia molto da dire, Nvidia viaggerà da sola.

mikael84
12-04-2024, 14:16
si prospetta un salto alla serie 6000 :D

Non sarà semplice fare +35% perf/watt su un nodo quasi simile. Serve rivedere la microarchitettura, o la struttura SM.:)

Beh oddio se ci troviamo in uno scenario simil 7700xt vs 4060ti , meglio la prima.
Ultimamente pure la 7900gre allo stesso prezzo della 4070 liscia sembra interessante.

Sulla fascia alta, in base agli ultimi rumors non credo ci sia molto da dire, Nvidia viaggerà da sola.

La 4070 liscia è ormai no sense, con 50 euro prendi la super, che è praticamente una TI.:)

OrazioOC
12-04-2024, 14:35
Non sarà semplice fare +35% perf/watt su un nodo quasi simile. Serve rivedere la microarchitettura, o la struttura SM.:)



Si dovrà fare come pascal->turing, plain and simple. :)

In questa gen hanno tirato fuori chippini veramente ini e tirati per il collo, alla prossima dovranno andarci con frequenze più calme ma die size più importanti.

Ubro92
12-04-2024, 14:55
La 4070 liscia è ormai no sense, con 50 euro prendi la super, che è praticamente una TI.:)

Si sicuramente, però il calo di prezzi per la 7900gre è stato bello consistente, unito anche allo sblocco dell'OC l'ha fatta rivalutare molto.

scorpion73
12-04-2024, 14:56
si prospetta un salto alla serie 6000 :D

Con quello che si prospetta essere il costo onestamente è abbastanza probabile.

mikael84
12-04-2024, 15:18
Si dovrà fare come pascal->turing, plain and simple. :)

In questa gen hanno tirato fuori chippini veramente ini e tirati per il collo, alla prossima dovranno andarci con frequenze più calme ma die size più importanti.

Turing, ha portato le int32 con le fp32, ed ha migliorato abbastanza le performance per cuda, anche se si sono complicati i problemi di warp stall.
Per il resto, non fece benissimo, +38% circa sulla 1070, ma perf/watt di appena il 5%, visto che i consumi salironno del 35%.

Per carità, ci metterei la firma, ad avere una 4080 like in queste condizioni in fascia x70 liscia.:p

Con Ampere, e la nuova struttura, fece già meglio, portando un +25% perf/watt.

Riguardo i chippini, beh, sono solo chip di fascia inferiore, col clock dei 5nm... c'è poco da aggiungere li.

La 4060ti in qualche gioco le prende dalla 3060ti, che si appoggia a un salto quantico. QUesto fa capire la schifezza che ne hanno tirato fuori, grazie al clock.
La 4060ti, è la 4070 liscia.
Come x70, benissimo la 4070super.

Si sicuramente, però il calo di prezzi per la 7900gre è stato bello consistente, unito anche allo sblocco dell'OC l'ha fatta rivalutare molto.

Si, è molto competitiva, se si cerca l'euro, o i 16gb di ram (non da trascurare), ma la 4070 super, se si accettano i 12gb, è di un altro livello a 360°. FG, DLSS, DLAA, assaggio di PT, e RT quasi ai livelli della 7900xtx che ne costa 1000 e consuma il doppio.

CtrlAltSdeng!
12-04-2024, 16:35
"assaggio di PT" mi ha fatto sorridere :)

Tutte feature presenti anche su amd (e forse pure Intel) da qualche mese\anno, quindi stesse potenzialita (tolto dlaa) che non vuol dire che "la messa a terra sia la stessa" (dipende dalle sh e mazzette varie) ma ritengo curioso che quando si parli di potenzialità si guardino solo quelle verdi (non solo nei thread verdi, appunto)

la XTX si mangia la 4070 super in tutto a qualsiasi risoluzione ma si guardano a 2 titoli su 1000 con PT e RT spinto :stordita: perfino una GRE è preferibile se non ci si fanno le pippe sugli assaggi di rt e pt (video recentissimo di hwunboxed per esempio)

mikael84
12-04-2024, 16:51
"assaggio di PT" mi ha fatto sorridere :)

E' sempre un qualcosa in più che hai a prezzi mediamente simili. AMD per la wave64 va in stallo.


Tutte feature presenti anche su amd (e forse pure Intel) da qualche mese\anno, quindi stesse potenzialita (tolto dlaa) che non vuol dire che "la messa a terra sia la stessa" (dipende dalle sh e mazzette varie) ma ritengo curioso che quando si parli di potenzialità si guardino solo quelle verdi (non solo nei thread verdi, appunto)

Il DLAA vale tutto il pacchetto. :p Cmq a livello di qualità non è proprio uguale.


la XTX si mangia la 4070 super in tutto a qualsiasi risoluzione ma si guardano a 2 titoli su 1000 con PT e RT spinto :stordita: perfino una GRE è preferibile se non ci si fanno le pippe sugli assaggi di rt e pt (video recentissimo di hwunboxed per esempio)

Infatti non se la mangia, gli sta appresso globalmente.

https://i.postimg.cc/HsYHTSbY/7900.png

Per 600 euro, ha il contro dei 12gb, ma offre indubbiamente di più. Al contrario di una 7700 vs 4060ti, l'apice della schifezza di questa gen.:p

CtrlAltSdeng!
12-04-2024, 17:26
"Se la mangia" era riferito a tutto ciò che non spinge pesante su RT o accenna PT e tu mi presenti un grafico con un medione solo RT? :)

Condivido le conclusioni di HWUnboxed: se per voi esiste solo RT allora vai di 4070 super, per tutto il resto una GRE è meglio.

mikael84
12-04-2024, 17:45
"Se la mangia" era riferito a tutto ciò che non spinge pesante su RT o accenna PT e tu mi presenti un grafico con un medione solo RT? :)

Condivido le conclusioni di HWUnboxed: se per voi esiste solo RT allora vai di 4070 super, per tutto il resto una GRE è meglio.

:asd: E' chiaro e palese che una 7900xtx si mangi una 4070super, dove non ci sia RT serio o PT, non devo certo postare slide su quello.:asd:
Ci mancherebbe, una costa mille l'altra ne costa 600.

Sulle conclusioni di hwunboxed, non è questione di andare di nvidia per il RT, ma è una questione che a circa, pari soldi, una performa in quel campo quasi quanto una 7900xtx quando si fa uso massivo, una scheda da 1000 euro.

Se io pago 600 euro, pretendo il top in tutto, non in quello meno, quell'altro non serve, quello lo disattivo, questo arriverà, questo è appena annunciato.:p
A pari soldi (anzi quasi, visto che partono da 50 euro in meno, e punto a favore), il pro della GRE, è la ram (che è importante anche quella)..:)

cody19
12-04-2024, 18:18
Si, è molto competitiva, se si cerca l'euro, o i 16gb di ram (non da trascurare), ma la 4070 super, se si accettano i 12gb, è di un altro livello a 360°. FG, DLSS, DLAA, assaggio di PT, e RT quasi ai livelli della 7900xtx che ne costa 1000 e consuma il doppio.

ma va, con FG puoi tranquillamente settarlo a medio-alto in base al gioco
per il resto si direi che è impossibile per amd pareggiare con le prossime la 4080 in rt

Ubro92
12-04-2024, 21:35
:asd: E' chiaro e palese che una 7900xtx si mangi una 4070super, dove non ci sia RT serio o PT, non devo certo postare slide su quello.:asd:
Ci mancherebbe, una costa mille l'altra ne costa 600.

Sulle conclusioni di hwunboxed, non è questione di andare di nvidia per il RT, ma è una questione che a circa, pari soldi, una performa in quel campo quasi quanto una 7900xtx quando si fa uso massivo, una scheda da 1000 euro.

Se io pago 600 euro, pretendo il top in tutto, non in quello meno, quell'altro non serve, quello lo disattivo, questo arriverà, questo è appena annunciato.:p
A pari soldi (anzi quasi, visto che partono da 50 euro in meno, e punto a favore), il pro della GRE, è la ram (che è importante anche quella)..:)

Ma neanche tanto la vram, perchè alla fine ha 16GB come 7800xt/6800xt, più che altro è un chip molto muscle, rispetto alla 7800xt guadagna 5120sp vs 3840 e anche gli RT-core passano da 60 a 80.

Con lo sblocco dell'OC, portando le memorie sui 21-22gbps è un chip che si avvicina molto alla 7900xt liscia.

Ovviamente se andiamo a guardare l'intero ecosistema, la 4070S è un chip decisamente più bilanciato, è un peccato che la 4070 liscia non sia andata sotto i 500, intorno ai 450€ sarebbe stata un bel chip.

fraussantin
12-04-2024, 22:00
Il DLAA vale tutto il pacchetto. :p




IL DLAA , a patto che sia implementato bene, mette in imbarazzo ogni altro metodo di AA esistente.

mikael84
13-04-2024, 01:06
ma va, con FG puoi tranquillamente settarlo a medio-alto in base al gioco
per il resto si direi che è impossibile per amd pareggiare con le prossime la 4080 in rt

Un assaggio, nel senso che c'è poca implementazione al momento.:)
Certo, dove c'è, ti cambia il gioco, e non è poco.

Ma neanche tanto la vram, perchè alla fine ha 16GB come 7800xt/6800xt, più che altro è un chip molto muscle, rispetto alla 7800xt guadagna 5120sp vs 3840 e anche gli RT-core passano da 60 a 80.

Con lo sblocco dell'OC, portando le memorie sui 21-22gbps è un chip che si avvicina molto alla 7900xt liscia.

Ovviamente se andiamo a guardare l'intero ecosistema, la 4070S è un chip decisamente più bilanciato, è un peccato che la 4070 liscia non sia andata sotto i 500, intorno ai 450€ sarebbe stata un bel chip.

Si la GRE, ma come tutto navi31, è affamato di banda. Anche la 7900xt, non credere che abbia tutta questa banda, malgrado i nominali.
La banda effettiva di una 7900xtx con 48WGP attivi è appena sopra i 700gb/s, mentre il monolitico navi21, con tutti i WGP attivi, scende poco sotto i 500 gb/s.
Infatti, salendo di res, la 7900xtx mette la freccia anche sulla 7900xt.:)

IL DLAA , a patto che sia implementato bene, mette in imbarazzo ogni altro metodo di AA esistente.

Esattamente, per me, al momento è irrinunciabile. Diventano quadri i giochi.

appleroof
13-04-2024, 07:05
Non sarà semplice fare +35% perf/watt su un nodo quasi simile. Serve rivedere la microarchitettura, o la struttura SM.:)



La 4070 liscia è ormai no sense, con 50 euro prendi la super, che è praticamente una TI.:)

Chissà non stupiscano... Ricordo ancora la leggendaria 8800 gtx che nessuno fino alla presentazione sapeva fosse a shader unificati :cool:

Con quello che si prospetta essere il costo onestamente è abbastanza probabile.

Su questo è almeno un paio di gen che mi sono rassegnato :stordita:

Difficilmente rinuncerei al supporto e all'ecosistema Nvidia, ma alla fine tocca fare pure i conti: ho letto che la prossima architettura Intel dovrebbe andare quanto una 4080 ma consumare molto meno di questa, aspetto che ormai considero molto perché con la 4070 mi trovo da dio sotto questo punto di vista (per temp, rumore etc)e dovrebbe avere prezzi umani vista la situazione di mercato vga di intel... Oppure vedere le AMD che faranno, si vedrà

appleroof
13-04-2024, 07:18
IL DLAA , a patto che sia implementato bene, mette in imbarazzo ogni altro metodo di AA esistente.

Quoto, anche a questo mi riferisco con "ecosistema Nvidia" (che purtroppo per noi anche per questo si fa pagare salata), horizon (meraviglioso) tutto maxato con dlaa e FG a 100fps in qhd con una 4070 che non arriva mai a 70°sfruttata al 100%, per me onestamente è musica :asd:

Cutter90
13-04-2024, 10:03
"assaggio di PT" mi ha fatto sorridere :)

Tutte feature presenti anche su amd (e forse pure Intel) da qualche mese\anno, quindi stesse potenzialita (tolto dlaa) che non vuol dire che "la messa a terra sia la stessa" (dipende dalle sh e mazzette varie) ma ritengo curioso che quando si parli di potenzialità si guardino solo quelle verdi (non solo nei thread verdi, appunto)

la XTX si mangia la 4070 super in tutto a qualsiasi risoluzione ma si guardano a 2 titoli su 1000 con PT e RT spinto :stordita: perfino una GRE è preferibile se non ci si fanno le pippe sugli assaggi di rt e pt (video recentissimo di hwunboxed per esempio)

Si ma spesso la qualità a vantaggio di nvidia è decisiva se usarla oppure no una features. Amd e intel hanno features SIMILI. Ma se la qualità non è buona non si possono usare, vedi FG amd in tanti giochi, oppure fsr 2.2 che sotto al quality è inutilizzabile perchè degrada troppo.
SUl resto se io voglio giocare proprio quei due titoli in PT e ho in programma di giocare sempre più RT la 4070 super può essere tranquillamente una scelta giusta vs la 7900xtx..... anche a fronte dio un prezzo ben diverso.

cody19
13-04-2024, 11:06
Difficilmente rinuncerei al supporto e all'ecosistema Nvidia, ma alla fine tocca fare pure i conti: ho letto che la prossima architettura Intel dovrebbe andare quanto una 4080 ma consumare molto meno di questa, aspetto che ormai considero molto perché con la 4070 mi trovo da dio sotto questo punto di vista (per temp, rumore etc)e dovrebbe avere prezzi umani vista la situazione di mercato vga di intel... Oppure vedere le AMD che faranno, si vedrà

forse 3080 intendevi :asd:

R@nda
13-04-2024, 11:17
Dlss
Dlaa
Dsr dl
Rt
Fg
Consumi/efficienza

Mettetela come volete ma questa roba funziona bene per quanto mi riguarda ed è quella che ha fatto pendere la bilancia, mi ritengo molto soddisfatto.

Si può discutere delle politiche del cavolo che pratica, tecnologie chiuse, prezzi più alti, dotazione ram infima, cavi che non sono cavi (ecc..).
Ma tant'è, oggi la situazione è questa e ci si regola di conseguenza con quanto si è disposti a spendere.

Ma difendere queste aziende succhiasoldi proprio no, non alla mia età almeno, ho già dato, pensateci voi :D

mikael84
13-04-2024, 11:46
Chissà non stupiscano... Ricordo ancora la leggendaria 8800 gtx che nessuno fino alla presentazione sapeva fosse a shader unificati :cool:

Bei tempi... :D Purtroppo i leaker, non sanno di microarchitettura o gli è incognita, vedi a ultimo AMD, e il dual issue.






Difficilmente rinuncerei al supporto e all'ecosistema Nvidia, ma alla fine tocca fare pure i conti: ho letto che la prossima architettura Intel dovrebbe andare quanto una 4080 ma consumare molto meno di questa, aspetto che ormai considero molto perché con la 4070 mi trovo da dio sotto questo punto di vista (per temp, rumore etc)e dovrebbe avere prezzi umani vista la situazione di mercato vga di intel... Oppure vedere le AMD che faranno, si vedrà

4080?
Piano con le aspettative.:p

forse 3080 intendevi :asd:

Si, dovrebbe essere fascia x70 attuale.

Ubro92
13-04-2024, 13:33
Si, dovrebbe essere fascia x70 attuale.

Se va bene 4070s, penso se la giocherà con le prossime 5060/5060ti.

mikael84
13-04-2024, 14:10
Se va bene 4070s, penso se la giocherà con le prossime 5060/5060ti.

Si, diciamo che anche qui, bisognerà vedere i lavori microarchitetturali, ora è un pò troppo colabrodo, koduri style.
Su base 1440p si colloca mediamente a livello 4060, ma alcune volte scende anche in zona 3060.
Se ci prenderà un 50/60% perf/watt sarà un ottimo risultato (passa dal 6nm al 4nmp).
Anche ipotizzando uno scaling alla nvidia per flops, sarebbe 2x 4060 (3072x2).

appleroof
13-04-2024, 14:38
forse 3080 intendevi :asd:


cut
4080?
Piano con le aspettative.:p



Si, dovrebbe essere fascia x70 attuale.

si sono andato ricontrollare ed in effetti quel rumor la pone a livello di una 4070 super se va bene, quindi nel mio caso ciao :fagiano:

amon.akira
13-04-2024, 16:50
Infatti non se la mangia, gli sta appresso globalmente.

https://i.postimg.cc/HsYHTSbY/7900.png


sdeng! :asd:

mikael84
13-04-2024, 21:45
si sono andato ricontrollare ed in effetti quel rumor la pone a livello di una 4070 super se va bene, quindi nel mio caso ciao :fagiano:

Infatti, se va bene.:p
Complessivamente, deve recuperare un 2x a pari watt, come la 8800gtx, e quest'ultima non a pari watt.:D
https://tpucdn.com/review/nvidia-geforce-rtx-4070-super-founders-edition/images/relative-performance-2560-1440.png

In uno dei salti più grandi di sempre in efficienza come pascal, abbiamo avuto +55% perf/watt tra 1080ti e 980ti.
https://tpucdn.com/review/msi-gtx-1080-ti-gaming-x/images/perfwatt_2560_1440.png

Tra 4080 e 3080, siamo li mediamente.:)

CtrlAltSdeng!
14-04-2024, 19:43
sdeng! :asd:

Buone le ciliegie eh?

marbasso
17-04-2024, 16:51
Nuovi driver molto belli

Salfox
17-04-2024, 19:15
Nuovi driver molto belli

In che senso????:confused: :confused: :confused: :confused: :confused:

marbasso
18-04-2024, 19:31
In che senso????:confused: :confused: :confused: :confused: :confused:

:D ho letto molti commenti positivi.

MorrisADsl
18-04-2024, 22:03
:D ho letto molti commenti positivi.Niente di che, sembra leggerissima perdita al timespy, ma potrebbe rientrare nel margine di errore.

marbasso
19-04-2024, 11:23
Niente di che, sembra leggerissima perdita al timespy, ma potrebbe rientrare nel margine di errore.

Ho letto che il margine di errore rispetto ai precedenti è davvero minimo infatti.

Ubro92
20-04-2024, 20:00
Per i nostalgici XD


https://cdn.videocardz.com/1/2024/04/AFOX-GeForce-RTX-4080-16GB-2-768x576.jpg https://cdn.videocardz.com/1/2024/04/AFOX-GeForce-RTX-4080-16GB-4-768x576.jpg

https://videocardz.com/newz/afox-launches-blower-style-geforce-rtx-4080

Magistercris
21-04-2024, 07:00
Ragazzi pronti a risollevare con i nostri risparmi Nvidia....
L'altro ieri è crollato il titolo del 10%.
Quindi ce toccherà a noi comprare le schede al doppio del dovuto... Mi aspetto una 5090 a 2800 euro da noi..., ma riportano anche che il mercato schede video è saturo e forse c'è ancora speranza sul prezzo finale, ma la vedo difficile a livello costi di approvvigionamento che sono volati.
Comunque vedere che Nvidia perde il 10% in un giorno, fa specie

fraussantin
21-04-2024, 07:09
Ragazzi pronti a risollevare con i nostri risparmi Nvidia....

L'altro ieri è crollato il titolo del 10%.

Quindi ce toccherà a noi comprare le schede al doppio del dovuto... Mi aspetto una 5090 a 2800 euro da noi..., ma riportano anche che il mercato schede video è saturo e forse c'è ancora speranza sul prezzo finale, ma la vedo difficile a livello costi di approvvigionamento che sono volati.

Comunque vedere che Nvidia perde il 10% in un giorno, fa specieSi chiama speculazione.

Qualcuno ha scorreggiato che calerà la domanda di gpu e nvidia e problemi con tsmc e giù a vendere azioni.

Se Domani qualcuno dirà che i server ia sono in espansione saliranno.

Questo ha poco a che fare con il mercato del gaming , a meno che il calo reale della domanda ia faccia aumentare la produzione di chip gaming.

Salfox
21-04-2024, 09:56
Ragazzi pronti a risollevare con i nostri risparmi Nvidia....
L'altro ieri è crollato il titolo del 10%.
Quindi ce toccherà a noi comprare le schede al doppio del dovuto... Mi aspetto una 5090 a 2800 euro da noi..., ma riportano anche che il mercato schede video è saturo e forse c'è ancora speranza sul prezzo finale, ma la vedo difficile a livello costi di approvvigionamento che sono volati.
Comunque vedere che Nvidia perde il 10% in un giorno, fa specie

Secondo me 2000 euro è il prezzo limite per un bene come una VGA. Oltre quel prezzo chi la compra per sfizio (come me) inizia a pensare "a cosa mi serve così potente?" e finisce per non prenderla più. Vedi ad esempio le 4090 ASUS che vanno ben oltre quel limite e che sono sempre disponibili ovunque.
Io penso che non si andrà oltre i 1990$.

Ubro92
21-04-2024, 10:06
Sinceramente già 1000€ a me pare un botto di soldi per una scheda da solo gaming, spendere oltre per me ha solo in produttività...

Personalmente non mi va neanche di investirci cosi tanto, attualmente se dovessi assemblare un pc da 0, resterei nel target di una 4070s.

Cutter90
21-04-2024, 10:17
Sinceramente già 1000€ a me pare un botto di soldi per una scheda da solo gaming, spendere oltre per me ha solo in produttività...

Personalmente non mi va neanche di investirci cosi tanto, attualmente se dovessi assemblare un pc da 0, resterei nel target di una 4070s.

Dipende dalle esigenze e dal budget che si vuole mettere :)

nessuno29
21-04-2024, 10:33
Io sono pronto già con l'iter default dell'acquirente Nvidia non vedo l'ora di godermelo sul forum:

Piagnisteo sui prezzi e sulle feature esclusive--> io non cambierò mai la mia 40x0 prima del 2029 --> questa volta con me Nvidia ha chiuso --> aspetto AMD --> ragazzi l'ho preordinata --> chi non la ha non può capire cambia tutto :D :D

cody19
21-04-2024, 10:42
Io sono pronto già con l'iter default dell'acquirente Nvidia non vedo l'ora di godermelo sul forum:

Piagnisteo sui prezzi e sulle feature esclusive--> io non cambierò mai la mia 40x0 prima del 2029 --> questa volta con me Nvidia ha chiuso --> aspetto AMD --> quasi stesso prezzo con meno features --> ragazzi l'ho preordinata --> chi non la ha non può capire cambia tutto :D :D

fix, ti mancava un passaggio

Legolas84
21-04-2024, 10:54
fix, ti mancava un passaggio

ahah quoto :asd:

mikael84
21-04-2024, 11:25
Secondo me 2000 euro è il prezzo limite per un bene come una VGA. Oltre quel prezzo chi la compra per sfizio (come me) inizia a pensare "a cosa mi serve così potente?" e finisce per non prenderla più. Vedi ad esempio le 4090 ASUS che vanno ben oltre quel limite e che sono sempre disponibili ovunque.
Io penso che non si andrà oltre i 1990$.

La x90, ormai è una fascia pro adattata al gaming, (visto i driver studio) soprattutto a sto giro, se lasciano il full 512bit che si porterà 32gb di ram g7. In linea di massima, può chiedere anche di più. Ci ha pure provato a portare una Titan sulle 3000 (la titan v), una tesla tagliata, o sulle 2500, la titan turing.

fraussantin
21-04-2024, 12:43
Secondo me 2000 euro è il prezzo limite per un bene come una VGA. Oltre quel prezzo chi la compra per sfizio (come me) inizia a pensare "a cosa mi serve così potente?" e finisce per non prenderla più. Vedi ad esempio le 4090 ASUS che vanno ben oltre quel limite e che sono sempre disponibili ovunque.

Io penso che non si andrà oltre i 1990$.Mah a 2500 le vendono e bene. ( Custom)

Ma sono convinto che anche a 3000 venderebbe ,

Certo devono fare una fe e lasciare spazio ai partner per marginare quindi penso anche io sotto i 2000.

Salfox
21-04-2024, 16:31
Mah a 2500 le vendono e bene. ( Custom)



Mah, tu dici? Io penso invece che davvero uno deve essere un cretino per prendere una scheda a 2500 che non ti da nulla in più di una (la FE) che costa 600 euro in meno e che tutto sommato si trova facilmente.

fraussantin
21-04-2024, 17:42
Mah, tu dici? Io penso invece che davvero uno deve essere un cretino per prendere una scheda a 2500 che non ti da nulla in più di una (la FE) che costa 600 euro in meno e che tutto sommato si trova facilmente.Sono persone che si affidano al dragone, amazon o altri shop autorizzati. Con custom tipo strix , suprim 2300 2500 euro li arrivavi facili .
Ora forse si trovano un po a meno.

Poi che abbia senso o meno conta poco finche la gente compra.

Cutter90
21-04-2024, 17:51
Mah, tu dici? Io penso invece che davvero uno deve essere un cretino per prendere una scheda a 2500 che non ti da nulla in più di una (la FE) che costa 600 euro in meno e che tutto sommato si trova facilmente.

Pensa chi gioca a 60 fps con la 4090 cos'è allora....:D

Cmq si sono d'accordo. Non ha molto senso. Ad aria serve zero spendere di più. La mia l ho pagata 2300. Ma è una ibrida almeno

scorpion73
21-04-2024, 20:13
Bah se prosegue la politica dei prezzi degli ultimi anni la 5090 fe la troverai sopra i 2k visto che la 4090 costava 1900 se non erro.
Speriamo di no ma sinceramente viste anche le caratteristiche ci credo molto poco.
Oltre al fatto che le FE inizialmente latiteranno molto come disponibilità, sempre ovviamente per avvantaggiare i partner.

ste-87
21-04-2024, 20:13
Io sono pronto già con l'iter default dell'acquirente Nvidia non vedo l'ora di godermelo sul forum:

Piagnisteo sui prezzi e sulle feature esclusive--> io non cambierò mai la mia 40x0 prima del 2029 --> questa volta con me Nvidia ha chiuso --> aspetto AMD --> ragazzi l'ho preordinata --> chi non la ha non può capire cambia tutto :D :D

ti sei dimenticato meno consumi che fanno ammortizzare il prezzo della scheda :asd:

ninja750
22-04-2024, 08:46
Io sono pronto già con l'iter default dell'acquirente Nvidia non vedo l'ora di godermelo sul forum:

Piagnisteo sui prezzi e sulle feature esclusive--> io non cambierò mai la mia 40x0 prima del 2029 --> questa volta con me Nvidia ha chiuso --> aspetto AMD --> ragazzi l'ho preordinata --> chi non la ha non può capire cambia tutto :D :D

è che con questa inflazione e relativo calo di potere d'acquisto in tutti i mercati jensen sto giro si deve davvero inventare qualcosa di rivoluzionario per vendere le PTX5000 a soglia 2000$, se pensi che il FG (oggi bistrattato per colpa del pareggio di FSR3, ma al lancio fu visto come roba mai vista) fu davvero visto come rivoluzionario perchè dalle slide colorate verdi si vedevano incrementi fuori dal normale e il fatto del taglio della feature sulle 3000 ha spinto non poco le vendite

io dico che punterà tutto sulla IA, o comunque su qualcosa che avrà il nome commerciale IA, da vedere se integrato nel DLSS4.0 o proprio feature a parte. e la cosa interessante sarà come riuscirà a tenerlo nascosto fino all'ultimo perchè se dovrà essere integrato subito in alcuni giochi al lancio, le software house vuol dire che ci stanno lavorando molto già OGGI

Cutter90
22-04-2024, 09:23
è che con questa inflazione e relativo calo di potere d'acquisto in tutti i mercati jensen sto giro si deve davvero inventare qualcosa di rivoluzionario per vendere le PTX5000 a soglia 2000$, se pensi che il FG (oggi bistrattato per colpa del pareggio di FSR3, ma al lancio fu visto come roba mai vista) fu davvero visto come rivoluzionario perchè dalle slide colorate verdi si vedevano incrementi fuori dal normale e il fatto del taglio della feature sulle 3000 ha spinto non poco le vendite

io dico che punterà tutto sulla IA, o comunque su qualcosa che avrà il nome commerciale IA, da vedere se integrato nel DLSS4.0 o proprio feature a parte. e la cosa interessante sarà come riuscirà a tenerlo nascosto fino all'ultimo perchè se dovrà essere integrato subito in alcuni giochi al lancio, le software house vuol dire che ci stanno lavorando molto già OGGI

Si vabbeh. Pareggio secondo amd e secondo chi non ha mai provato entrambi i FG. Poi lo vai a provare ed è ancora ampiamente inutilizzabile o quasi nella maggior parte dei giochi in cui c'è, ossia pochi, tra l'altro.

Nvidia si è sempre inventata qualcosa di innovativo, non so cosa si inventerà stavolta, come non sapevo cosa si sarebbe inventata con le 2000 ecc ecc. Quindi tutto normale. Io sono molto curioso sinceramente
Ma tanto il problema sono sempre le SH che non implementano un cavolo

AceGranger
22-04-2024, 09:57
è che con questa inflazione e relativo calo di potere d'acquisto in tutti i mercati jensen sto giro si deve davvero inventare qualcosa di rivoluzionario per vendere le PTX5000 a soglia 2000$, se pensi che il FG (oggi bistrattato per colpa del pareggio di FSR3, ma al lancio fu visto come roba mai vista) fu davvero visto come rivoluzionario perchè dalle slide colorate verdi si vedevano incrementi fuori dal normale e il fatto del taglio della feature sulle 3000 ha spinto non poco le vendite

io dico che punterà tutto sulla IA, o comunque su qualcosa che avrà il nome commerciale IA, da vedere se integrato nel DLSS4.0 o proprio feature a parte. e la cosa interessante sarà come riuscirà a tenerlo nascosto fino all'ultimo perchè se dovrà essere integrato subito in alcuni giochi al lancio, le software house vuol dire che ci stanno lavorando molto già OGGI

ovunque sono aumentati anche gli stipendi, piu che da noi; su questi prodotti una differenza di pochi punti % non cambia una fava nel posizionamento o nelle vendite; il povero mercato italiano conta come il 2 di picche con briscola bastoni, ergo farà quello che vuole come ha sempre fatto che, fra l'altro, NON è vendere numericamente di piu ma vendere il numero che si sono prefissati con il margine che vogliono loro, visto che a questo giro una gran bella fetta degli slot di TSMC saranno tutti prenotati per le GPU HPC che avranno pure 2 mattonelle a GPU...

Mars95
22-04-2024, 10:21
Io sono pronto già con l'iter default dell'acquirente Nvidia non vedo l'ora di godermelo sul forum:

Piagnisteo sui prezzi e sulle feature esclusive--> io non cambierò mai la mia 40x0 prima del 2029 --> questa volta con me Nvidia ha chiuso --> aspetto AMD --> ragazzi l'ho preordinata --> chi non la ha non può capire cambia tutto :D :D

Da incorniciare

CtrlAltSdeng!
22-04-2024, 11:16
C'è anche quello che "se ne frega dei prezzi, la passione è passione " etc etc....e vende tre mesi prima la vga per non doverci mettere troppo al day1 e in quei tre mesi riscopre la pasione della pesca o del bricolage, passione appunto :D

albero77
22-04-2024, 12:02
Io sono pronto già con l'iter default dell'acquirente Nvidia non vedo l'ora di godermelo sul forum:

Piagnisteo sui prezzi e sulle feature esclusive--> io non cambierò mai la mia 40x0 prima del 2029 --> questa volta con me Nvidia ha chiuso --> aspetto AMD --> ragazzi l'ho preordinata --> chi non la ha non può capire cambia tutto :D :D

Attualmente non conoscendo il prezzo e le performance non mi pronuncio, ma sentitevi liberi di insultarmi semmai decidessi di acquistarla pur rendendomi conto che spendere 2k+ per una vga va contro la mia soglia psicologica, contro i miei principi morali, contro tutto in poche parole, ma puntualmente mi ripresenterò carta di credito alla mano al day one. E' un mistero....Questa non è passione, questa è follia(semicit.).
P.s. Tra l'altro per minimizzare il danno probabilmente sarebbe il caso di iniziare a piazzare la "vecchia" 4090 prima che sia troppo tardi.

scorpion73
22-04-2024, 12:12
Attualmente non conoscendo il prezzo e le performance non mi pronuncio, ma sentitevi liberi di insultarmi semmai decidessi di acquistarla pur rendendomi conto che spendere 2k+ per una vga va contro la mia soglia psicologica, contro i miei principi morali, contro tutto in poche parole, ma puntualmente mi ripresenterò carta di credito alla mano al day one. E' un mistero....Questa non è passione, questa è follia(semicit.).
P.s. Tra l'altro per minimizzare il danno probabilmente sarebbe il caso di iniziare a piazzare la "vecchia" 4090 prima che sia troppo tardi.

Ancora manco sai quando escono e già vuoi vendere? Scusate ma così non ha proprio senso nemmeno comprarla. Te ne staresti minimo sei mesi senza VGA a pescare o fare casette di carta... Nonsense proprio: ti godi quello che hai e quando sai la data di presentazione se proprio vuoi te la vendi.
Io per conto mio me la terrò fino a che non saprò non solo il costo della nuova, ma anche quanto consuma. Tempo fa si era sparata una revisione di connettore che auspicava un nuovo cambio di PSU, e non ho capito se era vero o meno. In ogni caso, la verità la sapremo solo all'uscita, ormai da giacchetta non mi sorprendo di nulla, ma sono tutti fattori determinanti, perché una VGA che consuma 600W da sola a stock (quindi le reference) francamente se ne resta li anche se va 8 volte la 4090 e costa 150€
E' un esempio ovviamente: se poi le cose saranno gestibili e ci rimetterò un pò pazienza, mi sarò comunque goduto la scheda fino alla fine.

CtrlAltSdeng!
22-04-2024, 12:21
Attualmente non conoscendo il prezzo e le performance non mi pronuncio, ma sentitevi liberi di insultarmi semmai decidessi di acquistarla pur rendendomi conto che spendere 2k+ per una vga va contro la mia soglia psicologica, contro i miei principi morali, contro tutto in poche parole, ma puntualmente mi ripresenterò carta di credito alla mano al day one. E' un mistero....Questa non è passione, questa è follia(semicit.).
P.s. Tra l'altro per minimizzare il danno probabilmente sarebbe il caso di iniziare a piazzare la "vecchia" 4090 prima che sia troppo tardi.

cvd :asd:

albero77
22-04-2024, 12:25
Sarcasm mode: off

lordsnk
22-04-2024, 14:02
Attualmente non conoscendo il prezzo e le performance non mi pronuncio, ma sentitevi liberi di insultarmi semmai decidessi di acquistarla pur rendendomi conto che spendere 2k+ per una vga va contro la mia soglia psicologica, contro i miei principi morali, contro tutto in poche parole, ma puntualmente mi ripresenterò carta di credito alla mano al day one. E' un mistero....Questa non è passione, questa è follia(semicit.).
P.s. Tra l'altro per minimizzare il danno probabilmente sarebbe il caso di iniziare a piazzare la "vecchia" 4090 prima che sia troppo tardi.

Ognuno di noi è libero di spendere i propri sudati soldi come gli pare e piace :D
Se la vuoi prendere e te lo puoi permettere fai benissimo. :)
Per rientrare della spesa ti consiglio ora di vendere la 4090 poiché ha ancora un alto valore nel mercato dell'usato.

Personalmente terrò la mia 4090 fino alle 6000 perché per la mie esigenze è ancora OP :D

Kvarat
22-04-2024, 22:46
Ognuno di noi è libero di spendere i propri sudati soldi come gli pare e piace :D
Se la vuoi prendere e te lo puoi permettere fai benissimo. :)
Per rientrare della spesa ti consiglio ora di vendere la 4090 poiché ha ancora un alto valore nel mercato dell'usato.

Personalmente terrò la mia 4090 fino alle 6000 perché per la mie esigenze è ancora OP :D

Se vogliamo dircela tutta anche le 70 e le 80 sono dei mostri per le loro fasce. In 2k vanno fortissimo e cambiarle è solo giusto un priscio come si dice dalle mie parti. :D

kiwivda
23-04-2024, 08:29
Il mio trigger all'upgrade sono sempre stati i minimi sotto la soglia dei 60 in modo eccessivo a titoli maxati e risoluzione del momento, in questo caso il 4k.

Tuttavia la futura 5090 mi lascia perplesso, ne sapremo di più verso fine anno, e farò le valutazioni del caso, anche se attualmente devo dire che la 4090 non è che abbia difficoltà alcuna, sono anzi più interessato alle nuove cpu.

Sono fermamente convinto che un bel salto generazionale in quel settore andrebbe a sbloccare il vero potenziale di queste schede, non che un 13900k sia particolarmente limitante, ma le cpu, e le piattaforme in generale sono decisamente arretrate rispetto alle GPU.

Kvarat
23-04-2024, 11:14
Il mio trigger all'upgrade sono sempre stati i minimi sotto la soglia dei 60 in modo eccessivo a titoli maxati e risoluzione del momento, in questo caso il 4k.

Tuttavia la futura 5090 mi lascia perplesso, ne sapremo di più verso fine anno, e farò le valutazioni del caso, anche se attualmente devo dire che la 4090 non è che abbia difficoltà alcuna, sono anzi più interessato alle nuove cpu.

Sono fermamente convinto che un bel salto generazionale in quel settore andrebbe a sbloccare il vero potenziale di queste schede, non che un 13900k sia particolarmente limitante, ma le cpu, e le piattaforme in generale sono decisamente arretrate rispetto alle GPU.

Non sono arretrate, semplicemente sono al limite fisiologico del loro valore di mercato. Quanto costa una cpu di punta Intel al lancio? Secondo te è mai possibile spendere una cifra del genere solo per un processore? Chiaro che le vere vendite sono nelle fasce medio basse e lì le prestazioni vanno più che bene per la stragrande maggioranza delle persone al mondo.

lordsnk
24-04-2024, 18:14
Il mio trigger all'upgrade sono sempre stati i minimi sotto la soglia dei 60 in modo eccessivo a titoli maxati e risoluzione del momento, in questo caso il 4k.

Tuttavia la futura 5090 mi lascia perplesso, ne sapremo di più verso fine anno, e farò le valutazioni del caso, anche se attualmente devo dire che la 4090 non è che abbia difficoltà alcuna, sono anzi più interessato alle nuove cpu.

Sono fermamente convinto che un bel salto generazionale in quel settore andrebbe a sbloccare il vero potenziale di queste schede, non che un 13900k sia particolarmente limitante, ma le cpu, e le piattaforme in generale sono decisamente arretrate rispetto alle GPU.

Hai centrato il problema ;)

Le CPU non sfruttano a dovere la 4090.
Per questo motivo non ho cambiato il 5700X.
Avrei potuto mettere un 5800X3D, ma cmq la 4090 non sarebbe stata spremuta come un limone :D
Per questo il mio prossimo upgrade sarà la CPU e alle 5000 non ci penso proprio :asd:

Cutter90
25-04-2024, 07:50
Il mio trigger all'upgrade sono sempre stati i minimi sotto la soglia dei 60 in modo eccessivo a titoli maxati e risoluzione del momento, in questo caso il 4k.

Tuttavia la futura 5090 mi lascia perplesso, ne sapremo di più verso fine anno, e farò le valutazioni del caso, anche se attualmente devo dire che la 4090 non è che abbia difficoltà alcuna, sono anzi più interessato alle nuove cpu.

Sono fermamente convinto che un bel salto generazionale in quel settore andrebbe a sbloccare il vero potenziale di queste schede, non che un 13900k sia particolarmente limitante, ma le cpu, e le piattaforme in generale sono decisamente arretrate rispetto alle GPU.

Non ho capito questa frase. Il vero problema di queste schede sono i giochi e le SH che non le sfruttano. O una programmazione ridicola
Le cpu sul mercato sono ampiamente sufficienti per fare andare una 4090 al 100%. Già un 12900k sul 99% dei giochi sfrutta al 100% la 4090... a salire.
Ovviamente si parla di 4k. AL di sotto non ha senso la 4090
QUindi da dove deriva questa affermazione?

deadbeef
25-04-2024, 11:14
Schede da millemila euro poi ti siedi al pc per fare quello per cui hai speso i soldi, ossia giocare, e si entra in una dimensione parallela che ti fa rimpiangere le console dopo 5 minuti: HDR pezzottato, supporto per schermi ultrawide zoppicante, festival dello stutter, necessita' di usare mod di terze parti per fixare cose assurdamente ignorate dagli sviluppatori, steam input che per 1 gioco che fixa ne rompe 10, etc.

fraussantin
25-04-2024, 12:06
Schede da millemila euro poi ti siedi al pc per fare quello per cui hai speso i soldi, ossia giocare, e si entra in una dimensione parallela che ti fa rimpiangere le console dopo 5 minuti: HDR pezzottato, supporto per schermi ultrawide zoppicante, festival dello stutter, necessita' di usare mod di terze parti per fixare cose assurdamente ignorate dagli sviluppatori, steam input che per 1 gioco che fixa ne rompe 10, etc.Non rimpiango i 24 fps manco dopo 5 litri di vino

Telstar
25-04-2024, 15:21
Il mio trigger all'upgrade sono sempre stati i minimi sotto la soglia dei 60 in modo eccessivo a titoli maxati e risoluzione.

Anche il mio, ma a 3440x1440.

davide155
26-04-2024, 14:42
Schede da millemila euro poi ti siedi al pc per fare quello per cui hai speso i soldi, ossia giocare, e si entra in una dimensione parallela che ti fa rimpiangere le console dopo 5 minuti: HDR pezzottato, supporto per schermi ultrawide zoppicante, festival dello stutter, necessita' di usare mod di terze parti per fixare cose assurdamente ignorate dagli sviluppatori, steam input che per 1 gioco che fixa ne rompe 10, etc.

Sia i monitor ultra wide che l'hdr sono ancora una piccolissima minoranza le persone che ne possono usufruire, è normale una diffusione lenta di queste peculiarità. Anche se comunque i grandi giochi tripla A hanno tutti un supporto più che ottimo di queste due tecnologie.
Le console vengono attaccate nel 99% dei casi alle tv, e queste hanno risoluzioni ed hdr standard ormai da almeno 6 anni. Mi meraviglierei se non funzionassero.
Ho giocato e finito circa 9 titoli da gennaio ad ora e non ho incontrato assolutamente nessuno stutter se non poi risolto con le patch che ormai sappiamo essere parte del programma di beta testing dei primi mesi di uscita dei giochi. E per la cronaca pure le console ne sono affette, basti vedere le decine di patch che anche loro richiedono per poter avviare ogni gioco first party.
L'unica cosa buona delle console è che hanno aumentato il bacino di utenza dei videogiocatori, quindi sempre più software house hanno deciso di investire ingenti somme nei videogames portando titoli stupendi anche su pc. Per il resto console e pc sono due mondi totalmente diversi.
Per chi non vuole sbattimenti spende 550 euro e gioca a quello che vuole attaccando due cavi e via, a patto di scendere a compromessi spesso con la qualità, spesso con il framerate, spesso con entrambi.
Per chi invece vuole una esperienza senza eguali a 360gradi ed è disposto a spendere più soldi allora sceglie il pc.
Non vedo cosa ci sia di male a scegliere uno o l'altro.

DJurassic
26-04-2024, 14:44
Schede da millemila euro poi ti siedi al pc per fare quello per cui hai speso i soldi, ossia giocare, e si entra in una dimensione parallela che ti fa rimpiangere le console dopo 5 minuti: HDR pezzottato, supporto per schermi ultrawide zoppicante, festival dello stutter, necessita' di usare mod di terze parti per fixare cose assurdamente ignorate dagli sviluppatori, steam input che per 1 gioco che fixa ne rompe 10, etc.

Ma ti pagano per scrivere ste stronzate? :asd:

Sia i monitor ultra wide che l'hdr sono ancora una piccolissima minoranza le persone che ne possono usufruire, è normale una diffusione lenta di queste peculiarità. Anche se comunque i grandi giochi tripla A hanno tutti un supporto più che ottimo di queste due tecnologie.
Le console vengono attaccate nel 99% dei casi alle tv, e queste hanno risoluzioni ed hdr standard ormai da almeno 6 anni. Mi meraviglierei se non funzionassero.
Ho giocato e finito circa 9 titoli da gennaio ad ora e non ho incontrato assolutamente nessuno stutter se non poi risolto con le patch che ormai sappiamo essere parte del programma di beta testing dei primi mesi di uscita dei giochi. E per la cronaca pure le console ne sono affette, basti vedere le decine di patch che anche loro richiedono per poter avviare ogni gioco first party.
L'unica cosa buona delle console è che hanno aumentato il bacino di utenza dei videogiocatori, quindi sempre più software house hanno deciso di investire ingenti somme nei videogames portando titoli stupendi anche su pc. Per il resto console e pc sono due mondi totalmente diversi.
Per chi non vuole sbattimenti spende 550 euro e gioca a quello che vuole attaccando due cavi e via, a patto di scendere a compromessi spesso con la qualità, spesso con il framerate, spesso con entrambi.
Per chi invece vuole una esperienza senza eguali a 360gradi ed è disposto a spendere più soldi allora sceglie il pc.
Non vedo cosa ci sia di male a scegliere uno o l'altro.

Ti ci sei sbattuto pure troppo nel rispondergli. Comunque non sono d'accordo sulla questione HDR visto che ormai su PC ce l'hanno tutti i titoli alla stregua della versione console. Nessun escluso.

davide155
26-04-2024, 15:15
Ma ti pagano per scrivere ste stronzate? :asd:



Ti ci sei sbattuto pure troppo nel rispondergli. Comunque non sono d'accordo sulla questione HDR visto che ormai su PC ce l'hanno tutti i titoli alla stregua della versione console. Nessun escluso.Si ce l'hanno tutti ma spesso alcuni hanno un hdr più intenso di altri. Con alcuni sembra di giocare in sdr, ma è sottointeso che il medesimo effetto lo si ha anche sulle console dato che la colpa dell'implementazione dell'hdr è dei programmatori, quindi il risultato è molto influenzato dalle scelte degli artisti più che da una mancanza della macchina su cui si gioca.

DJurassic
26-04-2024, 15:36
Si ce l'hanno tutti ma spesso alcuni hanno un hdr più intenso di altri. Con alcuni sembra di giocare in sdr, ma è sottointeso che il medesimo effetto lo si ha anche sulle console dato che la colpa dell'implementazione dell'hdr è dei programmatori, quindi il risultato è molto influenzato dalle scelte degli artisti più che da una mancanza della macchina su cui si gioca.

Ah ok quello senz'altro. Se i devs lo implementano male non c'è differenza tra l'HDR pc o console.

Cutter90
26-04-2024, 15:59
Ragazzi, direi un bel NI.
In questo periodo ho giocato tanti hdr ottimi al pari dei console (penso ad Horizon) ma anche a giochi in cui l'hdr è rotto o addirittura non presente.

Quindi al momento siamo su un bel "dipende", ma la lentezza nell'implementare come si deve l' HDR su pc, tecnologia di inizio ps4 è imbarazzante. Sia lato sviluppatori che Microsoft.

Dire "eh ma su pc non è usato come su console epr via dei monitor" è un ragionamento alla rovescia di come la vedo io. Se le sh e microsoft non lo supportano, perchè mai l'utenza dovrebbe passare ad un monitor decente hdr?

Insomma, siamo un po' "li".

Lato ottimizzazione la situazione PC è disastrosa senza se e senza ma. Il tutto aggravato da una pigrizia/lentezza delle sh a supportare le nuove tecnologie. Motori grafici dell'anteguerra mai evoluti e mesi e mesi di patch per rendere i giochi decenti da giocare (ma cmq lontani da un ottimizzazione come si deve). Ci sono eccezioni come Horizon, ma eccezioni restano, purtroppo.

Quindi si, belle le nuove 5000 ma se gli sviluppatori non si muovo a star dietro alle tecnologie serviranno solo a far funzionare meglio i giochi ottimizzati da cani.

cody19
26-04-2024, 17:00
alcuni giochi sono ottimizzati per hgig, altri solo per dtm...ma non viene mai specificato

cmq https://videocardz.com/newz/board-partners-report-geforce-rtx-4060-ti-gpus-are-experiencing-supply-issues

super in arrivo?

davide155
26-04-2024, 19:04
Ragazzi, direi un bel NI.
In questo periodo ho giocato tanti hdr ottimi al pari dei console (penso ad Horizon) ma anche a giochi in cui l'hdr è rotto o addirittura non presente.

Quindi al momento siamo su un bel "dipende", ma la lentezza nell'implementare come si deve l' HDR su pc, tecnologia di inizio ps4 è imbarazzante. Sia lato sviluppatori che Microsoft.

Dire "eh ma su pc non è usato come su console epr via dei monitor" è un ragionamento alla rovescia di come la vedo io. Se le sh e microsoft non lo supportano, perchè mai l'utenza dovrebbe passare ad un monitor decente hdr?

Insomma, siamo un po' "li".

Lato ottimizzazione la situazione PC è disastrosa senza se e senza ma. Il tutto aggravato da una pigrizia/lentezza delle sh a supportare le nuove tecnologie. Motori grafici dell'anteguerra mai evoluti e mesi e mesi di patch per rendere i giochi decenti da giocare (ma cmq lontani da un ottimizzazione come si deve). Ci sono eccezioni come Horizon, ma eccezioni restano, purtroppo.

Quindi si, belle le nuove 5000 ma se gli sviluppatori non si muovo a star dietro alle tecnologie serviranno solo a far funzionare meglio i giochi ottimizzati da cani.
Frostbite, cryengine, ue5.4, Decima Engine, Red engine, Naughty Dog Game Engine, non mi sembrano motori dell'anteguerra, e restituiscono ognuno a loro modo una resa visiva impressionante se guardiamo agli ultimi titoli usciti dalla pandemia in poi. Il 90% dei tripla A è stato fatto con uno di questi motori grafici.
Sulle patch purtroppo la colpa non è dei motori grafici ma bensì dei sempre più stretti tempi di sviluppo dettati dagli azionisti ogni anno più assetati di soldi che mai.
Infatti ormai i giochi escono in versione alpha e noi facciamo da beta tester. Per questo ho smesso di comprare al dayone ma almeno dopo 2-3 mesi minimo.
Così facendo si evita le rotture dei giochi e si gode nella maggior parte dei casi di un buon gioco quasi in stato perfetto. E ne siamo pieni ultimamente di esempi.

DJurassic
26-04-2024, 20:45
Ragazzi, direi un bel NI.
In questo periodo ho giocato tanti hdr ottimi al pari dei console (penso ad Horizon) ma anche a giochi in cui l'hdr è rotto o addirittura non presente.

Quindi al momento siamo su un bel "dipende", ma la lentezza nell'implementare come si deve l' HDR su pc, tecnologia di inizio ps4 è imbarazzante. Sia lato sviluppatori che Microsoft.

Dire "eh ma su pc non è usato come su console epr via dei monitor" è un ragionamento alla rovescia di come la vedo io. Se le sh e microsoft non lo supportano, perchè mai l'utenza dovrebbe passare ad un monitor decente hdr?

Insomma, siamo un po' "li".

Lato ottimizzazione la situazione PC è disastrosa senza se e senza ma. Il tutto aggravato da una pigrizia/lentezza delle sh a supportare le nuove tecnologie. Motori grafici dell'anteguerra mai evoluti e mesi e mesi di patch per rendere i giochi decenti da giocare (ma cmq lontani da un ottimizzazione come si deve). Ci sono eccezioni come Horizon, ma eccezioni restano, purtroppo.

Quindi si, belle le nuove 5000 ma se gli sviluppatori non si muovo a star dietro alle tecnologie serviranno solo a far funzionare meglio i giochi ottimizzati da cani.

Fammi capire su console l'HDR è implementato meglio? Spoiler: io la risposta già la conosco ma visto che questa sorta di paragone tra un fermaporta e un PC tanto vale farmi 4 risate.

Dissento anche sul discorso relativo l'ottimizzazione, ma proprio completamente, eppure credo di averli provati quasi tutti i giochi usciti sul mercato. Se poi il termine di paragone sono per voi i 720p upscalati a quasi 60fps o i 1440p a quasi 30fps allora possiamo anche chiuderla qui, tra l'altro farciti di stuttering, frame drop e upscaling imbarazzanti.

alcuni giochi sono ottimizzati per hgig, altri solo per dtm...ma non viene mai specificato

Non esiste alcuna ottimizzazione per HGiG ne per dtm. Esiste solo chi sà implementare un ottimo HDR e chi invece no. Personalmente utilizzo HGiG da almeno 3 anni visto che restituisce sempre la migliore fedeltà cromatica.

Cutter90
26-04-2024, 22:34
Frostbite, cryengine, ue5.4, Decima Engine, Red engine, Naughty Dog Game Engine, non mi sembrano motori dell'anteguerra, e restituiscono ognuno a loro modo una resa visiva impressionante se guardiamo agli ultimi titoli usciti dalla pandemia in poi. Il 90% dei tripla A è stato fatto con uno di questi motori grafici.
Sulle patch purtroppo la colpa non è dei motori grafici ma bensì dei sempre più stretti tempi di sviluppo dettati dagli azionisti ogni anno più assetati di soldi che mai.
Infatti ormai i giochi escono in versione alpha e noi facciamo da beta tester. Per questo ho smesso di comprare al dayone ma almeno dopo 2-3 mesi minimo.
Così facendo si evita le rotture dei giochi e si gode nella maggior parte dei casi di un buon gioco quasi in stato perfetto. E ne siamo pieni ultimamente di esempi.

Perfettamente d accordo sulla l'arte finale. Però capisci che non è una cosa giusta. Nel senso che il prodotto all uscita dovrebbe quasi essere perfetto. Non che devo aspettare mesi e mesi che lo sistemino e... se lo sistemano. È pieno di esempi anche illustri di giochi mai sistemati
Lato motori siamo evidentemente indietro. U5 per ora si sta rivalndo bello mediocre.il salto è minimo.
Gli altri sono ottimi motori, soprattutto quelli sony, ma il RT non è pervenuto o quasi. Il cryengine non è più un motore decente da anni ahahaha
Purtroppo salvo qualche eccezione i giochi sono graficamente fermi da anni.

Fammi capire su console l'HDR è implementato meglio? Spoiler: io la risposta già la conosco ma visto che questa sorta di paragone tra un fermaporta e un PC tanto vale farmi 4 risate.

Dissento anche sul discorso relativo l'ottimizzazione, ma proprio completamente, eppure credo di averli provati quasi tutti i giochi usciti sul mercato. Se poi il termine di paragone sono per voi i 720p upscalati a quasi 60fps o i 1440p a quasi 30fps allora possiamo anche chiuderla qui, tra l'altro farciti di stuttering, frame drop e upscaling imbarazzanti.



Non esiste alcuna ottimizzazione per HGiG ne per dtm. Esiste solo chi sà implementare un ottimo HDR e chi invece no. Personalmente utilizzo HGiG da almeno 3 anni visto che restituisce sempre la migliore fedeltà cromatica.

A parte che io non. Facevo un paragone diretto ma amche qui la faccenda è molto semplice. Su console al 99% si sviluppa per sfruttare al massimo le stesse. Su pc assolutamente no, salve eccezioni. È questo il punto. Le console costano 500 euro e ti danno performance da 2070 super/2080 (quello che sono xsx e ps5). Poi però se vai a vedere lo stesso gioco alle volte con una 2080 gira peggio che sulle console. Questo significa ottimizzare male e farlo in maniera pigra. È un dato di fatto.
Lato hdr mi sa che non sai che su console sia presente al 99% mentre su pc alle volte nemmeno c'è nei giochi. E spesso quando esce è rotto. Anche in HZ FW era rotto l hdr per 1 mesetto buono. Su console ovviamente perfetto dal d1.
Anche AW2 su pc rotto e su console perfetto al d1.
No rest for the wiked? Hdr rotto in fullscreen mode
Grounded? Hdr rimosso da tutte le piattaforme
Dragon s dogma 2? Uno slider hdr non funziona come dovrebbe
Gears of war 4? Nessun hdr su pc, perfetto su xbox
Suicide squad? Hdr rotto
Banishers? Hdr assente del tutto
Starfield? Black level rotto in hdr
Mirage? Hgig rotto, DTM superiore
Immortal of aveum? Hdr assente per mesi, ora implementato ma senza possibilità di settarlo
L ultimo prince of Persia? Hdr assente
Diablo 4? Hdr rotto
Atomic Heart? Nessun hdr
Callisto protocol? Hdr rotto
Devo andare avanti?
Ovviamente è per fortuna da altre parte l hdr è ben implementato. Però considerando che ha 10 anni dovrebbe essere SEMPRE implementato bene.

DJurassic
26-04-2024, 23:38
Perfettamente d accordo sulla l'arte finale. Però capisci che non è una cosa giusta. Nel senso che il prodotto all uscita dovrebbe quasi essere perfetto. Non che devo aspettare mesi e mesi che lo sistemino e... se lo sistemano. È pieno di esempi anche illustri di giochi mai sistemati
Lato motori siamo evidentemente indietro. U5 per ora si sta rivalndo bello mediocre.il salto è minimo.
Gli altri sono ottimi motori, soprattutto quelli sony, ma il RT non è pervenuto o quasi. Il cryengine non è più un motore decente da anni ahahaha
Purtroppo salvo qualche eccezione i giochi sono graficamente fermi da anni.



A parte che io non. Facevo un paragone diretto ma amche qui la faccenda è molto semplice. Su console al 99% si sviluppa per sfruttare al massimo le stesse. Su pc assolutamente no, salve eccezioni. È questo il punto. Le console costano 500 euro e ti danno performance da 2070 super/2080 (quello che sono xsx e ps5). Poi però se vai a vedere lo stesso gioco alle volte con una 2080 gira peggio che sulle console. Questo significa ottimizzare male e farlo in maniera pigra. È un dato di fatto.
Lato hdr mi sa che non sai che su console sia presente al 99% mentre su pc alle volte nemmeno c'è nei giochi. E spesso quando esce è rotto. Anche in HZ FW era rotto l hdr per 1 mesetto buono. Su console ovviamente perfetto dal d1.
Anche AW2 su pc rotto e su console perfetto al d1.
No rest for the wiked? Hdr rotto in fullscreen mode
Grounded? Hdr rimosso da tutte le piattaforme
Dragon s dogma 2? Uno slider hdr non funziona come dovrebbe
Gears of war 4? Nessun hdr su pc, perfetto su xbox
Suicide squad? Hdr rotto
Banishers? Hdr assente del tutto
Starfield? Black level rotto in hdr
Mirage? Hgig rotto, DTM superiore
Immortal of aveum? Hdr assente per mesi, ora implementato ma senza possibilità di settarlo
L ultimo prince of Persia? Hdr assente
Diablo 4? Hdr rotto
Atomic Heart? Nessun hdr
Callisto protocol? Hdr rotto
Devo andare avanti?
Ovviamente è per fortuna da altre parte l hdr è ben implementato. Però considerando che ha 10 anni dovrebbe essere SEMPRE implementato bene.

Forse non ci siamo capiti, io ho detto che l'HDR su PC è paro paro quello che trovi su console senza nessuna divergenza e dove non c'è su una non c'è nemmeno sull'altra. Sei dovuto andare a rispolverare Gears 4 vecchio di 8 anni per trovare l'eccezione che conferma al regola :asd:

Poi visto che l'hai citato, No Rest for The Wicked è in early Access da 1 settimana, l'HDR funziona ma solo in borderless windowed. Capisco che su console gli accessi anticipati non esistono ma poter giocare un gioco che uscirà tra un anno e pretendere che dopo pochi giorni sia già perfetto non è proprio sinonimo di intelligenza visto che è proprio quello il senso di un early access. Così come scrivere che HFW hai dovuto aspettare 1 mese per vederlo sistemato quando il fix è uscito esattamente il giorno dopo il lancio. Visto che mi parli di perfezione ti ricordi che schifo era la modalità performance su PS5 quando uscì?

Se fossi poi un minimo onesto intellettualmente dal momento che hai una RTX dovresti anche sapere che Nvidia ha rilasciato da poco la funzione RTX HDR che mediante l'uso dell'IA converte il segnale SDR in HDR in quei giochi che non ce l'hanno o che non ce l'hanno di qualità. Dal momento che presumo tu segua il canale dell'australiano è strano che non l'abbia menzionato.. Guarda te lo linko io così magari la prossima volta non ti sfugge:

https://www.youtube.com/watch?v=kmRqv8k15oY&t=710s

Quindi ricapitolando su PC c'è l'HDR in tutti i giochi mentre su console nada. E ora direi che si può anche chiudere col fare paragoni campati in aria mischiando mele con pere.

Cutter90
27-04-2024, 06:41
Forse non ci siamo capiti, io ho detto che l'HDR su PC è paro paro quello che trovi su console senza nessuna divergenza e dove non c'è su una non c'è nemmeno sull'altra. Sei dovuto andare a rispolverare Gears 4 vecchio di 8 anni per trovare l'eccezione che conferma al regola :asd:

Io parlavo di hdr in generale, ma visto che insisti ti tiro fuori altri giochi che su console hanno lhdr nativo e su pc no.
Rise of the tomb Raider, Jurassik World evolution, Kena bridges of the spirits, Mafia complete edition ecc ecc
Quindi non dire che su pc c'è lo stesso supporto che su console che non è semplicemente vero. Diciamo che la maggior parte lo è. Ma tutto assolutamente no.

Poi visto che l'hai citato, No Rest for The Wicked è in early Access da 1 settimana, l'HDR funziona ma solo in borderless windowed. Capisco che su console gli accessi anticipati non esistono ma poter giocare un gioco che uscirà tra un anno e pretendere che dopo pochi giorni sia già perfetto non è proprio sinonimo di intelligenza visto che è proprio quello il senso di un early access. Così come scrivere che HFW hai dovuto aspettare 1 mese per vederlo sistemato quando il fix è uscito esattamente il giorno dopo il lancio. Visto che mi parli di perfezione ti ricordi che schifo era la modalità performance su PS5 quando uscì?

Le performance dei giochi contano zero in questa discussione, non "mischiare mele con pere" come dici tu. Non le tirare fuori solo per "bilanciare" console e pc. Anche perchè a livello di performance è un bagno di sangue su pc.
L'hdr deve essere trattata come una feture "base". Tra l'latro da implementare è una cavolata, rispetto a tante altre features. Al d1 me l'aspetto che ci sia e funzioni anche su un Early Access (metodo dietro cui alcuni sviluppatori si "nascondono" per giustificare il loro lavoro, attenzione. Non è il caso di No rest for the wicked)

Se fossi poi un minimo onesto intellettualmente dal momento che hai una RTX dovresti anche sapere che Nvidia ha rilasciato da poco la funzione RTX HDR che mediante l'uso dell'IA converte il segnale SDR in HDR in quei giochi che non ce l'hanno o che non ce l'hanno di qualità. Dal momento che presumo tu segua il canale dell'australiano è strano che non l'abbia menzionato.. Guarda te lo linko io così magari la prossima volta non ti sfugge:

https://www.youtube.com/watch?v=kmRqv8k15oY&t=710s

Quindi ricapitolando su PC c'è l'HDR in tutti i giochi mentre su console nada. E ora direi che si può anche chiudere col fare paragoni campati in aria mischiando mele con pere.

Ti sei chiesto come mai Nvidia RTX e AUto hdr di windows non li ho nominati? Secondo te non so che ci sono?
Semplicemente Auto Hdr di Windows non è l'implementazione nativa come qualità e NVidia RTX al momento non è utilizzabile per chi ha più di un monitor che su pc è un problema bello grave, visto che tanti hanno almeno 2 monitor. Inoltre, anche qui, non si può "sollevare" uno sviluppatore dalla "responsabilità" solo perchè c'è nvidia che, come in altri casi, ci mette la pezza.
Magari la prossima volta non partiamo con questi assolutismi e non spaliamo cacca sulle console solo perchè noi abbiamo un hardware nettamente superiore. Se l'hardware non ce lo sfruttano è una cosa grave. Proprio perchè invece su console lo fanno. Dovresti sentirti contrariato verso le SH, non verso le console, parere personale.

In conclusione qual è lo stato dell HDR? La risposta è "insomma". Quando implementato bene fa la differenza (sui giusti display) ma al momento, nonostante sia una features ormai datata, solo su console trova sempre il pieno supporto. Su pc ci sono problemi frequenti tra mancanza di supporto, black level errato, slider che non funzionano ecc ecc. E nel 2024 è piuttosto ridicolo, imho

rob-roy
27-04-2024, 06:50
Ragazzi mi scuso per l'OT ma vedo che siete esperti di HDR.

Sapete dirmi perchè se abilito l'HDR da windows ho una resa dei colori a dir poco "strana" in windows?

Mi riferisco a schermate con bassa luminosità, colori spenti, ecc...
Mentre magari poi in un'altra parte del sistema vedo i colori corretti...io lo tengo disabilitato per questo motivo.

Eppure ho un QD-Oled che credo renda bene in HDR...anche rtings gli ha dato buoni voti.

rob-roy
27-04-2024, 06:59
credo di aver risolto....ho scaricato questa app di Microsoft:

https://apps.microsoft.com/detail/9n7f2sm5d1lr?rtc=1&hl=it-it&gl=IT

E abilitato l'opzione chiamata: True Black 400 invece che Picco di 1000 nits

Ora i colori e la luminosità sono a posto

Slater91
27-04-2024, 10:09
Ma ti pagano per scrivere ste stronzate? :asd:

Ci rivediamo fra tre giorni. Buon ponte a tutti.

MATTEW1
30-04-2024, 18:46
Ragazzi scrivo qui perché vorrei tornare a giocare con una scheda nvidia utilizzando il ray tracing. Ma qui ho dei dubbi.
Ipotesi
1 ho una TV full hd..ora qual'è la scheda video che a 1080p mi permette di stare sui 60 fPs con i giochi Alan wake 2 e cyberpunk con il ray tracing e proprio giusto per curiosità path tracing ?
2 ha senso utilizzare a 1080p il dlss? Oppure è come giocare a 720p e tanto vale abbassare dei dettagli?
Vi parlo di 1080 p perché ho 2 TV ma l'altra è 4 k e li immagino che dalla 4080 o 4090 non sfuggo.e cmq non fanno più di 60hz. Non mi interessa fare 100fps o usare monitor da 144 hz. Son abituato ormai alle grandi dimensioni delle TV.. È finita la mia ere dei monitor da 27 e 144hz..
Spero di non essermi dimenticato niente

Telstar
30-04-2024, 20:30
Ragazzi scrivo qui perché vorrei tornare a giocare con una scheda nvidia utilizzando il ray tracing. Ma qui ho dei dubbi.
Ipotesi
1 ho una TV full hd..ora qual'è la scheda video che a 1080p mi permette di stare sui 60 fPs con i giochi Alan wake 2 e cyberpunk con il ray tracing e proprio giusto per curiosità path tracing ?

4070 super, usando il dlss.

fraussantin
30-04-2024, 20:38
Ragazzi scrivo qui perché vorrei tornare a giocare con una scheda nvidia utilizzando il ray tracing. Ma qui ho dei dubbi.

Ipotesi

1 ho una TV full hd..ora qual'è la scheda video che a 1080p mi permette di stare sui 60 fPs con i giochi Alan wake 2 e cyberpunk con il ray tracing e proprio giusto per curiosità path tracing ?

2 ha senso utilizzare a 1080p il dlss? Oppure è come giocare a 720p e tanto vale abbassare dei dettagli?

Vi parlo di 1080 p perché ho 2 TV ma l'altra è 4 k e li immagino che dalla 4080 o 4090 non sfuggo.e cmq non fanno più di 60hz. Non mi interessa fare 100fps o usare monitor da 144 hz. Son abituato ormai alle grandi dimensioni delle TV.. È finita la mia ere dei monitor da 27 e 144hz..

Spero di non essermi dimenticato niente

Il dlss è come giocare a risoluzioni piu basse (720 o più , poi dipende dai settaggi) ma con un antialiasing dl fatto bene.

Se merita o meno dipende dai giochi , ma generalmente in quality rende sempre bene , meglio che in nativa+ taa.
Poi nativo + dlaa decisamente migliore , ma anche pesante.

Se il target è 60 fps una 4070 super è sufficente.

Ci sono video sul tubo cmq che ti mostrano quei giochi quando rendono .

Maury
30-04-2024, 21:00
credo di aver risolto....ho scaricato questa app di Microsoft:

https://apps.microsoft.com/detail/9n7f2sm5d1lr?rtc=1&hl=it-it&gl=IT

E abilitato l'opzione chiamata: True Black 400 invece che Picco di 1000 nits

Ora i colori e la luminosità sono a posto

Applicazione preziosissima funziona veramente bene :)

fraussantin
30-04-2024, 21:15
Ragazzi mi scuso per l'OT ma vedo che siete esperti di HDR.



Sapete dirmi perchè se abilito l'HDR da windows ho una resa dei colori a dir poco "strana" in windows?



Mi riferisco a schermate con bassa luminosità, colori spenti, ecc...

Mentre magari poi in un'altra parte del sistema vedo i colori corretti...io lo tengo disabilitato per questo motivo.



Eppure ho un QD-Oled che credo renda bene in HDR...anche rtings gli ha dato buoni voti.Io ho il problema opposto , vedo tutto fluorescente.

XD

MATTEW1
30-04-2024, 21:23
Il dlss è come giocare a risoluzioni piu basse (720 o più , poi dipende dai settaggi) ma con un antialiasing dl fatto bene.

Se merita o meno dipende dai giochi , ma generalmente in quality rende sempre bene , meglio che in nativa+ taa.
Poi nativo + dlaa decisamente migliore , ma anche pesante.

Se il target è 60 fps una 4070 super è sufficente.

Ci sono video sul tubo cmq che ti mostrano quei giochi quando rendono .
Ok quindi 1080p con dlss su quality in cyberpunk è meglio che 1080p con aa classico. Ma anche in path tracing riesco a stare sui 60?

Arrow0309
01-05-2024, 21:17
Applicazione preziosissima funziona veramente bene :)

Si, e la uso sempre quando cambio il tipo di HDR (da True Black 400 a HDR1000), a 400 mi escono smpre un po di piu' Nits massimi).
Ma non vol dire niente che tipo l'HDR400 True Black sia migliore del 1000.
Perche non lo e'
Si, alla lunga ti sanguinano gli occhi in HDR1000 da vicino, ma non si vedra mai meglio col True Black come resa dei colori.

I colori sono leggermente meno saturi in HDR rispetto al SDR, su entrambi i profili.
Poi bisogna vedere che tipo di monitor, io parlo del mio Alienware DWF che usa la prima gen dei QD-Oled.

lordsnk
02-05-2024, 12:38
Ok quindi 1080p con dlss su quality in cyberpunk è meglio che 1080p con aa classico. Ma anche in path tracing riesco a stare sui 60?

Se giochi su un display a 1080p, la miglior qualità grafica la ottieni utilizzando il DLDSR 1620p + DLSS Quality.
L'immagine viene renderizzata a 1080p, ma la qualità grafica si avvicina a quella 4K, ovviamente considerando sempre la minor densità dei pixel del display :D

Con risoluzione 1080p non è mai consigliabile utilizzare il DLSS, meglio smanettare nelle impostazioni del gioco.

lordsnk
02-05-2024, 12:40
doppio

Mars95
02-05-2024, 13:56
Se giochi su un display a 1080p, la miglior qualità grafica la ottieni utilizzando il DLDSR 1620p + DLSS Quality.
L'immagine viene renderizzata a 1080p, ma la qualità grafica si avvicina a quella 4K, ovviamente considerando sempre la minor densità dei pixel del display :D

Con risoluzione 1080p non è mai consigliabile utilizzare il DLSS, meglio smanettare nelle impostazioni del gioco.

Non c'è il DLAA che fa la stessa cosa senza troppi sbattimenti?

eXeS
02-05-2024, 19:01
Non c'è il DLAA che fa la stessa cosa senza troppi sbattimenti?
Dipende dai gusti e bisogna provare, io ad esempio preferisco al DLAA l'uso del DLDSR + DLSS

Cutter90
02-05-2024, 19:22
La resa dipende dai giochi (in HZ Forbidden waest meglio il dlaa ad esempio). Inoltre il dlaa non è disponibile in tutti i giochi con dlss. Mentre il dldsr lo si può attivare sempre

lordsnk
04-05-2024, 10:10
Non c'è il DLAA che fa la stessa cosa senza troppi sbattimenti?

Il DLAA è un anti-aliasing non aumenta la risoluzione del gioco come fa il DLDSR e non include tutte le tecnologie contenute nel DLSS e nel DLDSR.
Inoltre il DLAA è molto pesante come richieste HW paragonato all’accoppiata DLDSR e DLSS.

Purtroppo la maggior parte degli utenti Nvidia non conosce i benefici del DLDSR.
Per fare un esempio con una 4090 + monitor 4K usando il DLDSR + DLSS Quality si ha una qualità da 6K (roba da spaccare la mascella :asd:) ma la GPU lavora a 4K.

Mars95
04-05-2024, 10:24
Il DLAA è un anti-aliasing non aumenta la risoluzione del gioco come fa il DLDSR e non include tutte le tecnologie contenute nel DLSS e nel DLDSR.
Inoltre il DLAA è molto pesante come richieste HW paragonato all’accoppiata DLDSR e DLSS.

Purtroppo la maggior parte degli utenti Nvidia non conosce i benefici del DLDSR.
Per fare un esempio con una 4090 + monitor 4K usando il DLDSR + DLSS Quality si ha una qualità da 6K (roba da spaccare la mascella :asd:) ma la GPU lavora a 4K.

So che DLAA e DLDSR non sono la stessa cosa, praticamente usare DLDSR e DLSS insieme passa due volte in un "filtro" DL uno per upsclare e uno per downscalare.
DLAA usa un "filtro" DL per migliorare l'immagine senza cambiare la risoluzione, cioè e nato apposta per quello.
Ragionandoci ci sono ragioni per cui potrebbe essere meglio un solo passaggio ma anche per cui possano essere meglio due, quindi ovviamente mi fido di chi ha provato :D

cody19
04-05-2024, 10:29
l'importante è avere una degna soluzione a differenza di amd che ti costringe alla nativa+burro

Mars95
04-05-2024, 10:48
l'importante è avere una degna soluzione a differenza di amd che ti costringe alla nativa+burro

Veramente si può usare FSR3 in native AA, anche con una RTX lo si può provare.

lordsnk
04-05-2024, 12:13
So che DLAA e DLDSR non sono la stessa cosa, praticamente usare DLDSR e DLSS insieme passa due volte in un "filtro" DL uno per upsclare e uno per downscalare.
DLAA usa un "filtro" DL per migliorare l'immagine senza cambiare la risoluzione, cioè e nato apposta per quello.
Ragionandoci ci sono ragioni per cui potrebbe essere meglio un solo passaggio ma anche per cui possano essere meglio due, quindi ovviamente mi fido di chi ha provato :D

Se vuoi approfondire la questione vedi questo (https://www.youtube.com/watch?v=c3voyiojWl4) video di DF :D

marbasso
06-05-2024, 23:02
Quindi al computex niente 5090.
Il successivo appuntamento per una potenziale presentazione quando sarebbe? In autunno?

amon.akira
06-05-2024, 23:58
Quindi al computex niente 5090.
Il successivo appuntamento per una potenziale presentazione quando sarebbe? In autunno?

fanno sempre presentazione propria e tra la presentazione e l uscita passa 1mesetto o meno, quindi se vogliono far coincidere i 2anni faranno presentazione a settembre e uscita ottobre o slittano di un mese

mikael84
07-05-2024, 00:16
Quindi al computex niente 5090.
Il successivo appuntamento per una potenziale presentazione quando sarebbe? In autunno?

Potrebbe anche essere al CES del 4 gennaio 2025. Se ad esempio, fosse per ottobre, le fasi finali partirebbero i primi di giugno.

fraussantin
07-05-2024, 05:21
Anche per me presentano ufficialmente da soli a fine agosto .

Cmq a giugno luglio qualche notizia scapperà , imho

OrazioOC
07-05-2024, 06:45
https://videocardz.com/newz/nvidia-geforce-rtx-5080-reportedly-launches-before-rtx-5090

fraussantin
07-05-2024, 06:56
https://videocardz.com/newz/nvidia-geforce-rtx-5080-reportedly-launches-before-rtx-5090Questa non è una buona notizia.

Potrebbe voler dire che la 5080 costerà parecchio e vogliono spingerla al lancio trainata dalle scimmie.

Ubro92
07-05-2024, 07:02
Questa non è una buona notizia.

Potrebbe voler dire che la 5080 costerà parecchio e vogliono spingerla al lancio trainata dalle scimmie.

Penso che i prezzi saranno simili a quelli di 4080 e 4090 al lancio, più bassi lo escluderei... Per forza di cose saranno alti, essendo anche le uniche due SKU che superano le prestazioni dell'attuale gen.

ninja750
07-05-2024, 08:14
vogliono spingerla al lancio trainata dalle scimmie.

dal DLSS4.0

amon.akira
07-05-2024, 08:16
Questa non è una buona notizia.

Potrebbe voler dire che la 5080 costerà parecchio e vogliono spingerla al lancio trainata dalle scimmie.

anche se uscirà prima temporalmente, sicuramente sarà presentata anche la 5090 e quindi farà slide vs le rispettive fasce

Cutter90
07-05-2024, 08:16
dal DLSS4.0

Al momento non credo ci sia nulla di ufficiale e non so con che cosa possano sorprendere. Ma c'è anche da dire che lo hanno sempre fatto per cui.... sono curioso:)

ultimate trip
07-05-2024, 09:08
https://videocardz.com/newz/nvidia-geforce-rtx-5080-reportedly-launches-before-rtx-5090

già si può intuire qualcosa su come si confronterà con la ex flagship 4090?

marbasso
07-05-2024, 09:41
Non ci resta che attendere. Dico la mia, 4090 ovviamente la vga più potente che abbia mai avuto ma, più si và avanti e più ste vga diventano anche noiose da usare. È una mia sensazione. Lontani i tempi del divertimento con le 2080ti e prima ancora con maxwell.

cody19
07-05-2024, 09:51
Penso che i prezzi saranno simili a quelli di 4080 e 4090 al lancio, più bassi lo escluderei... Per forza di cose saranno alti, essendo anche le uniche due SKU che superano le prestazioni dell'attuale gen.

la 4080 non ha venduto nulla a 1199/1479
non mi stupirei se la spazzatura di 7900xtx abbia venduto di più