PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 [408] 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466

OrazioOC
14-12-2023, 10:29
E' sempre la vecchia piattaforma PCIe 2.0/3.0, non è una questione di consumi ma di banda aggregata del sistema, io credo che sei ben lontano dalla resa generale di un configurazione qualsiasi basata su 13600K e comunque, ripeto, la Resizable Bar la devi quasi sempre disabilitare, cosa non da poco per parecchi games in 1080p.

Già le schede 3000 meritavano piattaforme aggiornate, ma se dovessi mai prendere un 4090 la farei "atterrare" come minimo su Z690 o x670.

Bisogna essere consci che certi acquisti poi scatenano spirali incontrollabili :D

Il sistema dev'essere all'altezza e son d'accordo, ma a conti fatti non credere che una buona b450 viaggi peggio di un sistema con una x570 a parità di cpu/gpu/ram. :)

E comunque la 4090 è talmente tanto potente che nei sintetici ogni minima variazione si fa notare.

OrazioOC
14-12-2023, 10:33
https://videocardz.com/newz/the-end-of-gtx-era-nvidia-geforce-gtx-16-series-to-be-discontinued-in-q1-2024

Ubro92
14-12-2023, 10:37
I chipset 300/400 alla fine supportano fino al pci-e 3.0 che per ora non è ancora cosi limitante anche su schede come 4080/4090:


https://tpucdn.com/review/nvidia-geforce-rtx-4090-pci-express-scaling/images/relative-performance_3840-2160.png

Review: https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-pci-express-scaling/28.html

Il 5800x3d o il 5700x3d che prossimamente arriverà saranno ottime soluzioni budget, perfette per tamponare o per assemblare build a basso costo per gaming.

Ovviamente rimangono pur sempre degli Zen3, ci sono giochi soprattutto con molti npc e con rt/pt attivo che buttano giù tutte le cpu, e serve anche potenza bruta in st/mt con gpu top di gamma.

Personalmente a pari costo preferirei una build con 7800x3d+4080 a una con 5800x3d+4090, poichè più bilanciata e con maggiori possibilità di upgrade, ma per chi resta nel target delle x60 e x70 l'opzione 5000x3d rimane validissima anche in ottica di future 5060/5070 o 6060/6070.

OrazioOC
14-12-2023, 10:41
I chipset 300/400 alla fine supportano fino al pci-e 3.0 che per ora non è ancora cosi limitante anche su schede come 4080/4090:



Il 5800x3d o il 5700x3d che prossimamente arriverà saranno ottime soluzioni budget, perfette per tamponare o per assemblare build a basso costo per gaming.

Ovviamente rimangono pur sempre degli Zen3, ci sono giochi soprattutto con molti npc e con rt/pt attivo che buttano giù tutte le cpu, e serve anche potenza bruta in st/mt con gpu top di gamma.

Personalmente a pari costo preferirei una build con 7800x3d+4080 a una con 5800x3d+4090, poichè più bilanciata e con maggiori possibilità di upgrade.
Su un sistema exnovo concordo, meglio puntare su am5, ma per chi ha una mobo am4(anche non top eh, una buona b450 è ancora una valida base) e 16/32gb ddr4 direi di guardare ai 5700/800x3d.

Ubro92
14-12-2023, 10:47
Su un sistema exnovo concordo, meglio puntare su am5, ma per chi ha una mobo am4(anche non top eh, una buona b450 è ancora una valida base) e 16/32gb ddr4 direi di guardare ai 5700/800x3d.

Ma anche su un sistema nuovo, alla fine "SE" il 5700x3d verrà venduto nel range dei 200€, per una B550+32GB DDR4 te ne esci con meno di 400€ quindi hai un risparmio notevole rispetto una build AM5 con 7800x3d+32GB+ B650E/X670E che paghi praticamente il doppio.

Restando nel range della fascia media delle x60 e x70 non è neanche cosi limitante in ottica futura, anche nel caso di un taglio delle linee a 8x dato il supporto al pci-e 4.0, però già che spendi 1800€ di GPU, forse forse sarebbe meglio bilanciare tutto.

albero77
14-12-2023, 10:49
Come detto con la tua CPU i compromessi li avrai eccome. Soprattutto nei giochi con RT e soprattutto se non giochi in 4k nativo.
Per la cifra, si la 4090 a 1800 è meglio di una 4080 a 1350.
Certo, per sfruttarla bene e non limitarla devi però cambiare cpu.
Quindi di fatto la userai come una 4080, se non meno in alcuni titoli più cpu intensive.
Se ti va bene nessun problema :)

this!
Lo dico essendomi trovato anch' io di fronte all' eterno dilemma se aggiornare o meno e alla fine trovandomi a giocare in 4k ho preferito rimandare, ma al di sotto dei 4k la situazione peggiora ovviamente. E' vero che esistono degli escamotage per mitigare il problema che personalmente utilizzo anch'io di default.
Comunque io tiro dritto col 5900x senza mai guardarmi indietro, fatemi cambiare idea....:asd:

ColdWarGuy
14-12-2023, 11:55
Il sistema dev'essere all'altezza e son d'accordo, ma a conti fatti non credere che una buona b450 viaggi peggio di un sistema con una x570 a parità di cpu/gpu/ram. :)

E comunque la 4090 è talmente tanto potente che nei sintetici ogni minima variazione si fa notare.

Guarda, se c'è uno che si diverte nell'attività di estrarre il sugo dalle rape sono io :D però, ad esempio, dopo aver speso un milione di ore nel tentativo di fare girare decentemente la 3070 su CH4 ho avuto l'ennesima conferma che affiancare GPU di medio / alto livello con piattaforme non aggiornate le castra non poco e non solo lato performance.

Mi era successa la stessa cosa con la GTX 970 ed un 2500K fortunello tirato a corda di violino , cambiata piatta con processore modesto andava tutto molto meglio, sotto ogni punto di vista.

https://videocardz.com/newz/the-end-of-gtx-era-nvidia-geforce-gtx-16-series-to-be-discontinued-in-q1-2024

Si chiude definitivamente l'epoca in cui era lecito pensare di potersi divertire spendendo il giusto, ora il PC gaming è sulla stessa strada del modding sportivo di moto e auto, ho amici che hanno compromesso bilanci familiari con questi passatempi, ora per chi vuole fare la stessa fine c'è anche l'alternativa del PC gaming :)

mikael84
14-12-2023, 11:57
Mah guarda, gli basterebbe vendere il 5900x(e almeno 220/250 euro dovrebbe farli) e metterci un 50/70 euro per recuperare il 5800x3d e già avrebbe un sistema ben più bilanciato.
Inoltre amd sembra che stia per lanciare il 5700x3d, che è la stessa cpu con 3/400 mhz in meno(e quindi costerà meno) ergo per me ha modo di sfruttare al 90/95% la 4090 senza rivoluzionare il pc. :)

Nel suo caso un 5800x3d, sarebbe una discreta pezza temporanea sicuramente.

Lo capirà appena la installerà :) è l'errrore comune di chi monta 4080/90, è abbastanza sbilanciato non ho voluto infierire ma lo vedrà con i suoi occhi.
I 5000 lisci alcune volte fanno da collo anche alle 3080/90 in 2560x1440, una 4090 in 3440x1440 soffre abbastanza.

Il 5800x 3d ti permette di respirare.

Con il 5900x non va lontano, titoli come RE 4 sono cpu limited pure in 4k nativo senza upscaling, e per cpu limited intendo cali al 60% di gpu load.

Si dovrà armare di DLDSR 1.78X 2.25X

Infatti, sul CPU limit sono abbastanza drastico, vedendo quanto spesso venga limitato anch'io. Tuttavia, bisogna conoscere le CPU, valutare lo stacco che hanno tra le serie, e decidere sull'upgrade.

Questo però, consiglio di farlo manualmente, e vedere quanto in tale gioco venga limitato, e non sempre lo sei, se scende un tantino l'usage. In quel caso, basta mettere mano su DLSS o FSR, e vedere se scendendo di res, il frame aumenta.

Con Requiem, i tester, non vedranno mai problemi, facendo i primi 10 secondi, ma quando entri nei paesini, con CPU non all'altezza, succede il delirio.:p





Comunque anche a te zio mike consiglio quando uscirà tra 1/2 mesi il 5700x3d di saltare sul carro delle cpu con cache 3d, sembra ma fa tanto.
Su un sistema dotato di r5 3600+3070 2 mesi fa ho fatto un upgrade ad un 5800x3d e la 3070 è rinata(questo in fhd a 165 hz in giochi dove la cpu incide tanto).
Ma 3070:fhd=3080:1440p, ergo anche per te un cambio di cpu ti darebbe quel boost che farebbe sembrare la 3080 qualcosa in più di quello che è ora. :)

Se non avessi una B450 l'avrei già fatto da tempo, ma ora il sistema è da rivedere in toto. E la differenza è ormai nulla o pochi spicci tra 7800x3d e 5800x3d.
Tuttavia un 5700x3d, prima di zen5 o arrow, potrebbe essere un ottimo tampone.:)
ora vediamo gennaio nel q1 2024 come si evolve il tutto.

I chipset 300/400 alla fine supportano fino al pci-e 3.0 che per ora non è ancora cosi limitante anche su schede come 4080/4090:


Il 5800x3d o il 5700x3d che prossimamente arriverà saranno ottime soluzioni budget, perfette per tamponare o per assemblare build a basso costo per gaming.

Ovviamente rimangono pur sempre degli Zen3, ci sono giochi soprattutto con molti npc e con rt/pt attivo che buttano giù tutte le cpu, e serve anche potenza bruta in st/mt con gpu top di gamma.

Personalmente a pari costo preferirei una build con 7800x3d+4080 a una con 5800x3d+4090, poichè più bilanciata e con maggiori possibilità di upgrade, ma per chi resta nel target delle x60 e x70 l'opzione 5000x3d rimane validissima anche in ottica di future 5060/5070 o 6060/6070.

Diciamo che quelle review dicono abbastanza poco, soprattutto sui minimi si perde. Ed anche per questo che non ho messo un 5800x3d, ma vorrei cambiare tutto ormai.
https://www.youtube.com/watch?v=yARERzRF1J0&ab_channel=TestingGames

Questo è un piccolo esempio.
https://i.postimg.cc/4x5vgmTN/forza.png

ColdWarGuy
14-12-2023, 12:25
Nel suo caso un 5800x3d, sarebbe una discreta pezza temporanea sicuramente.


Una pezza da 300 euro


Se non avessi una B450 l'avrei già fatto da tempo, ma ora il sistema è da rivedere in toto. E la differenza è ormai nulla o pochi spicci tra 7800x3d e 5800x3d.


e questo è esattamente il punto.

mikael84
14-12-2023, 12:49
Una pezza da 300 euro



e questo è esattamente il punto.

Purtroppo quella CPU gioca sul fatto, che consente di rimanere su AM4. E' un pò come i famosi q9550/9650, che la gente pagava (anche usati) a prezzi molto alti pur di non cambiare tutto.
Il prezzo è anche per invogliare a passare ad AM5, un pò come la 4080 sulla 4090.:)

Il cambiare, non è solo una questione puramente di prezzo, ma anche di mollare un sistema collaudato.

ColdWarGuy
14-12-2023, 13:22
Purtroppo quella CPU gioca sul fatto, che consente di rimanere su AM4. E' un pò come i famosi q9550/9650, che la gente pagava (anche usati) a prezzi molto alti pur di non cambiare tutto.
Il prezzo è anche per invogliare a passare ad AM5, un pò come la 4080 sulla 4090.:)

Il cambiare, non è solo una questione puramente di prezzo, ma anche di mollare un sistema collaudato.

C'è anche l'aspetto del destino del materiale che sostituisci, se non hai un giro dove piazzarlo e/o la pazienza di venderlo online è sempre un dispiacere avere nell'armadio roba inutilizzata destinata al macero, ma d'altra parte bisogna stare attenti a non fare update temporanei un po "meh" che poi non soddisfano e fanno perdere tempo e soldi.

OrazioOC
14-12-2023, 13:28
https://videocardz.com/newz/nvidia-geforce-rtx-40-super-launch-scheduled-for-january-17-24-and-31-with-rtx-4070-super-leading-the-way

marbasso
14-12-2023, 13:30
La top è una vga da day1. Questa è l'ottica vincente perché si può dire quello che si vuole oggi ma un anno passa in fretta e ti ritrovi con la nuova architettura e la vga non ha nemmeno preso polvere.
Certo che ognuno fa quel che vuole giustamente, un po' mi ricorda quando presi io la 4090 e la misi con 9900k....andava ma....subito cambiato piatta con 790, ddr5 e 13900

Cutter90
14-12-2023, 13:58
In base alla mia esperienza restare con il 5900X (il 5800x3d migliora ma coq non risolve) con la 4090 è più o meno come aver preso la 4080 al posto della 4090 come perdita di performance dovuta alla cpu

Ubro92
14-12-2023, 13:59
Infatti, sul CPU limit sono abbastanza drastico, vedendo quanto spesso venga limitato anch'io. Tuttavia, bisogna conoscere le CPU, valutare lo stacco che hanno tra le serie, e decidere sull'upgrade.

Nel tuo caso specifico avendo già un 5700x e una 3080 non ha molto senso rimanere su AM4, la cache 3d aiuta ma di fondo rimane sempre uno Zen3, e visti anche i costi delle GPU il 2024 è un buon anno per aggiornare il reparto CPU cosi da essere pronti per blackwell


Se non avessi una B450 l'avrei già fatto da tempo, ma ora il sistema è da rivedere in toto. E la differenza è ormai nulla o pochi spicci tra 7800x3d e 5800x3d.
Tuttavia un 5700x3d, prima di zen5 o arrow, potrebbe essere un ottimo tampone.:)
ora vediamo gennaio nel q1 2024 come si evolve il tutto.

Purtroppo il problema non è il costo della sola cpu ma della piattaforma AM5 che crea un grosso divario.

Soprattutto per le mobo c'è molta frammentazione, e in ottica di tenersi la piattaforma per diversi anni l'ideale è puntare sui Chipset serie E con supporto al 5.0 quindi B650E/X670E, ma già qui volano via 250-300€ di sola mobo.

In soldoni un 7800x3d ti viene a costare il doppio di un 5800x3d sommando anche ram e mobo, da vedere nei prossimi mesi se con l'uscita di Zen 5, nuovi chipset 700 e l'eventuale concorrenza di Arrow si crei maggior concorrenza e quindi anche prezzi più appetibili.


Diciamo che quelle review dicono abbastanza poco, soprattutto sui minimi si perde. Ed anche per questo che non ho messo un 5800x3d, ma vorrei cambiare tutto ormai.
https://www.youtube.com/watch?v=yARERzRF1J0&ab_channel=TestingGames

Questo è un piccolo esempio.
https://i.postimg.cc/4x5vgmTN/forza.png

Beh si, un qualcosa lo perdi sempre, lo stacco si sentirebbe ancora di più su un eventuale 5060ti che limitata a sole 8 linee con una potenza teorica da 4070/4070ti, ci si ritroverebbe un 5800x3d con una bw da pcie 2.0 x16.

Infatti come ti dicevo su al prossimo giro punta a una mobo 5.0, cosi da stare coperto anche a fine ciclo di AM5.

lordsnk
14-12-2023, 14:11
Infatti come ti dicevo su al prossimo giro punta a una mobo 5.0, cosi da stare coperto anche a fine ciclo di AM5.

Il PCIe 5.0, se non si gioca a risoluzioni superiori a 8K o se non si hanno esigenze di trasferire file di grandi dimensioni velocemente, serve a poco.

Per giocare a 4K max + PT il 4.0 andrà bene per molti anni ancora ;)

Ubro92
14-12-2023, 14:15
Il PCIe 5.0, se non si gioca a risoluzioni superiori a 8K o se non si hanno esigenze di trasferire file di grandi dimensioni velocemente, serve a poco.

Per giocare a 4K max + PT il 4.0 andrà bene per molti anni ancora ;)

Di questa cosa puoi esserne certo anche fino al 2028?
Perchè è questo che si parla, puntando ad AM5 lo fai anche per tenertela a lungo, prendi un 7800x3d oggi per aggiornare a un Zen6x3d domani e tenertelo altri due anni invece di andare di AM6.

Altrimenti torniamo allo stesso dubbio di oggi, sul senso di avere un 5800x3d su un chipset 300/400 e tra l'altro anche le B650 lisce non è che le regalino per quelle decenti nel formato ATX siamo sempre nell'intorno dei 200€...

Cutter90
14-12-2023, 15:00
Di questa cosa puoi esserne certo anche fino al 2028?
Perchè è questo che si parla, puntando ad AM5 lo fai anche per tenertela a lungo, prendi un 7800x3d oggi per aggiornare a un Zen6x3d domani e tenertelo altri due anni invece di andare di AM6.

Altrimenti torniamo allo stesso dubbio di oggi, sul senso di avere un 5800x3d su un chipset 300/400 e tra l'altro anche le B650 lisce non è che le regalino per quelle decenti nel formato ATX siamo sempre nell'intorno dei 200€...

Bravo, precisamente. Infatti prendendo am5 ho fatto prorpio questo ragionamento ed è per questo che ho preso una mobo top di gamma che terrà botta tranquillamente fino al 2026 almeno non rinunciando a nulla.

lordsnk
14-12-2023, 15:12
Di questa cosa puoi esserne certo anche fino al 2028?
Perchè è questo che si parla, puntando ad AM5 lo fai anche per tenertela a lungo, prendi un 7800x3d oggi per aggiornare a un Zen6x3d domani e tenertelo altri due anni invece di andare di AM6.

Altrimenti torniamo allo stesso dubbio di oggi, sul senso di avere un 5800x3d su un chipset 300/400 e tra l'altro anche le B650 lisce non è che le regalino per quelle decenti nel formato ATX siamo sempre nell'intorno dei 200€...

Ci metto la mano sul fuoco.
La banda della 4.0 per giocare a 4K basta e avanza.
La 5.0 tranne per determinate esigenze di trasferimento file è puro marketing. ;)

mikael84
14-12-2023, 15:39
C'è anche l'aspetto del destino del materiale che sostituisci, se non hai un giro dove piazzarlo e/o la pazienza di venderlo online è sempre un dispiacere avere nell'armadio roba inutilizzata destinata al macero, ma d'altra parte bisogna stare attenti a non fare update temporanei un po "meh" che poi non soddisfano e fanno perdere tempo e soldi.

Lo rivendi al mercatino, o li usi come muletto, io li uso anche sulle tv (sala, cucina).:)
Prima, pure io cambiavo sempre, ma ora si invecchia, ed hai altre priorità, per quanto stia solo per entrare negli anta.:p

Nel tuo caso specifico avendo già un 5700x e una 3080 non ha molto senso rimanere su AM4, la cache 3d aiuta ma di fondo rimane sempre uno Zen3, e visti anche i costi delle GPU il 2024 è un buon anno per aggiornare il reparto CPU cosi da essere pronti per blackwell



Purtroppo il problema non è il costo della sola cpu ma della piattaforma AM5 che crea un grosso divario.

Soprattutto per le mobo c'è molta frammentazione, e in ottica di tenersi la piattaforma per diversi anni l'ideale è puntare sui Chipset serie E con supporto al 5.0 quindi B650E/X670E, ma già qui volano via 250-300€ di sola mobo.

In soldoni un 7800x3d ti viene a costare il doppio di un 5800x3d sommando anche ram e mobo, da vedere nei prossimi mesi se con l'uscita di Zen 5, nuovi chipset 700 e l'eventuale concorrenza di Arrow si crei maggior concorrenza e quindi anche prezzi più appetibili.



Beh si, un qualcosa lo perdi sempre, lo stacco si sentirebbe ancora di più su un eventuale 5060ti che limitata a sole 8 linee con una potenza teorica da 4070/4070ti, ci si ritroverebbe un 5800x3d con una bw da pcie 2.0 x16.

Infatti come ti dicevo su al prossimo giro punta a una mobo 5.0, cosi da stare coperto anche a fine ciclo di AM5.

Il x3d, ci sta sulle AM4, ma obbiettivamente non ai prezzi a cui è proposto. Ci sono vari giochi, che già un 7600 da 200 euro e d5 lo supera, per non parlare che è il costo di un 14600/13600k, nettamente migliore a 360°.
Il costo della piattaforma è alto, vero, ma è un buon investimento, se pensiamo che il socket potrebbe durarti sino al 2080-30, con il passaggio ad AM6.
Il 5800x3d, è stato un riferimento soprattutto ai primi tempi, per permetterti di saltare raptor e zen4, portandoti ad arrow-zen5 in tranquillità.
Ora secondo me, un buona soluzione ponte, potrebbe essere il 5700x3d, il tampone giusto, magari sulle 200-220, in attesa di zen5 e arrow.

Sul pcie5, si è un investimento sensato, ma al momento non necessario, considerandolo sia a livello di nvme, che di GPU, visto che ancora sono a 4.
Cmq, ci sta come ragionamento, e probabilmente da blackwell lo vedremmo sulle serie 5.

Cutter90
14-12-2023, 16:18
Ci metto la mano sul fuoco.
La banda della 4.0 per giocare a 4K basta e avanza.
La 5.0 tranne per determinate esigenze di trasferimento file è puro marketing. ;)

Ora. Vedremo tra 5-6 anni

OrazioOC
14-12-2023, 18:39
https://videocardz.com/newz/nvidia-geforce-rtx-40-super-launch-scheduled-for-january-17-24-and-31-with-rtx-4070-super-leading-the-way

Lanci scaglionati, d'altronde le perfomance sono troppo difficili da inquadrare LOL

Che pagliacci con ste SUPER, se pensavano a farle uscire così con queste specigiche già dal D1, invece di stare a prendere per il sedere dopo quasi un anno e mezzo con architettura al 60-70% del suo ciclo vitale.

Vabbe' alla fine l'nda sulle review è le stacca di 1 settimana, tempo di dare respiro ai reviewer. :asd:
Comunque le più interessanti, le 4070 super/ti super le lanciano subito, ed è cosa buona e giusta. :D

mikael84
14-12-2023, 19:01
Vabbe' alla fine l'nda sulle review è le stacca di 1 settimana, tempo di dare respiro ai reviewer. :asd:
Comunque le più interessanti, le 4070 super/ti super le lanciano subito, ed è cosa buona e giusta. :D

Tanto le perf. si possono calcolare già.:p

Anche se a me non piace, prendo il classico grafico.
https://tpucdn.com/review/sparkle-arc-a580-orc/images/relative-performance-2560-1440.png
4070ti/4070super : -6,6% teorico. Mediamente sarà a -5% effettivo (ovviamente una leggera variazione la darà anche il clock).
4070ti scenderebbe a 245% nel grafico mediamente.
4080-4070ti super (ad103) . 13% teorico, facciamo - 10 effettivo
278-280% circa in quel grafico.

Una 7900xt con RT superiore ed ecosistema nvidia.

albero77
14-12-2023, 19:04
Purtroppo quella CPU gioca sul fatto, che consente di rimanere su AM4. E' un pò come i famosi q9550/9650, che la gente pagava (anche usati) a prezzi molto alti pur di non cambiare tutto.
Il prezzo è anche per invogliare a passare ad AM5, un pò come la 4080 sulla 4090.:)

Il cambiare, non è solo una questione puramente di prezzo, ma anche di mollare un sistema collaudato.



Quanta saggezza...:friend:

OrazioOC
14-12-2023, 19:10
Tanto le perf. si possono calcolare già.:p

Anche se a me non piace, prendo il classico grafico.
https://tpucdn.com/review/sparkle-arc-a580-orc/images/relative-performance-2560-1440.png
4070ti/4070super : -6,6% teorico. Mediamente sarà a -5% effettivo (ovviamente una leggera variazione la darà anche il clock).
4070ti scenderebbe a 245% nel grafico mediamente.
4080-4070ti super (ad103) . 13% teorico, facciamo - 10 effettivo
278-280% circa in quel grafico.

Una 7900xt con RT superiore ed ecosistema nvidia.

Ergo la scheda per il 1440p senza compromessi o anche un 4k tranquillo giocandosela con il dlss. :)

OrazioOC
14-12-2023, 19:25
Purtroppo quella CPU gioca sul fatto, che consente di rimanere su AM4. E' un pò come i famosi q9550/9650, che la gente pagava (anche usati) a prezzi molto alti pur di non cambiare tutto.
Il prezzo è anche per invogliare a passare ad AM5, un pò come la 4080 sulla 4090.:)

Il cambiare, non è solo una questione puramente di prezzo, ma anche di mollare un sistema collaudato.

Ogni tot generazioni ci sono cpu top di gamma che per giocare rimangono sempre attuali anche 3/4 anni dopo il lancio di altri socket/chipset.
Il core 2 quad q9550, il core i7 2600k/4790k/6700k, il core i9 9900k, il r7 5800x3d ecc..
Io fossi in te mike, non mi farei troppi problemi per il pcie express 3.0, sopratutto se viri su una 4080 super rispetto alla 4090, o anche 5070/ti/super quando sarà nel 2025...
Il 5800x3d è una cpu che in multitasking e in game ne ha comunque come un 7600x, sarà anche zen 3 ma è sempre un 8c/16t con buona ipc, discrete frequenze(all core lavora a 4.4ghz tranquillamente) e la cache 3d toglie veramente parecchie limitazioni con certe gpu.
E poi, a natale puoi. :D

Ubro92
15-12-2023, 21:34
Giusto in tempo per i botti di capodanno:

https://overclock3d.net/news/power_supply/akasa-are-avoiding-12vhpwr-cable-bends-with-their-new-angled-adapters

fraussantin
16-12-2023, 05:31
Ora. Vedremo tra 5-6 anni

Prob anche prima se uno punta alle top di gamma , ma fra 5 o 6 anni , chi punterà alla 7090 o quello che sará , non penso che sarà su am4.

Detto questo io oggi se dovrssi cambiare procione prenderei una b650e strix wifi o relativa msi e un 78003d con 32 giga di ram.

È una piattaforma a prezzo equilibrato , che mi permetterà di aggiornare eventualmente in futuro scheda video o processore.

E cmq una scheda madre equiparabile a quella che ho adesso su am4 ( x570 strix e) come accessori e ninnoli necessari.

Purtroppo i prezzi fanno schifo. Ma ormai ci si fa il callo

Cutter90
16-12-2023, 06:27
Questi AKASA non mi piacciono per nulla :(

A proposito di cavi/adattatori qualcuno qui ha gli strimer v2 di lian li? in particolare la prolunga del 12vhpwr è sicura? so che sono ben realizzati (16 AWG etc..) ma la paura c'è sempre per quanto riguarda la 4090, ricordo che qualcuno ne parlava, non ricordo chi.
Ho fatto un pò di spesa sti giorni e visto che ho cambiato case con un H9 elite mi sono preso pure i cavi.:D
https://i.ibb.co/BqwwQ6J/20231205-222226.jpg (https://ibb.co/BqwwQ6J) https://i.ibb.co/k8dDjD2/20231205-222231.jpg (https://ibb.co/k8dDjD2)

Ce l ho montato io! Finora nessun problema, è bello saldo l innesto e molto flessibile in prossimità del connessione :)

cody19
16-12-2023, 10:11
Ottimo!:)
Avevo intenzione anche di comprare un cablemod 90 gradi per renderlo più ordinato:
https://hwbusters.com/psus/cablemod-cables-to-the-max-55-65a-50c-will-they-survive/
Ma forse è troppo accrocco, tra sto cavo e quello troppe ''giunture''

Comunque TOTO prezzi 4000 SUPER, alcuni oltreoceano danno per certo :D che la 4080 super costi 999$ (dai 1199$ della 4080) e la 4070ti al prezzo della 4070ti attuale.
Io personalmente stento a crederci.

schede che violentano le amd dovrebbero costare = o meno? mmmmmmmmmm

Cutter90
16-12-2023, 10:53
Ottimo!:)
Avevo intenzione anche di comprare un cablemod 90 gradi per renderlo più ordinato:
https://hwbusters.com/psus/cablemod-cables-to-the-max-55-65a-50c-will-they-survive/
Ma forse è troppo accrocco, tra sto cavo e quello troppe ''giunture''

Comunque TOTO prezzi 4000 SUPER, alcuni oltreoceano danno per certo :D che la 4080 super costi 999$ (dai 1199$ della 4080) e la 4070ti al prezzo della 4070ti attuale.
Io personalmente stento a crederci.

La giuntura del lian li è estremamente ben fatta e flessibile. Salvo spiaccicare il connettore sul vetro del case fa benissimo la curva già lui
I prezzi saranno nella mezzerie delle rispettive fasce. Credo ci sia ben poco da indovinare

OrazioOC
16-12-2023, 12:36
https://videocardz.com/newz/nvidia-geforce-rtx-40-super-review-and-sales-embargo-information-leaks-out

Nulla che non si sapesse già comunque...

OrazioOC
16-12-2023, 18:47
https://videocardz.com/newz/nvidia-geforce-rtx-40-super-review-and-sales-embargo-information-leaks-out

Nulla che non si sapesse già comunque...

Notare una cosa che magari è passata un po' in sordina, la riduzione di tdp delle 4070 super vs 4070 ti e 4070 ti super vs 4080. :D
La 4070 super avrà 225w di tdp, è il tdp di una 3070 stock, non è per niente male, c'è caso che con un po' di undervolt sia una gpu da 180/190w a pieno carico. :)

mikael84
18-12-2023, 00:33
Notare una cosa che magari è passata un po' in sordina, la riduzione di tdp delle 4070 super vs 4070 ti e 4070 ti super vs 4080. :D
La 4070 super avrà 225w di tdp, è il tdp di una 3070 stock, non è per niente male, c'è caso che con un po' di undervolt sia una gpu da 180/190w a pieno carico. :)

Beh, sono TDP abbastanza elevati già di loro, il nodo di TSMC è stupendo.:)
https://i.postimg.cc/0j8R6Fpg/tdp.png

fraussantin
18-12-2023, 01:09
Beh, sono TDP abbastanza elevati già di loro, il nodo di TSMC è stupendo.:)

https://i.postimg.cc/0j8R6Fpg/tdp.pngA vedere questo grafico mi converrebbe metterla a 300w risparmiando temperatura e energia.

amon.akira
18-12-2023, 04:22
A vedere questo grafico mi converrebbe metterla a 300w risparmiando temperatura e energia.

il modo migliore secondo me è sempre non capparla in potenza, ma andare di curva undervolt + relativo oc

esempio ho fatto il bench di cyberpunk maxato dlss quality+fg power limit max e ho chiuso su hwinfo con picco a a 329w, gpu 0.975mv 2850mhz

a proposito ma ho notato che è calato il framerate o sbaglio? ho fatto 73fps con 2850mhz, prima erano 80mi pare

edit
fatto altro giro 77fps 350w, cmq ricordo che era piu alto

fraussantin
18-12-2023, 07:30
il modo migliore secondo me è sempre non capparla in potenza, ma andare di curva undervolt + relativo oc

esempio ho fatto il bench di cyberpunk maxato dlss quality+fg power limit max e ho chiuso su hwinfo con picco a a 329w, gpu 0.975mv 2850mhz

a proposito ma ho notato che è calato il framerate o sbaglio? ho fatto 73fps con 2850mhz, prima erano 80mi pare

edit
fatto altro giro 77fps 350w, cmq ricordo che era piu alto

Ottimo , un punto di partenza sicuro che in genere è stabile con tutte per poi lavorarci quale è?

lordsnk
18-12-2023, 09:46
A vedere questo grafico mi converrebbe metterla a 300w risparmiando temperatura e energia.

Quello che faccio io.
Precisamente faccio undervolt + overclock core e soprattutto overclok della vram (+1500).
In questo modo con un consumo di poco più 300W ottengo le prestazioni stock.
Alla faccia di chi dice che un ali 750W Platinum non può reggere una 4090 :asd:

mikael84
18-12-2023, 11:51
A vedere questo grafico mi converrebbe metterla a 300w risparmiando temperatura e energia.

Ti conviene farlo in curva però, abbassando la tensione extra, quindi portando il clock di default a 0,95v ( la tensione da BBase). In questo modo, mantieni il clock a tensioni inferiori. 0,1v te lo risparmi.
Ovviamente poi, te ne puoi fare una anche occata, sempre a tensione bbase.

Più che altro overclocka le memorie, se hai necessità.

fraussantin
18-12-2023, 13:10
Ok grazie a tutti .

La procedura è sempre la stessa di ampere giusto?

RedPrimula
18-12-2023, 14:21
Si la procedura è sempre la stessa;)

Comunque su Ac Mirage è implementato veramente bene il DLSS, anche se di fatto dovrebbe essere DLSS 2.3.1, è uno di quei pochi giochi dove si può mettere DLSS Qualità in 1440p senza perdere quasi nulla in termini di qualità, cosi da non scomodare risoluzioni di rendering superiori come il 4k, ci vuole proprio la lente di ingrandimento per notare differenze, il DLAA è sublime.

Qui 2560x1440 DLSS Qualità Nitidezza 10%

https://i.ibb.co/qg9xkvK/ACMirage-2023-12-18-15-04-44-021.png (https://ibb.co/Ks7mFJd)

Si può dire quello che si vuole dei titoli Ubi, ma artisticamente parlando sono spesso eccelsi. Mirage ed Avatar li giocherò senz'altro.

marbasso
18-12-2023, 14:32
Minchia io a proposito di undervolt mi son giocato tutto RoboCop con la GPU a 0.85v (meno non lo fa impostare afterburner) a 2640mhz col pl al 45% consumando circa 200w non di più.
Ed ho giocato bene tutto il gioco maxato con una media di 80fps e punte di 175fps circa.

mikael84
18-12-2023, 15:08
Si la procedura è sempre la stessa;)

Comunque su Ac Mirage è implementato veramente bene il DLSS, è uno di quei pochi giochi dove si può mettere DLSS Qualità in 1440p senza perdere quasi nulla in termini di qualità dal DLAA, ma con un boost di performance considerevole.
in 1440p è notevole, cosi da non dover scomodare risoluzioni di rendering superiori come il 4k, ci vuole proprio la lente di ingrandimento per notare differenze.

Qui [B]2560x1440 DLSS Qualità Nitidezza 10%


1440p + DLAA, è davvero ottimo. Il livello di dettaglio e le texture, sono un gran passo in avanti.
Non uso il DLSS, in quanto il frame è già abbastanza alto, ma confermo che il DLSS anche in bilanciato è molto valido.
Chi ha un OLED 4k, lo gioca divinamente anche con schede mid.

https://i.postimg.cc/6yJm63Rt/ACMirage-plus-2023-12-14-02-11-19-714.png (https://postimg.cc/6yJm63Rt)

https://i.postimg.cc/tYKmTgx9/ACMirage-plus-2023-12-11-02-49-42-729.png (https://postimg.cc/tYKmTgx9)

https://i.postimg.cc/JD3PG3j8/ACMirage-plus-2023-12-15-13-37-43-141.png (https://postimg.cc/JD3PG3j8)

OrazioOC
18-12-2023, 15:59
https://videocardz.com/newz/nvidia-geforce-rtx-4090d-reportedly-launches-on-december-28th-in-china

Ubro92
18-12-2023, 21:30
Quoto, già a partire dal primo capitolo si notava una decisa cura per i dettagli, già con un semplice reshade si ottiene una bella resa per un titolo del 2007.

https://i.postimg.cc/XGGbpbrw/Assassins-Creed-Dx10-2021-06-23-22-31-34-989.jpg (https://postimg.cc/XGGbpbrw) https://i.postimg.cc/5YhMzRzD/Assassins-Creed-Dx10-2021-06-23-22-33-19-662.jpg (https://postimg.cc/5YhMzRzD) https://i.postimg.cc/m17WyyNk/Assassins-Creed-Dx10-2021-06-24-09-34-45-941.jpg (https://postimg.cc/m17WyyNk) https://i.postimg.cc/PNDHHdsH/Assassins-Creed-Dx10-2021-06-26-11-45-46-298.jpg (https://postimg.cc/PNDHHdsH)

Ora con engine più avanzati e il gran numero di open world in giro c'è un pò di appiattimento, però di base le ambientazioni degli AC sono sempre molto curate.

OrazioOC
19-12-2023, 14:07
:asd: :asd: che roito
https://videocardz.com/newz/nvidia-geforce-rtx-3050-6gb-reportedly-launches-in-february-2024-at-179

Vabbe' l'ultima scheda sotto i 200 dollari in cui nvidia si è sforzata un minimo è stata la 1650 super nel 2019.
Nvidia sotto i 600 dollari non è manco da considerarsi se si tratta di sole performance raster e vram. :rolleyes:

Kvarat
19-12-2023, 19:43
Perchè hanno fatto la 4090 diesel? Mi ricorda la mia prima punto 1.7D :sofico: :sofico:

Sonpazzo
19-12-2023, 20:31
1440p + DLAA, è davvero ottimo. Il livello di dettaglio e le texture, sono un gran passo in avanti.
Non uso il DLSS, in quanto il frame è già abbastanza alto, ma confermo che il DLSS anche in bilanciato è molto valido.
Chi ha un OLED 4k, lo gioca divinamente anche con schede mid.


con l'uso l'antialiasing TAA sfrenato,tutti i giochi vengono con un effetto sfocato assurdo. per esempio gli ultimi AC, provando una risoluzione 5k e la inferiore Uhd, non si notano differenze, il dlss non fa nessun miracolo. Maledetto TAA :muro:

per fortuna con l'effetto sharpening del pannello Nvidia o lumasharp di reshade si risolve abbastanza

mikael84
19-12-2023, 20:52
con l'uso l'antialiasing TAA sfrenato,tutti i giochi vengono con un effetto sfocato assurdo. per esempio gli ultimi AC, provando una risoluzione 5k e la inferiore Uhd, non si notano differenze, il dlss non fa nessun miracolo. Maledetto TAA :muro:

per fortuna con l'effetto sharpening del pannello Nvidia o lumasharp di reshade si risolve abbastanza

Ed è qua, che viene in aiuto il DLAA. Metti quello. Con il DLAA è un quadro.
Cmq il DLSS su AC mirage, rende abbastanza bene.:)

OrazioOC
20-12-2023, 07:29
Ed è qua, che viene in aiuto il DLAA. Metti quello. Con il DLAA è un quadro.
Cmq il DLSS su AC mirage, rende abbastanza bene.:)

Quoto. :)

jaja36
20-12-2023, 10:19
Lo so che non è l’angolo della piazzetta ma che fine ha fatto TigerTank? È da un po’ che manca nel forum, spero che non li sia successo niente di grave.
Grazie.

mikael84
20-12-2023, 11:26
Lo so che non è l’angolo della piazzetta ma che fine ha fatto TigerTank? È da un po’ che manca nel forum, spero che non li sia successo niente di grave.
Grazie.

Nessuno sa più nulla, dal 18 agosto dell'anno scorso non si è mai più collegato, ed anche chi lo teneva con altri contatti idem.
Lo stesso, il mod freeman, di punto in bianco sparito del tutto da quasi due anni.

Boh, avranno avuto i loro motivi.

fraussantin
20-12-2023, 11:49
Lo so che non è l’angolo della piazzetta ma che fine ha fatto TigerTank? È da un po’ che manca nel forum, spero che non li sia successo niente di grave.

Grazie.Di tt so solamente che voleva disiscriversi .

Lo aveva detto più volte anche in privato.

Del mod nessuno sa niente.

amon.akira
20-12-2023, 13:42
La kadmonata di freeman è...
iscritto 11 luglio 1999, ultimo messaggio 11 luglio 2022 😅

mattxx88
20-12-2023, 14:08
La kadmonata di freeman è...
iscritto 11 luglio 1999, ultimo messaggio 11 luglio 2022 😅

In 23 anni è comprensibile che uno si prenda in pò di tempo, per i mod poi è diverso, per un utente comune 23 anni qui dentro sono difficili da gestire, i periodi dove ti fanno girare le cosidette arrivano e magari stacchi un attimo.
Poi se uno riesce a non staccare mai o è un martire, un automa o tutti i giorni prima di andare a dormire si legge Seneca.

Livello Nirvana raggiunto.

si ma hai notato tutti i riferimenti diretti e indiretti alla Kabala in quei numeri, date, giorni passati da FreeMan iscritto?
Che ora è diventato LostMan

no no no troppe coincidenze e fatti un pochetto strani, c'è qualquadra sotto che non cosa

marbasso
20-12-2023, 14:52
Tornate it che è meglio, altrimenti aprite un thread "moderatori dispersi".

OrazioOC
25-12-2023, 10:27
https://videocardz.com/newz/seasonic-recommends-using-a-hair-dryer-to-bend-12vhpwr-12v-2x6-power-cables-for-geforce-rtx-40-gpus

E con questa vi auguro buone feste. :asd:

OrazioOC
25-12-2023, 12:50
https://videocardz.com/newz/asus-geforce-rtx-4070-super-dual-with-12gb-memory-has-been-leaked

ColdWarGuy
26-12-2023, 10:47
https://videocardz.com/newz/asus-geforce-rtx-4070-super-dual-with-12gb-memory-has-been-leaked

PCB più corto, dissipatore più piccolo e 25W in più di rating, capace che andrà a perdere il pregio principale di quel modello, temperature e silenziosità :fagiano:

Vuoi comunque non dargli almeno un centino in più rispetto alla liscia ?

Questo a listino, poi la richiesta farà aumentare il gap e saremo comunque d'accapo, curioso di vedere come scalano in percentuale i cuda cores aggiunti.

OrazioOC
26-12-2023, 10:56
PCB più corto, dissipatore più piccolo e 25W in più di rating, capace che andrà a perdere il pregio principale di quel modello, temperature e silenziosità :fagiano:

Vuoi comunque non dargli almeno un centino in più rispetto alla liscia ?

Questo a listino, poi la richiesta farà aumentare il gap e saremo comunque d'accapo, curioso di vedere come scalano in percentuale i cuda cores aggiunti.

Onestamente non è il tdp che mi preoccupa in quella scheda, alla fine 220w di tdp li aveva la 3070 vanilla, su un die visibilmente più cicciotto(e pure bus e di conseguenza slot vram) ed esistevano 3070 anche piuttosto "piccine" in relazione a questa.
Semmai mi preoccupa il prezzo, perchè è probabile che costi comunque più di una 4070 e neanche di così poco(in Nvidia è facile che carichino 699 dollari per questa, a metà strada tra i 599 dollari della 4070 e i 799 dollari della 4070 ti).:rolleyes:

fraussantin
26-12-2023, 11:04
Siate ottimisti , magari hanno cercato di contenere i costi per abbassare un po i prezzi.

Male non sarebbe .


Ma non ci crede nessuno :asd:

OrazioOC
26-12-2023, 11:08
Siate ottimisti , magari hanno cercato di contenere i costi per abbassare un po i prezzi.

Male non sarebbe .


Ma non ci crede nessuno :asd:

Conoscendo Nvidia, ma conoscendo anche Asus(le loro gpu sono care ammazzate), hanno contenuto i costi di fabbricazione, mica per l'utenza finale. :asd:

mikael84
26-12-2023, 11:59
PCB più corto, dissipatore più piccolo e 25W in più di rating, capace che andrà a perdere il pregio principale di quel modello, temperature e silenziosità :fagiano:

Vuoi comunque non dargli almeno un centino in più rispetto alla liscia ?

Questo a listino, poi la richiesta farà aumentare il gap e saremo comunque d'accapo, curioso di vedere come scalano in percentuale i cuda cores aggiunti.

- 6,6% di cuda, fai circa -5% in meno (4070ti vs super).:)
Insomma una 4070ti, un pelo più lenta, ma a meno prezzo... magari 699$

Maury
26-12-2023, 13:16
- 6,6% di curda, fai circa -5% in meno (4070ti vs super).:)
Insomma una 4070ti, un pelo più lenta, ma a meno prezzo... magari 699$

699 sarebbe veramente un ottimo prezzo, magari...

Dico una cosa, dopo aver provato il FG su Ampere con immensa soddisfazione, e considerandolo
ai fatti irrinunciabile, una scheda come la 4070 super diventa longeva oltre misura.

mikael84
26-12-2023, 13:23
699 sarebbe veramente un ottimo prezzo, magari...

Dico una cosa, dopo aver provato il FG su Ampere con immensa soddisfazione, e considerandolo
ai fatti irrinunciabile, una scheda come la 4070 super diventa longeva oltre misura.

Tu faresti pure un buon upgrade, praticamente da 3070 a 3090, sempre a 220 watt e con 12gb di ram.:)

OrazioOC
26-12-2023, 13:25
699 sarebbe veramente un ottimo prezzo, magari...

Dico una cosa, dopo aver provato il FG su Ampere con immensa soddisfazione, e considerandolo
ai fatti irrinunciabile, una scheda come la 4070 super diventa longeva oltre misura.

Per chi ha una radeon 6000/7000 o una rtx pre 4000, tanto vale guardare le mod che trasformano il dlss in fsr3.
Anche perchè sulla carta Ampere come uArch è tutt'ora parecchio valida e riuscirebbe a gestire la generazione dei frame dignitosamente. :)

fraussantin
26-12-2023, 13:30
699 sarebbe veramente un ottimo prezzo, magari...

Dico una cosa, dopo aver provato il FG su Ampere con immensa soddisfazione, e considerandolo
ai fatti irrinunciabile, una scheda come la 4070 super diventa longeva oltre misura.A seconda dei prezzi , da vedere , è da considerare anche una 4070ti suoer che avendoci parecchia ram veramente potrebbe permettere di saltare la prossima gen che a quanto si vocifera avrà tutta ram in abbondanza

mikael84
26-12-2023, 13:37
A seconda dei prezzi , da vedere , è da considerare anche una 4070ti suoer che avendoci parecchia ram veramente potrebbe permettere di saltare la prossima gen che a quanto si vocifera avrà tutta ram in abbondanza

Si, quella sarà la 2070 super 2.0. In base al prezzo, può essere un BB. Un chip a - 10% dalla 4080, con bus e relativa ram. Può perdere qualche punto in 4k, perché JHH ne straccia parte di cache.
Una 7900xt raster, ma con RT superiore ed ecosistema nvidia. Anche se mi aspetto 899-999.

Maury
26-12-2023, 13:41
Tu faresti pure un buon upgrade, praticamente da 3070 a 3090, sempre a 220 watt e con 12gb di ram.:)

Senza dubbio, in ottica FG diventa interessante pure la 4070 liscia a momenti.

Per chi ha una radeon 6000/7000 o una rtx pre 4000, tanto vale guardare le mod che trasformano il dlss in fsr3.
Anche perchè sulla carta Ampere come uArch è tutt'ora parecchio valida e riuscirebbe a gestire la generazione dei frame dignitosamente. :)

Infatti per ora é quello che faccio con la mod per il FG la 3070 ha cambiato marcia, non pensavo che la combo FSR 3 + DLSS avesse una tale potenza con Ampere.

Anzi chiedo, ma il FG di nVidia funziona bene come quello Amd ?

A seconda dei prezzi , da vedere , è da considerare anche una 4070ti suoer che avendoci parecchia ram veramente potrebbe permettere di saltare la prossima gen che a quanto si vocifera avrà tutta ram in abbondanza

Temo che la 4070 ti super sará molto ma molto costosa :fagiano:

OrazioOC
26-12-2023, 13:43
Infatti per ora é quello che faccio con la mod per il FG la 3070 ha cambiato marcia, non pensavo che la combo FSR 3 + DLSS avesse una tale potenza con Ampere.

Anzi chiedo, ma il FG di nVidia funziona bene come quello Amd ?


A seconda delle implementazioni il dlss 3/.5 funziona meglio dell'fsr3, ma l'frs3 è sicuramente meglio del dlss2/fsr2, quindi piuttosto che niente, meglio piuttosto. :D

Ale55andr0
26-12-2023, 13:45
Per chi ha una radeon 6000/7000 o una rtx pre 4000, tanto vale guardare le mod che trasformano il dlss in fsr3.

io preferirei vedere i giochi ottimizzati e non programmati da cani che dover ricorrere a una roba simile, magari pure pagando un patreon...questa diffusione a macchia di upscaler e frame generator sta solo fornendo alibi osceni alle software house con uscite sempre più ottimizzate coi piedi, bug a ogni nuova patch etc con addirittura la scusa "è pensato per girare con l'upsacler" :doh:

Ale55andr0
26-12-2023, 13:46
A seconda delle implementazioni il dlss 3/.5 funziona meglio dell'fsr3, ma l'frs3 è sicuramente meglio del dlss2/fsr2, quindi piuttosto che niente, meglio piuttosto. :D

sta parlando del frame generator, non dell'upscaler

Therinai
26-12-2023, 13:48
- 6,6% di cuda, fai circa -5% in meno (4070ti vs super).:)
Insomma una 4070ti, un pelo più lenta, ma a meno prezzo... magari 699$

fai pure 799€ per una custom decente, a 750 la palit di plastica riciclata.

OrazioOC
26-12-2023, 13:50
io preferirei vedere i giochi ottimizzati e non programmati da cani che dover ricorrere a una roba simile, magari pure pagando un patreon...questa diffusione a macchia di upscaler e frame generator sta solo fornendo alibi osceni alle software house con uscite sempre più ottimizzate coi piedi, bug a ogni nuova patch etc con addirittura la scusa "è pensato per girare con l'upsacler" :doh:

In parte concordo, in parte solo ora sto iniziando a vedere giochi veramente next gen(e infatti sta sparendo la compatibilità con ps4/xbox one, oltretutto richiedono su pc i mesh shaders e questo da solo taglia la strada a qualsiasi gpu pre rtx 2000 o rx 6000). :rolleyes:

mikael84
26-12-2023, 13:57
fai pure 799€ per una custom decente, a 750 la palit di plastica riciclata.

Beh è chiaro, 699, prezzo ipotetico stock. Al momento non sappiamo neppure se ci saranno FE, o saranno tutte per i partner. Stranamente a pochi giorni dalla presentazione non è stato ancora riportato.

Senza dubbio, in ottica FG diventa interessante pure la 4070 liscia a momenti.



Sempre detto che la 4070 a livello di perf, ed FG, è una buona soluzione. Avendo la 3080, in 1440p va piuttosto bene. Anche a livello di ram, va bene. Purtroppo i prezzi sono questi, ma a livello di chip per 1440p, non è per niente male per chi viene da schede inferiori. :)
Ora la super, se verrà prezzata a 699, diventa un upgrade serio con 1,5x.

fraussantin
26-12-2023, 14:26
Senza dubbio, in ottica FG diventa interessante pure la 4070 liscia a momenti.



Io spero che presto o tardi diventi una opzione attivabile da driver su tutti i giochi.

Kostanz77
26-12-2023, 16:32
Onestamente non è il tdp che mi preoccupa in quella scheda, alla fine 220w di tdp li aveva la 3070 vanilla, su un die visibilmente più cicciotto(e pure bus e di conseguenza slot vram) ed esistevano 3070 anche piuttosto "piccine" in relazione a questa.
Semmai mi preoccupa il prezzo, perchè è probabile che costi comunque più di una 4070 e neanche di così poco(in Nvidia è facile che carichino 699 dollari per questa, a metà strada tra i 599 dollari della 4070 e i 799 dollari della 4070 ti).:rolleyes:


Io mi sono portato avanti e per il secondo PC mi sono accontentato della 70 liscia

https://imgur.com/a/fWdoaAz
Vi posso assicurare che sta schedina mi sta dando soddisfazioni pure usandola sul C3 4K

Inviato dal mio iPhone utilizzando Tapatalk Pro

OrazioOC
26-12-2023, 16:38
Io mi sono portato avanti e per il secondo PC mi sono accontentato della 70 liscia

https://imgur.com/a/fWdoaAz
Vi posso assicurare che sta schedina mi sta dando soddisfazioni pure usandola sul C3 4K

Inviato dal mio iPhone utilizzando Tapatalk Pro

Le schedine sono veramente molte altre, tipo le 4060/ti(che sarebbero delle 4050/ti in tempi meno duri di questi) non la 4070. :asd:

Kostanz77
26-12-2023, 16:39
Le schedine sono veramente molte altre, tipo le 4060/ti(che sarebbero delle 4050/ti in tempi meno duri di questi) non la 4070. :asd:


Si ma io ero abituato troppo bene con la 4090😂
che ho sul PC principale

Inviato dal mio iPhone utilizzando Tapatalk Pro

fraussantin
26-12-2023, 16:47
Le schedine sono veramente molte altre, tipo le 4060/ti(che sarebbero delle 4050/ti in tempi meno duri di questi) non la 4070. :asd:

beh oggettivamente si può considerare la prima scheda decente ( anche se pur ottima) fra quelle proposte quest'anno.

mikael84
26-12-2023, 17:01
Io mi sono portato avanti e per il secondo PC mi sono accontentato della 70 liscia

https://imgur.com/a/fWdoaAz
Vi posso assicurare che sta schedina mi sta dando soddisfazioni pure usandola sul C3 4K

Inviato dal mio iPhone utilizzando Tapatalk Pro

La 3080ti, paga il nodo scandaloso, ma la scheda è decisamente muscle e carrozzata . Sul PP di lovelace, in 4k, se la giocherebbe con la 4080 super (non liscia).
Ora poi con la mod FG, rimane tutt'ora una gran bella scheda, pecca solo nei consumi, fattore micidiale per la 4070, visto anche i dissi mastodontici.:)

Le schedine sono veramente molte altre, tipo le 4060/ti(che sarebbero delle 4050/ti in tempi meno duri di questi) non la 4070. :asd:

beh oggettivamente si può considerare la prima scheda decente ( anche se pur ottima) fra quelle proposte quest'anno.

4070- 4070ti, sono delle 4090 per altre res. La 4090 è una GPU da 4k, poi chiaramente si può usare anche sotto, ma in rapporto, se di base si ha un 1440p, magari basic 16:9, una 4070ti, spesso annienta una 4090 in 4k.
https://www.youtube.com/watch?v=OQfIPN5n55M&t=297s&ab_channel=TestingGames

La 4060ti, è una scheda che diventa una 4070 in 1080p, ma è meglio lasciarla dov'è, imbarazzante.:p

Kostanz77
26-12-2023, 17:09
Mikael tu conoscevi il mio problema, calore e potenza in watt spropositati


Inviato dal mio iPhone utilizzando Tapatalk Pro

marbasso
26-12-2023, 17:10
Mikael tu conoscevi il mio problema, calore e potenza in watt spropositati


Inviato dal mio iPhone utilizzando Tapatalk Pro

Su che vga e dovuto a che cosa?

Kostanz77
26-12-2023, 17:11
Su che vga e dovuto a che cosa?


RTX 3080Ti che avevo sul PC muletto, ora sostituita dalla 4070 FE


Inviato dal mio iPhone utilizzando Tapatalk Pro

mikael84
26-12-2023, 17:21
Mikael tu conoscevi il mio problema, calore e potenza in watt spropositati


Inviato dal mio iPhone utilizzando Tapatalk Pro

Esattamente, purtroppo la 3080ti, pur essendo un gran bella scheda, paga il nodo pessimo, la 4070 è su un altro pianeta sotto questo punto di vista, c'è poco da fare, e non sono fattori da niente.
La 4070 ha pensionato GA102, salvo le x90, che nonostante consumino molto, hanno 24gb.:)

Chiaro che uno che ha già una scheda superiore, non si farà il muletto con la 3090, ma anche qua la 4070 è la migliore.

ColdWarGuy
26-12-2023, 18:03
Onestamente non è il tdp che mi preoccupa in quella scheda, alla fine 220w di tdp li aveva la 3070 vanilla, su un die visibilmente più cicciotto(e pure bus e di conseguenza slot vram) ed esistevano 3070 anche piuttosto "piccine" in relazione a questa.
Semmai mi preoccupa il prezzo, perchè è probabile che costi comunque più di una 4070 e neanche di così poco(in Nvidia è facile che carichino 699 dollari per questa, a metà strada tra i 599 dollari della 4070 e i 799 dollari della 4070 ti).:rolleyes:

IL die più grande è un vantaggio per la dissipazione, ribadisco oltresì che ridurre ventole e dissipatore in concomitanza dell'aumento del TDP della scheda farà si che l'Asus Dual non sarà più il campione di temperature e silenzio che è ora.

Per risparmiare quanto, lato loro, 3- 5 euro ? :fagiano:

Ubro92
26-12-2023, 18:51
IL die più grande è un vantaggio per la dissipazione, ribadisco oltresì che ridurre ventole e dissipatore in concomitanza dell'aumento del TDP della scheda farà si che l'Asus Dual non sarà più il campione di temperature e silenzio che è ora.

Per risparmiare quanto, lato loro, 3- 5 euro ? :fagiano:

Il die è sempre lo stesso se parliamo di 4070 vs 4070s, sempre il solito AD104...

Non è molto diverso dalle 3070 da 225w dual fan, se proprio ti infastidisce basta mettere il PL a 200w e undervoltare o andare per le varianti con il classico dissipatore uber.

Anzi in molti si sono lamentati delle 4070ti con dissipatori mastodontici, senza varianti più compatte...

OrazioOC
26-12-2023, 19:06
La 4060ti, è una scheda che diventa una 4070 in 1080p, ma è meglio lasciarla dov'è, imbarazzante.:p

Mah io ci starei attento a fare questa proiezione, perchè le schede che sono ottime/buone oggi in fhd saranno sufficienti o poco più domani.
Nella fattispecie, per la 4060 ti non sarà solo un fattore di performance in fatto di capacità di calcolo(è poco più di una 3060 ti), ma anche di vram(8gb non sono molti neanche in fhd maxato).
Se poi nella formula ci mettiamo pure il fatto che nvidia chiede 450 euro(in pratica una ps5 standalone), il tutto diventa veramente triste.
Ho l'impressione che 12gb per il qhd saranno molto più longevi di 8gb di vram per giocare in fhd. :rolleyes:

Ubro92
26-12-2023, 19:30
Mah io ci starei attento a fare questa proiezione, perchè le schede che sono ottime/buone oggi in fhd saranno sufficienti o poco più domani.
Nella fattispecie, per la 4060 ti non sarà solo un fattore di performance in fatto di capacità di calcolo(è poco più di una 3060 ti), ma anche di vram(8gb non sono molti neanche in fhd maxato).
Se poi nella formula ci mettiamo pure il fatto che nvidia chiede 450 euro(in pratica una ps5 standalone), il tutto diventa veramente triste.
Ho l'impressione che 12gb per il qhd saranno molto più longevi di 8gb di vram per giocare in fhd. :rolleyes:

Nel mobile devo dire che sono ottimi chip, anche la 4050 si comporta bene considerando anche le limitazioni termiche e sui consumi dei notebook.

Su desktop il problema è solo il prezzo, la 4060ti non vale 400-450€, soprattutto se si considera che a quelle cifre trovi le 6800/7700xt.

Da vedere con l'uscita delle super se la 4070 liscia finisce nell'intorno dei 500€ (-100€ dagli attuali prezzi).

mikael84
26-12-2023, 21:08
Mah io ci starei attento a fare questa proiezione, perchè le schede che sono ottime/buone oggi in fhd saranno sufficienti o poco più domani.
Nella fattispecie, per la 4060 ti non sarà solo un fattore di performance in fatto di capacità di calcolo(è poco più di una 3060 ti), ma anche di vram(8gb non sono molti neanche in fhd maxato).
Se poi nella formula ci mettiamo pure il fatto che nvidia chiede 450 euro(in pratica una ps5 standalone), il tutto diventa veramente triste.
Ho l'impressione che 12gb per il qhd saranno molto più longevi di 8gb di vram per giocare in fhd. :rolleyes:

A livello di perf, è mediamente così, la 4070 del 1080p, ma come dicevo su, meglio evitarla proprio. Nettamente meglio AMD su quel target. Nvidia sotto la 4070, è meglio lasciarla dov'è, in quanto imbarazzante.
Non ci metterà neppure mano in quella fascia, non avendo chip, in quanto utilizzati come fascia medio-alta.

OrazioOC
26-12-2023, 21:35
A livello di perf, è mediamente così, la 4070 del 1080p, ma come dicevo su, meglio evitarla proprio. Nettamente meglio AMD su quel target. Nvidia sotto la 4070, è meglio lasciarla dov'è, in quanto imbarazzante.
Non ci metterà neppure mano in quella fascia, non avendo chip, in quanto utilizzati come fascia medio-alta.

Nel mobile devo dire che sono ottimi chip, anche la 4050 si comporta bene considerando anche le limitazioni termiche e sui consumi dei notebook.

Su desktop il problema è solo il prezzo, la 4060ti non vale 400-450€, soprattutto se si considera che a quelle cifre trovi le 6800/7700xt.

Da vedere con l'uscita delle super se la 4070 liscia finisce nell'intorno dei 500€ (-100€ dagli attuali prezzi).


Più che di performance in sè è anche il prezzo ad aggravare il tutto, se la 4060 ti fosse costata come una 3060 a 329 dollari sarebbe stata molto meno criticabile, ma così no.:rolleyes:
Mi aspetto che comunque nvidia corregga il tiro verso primavera/estate portando dei refresh anche per ad106/107, 4060 super e 4050 super a 329 dollari e 249 dollari sarebbero ottime gpu per chi veramente vuole giocare in fhd senza passare per amd....

mikael84
27-12-2023, 00:54
Più che di performance in sè è anche il prezzo ad aggravare il tutto, se la 4060 ti fosse costata come una 3060 a 329 dollari sarebbe stata molto meno criticabile, ma così no.:rolleyes:
Mi aspetto che comunque nvidia corregga il tiro verso primavera/estate portando dei refresh anche per ad106/107, 4060 super e 4050 super a 329 dollari e 249 dollari sarebbero ottime gpu per chi veramente vuole giocare in fhd senza passare per amd....

rx 7600 a 269 e 4060ti a 329, non si può vedere da parte del monopolista.
AD106 e 107, come le giri e le rigiri, salvo perf pure, sono sempre aborti, purtroppo sono schede che pagano troppo, la fascia infima che abusa del clock. :D

ColdWarGuy
27-12-2023, 02:05
Il die è sempre lo stesso se parliamo di 4070 vs 4070s, sempre il solito AD104...



negativo, il confronto era con la 3070 e comunque giriate la frittata il taglio dei costi di produzione sull'Asus 4070 super, che presumibilmente costerà attorno ai 750 euro (SETTECENTOCINQUANTA EURO), è sintomo di pura ingordigia, io onestamente non vedo nulla di buono in questo andazzo.

fraussantin
27-12-2023, 07:02
Più che di performance in sè è anche il prezzo ad aggravare il tutto, se la 4060 ti fosse costata come una 3060 a 329 dollari sarebbe stata molto meno criticabile, ma così no.:rolleyes:
Mi aspetto che comunque nvidia corregga il tiro verso primavera/estate portando dei refresh anche per ad106/107, 4060 super e 4050 super a 329 dollari e 249 dollari sarebbero ottime gpu per chi veramente vuole giocare in fhd senza passare per amd....

La cosa bella , o brutta anzi , è che la 3060 la criticavamo proprio allo stesso modo .. :doh: .
Chissà se con le 5000 cosa accadrá .

Ormai aspettiamo sta conferenza di gennaio e vediamo che sorpresa ci attende. 🥒🥒:asd:

OrazioOC
27-12-2023, 07:19
rx 7600 a 269 e 4060ti a 329, non si può vedere da parte del monopolista.
AD106 e 107, come le giri e le rigiri, salvo perf pure, sono sempre aborti, purtroppo sono schede che pagano troppo, la fascia infima che abusa del clock. :D

Anche la 7600 è cara in relazione a quello che sta offrendo, sotto natale la vedo a 300 spedita su amaon, è tanto per una scheda che performa il 10% in più di una 6600/50 xt che durante l'anno le trovavi sotto i 250 euro spedite.:rolleyes:
E' una scheda da 200/220 euro al massimo, performance raster simil 4060 ma è peggio in tutto il resto.:doh:


La cosa bella , o brutta anzi , è che la 3060 la criticavamo proprio allo stesso modo .. :doh: .
Chissà se con le 5000 cosa accadrá .

Ormai aspettiamo sta conferenza di gennaio e vediamo che sorpresa ci attende. 🥒🥒:asd:
3060 ha sempre campato di rendita per nomea e per il fatto di avere più di 8gb di vram(cosa che nvidia si è ben guardata di fare sotto i 500 dollari).
Certo che nvidia si deve calmare con i prezzi delle gpu sub 500 dollari, nella 4060 ti che costa come una console standalone il value non è pervenuto.:rolleyes:

OrazioOC
27-12-2023, 07:54
negativo, il confronto era con la 3070 e comunque giriate la frittata il taglio dei costi di produzione sull'Asus 4070 super, che presumibilmente costerà attorno ai 750 euro (SETTECENTOCINQUANTA EURO), è sintomo di pura ingordigia, io onestamente non vedo nulla di buono in questo andazzo.

Più che altro 220w di tdp alla fine della fiera non sono eccessivi neanche per una gpu dual fan fatta con criterio, oltretutto parliamo di ad104, avevo testato una 4070 ti della inno3d e con un po' di undervolt stava tranquillamente sotto i 200w nel timespy. :)
Comunque nessuno li sta giustificando, questa 4070 super è una 4070 ti al prezzo che doveva avere al d1, non penso che qui dentro si gridi al bestbuy. :rolleyes:

marbasso
27-12-2023, 10:30
https://www.notebookcheck.it/La-fuga-di-notizie-sulle-prestazioni-e-sulla-data-di-uscita-della-serie-RTX-50-suggerisce-un-potenziale-lancio-nel-2024-e-un-guadagno-generazionale-che-e-inferiore-a-RTX-40.787489.0.html

fraussantin
27-12-2023, 10:47
https://www.notebookcheck.it/La-fuga-di-notizie-sulle-prestazioni-e-sulla-data-di-uscita-della-serie-RTX-50-suggerisce-un-potenziale-lancio-nel-2024-e-un-guadagno-generazionale-che-e-inferiore-a-RTX-40.787489.0.html

la finestra di lancio è quella solita fine 2024 . poi se faranno ritardi o se faranno alle corse non si sa . alle brutte gennaio 2025.

sulle prestazioni mi pare troppo presto per parlarne adesso

Maury
27-12-2023, 11:04
Sempre detto che la 4070 a livello di perf, ed FG, è una buona soluzione. Avendo la 3080, in 1440p va piuttosto bene. Anche a livello di ram, va bene. Purtroppo i prezzi sono questi, ma a livello di chip per 1440p, non è per niente male per chi viene da schede inferiori. :)
Ora la super, se verrà prezzata a 699, diventa un upgrade serio con 1,5x.

Si è decisamente una bella scheda la 4070, ok che ha gli stessi cuda della 3070 ma ha un buon Ghz di clock in più (e in OC va sale bene) senza contare i 12 giga e il FG by nVidia. Insomma alla cifra a cui è venduta ha assoluta dignità di esistere. Certo la 4070 super sarebbe il massimo ad un prezzo decente, in questo caso hai muscoli potenti in tutti i comparti.

Io spero che presto o tardi diventi una opzione attivabile da driver su tutti i giochi.

Magari... mi chiedo se sia davvero fattibile senza patch a livello di gioco.

fraussantin
27-12-2023, 11:40
Si è decisamente una bella scheda la 4070, ok che ha gli stessi cuda della 3070 ma ha un buon Ghz di clock in più (e in OC va sale bene) senza contare i 12 giga e il FG by nVidia. Insomma alla cifra a cui è venduta ha assoluta dignità di esistere. Certo la 4070 super sarebbe il massimo ad un prezzo decente, in questo caso hai muscoli potenti in tutti i comparti.



Magari... mi chiedo se sia davvero fattibile senza patch a livello di gioco.

sta roba esiste da una vita sulle tv ti pare che non possono farla sul pc? si trattava solo di trovare lo stimolo giusto. e di lavorarci sulle latenze. ho provato forspoken , con la 4090 e il 5900x in 3440x1440

con fg una spada ed è quello di amd discorso diverso per fsr che anche in qualità sembra un performance del dlss.

https://i.postimg.cc/xdBMRCfn/screenshot-624.jpg

mikael84
27-12-2023, 11:52
Anche la 7600 è cara in relazione a quello che sta offrendo, sotto natale la vedo a 300 spedita su amaon, è tanto per una scheda che performa il 10% in più di una 6600/50 xt che durante l'anno le trovavi sotto i 250 euro spedite.:rolleyes:
E' una scheda da 200/220 euro al massimo, performance raster simil 4060 ma è peggio in tutto il resto.:doh:



3060 ha sempre campato di rendita per nomea e per il fatto di avere più di 8gb di vram(cosa che nvidia si è ben guardata di fare sotto i 500 dollari).
Certo che nvidia si deve calmare con i prezzi delle gpu sub 500 dollari, nella 4060 ti che costa come una console standalone il value non è pervenuto.:rolleyes:

Considera che, una 7800xt con un 4nmp puoi ricrearla in 200mm2 o poco più. Fa ben capire cosa abbiano fatto a sto giro. La vera pecca di rdna3, è che pur integrandola in un chip di fascia bassa, si porta dietro consumi molto alti.
La 7600, se scritta su un banale 5nm, sarebbe stato un chip entry level da appena 100mm2, e quindi una banale serie x50 da 199$.
In sintesi la fascia x60 è stata soppiantata da una forma di RDNA2.5, non 3, in quanto non ha il file di reg ampliato.

Riguardo nvidia, in fascia bassa, le basi c'erano pure, ma manca il bus da 192bit su AD106.
AD106, in fondo, doveva essere una 4060 liscia, ed una 4060 liscia a 329/349 a 12gb, sarebbe stata una gran bella scheda su quella fascia.

AD107 ci stava come x50, a 249$.
Purtroppo AMD è dal post polaris che rebranda tutto su quelle fasce, ed nvidia ha fatto lo stesso bene o male.

Si è decisamente una bella scheda la 4070, ok che ha gli stessi cuda della 3070 ma ha un buon Ghz di clock in più (e in OC va sale bene) senza contare i 12 giga e il FG by nVidia. Insomma alla cifra a cui è venduta ha assoluta dignità di esistere. Certo la 4070 super sarebbe il massimo ad un prezzo decente, in questo caso hai muscoli potenti in tutti i comparti.



Magari... mi chiedo se sia davvero fattibile senza patch a livello di gioco.

Ha fatto un pò come la 6700 vs la 5700, stessi rapporti, meno bus, ma più clock.
Una scheda che come tutte gode del clock smisurato del salto nodo. Se ci pensiamo si passa da 1,9 medi a 2,8 medi, lato CPU, sarebbero 3,8 vs 5,6ghz.:p

ColdWarGuy
27-12-2023, 13:08
Più che altro 220w di tdp alla fine della fiera non sono eccessivi neanche per una gpu dual fan fatta con criterio,
-snip



Che è esattamente quello che penso anche io, soprattutto dopo aver visto la 4070 Asus Dual di mio nipote sotto Furmark / OCCT.

Sulle prime pensavo che il reading di potenza fosse fasullo visto il livello di rumore decisamente basso, fatte le verifiche del caso di fatto a 190W ha un comportamente termico / acustico egregio, cosa che la 3070 in firma si può scordare, visto che diventa quasi accettabile solo con pesante undervolt.

Modello sobrio molto ben riuscito, esempio di come dovrebbe essere una scheda video per adulti, quindi grande mistake di Asus tagliare la BOM al nuovo modello per mettere in tasca due denari su una scheda che costerà 700-800 euro :rolleyes:

D'altra parte il new normal ha creato spazio per quelli che spendono 400-500 euro in utilissima luminaria RGB dentro il case a vetrina, dopo i cavi di alimentazione RGB ci ciucceremo le ventole con display OLED, giusto per confermare che gli sforzi sono applicati sugli aspetti più utili ...

OrazioOC
27-12-2023, 13:09
Considera che, una 7800xt con un 4nmp puoi ricrearla in 200mm2 o poco più. Fa ben capire cosa abbiano fatto a sto giro. La vera pecca di rdna3, è che pur integrandola in un chip di fascia bassa, si porta dietro consumi molto alti.
La 7600, se scritta su un banale 5nm, sarebbe stato un chip entry level da appena 100mm2, e quindi una banale serie x50 da 199$.
In sintesi la fascia x60 è stata soppiantata da una forma di RDNA2.5, non 3, in quanto non ha il file di reg ampliato.

Riguardo nvidia, in fascia bassa, le basi c'erano pure, ma manca il bus da 192bit su AD106.
AD106, in fondo, doveva essere una 4060 liscia, ed una 4060 liscia a 329/349 a 12gb, sarebbe stata una gran bella scheda su quella fascia.

AD107 ci stava come x50, a 249$.
Purtroppo AMD è dal post polaris che rebranda tutto su quelle fasce, ed nvidia ha fatto lo stesso bene o male.



Questa gen lato low/mid end nè nvidia nè amd si sono sprecate, tanto è vero che i bestbuy rimangono schede di fascia media della scorsa gen come la 3060 ti o la 6700 xt.
Magari l'effetto voluto era proprio quello di dare nuove sku generalmente peggiori rispetto alle schede uscenti, anche per liberare un po' i magazzini. :rolleyes:

ColdWarGuy
27-12-2023, 13:19
-snip

Riguardo nvidia, in fascia bassa, le basi c'erano pure, ma manca il bus da 192bit su AD106.
AD106, in fondo, doveva essere una 4060 liscia, ed una 4060 liscia a 329/349 a 12gb, sarebbe stata una gran bella scheda su quella fascia.



Puoi dirlo forte, problema è che il marketing verde si è mosso scientemente esattamente in direzione opposta, castrando tutto il castrabile al fine di evitare possibili "affari" su qualsiasi fascia e come sai meglio di me erano andati ancor oltre con la 4080 12GB.

Ora ditemi se non meritano degli sputi :D

ColdWarGuy
27-12-2023, 13:23
Altri inutili "cessi" in arrivo da AMD :

AMD Might Be Working On More RDNA 3 GPUs: Radeon RX 7800, RX 7700 & RX 7600 XT Spotted (https://wccftech.com/amd-more-rdna-3-gpus-radeon-rx-7800-rx-7700-rx-7600-xt-spotted/)

certo è che il top dell'azione di contrasto dei rossi è di questo livello giacchetta può continuare a campare di prepotenze all'infinito.

ColdWarGuy
27-12-2023, 15:07
Piuttosto, come avete digerito FSR3 anche sulle rtx2000 dopo che giacchetta vi ha fatto shoppare l'ennesimo pezzotto per le 4000?
:asd:

Possessore di 4090 sospeso con grande passione per il trollaggio ?

Dono89
27-12-2023, 16:04
Piuttosto, come avete digerito FSR3 anche sulle rtx2000 dopo che giacchetta vi ha fatto shoppare l'ennesimo pezzotto per le 4000?
:asd:


Benissimo. È una porcata sulle 4000 con FG, va male con fsr3 e quindi rimane disabilitato.

Nessun problema e zero pezzotto :)

Cutter90
27-12-2023, 16:07
Piuttosto, come avete digerito FSR3 anche sulle rtx2000 dopo che giacchetta vi ha fatto shoppare l'ennesimo pezzotto per le 4000?
:asd:

Beh io sono contento lo possano usare tutti. Va detto che i risultati di FG MAD nativo e ancora di più la mod non è assolutamente come il FG Nvidia nativo. Quindi il risultato finale non è lo stesso.
Detto questo la 4000 mica è solo FG eh.

terranux
27-12-2023, 17:28
Benissimo. È una porcata sulle 4000 con FG, va male con fsr3 e quindi rimane disabilitato.

Nessun problema e zero pezzotto :)

cioè le 4000 vanno male con fsr3? o vanno come le 3000?

Kaio2
27-12-2023, 17:28
Ma una 70ti super lo regge un 4k ovviamente non tutto maxato a 240hz ma diciamo tutto alto 100-120 con RT?

fraussantin
27-12-2023, 19:27
Benissimo. È una porcata sulle 4000 con FG, va male con fsr3 e quindi rimane disabilitato.

Nessun problema e zero pezzotto :)Io ho provato sia fg di nvidia che fg di amd su forspoken ê sinceramente sul mio monitor ips è un idiozia non tenerlo attivo.

La fluidità, e il ghosting ( già basso di suo) hanno un boost importante.

E su se si può attivare reflex i tempi di risposta sono cmq ottimi.

Poterlo attivare su tutte le schede , ha ridato vita e mercato anche alle ampere usate.

OrazioOC
27-12-2023, 19:32
Ma una 70ti super lo regge un 4k ovviamente non tutto maxato a 240hz ma diciamo tutto alto 100-120 con RT?

Dipende dai titoli, a naso basta prendere i risultati di una 4080 stock e togliergli un 5% di performance avg. :)

FrancoBit
27-12-2023, 19:38
Io ho provato sia fg di nvidia che fg di amd su forspoken ê sinceramente sul mio monitor ips è un idiozia non tenerlo attivo.

La fluidità, e il ghosting ( già basso di suo) hanno un boost importante.

E su se si può attivare reflex i tempi di risposta sono cmq ottimi.

Poterlo attivare su tutte le schede , ha ridato vita e mercato anche alle ampere usate.Io pure utilizzo serenamente FG, con cyberpunk e Alan wake, mi trovo da Dio e poi che cazzo, l' ho pure pagato caro e funziona bene

Inviato dal mio Pixel 7a utilizzando Tapatalk

Kaio2
27-12-2023, 19:57
Dipende dai titoli, a naso basta prendere i risultati di una 4080 stock e togliergli un 5% di performance avg. :)

Gentilissimo :)

ColdWarGuy
27-12-2023, 20:07
Ma farti una risata no eh.



Io sorrido eccome a pensare che c'è ancora gente che si diverte a trollare con account creati all'uopo, bisogna proprio essere alla disperazione.

Maury
27-12-2023, 21:00
Io pure utilizzo serenamente FG, con cyberpunk e Alan wake, mi trovo da Dio e poi che cazzo, l' ho pure pagato caro e funziona bene

Inviato dal mio Pixel 7a utilizzando Tapatalk

Quoto non sará il FG nVidia (che non ho provato) ma questo Amd é una bomba...

Con il FG Amd la 3070 é diventata Goku...

Cyberpunk con FG Amd (moddato ovviamente) e PT.

https://i.postimg.cc/4KB9qLML/20231227-212204.jpg (https://postimg.cc/4KB9qLML)

https://i.postimg.cc/p92j0b05/20231227-212326.jpg (https://postimg.cc/p92j0b05)

https://i.postimg.cc/PPw1JMpJ/20231227-212408.jpg (https://postimg.cc/PPw1JMpJ)

mikael84
27-12-2023, 21:07
Io ho provato sia fg di nvidia che fg di amd su forspoken ê sinceramente sul mio monitor ips è un idiozia non tenerlo attivo.

La fluidità, e il ghosting ( già basso di suo) hanno un boost importante.

E su se si può attivare reflex i tempi di risposta sono cmq ottimi.

Poterlo attivare su tutte le schede , ha ridato vita e mercato anche alle ampere usate.

Quoto non sará il FG nVidia (che non ho provato) ma questo Amd é una bomba...

Con il FG Amd la 3070 é diventata Goku...

Cyberpunk con FG Amd (moddato ovviamente) e PT.



E' così, inutile negarlo. Diamo a Cesare ciò che è di Cesare. Anche il FSR è migliorato notevolmente dalla 2.2 .
Con la tecnica nvidia, il FG su ampere, perderebbe pochissimo, tipo una fa 2,7ms, l'altra 3,1, che lato pratico si traduce in 4-5fps in meno. Quindi si poteva attivare.

Questa gen lato low/mid end nè nvidia nè amd si sono sprecate, tanto è vero che i bestbuy rimangono schede di fascia media della scorsa gen come la 3060 ti o la 6700 xt.
Magari l'effetto voluto era proprio quello di dare nuove sku generalmente peggiori rispetto alle schede uscenti, anche per liberare un po' i magazzini. :rolleyes:

Più che altro ha sguazzato troppo con il clock, fosse stato con samsung, dovevi usare una sku superiore.

Puoi dirlo forte, problema è che il marketing verde si è mosso scientemente esattamente in direzione opposta, castrando tutto il castrabile al fine di evitare possibili "affari" su qualsiasi fascia e come sai meglio di me erano andati ancor oltre con la 4080 12GB.

Ora ditemi se non meritano degli sputi :D

Come detto su, hanno giocato tutto via clock, utilizzando sku di fascia inferiore, e per di più dopo l'ingordigia data dal mining.
Le super, non sono altro che ribassamenti non ufficiali, per dire che hanno toppato. :D

Dono89
27-12-2023, 21:19
Continuo a dire che guardate solo i numeri degli fps, che ci sta, ma non l'esperienza in game. Se vogliamo guardare i numeri allora guardiamo anche la latenza.

Senza reflex il FG è pessimo e lo trova utile solo chi ha le 4000 per giustificare una spesa senza logica.
Con reflex son d'accordo che migliora ma ricordo anche che reflex non viene implementato sempre se c'è il FG quindi spesso (molto spesso) ti trovi con il fg e latenza superiore. Altre volte ancora (ancora più spesso) il fg si abilita per passare da 40 frame a 60 e non c'è cosa più sbagliata.

Rende giocabile un titolo che non lo sarebbe stato? No, perché sotto i 60 attivarlo è doppiamente errato.

Quindi rinnovo una domanda fatta tempo fa.
A cosa mi serve una tecnologia che:
- a bassi frame (sotto 60) non lo abilito
- ad alti frame (sopra 60) il dlss avanza senza impattare in artefatti e fluidità/latenza

L'unico vantaggio lo posso trovare ad alti refresh. Ma ad alti refresh conta anche input lag e la latenza diventa ancora più importante ....quindi, manco lì.

Non è inutile negarlo, è assurdo guardare un numero ed essere ciechi sul resto.

Siamo su pc e più o meno tutti navigati, togliamo un paio di filtri inutili e non giochiamo con espedienti (porcate) a video con schede pagate mezzo stipendio.

Tra un po' sembra sia meglio avere il fg a ultra che dettagli alti. Siamo realisti dai :)

FrancoBit
27-12-2023, 21:28
Continuo a dire che guardate solo i numeri degli fps, che ci sta, ma non l'esperienza in game. Se vogliamo guardare i numeri allora guardiamo anche la latenza.

Senza reflex il FG è pessimo e lo trova utile solo chi ha le 4000 per giustificare una spesa senza logica.
Con reflex son d'accordo che migliora ma ricordo anche che reflex non viene implementato sempre se c'è il FG quindi spesso (molto spesso) ti trovi con il fg e latenza superiore. Altre volte ancora (ancora più spesso) il fg si abilita per passare da 40 frame a 60 e non c'è cosa più sbagliata.

Rende giocabile un titolo che non lo sarebbe stato? No, perché sotto i 60 attivarlo è doppiamente errato.

Quindi rinnovo una domanda fatta tempo fa.
A cosa mi serve una tecnologia che:
- a bassi frame (sotto 60) non lo abilito
- ad alti frame (sopra 60) il dlss avanza senza impattare in artefatti e fluidità/latenza

L'unico vantaggio lo posso trovare ad alti refresh. Ma ad alti refresh conta anche input lag e la latenza diventa ancora più importante ....quindi, manco lì.

Non è inutile negarlo, è assurdo guardare un numero ed essere ciechi sul resto.

Siamo su pc e più o meno tutti navigati, togliamo un paio di filtri inutili e non giochiamo con espedienti (porcate) a video con schede pagate mezzo stipendio.

Tra un po' sembra sia meglio avere il fg a ultra che dettagli alti. Siamo realisti dai :)Liberissimo di non usarlo, a 45 anni però posso garantirti che non gioco guardando solo gli fps, ma secondo le mie sensazioni e piacere nella fruizione. Certo non disprezzo la fluidità visto che a suo tempo mi son puppato doom su un 386 a 20fps, però non scarto a priori una tecnologia nuova che può regalare risultati secondo me interesanti. Mi sembra piuttosto che i tuoi giudizi siano un po' troppo istintivi e poco obbiettivi, rispetto alla premessa che fai di giocatore navigato, ma ognuno è libero di giocare come più preferisce

Inviato dal mio Pixel 7a utilizzando Tapatalk

bagnino89
27-12-2023, 22:04
Continuo a dire che guardate solo i numeri degli fps, che ci sta, ma non l'esperienza in game. Se vogliamo guardare i numeri allora guardiamo anche la latenza.

Senza reflex il FG è pessimo e lo trova utile solo chi ha le 4000 per giustificare una spesa senza logica.
Con reflex son d'accordo che migliora ma ricordo anche che reflex non viene implementato sempre se c'è il FG quindi spesso (molto spesso) ti trovi con il fg e latenza superiore. Altre volte ancora (ancora più spesso) il fg si abilita per passare da 40 frame a 60 e non c'è cosa più sbagliata.

Rende giocabile un titolo che non lo sarebbe stato? No, perché sotto i 60 attivarlo è doppiamente errato.

Quindi rinnovo una domanda fatta tempo fa.
A cosa mi serve una tecnologia che:
- a bassi frame (sotto 60) non lo abilito
- ad alti frame (sopra 60) il dlss avanza senza impattare in artefatti e fluidità/latenza

L'unico vantaggio lo posso trovare ad alti refresh. Ma ad alti refresh conta anche input lag e la latenza diventa ancora più importante ....quindi, manco lì.

Non è inutile negarlo, è assurdo guardare un numero ed essere ciechi sul resto.

Siamo su pc e più o meno tutti navigati, togliamo un paio di filtri inutili e non giochiamo con espedienti (porcate) a video con schede pagate mezzo stipendio.

Tra un po' sembra sia meglio avere il fg a ultra che dettagli alti. Siamo realisti dai :)

Io posso solo dire che la mia 3070 è rinata.

Passare da 50-60 a 80-90-100 fps... E' tutta un'altra cosa. Ed è fluidità vera, altroché.

mikael84
27-12-2023, 22:25
Dipende dai titoli, a naso basta prendere i risultati di una 4080 stock e togliergli un 5% di performance avg. :)

La 4070 super si, ma la 4070ti super (o come la chiameranno) sarà abbastanza sotto. -13% in ALU, effettivo probabilmente un -10%. In 4k, può oscillare anche un tantino di più, in quanto JHH gli smonta ogni canale di cache, scendendo a 48 vs 64 e probabilmente la calibra a 21 gb/s, non 22,4.;)

ColdWarGuy
28-12-2023, 01:27
- snip
Qua di disperato vedo solo te che gratti i vetri e metti un link su prodotti futuri AMD spacciandoli per Cessi in un thread Nvidia! Come stai messo?


Sii onesto, metti in firma il tuo nickname "originale".


Come dicevo, almeno qua AMD fa vera concorrenza e non si limita al cartello, cosa di cui ci si dimentica spesso, senza contare che costa tutto di più, pure la pasta industriale, non vedo perché schede video moderne dovrebbero costare come quelle di 10 anni fa.

Vera concorrenza con cosa ?

Le versioni lisce della 7700 e della 7800 o la 7600 XT ? :D

ColdWarGuy
28-12-2023, 01:44
Io posso solo dire che la mia 3070 è rinata.

Passare da 50-60 a 80-90-100 fps... E' tutta un'altra cosa. Ed è fluidità vera, altroché.

Correggetemi se sbaglio, ma i frames creati da qualsivoglia meccanismo FG non sono frutto esclusivo di un processo di interpolazione real time dei frames "veri", quindi frames creati senza alcuna iterazione con gli inputs del videogiocatore eventualmente pervenuti nel mentre ?

In altre parole, dove sta il vantaggio in termini di reale reattività se motore del gioco e metà dei frames presentati a schermo non hanno una relazione funzionale ?

fraussantin
28-12-2023, 06:28
Correggetemi se sbaglio, ma i frames creati da qualsivoglia meccanismo FG non sono frutto esclusivo di un processo di interpolazione real time dei frames "veri", quindi frames creati senza alcuna iterazione con gli inputs del videogiocatore eventualmente pervenuti nel mentre ?



In altre parole, dove sta il vantaggio in termini di reale reattività se motore del gioco e metà dei frames presentati a schermo non hanno una relazione funzionale ?La fluidità la prendi dal fatto che il monitor ricevendo piu frame ha tempi di risposta migliori e meno ghosting.
Poi su un OLED che non possiedo , potrebbe esserci meno differenza, ma su un ips , e io ho uno dei migliori e piu moderni , ti assicuro che fra 100 fps e 144-160 cambia parecchio. ( Non che 100 facciano schifo è)
Viene da se che abilitare reflex è un toccasana.


Poi ovviamente stiamo parlando di un frame generato con filtri previsionali che se non erro ( ma non sono sicuro ) si basano non solo sul frame prima e dopo quello generato , ma su tutta la scena.

Anche perche ad un basso framerate si vedono cose strane , cose che la tv non fa. ( avendo latenze altissime e quindi calcolando forse piu preciso )

Ad alto framerate anche se esce un frame strano non si nota o si nota poco , e cmq è meno probabile che esca.


In ogni caso invito a provare con mano e non a credere a leggende sui forum.


Ps l'utente parla di fluidità non reattivitá.

La.reattività prob anche usando reflex è un gingillino inferiore , quindi nei giochi multi non credo sia consigliabile usarlo.

OrazioOC
28-12-2023, 07:06
Se vabbeh



La 4070 super si, ma la 4070ti super (o come la chiameranno) sarà abbastanza sotto. -13% in ALU, effettivo probabilmente un -10%. In 4k, può oscillare anche un tantino di più, in quanto JHH gli smonta ogni canale di cache, scendendo a 48 vs 64 e probabilmente la calibra a 21 gb/s, non 22,4.;)

Mi aspetto che a parità di frequenze su core e memorie la differenza anche qui si attesti non oltre il 5% di avg, con picchi magari del 6/7% in scenari specifici in 4k.
Ma rimarrebbe comunque una differenza trascurabile, se sarà una sku che costerà effettivamente 200/250 euro in meno della 4080 vanilla. :)

Cutter90
28-12-2023, 07:45
Correggetemi se sbaglio, ma i frames creati da qualsivoglia meccanismo FG non sono frutto esclusivo di un processo di interpolazione real time dei frames "veri", quindi frames creati senza alcuna iterazione con gli inputs del videogiocatore eventualmente pervenuti nel mentre ?

In altre parole, dove sta il vantaggio in termini di reale reattività se motore del gioco e metà dei frames presentati a schermo non hanno una relazione funzionale ?

La fluidità la prendi dal fatto che il monitor ricevendo piu frame ha tempi di risposta migliori e meno ghosting.
Poi su un OLED che non possiedo , potrebbe esserci meno differenza, ma su un ips , e io ho uno dei migliori e piu moderni , ti assicuro che fra 100 fps e 144-160 cambia parecchio. ( Non che 100 facciano schifo è)
Viene da se che abilitare reflex è un toccasana.


Poi ovviamente stiamo parlando di un frame generato con filtri previsionali che se non erro ( ma non sono sicuro ) si basano non solo sul frame prima e dopo quello generato , ma su tutta la scena.

Anche perche ad un basso framerate si vedono cose strane , cose che la tv non fa. ( avendo latenze altissime e quindi calcolando forse piu preciso )

Ad alto framerate anche se esce un frame strano non si nota o si nota poco , e cmq è meno probabile che esca.


In ogni caso invito a provare con mano e non a credere a leggende sui forum.


Ps l'utente parla di fluidità non reattivitá.

La.reattività prob anche usando reflex è un gingillino inferiore , quindi nei giochi multi non credo sia consigliabile usarlo.

Quoto voi, ma il discorso vale poi in generale.

Sinceramente il FG lo uso dal D1 quando disponibile e quando i frame viaggiano con FG attivo almeno sugli 80. Detto questo non mi sono mai soffermato su FrameTime (fluidità) ne sulla latenza del sistema (input lag), oggetti delle discussioni.
Stamattina allora ho iniziato a fare qualche test, perchè prima di "dire castronerie" ho voluto avere numeri alla mano per farlo :)
Ho preso Alan Wake 2, ma conto di farlo anche con cp2077 almeno.
Ho battezzato la scena iniziale con Saga nella foresta senza muovere il PG ne la visuale.
Ho cercato giocando con le opzioni video di ottenere lo stesso valore di fps con e senza FG (è stato un parto) ossia 85-84 FPS. Questo è fondamentale per avvalorare un test come questo. I valori sono stati misurati con HWinfo+rivatuner per il framtime e l'overlay di nvidia per la latenza del sistema

- con FG attivo: Frametime 11 ms, Latenza sistema 68 ms
-con FG disattivato: Framtime 11 ms, Latenza del sistema 35 ms

Aggiungo che dopo la prova ho passeggiato lì nei dintorni con pg e il frame time e la latenza sono rimasti costanti sia con FG attivo sia con FG spento.

AW2 non ha reflex se non sbaglio, il che essendo nvidia mi pare molto strano, ma dalle opzioni non mi pare di vederlo.

Quindi, in attesa di ulteriori test, magari con il FG amd e con il reflex attivo, le conclusioni numeri alla mano mi dicono che la fluidità percepita è assolutamente reale come con i frame nativi. L'aumento della latenza pare considerevole ma naturalmente è da inserire in un contesto di gioco single player. E' anche vero che parliamo di ms e pad alla mano non è affatto semplice accorgersi di questa differenza di latenza.

cody19
28-12-2023, 08:01
ma come è possibile che su sto forum si leggano porcate simili riguardo il FG, che non va usato ecc...? anche se uno lo prova con mano con schede mid e non ci sono problemi, non basta? allora è una questione di autismo o gravi problemi comprensivi mi sa

ColdWarGuy
28-12-2023, 09:16
La fluidità la prendi dal fatto che il monitor ricevendo piu frame ha tempi di risposta migliori e meno ghosting.
Poi su un OLED che non possiedo , potrebbe esserci meno differenza, ma su un ips , e io ho uno dei migliori e piu moderni , ti assicuro che fra 100 fps e 144-160 cambia parecchio. ( Non che 100 facciano schifo è)
Viene da se che abilitare reflex è un toccasana.


Che modello esattamente ?

Dò per scontato che parli di situazioni con Gsync attivo, io con l'IPS in firma mi trovo molto bene da questo punto di vista ma non vedo queste grandi differenze tra 100 e 144 FPS, ma sono sicuramente più sensibile alla latenza che alla fluidità.



Anche perche ad un basso framerate si vedono cose strane , cose che la tv non fa. ( avendo latenze altissime e quindi calcolando forse piu preciso )


Le TV molto probabilmente lavorano su un set di frames "davanti" a quello generato molto più alto, cosa che possono fare con tutta calma per ovvi motivi, personalmente odio l'effetto "soap opera" generato dalle funzioni motion, motivo per cui tipicamente le imposto in modo decisamente moderato.


Ad alto framerate anche se esce un frame strano non si nota o si nota poco , e cmq è meno probabile che esca.

In ogni caso invito a provare con mano e non a credere a leggende sui forum.

Ps l'utente parla di fluidità non reattivitá.

La.reattività prob anche usando reflex è un gingillino inferiore , quindi nei giochi multi non credo sia consigliabile usarlo.

Io le prove le ho fatte tempo fa con Forspoken e la 3070, attivando l'FG la latenza oltre ad essere testimoneata dall'OSD Nvidia diventava decisamente fastidiosa, a livello tale da preferire di tenerlo spento, ma qui temo che si entri in un contesto di marcata soggettività, al di là del fatto che con FPS spinti l'ultima cosa da fare è aggiungere decine di ms ai tempi di risposta del sistema.

Se hai titoli da consigliare per fare ulteriori prove ben venga (a parte quello dei "puffi"), ma ho l'impressione che bisogna avere almeno una 4080 per avere i benefici che riportate.

Quoto voi, ma il discorso vale poi in generale.

-snip

Quindi, in attesa di ulteriori test, magari con il FG amd e con il reflex attivo, le conclusioni numeri alla mano mi dicono che la fluidità percepita è assolutamente reale come con i frame nativi. L'aumento della latenza pare considerevole ma naturalmente è da inserire in un contesto di gioco single player. E' anche vero che parliamo di ms e pad alla mano non è affatto semplice accorgersi di questa differenza di latenza.

Penso che qui siamo tutti d'accordo, aumenta la fludità e diminuisce la reattività, ma come dicevo, escludendo gli FPS veloci dove l'FG è kriptonite, qui si entra in un campo di forte soggettività.

Ad esempio ho un collega che setta il motion del TV a chiodo perchè a suo dire altrimenti è tutto scattoso, ma nel contempo riesce a giocare con 60ms di latenza sul PC :D

Inutile dire che io sono agli antipodi.

ColdWarGuy
28-12-2023, 09:26
ma come è possibile che su sto forum si leggano porcate simili riguardo il FG, che non va usato ecc...? anche se uno lo prova con mano con schede mid e non ci sono problemi, non basta? allora è una questione di autismo o gravi problemi comprensivi mi sa

Sicuro che siano gli altri ad avere problemi di comprensione ?

Almeno hai capito di cosa si stà disquisendo, parlo di effetti sulla reattività vs aumento della fluidità ?

A me sembra ovvio che non si possono confrontare direttamente gli FPS con e senza FG, perchè a parità di numeri il sistema con tal funzione attiva è meno reattivo, cosa che non traspare dai soliti grafici.

Cutter90
28-12-2023, 09:46
Che modello esattamente ?

Dò per scontato che parli di situazioni con Gsync attivo, io con l'IPS in firma mi trovo molto bene da questo punto di vista ma non vedo queste grandi differenze tra 100 e 144 FPS, ma sono sicuramente più sensibile alla latenza che alla fluidità.




Le TV molto probabilmente lavorano su un set di frames "davanti" a quello generato molto più alto, cosa che possono fare con tutta calma per ovvi motivi, personalmente odio l'effetto "soap opera" generato dalle funzioni motion, motivo per cui tipicamente le imposto in modo decisamente moderato.



Io le prove le ho fatte tempo fa con Forspoken e la 3070, attivando l'FG la latenza oltre ad essere testimoneata dall'OSD Nvidia diventava decisamente fastidiosa, a livello tale da preferire di tenerlo spento, ma qui temo che si entri in un contesto di marcata soggettività, al di là del fatto che con FPS spinti l'ultima cosa da fare è aggiungere decine di ms ai tempi di risposta del sistema.

Se hai titoli da consigliare per fare ulteriori prove ben venga (a parte quello dei "puffi"), ma ho l'impressione che bisogna avere almeno una 4080 per avere i benefici che riportate.



Penso che qui siamo tutti d'accordo, aumenta la fludità e diminuisce la reattività, ma come dicevo, escludendo gli FPS veloci dove l'FG è kriptonite, qui si entra in un campo di forte soggettività.

Ad esempio ho un collega che setta il motion del TV a chiodo perchè a suo dire altrimenti è tutto scattoso, ma nel contempo riesce a giocare con 60ms di latenza sul PC :D

Inutile dire che io sono agli antipodi.

Se attivi il motion della tv superi abbondantemente i 200 ms altrochè 60 :D

Se per te quell'aumento molto poco tangibile di latenza è più impattante di vedere la fluidità a 80 fps vs 50 fps allora fai bene a non usarlo. Ma in un contesto SP mi pare un po' esagerato.

Nel pomeriggio provo a fare un test per vedere a quanti fps bisgnerebbe andare per fare i 68 ms da me rilevati senza però FG

ColdWarGuy
28-12-2023, 10:57
Ancora che pensi al silicio e vga war e non alla tecnologia software che gira pure sulle verdi e JJ muto.
Hai 15 anni?
Poi se proprio ne vuoi parlare non ti rendi nemmeno conto che Nvidia stia sottoperformando nelle vendite rispetto alle stime, ed è un problema tuo.
Con quello che spende in R&D, dovrebbe vendere 3-4 volte AMD, e invece stanno praticamente pari del desktop.


Ahahaha, o vivi in un universo parallelo o più semplicemente sei venuto a trollare per trascinare qualcuno in sospensione.

Non so cosa sia peggio.

AceGranger
28-12-2023, 11:33
Con quello che spende in R&D, dovrebbe vendere 3-4 volte AMD


ma nVidia vende 3-4 volte AMD...

ma tralasciando cio, è ormai chiaro da almeno 3 generazioni che l'architettura base, che poi influenza tutte le GPU, ha come focus principale il mondo pro, che è dove arrivano la maggior parte delle novità hardware e dove sicuramente vann oa finire quasi tutti i soldi R&D.
Nel 2023 il mondo pro avra un fatturato di circa 45 Miliardi su 60 e li vende tranquillamente 30/40 volte AMD;

giusto per inquadrare meglio, AMD nella sua interezza di CPU, GPU e Console fatturerà nel 2023 circa 24 Miliardi in totale e la parte GPU di quei 24 è minima.


e invece stanno praticamente pari del desktop.


"4x is the new pari"

qui c'è analizzato nello specifico il q3 2022, ma seguendo gli andamenti degli altri trimestri dove non si nota nessuna variazione significativa dei market share generale, possiamo prenderli tranquillamente come valori delle forze in campo

https://wccftech.com/q3-2022-discrete-gpu-market-share-report-nvidia-gains-amd-intel-in-single-digit-figures/

GPU desktop

workstation 17 volte
High-End 17 volte
Midrange 6 volte
Entry lvl 4 volte

praticamente, dati alla mano, quando va bene AMD vende 1/4 di nVidia, quando va male 1/17; poi c'è la datacenter malissimo a 1/30.

mikael84
28-12-2023, 11:39
Mi aspetto che a parità di frequenze su core e memorie la differenza anche qui si attesti non oltre il 5% di avg, con picchi magari del 6/7% in scenari specifici in 4k.
Ma rimarrebbe comunque una differenza trascurabile, se sarà una sku che costerà effettivamente 200/250 euro in meno della 4080 vanilla. :)

E' troppo poco un 5-6% di avg in meno.
Ragioniamo prendendo di base la 4070ti. 7680 vs 8448 cc, ovvero 9,9% teorici, effettivi sono meno.
5-6% in meno li avrà la 4070 super, ma tra 7680 e 7168 c'è il 6,6% di ALU in meno, quindi probabilmente saremmo sul 5% effettivo, ma tra 4070ti super e 4080, in meno c'è oltre il doppio, considerando anche la cache tagliata e la banda probabilmente a 21.:)

ColdWarGuy
28-12-2023, 11:41
Se attivi il motion della tv superi abbondantemente i 200 ms altrochè 60 :D

Se per te quell'aumento molto poco tangibile di latenza è più impattante di vedere la fluidità a 80 fps vs 50 fps allora fai bene a non usarlo. Ma in un contesto SP mi pare un po' esagerato.

Nel pomeriggio provo a fare un test per vedere a quanti fps bisgnerebbe andare per fare i 68 ms da me rilevati senza però FG

Cutter, lo sò bene che i TV fuori dalla modalità gaming viaggiano su quei numeri, ti parlo invece di esperienze con PC / LCD da ufficio e IGPU, dove il tizio asseriva che era tutto molto OK con una latenza da provocare il vomito, nel contempo a casa sua era tutto un "soap opera effect" da manuale.

Riguardo a "quell'aumento molto poco tangibile di latenza", riportando i tuoi stessi dati :

- con FG attivo: Frametime 11 ms, Latenza sistema 68 ms
- con FG disattivato: Framtime 11 ms, Latenza del sistema 35 ms

io con +33ms vedo un vero e proprio disastro per un FPS, altra cosa è se parliamo di generi differenti.

Considera sempre e comunque che la percezione della latenza è tremendamente soggettiva, motivo per cui di fronte alla medesima situazione potremmo non andare mai d'accordo pur in buona fede.

OrazioOC
28-12-2023, 11:47
E' troppo poco un 5-6% di avg in meno.
Ragioniamo prendendo di base la 4070ti. 7680 vs 8448 cc, ovvero 9,9% teorici, effettivi sono meno.
5-6% in meno li avrà la 4070 super, ma tra 7680 e 7168 c'è il 6,6% di ALU in meno, quindi probabilmente saremmo sul 5% effettivo, ma tra 4070ti super e 4080, in meno c'è oltre il doppio, considerando anche la cache tagliata e la banda probabilmente a 21.:)

Si la differenza sulla cache mi preoccupa molto più che non un ipotetico taglio sulle frequenze della mem(che onestamente non mi aspetto però, visto che è quasi controproducente abbassare volontariamente le frequenze di banchi che sono già stati testati per girare a 22.4). :stordita:
Ma staremo a vedere, la presentazione è prevista per settimana prossima e le review 2 settimane dopo...

Cutter90
28-12-2023, 12:18
Cutter, lo sò bene che i TV fuori dalla modalità gaming viaggiano su quei numeri, ti parlo invece di esperienze con PC / LCD da ufficio e IGPU, dove il tizio asseriva che era tutto molto OK con una latenza da provocare il vomito, nel contempo a casa sua era tutto un "soap opera effect" da manuale.

Riguardo a "quell'aumento molto poco tangibile di latenza", riportando i tuoi stessi dati :

- con FG attivo: Frametime 11 ms, Latenza sistema 68 ms
- con FG disattivato: Framtime 11 ms, Latenza del sistema 35 ms

io con +33ms vedo un vero e proprio disastro per un FPS, altra cosa è se parliamo di generi differenti.

Considera sempre e comuynque che la percezione della latenza è tremendamente soggettiva,pmotivo per cui di fronte alla medesima situazione potremmo non andare mai d'accordo pur in buona fede.

Va beh ma infatti per un fps il FG non va usato e siamo d'accordissimo. Ma per un single player 68 ms vs 35 restano molto poco significativi, questo è il punto.

mikael84
28-12-2023, 12:38
Si la differenza sulla cache mi preoccupa molto più che non un ipotetico taglio sulle frequenze della mem(che onestamente non mi aspetto però, visto che è quasi controproducente abbassare volontariamente le frequenze di banchi che sono già stati testati per girare a 22.4). :stordita:
Ma staremo a vedere, la presentazione è prevista per settimana prossima e le review 2 settimane dopo...

Sulle ram, è un pò diverso. La 4080, rispetto a tutte le altre GPU, monta le 24, non le 21. Sulla 4080 sono 24, ma downclockate a 22,4. Un pò come la 3090, che montava le 21, ma downclockate a 19,5.
Quindi c'è la possibilità che per la versione super, montino le classiche 21, e magari nella 4080 super, vedere le 24 native.

Mediamente sarà una 7900xt con RT maggiorato ed ecosistema nvidia.:)

Andy1111
28-12-2023, 12:49
ma nVidia vende 3-4 volte AMD...

ma tralasciando cio, è ormai chiaro da almeno 3 generazioni che l'architettura base, che poi influenza tutte le GPU, ha come focus principale il mondo pro, che è dove arrivano la maggior parte delle novità hardware e dove sicuramente vann oa finire quasi tutti i soldi R&D.
Nel 2023 il mondo pro avra un fatturato di circa 45 Miliardi su 60 e li vende tranquillamente 30/40 volte AMD;

giusto per inquadrare meglio, AMD nella sua interezza di CPU, GPU e Console fatturerà nel 2023 circa 24 Miliardi in totale e la parte GPU di quei 24 è minima.



"4x is the new pari"

qui c'è analizzato nello specifico il q3 2022, ma seguendo gli andamenti degli altri trimestri dove non si nota nessuna variazione significativa dei market share generale, possiamo prenderli tranquillamente come valori delle forze in campo

https://wccftech.com/q3-2022-discrete-gpu-market-share-report-nvidia-gains-amd-intel-in-single-digit-figures/

GPU desktop

workstation 17 volte
High-End 17 volte
Midrange 6 volte
Entry lvl 4 volte

praticamente, dati alla mano, quando va bene AMD vende 1/4 di nVidia, quando va male 1/17; poi c'è la datacenter malissimo a 1/30.

https://wccftech.com/pc-gpu-market-back-in-green-q3-2023-16-8-growth-graphics-cards-above-37-percent/

Almeno prendi l'ultimo, guarda e non scordare :
Queste cifre includono sia dGPU che iGPU.

I dati specifici non sono ancora stati rilasciati, ma sembra che l'ingresso di opzioni tradizionali come la serie RTX 4060 e la serie RX 7700/7800 di AMD potrebbe aver portato a forti vendite, mentre le GPU RTX 40 hanno ottenuto buone prestazioni nel segmento dei laptop di fascia alta.

Nvidia vende di più sicuramente ma JPD non è attendibile al 100% come calcola le vendite degli AIB e altre questioni è impreciso.

Cutter90
28-12-2023, 13:20
https://wccftech.com/pc-gpu-market-back-in-green-q3-2023-16-8-growth-graphics-cards-above-37-percent/

Almeno prendi l'ultimo, guarda e non scordare :
Queste cifre includono sia dGPU che iGPU.

I dati specifici non sono ancora stati rilasciati, ma sembra che l'ingresso di opzioni tradizionali come la serie RTX 4060 e la serie RX 7700/7800 di AMD potrebbe aver portato a forti vendite, mentre le GPU RTX 40 hanno ottenuto buone prestazioni nel segmento dei laptop di fascia alta.

Nvidia vende di più sicuramente ma JPD non è attendibile al 100% come calcola le vendite degli AIB e altre questioni è impreciso.

Scasa ma qual è il senso di questo dato non lo capisco. Chissenefrega se amd vende più gpu integrate. Ma chissenefrega delle integrate su. Il confronto è gpu dedicate vs gpu dedicate. Altrimenti intel è il maggior venditore di gpu così. Peccato che siano integrate nei processori, grazie graziella e grazie al..... :D

ColdWarGuy
28-12-2023, 13:20
ma nVidia vende 3-4 volte AMD...

- snip



Hai detto solo cose vere ma non sprecare tempo ed energie, l'unica spiegazione è che lui operi nel tentativo di trascinare in sospensione fan verdi, attività meritevole di attenzioni di uno specialista.

ColdWarGuy
28-12-2023, 13:23
Scasa ma qual è il senso di questo dato non lo capisco. Chissenefrega se amd vende più gpu integrate. Ma chissenefrega delle integrate su. Il confronto è gpu dedicate vs gpu dedicate. Altrimenti intel è il maggior venditore di gpu così. Peccato che siano integrate nei processori, grazie graziella e grazie al..... :D

Mi hai anticipato di pochi secondi, se non rinfrescavo la pagina uscivo con un post gemello :D

fraussantin
28-12-2023, 13:27
È incredibile che una sparata inutile di un troll crei cosí tanta discussione.

Ps steam ha un database abbastanza aggiornato. Credo sia sufficente per farsi un idea.

Alodesign
28-12-2023, 13:42
Ma chissene dei 3/4% in più di potenza se poi quel 3/4% me lo fai pagare 200€ in più.

Comunque la pagina con le vendite GPU ha un problema o AMD vende meno anche di Intel?

fraussantin
28-12-2023, 13:44
Ma chissene dei 3/4% in più di potenza se poi quel 3/4% me lo fai pagare 200€ in più.



Comunque la pagina con le vendite GPU ha un problema o AMD vende meno anche di Intel?Include anche le integrate di chi non ha una dedicata . ( Portatili piu che altro)

Poi se vai nel dettaglio vedi tutto.

Alodesign
28-12-2023, 13:49
Include anche le integrate di chi non ha una dedicata . ( Portatili piu che altro)

Poi se vai nel dettaglio vedi tutto.

Giusto.

Dono89
28-12-2023, 14:02
Cutter, lo sò bene che i TV fuori dalla modalità gaming viaggiano su quei numeri, ti parlo invece di esperienze con PC / LCD da ufficio e IGPU, dove il tizio asseriva che era tutto molto OK con una latenza da provocare il vomito, nel contempo a casa sua era tutto un "soap opera effect" da manuale.

Riguardo a "quell'aumento molto poco tangibile di latenza", riportando i tuoi stessi dati :

- con FG attivo: Frametime 11 ms, Latenza sistema 68 ms
- con FG disattivato: Framtime 11 ms, Latenza del sistema 35 ms

io con +33ms vedo un vero e proprio disastro per un FPS, altra cosa è se parliamo di generi differenti.

Considera sempre e comuynque che la percezione della latenza è tremendamente soggettiva,pmotivo per cui di fronte alla medesima situazione potremmo non andare mai d'accordo pur in buona fede.


Non dirlo troppo forte o passi da complottista anti rtx4000 che non l'ha mai testato.

Cutter si è messo a fare i test e sbattersi per portare dei numeri che in un forum di "tecnici" non ce ne sarebbe stato nemmeno bisogno.

Se vogliamo continuare a dire che oltre 30ms di latenza aggiunta siano pochi c'è poco da discutere. Il fg per com'è stato concepito è una porcata, a livello di marketing invece è qualcosa di pazzesco.

Continuo a dirlo: tutta la vita in dlss con un filtro in meno e la miglior esperienza possibile piuttosto che un espediente che aumenta un numero e basta. Non siamo nvidia, che diamine, cerchiamo di esser obiettivi almeno tra di noi

Andy1111
28-12-2023, 14:20
Scasa ma qual è il senso di questo dato non lo capisco. Chissenefrega se amd vende più gpu integrate. Ma chissenefrega delle integrate su. Il confronto è gpu dedicate vs gpu dedicate. Altrimenti intel è il maggior venditore di gpu così. Peccato che siano integrate nei processori, grazie graziella e grazie al..... :D

Scusa ma tu cosa ti intrometti, io non ho parlato di integrate nel mio post, quindi calmati coi toni grazie

https://cdn.vox-cdn.com/uploads/chorus_asset/file/24453388/chrome_5MQmZlfcAL.png

https://www.fudzilla.com/images/stories/2023/November/amd-q32023-1.jpg

Cutter90
28-12-2023, 14:33
Non dirlo troppo forte o passi da complottista anti rtx4000 che non l'ha mai testato.

Cutter si è messo a fare i test e sbattersi per portare dei numeri che in un forum di "tecnici" non ce ne sarebbe stato nemmeno bisogno.

Se vogliamo continuare a dire che oltre 30ms di latenza aggiunta siano pochi c'è poco da discutere. Il fg per com'è stato concepito è una porcata, a livello di marketing invece è qualcosa di pazzesco.

Continuo a dirlo: tutta la vita in dlss con un filtro in meno e la miglior esperienza possibile piuttosto che un espediente che aumenta un numero e basta. Non siamo nvidia, che diamine, cerchiamo di esser obiettivi almeno tra di noi

.

Cutter90
28-12-2023, 14:35
Scusa ma tu cosa ti intrometti, io non ho parlato di integrate nel mio post, quindi calmati coi toni grazie

https://dday.imgix.net/system/uploads/picture/image/100504/6b0957_F_fQzGfXcAA-e_t.jpeg?auto=format%2Ccompress&w=594&

https://www.fudzilla.com/images/stories/2023/November/amd-q32023-1.jpg

MA come, nel tuo post ci sono proprio le integrate nell'articolo postato. E se permetti non è un dibattito tuo personale, siamo su un forum e se mi voglio intromettere mi intrometto. Ti assicuro che non avevo nessun "tono" :)

Cutter90
28-12-2023, 14:36
Non dirlo troppo forte o passi da complottista anti rtx4000 che non l'ha mai testato.

Cutter si è messo a fare i test e sbattersi per portare dei numeri che in un forum di "tecnici" non ce ne sarebbe stato nemmeno bisogno.

Se vogliamo continuare a dire che oltre 30ms di latenza aggiunta siano pochi c'è poco da discutere. Il fg per com'è stato concepito è una porcata, a livello di marketing invece è qualcosa di pazzesco.

Continuo a dirlo: tutta la vita in dlss con un filtro in meno e la miglior esperienza possibile piuttosto che un espediente che aumenta un numero e basta. Non siamo nvidia, che diamine, cerchiamo di esser obiettivi almeno tra di noi

Scusa, ma hai anche visto che ho portato i dati e poi te ne esci con questa frase? :)
Sbaglio oppure ho proprio detto che la latenza aumentata non si sente minimamente in un single player come alan wake?
Se non avessi visto il numerino avrei detto che si, un pelino di latenza extra la sentivo, ma non di certo il doppio. Questo sta a significare che alla fine la sensazione è ottima e il numero è solo una "distrazione", visto che senza il tutto è perfettamente godibile, a 86 fps invece che a 50.

OrazioOC
28-12-2023, 15:10
https://videocardz.com/newz/chinese-nvidia-rtx-4090d-to-launch-today-with-reduced-tensor-core-specs

In pratica sarebbe la vera 4080 ti.:O

X360X
28-12-2023, 16:48
1: sapete che potete ignorare i cloni? Basta non rispondere e magari segnalarceli. O dobbiamo darvi il "concorso di colpa" e sospendere anche voi?

2: la discussione su frame gen è interessante ed è ormai anche per tutte le VGA, ma se volete parlarne (possibilmente senza litigarci sopra) direi di aprire un thread invece di usare questo thread aspettando con tutto che andrà perso nei millemila post.

Iceman69
28-12-2023, 17:05
https://videocardz.com/newz/chinese-nvidia-rtx-4090d-to-launch-today-with-reduced-tensor-core-specs

In pratica sarebbe la vera 4080 ti.:O

Peccato che costi come la 4090 e sia destinata solo al mercato cinese...

Comunque sarebbe troppo vicina alla 4090 per essere la 4080ti, che secondo me a questo giro non uscirà più, con buona pace di quelli che la spettavano per cambiare scheda...

mikael84
28-12-2023, 17:08
Peccato che costi come la 4090 e sia destinata solo al mercato cinese...

Comunque sarebbe troppo vicina alla 4090 per essere la 4080ti, che secondo me a questo giro non uscirà più, con buona pace di quelli che la spettavano per cambiare scheda...

Quella scheda è stata tagliata apposta per rientrare nei parametri TPP imposti alla cina, considerando che la 4090 li supera di pochissimo (5280 va 4500 imposti). Ecco che tagliando qualche cuda ci rientri.

mikael84
28-12-2023, 17:24
https://videocardz.com/newz/msi-rtx-40-super-leak-confirms-rtx-4080-super-and-rtx-4070-ti-super-with-16gb-memory

Qualche stima, sui possibili prezzi, prendendo le più scrause NO IVA.
La misera 4070super ventus, oltre le 800 euro.

La 4070ti super ventus, 1066 euro.

Ora come ora, pare siano solo AIB.

fraussantin
28-12-2023, 17:26
https://videocardz.com/newz/msi-rtx-40-super-leak-confirms-rtx-4080-super-and-rtx-4070-ti-super-with-16gb-memory



Qualche stima, sui possibili prezzi, prendendo le più scrause.

La misera 4070super ventus, oltre le 800 euro da noi.



La 4070ti super ventus, 1066 euro.



Ora come ora, pare siano solo AIB.Va detto che i prezzi delle custom al lancio sono sempre gonfi.

Speriamo cmq in delle fe almeno come riferimento

mikael84
28-12-2023, 17:30
Va detto che i prezzi delle custom al lancio sono sempre gonfi.

Speriamo cmq in delle fe almeno come riferimento

Si ovvio, tra l'altro quei prezzi sono pure senza IVA.

AceGranger
28-12-2023, 17:48
https://wccftech.com/pc-gpu-market-back-in-green-q3-2023-16-8-growth-graphics-cards-above-37-percent/

Almeno prendi l'ultimo, guarda e non scordare :
Queste cifre includono sia dGPU che iGPU.

I dati specifici non sono ancora stati rilasciati, ma sembra che l'ingresso di opzioni tradizionali come la serie RTX 4060 e la serie RX 7700/7800 di AMD potrebbe aver portato a forti vendite, mentre le GPU RTX 40 hanno ottenuto buone prestazioni nel segmento dei laptop di fascia alta.

Nvidia vende di più sicuramente ma JPD non è attendibile al 100% come calcola le vendite degli AIB e altre questioni è impreciso.

ho postato l'ultimo disponibile liberamente con le cifre con le discrete, seno devi pagare 6K dolla per averli

certo, puo essere impreciso di qualche punto % ma qui si parla di ordini di grandezza differenti...

Scusa ma tu cosa ti intrometti, io non ho parlato di integrate nel mio post, quindi calmati coi toni grazie

https://cdn.vox-cdn.com/uploads/chorus_asset/file/24453388/chrome_5MQmZlfcAL.png

https://www.fudzilla.com/images/stories/2023/November/amd-q32023-1.jpg

non ho capito queste 2 immagini; è per paragonare i fatturati ? AMD mischia vari prodotti per categoria non per tipologia producendo piu cose rispetto ad nVidia.

se vuoi paragonare quest'anno pero devi prendere il 2024 ( nVidia ha l'anno fiscale un anno avanti ), questo è quello corretto da paragonare a quello di AMD che è un pelo differente...

https://www.hwupgrade.it/immagini/nvidia-q3-fy24-22-11-2023.jpg

OrazioOC
28-12-2023, 18:03
https://videocardz.com/newz/msi-rtx-40-super-leak-confirms-rtx-4080-super-and-rtx-4070-ti-super-with-16gb-memory

Qualche stima, sui possibili prezzi, prendendo le più scrause NO IVA.
La misera 4070super ventus, oltre le 800 euro.

La 4070ti super ventus, 1066 euro.

Ora come ora, pare siano solo AIB.

Si anche io sarei per vederle a quelle cifre, anche perchè grossi sconti nvidia non ha motivo di farne visto che la lineup amd la conosciamo bene in quella fascia. :rolleyes:

Peccato che costi come la 4090 e sia destinata solo al mercato cinese...

Comunque sarebbe troppo vicina alla 4090 per essere la 4080ti, che secondo me a questo giro non uscirà più, con buona pace di quelli che la spettavano per cambiare scheda...

Ada mi sembra ripercorra in pieno la storia della lineup di Turing, hanno lanciato il chippone subito(2080ti/4090) e poi non lo hanno messo più in discussione con sku 102 più castrate a buon mercato. :)
Ha senso visto il contesto in cui si trova ora nvidia nella fascia alta, meno nella bassa dove 4060/ti campano di nomea e marketing piuttosto che di value. :rolleyes:

ColdWarGuy
28-12-2023, 18:35
Si ovvio, tra l'altro quei prezzi sono pure senza IVA.

Con quei prezzi vincerebbero il premio scaffale del terzo millennio.

ColdWarGuy
28-12-2023, 19:09
-snip

Se vogliamo continuare a dire che oltre 30ms di latenza aggiunta siano pochi c'è poco da discutere. Il fg per com'è stato concepito è una porcata, a livello di marketing invece è qualcosa di pazzesco.



La penso esattamente come te, non per niente ho scritto testualmente "un vero e proprio disastro", d'altra parte insistere ad oltranza su questo punto non porta a nulla.

Da parte mia è chiaro che tutto l'ecosistema gaming a bassa latenza va a donnacce all'istante con quel "trattamento", io metto la reattività al primo posto e trovo paradossale avere 144FPS con 60 errotti ms di latenza.

Sarà che ho i riflessi parecchio pronti ed ho giocato una vita con FPS veloci con i CRT ? :D

fraussantin
28-12-2023, 19:54
Non dirlo troppo forte o passi da complottista anti rtx4000 che non l'ha mai testato.

Cutter si è messo a fare i test e sbattersi per portare dei numeri che in un forum di "tecnici" non ce ne sarebbe stato nemmeno bisogno.

Se vogliamo continuare a dire che oltre 30ms di latenza aggiunta siano pochi c'è poco da discutere. Il fg per com'è stato concepito è una porcata, a livello di marketing invece è qualcosa di pazzesco.

Continuo a dirlo: tutta la vita in dlss con un filtro in meno e la miglior esperienza possibile piuttosto che un espediente che aumenta un numero e basta. Non siamo nvidia, che diamine, cerchiamo di esser obiettivi almeno tra di noi

Io sono dell'opinione che abbiamo tutt gli occhi e tutti la possibilitá di scegliere.

E da oggi tutti abbiamo anche la possibilità di provare come funziona e se ci aggrada.

30 ms di differenza , che a schermo sicuramente sono meno su molti monitor , sono tanti sui multi , ma sono niente su un sp.

Detto questo W la FG! :asd:
Se non piace a tutti ci sta :asd:

amon.akira
28-12-2023, 20:42
Continuo a dire che guardate solo i numeri degli fps, che ci sta, ma non l'esperienza in game. Se vogliamo guardare i numeri allora guardiamo anche la latenza.

Senza reflex il FG è pessimo e lo trova utile solo chi ha le 4000 per giustificare una spesa senza logica.
Con reflex son d'accordo che migliora ma ricordo anche che reflex non viene implementato sempre se c'è il FG quindi spesso (molto spesso) ti trovi con il fg e latenza superiore. Altre volte ancora (ancora più spesso) il fg si abilita per passare da 40 frame a 60 e non c'è cosa più sbagliata.

Rende giocabile un titolo che non lo sarebbe stato? No, perché sotto i 60 attivarlo è doppiamente errato.

Quindi rinnovo una domanda fatta tempo fa.
A cosa mi serve una tecnologia che:
- a bassi frame (sotto 60) non lo abilito
- ad alti frame (sopra 60) il dlss avanza senza impattare in artefatti e fluidità/latenza

L'unico vantaggio lo posso trovare ad alti refresh. Ma ad alti refresh conta anche input lag e la latenza diventa ancora più importante ....quindi, manco lì.

Non è inutile negarlo, è assurdo guardare un numero ed essere ciechi sul resto.

Siamo su pc e più o meno tutti navigati, togliamo un paio di filtri inutili e non giochiamo con espedienti (porcate) a video con schede pagate mezzo stipendio.

Tra un po' sembra sia meglio avere il fg a ultra che dettagli alti. Siamo realisti dai :)

non esiste gioco che ha il frame generation senza reflex, dimmene uno, se non lo vedi tra le option significa che è lockato on internamente tipo alan2, te ne accorgi dal cap frame sotto gli hz.

https://images.hothardware.com/contentimages/newsitem/59738/content/small_nvidia-dlss-3-reflex-latency-spider-man.jpg

praticamente a te va bene nativo pad alla mano ma non ti va bene con fg perchè giustamente dici...se avessi il doppio di fps dovrei avere meno latenza, quindi la soluzione è perdo fluidità ma gioco alla medesima latenza del nativo, poichè faccio meno fps.

esempio 39ms vs 38ms

la latenza l avverti pad alla mano sempre se hai una certa sensibilità, ma la fluidità la vedi con gli occhi ed è quella reale.

Kaio2
28-12-2023, 20:59
Detto questo W la FG! :asd:
Se non piace a tutti ci sta :asd:

Ma non era il, articolo maschile, FG (Frame Generation)? :fagiano:

eXeS
28-12-2023, 21:07
Ma non era il, articolo maschile, FG (Frame Generation)? :fagiano:Transgender ;)

Inviato dal mio SM-S911B utilizzando Tapatalk

mikael84
28-12-2023, 21:07
Ma non era il, articolo maschile, FG (Frame Generation)? :fagiano:

Lui intendeva altra cosa. Sveglia su ... :D

fraussantin
28-12-2023, 21:11
Lui intendeva altra cosa. Sveglia su ... :D

:D

ColdWarGuy
28-12-2023, 21:13
Io sono dell'opinione che abbiamo tutt gli occhi e tutti la possibilitá di scegliere.

E da oggi tutti abbiamo anche la possibilità di provare come funziona e se ci aggrada.

30 ms di differenza , che a schermo sicuramente sono meno su molti monitor , sono tanti sui multi , ma sono niente su un sp.

Detto questo W la FG! :asd:
Se non piace a tutti ci sta :asd:

Lo schermo aggiunge un ulteriore quota di latenza, di certo non la toglie predicendo il futuro, non colgo quindi questa tua affermazione.

Che poi alcuni schermi facciano meno "danni" in questo senso di altri lo sappiamo tutti.

Kaio2
28-12-2023, 21:24
Lui intendeva altra cosa. Sveglia su ... :D

Ma va?? :Prrr:

Cutter90
28-12-2023, 21:37
Sto continuando i miei test su cp2077 co il FG. Anche su reflex. Domani mattina avrò dei dettagli interessanti da postate!

fraussantin
28-12-2023, 21:43
Lo schermo aggiunge un ulteriore quota di latenza, di certo non la toglie predicendo il futuro, non colgo quindi questa tua affermazione.

Che poi alcuni schermi facciano meno "danni" in questo senso di altri lo sappiamo tutti.

aggiunge latenza , ma ne una quantità minore se hai un framerate piu alto, si parla di poca cosa cmq
.

Cutter90
29-12-2023, 06:27
ALan wake 2 non ha nvidia reflex. O per lo meno io non ho trovato l'opzione e spulciando in rete non trovo nulla a riguardo.

Sono passato allora su cp2077. Aggiornato, ho iniziato una nuova partita di Phantom Liberty e come al solito PG e visuale fermi quando il gioco comincia. Stessi test di Alan wake 2. Incredibilmente con dlss Q, tutto max, PT in 4k e FG attivo faccio gli stessi fps che facevo con saga in quel punto, ossia 88 fps. Ho cercato, una volta spento il FG di raggiungere giocando con le opzioni quei 88 fps. Appurato che il frame time resta uguale anche qui, quindi sempre attorno agli 11 ms, mi sono concentrato sulla latenza con l'overlay nvidia del sistema:

- FG ON Reflex ON: 53 ms
- FG ON Reflex OFF: 63 ms
- FG OFF Reflex on: 29 ms
- FG OFF Reflex Off: 40 ms

Da questi dati ottenuti possiamo estrapolare qualche informazione. In primis che è confermata l'assenza di reflex su AW2. Visto che la latenza è identica alla condizione in cui cp 2077 vede FG On e Reflex Off. Ricordo che sto facendo gli stessi fps del test di Aw2

A parità di reflex off (ma alla fine anche se paragoniamo con reflex on) abbiamo un incremento di latenza del FG di 23 ms. Un numero estremamente basso a mio modo di vedere.
Consideriamo questo. Per prendere gli 88 fps con FG on (ricordo, maxando il gioco con dlss Q) ho dovuto disattivare completamente il PT, disattivare il RT sulla GI e mettere il dlss su equilibrato. Inutile dire quanto graficamente e tecnicamente sia di fatto un gioco di una gen indietro in questo modo.

Insomma la mia conclusione è che anche su cp2077 il FG sia assolutamente determinante e fondamentale. a fronte di un aumento di 23 ms di latenza si ha un gioco tecnicamente maestoso. Con fluidità percepita reale.

Ora mi resta Immortal of Aweum con FG AMD e magari una provatina veloce anche a Robocop

Dono89
29-12-2023, 10:10
Grazie per i test davvero super utili e mettono a tacere chi scrive per sentito dire.
Il reflex, se è implementato (cioè raramente) te lo spiattellano e come nei settaggi. Un dev deve implementare il dlss, poi il fg, poi reflex...tutto solo per nvidia...

Flame inutili a parte, si ha quasi un x2 (23 sommati ai 29) della latenza. A me sembra tantissimo, sopratutto in giochi frenetici. Aw2 ad esempio può sopravvivere la cosa, il gioco è oggettivamente calmo (a parte qualche jumpscare) ma in doom e simili la cosa non funzionerebbe o comunque impatterebbe l'esperienza.

Significativamente o no è soggettiva, ma un impatto lo ha.

Il fg personalmente (non sulla mia, ho una 3000, ma ho avuto la stessa percezione testando una 4070ti di un amico) lo terrei sempre disabilitato salvo rarissimi casi che comunque non mi vengono in mente.

Come il dlss, non andrei mai sotto il quality piuttosto si toglie un'ombra maxata

amon.akira
29-12-2023, 10:15
Alanwake quando metti fg hai in automatico il reflex on, se lo disattivi hai reflex off

lordsnk
29-12-2023, 10:30
Il reflex, se è implementato (cioè raramente) te lo spiattellano e come nei settaggi. Un dev deve implementare il dlss, poi il fg, poi reflex...tutto solo per nvidia...


Come da disposizioni Nvidia, se il gioco ha il FG, il Reflex DEVE essere presente, poiché in caso di sua assenza il FG non è attivabile.
In alcuni giochi come AW2 anche se non presente nei menù è cmq presente nel gioco e si attiva nel momento in cui viene attivato il FG ;)

Cutter90
29-12-2023, 10:35
Grazie per i test davvero super utili e mettono a tacere chi scrive per sentito dire.
Il reflex, se è implementato (cioè raramente) te lo spiattellano e come nei settaggi. Un dev deve implementare il dlss, poi il fg, poi reflex...tutto solo per nvidia...

Flame inutili a parte, si ha quasi un x2 (23 sommati ai 29) della latenza. A me sembra tantissimo, sopratutto in giochi frenetici. Aw2 ad esempio può sopravvivere la cosa, il gioco è oggettivamente calmo (a parte qualche jumpscare) ma in doom e simili la cosa non funzionerebbe o comunque impatterebbe l'esperienza.

Significativamente o no è soggettiva, ma un impatto lo ha.

Il fg personalmente (non sulla mia, ho una 3000, ma ho avuto la stessa percezione testando una 4070ti di un amico) lo terrei sempre disabilitato salvo rarissimi casi che comunque non mi vengono in mente.

Come il dlss, non andrei mai sotto il quality piuttosto si toglie un'ombra maxata

Eh beh ma grazie al cavolo scusa. Ma qui si parla di FG dove la latenza conta il giusto, ossia tutti i giochi meno gli fps competitivi. Ma chi usa il FG ovviamente non lo fa di certo nei competitivi.
Mi sto infomrnado come si deve e pare che reflex sia attivo sempre con FG. Restano in ogni caso 10 ms tra reflex on e off, che non fanno certo la differenza

Dono89
29-12-2023, 10:50
La discussione è se il FG abbia senso o meno in modo assoluto. Se poi ha senso in un caso specifico od in un altro non ce l'ha è un altro discorso e sono il primo a dire che può aiutare benché non lo apprezzi e lo terrei off soprattutto con una 4080/4090.

Non sono solo gli fps competitivi e multiplayer a non beneficiarne, sono tutti i titoli dove non devi guardare un film credendo di giocare ad un videogame (alan wake, heavy rain, death stranding etc, è un esempio di titoli, al netto della vera implementazione).

Il FG è diventato il nuovo DLSS sembra che si debba abilitare sempre. Non è assolutamente così (e su questo sono d'accordo)

amon.akira
29-12-2023, 10:56
Serve in tutti i titoli dove reputi che la fluidità nn sia sufficiente per te senza rinunciare a dettagli grafici, è logico che se hai un display 120hz e fai gia 120fps con tutto max e fg off, abilitarlo nn serve oppure potresti volerlo sempre usare per abbassare i consumi.

Cutter90
29-12-2023, 11:03
La discussione è se il FG abbia senso o meno in modo assoluto. Se poi ha senso in un caso specifico od in un altro non ce l'ha è un altro discorso e sono il primo a dire che può aiutare benché non lo apprezzi e lo terrei off soprattutto con una 4080/4090.

Non sono solo gli fps competitivi e multiplayer a non beneficiarne, sono tutti i titoli dove non devi guardare un film credendo di giocare ad un videogame (alan wake, heavy rain, death stranding etc, è un esempio di titoli, al netto della vera implementazione).

Il FG è diventato il nuovo DLSS sembra che si debba abilitare sempre. Non è assolutamente così (e su questo sono d'accordo)

In realtà non è così. Oggettivamente serve solo negli fps competitivi non abilitarlo. Negli sportivi è soggettivo, ma non "obbligatorio", così come negli action puri. In tutti gli altri giochi (ossia l 80% del mercato) Abilitare il FG è meglio che non farlo per via di un aumento minimo di latenza e una fluidità percepita doppia.
Come detto, in cp 2077 se non si abilità il FG (passando da 28 a 50 di latenza) bisogna rinunciare il PT, al RT nella GI e a mettere il dlss su equilibrato per ottenere gli stessi FPS. Per cui il dilemma nemmeno si pone

ColdWarGuy
29-12-2023, 11:11
aggiunge latenza , ma ne una quantità minore se hai un framerate piu alto, si parla di poca cosa cmq
.

Poca cosa per i più virtuosi a patto di avere il refresh rate alto, ad esempio il mio MSI :D :

https://i.postimg.cc/gjfNH14s/latm.png

che è più veloce dell'LG27GN850 :

https://i.postimg.cc/HWqLyBdk/lagl.png

Non mi è chiaro però cosa succede con Gsync (o affini) e frame rate variabile, comunque ovvio che in un contesto da 70ms come quello riportato da Cutter non è certo l'LCD super fast con i suoi 4-5ms aggiuntivi a rovinare la "festa".

fraussantin
29-12-2023, 11:12
Grazie per i test davvero super utili e mettono a tacere chi scrive per sentito dire.
Il reflex, se è implementato (cioè raramente) te lo spiattellano e come nei settaggi. Un dev deve implementare il dlss, poi il fg, poi reflex...tutto solo per nvidia...

Flame inutili a parte, si ha quasi un x2 (23 sommati ai 29) della latenza. A me sembra tantissimo, sopratutto in giochi frenetici. Aw2 ad esempio può sopravvivere la cosa, il gioco è oggettivamente calmo (a parte qualche jumpscare) ma in doom e simili la cosa non funzionerebbe o comunque impatterebbe l'esperienza.

Significativamente o no è soggettiva, ma un impatto lo ha.

Il fg personalmente (non sulla mia, ho una 3000, ma ho avuto la stessa percezione testando una 4070ti di un amico) lo terrei sempre disabilitato salvo rarissimi casi che comunque non mi vengono in mente.

Come il dlss, non andrei mai sotto il quality piuttosto si toglie un'ombra maxata Riguardo il dlss dipende parecchio dal monitor che uno usa.
Se usi un diplay parecchio grande da quality a bilanciato cambia parecchio.

Poi dipende anche dal gioco.

Sul mio monitor ad esempio in cyb da bilanciato a qualità cambia relativamente poco .

È ho l'occhio attento al minimo difetto. C'è differenza chiaramente , ma è una differenza trascurabile a fronte degli FPS in piu che fai e il ghosting che diminuisce decisamente

Per quanto sia poco su questi pannelli.

Ogni situazione è diversa.
Del resto ci sono persone che non vedono differenza tra 30 e 60 fps ( in ambito console) immagino che ci possano essere altre che non dann l'importanza a 100 o 150 fps.

Per me fg è una manna dal cielo per qualunque gioco che non sia multi e spero veramente che presto o tardi si possa abilitare da driver come altri effetti .

E questo su tutte le schede non solo sulle nvidia 4000.

Perche oggettivamente è piu utile a chede vecchie come le ampere o le turing.

Maury
29-12-2023, 11:35
Io il FG lo uso su un LG C1 Oled con refresh a 120 hz, vsync on da pannello, gsync on, e non ho assolutamente nessun problema ne di latenza ne di effetto ghost o similia.
L'unica accortezza é tenere alto il frame rate, diciamo da 90 in su, cosa semplicissima da ottenere tramite FG.

fraussantin
29-12-2023, 11:43
Io il FG lo uso su un LG C1 Oled con refresh a 120 hz, vsync on da pannello, gsync on, e non ho assolutamente nessun problema ne di latenza ne di effetto ghost o similia.
L'unica accortezza é tenere alto il frame rate, diciamo da 90 in su, cosa semplicissima da ottenere tramite FG.L'effetto ghost su oled non c'è o è poco e nel caso fg lo migliora.

Therinai
29-12-2023, 11:45
Serve in tutti i titoli dove reputi che la fluidità nn sia sufficiente per te senza rinunciare a dettagli grafici, è logico che se hai un display 120hz e fai gia 120fps con tutto max e fg off, abilitarlo nn serve oppure potresti volerlo sempre usare per abbassare i consumi.

Come fai a risparmiare con frame generator? Capisco con DLSS, con cap al framerate, ma FG mi sfugge come possa fare risparmiare.

ColdWarGuy
29-12-2023, 11:48
Rigiardo il dlss dipende parecchio dal monitor che uno usa.
Se usi un diplay parecchio grande da quality a bilanciato cambia parecchio.

Poi dipende anche dal gioco.

Sul mio monitor ad esempio in cyb da bilanciato a qualità cambia relativamente poco .

-snip


Che monitor hai ?

Comunque dipende molto anche dal game, con AW2 il DLSS funziona in modo a dir poco egregio mentre, ad esempio, con Dead Space remake già il livello quality rovina parecchio il colpo d'occhio.

Tornando sulla diatriba, secondo me la questione non è quale compromesso tizio o caio voglia/possa accettare, quanto al fatto che le slides di giacchetta con gli istogrammi che schizzano miracolosamente verso numeri mirabolanti con FG ON omettono il piccolo, insignificante, meglio non parlarne dettaglio del lag che schizza verso valori considerati osceni sia per i multi che per i single player d'azione che per i giochi di guida.

Mi riferisco anche alle linee guida sui testing fornite ai recensori "ufficiali", poi spoilerate dai più "ribelli", a questo punto io dico a ragione.

fraussantin
29-12-2023, 11:48
Che monitor hai ?

Comunque dipende molto anche dal game, con AW2 il DLSS funziona in modo a dir poco egregio mentre, ad esempio, con Dead Space remake già il livello quality rovina parecchio il colpo d'occhio.

Tornando sulla diatriba, secondo me la questione non è quale compromesso tizio o caio voglia/possa accettare, quanto al fatto che le slides di giacchetta con gli istogrammi che schizzano miracolosamente verso numeri mirabolanti con FG ON omettono il piccolo, insignificante, meglio non parlarne dettaglio del lag che schizza verso valori considerati osceni sia per i multi che per i single player d'azione che per i giochi di guida.

Mi riferisco anche alle linee guida sui testing fornite ai recensori "ufficiali", poi spoilerate dai più "ribelli", a questo punto io dico a ragione.Un lg 3440x1440 nano ips.
Gn850 qualcosa


Poi guarda sulle barrette di giacchetta non si discute è un pigliaperilculo e li siamo tutti d'accordo , ma da li a disprezzare per partito preso una funzione che di suo è comoda non ci sto.

Un po come il dlss che alla 1.0 faceva cagare ed era una truffa di giacchetta

Ora è magia pura.

Poi nessuno obbliga nessuno a usarlo ne l'uno ne l'altro.

Non siamo su console dove ti becchi quello che vogliono.

Cutter90
29-12-2023, 12:29
Che monitor hai ?

Comunque dipende molto anche dal game, con AW2 il DLSS funziona in modo a dir poco egregio mentre, ad esempio, con Dead Space remake già il livello quality rovina parecchio il colpo d'occhio.

Tornando sulla diatriba, secondo me la questione non è quale compromesso tizio o caio voglia/possa accettare, quanto al fatto che le slides di giacchetta con gli istogrammi che schizzano miracolosamente verso numeri mirabolanti con FG ON omettono il piccolo, insignificante, meglio non parlarne dettaglio del lag che schizza verso valori considerati osceni sia per i multi che per i single player d'azione che per i giochi di guida.

Mi riferisco anche alle linee guida sui testing fornite ai recensori "ufficiali", poi spoilerate dai più "ribelli", a questo punto io dico a ragione.

Questa frase è esagerata ed è questo il punto. il FG serve e si usa con successo incredibile (30 ms in più non sono osceni in tutti quei giochi che non siano fps competitivi, super action. Fine in tutti gli altri va da dio.
Spetta all'utente tecnico e consapevole del mondo pc capire quando usarlo o meno. Per chi gioca ai SP il FG è un vero e proprio game Changer.

Dono89
29-12-2023, 12:34
Personalmente non sono d'accordo, soprattutto sul definirlo game changer.

Game changer è qualcosa che senza quella ho problemi e/o mi migliora decisamente l'esperienza. Qui è l'opposto, i problemi li ho con il FG specie se i frame in nativo sono sotto una soglia decente (dove davvero servirebbe un boost). Se fosse andato bene da 10fps e senza introdurre penalità sarei stato totalmente d'accordo (e probabile avrei già una 4080).

Mi sembra assurdo che chi spende 2K di 4090 e sicuro avrà abbinato un monitor al top (e vorrei vedere con 2000€ di scheda video) ci va a mettere una cosa simile. Abbiamo monitor con input lag fantastici pagati fior di soldi e dobbiamo rovinare la resa con una markettata? Capisco nvida, che vende frame e numeri, ma a me sembra paradossale impattare l'esperienza e magari pure con titoli importanti. Ovviamente è e rimane un personale pensiero, giustamente ognuno fa quello che vuole con il proprio hw.

fraussantin
29-12-2023, 12:45
Personalmente non sono d'accordo, soprattutto sul definirlo game changer.

Game changer è qualcosa che senza quella ho problemi e/o mi migliora decisamente l'esperienza. Qui è l'opposto, i problemi li ho con il FG specie se i frame in nativo sono sotto una soglia decente (dove davvero servirebbe un boost). Se fosse andato bene da 10fps e senza introdurre penalità sarei stato totalmente d'accordo (e probabile avrei già una 4080).

Mi sembra assurdo che chi spende 2K di 4090 e sicuro avrà abbinato un monitor al top (e vorrei vedere con 2000€ di scheda video) ci va a mettere una cosa simile. Abbiamo monitor con input lag fantastici pagati fior di soldi e dobbiamo rovinare la resa con una markettata? Capisco nvida, che vende frame e numeri, ma a me sembra paradossale impattare l'esperienza e magari pure con titoli importanti. Ovviamente è e rimane un personale pensiero, giustamente ognuno fa quello che vuole con il proprio hw.

L'input lag del monitor non c'entra niente. Quello si somma a quello del gioco , migliore è e meglio è in ogni situazione.

Cosí come quello del mouse o del gamepad, o della rete dati in caso di giochi multi.

Tiri le somme e hai il lag.

Gente che gioca su stadia e pigiavi un bottone e dopo mezzo secondo vedevi il colpo.

Altro che 30 millisecondi.

marbasso
29-12-2023, 13:32
Serve in tutti i titoli dove reputi che la fluidità nn sia sufficiente per te senza rinunciare a dettagli grafici, è logico che se hai un display 120hz e fai gia 120fps con tutto max e fg off, abilitarlo nn serve oppure potresti volerlo sempre usare per abbassare i consumi.

Eccolo li il buon Amon, volevo rispondere già da parecchi post e poi ho letto il tuo.
Io uso il fg nei giochi sp dove già di base faccio parecchi fps, con uin profilo della 4090 dal clock mediobasso e dal pl molto conservativo. La vga non consuma una cippa e rende a bestia.
Vedasi robocop, attivo tutto, DLDSR 4k, dlss, fg, reflex e gioco sul 80-145 fps dipende dalle zone ovviamente in alcune si hanno dei cali forse perchè non otimizzate.

200-205w....che è tutto dire.

E non commentate dicendo e con una 4090 non ha senso giocare sotto al 100%, a me piace fare questi esperimenti sull' efficienza abbinata a queste nuove tecnologie e non solo.
Quando avrò bisogno del 100% la utilizzerò senza problemi. Nemmeno con AW2 l' ho usata a briglia sciola o in oc, non c'era bisogno. Ma nei bench..... :)

Cutter90
29-12-2023, 13:33
Personalmente non sono d'accordo, soprattutto sul definirlo game changer.

Game changer è qualcosa che senza quella ho problemi e/o mi migliora decisamente l'esperienza. Qui è l'opposto, i problemi li ho con il FG specie se i frame in nativo sono sotto una soglia decente (dove davvero servirebbe un boost). Se fosse andato bene da 10fps e senza introdurre penalità sarei stato totalmente d'accordo (e probabile avrei già una 4080).

Mi sembra assurdo che chi spende 2K di 4090 e sicuro avrà abbinato un monitor al top (e vorrei vedere con 2000€ di scheda video) ci va a mettere una cosa simile. Abbiamo monitor con input lag fantastici pagati fior di soldi e dobbiamo rovinare la resa con una markettata? Capisco nvida, che vende frame e numeri, ma a me sembra paradossale impattare l'esperienza e magari pure con titoli importanti. Ovviamente è e rimane un personale pensiero, giustamente ognuno fa quello che vuole con il proprio hw.

AH perchè raddoppiare gli fps con un aumento di 20 ms di latenza in giochi sp non è "migliorare l'esperienbza?". trovo incredibile un affermazione del genere.
In cp 2077 tutta la max senza fg fare 40-50 fps. Con FG 85-95. Un mondo di differenza.
Il fatto di funzionare da 10 fps si chiama "fantascienza". Difficile pretenderlo se si conosce un minomo la tecnologia.

Il mio G3 mica l'ho preso per i ms di latenza e tutti dovrebbero NON farlo. L'ho preso per la sua qualità visiva. La latenza dovrebbe guardarla solo chi gioca competitivo e dovrebbe guardarci solo chi gioca competitivo in Esport, ossia un % ridicola di quelli che giocano competitivo.
Molta gente è convinta che sia l'input lag a fare la differenza nel multy. Peccato chemlo sia a parità di abilità e considerndo tutto il sistema.
Il mio g3 fa 5 ms di input lag in 4k a 120 fps. Se incontro uno cod che ha appena iniziatoa giocare con 1 ms di schermo lo sciolgo. Semplicmente perchè l'abilità non è la stessa.

Nvidia deve vendere e noi dobbiamo videogiocare meglio. Con il FG in condizioni di utilizzo standard ciò avviene.

ColdWarGuy
29-12-2023, 13:52
Questa frase è esagerata ed è questo il punto. il FG serve e si usa con successo incredibile (30 ms in più non sono osceni in tutti quei giochi che non siano fps competitivi, super action. Fine in tutti gli altri va da dio.
Spetta all'utente tecnico e consapevole del mondo pc capire quando usarlo o meno. Per chi gioca ai SP il FG è un vero e proprio game Changer.

Io mi sento di poter affermare che 33 ms in più in :

- un gioco di guida
- un single player di azione
- qualsiasi gioco online
- qualsiasi applicazione VR

sono altamente deprecabili e con una base di partenza di ulteriori 35 ms un vero e proprio show stopper, neanche da iniziare a parlarne.

Non credo di aver elencato, nel complesso, una nicchia del settore di 4 gatti, come può essere la sola VR.

Posso garantire che se sulle slides di giacchetta avessero aggiunto l'istogramma del lag a quello fosforescente degli FPS con FG ON sarebbe scoppiato uno shitstorm istantaneo.

Siamo onesti, oggi come oggi i monitor con un lag da 25ms sono già considerati uso ufficio (non per niente qui parecchia gente ha sganciato il ghello per roba veloce), tutto il marketing delle periferiche da gioco partendo per l'appunto dai monitors e finendo al mouse/tastiera se la canta sul singolo millisecondo e qui stiamo dicendo che 33ms, che cancellano istantaneamente il vantaggio del monitor da gaming (con resto mancia) aggiunti ad una base da 35ms sono del tutto ininfluenti :D

E nota bene i tuoi sono numeri ricavati da una configurazione TOP, cosa succede, esempio, con una 4070 ? (lascio fuori per decenza quello che c'è sotto...)

C'è chi mette sul podio la qualità grafica, altri la reattività del sistema, altri ancora un mix tra le due cose, per me l'importante è che venga spiegato anche il rovescio della medaglia dell'FG per evitare di far buttare via i soldi con acquisti basati su presentazioni furbesche.

Da come l'avevano cantata sembrava giustificato passare da una 3070 ad un 4060 perchè con l'FG quest'ultima avrebbe brutalizzato la suddetta ... poi non meravigliamoci se saltano fuori "ribelli" stile Hardware Unboxed.

In ogni caso il LAG non è l'unico aspetto impattato dal FG, consiglio di vedere/rivedere il video di DF :

https://www.youtube.com/watch?v=92ZqYaPXxas

non è recentissimo ma il contenuto è ancora attinente.

amon.akira
29-12-2023, 14:02
Come fai a risparmiare con frame generator? Capisco con DLSS, con cap al framerate, ma FG mi sfugge come possa fare risparmiare.

Semplice, perchè normalmente se renderizzi 120fps per 120hz, con il fg ci arrivi renderizzandone 75

fraussantin
29-12-2023, 14:07
Io mi

Siamo onesti, oggi come oggi i monitor con un lag da 25ms .

Al netto che posso essere anche d'accordo che su alcuni giochi non convenga attivare fg , i monitor che dichiarano 1 ms gtg 1 ms lo vedono col binocolo.
Reali senza attivare voltaggi senza senso che fanno peggio che altro Si viaggia dai 10 ai 20 a seconda delle situazioni
https://www.rtings.com/monitor/reviews/lg/34gn850-b

Cutter90
29-12-2023, 14:16
Io mi sento di poter affermare che 33 ms in più in :

- un gioco di guida

Ininfluenti assolutamente in un gioco di guida. Non hai certo bisogno di reazioni fulminee come se dovessi sparare. Sono un pilota Esport di acc, una volta che si hanno almeno 60 fps si è a posto. Sono passato da 60 a 240 fps, andando a latenze irrisorie. Ma di certo la mia guida non è migliorata per questo.

- un single player di azione

Se intendi souls like si. In tutti gli altri, tipo action gdr OW molto opinabile non usarlo. Anche qui i tempi di reazione sono tutt'altro che fondamentali.

- qualsiasi gioco online

Dove si spara SI. Altrimenti assolutamente no

- qualsiasi applicazione VR

Si. Ma parliamo di una nicchia

sono altamente deprecabili e con una base di partenza di ulteriori 35 ms un vero e proprio show stopper, neanche da iniziare a parlarne.

Non credo di aver elencato, nel complesso, una nicchia del settore di 4 gatti, come può essere la sola VR.

Posso garantire che se sulle slides di giacchetta avessero aggiunto l'istogramma del lag a quello fosforescente degli FPS con FG ON sarebbe scoppiato uno shitstorm istantaneo.

Siamo onesti, oggi come oggi i monitor con un lag da 25ms sono già considerati uso ufficio (non per niente qui parecchia gente ha sganciato il ghello per roba veloce), tutto il marketing delle periferiche da gioco partendo per l'appunto dai monitors e finendo al mouse/tastiera se la canta sul singolo millisecondo e qui stiamo dicendo che 33ms, che cancellano istantaneamente il vantaggio del monitor da gaming (con resto mancia) aggiunti ad una base da 35ms sono del tutto ininfluenti :D

Questo perchè nel tempo i venditori hanno capito che potevano tranquillamente fregare l'utenza casual e vendere pezzi hardware a palate se invece di 25 ms avessero avuto 10 ms di risposta. Una delle trovate di amrketing più incredibile di sempre. Gente che compra monitor da 1 ms e poi gioca ai competitivi online 2 ore la settimana. Quanto è facile fregare la gente ogni volta mi sembra incredibile.


E nota bene i tuoi sono numeri ricavati da una configurazione TOP, cosa succede, esempio, con una 4070 ? (lascio fuori per decenza quello che c'è sotto...)

Cosa cambia? La 4070 avrà gli stessi risultati se raggiunge quei Frame. Ovvaimente non saranno in 4k. La 4070 con il suo target avrà lo stesso risultato. Chiaro che se la 4070 la usi per il 4k cu cp 2077 ecco che stai sbagliando


C'è chi mette sul podio la qualità grafica, altri la reattività del sistema, altri ancora un mix tra le due cose, per me l'importante è che venga spiegato anche il rovescio della medaglia dell'FG per evitare di far buttare via i soldi con acquisti basati su presentazioni furbesche.

Da come l'avevano cantata sembrava giustificato passare da una 3070 ad un 4060 perchè con l'FG quest'ultima avrebbe brutalizzato la suddetta ... poi non meravigliamoci se saltano fuori "ribelli" stile Hardware Unboxed.

In ogni caso il LAG non è l'unico aspetto impattato dal FG, consiglio di vedere/rivedere il video di DF :

https://www.youtube.com/watch?v=92ZqYaPXxas

non è recentissimo ma il contenuto è ancora attinente.

Quel vido di DF è del D1 di FG e ad oggi è stato tutto ampiamente sistemato e migliorato. Resta il "problema" della latenza e che se il Fg lo si usa a bassi frame qualche artefatto sbuca fuori.

Sono d'accordo che nvidia non abbia clcato tanto sulla questione latenza. Ma il motivo è presto detto: la gente si sarebbe messa le mani nei capelli prima di provare e avrebbe decreatto che con quella latenza su pc era ingiocabile ancora prima di provare. Questo perchè la maggior parte dell'utenza pc è la stessa utenza che acquista monitor da 1 ms invece che da 10 pensando di diventare più bravo spendendo 3 volte tanto.....

amon.akira
29-12-2023, 14:17
Io mi sento di poter affermare che 33 ms in più in :

- un gioco di guida
- un single player di azione
- qualsiasi gioco online
- qualsiasi applicazione VR

sono altamente deprecabili e con una base di partenza di ulteriori 35 ms un vero e proprio show stopper, neanche da iniziare a parlarne.

Non credo di aver elencato, nel complesso, una nicchia del settore di 4 gatti, come può essere la sola VR.

Posso garantire che se sulle slides di giacchetta avessero aggiunto l'istogramma del lag a quello fosforescente degli FPS con FG ON sarebbe scoppiato uno shitstorm istantaneo.

Siamo onesti, oggi come oggi i monitor con un lag da 25ms sono già considerati uso ufficio (non per niente qui parecchia gente ha sganciato il ghello per roba veloce), tutto il marketing delle periferiche da gioco partendo per l'appunto dai monitors e finendo al mouse/tastiera se la canta sul singolo millisecondo e qui stiamo dicendo che 33ms, che cancellano istantaneamente il vantaggio del monitor da gaming (con resto mancia) aggiunti ad una base da 35ms sono del tutto ininfluenti :D

E nota bene i tuoi sono numeri ricavati da una configurazione TOP, cosa succede, esempio, con una 4070 ? (lascio fuori per decenza quello che c'è sotto...)

C'è chi mette sul podio la qualità grafica, altri la reattività del sistema, altri ancora un mix tra le due cose, per me l'importante è che venga spiegato anche il rovescio della medaglia dell'FG per evitare di far buttare via i soldi con acquisti basati su presentazioni furbesche.

Da come l'avevano cantata sembrava giustificato passare da una 3070 ad un 4060 perchè con l'FG quest'ultima avrebbe brutalizzato la suddetta ... poi non meravigliamoci se saltano fuori "ribelli" stile Hardware Unboxed.

In ogni caso il LAG non è l'unico aspetto impattato dal FG, consiglio di vedere/rivedere il video di DF :

https://www.youtube.com/watch?v=92ZqYaPXxas

non è recentissimo ma il contenuto è ancora attinente.

https://i.imgur.com/PmaZrC6.png

in questo caso quindi tu come lo giocheresti? nativo 63.5ms con 42fps oppure dlssq+fg 62.7ms 112fps??

marbasso
29-12-2023, 14:27
Ora risponde <<e ma questo è cp2077 e non conta...., il mitico caso unico :) >>

ColdWarGuy
29-12-2023, 14:31
Al netto che posso essere anche d'accordo che su alcuni giochi non convenga attivare fg , i monitor che dichiarano 1 ms gtg 1 ms lo vedono col binocolo.
Reali senza attivare voltaggi senza senso che fanno peggio che altro Si viaggia dai 10 ai 20 a seconda delle situazioni
https://www.rtings.com/monitor/reviews/lg/34gn850-b

Stai parlando di una cosa differente, che è il tempo di risposta dei pixels in transizione, io mi riferisco al LAG del monitor che Rtings misura con strumenti tipo :

4K HDMI Video Signal Lag Tester (https://www.leobodnar.com/shop/index.php?main_page=product_info&cPath=137&products_id=317&zenid=28a33a0e55501329478af7f650e578b1)

che è quello percepito principlamente dal gamer, poi se il pannello è
lento nelle transizioni dei cristalli ti becchi in addition le "scie".

Mica per niente si sborsa il ghello per quel numerino e si sopporta lo scarso rapporto di contrasto dell'IPS (come hai fatto anche tu), poi ovviamente una bega non esclude l'altra :D

Ebbene, un +30ms di LAG cancella all'istante l'investimento lato reattività.

fraussantin
29-12-2023, 14:50
Stai parlando di una cosa differente, che è il tempo di risposta dei pixels in transizione, io mi riferisco al LAG del monitor che Rtings misura con strumenti tipo :



4K HDMI Video Signal Lag Tester (https://www.leobodnar.com/shop/index.php?main_page=product_info&cPath=137&products_id=317&zenid=28a33a0e55501329478af7f650e578b1)



che è quello percepito principlamente dal gamer, poi se il pannello è

lento nelle transizioni dei cristalli ti becchi in addition le "scie".



Mica per niente si sborsa il ghello per quel numerino e si sopporta lo scarso rapporto di contrasto dell'IPS (come hai fatto anche tu), poi ovviamente una bega non esclude l'altra :D



Ebbene, un +30ms di LAG cancella all'istante l'investimento lato reattività.Ok ma se un pixel ci mette 20 ms a cambiare colore tu l'immagine cmq la vedi con un ritardo . Finche non cambia colore non la vedi.è cmq latenza.

Dono89
29-12-2023, 14:55
https://i.imgur.com/PmaZrC6.png

in questo caso quindi tu come lo giocheresti? nativo 63.5ms con 42fps oppure dlssq+fg 62.7ms 112fps??

Sai benissimo che la risposta è nessuna delle due, ma: DLSS quality, 47ns e 72fps.
E chi invece sceglie 62.7ms 112fps ha tutto il diritto di farlo, ma è folle

Cutter90
29-12-2023, 15:02
Sai benissimo che la risposta è nessuna delle due, ma: DLSS quality, 47ns e 72fps.
E chi invece sceglie 62.7ms 112fps ha tutto il diritto di farlo, ma è folle

Ahahahahah scusa eh tu non hai assolutamente la sensibilità per sapere la differenza tra 62 ms e 47 ms.Ma come tu tutti. Se ti mettessi davanti i due scenari senza dirtelo tu non lo saresti mai.
Tra 72 fps e 112 fps c'è un abisso in termini di fluidità. Altrochè 15 ms.
Io non credo che tu sia obiettivo onestamente, perchè ora le tue affermazioni rasentano la follia.

amon.akira
29-12-2023, 15:24
Sai benissimo che la risposta è nessuna delle due, ma: DLSS quality, 47ns e 72fps.
E chi invece sceglie 62.7ms 112fps ha tutto il diritto di farlo, ma è folle

47ms vs 63ms quindi è piu importante per te come latenza rispetto alla fluidità tra 112 e 72.

Dono89
29-12-2023, 16:09
No è una semplice questione di bilanciamento tra più opzioni.
Così come son disposto a rinunciare a qualche filtro a favore della fluidità, son disposto a rinunciare a qualche frame a favore della latenza.

Se ho la possibilità di migliorare più o meno tutto senza "rompere" qualcos'altro allora seguo quella strada.

Se poi dobbiamo trovare senso a schede da 2000euro perché si allora è un altro discorso

Therinai
29-12-2023, 16:10
Semplice, perchè normalmente se renderizzi 120fps per 120hz, con il fg ci arrivi renderizzandone 75

si ok ma ne parlavo anche su discord... finché non raggiungi un cap al framerate (tipo per via di vsync) la gpu va al 100% anche con FG, quindi non risparmi nulla... se vsync si sincronizza con i 120hz per esempio del tv, se il gioco che stai giocando renderizza realmente 76 fps e attivando FG arrivi a 120 la gpu va al 100%.
Un altro discorso è se nello stesso scenario il gioco va già a 120 FPS senza FG... se lo attivi si introducono nuovi frames, e a questo punto cosa succede?
Quali sono le specifiche di frame generator? Bilancia tra frames renderizzati e inventati?
Se la scheda renderizza 120 e il limite è 120 cosa succede con FG attivo? I frames renderizzati scendono a 75 e gli altri sono introdotti da FG? Oppure FG non genera perché ci sono già abbastanza frames da saturare il cap?
O magari lo scenario è misto?
Se c'è una risposta a questi quesiti, se si conosce questo dettaglio tecnico, eventualmente si può pensare ad usare FG per fare assorbire meno la scheda.

marbasso
29-12-2023, 16:19
si ok ma ne parlavo anche su discord... finché non raggiungi un cap al framerate (tipo per via di vsync) la gpu va al 100% anche con FG, quindi non risparmi nulla... se vsync si sincronizza con i 120hz per esempio del tv, se il gioco che stai giocando renderizza realmente 76 fps e attivando FG arrivi a 120 la gpu va al 100%.
Un altro discorso è se nello stesso scenario il gioco va già a 120 FPS senza FG... se lo attivi si introducono nuovi frames, e a questo punto cosa succede?
Quali sono le specifiche di frame generator? Bilancia tra frames renderizzati e inventati?
Se la scheda renderizza 120 e il limite è 120 cosa succede con FG attivo? I frames renderizzati scendono a 75 e gli altri sono introdotti da FG? Oppure FG non genera perché ci sono già abbastanza frames da saturare il cap?
O magari lo scenario è misto?
Se c'è una risposta a questi quesiti, se si conosce questo dettaglio tecnico, eventualmente si può pensare ad usare FG per fare assorbire meno la scheda.

Metti un cap al pl, x farla semplice, hai gli stessi frame che con la vga al 100% ma la tieni al 60%.

amon.akira
29-12-2023, 16:20
si ok ma ne parlavo anche su discord... finché non raggiungi un cap al framerate (tipo per via di vsync) la gpu va al 100% anche con FG, quindi non risparmi nulla... se vsync si sincronizza con i 120hz per esempio del tv, se il gioco che stai giocando renderizza realmente 76 fps e attivando FG arrivi a 120 la gpu va al 100%.
Un altro discorso è se nello stesso scenario il gioco va già a 120 FPS senza FG... se lo attivi si introducono nuovi frames, e a questo punto cosa succede?
Quali sono le specifiche di frame generator? Bilancia tra frames renderizzati e inventati?
Se la scheda renderizza 120 e il limite è 120 cosa succede con FG attivo? I frames renderizzati scendono a 75 e gli altri sono introdotti da FG? Oppure FG non genera perché ci sono già abbastanza frames da saturare il cap?
O magari lo scenario è misto?
Se c'è una risposta a questi quesiti, se si conosce questo dettaglio tecnico, eventualmente si può pensare ad usare FG per fare assorbire meno la scheda.

fg è il frame2 generato dalle informazioni del frame1 e frame3 (di qui la latenza)

si senza cap sei li come consumi, esempio cyberpunk nativo max 25fps 415w vs nativo+fg 42fps 400w, siamo li.

con dlss è meno gravoso sui consumi anche senza cap perchè renderizzi proprio a una risoluzione inferiore.

Therinai
29-12-2023, 16:22
Metti un cap al pl, x farla semplice, hai gli stessi frame che con la vga al 100% ma la tieni al 60%.

non sono pratico di power limit, ha la stessa precisione di un CAP al framerate?
Cioé se voglio andare a 60 posso impostare il PL per andare a 60 FPS e se coglio andare a 144 posso impostarlo per cappare a 144 fps?

bagnino89
29-12-2023, 16:24
Ahahahahah scusa eh tu non hai assolutamente la sensibilità per sapere la differenza tra 62 ms e 47 ms.Ma come tu tutti. Se ti mettessi davanti i due scenari senza dirtelo tu non lo saresti mai.
Tra 72 fps e 112 fps c'è un abisso in termini di fluidità. Altrochè 15 ms.
Io non credo che tu sia obiettivo onestamente, perchè ora le tue affermazioni rasentano la follia.

Quoto, FG è una cosa eccezionale e ci si lamenta pure, boh...

Piuttosto bisognerebbe lamentarsi con quel maledetto di Giacchetta che non supporta le 2000/3000.

Therinai
29-12-2023, 16:25
fg è il frame2 generato dalle informazioni del frame1 e frame3 (di qui la latenza)

si senza cap sei li come consumi, esempio cyberpunk nativo max 25fps 415w vs nativo+fg 42fps 400w, siamo li.

con dlss è meno gravoso sui consumi anche senza cap perchè renderizzi proprio a una risoluzione inferiore.

Sei la seconda persona oggi che risponde evasivamente (o meglio non risponde) allo stesso quesito... siamo sicuri di aver capito come funziona frame generator? E a scanso di equivoci non è una polemica, vorrei capire come funziona questa roba.
Quel che è certo è che posso combinare DLSS e cap al framerate per limitare il consumo della scheda.
Con FG invece non è chiaro come questo avvenga.
marbasso suggerisce di regolare il PL con lo stesso scopo, vediamo che altro salta fuori.

amon.akira
29-12-2023, 16:33
Sei la seconda persona oggi che risponde evasivamente (o meglio non risponde) allo stesso quesito... siamo sicuri di aver capito come funziona frame generator? E a scanso di equivoci non è una polemica, vorrei capire come funziona questa roba.
Quel che è certo è che posso combinare DLSS e cap al framerate per limitare il consumo della scheda.
Con FG invece non è chiaro come questo avvenga.
marbasso suggerisce di regolare il PL con lo stesso scopo, vediamo che altro salta fuori.

non ho capito dov'è l evasività, se parli del mio primo esempio è scritto tutto corretto, se hai display a 120hz e fai già 120fps senza fg, attivandolo consumi meno perchè renderizzi meno frame nel rapporto che ti ho detto prima.
se non hai cap frame sei praticamente li come consumi come ti ho detto nell esempio di cyberpunk nativo 25fps 415w vs nativo+fg 42fps 400w

marbasso
29-12-2023, 16:43
non sono pratico di power limit, ha la stessa precisione di un CAP al framerate?
Cioé se voglio andare a 60 posso impostare il PL per andare a 60 FPS e se coglio andare a 144 posso impostarlo per cappare a 144 fps?

mettiamo che faccio in raster 100fps.
attivo il dlss + fg e ne faccio 130 ipoteticamente.
ho un margine di 30fps per far consumare meno la scheda o cappando il pl o facendo una curva ad oc in undervolt con afterburner (che cmq al minimo voltaggio consumi sempre di più che con un pl pesante, col pl hai più margine)
Io metto il pl che so (devi fare alcune prove x ritrovarti con gli fps ma è presto fatto) al 60%.
dai 100fps che avevo in raster passo a 70fps (sempre per farla semplice).
Attivo il dlss + fg che mi riporta a 100fps ma col pl al 60% invece di consumare 380W ne consumo 250w.
Ho semplificato quanto potevo. Non prendete i valori come perfettamente reali.
Calcola che io arrivo a consumare in certi giochi 200w con la 4090 giocando benissimo.
E questo perchè la 4090 è un Trituratore industriale.

Therinai
29-12-2023, 16:56
non ho capito dov'è l evasività, se parli del mio primo esempio è scritto tutto corretto, se hai display a 120hz e fai già 120fps senza fg, attivandolo consumi meno perchè renderizzi meno frame nel rapporto che ti ho detto prima.
se non hai cap frame sei praticamente li come consumi come ti ho detto nell esempio di cyberpunk nativo 25fps 415w vs nativo+fg 42fps 400w

Allora vediamo se ho capito bene... la mia scheda in u ndeterminato gioco renderizza 110 FPS, ma a me non servono, mi accontento di 90, quindi imposto un CAP da driver a 90 FPS per codesto giuoco. E già che ci sono attivo frame generator. A questo punto la scheda renderizza meno di 90 fps grazie a FG e di conseguenza consuma meno? (tra l'altro in questo scenario già avrebbe risparmiato per il solo cap al framerate, in più combino il FG per ulteriore gain)

Therinai
29-12-2023, 16:59
mettiamo che faccio in raster 100fps.
attivo il dlss + fg e ne faccio 130 ipoteticamente.
ho un margine di 30fps per far consumare meno la scheda o cappando il pl o facendo una curva ad oc in undervolt con afterburner (che cmq al minimo voltaggio consumi sempre di più che con un pl pesante, col pl hai più margine)
Io metto il pl che so (devi fare alcune prove x ritrovarti con gli fps ma è presto fatto) al 60%.
dai 100fps che avevo in raster passo a 70fps (sempre per farla semplice).
Attivo il dlss + fg che mi riporta a 100fps ma col pl al 60% invece di consumare 380W ne consumo 250w.
Ho semplificato quanto potevo. Non prendete i valori come perfettamente reali.
Calcola che io arrivo a consumare in certi giochi 200w con la 4090 giocando benissimo.
E questo perchè la 4090 è un Trituratore industriale.

Ok ma non è più semplice impostare un cap al framerate? Con quello non devo fare calcoli, decido un numero preciso e quello ho come output, e la scheda di conseguenza consuma meno.

OrazioOC
29-12-2023, 17:00
https://videocardz.com/newz/nvidia-geforce-rtx-4080-super-to-feature-23-gbps-gddr6x-memory-full-rtx-40-super-specs-leaked

Peccato per le mem 21gbps sulla 4070 ti super. :rolleyes:

marbasso
29-12-2023, 17:00
Allora vediamo se ho capito bene... la mia scheda in u ndeterminato gioco renderizza 110 FPS, ma a me non servono, mi accontento di 90, quindi imposto un CAP da driver a 90 FPS per codesto giuoco. E già che ci sono attivo frame generator. A questo punto la scheda renderizza meno di 90 fps grazie a FG e di conseguenza consuma meno? (tra l'altro in questo scenario già avrebbe risparmiato per il solo cap al framerate, in più combino il FG per ulteriore gain)

Questo discorso fallo con SALFOX sarà super esaustivo sul frame cap ed il risparmio di watt e calore.

Therinai
29-12-2023, 17:03
Questo discorso fallo con SALFOX sarà super esaustivo sul frame cap ed il risparmio di watt e calore.

Cos'è SALFOX? Basta con questi termini tecnici, già non si capisce una fava ormai

Saturn
29-12-2023, 17:04
Cos'è SALFOX? Basta con questi termini tecnici, già non si capisce una fava ormai

Dovrebbe essere un utente del forum...:stordita:

OrazioOC
29-12-2023, 17:06
Cos'è SALFOX? Basta con questi termini tecnici, già non si capisce una fava ormai

https://www.hwupgrade.it/forum/member.php?u=540755

Bel... :asd:

ColdWarGuy
29-12-2023, 17:06
Ok ma se un pixel ci mette 20 ms a cambiare colore tu l'immagine cmq la vedi con un ritardo . Finche non cambia colore non la vedi.è cmq latenza.

Il difetto provocato/percepito con il pixel lento non è il lag ma il blur perchè il ritardo è distribuito in modo parecchio disuniforme sullo schermo, il videogiocatore muove il mouse e vede la maggior parte dello schermo muoversi più o meno subito (a seconda del parametro del LAG) mentre le aree dove hai i valori di transizione più svantaggiosi producono scie.

IL LAG di risposta che da fastido al gamer "veloce" e ne inficia la prestazione riguarda l'intera immagine e deriva dal processing del frame della sezione digitale del pannello, esistono casistiche dove un monitor eccelle in un paramtro e defice nell'altro.

Esempio l'MSI G27CQ4, che posseggo, è ottimo come LAG percepito (e misurato) ma blurra parecchio nelle aree di transizione chiaro/scuro come la maggior parte dei VA, vedi Dark Total Response Time mediocre :

https://i.postimg.cc/VkGXYfRr/Gresp.png

e nel contempo ottimi valori di LAG :

https://i.postimg.cc/xdXpQFKQ/Glag.png

fonte : https://www.rtings.com/monitor/reviews/msi/optix-g27cq4

Io con questo monitor non ho mai percepito senso di LAG ma ho spesso notato il blur anche solo scrollando una pagina web scura con scritte chiare.

Pixel response e image LAG sono due parametri differenti che riguardano aspetti differenti, i fastidi procurati da valori pessimi di uno o dell'altro non sono necessariamente subiti allo stesso modo, io ad esempio posso digerire del blur selettivo ma sopporto ZERO il lag, anche in giochi non necessariamente veloci.

Conosco invece gente che al minimo cenno di blur fa una tragedia ma nel contempo non distingue un pannello con un LAG da 5ms da uno con 50ms, inutile dire che nei giochi d'azione vanno molto poco lontano :D .

marbasso
29-12-2023, 17:06
https://videocardz.com/newz/nvidia-geforce-rtx-4080-super-to-feature-23-gbps-gddr6x-memory-full-rtx-40-super-specs-leaked

Peccato per le mem 21gbps sulla 4070 ti super. :rolleyes:

Ma non possono salire in oc come quelle della 4090?

amon.akira
29-12-2023, 17:08
Allora vediamo se ho capito bene... la mia scheda in u ndeterminato gioco renderizza 110 FPS, ma a me non servono, mi accontento di 90, quindi imposto un CAP da driver a 90 FPS per codesto giuoco. E già che ci sono attivo frame generator. A questo punto la scheda renderizza meno di 90 fps grazie a FG e di conseguenza consuma meno? (tra l'altro in questo scenario già avrebbe risparmiato per il solo cap al framerate, in più combino il FG per ulteriore gain)

esatto, se hai cap 90 senza fg ne renderizzi 90, con fg meno quindi consumi meno

marbasso
29-12-2023, 17:08
Cos'è SALFOX? Basta con questi termini tecnici, già non si capisce una fava ormai

Si è un utente LOL.
Lui per scelta gioca con 4090 e 13900 con cap a 60hz. Ed è contento così.
Credo che nessuno più di lui possa parlare di risparmio energetico con una 4090.
Be a volte con 200w anche io non scherzo :D

Therinai
29-12-2023, 17:09
Dovrebbe essere un utente del forum...:stordita:

https://www.hwupgrade.it/forum/member.php?u=540755

Bel... :asd:

Si è un utente LOL.
Lui per scelta gioca con 4090 e 13900 con cap a 60hz. Ed è contento così.
Credo che nessuno più di lui possa parlare di risparmio energetico con una 4090.
Be a volte con 200w anche io non scherzo :D


Dai regà almeno su questo stavo scherzando :asd:

OrazioOC
29-12-2023, 17:12
Ma non possono salire in oc come quelle della 4090?

Sulla carta si, anche se avesse gli stessi moduli della 4080 potrebbe garantire almeno 22.4gbps. :)

Therinai
29-12-2023, 17:18
esatto, se hai cap 90 senza fg ne renderizzi 90, con fg meno quindi consumi meno

ok ok se funziona così si può ragionare su una tripla combo DLSS + FG + FPS CAP ... solo che FG per funzionare bene richiede una base di partenza (frames renderizzati) alta, tipo almeno 60 mi pare di aver capito, e per come gioco io non troverebbe margine di utilizzo, insomma cappo a 60 fps di norma perché non so che farmene di un framerate maggiore.
Quindi personalmente penso che non userò FG, per il poco che vale mi risparmio la latenza introdotta.
Lo userei se potessi fare un discorso del tipo cappare i frames renderizzati a 60 e aggiungine quanto puoi con FG, ma da quanto ho capito ora non si riesce a fare un discorso del genere.

marbasso
29-12-2023, 17:35
Nuovi driver 546.34 con supporto alla 4090D

amon.akira
29-12-2023, 17:37
ok ok se funziona così si può ragionare su una tripla combo DLSS + FG + FPS CAP ... solo che FG per funzionare bene richiede una base di partenza (frames renderizzati) alta, tipo almeno 60 mi pare di aver capito, e per come gioco io non troverebbe margine di utilizzo, insomma cappo a 60 fps di norma perché non so che farmene di un framerate maggiore.
Quindi personalmente penso che non userò FG, per il poco che vale mi risparmio la latenza introdotta.
Lo userei se potessi fare un discorso del tipo cappare i frames renderizzati a 60 e aggiungine quanto puoi con FG, ma da quanto ho capito ora non si riesce a fare un discorso del genere.

la prima cozza con la seconda :D

cmq calcola un ordine del +60% con fg, potresti cappare a 100 e avere una 60ina di frame renderizzati.

Therinai
29-12-2023, 17:51
la prima cozza con la seconda :D

cmq calcola un ordine del +60% con fg, potresti cappare a 100 e avere una 60ina di frame renderizzati.

Beh, se i frames soo gratis le cose non cozzano. A cozzare è il non poter definire esattamente cosa è renderizzato e cosa è introdotto.
Sai come sono i videogiochi, non esiste un vero framerate medio, il frames generati cambiano di continuo, in un punto ne faccio 60, mi giro e ne faccio 45, vado a vanti e ne faccio 75... così diventa difficile giocherellare con FG o Pl.
Con il cap al framerate invece è molto più semplice, setto il gioco per andare come minimo a 50, lo cappo a 60 e vivo felice, il resto lo fa freesync.
E parlo dei mattoni ovviamente, roba tipo AW2 e CP2077, i giochi normali li maxo e basta, ma i giochi normali non hanno frame generator.
Tipo ora come giochi che potrebbero macinare tanti frames sto giocando Jurassic World 2 e Metro exodus... con questi potrei giocherellare con FG a seguito dei chiarimenti che mi avete dato, e viaggiare bellamente a 90 FPS, ma non c'è l'opzione.

amon.akira
29-12-2023, 18:01
Beh, se i frames soo gratis le cose non cozzano. A cozzare è il non poter definire esattamente cosa è renderizzato e cosa è introdotto.
Sai come sono i videogiochi, non esiste un vero framerate medio, il frames generati cambiano di continuo, in un punto ne faccio 60, mi giro e ne faccio 45, vado a vanti e ne faccio 75... così diventa difficile giocherellare con FG o Pl.
Con il cap al framerate invece è molto più semplice, setto il gioco per andare come minimo a 50, lo cappo a 60 e vivo felice, il resto lo fa freesync.
E parlo dei mattoni ovviamente, roba tipo AW2 e CP2077, i giochi normali li maxo e basta, ma i giochi normali non hanno frame generator.
Tipo ora come giochi che potrebbero macinare tanti frames sto giocando Jurassic World 2 e Metro exodus... con questi potrei giocherellare con FG a seguito dei chiarimenti che mi avete dato, e viaggiare bellamente a 90 FPS, ma non c'è l'opzione.

provare comunque non costa nulla, la scheda ce l hai :P

ti dico solo che a parità di fps è molto difficile accorgersene in un blindtest

Ale55andr0
29-12-2023, 18:05
https://videocardz.com/newz/nvidia-geforce-rtx-4080-super-to-feature-23-gbps-gddr6x-memory-full-rtx-40-super-specs-leaked

Peccato per le mem 21gbps sulla 4070 ti super. :rolleyes:

e che volevi, direttamente la 4080 a quel punto? :D

672gb/s + cache veloce non sono mica pochi

Therinai
29-12-2023, 18:13
provare comunque non costa nulla, la scheda ce l hai :P

ti dico solo che a parità di fps è molto difficile accorgersene in un blindtest

Ma non ciò voglia di fare test seri, per questo stalkero te e gli altri utenti per avere risposte :D (a proposito, grazie ;) )
Avevo provato giusto con AW2, ma in un contesto in cui ho spinto molto sulla grafica a discapito del framerate, e in questa situazione FG non mi ha dato una buona impressione.

Maury
29-12-2023, 18:22
Il cap con il FG di nVidia si puó mettere con soddisfazione ?

Con la mod per Ampere si puó attivare ma non usare davvero, balbetta tutto, obbligatorio disattivarlo

fraussantin
29-12-2023, 18:25
Il cap con il FG di nVidia si puó mettere con soddisfazione ?



Con la mod per Ampere si puó attivare ma non usare davvero, balbetta tutto, obbligatorio disattivarloProvs a metterlo da gioco o da driver.

Se lo metti con topl esterni o vsync funziona da schifo.

Maury
29-12-2023, 18:27
Provs a metterlo da gioco o da driver.

Se lo metti con topl esterni o vsync funziona da schifo.

Ho provato sia da driver che da gioco, senza successo.

OrazioOC
29-12-2023, 18:28
e che volevi, direttamente la 4080 a quel punto? :D

672gb/s + cache veloce non sono mica pochi

Non mi sembra di pretendere la luna in 1000 euro di gpu. ;)

Ale55andr0
29-12-2023, 18:35
Non mi sembra di pretendere la luna in 1000 euro di gpu. ;)

1000? naaa

amon.akira
29-12-2023, 18:42
Non mi sembra di pretendere la luna in 1000 euro di gpu. ;)

c'è chi ne ha spesi 2000 e ha le 21gbps :D

Freisar
29-12-2023, 18:45
:stordita: ma fanno anche una 4090 super?

Therinai
29-12-2023, 18:57
Non mi sembra di pretendere la luna in 1000 euro di gpu. ;)

Ma se una 4070ti custom costa adesso quasi 1000€ cosa ti aspetti... nella migliore della ipotesi 4070ti SUPER custom buona a 1100 a scaffale.
E giusto per lo specifico caso 4070ti mi aspetto un lieve ribasso, per il resto i prezzi rimarranno invariati e le nuove super si andranno a posizionare nei buchi lasciati dall'attuale linea.

OrazioOC
29-12-2023, 19:05
Ma se una 4070ti custom costa adesso quasi 1000€ cosa ti aspetti... nella migliore della ipotesi 4070ti SUPER custom buona a 1100 a scaffale.
E giusto per lo specifico caso 4070ti mi aspetto un lieve ribasso, per il resto i prezzi rimarranno invariati e le nuove super si andranno a posizionare nei buchi lasciati dall'attuale linea.

Queste schede(4070 super e 4070 ti super) hanno il compito di portare le performance(ovviamente qualcosina in meno, ma non ci andremo tanto distanti sopratutto a parità di frequenze sul core/memorie) di 4070 ti e 4080 a prezzi più calmierati.
Ada è arrivata a metà del suo ciclo di vita, gli early adopters sono finiti, se vogliono vendere queste schede devono convincere i possessori delle vecchie RTX 2000/3000 a fare il passo, e lo faranno prezzando a 2/300 euro in meno una simil 4080. ;)

mikael84
29-12-2023, 19:13
https://videocardz.com/newz/nvidia-geforce-rtx-4080-super-to-feature-23-gbps-gddr6x-memory-full-rtx-40-super-specs-leaked

Peccato per le mem 21gbps sulla 4070 ti super. :rolleyes:

CVD, mettono chiaramente le 21.
Cmq, la micron, malgrado le abbia a listino da anni, non riesce ancora a fornire 24 gb/s puri.
Ecco che anche con le g7, ci andrei cauto anche sui 32.:p

non ho capito dov'è l evasività, se parli del mio primo esempio è scritto tutto corretto, se hai display a 120hz e fai già 120fps senza fg, attivandolo consumi meno perchè renderizzi meno frame nel rapporto che ti ho detto prima.
se non hai cap frame sei praticamente li come consumi come ti ho detto nell esempio di cyberpunk nativo 25fps 415w vs nativo+fg 42fps 400w

mettiamo che faccio in raster 100fps.
attivo il dlss + fg e ne faccio 130 ipoteticamente.
ho un margine di 30fps per far consumare meno la scheda o cappando il pl o facendo una curva ad oc in undervolt con afterburner (che cmq al minimo voltaggio consumi sempre di più che con un pl pesante, col pl hai più margine)
Io metto il pl che so (devi fare alcune prove x ritrovarti con gli fps ma è presto fatto) al 60%.
dai 100fps che avevo in raster passo a 70fps (sempre per farla semplice).
Attivo il dlss + fg che mi riporta a 100fps ma col pl al 60% invece di consumare 380W ne consumo 250w.
Ho semplificato quanto potevo. Non prendete i valori come perfettamente reali.
Calcola che io arrivo a consumare in certi giochi 200w con la 4090 giocando benissimo.
E questo perchè la 4090 è un Trituratore industriale.

La questione del FG è semplice.
Il FG è slegato dalla pipeline grafica, ma se ne occupano gli OFA , che secondo JHH, è il motivo (non vero) per cui non girerebbe su Ampere.
Gli OFA incaricati di eseguire il FG, forniscono alla rete neurale la direzione e la velocità dei pixel da un fotogramma all'altro. Queste coppie di fotogrammi del gioco, insieme alla geometria e ai vettori di movimento dei pixel, vengono immesse in una rete neurale che genera le immagini intermedie.

Vengono dichiarati con un ratio di 300TOPS (tera operazioni al secondo), quasi 3 volte quelli di ampere, un dato molto elevato.

Quindi cappando a tot, frame, parte del frame creato è dato dalle OFA, sgravando la pipeline grafica, quindi crolla l'usage e consuma meno.
Anzichè 60fps nativi, avrò 40 rendering + 20 OFA.:)

Therinai
29-12-2023, 19:14
Queste schede(4070 super e 4070 ti super) hanno il compito di portare le performance(ovviamente qualcosina in meno, ma non ci andremo tanto distanti sopratutto a parità di frequenze sul core/memorie) di 4070 ti e 4080 a prezzi più calmierati.
Ada è arrivata a metà del suo ciclo di vita, gli early adopters sono finiti, se vogliono vendere queste schede devono convincere i possessori delle vecchie RTX 2000/3000 a fare il passo, e lo faranno prezzando a 2/300 euro in meno una simil 4080. ;)

https://media1.tenor.com/m/Vb_DMqhFRXYAAAAC/atg-capa.gif

Guarda se si abbassa il prezzo delle versioni lisce ne sarei SUPER felice, ma è irrealistico, e anche se succedesse sarebbe tipo qualche decina di euro in meno.

OrazioOC
29-12-2023, 19:16
Guarda se si abbassa il prezzo delle versioni lisce ne sarei SUPER felice, ma è irrealistico, e anche se succedesse sarebbe tipo qualche decina di euro in meno.

Beh le lisce tra poco saranno in EOL, quindi non è che abbiano troppa scelta, o calano i prezzi o non le vendono. :)

Therinai
29-12-2023, 19:29
La questione del FG è semplice.
Il FG è slegato dalla pipeline grafica, ma se ne occupano gli OFA , che secondo JHH, è il motivo (non vero) per cui non girerebbe su Ampere.
Gli OFA incaricati di eseguire il FG, forniscono alla rete neurale la direzione e la velocità dei pixel da un fotogramma all'altro. Queste coppie di fotogrammi del gioco, insieme alla geometria e ai vettori di movimento dei pixel, vengono immesse in una rete neurale che genera le immagini intermedie.

Vengono dichiarati con un ratio di 300TOPS (tera operazioni al secondo), quasi 3 volte quelli di ampere, un dato molto elevato.

Quindi cappando a tot, frame, parte del frame creato è dato dalle OFA, sgravando la pipeline grafica, quindi crolla l'usage e consuma meno.
Anzichè 60fps nativi, avrò 40 rendering + 20 OFA.:)

Ok grazie per l'ulteriore spiegazione e l'ulteriore introduzione di acronimi dall'infimo valore (non è una tua colpa chiaramente :D ).
Comunque anche questa spiegazione maggiormente dettagliata non mi spiega con che criterio quantitativo fengoono generati frames da FG.
In generale, da quanto ho capito, vale la regola della non prevedibilità, non posos sapere esattamente quanti frames vengono renderizzati dalla scheda, quindi riuscirei ad applicare efficacemente il frame generator in un contesto di risparmio solo con i giochi che già fanno frames a palate.
Ciò si contrappone al cap del framerate, che invece è prevedibile, essendo un limite preciso ai frames generati.
Perché c'è il discorso che frame generator funziona bene solo a partire da framerate elevati, non ho capito esattamente quanti, facciamo 60... ma se taro i settings grafici per andare a 60 di sicuro ogni tanto renderizzerò di meno, anche 45, anche 40 se il gioco vuole, e lì gioco di merda con FG attivo.

Therinai
29-12-2023, 19:31
Beh le lisce tra poco saranno in EOL, quindi non è che abbiano troppa scelta, o calano i prezzi o non le vendono. :)

certo, come le 30XX e quelle precedenti ;)
Hai già le risposte a questo tema...

eXeS
29-12-2023, 19:37
certo, come le 30XX e quelle precedenti ;)
Hai già le risposte a questo tema...
Quanto avevi pagato la tua?

fraussantin
29-12-2023, 19:40
Beh le lisce tra poco saranno in EOL, quindi non è che abbiano troppa scelta, o calano i prezzi o non le vendono. :)Piu facile che tengano alto il prezzo delle super finche non finiscono.

Mossa plausibile visto l'andazzo e i margini risicati .

fraussantin
29-12-2023, 19:45
CVD, mettono chiaramente le 21.

Cmq, la micron, malgrado le abbia a listino da anni, non riesce ancora a fornire 24 gb/s puri.

Ecco che anche con le g7, ci andrei cauto anche sui 32.:p











La questione del FG è semplice.

Il FG è slegato dalla pipeline grafica, ma se ne occupano gli OFA , che secondo JHH, è il motivo (non vero) per cui non girerebbe su Ampere.

Gli OFA incaricati di eseguire il FG, forniscono alla rete neurale la direzione e la velocità dei pixel da un fotogramma all'altro. Queste coppie di fotogrammi del gioco, insieme alla geometria e ai vettori di movimento dei pixel, vengono immesse in una rete neurale che genera le immagini intermedie.



Vengono dichiarati con un ratio di 300TOPS (tera operazioni al secondo), quasi 3 volte quelli di ampere, un dato molto elevato.



Quindi cappando a tot, frame, parte del frame creato è dato dalle OFA, sgravando la pipeline grafica, quindi crolla l'usage e consuma meno.

Anzichè 60fps nativi, avrò 40 rendering + 20 OFA.:)Però , a parte le bugie del pinocchio in giacca di pelle a cui ormai siamo abituati , fg che sta girando su ampere è quello di amd se non ho capito male, quindi il metodo di nvidia rimane cmq legato alle ada.

Poi che non cambi nulla è chiaro , il frame è talmente veloce che non serve tutta sta precisione per dare un risultato ottimale ,quello che conta è tenere la latenza piu bassa possibile e mi pare che amd ci sia riuscita lo stesso.

Negli anni 70 andava di moda infilare frame con messaggi satanici , o di condizionamento mentale ( inutili ovviamente) e nessuno se ne accorgeva , figurati un frame simile a 2 originali.

OrazioOC
29-12-2023, 19:51
certo, come le 30XX e quelle precedenti ;)
Hai già le risposte a questo tema...

Non mi sembra, visto che le 3000 sono andate in EOL solo con Ada ma avevano ricevuto cali vistosi mesi prima di vedere ada in giro(es. 3060 ti a metà 2022 era una gpu da 500 euro, mentre prima dell'uscita delle 4070 era già già diventata una gpu da 350).
Se vuoi venderle ste schede devi ingolosire in qualche modo l'utenza finale, come nvidia fece nel 2019 con le varie 2060/70/80 super. :)

Piu facile che tengano alto il prezzo delle super finche non finiscono.

Mossa plausibile visto l'andazzo e i margini risicati .

Ha senso giusto nelle prime settimane, poi le disponibilità aumentano e gli street price faranno il loro corso(chi spende 850/900 euro per una 4070 ti, quando tra un mese si troverà la 4070 super a 700/750 euro?). :)

Dono89
29-12-2023, 21:03
Ma parlando di cose serie...della 5070 si sa nulla? C'è speranza che nvidia (per una questione di prezzo) si appoggi nuovamente a Samsung?