PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 [387] 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

nessuno29
13-04-2023, 09:49
Comunque continuate a paragonare il FG al DLSS 2 (che poi il DLSS 3 nelle features di upscaling lo ha anche ampere e turing) ma mentre il DLSS 2 non generava artefatti il FG si e ne genera tanti più quanti pochi sono gli FPS nativi.

magari tra due generazioni di gpu sarà perfetto ma tra il fatto che è poco supportato e il fatto che la 4070 è poco potente, giocare a 60fps finali con FG e DLSS vuol dire giocare comunque con artefatti a video. Io a quel punto preferirei 30 nativi con DLSS e basta

Comunque tolto il discorso che ad oggi comprare una 3080 anche da 12gb non ha senso, pure questa 4070 a me darebbe l'impressione di un acquisto fatto regalando i soldi, ma non perché la scheda ha il bus salcazzi e un numero di Cuda X ma perché se la 3080 andava 10 a prezzo 10, la 4070 sarebbe dovuta andare 12 a prezzo 6 o giù di li (come è stato fino ad oggi no ? )
Esatto quello che ho detto io poco fa, si da per scontato che il FG abbia la stessa qualità del dlss 2-3 ma non è così. La qualità di gioco ne risente, aumenta la latenza, aumentano gli artefatti e si riduce la qualità d'immagine specialmente se si parte da frame bassi.

StylezZz`
13-04-2023, 10:10
Eh non esageriamo, son passati 7 mesi dalla presentazione di Ada e ne dovranno passare almeno altri 17 per le 5000. la gen è ancora lunga, ma come dici ampere ancora tiene botta

Il punto è che in 17 mesi quanti giochi vedrai ai livelli di CP77 con overdrive che richiederanno l'uso del DLSS+FG per restare sui 60fps a 1440p? Dipendiamo sempre dalle console, i giochi più pesanti saranno pessimi porting al dayone che nel 99% dei casi verranno fixati.

X360X
13-04-2023, 10:17
Ma assolutamente, anche AMD sta lavorando a interpolare frames coi guadagni e le conseguenze che comporta, vedremo i risultati non credo tra chissà quanto.

però ad oggi "creare altri frames" è una cosa IN PIU delle sole 4000, che insieme a più VRAM (perché le 3080 non sono per lo più da 12 di certo) e un consumo inferiore non la fanno di certo una cattiva VGA da qhd non costasse quel prezzo, anzi

Goofy Goober
13-04-2023, 10:22
Il punto è che in 17 mesi quanti giochi vedrai ai livelli di CP77 con overdrive che richiederanno l'uso del DLSS+FG per restare sui 60fps a 1440p? Dipendiamo sempre dalle console, i giochi più pesanti saranno pessimi porting al dayone che nel 99% dei casi verranno fixati.

Ma, soprattutto, se giochi simil CP77 (RT, DLSS3 etc) che eventualmente usciranno non saranno di interesse, un bel "esticaxxi" non ce lo mettiamo?

Ancora oggi vedere che "the new Crysis" diventa improvvisamente il gioco a cui tutti debbono giocare solo perchè hanno un pc da gioco, mi fa sorridere e fa venire il dubbio che in tanti trattino il videogioco su pc come un benchmark tecnico piuttosto che quel che è nella normalità dei fatti, ossia appunto, un videogioco.

ninja750
13-04-2023, 10:23
Le gpu da full hd sono altre, di certo non la 3080. :asd:

Già si starebbe larghi con una 3070 detta onestamente. :rolleyes:

in altri thread è stato appena scritto che la 3070 è da 1080p e nemmeno maxati :O

Tu dici? Se consideriamo che è una 4060, è esattamente come chi prendeva una 3060 12GB a 700€ in piena pandemia, solo che questa volta te la vende direttamente nvidia e non qualche scalper.

questo ce lo ripetevamo durante la pandemia "con tutta sta gente che compra vga sovraprezzate vedrete che nvidia la prossima gen le venderà direttamente lei a quei prezzi" stranamente si è avverato :eek:

Esatto quello che ho detto io poco fa, si da per scontato che il FG abbia la stessa qualità del dlss 2-3 ma non è così. La qualità di gioco ne risente, aumenta la latenza, aumentano gli artefatti e si riduce la qualità d'immagine specialmente se si parte da frame bassi.

Giocare a 60 frame con dlss2 o 60 frame con dlss3 e frame generation non è la stessa cosa! Il feeling è diverso e la qualità è diversa, non capisco perché date per scontato che non ci sia un calo della qualità di gioco

ascoltate le considerazioni finali di hardware unboxed che dice sostanzialmente che non icluderà mai (come fa invece nvidia) nei suoi grafici i risultati ottenuti con FG per i motivi che appunto hai scritto

ma stai pur tranquillo che tutte le slide che usciranno avranno sempre più in piccolo la scritta "dlss3" e nessuno ci farà più caso se non piccolo dettaglio che quando usciranno le 5000 anche loro avranno il FG e il giochino del rialzo prezzi causa barrette colorate verdi non funzionerà più

X360X
13-04-2023, 10:35
Ma, soprattutto, se giochi simil CP77 (RT, DLSS3 etc) che eventualmente usciranno non saranno di interesse, un bel "esticaxxi" non ce lo mettiamo?

Ancora oggi vedere che "the new Crysis" diventa improvvisamente il gioco a cui tutti debbono giocare solo perchè hanno un pc da gioco, mi fa sorridere e fa venire il dubbio che in tanti trattino il videogioco su pc come un benchmark tecnico piuttosto che quel che è nella normalità dei fatti, ossia appunto, un videogioco.

Bè e allora il 5800X3D? Dovrebbero stare tutti con la 4090 in qhd o in fullhd con warzone per dargli un senso :asd:
forum di tecnologia, gente che compra tecnologia e fa anche benchmark, basta non scambiare la malaottimizzazione tipo il filmone ottimizzato probabilmente dagli stessi zombie del gioco con reali novità tecniche come il full ray tracing appena inserito in cyberpunk (che non muori se non lo usi, ma se pesa ha un perché).

la 4070 comunque nemmeno è una "novità", è la VGA che riprende la 3080 come una 3060Ti riprendeva all'epoca una 2080 Super, con cose in più. Col difetto che si chiama x70 invece di x60 e non costa 400 euro :asd:

OrazioOC
13-04-2023, 10:46
Ora finalmente ho chiuso il cerchio ho le due top di questa generazione, 4090 ed oggi ho shoppato la 4080, appena mi arriva test a manetta 4090 FE vs 4080 Fe:D


https://i.ibb.co/JKbx4Xm/bvx.jpg (https://ibb.co/JKbx4Xm)

1)Beato te. :asd:
2)Personalmente non avrei preso la fe, è un parto da disassemblare e certe custom si difendono bene costando anche qualcosa in meno.

Ubro92
13-04-2023, 10:55
Bè e allora il 5800X3D? Dovrebbero stare tutti con la 4090 in qhd o in fullhd con warzone per dargli un senso :asd:
forum di tecnologia, gente che compra tecnologia e fa anche benchmark, basta non scambiare la malaottimizzazione tipo il filmone ottimizzato probabilmente dagli stessi zombie del gioco con reali novità tecniche come il full ray tracing appena inserito in cyberpunk (che non muori se non lo usi, ma se pesa ha un perché).

la 4070 comunque nemmeno è una "novità", è la VGA che riprende la 3080 come una 3060Ti riprendeva all'epoca una 2080 Super, con cose in più. Col difetto che si chiama x70 invece di x60 e non costa 400 euro :asd:

Ma il 5800x3d ha senso anche con una 3060ti/3070 migliora molto la fluidità, aldilà del frame massimo e minimo.

Poi è una cpu con cui sei apposto per anni, cioè non prendi una 4090 oggi, ma già una 5070 gli sarà vicina, quindi almeno 3-4 anni se li fa tranquilli.

Per il resto c'è anche da giocare con le impostazioni, molti giochi mi sembrano più dei benchmark che dei giochi veri e propri, alcuni set grafici non portano benefici effettivi stanno li quasi solo per ammazzare il frame.

E anche le texture spesso vengono semplicemente upscalate ma già di base non è che abbiano chissà che dettaglio.

Io ricordo giochi come Ryse of Rome che con poco più di 3gb di vram avevano texture dettagliate, e una qualità visiva anche migliore di alcuni mattonazzi recenti.

EffeX
13-04-2023, 10:56
La scelta era tra questa e la rog strix oc, le altre custom non mi piacciono.:D

Io son sempre stato un'amante dei reference design tant'è che ho tenuto la RTX 2070 FE, la GTX 980, ecc, però la 4090 e la 4080 son bruttine da vedere, troppo spesse, sembrano mattoni, personalmente, visto il costo a cui son proposte, avrei preferito un aio integrato e schede più "snelle".

StylezZz`
13-04-2023, 11:00
Poi è una cpu con cui sei apposto per anni, cioè non prendi una 4090 oggi, ma già una 5070 gli sarà vicina, quindi almeno 3-4 anni se li fa tranquilli

Dobbiamo dire grazie se la prossima 5070 si avvicinerà alla 4070 Ti.

Ubro92
13-04-2023, 11:07
Dobbiamo dire grazie se la prossima 5070 si avvicinerà alla 4070 Ti.

Un pò esagerato, può non prendere una 4090, ma almeno AD103 lo prende sicuro, anche perchè a questo giro le fasce sono state translate, con blackwell dovranno per forza rivedere tutto poichè non hai il lusso di quasi due salti di nodo e di certo anche i clock non saranno cosi lontani dagli attuali.

Sicuramente la 5070 non sarà un chippetto da 295mm2 ma più grosso.

DJurassic
13-04-2023, 11:09
1)Beato te. :asd:
2)Personalmente non avrei preso la fe, è un parto da disassemblare e certe custom si difendono bene costando anche qualcosa in meno.

Questo perchè sono costruite decisamente meglio di tutte le custom che trovi oggi sul mercato. Io poi mi ci sono divertito a fare il teardown quando l'ho liquidata e non è stato per nulla complicato se si hanno gli strumenti giusti.

Ubro92
13-04-2023, 11:13
Questo perchè sono costruite decisamente meglio di tutte le custom che trovi oggi sul mercato. Io poi mi ci sono divertito a fare il teardown quando l'ho liquidata e non è stato per nulla complicato se si hanno gli strumenti giusti.

Per i miei gusti la FE più bella era la 2080 Super con la parte cromata

mikael84
13-04-2023, 11:14
ascoltate le considerazioni finali di hardware unboxed che dice sostanzialmente che non icluderà mai (come fa invece nvidia) nei suoi grafici i risultati ottenuti con FG per i motivi che appunto hai scritto

ma stai pur tranquillo che tutte le slide che usciranno avranno sempre più in piccolo la scritta "dlss3" e nessuno ci farà più caso se non piccolo dettaglio che quando usciranno le 5000 anche loro avranno il FG e il giochino del rialzo prezzi causa barrette colorate verdi non funzionerà più

Naturale, hardware unboxed è in guerra con nvidia, ogni video è mirato a screditare la casa. Diciamo che ormai è una sorta di canale semiufficiale di AMD.:p

Cmq per me liberissimi di farlo, è brutto quando hai qualche diktat, se loro la vedono così, buon per loro. Fortunatamente è pieno di altre testate che ne parlano.

Ovviamente, spero di non vedere mai il FSR3 nei loro canali, altrimenti non sarebbe serietà.

Dobbiamo dire grazie se la prossima 5070 si avvicinerà alla 4070 Ti.

:asd:

Beh considerando che su cpubase, ha registrato un +23%, in altri +30 circa, probabilmente non sarà tanto meglio.

Cmq l'obbiettivo sarà almeno 4080, magari con qualche centone di MSRP in più.

Ubro92
13-04-2023, 11:21
Ma non ha senso non parlarne.
Anzi fare test approfonditi come spesso fa digital foundry ti permette di capire pro e contro in vari scenari di utilizzo.

Altra questione sull'FSR3 è anche la latenza, nvidia ha messo le pezze con il reflex ma anche amd dovrebbe integrare qualcosa di analogo al reflex, altrimenti parte del vantaggio si perde..

X360X
13-04-2023, 11:22
Ma il 5800x3d ha senso anche con una 3060ti/3070 migliora molto la fluidità, aldilà del frame massimo e minimo.

Poi è una cpu con cui sei apposto per anni, cioè non prendi una 4090 oggi, ma già una 5070 gli sarà vicina, quindi almeno 3-4 anni se li fa tranquilli.


Che sia un acquisto futuribile per non cambiar socket per un po' certamente, che faccia magie anche no. Dei giochi che ho installati nessuna CPU sarebbe in grado di migliorarmi la fluidità perché già vanno fissi a quanto devono andare col 5600X. Non è che ER mi passa da 60 fissi a 60 fissi più fluidi :sofico:

warzone per dire se ne avvantaggia decisamente anche con una 6700XT invece

StylezZz`
13-04-2023, 11:23
Un pò esagerato, può non prendere una 4090, ma almeno AD103 lo prende sicuro, anche perchè a questo giro le fasce sono state translate, con blackwell dovranno per forza rivedere tutto poichè non hai il lusso di quasi due salti di nodo e di certo anche i clock non saranno cosi lontani dagli attuali.

Sicuramente la 5070 non sarà un chippetto da 295mm2 ma più grosso.

Speriamo, ma non ci metterei la mano sul fuoco considerando anche l'attuale situazione con taiwan...potremmo anche non vederle queste schede :rolleyes:

Naturale, hardware unboxed è in guerra con nvidia, ogni video è mirato a screditare la casa. Diciamo che ormai è una sorta di canale semiufficiale di AMD.:p

Cmq per me liberissimi di farlo, è brutto quando hai qualche diktat, se loro la vedono così, buon per loro. Fortunatamente è pieno di altre testate che ne parlano.

Ovviamente, spero di non vedere mai il FSR3 nei loro canali, altrimenti non sarebbe serietà.

Quoto, basta vedere gli ultimi video dove screditano la 3070 facendo vedere TLOU (probabilmente nemmeno senza patch) scattare a 1080p a causa degli 8GB, quando io invece ci gioco a 1440p senza quei problemi...e lo stesso vale anche per altri giochi testati.

Hwunboxed era uno degli ultimi che seguivo che ritenevo affidabili, ma a quanto pare non ci si può fidare di nessuno utuber, ed è sempre meglio confrontarsi tra noi consumatori con le nostre prove dirette.

Goofy Goober
13-04-2023, 11:29
Bè e allora il 5800X3D? Dovrebbero stare tutti con la 4090 in qhd o in fullhd con warzone per dargli un senso :asd:
forum di tecnologia, gente che compra tecnologia e fa anche benchmark, basta non scambiare la malaottimizzazione tipo il filmone ottimizzato probabilmente dagli stessi zombie del gioco con reali novità tecniche come il full ray tracing appena inserito in cyberpunk (che non muori se non lo usi, ma se pesa ha un perché).

la 4070 comunque nemmeno è una "novità", è la VGA che riprende la 3080 come una 3060Ti riprendeva all'epoca una 2080 Super, con cose in più. Col difetto che si chiama x70 invece di x60 e non costa 400 euro :asd:

la verità sta nel mezzo, parlare realisticamente di videogiochi, con cui giocare, e di costi a cui sono giunte le gpu è una cosa, parlare di tecniche introdotte ai fini del realismo visivo e di come siano ben fatte, un altro.

le cpu mi piacerebbe se fossero più utili in futuro, quando, dal punto di vista di tecnica applicata al gameplay (e non alla cosmesi) potranno appoggiare calcoli necessari alle IA per generare NPC dai comportamenti più umani e auto-generati, o magari anche a calcoli dinamici e casuali sul mondo di gioco che rendano l'esperienza davvero unica e personalizzata, senza bisogno di ricorrere al multiplayer.

nessuno29
13-04-2023, 11:33
Quoto, basta vedere gli ultimi video dove screditano la 3070 facendo vedere TLOU (probabilmente nemmeno senza patch) scattare a 1080p a causa degli 8GB, quando io invece ci gioco a 1440p senza quei problemi...e lo stesso vale anche per altri giochi testati.

Hwunboxed era uno degli ultimi che seguivo che ritenevo affidabili, ma a quanto pare non ci si può fidare di nessuno utuber, ed è sempre meglio confrontarsi tra noi consumatori con le nostre prove dirette.

Io ho visto alcuni video dove le texture sulla 3070 fanno pietà, su forspoken ad esempio spero non capiterà in ogni gioco.

mikael84
13-04-2023, 11:36
Quoto, basta vedere gli ultimi video dove screditano la 3070 facendo vedere TLOU (probabilmente nemmeno senza patch) scattare a 1080p a causa degli 8GB, quando io invece ci gioco a 1440p senza quei problemi...e lo stesso vale anche per altri giochi testati.

Hwunboxed era uno degli ultimi che seguivo che ritenevo affidabili, ma a quanto pare non ci si può fidare di nessuno utuber, ed è sempre meglio confrontarsi tra noi consumatori con le nostre prove dirette.

Lo hanno fatto anche con la 3080. Diciamo che la linea è quella di AMD, infatti l'altro giorno è uscito pure un'articolo di AMD, dove dice che il fattore principale ora sono le schede con la vram.

Strano che JHH gli manda ancora sample, quando Kitguru aveva criticato la fury, AMD aveva interrotto i rapporti. Ora probabilmente ripresi.

Ma non ha senso non parlarne.
Anzi fare test approfonditi come spesso fa digital foundry ti permette di capire pro e contro in vari scenari di utilizzo.

Altra questione sull'FSR3 è anche la latenza, nvidia ha messo le pezze con il reflex ma anche amd dovrebbe integrare qualcosa di analogo al reflex, altrimenti parte del vantaggio si perde..

Ci spiegherà tutto hardware unboxing tanto.

Ubro92
13-04-2023, 11:37
Speriamo, ma non ci metterei la mano sul fuoco considerando anche l'attuale situazione con taiwan...potremmo anche non vederle queste schede :rolleyes:


Quoto, basta vedere gli ultimi video dove screditano la 3070 facendo vedere TLOU (probabilmente nemmeno senza patch) scattare a 1080p a causa degli 8GB, quando io invece ci gioco a 1440p senza quei problemi...e lo stesso vale anche per altri giochi testati.

Hwunboxed era uno degli ultimi che seguivo che ritenevo affidabili, ma a quanto pare non ci si può fidare di nessuno utuber, ed è sempre meglio confrontarsi tra noi consumatori con le nostre prove dirette.

Se succede qualcosa a Taiwan, le schede video saranno l'ultimo dei nostri problemi mi sa :muro:

TLOU oramai è alla quinta patch dal day one, è chiaro che nonostante 1 mese di ritardo è un titolo uscito in versione beta, e penso seguiranno diversi altri fix, i porting di sony trarrebbero enormi benefici dal direct storage ed è strano che non ci abbiano investito ancora...

Che sia un acquisto futuribile per non cambiar socket per un po' certamente, che faccia magie anche no. Dei giochi che ho installati nessuna CPU sarebbe in grado di migliorarmi la fluidità perché già vanno fissi a quanto devono andare col 5600X. Non è che ER mi passa da 60 fissi a 60 fissi più fluidi :sofico:

warzone per dire se ne avvantaggia decisamente anche con una 6700XT invece

Ma hai un ryzen 5000, cioè aldilà della cache 3d sono ottime soluzioni già di base, per molti un buon bilanciamento può essere anche un semplice 5700x che si trova anche a meno di 180€ nuovo, e non è che abbia grossi problemi anche con una 3080.

La cache 3d è giusto un plus, aiuta molto con lo stuttering e di elimina eventuali colli dati dalle ram.

Lo hanno fatto anche con la 3080. Diciamo che la linea è quella di AMD, infatti l'altro giorno è uscito pure un'articolo di AMD, dove dice che il fattore principale ora sono le schede con la vram.

Strano che JHH gli manda ancora sample, quando Kitguru aveva criticato la fury, AMD aveva interrotto i rapporti. Ora probabilmente ripresi.



Ci spiegherà tutto hardware unboxing tanto.

Si e poi la stessa AMD con le 7000 offre meno vram a pari prestazioni delle 6000 (quando si dice coerenza)

OrazioOC
13-04-2023, 11:38
Lo hanno fatto anche con la 3080. Diciamo che la linea è quella di AMD, infatti l'altro giorno è uscito pure un'articolo di AMD, dove dice che il fattore principale ora sono le schede con la vram.

Strano che JHH gli manda ancora sample, quando Kitguru aveva criticato la fury, AMD aveva interrotto i rapporti. Ora probabilmente ripresi.

Sbaglio o quando nvidia smise di mandare i sample ad alcune testate tipo hwunboxed gli hanno fatto un mazzo così nei vari social tipo youtube o reddit?

Devono fare buon viso a cattivo gioco, tanto queste testate non campano guardando il cielo dalla mattina alla sera. :asd:

https://twitter.com/HardwareUnboxed/status/1337246983682060289

E infatti era già successo. :asd:

Goofy Goober
13-04-2023, 11:45
Sbaglio o quando nvidia smise di mandare i sample ad alcune testate tipo hwunboxed gli hanno fatto un mazzo così nei vari social tipo youtube o reddit?

Devono fare buon viso a cattivo gioco, tanto queste testate non campano guardando il cielo dalla mattina alla sera. :asd:

https://twitter.com/HardwareUnboxed/status/1337246983682060289

E infatti era già successo. :asd:

La normalità infatti è assistere alla proliferazione delle recensioni stile "brochure" dei prodotti, ma per tanti altri settori, non solo le schede video. Il mercato auto degli ultimi anni ad esempio si sta reggendo sulle video review realizzate con una scaletta brossurizzata scelta a tavolino dal costruttore con anche incluse spiegazioni stile supercazzola per giustificare tutte le cavolate che vengono rilevate in fase descrittiva dal recensore.

Il brutto vero è quando le infiltrazioni dei PR avvengono a livello di social e peggio, di forum :fagiano:

ninja750
13-04-2023, 11:50
Cmq per me liberissimi di farlo, è brutto quando hai qualche diktat, se loro la vedono così, buon per loro. Fortunatamente è pieno di altre testate che ne parlano.

Ovviamente, spero di non vedere mai il FSR3 nei loro canali, altrimenti non sarebbe serietà.

non hanno detto che il frame generator è lammerda, hanno detto che non metteranno mischiandoli nelle review FPS ""nativi"" vs FPS ""genuini""

hanno sempre fatto analisi DLSS o RT e continueranno a farlo, ma in separata sede

io per primo non vorrei i minestroni nei grafici anche perchè i risultati FG non sono qualitativamente (e inputlaggosamente) uguali a quelli chiamiamoli normali

ninja750
13-04-2023, 11:56
Speriamo, ma non ci metterei la mano sul fuoco considerando anche l'attuale situazione con taiwan...potremmo anche non vederle queste schede :rolleyes:


beh guarda il lato positivo, tutte le VGA nei case raddoppieranno di valore se non produrranno più nulla di nuovo :sofico: :fagiano:


Quoto, basta vedere gli ultimi video dove screditano la 3070 facendo vedere TLOU (probabilmente nemmeno senza patch) scattare a 1080p a causa degli 8GB, quando io invece ci gioco a 1440p senza quei problemi...e lo stesso vale anche per altri giochi testati.

guarda, di solito sono molto trasparenti nella config di prova dove scrivono per filo e per segno cpu ram release driver ecc, ma in effetti in quel video manca la patch gioco, magari l'hanno aggiunta dopo in descrizione ma non ho tempo di scorrere tutti i commenti

la questione dello scontro con nvidia era nata dal fatto che nelle loro review (e non era vero) secondo nvidia davano troppo poco peso al raytracing

mikael84
13-04-2023, 12:10
Se succede qualcosa a Taiwan, le schede video saranno l'ultimo dei nostri problemi mi sa :muro:

TLOU oramai è alla quinta patch dal day one, è chiaro che nonostante 1 mese di ritardo è un titolo uscito in versione beta, e penso seguiranno diversi altri fix, i porting di sony trarrebbero enormi benefici dal direct storage ed è strano che non ci abbiano investito ancora...



Ma hai un ryzen 5000, cioè aldilà della cache 3d sono ottime soluzioni già di base, per molti un buon bilanciamento può essere anche un semplice 5700x che si trova anche a meno di 180€ nuovo, e non è che abbia grossi problemi anche con una 3080.

La cache 3d è giusto un plus, aiuta molto con lo stuttering e di elimina eventuali colli dati dalle ram.



Si e poi la stessa AMD con le 7000 offre meno vram a pari prestazioni delle 6000 (quando si dice coerenza)

Esattamente. Se le schede da 8 sono morte, AMD non dovrebbe neppure produrle, invece dopo aver detto che sotto i 6gb, non sarebbe mai scesa, ne tira fuori una con 4gb.

Uno non schierato come loro, in TLOU, poteva distruggere oltre che la 3070, pure le 6600xt, e rimarcare l'importanza della 3060 che nella stessa fascia ne ha 12.:p

Cmq, per carità, liberi di fare quello che vogliono, ma a sto punto non so chi sia meglio, il markettato pesante, o chi attacca pesantemente l'altra casa per ogni cosa.:p

Sbaglio o quando nvidia smise di mandare i sample ad alcune testate tipo hwunboxed gli hanno fatto un mazzo così nei vari social tipo youtube o reddit?

Devono fare buon viso a cattivo gioco, tanto queste testate non campano guardando il cielo dalla mattina alla sera. :asd:

https://twitter.com/HardwareUnboxed/status/1337246983682060289

E infatti era già successo. :asd:

Esatto, la stessa cosa che successe con kitguru su la fury. Un casino. Solo che li AMD rimase per tempo senza mandargli più nulla.:D

non hanno detto che il frame generator è lammerda, hanno detto che non metteranno mischiandoli nelle review FPS ""nativi"" vs FPS ""genuini""

hanno sempre fatto analisi DLSS o RT e continueranno a farlo, ma in separata sede

Non l'hanno detto, ma l'hanno fatto capire con mille video, cercando tutto il materiale possibile per screditarlo, con vari screen.
Il FG non è solo quello, magari potessi usarlo.:)

[
io per primo non vorrei i minestroni nei grafici anche perchè i risultati FG non sono qualitativamente (e inputlaggosamente) uguali a quelli chiamiamoli normali


Qua sono pienamente d'accordo. Il FG non va mischiato ai numeri puri come fa JHH, ma questo nessuno lo fa.
Facendo così sarebbe un sito markettaro, e questo è ancora peggio della crociata di hardware unboxed.

Ora come ora, si potrebbero mischiare i titoli RT con quelli raster, visto che ormai il RT è abbastanza presente, almeno nativamente.

Ale55andr0
13-04-2023, 12:10
Naturale, hardware unboxed è in guerra con nvidia, ogni video è mirato a screditare la casa.

C'è un modo per complimentarsi e fargli donazioni? :asd:

Speriamo, ma non ci metterei la mano sul fuoco considerando anche l'attuale situazione con taiwan...potremmo anche non vederle queste schede :rolleyes:



Quoto, basta vedere gli ultimi video dove screditano la 3070 facendo vedere TLOU (probabilmente nemmeno senza patch) scattare a 1080p a causa degli 8GB, quando io invece ci gioco a 1440p senza quei problemi...e lo stesso vale anche per altri giochi testati.

Hwunboxed era uno degli ultimi che seguivo che ritenevo affidabili, ma a quanto pare non ci si può fidare di nessuno utuber, ed è sempre meglio confrontarsi tra noi consumatori con le nostre prove dirette.

Allora la tua 3070 è benedetta dal cielo, a me scatta e stuttera a 1080p....ovviamente fra un crash e l'altro pur con la 1.0.2.0. A meno che i tuoi "1440p" sono col dlss, (ergo non sono 1440p), e/o con settaggi non maxati. Cmq fra una bestemmia e l'altra sono riuscito a finirlo :asd:



Si e poi la stessa AMD con le 7000 offre meno vram a pari prestazioni delle 6000 (quando si dice coerenza)

falle prima uscire, io non ho visto specifiche ufficiali ma non credo a una 7800 con meno di 16gb. A ogni modo gli basta declassare la ipotetica 7700x 8gb (ma siamo sicuri sicuri sicuri?) a 7600x visto che nvidia gli ha fatto l'assist :D




Non l'hanno detto, ma l'hanno fatto capire con mille video, cercando tutto il materiale possibile per screditarlo, con vari screen.




Ripeto: c'è modo di contattarli per complimentarsi e fargli donazioni? :asd: :D

mikael84
13-04-2023, 12:21
C'è un modo per complimentarsi e fargli donazioni? :asd:




:asd:

Potrebbero fare una cosa realmente seria e tecnica, sul quale io mi batto sempre... ovvero analizzare, come faccio io, i costi dei die wafer, ed analizzare i prodotti finiti, per vedere quanto ci stanno speculando su entrambe.
Far capire quanto costano le 4080 o le 7900xtx, sul come stanno giocando con le sigle:)


falle prima uscire, io non ho visto specifiche ufficiali ma non credo a una 7800 con meno di 16gb. A ogni modo gli basta declassare la ipotetica 7700x 8gb (ma siamo sicuri sicuri sicuri?) a 7600x visto che nvidia gli ha fatto l'assist :D

Si RDNA32 la 7800xt sarà con 16gb e 256bit, la 7700xt dovrebbe scendere a 3072/6144 DU e 192bit/12gb.
Sotto le 7600xt con 8gb come le 4060.

OrazioOC
13-04-2023, 12:23
La normalità infatti è assistere alla proliferazione delle recensioni stile "brochure" dei prodotti, ma per tanti altri settori, non solo le schede video. Il mercato auto degli ultimi anni ad esempio si sta reggendo sulle video review realizzate con una scaletta brossurizzata scelta a tavolino dal costruttore con anche incluse spiegazioni stile supercazzola per giustificare tutte le cavolate che vengono rilevate in fase descrittiva dal recensore.

Il brutto vero è quando le infiltrazioni dei PR avvengono a livello di social e peggio, di forum :fagiano:

Purtroppo quoto, ma ricordatevi che il mondo del marketing e della comunicazione è fatto di pubblicità, raramente assisto a review oggettive. :rolleyes:

Comunque l'ultima review della 4070 sul nostro lido mi è piaciuta, idem per quella della 4070 ti e 7900 xtx. :)

bagnino89
13-04-2023, 12:35
Allora la tua 3070 è benedetta dal cielo, a me scatta e stuttera a 1080p....ovviamente fra un crash e l'altro pur con la 1.0.2.0. A meno che i tuoi "1440p" sono col dlls, (ergo non sono 1440p), e/o con settaggi non maxati. Cmq fra una bestemmia e l'altra sono riuscito a finirlo :asd:

Tu ti lamenti della tua 3070 da sempre, ma ti rendi che il vero aborto nella tua configurazione è quello schifo di CPU che te la rende CPU limited anche in 8k? :asd:

StylezZz`
13-04-2023, 12:46
Io ho visto alcuni video dove le texture sulla 3070 fanno pietà, su forspoken ad esempio spero non capiterà in ogni gioco.

Nel caso di TLOU fanno pietà se settate su medie, su alto e ultra sono perfette.

beh guarda il lato positivo, tutte le VGA nei case raddoppieranno di valore se non produrranno più nulla di nuovo :sofico: :fagiano:

Direi anche triplicare, e non solo le vga...cpu, mobo...sarebbe un disastro e non voglio nemmeno pensarci.

guarda, di solito sono molto trasparenti nella config di prova dove scrivono per filo e per segno cpu ram release driver ecc, ma in effetti in quel video manca la patch gioco, magari l'hanno aggiunta dopo in descrizione ma non ho tempo di scorrere tutti i commenti

Il problema non è solo TLOU, in quella revisit va male praticamente con quasi tutti i giochi testati da loro.

Allora la tua 3070 è benedetta dal cielo, a me scatta e stuttera a 1080p....ovviamente fra un crash e l'altro pur con la 1.0.2.0. A meno che i tuoi "1440p" sono col dlss, (ergo non sono 1440p), e/o con settaggi non maxati. Cmq fra una bestemmia e l'altra sono riuscito a finirlo :asd:

Non è benedetta, ho 32GB di ram che aiutano tantissimo...se vai nel thread di TLOU abbiamo consigliato ad un utente con una 2070 Super di espandere la ram, e ha migliorato notevolmente le prestazioni pur avendo una scheda con 8GB.

Ale55andr0
13-04-2023, 12:47
Tu ti lamenti della tua 3070 da sempre, ma ti rendi che il vero aborto nella tua configurazione è quello schifo di CPU che te la rende CPU limited anche in 8k? :asd:

In assoluto si', ma non c'è un gioco in cui non consenta i classici 60 frame alla risoluzione di riferimento della gpu "per colpa sua", non manca fluidtià per quello...per dire, in tlou non scatta certo per la CPU e manco CP2077...limita molto più la ram nel primo e le pessime performance in rt col secondo...la CPU mi limita dove potrei fare, chessò, 90fps invece di 70 (ma sempre ben sopra la soglia di fluidità rimango), ma nel caso in cui macino 20-25fps la colpa NON è sua ma della GPU visto che l'equilibrio lo cerco il più delle volte a favore di risoluzione e dettaglio dove il carico penalizza più la GPU che non la CPU a livello sia effettivo che percettivo. Ergo non mi frega (per ora) cambiare la cpu, è la 3070 il roito laddove il gioco pesa graficamente...ovvio che se passassi a una 4070ti, per dire, prenderei un 5700x :)

Ale55andr0
13-04-2023, 12:51
Non è benedetta, ho 32GB di ram che aiutano tantissimo...se vai nel thread di TLOU abbiamo consigliato ad un altro utente con una 2070 Super di espandere la ram, e ha migliorato notevolmente le prestazioni pur avendo 8GB di vram.

Boh, io ho smesso di credere che la ram di sistema funga da estensione della video ram a meno di funzioni apposite del gioco. Mio cugino (che alcuni credono ancora che non esista :asd:) ha una 4090 su 5950x e 32gb e TLOU che ovviamente gli vola rispetto a me cmq continua ad avere spesso inceppamenti. Ovvio che è il gioco il problema, chiaro, ma se mi dici che tu hai queste performance a 1440p con la 3070 mi gratto la nuca :stordita:

bagnino89
13-04-2023, 12:52
In assoluto si', ma non c'è un gioco in cui non consenta i classici 60 frame alla risoluzione di riferimento della gpu "per colpa sua", non manca fluidtià per quello...per dire, in tlou non scatta certo per la CPU e manco CP2077...limita molto più la ram nel primo e le pessime performance in rt col secondo...la CPU mi limita dove potrei fare, chessò, 90fps invece di 70 (ma sempre ben sopra la soglia di fluidità rimango), ma nel caso in cui macino 20-25fps la colpa NON è sua ma della GPU visto che l'equilibrio lo cerco il più delle volte a favore di risoluzione e dettaglio dove il carico penalizza più la GPU che non la CPU a livello sia effettivo che percettivo. Ergo non mi frega (per ora) cambiare la cpu, è la 3070 il roito laddove il gioco pesa graficamente...ovvio che se passassi a una 4070ti, per dire, prenderei un 5700x :)

Nah, tu non consideri i minimi, il frametime... Io passando da un 3700X ad un 5600 ho visto miglioramenti tangibili, figuriamoci tu...

Ubro92
13-04-2023, 12:52
Allora la tua 3070 è benedetta dal cielo, a me scatta e stuttera a 1080p....ovviamente fra un crash e l'altro pur con la 1.0.2.0. A meno che i tuoi "1440p" sono col dlss, (ergo non sono 1440p), e/o con settaggi non maxati. Cmq fra una bestemmia e l'altra sono riuscito a finirlo :asd:



Ma tu hai un 1700x... quelle cpu sono dei chiodi in game, già comparate a un 6700k/7700k le prendevano di brutto, hanno latenze da sandy bridge hedt e non salgono neanche molto di clock... Avevano senso solo lato produttività visto che intel era ferma a 4c/8t e x299/x99 risultavano più costosi.

Già con un semplice 5600 avresti un boost di prestazioni notevole...

bagnino89
13-04-2023, 12:55
Ma tu hai un 1700x... quelle cpu sono dei chiodi in game, già comparate a un 6700k/7700k le prendevano di brutto, hanno latenze da sandy bridge hedt e non salgono neanche molto di clock...

Già con un semplice 5600 avresti un boost di prestazioni notevole...

E' che lui guarda solo gli FPS medi e non si rende conto che esistono anche i minimi, il microstuttering, il frametime, ecc.

I Ryzen 1xxx e 2xxx sono una cosa immonda per giocare.

Ale55andr0
13-04-2023, 12:56
Ma tu hai un 1700x... quelle cpu sono dei chiodi in game, già comparate a un 6700k/7700k le prendevano di brutto, hanno latenze da sandy bridge hedt e non salgono neanche molto di clock...

Già con un semplice 5600 avresti un boost di prestazioni notevole...

Se e quando cambierò gpu ovviamente upgraderò anche quello, per forza. Non contate sui miei tempi cmq :asd:

Ale55andr0
13-04-2023, 13:01
E' che lui guarda solo gli FPS medi e non si rende conto che esistono anche i minimi, il microstuttering, il frametime, ecc.

I Ryzen 1xxx e 2xxx sono una cosa immonda per giocare.

vabè ma non è che mi faccio il sangue amaro per il microstuttering e il micro calo di 1ns, gioco perlopiù titoli avventurosi/ruolistici non sono un fraggatore, ne ho quel tipo di "occhio", se sto a 45-50 fps di media per dire considero il gioco giocabilissimo. Ho occhio più per gli aspetti qualitativi che quantitativi, per dirti odio aliasing e tremolii dell'immagine (specie sul LOD), e li colgo al colpo d'occhio, non saprei viceversa MAI dire invece se un gioco gira a 70frame o a 120 come fanno alcuni

mikael84
13-04-2023, 13:03
In assoluto si', ma non c'è un gioco in cui non consenta i classici 60 frame alla risoluzione di riferimento della gpu "per colpa sua", non manca fluidtià per quello...per dire, in tlou non scatta certo per la CPU e manco CP2077...limita molto più la ram nel primo e le pessime performance in rt col secondo...la CPU mi limita dove potrei fare, chessò, 90fps invece di 70 (ma sempre ben sopra la soglia di fluidità rimango), ma nel caso in cui macino 20-25fps la colpa NON è sua ma della GPU visto che l'equilibrio lo cerco il più delle volte a favore di risoluzione e dettaglio dove il carico penalizza più la GPU che non la CPU a livello sia effettivo che percettivo. Ergo non mi frega (per ora) cambiare la cpu, è la 3070 il roito laddove il gioco pesa graficamente...ovvio che se passassi a una 4070ti, per dire, prenderei un 5700x :)

Dai seriamente, quella CPU, soprattutto quando ci sono NPC è un vero disastro, con la 3080 spesso sono CPU limit pure con il 5700x + PBO.
Vorrei vederlo in Requiem nei paesi...

Ok la 3080 è più esosa, ma già la 2070 super in qualche gioco ad alti frame, mi sbarellava leggermente il 3700x, con la 3080 proprio caput.
In RT poi, li si fa ancora più tosta.

Quella CPU è altamente limitante per una 3070.;)

Nah, tu non consideri i minimi, il frametime... Io passando da un 3700X ad un 5600 ho visto miglioramenti tangibili, figuriamoci tu...

Esattamente, e con una 3080, spesso neppure basta.

StylezZz`
13-04-2023, 13:05
Boh, io ho smesso di credere che la ram di sistema funga da estensione della video ram a meno di funzioni apposite del gioco. Mio cugino (che alcuni credono ancora che non esista :asd:) ha una 4090 su 5950x e 32gb e TLOU che ovviamente gli vola rispetto a me cmq continua ad avere spesso inceppamenti. Ovvio che è il gioco il problema, chiaro, ma se mi dici che tu hai queste performance a 1440p con la 3070 mi gratto la nuca :stordita:

Che il gioco abbia dei problemi non ci sono dubbi, ma fidati che con 32GB miglioreresti e non poco, se poi passi a un 5600 avresti un bel boost.

Comunque io gioco a 1440p+DLSS Quality :stordita:

Vul
13-04-2023, 13:05
non saprei viceversa MAI dire invece se un gioco gira a 70frame o a 120 come fanno alcuni

Tranquillo che non sei l'unico, molti che dicono di vedere le differenze non le notano o sono effetti placebo.

Ricordo una decina d'anni fa quando fecero blind test di televisori 4k e 1080p a distanze di 2/3 metri e la % di quelli che azzeccassero il 4k era di poco superiore al 50%, gli altri non sapevano dire quale fosse quale.

Ricordo anche al lancio di Vega fecero blind test simili per monitor ad alta frequenza giocando Doom (pubblico quasi tutti gamer), anche li numeri simili, statisticamente in pochi riuscivano davvero a vedere differenze fra 60 e 144hz, anche su un titolo come Doom. E li il test era "questo monitor gira a 60 o 144hz" e si dava anche la possibilita' di giocare, i numeri erano di poco oltre alla randomicita'.

Poi ci sara' sempre quello che si e' comprato il monitor 280hz e ti deve dire (autoconvincersi) che ci sia la differenza fra notte e giorno e tu non capisci.

Ubro92
13-04-2023, 13:08
vabè ma non è che mi faccio il sangue amaro per il microstuttering e il micro calo di 1ns, gioco perlopiù titoli avventurosi/ruolistici non sono un fraggatore, ne ho quel tipo di "occhio", se sto a 45-50 fps di media per dire considero il gioco giocabilissimo. Ho occhio più per gli aspetti qualitativi che quantitativi, per dirti odio aliasing e tremolii dell'immagine (specie sul LOD), e li colgo al colpo d'occhio, non saprei viceversa MAI dire invece se un gioco gira a 70frame o a 120 come fanno alcuni

Si ma hai la fortuna di avere tra le mani una piattaforma come AM4 che permette un semplice swap di cpu.

Oramai un 5600 lo paghi meno di 130€ e un 5700x meno di 180€, con una spesa irrisoria sfrutteresti per bene quella build e soprattutto la 3070 che è costantemente inchiodata da quella cpu.

Per dirti persino i ryzen 2000 vanno meno dei vecchi hedt sandy e ivy in game:

https://www.youtube.com/watch?v=xYxQ82wcA_s

Amd il salto qualitativo vero e proprio lo fece a partire dai 3000, e con i 5000 ha tirato fuori veramente delle gemme su AM4 chiudendo in grande con il 5800x3d, che è stato veramente un regalo su questa piattaforma.

Goofy Goober
13-04-2023, 13:11
Purtroppo quoto, ma ricordatevi che il mondo del marketing e della comunicazione è fatto di pubblicità, raramente assisto a review oggettive. :rolleyes:


le review oggettive sono moribonde dall'epoca di transizione del web da "sito a tempo perso, creato da appassionati" a "sito di informazione, creato per lucrare".

oggi per le review oggettive servirebbe uno sugar daddy che comprasse i pezzi da recensire e qualche appassionato pronto a immolare il proprio tempo per dire le cose come stanno. ovviamente non se li cacherebbe nessuno e tutti griderebbero al gomblotto contro san padre ceo produttore di marketing di turno.

ninja750
13-04-2023, 13:12
Comunque l'ultima review della 4070 sul nostro lido mi è piaciuta, idem per quella della 4070 ti e 7900 xtx. :)

dici quella che conclude con "La GeForce RTX 4070 a 599 dollari, che in Italia diventano 669 euro (avevamo ipotizzato 649 euro), è quindi decisamente consigliabile" ? :fagiano:


Potrebbero fare una cosa realmente seria e tecnica, sul quale io mi batto sempre... ovvero analizzare, come faccio io, i costi dei die wafer, ed analizzare i prodotti finiti, per vedere quanto ci stanno speculando su entrambe.

a che pro? è come smontassero un iphone e un redmi per fare vedere che sotto la scocca sono uguali ma uno costa 2000 e l'altro 300, lo sappiamo già che mai come oggi tutti e due stanno marginando come porcelli


Comunque io gioco a 1440p+DLSS Quality :stordita:

il che non vuol dire che in realtà stai renderizzando (e giocando) a 1080p?

Ale55andr0
13-04-2023, 13:13
Che il gioco abbia dei problemi non ci sono dubbi, ma fidati che con 32GB miglioreresti e non poco, se poi passi a un 5600 avresti un bel boost.

Comunque io gioco a 1440p+DLSS Quality :stordita:

cioè 1080p a livello elaborativo

Dai seriamente, quella CPU, soprattutto quando ci sono NPC è un vero disastro, con la 3080 spesso sono CPU limit pure con il 5700x + PBO.
Vorrei vederlo in Requiem nei paesi...

Ok la 3080 è più esosa, ma già la 2070 super in qualche gioco ad alti frame, mi sbarellava leggermente il 3700x, con la 3080 proprio caput.
In RT poi, li si fa ancora più tosta.

Quella CPU è altamente limitante per una 3070.;)



Esattamente, e con una 3080, spesso neppure basta.

Che la mia CPU sia decisamente zoppa non lo metto minimamente in dubbio, ma che un gioco sia ingiocabile per quella nel mio contesto (cioè coi settaggi che tendo a sparar dentro io), come detto, dubito seriamente. Se in CP2077 a 1440p (veri) e settaggi sull'alto/ultra andante faccio, numero a caso, 35-40 frame in una certa zona, credi forse che un 5700 ne farei 25-30 in più a pari gpu? :sofico: :stordita:
Cmq siamo da un po' leggerissimamente OT dai :sofico:

Si ma hai la fortuna di avere tra le mani una piattaforma come AM4 che permette un semplice swap di cpu.

Oramai un 5600 lo paghi meno di 130€ e un 5700x meno di 180€, con una spesa irrisoria sfrutteresti per bene quella build e soprattutto la 3070 che è costantemente inchiodata da quella cpu.
.

ma prima o poi lo cambio sicuro, solo ora con sto cesso della 3070 non ho proprio voglia, mi mortifica solo sapere di averla, stronzo io che in pandemia ho rifiutato 1000 euro per quella :asd: (che poi è il motivo per cui la presi, la pandemia: 0 disponibilità di 3080 e 6800xt pur avendo l'aggancio di un rivenditore "amico", no c'è stato verso di procurarne. Non l'ho MAI voluta nel case e rivendendola sarei stato "ricco" ma mesi e mesi senza PC...)a

mikael84
13-04-2023, 13:15
le review oggettive sono moribonde dall'epoca di transizione del web da "sito a tempo perso, creato da appassionati" a "sito di informazione, creato per lucrare".

oggi per le review oggettive servirebbe uno sugar daddy che comprasse i pezzi da recensire e qualche appassionato pronto a immolare il proprio tempo per dire le cose come stanno. ovviamente non se li cacherebbe nessuno e tutti griderebbero al gomblotto contro san padre ceo produttore di marketing di turno.

Che a conti fatti non cambierebbe molto, in quanto qualsiasi persona ha delle preferenze, come per la politica, lo sport etc.:p





a che pro? è come smontassero un iphone e un redmi per fare vedere che sotto la scocca sono uguali ma uno costa 2000 e l'altro 300, lo sappiamo già che mai come oggi tutti e due stanno marginando come porcelli




Dicono che la legge di moore è morta, dimostralo ai lettori, ascoltatori, analizzando i costi.

bagnino89
13-04-2023, 13:19
il che non vuol dire che in realtà stai renderizzando (e giocando) a 1080p?

Avevo scritto bene, meno del 1080p: 1707x960.

Goofy Goober
13-04-2023, 13:21
Che a conti fatti non cambierebbe molto, in quanto qualsiasi persona ha delle preferenze, come per la politica, lo sport etc.:p


il vero appassionato non è mai schierato e non ha preferenze, perchè conta solo il prodotto, e non il brand :O

com'era quella delle gpu? amd non fa concorrenza quindi nvidia frega i clienti, quindi voialtri comprate amd che io così posso comprare le nvidia a meno :asd: :sofico:

mikael84
13-04-2023, 13:45
Che la mia CPU sia decisamente zoppa non lo metto minimamente in dubbio, ma che un gioco sia ingiocabile per quella nel mio contesto (cioè coi settaggi che tendo a sparar dentro io), come detto, dubito seriamente. Se in CP2077 a 1440p (veri) e settaggi sull'alto/ultra andante faccio, numero a caso, 35-40 frame in una certa zona, credi forse che un 5700 ne farei 25-30 in più a pari gpu? :sofico: :stordita:
Cmq siamo da un po' leggerissimamente OT dai :sofico:



Guarda, per farti un esempio, requiem, in zone di NPC, tutto al massimo, PBO, DLAA, che è peggio della nativa.
Clicca sull'immagine
https://i.postimg.cc/B81gTtJB/png-a-plague-tale.png (https://postimg.cc/B81gTtJB)

Dall'immagine vedi, che il frame mi è sceso a 54 fps e l'usage al 70%.
Normalmente mi stava quasi sempre sopra i 60, quindi l'esperienza è stata esemplare, ma rovinata da questi cali, che in zone più dense è stato leggermente peggio.

Tralasciando che con il g-sync non è un dramma, ma rovina l'esperienza, con un 1700x sarei sceso a 30-35 forse li, visto che già il 3700x scendeva abbastanza sotto i 50 fps e usage anche sul 50%

Queste cose, nelle review non le vedi, e potrei farti tanti esempi, trovando immagini salvate.
E ripeto, li ero con il DLAA, se avessi messo il DLSS, mi trovavo con mediamente 100-120 fps, e in quei posti a 54fps.:)

il vero appassionato non è mai schierato e non ha preferenze, perchè conta solo il prodotto, e non il brand :O

com'era quella delle gpu? amd non fa concorrenza quindi nvidia frega i clienti, quindi voialtri comprate amd che io così posso comprare le nvidia a meno :asd: :sofico:

:asd:
Ma alla fine è giusta come frase, se tu vuoi un prodotto x, vuoi che y te lo abbassi.:p

Salfox
13-04-2023, 13:46
Tranquillo che non sei l'unico, molti che dicono di vedere le differenze non le notano o sono effetti placebo.


Ricordo anche al lancio di Vega fecero blind test simili per monitor ad alta frequenza giocando Doom (pubblico quasi tutti gamer), anche li numeri simili, statisticamente in pochi riuscivano davvero a vedere differenze fra 60 e 144hz, anche su un titolo come Doom. E li il test era "questo monitor gira a 60 o 144hz" e si dava anche la possibilita' di giocare, i numeri erano di poco oltre alla randomicita'.

Poi ci sara' sempre quello che si e' comprato il monitor 280hz e ti deve dire (autoconvincersi) che ci sia la differenza fra notte e giorno e tu non capisci.

Superquoto come già ho detto più volte anch'io ma non lo dire troppo forte perchè su questo forum ci sono gli assatanati che ti assalgono quando fai presente questa cosa sacrosanta. :D :D :D :D

Cutter90
13-04-2023, 14:22
Superquoto come già ho detto più volte anch'io ma non lo dire troppo forte perchè su questo forum ci sono gli assatanati che ti assalgono quando fai presente questa cosa sacrosanta. :D :D :D :D

Ah, cioè, secondo te tra 70 fps e 120 fps non ci si accorge della differenza? Si, forse mia madre o mio padre... perchè già la mia ragazza la differenza la vede. Se per te questa cosa è vera, percjè sendere soldi per il pc? Compre una console e via. 60 fps, che per te sono uguali ai 120 e via.... boh:mbe:

Salfox
13-04-2023, 14:24
Ah, cioè, secondo te tra 70 fps e 120 fps non ci si accorge della differenza? Si, forse mia madre o mio padre... perchè già la mia ragazza la differenza la vede. Se per te questa cosa è vera, percjè sendere soldi per il pc? Compre una console e via. 60 fps, che per te sono uguali ai 120 e via.... boh:mbe:

CVD :D :D :D

StylezZz`
13-04-2023, 14:27
Io la differenza comincio a percepirla scendendo sotto 90fps, ma salendo è praticamente identica, e infatti cappo i frame a 100fps.

CVD :D :D :D

:asd:

il che non vuol dire che in realtà stai renderizzando (e giocando) a 1080p?

cioè 1080p a livello elaborativo

esatto, che è la stessa risoluzione testata da hwunboxed.

bagnino89
13-04-2023, 14:29
esatto, che è la stessa risoluzione testata da hwunboxed.

In realtà quella esatta è 1707x960.

ninja750
13-04-2023, 14:31
Uno non schierato come loro, in TLOU, poteva distruggere oltre che la 3070, pure le 6600xt, e rimarcare l'importanza della 3060 che nella stessa fascia ne ha 12.:p

Cmq, per carità, liberi di fare quello che vogliono, ma a sto punto non so chi sia meglio, il markettato pesante, o chi attacca pesantemente l'altra casa per ogni cosa.:p

a me sembrano sempre tra i più imparziali insieme a gamers nexus, poi oggi apro le recensioni custom su tech power up di cui tutti qui dentro riportano i grafici e nel test setup noto che usano un sistema intel (quindi senza smart access memory), i driver nvidia ultimo grido press release, e i driver amd di NOVEMBRE mentre per le 7000 dei driver beta di GENNAIO quando è una settimana e mezza che sono usciti i WHQL RECCOMENDED di aprile

RTX 4070: 531.42 Press Driver
NVIDIA: 528.02 WHQL
RX 7900 XT & XTX: 23.1.2 Beta
AMD: 22.11.2 WHQL

https://www.techpowerup.com/review/asus-geforce-rtx-4070-dual/5.html

non per voler pensare male eh.. ma..

StylezZz`
13-04-2023, 14:31
In realtà quella esatta è 1707x960.

Quindi se metto 1080p nativo dovrei avere quei risultati? Più tardi quando rientro testo lo stesso punto nel bosco e vediamo.

Maury
13-04-2023, 14:34
In assoluto si', ma non c'è un gioco in cui non consenta i classici 60 frame alla risoluzione di riferimento della gpu "per colpa sua", non manca fluidtià per quello...per dire, in tlou non scatta certo per la CPU e manco CP2077...limita molto più la ram nel primo e le pessime performance in rt col secondo...la CPU mi limita dove potrei fare, chessò, 90fps invece di 70 (ma sempre ben sopra la soglia di fluidità rimango), ma nel caso in cui macino 20-25fps la colpa NON è sua ma della GPU visto che l'equilibrio lo cerco il più delle volte a favore di risoluzione e dettaglio dove il carico penalizza più la GPU che non la CPU a livello sia effettivo che percettivo. Ergo non mi frega (per ora) cambiare la cpu, è la 3070 il roito laddove il gioco pesa graficamente...ovvio che se passassi a una 4070ti, per dire, prenderei un 5700x :)

Adesso però mi spiego il tuo odio verso la 3070, praticamente metà gpu sta con le braccia incrociate, cambia cpu è davvero un dinosauro :stordita:

Ti assicuro che io, anche solo passando da 12500 a 13600kf, ho visto numeri diversi, e partivo già da una cpu che in game spingeva ;)

bagnino89
13-04-2023, 14:36
Quindi se metto 1080p nativo dovrei avere quei risultati? Più tardi quando rientro testo lo stesso punto nel bosco e vediamo.

Non saprei, in un caso la GPU renderizza a 1920x1080, mentre nell'altro a 1707x960. Però in quest'ultimo caso lavorano le unità DL, quindi non so se nel bilancio globale gli FPS sono più alti o meno. Probabilmente stiamo lì.

Forse la cosa migliore è usare una risoluzione personalizzata.

mikael84
13-04-2023, 14:58
a me sembrano sempre tra i più imparziali insieme a gamers nexus, poi oggi apro le recensioni custom su tech power up di cui tutti qui dentro riportano i grafici e nel test setup noto che usano un sistema intel (quindi senza smart access memory), i driver nvidia ultimo grido press release, e i driver amd di NOVEMBRE mentre per le 7000 dei driver beta di GENNAIO quando è una settimana e mezza che sono usciti i WHQL RECCOMENDED di aprile

RTX 4070: 531.42 Press Driver
NVIDIA: 528.02 WHQL
RX 7900 XT & XTX: 23.1.2 Beta
AMD: 22.11.2 WHQL

https://www.techpowerup.com/review/asus-geforce-rtx-4070-dual/5.html

non per voler pensare male eh.. ma..

E' la stessa testata che ha recensito la 4090 con il 5800x, per poi rifarla con le nuove CPU, ma ormai aveva sballato tutto. Questo si che è un danno per tale scheda.
Spesso l'ho beccata (come anche guru3d) copiando i dati delle vecchie GPU, vs le nuove, in modo che le nuove, avessero sempre un piccolo gap.

E' proprio il loro modo di lavorare.
Io ieri l'ho postata, in quanto è la prima uscita, per farsi un'idea. Tanto alla fine usano tutti quella, gira e rigira.

EffeX
13-04-2023, 15:17
E' la stessa testata che ha recensito la 4090 con il 5800x, per poi rifarla con le nuove CPU, ma ormai aveva sballato tutto. Questo si che è un danno per tale scheda.
Spesso l'ho beccata (come anche guru3d) copiando i dati delle vecchie GPU, vs le nuove, in modo che le nuove, avessero sempre un piccolo gap.

E' proprio il loro modo di lavorare.
Io ieri l'ho postata, in quanto è la prima uscita, per farsi un'idea. Tanto alla fine usano tutti quella, gira e rigira.

Bè, ma TPU testa sempre le vga all'uscita con ultimi driver disponibili e poi stop per il resto delle comparazioni successive da che mi ricordi io.
Anche perché sennò dovrebbero ritestare tutto ad ogni release di driver e sarebbe un lavoro immane!

devil_mcry
13-04-2023, 15:34
il vero appassionato non è mai schierato e non ha preferenze, perchè conta solo il prodotto, e non il brand :O

com'era quella delle gpu? amd non fa concorrenza quindi nvidia frega i clienti, quindi voialtri comprate amd che io così posso comprare le nvidia a meno :asd: :sofico:

in realtà è più probabile l contrario. io ho quasi sempre solo trovato appassionati si ma fanboy fino al midollo. probabilmente è normale così. una recensione di un utente conta poco perché o è fanboy o comunque è poco propenso ad ammettere (nel caso) di aver sprecato soldi

Adesso però mi spiego il tuo odio verso la 3070, praticamente metà gpu sta con le braccia incrociate, cambia cpu è davvero un dinosauro :stordita:

Ti assicuro che io, anche solo passando da 12500 a 13600kf, ho visto numeri diversi, e partivo già da una cpu che in game spingeva ;)


configurazioni particolarmente sbilanciate come la sua sono abbastanza la norma, c'è chi ha una 4090 su un 9900k di Intel guai a dire cambia cpu XD

mikael84
13-04-2023, 16:03
Bè, ma TPU testa sempre le vga all'uscita con ultimi driver disponibili e poi stop per il resto delle comparazioni successive da che mi ricordi io.
Anche perché sennò dovrebbero ritestare tutto ad ogni release di driver e sarebbe un lavoro immane!

Beh è il tuo lavoro, di una grossa testata, non un piccolo blogherello a tempo perso e gratis.:)
Ti posso fare un esempio sui driver che avevano dato un notevole boost su AC odyssey alle RDNA1.
Stessi driver testati:
TPU:
https://tpucdn.com/review/nvidia-geforce-rtx-3080-founders-edition/images/assassins-creed-odyssey-2560-1440.png

Da Corsini:
https://www.hwupgrade.it/articoli/5827/ac_odyssey-1.png

9900k a 5ghz uno. 10900k stock l'altro, ma non è CPU limit visto quanto viaggia la 3080.:)

devil_mcry
13-04-2023, 16:06
Beh è il tuo lavoro, di una grossa testata, non un piccolo blogherello a tempo perso e gratis.:)
Ti posso fare un esempio sui driver che avevano dato un notevole boost su AC odyssey alle RDNA1.
Stessi driver testati:
TPU:
https://tpucdn.com/review/nvidia-geforce-rtx-3080-founders-edition/images/assassins-creed-odyssey-2560-1440.png

Da Corsini:
https://www.hwupgrade.it/articoli/5827/ac_odyssey-1.png

9900k a 5ghz uno. 10900k stock l'altro, ma non è CPU limit visto quanto viaggia la 3080.:)
sempre se le hanno ancora quelle gpu, in molti casi vengono ritirate

Ale55andr0
13-04-2023, 16:30
tear down della 4070

https://www.youtube.com/watch?v=pjaxUCPqqbI&ab_channel=GamersNexus



...mette una gran tristezza :rolleyes:

EffeX
13-04-2023, 16:38
tear down della 4070

https://www.youtube.com/watch?v=pjaxUCPqqbI&ab_channel=GamersNexus



...mette una gran tristezza :rolleyes:

È una "schedina".
Comunque per la cronaca anche la mia 2070 FE per 639€ a novembre 2018 era una schedina simile a questa con pcb corto per dire.
Comunque Ale sul discorso stuttering sicuramente sei limitatissimo dal 1700X, però io con la 3070Ti FE che avevo prima della mia attuale scheda in alcuni giochi avevo problemi di microstuttering dopo magari una ventina di minuti di gioco, in particolar modo quando non usavo dlss.
Ora che il 9700K abbia fatto il suo tempo nessuno lo mette in dubbio, ma sicuramente non è ai livelli del 1700X, quindi detto in parole povere upgradare CPU ti aiuterebbe tantissimo, ma se non usi dlss su alcuni giochi particolarmente affamati di vram potresti avere i medesimi problemi.

EffeX
13-04-2023, 16:46
Comunque qui sul sito di CDPR a proposito di CB2077 guardate cosa consigliano:

https://i.ibb.co/VvBg11g/DLSS.jpg (https://ibb.co/p3Xf77f)

Praticamente sotto la 4080 senza DLSS neanche 12 GB basterebbero... :muro:

mikael84
13-04-2023, 16:49
Per chi la volesse acquistare c'è il drop, e ci sono.

sempre se le hanno ancora quelle gpu, in molti casi vengono ritirate

Non so le grandissime testate, ma spesso i sample sono da restituire.

Comunque qui sul sito di CDPR a proposito di CB2077 guardate cosa consigliano:



Praticamente sotto la 4080 senza DLSS neanche 12 GB basterebbero... :muro:

Ce l'ho io, gira anche degnamente. Vram media 7,5/7,8gb. Provato poco però. Anche la ram è usata pochissimo con circa 8gb.

OrazioOC
13-04-2023, 16:54
tear down della 4070

https://www.youtube.com/watch?v=pjaxUCPqqbI&ab_channel=GamersNexus



...mette una gran tristezza :rolleyes:

Poi perchè sconsiglio di prendere le fe. :asd:

Maury
13-04-2023, 16:58
A paragone... discorso vram su CP, usando il texture pack HD, il tutto a 1440, RT folle e XeSS sull' Arc 770 16 Gb mi prende quasi 10 gbyte.

Su 3070 nonostante lo stesso carico non c'è nessun problema con 8 giga, HD texture incluso.

EffeX
13-04-2023, 16:59
Ce l'ho io, gira anche degnamente. Vram media 7,5/7,8gb. Provato poco però. Anche la ram è usata pochissimo con circa 8gb.

Ma effettivamente non capisco se qui stanno dando tutti i numeri o meno, giocato e rigiocato con la 2070, la 3070Ti e mai avuto problemi di vram e avevano entrambe 8 GB, a meno che loro non intendano con path tracing.
Oppure han carcato la mano con l'ultima patch anche loro, ma non credo, la sto installando ora, poi lancio e faccio qualche prova giusto per capire quanta vram va ad allocare in 1440p nativi.

EffeX
13-04-2023, 17:02
A paragone... discorso vram su CP, usando il texture pack HD, il tutto a 1440, RT folle e XeSS sull' Arc 770 16 Gb mi prende quasi 10 gbyte.

Mi hai anticipato! :D
Comunque a questo punto provo e vediamo se i risultati sono uguali, magari se hai tempo puoi provare in nativa quanta vram va ad allocare? :)

Maury
13-04-2023, 17:06
Mi hai anticipato! :D
Comunque a questo punto provo e vediamo se i risultati sono uguali, magari se hai tempo puoi provare in nativa quanta vram va ad allocare? :)

Certo domani provo :)

Comunque questi 16 giga fanno comodo a prescindere :D

mikael84
13-04-2023, 17:07
Poi perchè sconsiglio di prendere le fe. :asd:

La sezione di alimentazione delle 4070 è su tutte molto scarsa, ci devi far passare 200-220 watt.:)
Pensa le reference vecchie sulle 300 watt con 6+2.:p

Per il resto, penso che sia una validissima scelta, per chi è interessato. Garanzia nvidia 3 anni (non su shop strani che poi devi penare per la garanzia, magari con schede importate come manli), a livello PL è messa bene.
https://tpucdn.com/review/asus-geforce-rtx-4070-tuf/images/tdp-adjustment-limit.png

Non avessi la 3080, l'avrei presa oggi.:)



Ma effettivamente non capisco se qui stanno dando tutti i numeri o meno, giocato e rigiocato con la 2070, la 3070Ti e mai avuto problemi di vram e avevano entrambe 8 GB, a meno che loro non intendano con path tracing.
Oppure han carcato la mano con l'ultima patch anche loro, ma non credo, la sto installando ora, poi lancio e faccio qualche prova giusto per capire quanta vram va ad allocare in 1440p nativi.

Si giocato con il PT. Non è esoso nulla lato ram e vram. L'ho giocato pochissimo, sto finendo altro, però niente di trascendentale, anzi. Il bench l'ho chiuso a 36, ma fuori sono sopra pure i 45 in alcune zone. Certo è tostarello, quello si.:p

OrazioOC
13-04-2023, 17:16
La sezione di alimentazione delle 4070 è su tutte molto scarsa, ci devi far passare 200-220 watt.:)
Pensa le reference vecchie sulle 300 watt con 6+2.:p

Per il resto, penso che sia una validissima scelta, per chi è interessato. Garanzia nvidia 3 anni (non su shop strani che poi devi penare per la garanzia, magari con schede importate come manli), a livello PL è messa bene.
[/IMG]

Non avessi la 3080, l'avrei presa oggi.:)


Il problema è che per cambiare pasta termica(e oggettivamente se conti di tenerla più di 2/3 anni è un intervento che va' messo in conto) è veramente un parto da smontare. :rolleyes:
Che poi il connettore 16 pin per me è un malus, mi viene tanto comodo attaccarci l'8 pin. :asd:

E alla fine della fiera in oc siamo li, di certo con 100 mhz in più sul core non diventa una 4070 ti. :fagiano:

Ale55andr0
13-04-2023, 17:17
È una "schedina".
Comunque per la cronaca anche la mia 2070 FE per 639€ a novembre 2018 era una schedina simile a questa con pcb corto per dire.
Comunque Ale sul discorso stuttering sicuramente sei limitatissimo dal 1700X, però io con la 3070Ti FE che avevo prima della mia attuale scheda in alcuni giochi avevo problemi di microstuttering dopo magari una ventina di minuti di gioco, in particolar modo quando non usavo dlss.
Ora che il 9700K abbia fatto il suo tempo nessuno lo mette in dubbio, ma sicuramente non è ai livelli del 1700X, quindi detto in parole povere upgradare CPU ti aiuterebbe tantissimo, ma se non usi dlss su alcuni giochi particolarmente affamati di vram potresti avere i medesimi problemi.


colpa della videoram. No, non lo dico per cavalcare l'onda, è lo stesso con CP2077. I moderni open world la saturano facilmente e più vai avanti nel gioco, specie dopo save/load contigui o aperture/chiusure dei vari menu/inventari più rallenta, ovviamente essendo anche scritti coi piedi non gestendo bene la ram liberandola dai dati non più necessari. Ma pur "di forza bruta" a compensazione dello schifo fatto dagli sviluppatori, gpu con tanta ram spesso aiutano indirettamente verso tali carenze (almeno fino a un certo punto, poi arrivano i tlou e...:asd:)


cmq si cominciano a vedere i primi esemplari in vendita, sui 640 scarsi le più scrause negli shop più barboon, fra qualche mesetto, teorizzo, potrebbero arrivare sulle 570/580, in quel caso lungi dal definirle un affare ma almeno più cagabili con la molletta sul naso e un occhio tappato...(e un dildo in culo)

EffeX
13-04-2023, 17:20
La sezione di alimentazione delle 4070 è su tutte molto scarsa, ci devi far passare 200-220 watt.:)
Pensa le reference vecchie sulle 300 watt con 6+2.:p

Per il resto, penso che sia una validissima scelta, per chi è interessato. Garanzia nvidia 3 anni (non su shop strani che poi devi penare per la garanzia, magari con schede importate come manli), a livello PL è messa bene.
https://tpucdn.com/review/asus-geforce-rtx-4070-tuf/images/tdp-adjustment-limit.png

Non avessi la 3080, l'avrei presa oggi.:)


Ma ti dirò che a me non sarebbe dispiaciuta, però già feci la pazzia di prendere la 2070 FE a 639€ al D1 nel 2018 giustificando il prezzo con la maggiore qualità costruttiva, possibilità di provare RT e DLSS che erano novità assolute, oltre ad andare comunque un 15/20% in più della 1080 e andando a ridosso della 1080Ti nei giochi più favorevoli, ed io all'epoca arrivavo dalla 980.
Questa mi offre il DLSS3 e FG, però prestazioni un 5% sotto la 3080 liscia, questo mi lascia un po' meh.
Poi il prezzo di 670€ è veramente troppo per un chippetto collegato con 192 bit. :O

StylezZz`
13-04-2023, 17:22
Non saprei, in un caso la GPU renderizza a 1920x1080, mentre nell'altro a 1707x960. Però in quest'ultimo caso lavorano le unità DL, quindi non so se nel bilancio globale gli FPS sono più alti o meno. Probabilmente stiamo lì.

Forse la cosa migliore è usare una risoluzione personalizzata.

Fatto test sullo stesso punto usato da hwunboxed, 1080p (nativo) impostazioni ultra, ReBar attivo e abilitato nel profilo di TLOU su nvidiaprofileinspector:

https://www.youtube.com/watch?v=z_bY6byLu5E

come si può vedere dal video è impossibile giocarci a causa dei continui crash e freeze, per non parlare dello stuttering pauroso...adesso dovrò svendere la 3070 e prendermi una 7900 XTX con ben 24GB per stare tranquillo :sofico:

Ale55andr0
13-04-2023, 17:26
Fatto test sullo stesso punto usato da hwunboxed, 1080p (nativo) impostazioni ultra, ReBar attivo e abilitato nel profilo di TLOU su nvidiaprofileinspector:

https://www.youtube.com/watch?v=z_bY6byLu5E

come si può vedere dal video è impossibile giocarci a causa dei continui crash e freeze, per non parlare dello stuttering pauroso..adesso dovrò svendere la 3070 e prendermi una 7900 XTX con ben 24GB per stare tranquillo :sofico:

se con garanzia residua sulle 400 ce li fai (forse
XD)

..io cmq tlou me lo sono finito così, e con tutto su ultra :asd:

EffeX
13-04-2023, 17:28
Fatto test sullo stesso punto usato da hwunboxed, 1080p (nativo) impostazioni ultra, ReBar attivo e abilitato nel profilo di TLOU su nvidiaprofileinspector:

https://www.youtube.com/watch?v=z_bY6byLu5E

come si può vedere dal video è impossibile giocarci a causa dei continui crash e freeze, per non parlare dello stuttering pauroso...adesso dovrò svendere la 3070 e prendermi una 7900 XTX con ben 24GB per stare tranquillo :sofico:

Come già letto su e come già ribadito su altri thread, la maggior parte di chi ha problemi con TLOU ha solo 16 GB di ram di sistema, gli sviluppatori, consapevoli di aver fatto un porting non proprio perfetto, per giocare in 1440p nei consigliati hanno messo scritto nero su bianco 32 GB di ram di sistema, quindi non c'è da stupirsi.
Ma anche Wild hearts con 16 GB di ram di sistema gira da schifo eh, e più si andrà avanti e più sarà così secondo me.

mikael84
13-04-2023, 17:33
Fatto test sullo stesso punto usato da hwunboxed, 1080p (nativo) impostazioni ultra, ReBar attivo e abilitato nel profilo di TLOU su nvidiaprofileinspector:

https://www.youtube.com/watch?v=z_bY6byLu5E

come si può vedere dal video è impossibile giocarci a causa dei continui crash e freeze, per non parlare dello stuttering pauroso...adesso dovrò svendere la 3070 e prendermi una 7900 XTX con ben 24GB per stare tranquillo :sofico:

CVD.
Io in questo gioco non ho mai avuto la minima incertezza, sarà un caso, ma è sempre filato liscio. E me lo sto godendo al meglio su 1440p
Anche la 3080 era in lista nera li su HU.AMDofficial.

Rispetto a te, ho la vram sempre tutta allocata, e la ram sui 16-17, raramente 18. Ma tu hai meno vram ovviamente.

Come già letto su e come già ribadito su altri thread, la maggior parte di chi ha problemi con TLOU ha solo 16 GB di ram di sistema, gli sviluppatori, consapevoli di aver fatto un porting non proprio perfetto, per giocare in 1440p nei consigliati hanno messo scritto nero su bianco 32 GB di ram di sistema, quindi non c'è da stupirsi.
Ma anche Wild hearts con 16 GB di ram di sistema gira da schifo eh, e più si andrà avanti e più sarà così secondo me.

Bravissimo, lo ripeto sempre, anche ieri l'ho detto a Bagnino mi pare. Con i costi attuali delle ddr4, 32gb vanno messi, ed aiutano.

Il problema è che per cambiare pasta termica(e oggettivamente se conti di tenerla più di 2/3 anni è un intervento che va' messo in conto) è veramente un parto da smontare. :rolleyes:
Che poi il connettore 16 pin per me è un malus, mi viene tanto comodo attaccarci l'8 pin. :asd:

E alla fine della fiera in oc siamo li, di certo con 100 mhz in più sul core non diventa una 4070 ti. :fagiano:

Ognuno ha le sue motivazioni, ci mancherebbe, cmq, si trovano anche da amazon le 8pin, ed a quei prezzi. :)

ColdWarGuy
13-04-2023, 19:27
Per chi la volesse acquistare c'è il drop, e ci sono.
-snip


Seriously ... 7 "gambe" per questo francobollo ?

https://i.postimg.cc/jCV4RtKZ/aaa.png

Mi ricordo quando con la GTX 670 si era gridato allo scandalo perchè ti davano lo "schedino" a 399 dollari ...

Questa c*****a gli costa massimo 1/3 del prezzo di vendita, già le recensioni americane l'hanno messa giù parecchio dura per un 599 USD street price, qui in Italia dove gli stipendi medi al confronto sono uno scherzo stiamo dicendo che sì, tutto sommato 700 euro vanno bene ? :confused:

ColdWarGuy
13-04-2023, 19:51
Fatto test sullo stesso punto usato da hwunboxed, 1080p (nativo) impostazioni ultra, ReBar attivo e abilitato nel profilo di TLOU su nvidiaprofileinspector:

https://www.youtube.com/watch?v=z_bY6byLu5E

come si può vedere dal video è impossibile giocarci a causa dei continui crash e freeze, per non parlare dello stuttering pauroso...adesso dovrò svendere la 3070 e prendermi una 7900 XTX con ben 24GB per stare tranquillo :sofico:

Già dopo la patch 1.0.2.0 la mia config ha smesso di andare in crash in modo completamente casuale oppure appena si sforava con il limite consigliato di VRAM sotto i settings, ora ogni tanto c'è un breve stutter mentre immagino vengano caricate le texture, in ogni caso un esperienza lontana anni luce da quella mostrata su Hardware Unboxed, che sicuramente ha benchato senza fixing ai games, quantomeno a TLOU (temo anche in malafede).

Detto questo, io sono pienamente d'accordo con loro sul discorso DLSS e FG, anni di pippe a fare ingrandimenti sui filtraggi delle texture, fedeltà dei colori, image aliasing, lag e adesso saltimo fuori con la magia che i frames reali (quelli dove si spostano gli oggetti) li caga fuori gratis, in autonomia, la GPU :confused:

Per non parlare poi degli artefatti e perdita di sharpness delle risoluzioni interpolate, sicuramente il conteggio degli FPS ne trae giovamento ma da lì a dire che il risultato è il medesimo di una sequenza di immagine rasterizzate una da una ...

Parliamo poi di CP2077, che è diventato il principale gancio di traino per le vendite della serie 4000.

Se non erro all'uscita (e per parecchio tempo dopo) ha preso addosso tutta la m***a el mondo, anche per aspetti legati al game play.

Possibile che adesso è diventato il must di rieferimento che deve girare a non meno di 100FPS maxxato in RT su ogni gaming PC che si rispetti e tutto il resto è cacca ?

E visto che non era già abbastanza di piombo facciamo pure la versione di criptonite che lo farà sentire piccolo se non a chi possiede una nuova fantastica scheda con il supporto del magico DLSS 3.

O suvvia, veramente cadiamo tutti in questa trappola dozzinale ?

ColdWarGuy
13-04-2023, 20:15
Fatto test sullo stesso punto usato da hwunboxed, 1080p (nativo) impostazioni ultra, ReBar attivo e abilitato nel profilo di TLOU su nvidiaprofileinspector:

https://www.youtube.com/watch?v=z_bY6byLu5E

come si può vedere dal video è impossibile giocarci a causa dei continui crash e freeze, per non parlare dello stuttering pauroso...adesso dovrò svendere la 3070 e prendermi una 7900 XTX con ben 24GB per stare tranquillo :sofico:

Ovviamente eri ironico :D

Dai consumi, simili ai miei, mi sembra di capire che anche tu hai "undervoltato", quanto hai messo di Vcore sulla GPU ?

Io sono a 900mV @ 1840 Mhz, con ampio margine dal crash.

davide155
13-04-2023, 20:32
]



Non avessi la 3080, l'avrei presa oggi.:)








No :D
Mikael mi cade un mito se dici così :sofico:

Comunque a parte gli scherzi la penso come te. Se costasse un 80-100euro meno sarebbe un bestbuy per chi proviene dalla fascia bassa di ampere.
Prestazioni da 3080 con frame generator, dlss3 e supporto hardware al SER, il tutto a poco più di 200watt.
Tutti a denigrare il dlss3 di nvidia ma intanto hanno annunciato il supporto a tale versione per 28 nuovi giochi e soprattutto all'implementazione dentro l'ue5. Cosa assolutamente non da poco.
Poi quelli che si lamentano sono gli stessi che accoppiano una 3070 ad un 1700x, oppure una 4090 ad un 9900k ed hanno pure da ridire se il risultato a schermo non li entusiasma, dando la colpa alla poca vram oppure all'incapacità dei programmatori.
Bah vabbè....

StylezZz`
13-04-2023, 20:39
Ovviamente eri ironico :D

Dai consumi, simili ai miei, mi sembra di capire che anche tu hai "undervoltato", quanto hai messo di Vcore sulla GPU ?

Io sono a 900mV @ 1840 Mhz, con ampio margine dal crash.

1890mhz 925mV, le memorie a 16Gbps.

mikael84
13-04-2023, 20:46
Seriously ... 7 "gambe" per questo francobollo ?



Mi ricordo quando con la GTX 670 si era gridato allo scandalo perchè ti davano lo "schedino" a 399 dollari ...

Questa c*****a gli costa massimo 1/3 del prezzo di vendita, già le recensioni americane l'hanno messa giù parecchio dura per un 599 USD street price, qui in Italia dove gli stipendi medi al confronto sono uno scherzo stiamo dicendo che sì, tutto sommato 700 euro vanno bene ? :confused:

Beh è pur sempre una fascia bassa pompata dal clock. Cmq i PCB costano nulla, e tutto il resto che ha un costo, anche il suo margine ovviamente.:D

No :D
Mikael mi cade un mito se dici così :sofico:

Comunque a parte gli scherzi la penso come te. Se costasse un 80-100euro meno sarebbe un bestbuy per chi proviene dalla fascia bassa di ampere.
Prestazioni da 3080 con frame generator, dlss3 e supporto hardware al SER, il tutto a poco più di 200watt.
Tutti a denigrare il dlss3 di nvidia ma intanto hanno annunciato il supporto a tale versione per 28 nuovi giochi e soprattutto all'implementazione dentro l'ue5. Cosa assolutamente non da poco.
Poi quelli che si lamentano sono gli stessi che accoppiano una 3070 ad un 1700x, oppure una 4090 ad un 9900k ed hanno pure da ridire se il risultato a schermo non li entusiasma, dando la colpa alla poca vram oppure all'incapacità dei programmatori.
Bah vabbè....

Beh, non è proprio la scheda dei miei sogni onestamente, sembra una x50.:p
Però ad oggi a pari scheda avrei il FG e 200 watt con l'estate alle porte.

Tra poco più di un annetto, vedremmo la situazione delle 4090 usate.:D

EffeX
13-04-2023, 21:41
Ce l'ho io, gira anche degnamente. Vram media 7,5/7,8gb. Provato poco però. Anche la ram è usata pochissimo con circa 8gb.

A paragone... discorso vram su CP, usando il texture pack HD, il tutto a 1440, RT folle e XeSS sull' Arc 770 16 Gb mi prende quasi 10 gbyte.

Su 3070 nonostante lo stesso carico non c'è nessun problema con 8 giga, HD texture incluso.

Fatto tutti i test del caso questa sera: effettivamente senza RT in 1440p nativi CB2077 si alloca intorno ai 7 GB di vram, mentre con RT tutto attivo e illuminazione su "folle" va sui 9-10 GB allocati. Stesso risultato col path tracing a parte il fatto che senza FG diventa uno slide show. :D
Detto ciò non so perchè la necessità di scrivere certe cose da parte di CDPR, che forse sia una marchettata per vendere le nuove schede?

StylezZz`
13-04-2023, 21:44
Detto ciò non so perchè la necessità di scrivere certe cose da parte di CDPR, che forse sia una marchettata per vendere le nuove schede?

Ormai sono marionette di nvidia.

EffeX
13-04-2023, 21:58
Ormai sono marionette di nvidia.

Sta cosa del "The way is meant to be played" è sfuggita un attimino di mano da 20 anni a sta parte! :sofico:
Comunque non ci crederete, ma sullo shop Nvidia le 4070 FE sono già out of stock. :rolleyes:

Ale55andr0
13-04-2023, 22:08
tto all'implementazione dentro l'ue5. Cosa assolutamente non da poco.
Poi quelli che si lamentano sono gli stessi che accoppiano una 3070 ad un 1700x, oppure una 4090 ad un 9900k ed hanno pure da ridire se il risultato a schermo non li entusiasma, dando la colpa alla poca vram oppure all'incapacità dei programmatori.
Bah vabbè....


non capisco cosa, diamine, ci azzecchi sta sparata ma lascio perdere, è già tardi :asd:. Che TLOU sia un aborto di programmazione, a oggi, non è in discussione cmq.

1890mhz 925mV, le memorie a 16Gbps.

Io pure 1890, 919mV memorie a default, le mie non salgono una mazza

Ubro92
13-04-2023, 22:08
Comunque Plague Tale è un chiodo per le cpu quando sei nel villaggio, anche un 5800x3d fa avere dei crolli sotto l'80% con una 3080 a 1440p.

https://www.youtube.com/watch?v=RuW5A96X8qM&t

Kvarat
13-04-2023, 22:16
Seriously ... 7 "gambe" per questo francobollo ?

https://i.postimg.cc/jCV4RtKZ/aaa.png

Mi ricordo quando con la GTX 670 si era gridato allo scandalo perchè ti davano lo "schedino" a 399 dollari ...

Questa c*****a gli costa massimo 1/3 del prezzo di vendita, già le recensioni americane l'hanno messa giù parecchio dura per un 599 USD street price, qui in Italia dove gli stipendi medi al confronto sono uno scherzo stiamo dicendo che sì, tutto sommato 700 euro vanno bene ? :confused:

In Italia il gaming pc è tutto un altro livello (al ribasso) rispetto al resto del mondo. Ha un pubblico molto ma molto di nicchia.

davide155
13-04-2023, 22:31
non capisco cosa, diamine, ci azzecchi sta sparata ma lascio perdere, è già tardi :asd:. Che TLOU sia un aborto di programmazione, a oggi, non è in discussione cmq.

Perché non mi capacitavo di tutto questo astio nei confronti di una 3070 quando giochi in 1440p.
Ora ho capito il perché.
Se passi ad una cpu come 13600k o ryzen equivalente, hai un raddoppio degli fps medi (soprattutto col dlss) e sicuramente il triplo dei minimi e dei percentile.
Hai una cpu che va meno di un 6900k. Meno degli e-core degli alder-lake....non so se mi spiego.
Tlou è un aborto per chi ha hardware vecchio. Con le ultime patch e la soluzione dei crash e del jitter del mouse la situazione è notevolmente migliorata.
Il 99% di chi ha ancora stutter è perché gioca con 16gb di ram ed una cpu di vecchio stampo. Ho amici con 3080 e 3070 che lo giocano perfettamente in 1440p.



Comunque Plague Tale è un chiodo per le cpu quando sei nel villaggio, anche un 5800x3d fa avere dei crolli sotto l'80% con una 3080 a 1440p.

https://www.youtube.com/watch?v=RuW5A96X8qM&t

Si confermo....pur essendo un gioco bellissimo ha necessità di una ottima cpu sotto altrimenti ha dei cali frequenti. Soprattutto in concomitanza dei milioni di ratti. Li vedevo il 12900k schizzare al 50%, evento più unico che raro.

ColdWarGuy
13-04-2023, 23:14
Tieniti forte, con il wafer in aumento costeranno sempre di piú (la legge di moore é morta LOL) inutile tornare indietro di 11 anni parlando del 2012, i 500 euro della gtx 680 su gk104 (chip mid) non fecero piacere, é da decadi che nvidia fa sti giochetti, solo che ora i prezzi stanno sul 3-4X del target di quegli anni.

La 4090 odierna non é altro che una 5080 futura, poi si inventeranno il dlss4 o altre menate per aumentare il gap, ma la ciccia in raster prestazionalmente parlando sará quella.

Fino al 2017 si stava bene (1080ti) 700-800 euro custom buone ed avevi la top, ma la gente si é sempre lamentata comunque, anche ai tempi delle gtx 200, solo che ora sta davvero diventando improponibile andare avanti cosí.

Purtroppo penso tu abbia ragione :D, ho ancora una 1080 Strix che non mi ha mai deluso e penso di averla pagata, a suo tempo, il giusto.

Ora paradossalmente mi sentirei meglio sborsando quello che sappiamo per una 4090 piuttosto che per una 70/70 Ti.

ColdWarGuy
13-04-2023, 23:29
Beh è pur sempre una fascia bassa pompata dal clock. Cmq i PCB costano nulla, e tutto il resto che ha un costo, anche il suo margine ovviamente.:D


Lo sò bene, l'elettronica è il mio lavoro :D

Qui il PCB oltre ad essere piccolo è scarsamente popolato, mi chiedo per quale SKU sono previste le fasi mancanti del VRM ed i 2 footprints BGA vuoti per le memorie.

Dopo aver guardato le reviews di alcune custom mi sembra chiaro che, noise level a parte, sono completamente inutili.

Gran spreco di spazio e OC inesistente, la FE sembrerebbe effettivamente la migliore come compromesso size/performance e questa volta è anche semplice da smontare.

ColdWarGuy
13-04-2023, 23:30
1890mhz 925mV, le memorie a 16Gbps.

Ok, siamo lì, memorie a parte che ho lasciato a default, vale la pena alzarle ?

ColdWarGuy
13-04-2023, 23:40
In Italia il gaming pc è tutto un altro livello (al ribasso) rispetto al resto del mondo. Ha un pubblico molto ma molto di nicchia.

Vero, basta vedere i video di quelli che vanno a fare shopping nei cash & carry Micro Center ... da noi tanta grazia non c'è mai stata neanche nel periodo d'oro dei PC desktop.

mikael84
14-04-2023, 00:26
Fatto tutti i test del caso questa sera: effettivamente senza RT in 1440p nativi CB2077 si alloca intorno ai 7 GB di vram, mentre con RT tutto attivo e illuminazione su "folle" va sui 9-10 GB allocati. Stesso risultato col path tracing a parte il fatto che senza FG diventa uno slide show. :D
Detto ciò non so perchè la necessità di scrivere certe cose da parte di CDPR, che forse sia una marchettata per vendere le nuove schede?

A me il bench segna 36, ma fuori va meglio. Provato poco però. Con il g-sync non è neppure così malvagio.:p





Io pure 1890, 919mV memorie a default, le mie non salgono una mazza

Le g6 +1000 /16gb/s, dovrebbero prenderlo easy.

Comunque Plague Tale è un chiodo per le cpu quando sei nel villaggio, anche un 5800x3d fa avere dei crolli sotto l'80% con una 3080 a 1440p.

https://www.youtube.com/watch?v=RuW5A96X8qM&t

Eh ve lo dicevo.:p Pensa che quel punto, non è neppure il peggiore.

Lo sò bene, l'elettronica è il mio lavoro :D

Qui il PCB oltre ad essere piccolo è scarsamente popolato, mi chiedo per quale SKU sono previste le fasi mancanti del VRM ed i 2 footprints BGA vuoti per le memorie.

Dopo aver guardato le reviews di alcune custom mi sembra chiaro che, noise level a parte, sono completamente inutili.

Gran spreco di spazio e OC inesistente, la FE sembrerebbe effettivamente la migliore come compromesso size/performance e questa volta è anche semplice da smontare.

Tutta roba riciclata dai bus a 256bit, ma anche le 4070ti sono così. :)

lordsnk
14-04-2023, 07:35
Purtroppo penso tu abbia ragione :D, ho ancora una 1080 Strix che non mi ha mai deluso e penso di averla pagata, a suo tempo, il giusto.

Ora paradossalmente mi sentirei meglio sborsando quello che sappiamo per una 4090 piuttosto che per una 70/70 Ti.

Sono nella tua stessa situazione e la penso esattamente come te.
Sto aspettando la 4080 TI, ma considerando che ora la 4090 si trova intorno ai 1700€ e che l'euro sta guadagnando abbastanza nei confronti del dollaro, nel caso in cui questa estate trovassi un ulteriore calo di prezzo la prendo al volo e buona notte :D

Ale55andr0
14-04-2023, 07:50
Le g6 +1000 /16gb/s, dovrebbero prenderlo easy.




a 16gbs ho dei bellissimi pixel colorati o continui crash...


Tlou è un aborto per chi ha hardware vecchio.

No, è un aborto e basta: non è normale con un gioco ps5 con livelli a corridoio e grafica buona ma non certo rivoluzionaria richieda 32gb di memoria o si impalla mentre UC4, stesso angine e con livelli molto più aperti ha ZERO problemi

Purtroppo penso tu abbia ragione :D, ho ancora una 1080 Strix che non mi ha mai deluso e penso di averla pagata, a suo tempo, il giusto.

Ora paradossalmente mi sentirei meglio sborsando quello che sappiamo per una 4090 piuttosto che per una 70/70 Ti.

La 1080 a livello di rapporto prezzo prestazioni è stata la miglior scheda mai presa subito dietro la 290 liscia di AMD. Entrambe quasi top di gamma pagate rispettivamente 460 e 380, nuove...quel tipo di convenienza è andata a farsi benedire, o ggi con 400/500 prendi un infimo scarto dello scarto che schiferebbe un barbone di Calcutta

Sono nella tua stessa situazione e la penso esattamente come te.
Sto aspettando la 4080 TI, ma considerando che ora la 4090 si trova intorno ai 1700€ e che l'euro sta guadagnando abbastanza nei confronti del dollaro, nel caso in cui questa estate trovassi un ulteriore calo di prezzo la prendo al volo e buona notte :D

Ne trovi anche anche a 1600. Mentre la 4080 resta minimo 1250, assolutamente incagabile

ninja750
14-04-2023, 08:26
Il 99% di chi ha ancora stutter è perché gioca con 16gb di ram

se su console gira su 16gb condivisi non c'è molto da capire che già un sistema 16+16 è sovradimensionato figurati 16+32

è il porting fatto con il sedere

EffeX
14-04-2023, 08:36
se su console gira su 16gb condivisi non c'è molto da capire che già un sistema 16+16 è sovradimensionato figurati 16+32

è il porting fatto con il sedere

Giusta osservazione.
Solo che su pc han caricato texture HD e amenità varie che non servono a niente se non ad alimentare la pcmasterrace quando bastava fare un porting 1:1 col remastered per ps5.
Ma poi in tutto ciò io mi chiedo una cosa: il direct storage che fine ha fatto? :confused:

StylezZz`
14-04-2023, 09:51
Ok, siamo lì, memorie a parte che ho lasciato a default, vale la pena alzarle ?

In alcuni giochi 3-4fps li prendi, ti costa solo qualche watt in più.

Ubro92
14-04-2023, 10:27
se su console gira su 16gb condivisi non c'è molto da capire che già un sistema 16+16 è sovradimensionato figurati 16+32

è il porting fatto con il sedere

Si però le console lavorano diversamente, su pc servirebbe il direct storage soprattutto per come sono concepiti i porting di sony, poichè c'è un continuo passaggio di dati tra ram e vram che potrebbe tranquillamente essere bypassato, il paging sale anche a 30GB GB su molti di questi porting.

Giusta osservazione.
Solo che su pc han caricato texture HD e amenità varie che non servono a niente se non ad alimentare la pcmasterrace quando bastava fare un porting 1:1 col remastered per ps5.
Ma poi in tutto ciò io mi chiedo una cosa: il direct storage che fine ha fatto? :confused:

Comunque su TLOU sono stati abbastanza minuziosi nello specificare ogni set grafico su cosa pesa (cpu, vram, gpu) a seconda del proprio sistema si può bilanciare tutto per evitare balbuzie o cose strane.
Che poi siamo alla quinta patch in 2 settimane, è palese che ci siano diverse cose da sistemare.

Ma il grosso della vram occupata riguarda le texture dell'ambiente, neanche tanto quelle relative a oggetti e personaggi, già scalando quelle a medio ti risparmi 3GB e non è che la grafica cambi più di tanto, parliamo di texture semplicemente upscalate dalle originali, sarebbe una manna se facessero una reworked mod delle texture e probabilmente anche settate su basso renderebbero meglio visivamente di quelle ultra originali.

ninja750
14-04-2023, 10:47
Ma poi in tutto ciò io mi chiedo una cosa: il direct storage che fine ha fatto? :confused:

Si però le console lavorano diversamente, su pc servirebbe il direct storage soprattutto per come sono concepiti i porting di sony, poichè c'è un continuo passaggio di dati tra ram e vram che potrebbe tranquillamente essere bypassato, il paging sale anche a 30GB GB su molti di questi porting.

per come lo abbiamo visto implementato su forespoken non serve a niente

OrazioOC
14-04-2023, 10:49
https://videocardz.com/newz/nvidia-ceo-jensen-huang-is-computex-2023-keynote-speaker

4060(ti) incoming?

EffeX
14-04-2023, 10:57
per come lo abbiamo visto implementato su forespoken non serve a niente

Ma siamo sicuri che Forspoken lo implementasse?
Lo avevano detto, ma poi buio totale...

ninja750
14-04-2023, 11:02
Ma siamo sicuri che Forspoken lo implementasse?
Lo avevano detto, ma poi buio totale...

hai voglia

tutte le testate fecero review in dettaglio

pure hwupgrade

https://www.hwupgrade.it/articoli/storage/6475/directstorage-alla-prova-su-forkspoken-primi-test-incoraggianti-ma-diverse-incognite_index.html

Ubro92
14-04-2023, 11:03
per come lo abbiamo visto implementato su forespoken non serve a niente

A mio parere è proprio forespoken che non serve a niente :sofico:

ninja750
14-04-2023, 11:11
i BIASED hardware unboxed che secondo voi è sfacciatamente PRO AMD ha fatto una comparativa DLSS vs FSR

https://cdn.videocardz.com/1/2023/04/AMD-FSR-VS-DLSS-HERO-BANNER-1200x418.jpg

così per dire eh

Maury
14-04-2023, 11:14
A me sembra proprio che FSR senza le unità dedicate sia sempre peggio, la qualità pare in discesa libera. Gli altri, nVidia e Intel hanno prodotti di molto superiori, è meglio che AMD si dia una svegliata...

Ubro92
14-04-2023, 11:15
Considerando che l'FSR va anche sulle gpu Maxwell per me rientra nei pro quelle differenze :fagiano:
Comunque come resa, l'ultimo 3.1.11 si comporta decisamente bene, sui vecchi titoli sostituendo la DLL si nota la differenza.

Comunque sulle schede non RTX, anche l'Xess può essere un'interessante alternativa.

Maury
14-04-2023, 11:21
Considerando che l'FSR va anche sulle gpu Maxwell per me rientra nei pro quelle differenze :fagiano:
Comunque come resa, l'ultimo 3.1.11 si comporta decisamente bene, sui vecchi titoli sostituendo la DLL si nota la differenza.

Comunque sulle schede non RTX, anche l'Xess può essere un'interessante alternativa.

A si quello sicuramente, poterlo usare ovunque è meglio di non averlo per niente, però spero che la ricerca AMD non sia solo mirata ad avere più fps a discapito della qualità dell'immagine.

Cutter90
14-04-2023, 11:23
i BIASED hardware unboxed che secondo voi è sfacciatamente PRO AMD ha fatto una comparativa DLSS vs FSR

https://cdn.videocardz.com/1/2023/04/AMD-FSR-VS-DLSS-HERO-BANNER-1200x418.jpg

così per dire eh

E' un po' in effetti che non sento i fan amd e il loro "il dlss è uguale al FSR" :D

Con il dlss 2.5 lo stacco è aumentato ancora

Goofy Goober
14-04-2023, 11:25
in realtà è più probabile l contrario. io ho quasi sempre solo trovato appassionati si ma fanboy fino al midollo. probabilmente è normale così. una recensione di un utente conta poco perché o è fanboy o comunque è poco propenso ad ammettere (nel caso) di aver sprecato soldi


il fanboy é lo stato di marcescenza avanzato di colui che una volta era appassionato :O


tear down della 4070

https://www.youtube.com/watch?v=pjaxUCPqqbI&ab_channel=GamersNexus

...mette una gran tristezza :rolleyes:

e pensa metterla a liquido.
ok per chi fa build mini ha tanti pro... ma altrove fa capire perché EK si é messa a fare i waterblock che rendono piú larghe e lunghe le schede video :asd:

https://videocardz.com/newz/nvidia-ceo-jensen-huang-is-computex-2023-keynote-speaker

4060(ti) incoming?

questa la fanno direttamente low profile da 1 slot :sofico:

nessuno29
14-04-2023, 11:34
A me sembra proprio che FSR senza le unità dedicate sia sempre peggio, la qualità pare in discesa libera. Gli altri, nVidia e Intel hanno prodotti di molto superiori, è meglio che AMD si dia una svegliata...
No la qualità in realtà non è in discesa libera, considerando che è gratuito per tutti (sta letteralmente salvando chi gioca ancora con hw datato e se tutto andrà bene salverà anche le rtx 3000 con l'fsr3) e che come vedi nella maggior parte dei casi il risultato è simile o solo leggermente inferiore al dlss direi che AMD ha fatto e sta facendo a tutti un grosso regalo.

appleroof
14-04-2023, 11:35
Scusate l'Ot, ma leggendo di dlss2.5 ho indagato un attimo, vedo che TPU mette a disposizione le varie versioni dei ddl, ma curiosando nella cartella di CP2077 vedo che è già installata la versione 3.1.1 del dlss....ma non era incompatibile con la serie 2000? :confused:

Ubro92
14-04-2023, 11:46
Scusate l'Ot, ma leggendo di dlss2.5 ho indagato un attimo, vedo che TPU mette a disposizione le varie versioni dei ddl, ma curiosando nella cartella di CP2077 vedo che è già installata la versione 3.1.1 del dlss....ma non era incompatibile con la serie 2000? :confused:

Il DLSS 3.1.11 è sempre dlss 2, è solo la versione aggiornata.
Il DLSS3 aggiunge il frame generator e per quello attualmente ti serve per forza una 4000.

Maury
14-04-2023, 11:46
No la qualità in realtà non è in discesa libera, considerando che è gratuito per tutti (sta letteralmente salvando chi gioca ancora con hw datato e se tutto andrà bene salverà anche le rtx 3000 con l'fsr3) e che come vedi nella maggior parte dei casi il risultato è simile o solo leggermente inferiore al dlss direi che AMD ha fatto e sta facendo a tutti un grosso regalo.

Io il calo l'ho percepito, ma soprattutto se da una parte il DLSS ed ora XeSS, migliorano, FSR non lo fa e forse neanche può data la sua natura. Ultimo caso CP 2077, per me l'attuale implementazione di FSR non è buona per niente.

Poi che faccia comodo e che lo si usa con il sorriso ci sta, in mancaza di altro ne faccio un uso smodato pure io :D

mikael84
14-04-2023, 11:53
a 16gbs ho dei bellissimi pixel colorati o continui crash...

Ram e MC da portare a lourdes. Anche le più schifose fanno 16,5gb/s. 16gb/s dovrebbe essere mediamente easy. Considerando che già nei rispettivi wafer di produzione ci ricavano pure le 16 gb/s.
https://i.postimg.cc/kXGGZMNS/ram-oc.png




La 1080 a livello di rapporto prezzo prestazioni è stata la miglior scheda mai presa subito dietro la 290 liscia di AMD. Entrambe quasi top di gamma pagate rispettivamente 460 e 380, nuove...quel tipo di convenienza è andata a farsi benedire, o ggi con 400/500 prendi un infimo scarto dello scarto che schiferebbe un barbone di Calcutta


Ottima scheda nel periodo, anche se paradossalmente i costi di realizzo erano nettamente inferiori a quelli di una 4070 odierna.

https://videocardz.com/newz/nvidia-ceo-jensen-huang-is-computex-2023-keynote-speaker

4060(ti) incoming?

Li ci sarà da ridere. Cmq penso faccia 399$.:)

i BIASED hardware unboxed che secondo voi è sfacciatamente PRO AMD ha fatto una comparativa DLSS vs FSR



così per dire eh

Parliamo dell'ovvio su... ci mancherebbe. :p
Se dicessero il contrario qualcuno potrebbe realmente non seguirli più.

EffeX
14-04-2023, 12:09
hai voglia

tutte le testate fecero review in dettaglio

pure hwupgrade

https://www.hwupgrade.it/articoli/storage/6475/directstorage-alla-prova-su-forkspoken-primi-test-incoraggianti-ma-diverse-incognite_index.html

Ah, grazie! Mi era sfuggito. ;)

nessuno29
14-04-2023, 12:24
Io il calo l'ho percepito, ma soprattutto se da una parte il DLSS ed ora XeSS, migliorano, FSR non lo fa e forse neanche può data la sua natura. Ultimo caso CP 2077, per me l'attuale implementazione di FSR non è buona per niente.

Poi che faccia comodo e che lo si usa con il sorriso ci sta, in mancaza di altro ne faccio un uso smodato pure io :D
Scusate l'ot questo è l'ultimo post
Quale dei due è l'fsr?

Hai scelto proprio un gioco dove l'fsr 2.1 è implementato ottimamente, in alcune cose anche superiore al dlss ci ho passato le ore.

https://i.ibb.co/XVh6D22/Cyberpunk-2077-C-2020-by-CD-Projekt-RED-14-04-2023-13-18-37.png (https://ibb.co/XVh6D22) https://i.ibb.co/M2cypft/Cyberpunk-2077-C-2020-by-CD-Projekt-RED-14-04-2023-13-19-04.png (https://ibb.co/M2cypft)

Ed aggiungo l'rt è spento o acceso?

fraussantin
14-04-2023, 12:44
Scusate l'ot questo è l'ultimo post
Quale dei due è l'fsr?

Hai scelto proprio un gioco dove l'fsr 2.1 è implementato ottimamente, in alcune cose anche superiore al dlss ci ho passato le ore.

https://i.ibb.co/XVh6D22/Cyberpunk-2077-C-2020-by-CD-Projekt-RED-14-04-2023-13-18-37.png (https://ibb.co/XVh6D22) https://i.ibb.co/M2cypft/Cyberpunk-2077-C-2020-by-CD-Projekt-RED-14-04-2023-13-19-04.png (https://ibb.co/M2cypft)

Ed aggiungo l'rt è spento o acceso?L'fsr lo vedi peccare parecchio neii movimenti , sopratutto nelle auto e nella gente in lontananza.

ColdWarGuy
14-04-2023, 12:46
https://videocardz.com/newz/nvidia-ceo-jensen-huang-is-computex-2023-keynote-speaker

4060(ti) incoming?

L'eccitazione per l'evento è pari a quella di andare dal dentista, sulle performance raster e dimensioni / popolamento dei PCB di quelle schede ci faremo grasse risaie.

Dei loro benchmark, che guarderò solo per capire fino a che punto è arrivato il loro coraggio nel gonfiare la fanfara, personalmente skipperò qualsiasi grafico che contenga anche un solo numero del DLSS 3.

EffeX
14-04-2023, 13:10
Scusate l'ot questo è l'ultimo post
Quale dei due è l'fsr?

Hai scelto proprio un gioco dove l'fsr 2.1 è implementato ottimamente, in alcune cose anche superiore al dlss ci ho passato le ore.

https://i.ibb.co/XVh6D22/Cyberpunk-2077-C-2020-by-CD-Projekt-RED-14-04-2023-13-18-37.png (https://ibb.co/XVh6D22) https://i.ibb.co/M2cypft/Cyberpunk-2077-C-2020-by-CD-Projekt-RED-14-04-2023-13-19-04.png (https://ibb.co/M2cypft)

Ed aggiungo l'rt è spento o acceso?

Su primi piani FSR è ottimo, purtroppo è nei dettagli distanti dove mostra il fianco, in CB2077 specialmente se inquadri reti, fili appesi da un palazzo all'altro, insegne al neon ecc vedrai molto flickering.

appleroof
14-04-2023, 13:44
Il DLSS 3.1.11 è sempre dlss 2, è solo la versione aggiornata.
Il DLSS3 aggiunge il frame generator e per quello attualmente ti serve per forza una 4000.

ok giusto

approfitto per dire che ho provato CP con il PR e ovviamente per la 2080ti risulta appena giocabile solo con dlss su ultra prestazioni (circa 40fps tutto il resto maxato a 1440p 16:9) ma con quella impostazione vedo troppi artefatti per i miei gusti (infatti quando lo uso lo setto sempre su qualità/equilibrato a seconda dei giochi)

Cutter90
14-04-2023, 13:57
Scusate l'ot questo è l'ultimo post
Quale dei due è l'fsr?

Hai scelto proprio un gioco dove l'fsr 2.1 è implementato ottimamente, in alcune cose anche superiore al dlss ci ho passato le ore.

https://i.ibb.co/XVh6D22/Cyberpunk-2077-C-2020-by-CD-Projekt-RED-14-04-2023-13-18-37.png (https://ibb.co/XVh6D22) https://i.ibb.co/M2cypft/Cyberpunk-2077-C-2020-by-CD-Projekt-RED-14-04-2023-13-19-04.png (https://ibb.co/M2cypft)

Ed aggiungo l'rt è spento o acceso?

Mi butto io. La prima immagine è con fsr+rt. La seconda senza entrambe.
E il RT non è forse nemmeno psyco e sicuro no path tracing

Cp2077 è purtroppo uno dei giochi in cui il dlss è implementato peggio.

Ubro92
14-04-2023, 14:10
Ram e MC da portare a lourdes. Anche le più schifose fanno 16,5gb/s. 16gb/s dovrebbe essere mediamente easy.

La mia sta rilassata a 16Gbps, ma sale tranquilla senza artefatti anche a +1500 (17Gbps) non ho provato oltre sinceramente. Però non credo valga la pena spingere troppo, la soglia dei 16Gbps credo sia un ottimo compromesso per GA104.

StylezZz`
14-04-2023, 14:16
La mia a 17Gbps crasha, provato su Metro Exodus con tantissimi artefatti.

Ubro92
14-04-2023, 14:26
La mia a 17Gbps crasha, provato su Metro Exodus con tantissimi artefatti.

Ho provato giusto per sfizio e su Kena, fino a +1850 non ha mostrato artefatti, oltre si inizia a vedere qualche quadratino random e a +2000 si chiude il gioco.

Forse trattandosi di un modello LHR ha memorie di produzione più recente, però considerando anche il dissi preferisco tenerla rilassata.

nessuno29
14-04-2023, 14:32
Mi butto io. La prima immagine è con fsr+rt. La seconda senza entrambe.
E il RT non è forse nemmeno psyco e sicuro no path tracing

Cp2077 è purtroppo uno dei giochi in cui il dlss è implementato peggio.

Si è path tracing la prima con fsr la seconda con dlss quality in 1440 :D
Almeno un coraggioso che si è lanciato dai.

mikael84
14-04-2023, 15:03
La mia sta rilassata a 16Gbps, ma sale tranquilla senza artefatti anche a +1500 (17Gbps) non ho provato oltre sinceramente. Però non credo valga la pena spingere troppo, la soglia dei 16Gbps credo sia un ottimo compromesso per GA104.

La mia a 17Gbps crasha, provato su Metro Exodus con tantissimi artefatti.

Beh 17 gb/s è davvero tanto. Con quel PP (quello samsung delle ram 11lpp) è ai limiti.

Queste ad esempio, sono le HC16, le più selezionate del lotto di produzione, ed i 17 li superano a stento.
Su delle 14 è ottimo.
https://i.postimg.cc/tCdgBvnw/hc-16.png

Da considerare che le HC16, sono sicuramente un pochino più tirate in latenze.

Quella di Alessandro è probabilmente primi lotti da 12 gb/s.

Cutter90
14-04-2023, 15:22
Si è path tracing la prima con fsr la seconda con dlss quality in 1440 :D
Almeno un coraggioso che si è lanciato dai.

Quindi Lfsr l'ho beccato. Diciamo che il path tracing hai scelto una zona in cui non si vede quasi per nulla, rara tra l'altro.
Si vede che fsr è peggio del dlss anche da quella immagine

Ale55andr0
14-04-2023, 16:46
Ram e MC da portare a lourdes. Anche le più schifose fanno 16,5gb/s. 16gb/s dovrebbe essere mediamente easy. Considerando che già nei rispettivi wafer di produzione ci ricavano pure le 16 gb/s.
https://i.postimg.cc/kXGGZMNS/ram-oc.png

che vuoi che ti dica? :D si vede che la mia è un roito al quadrato :sofico:


Ottima scheda nel periodo, anche se paradossalmente i costi di realizzo erano nettamente inferiori a quelli di una 4070 odierna.

immagini già quanto mi importa del costo di realizzo di nvidia :asd:

Ubro92
14-04-2023, 23:23
Comunque ho beccato delle ottime memorie, 17.5Gbps e non fanno una piega.
Da 16Gbps a 17.5Gbps si guadagna qualcosa anche se minimo, peccato solo per quel PL lockato a 200w, con 225w sarebbe stato più divertente :sofico:

https://i.postimg.cc/ftsx6Mmf/Superposition-Benchmark-v1-1-7428-1681505029.png (https://postimg.cc/ftsx6Mmf) https://i.postimg.cc/vxH5ZXP1/Superposition-Benchmark-v1-1-7505-1681504792.png (https://postimg.cc/vxH5ZXP1)

MATTEW1
15-04-2023, 07:22
Avevo scritto bene, meno del 1080p: 1707x960.

Scusate l'intrusione ma sta cosa del dlss mi sta incasinando
..se gioco a 1440p con il dlss qualità è come se giocassi meno del full hd?
A sto punto perché non giocare direttamente in full hd? Solo per dire all'amico di turno guarda sto a 1440p?
Ho capito male?

X360X
15-04-2023, 07:33
Scusate l'intrusione ma sta cosa del dlss mi sta incasinando
..se gioco a 1440p con il dlss qualità è come se giocassi meno del full hd?
A sto punto perché non giocare direttamente in full hd? Solo per dire all'amico di turno guarda sto a 1440p?
Ho capito male?

Non si setta mai nella vita un LCD diverso dalla sua risoluzione nativa.

Se ti serve più framerate rispetto alla nativa del tuo monitor (possibilmente almeno QHD perché ste tecnologie su un fullhd si notano troppo) usi DLSS (o FSR), ne più ne meno

fraussantin
15-04-2023, 07:37
Scusate l'intrusione ma sta cosa del dlss mi sta incasinando

..se gioco a 1440p con il dlss qualità è come se giocassi meno del full hd?

A sto punto perché non giocare direttamente in full hd? Solo per dire all'amico di turno guarda sto a 1440p?

Ho capito male?Dovrebbe essere 720p

Per il resto è come scritto sopra

X360X
15-04-2023, 07:43
Dovrebbe essere 720p

Per il resto è come scritto sopra

960p (se così vogliamo chiamarla)

720p è dal fullhd, o qhd su performance
https://voonze.com/wp-content/uploads/2021/07/escalado-resoluci%C3%B3n.jpg

Cutter90
15-04-2023, 07:48
Scusate l'intrusione ma sta cosa del dlss mi sta incasinando
..se gioco a 1440p con il dlss qualità è come se giocassi meno del full hd?
A sto punto perché non giocare direttamente in full hd? Solo per dire all'amico di turno guarda sto a 1440p?
Ho capito male?

Perchè ovviamente la definizione dell'immagine è migliore rispetto a giocare direttamente in quella risoluzione... altrimenti secondo te tutti sarebbero così felici del dlss? :D
Ora, varia da gioco a gioco, ma il più delle volte la definizione è la medesima della risoluzione di uscita, nonostante il gioco stia renderizzando ad una inferiore. E' proprio quella la "bazza" del dlss.

MATTEW1
15-04-2023, 12:07
Grazie ragazzi. Ora mi è tutto chiaro

Ubro92
15-04-2023, 12:46
Nel caso di un ultrawide è 2296x960, pochissimo più densa di un normale FHD.
Rispetto 3440x1440 è un bello sgravo dalla gpu, però impatta sulla cpu, se non è recente e adeguata può risultare del tutto inutile.

lordsnk
16-04-2023, 08:51
A quanto pare per il mercato americano il lancio della 4070 è stato un completo disastro con i vari store che hanno centinaia di schede a marcire sugli scaffali.

Visto il costo più "basso" si aspettavano che i gamers si fiondassero su questa scheda e avevano fatto scorta :D

Speriamo che la stessa cosa accada anche qui da noi.
L'unico modo per normalizzare il mercato è quello di non comprare queste 4000 (4090 a parte).

Il problema della 4070 non è soltanto di prezzo, ma di prestazioni.
Infatti a causa del bus castrato scala male a 4K e di fatto non la rende simile a una 3080 nonostante i 2Gb di vram in più.

ultimate trip
16-04-2023, 09:02
....
L'unico modo per normalizzare il mercato è quello di non comprare queste 4000 (4090 a parte).
....

con questa gen nvidia ha spinto tanto coi prezzi, si è vero che i prezzi salgono (e che da noi il cambio pesa un +20%) però le 80 le hanno raddoppiate da ampere.
vediamo se a settembre qualcosa migliora, saremo a metà generazione e si spera con un po' più di concorrenza

Ubro92
16-04-2023, 09:03
A quanto pare per il mercato americano il lancio della 4070 è stato un completo disastro con i vari store che hanno centinaia di schede a marcire sugli scaffali.

Visto il costo più "basso" si aspettavano che i gamers si fiondassero su questa scheda e avevano fatto scorta :D

Speriamo che la stessa cosa accada anche qui da noi.
L'unico modo per normalizzare il mercato è quello di non comprare queste 4000 (4090 a parte).

Il problema della 4070 non è soltanto di prezzo, ma di prestazioni.
Infatti a causa del bus castrato scala male a 4K e di fatto non la rende simile a una 3080 nonostante i 2Gb di vram in più.

Se la chiamavano 4060/4060ti e te la mettevano nell'intorno dei 350$ te ne fregavi ampiamente dei 192bit :sofico:
L'unico problema di sta scheda è il prezzo per un 295mm2 pesantemente devastato...

fraussantin
16-04-2023, 09:06
Se la chiamavano 4060/4060ti e te la mettevano nell'intorno dei 350$ te ne fregavi ampiamente dei 192bit :sofico:
L'unico problema di sta scheda è il prezzo per un 295mm2 pesantemente devastato...Difatti non è una scheda da 4k .

È la fascia bassa che un tempo andava bene per ul 1080p e oggi si sposa bene con il 2k.

Ma se il titolo nvidia continua a salire jenseng ha cmq vinto.

StylezZz`
16-04-2023, 09:22
Difatti non è una scheda da 4k .

È la fascia bassa che un tempo andava bene per ul 1080p e oggi si sposa bene con il 2k.

Ma se il titolo nvidia continua a salire jenseng ha cmq vinto.

Non esageriamo, ha specifiche da '60 che è sempre stata fascia media.

La scheda è ok, il problema è appunto il prezzo e il nome ingannevole.

Ubro92
16-04-2023, 09:33
Non esageriamo, ha specifiche da '60 che è sempre stata fascia media.

Infatti bassa è un pò esagerato, alla fine va come una 3080 e consuma come una 3060ti, rimanendo sui classici 1440p e relativo ultrawide fa quel che deve ed è progettata per sfruttare DLSS e frame generator, quindi è un chip che nella fascia media avrebbe spaccato, o almeno avrebbe ricalcato in pieno il percorso della 1060 vs 980 o meglio ancora 2060 vs 1080 con l'aggiunta del DLSS.

Invece a questo giro abbiamo una 4060 liscia che nel teorico non prende neanche la 2080 di due gen fa, come Tflops se la gioca con la 2070s e neanche... ma è un ad107 (146mm2) quindi non c'è molto da dire dal punto di vista tecnico...

lordsnk
16-04-2023, 09:41
Difatti non è una scheda da 4k .

È la fascia bassa che un tempo andava bene per ul 1080p e oggi si sposa bene con il 2k.

Ma se il titolo nvidia continua a salire jenseng ha cmq vinto.

Questo è quello che vuole farti pensare nvidia.
Se avesse un bus da 256bit + il FG diventa eccome una scheda da 4K.
Con una 3080 12Gb puoi giocare a 4K con dei compromessi, figurati se avesse anche l'FG. :D
Smettiamola di pensare che per giocare bisogna settare sempre tutto ad Ultra.
Ultra serve solo per i benchmark, infatti ci sono sempre delle impostazioni che se abbassate non cambiano nulla da un punto di vista della qualità grafica ma ti danno un boost di fps :D

ste-87
16-04-2023, 10:10
A quanto pare per il mercato americano il lancio della 4070 è stato un completo disastro con i vari store che hanno centinaia di schede a marcire sugli scaffali.

Visto il costo più "basso" si aspettavano che i gamers si fiondassero su questa scheda e avevano fatto scorta :D

Speriamo che la stessa cosa accada anche qui da noi.
L'unico modo per normalizzare il mercato è quello di non comprare queste 4000 (4090 a parte).

Il problema della 4070 non è soltanto di prezzo, ma di prestazioni.
Infatti a causa del bus castrato scala male a 4K e di fatto non la rende simile a una 3080 nonostante i 2Gb di vram in più.

speriamo, per quel che mi riguarda la serie da acquistare sarà la serie 5xxx e probabilmente sulla fascia x70/x70Ti massimo, questa la salto volentieri a piè pari e spero lo facciano la maggior parte di quelli che ad oggi non si ritrovino o senza gpu o con una serie 9xx-1xxx che ormai gli incomincia davvero ad andar stretta....se non gli diamo una "regolata" con i prezzi (considerando anche i cut vergognosi da fascia inferiore rispetto a quella nominale) la prossima gen sarà ancora più vergognosa sotto questo aspetto, al netto di tutte le scuse/giustificazioni/ragioni che uno può tirar fuori per il proprio acquisto.

ColdWarGuy
16-04-2023, 10:53
A quanto pare per il mercato americano il lancio della 4070 è stato un completo disastro con i vari store che hanno centinaia di schede a marcire sugli scaffali.

-snip


Questa è un'ottima notizia, hai qualche link a riguardo ?

Le "gioiellerie" dell'HW di Milano hanno a tutt'oggi disponibili, a pronta consegna, parecchi esemplari di 4070, vari modelli di vari brand, questo mi dà l'idea che nessuno ha bivaccato fuori degli stessi la notte prima del lancio :D

Faccio notare che i prezzi superano gli 800 euro es. con la TUF OC a 839 :fagiano:

Ora, io non voglio male a loro, ma spero in un gigantesco flop di vendite altrimenti vuol dire che i customers hanno perso il senso della misura, soprattutto considerato il periodo di pianto per le conseguenze di pandemia, guerra, siccità, migrazioni, etc.

Ubro92
16-04-2023, 11:02
speriamo, per quel che mi riguarda la serie da acquistare sarà la serie 5xxx e probabilmente sulla fascia x70/x70Ti massimo, questa la salto volentieri a piè pari e spero lo facciano la maggior parte di quelli che ad oggi non si ritrovino o senza gpu o con una serie 9xx-1xxx che ormai gli incomincia davvero ad andar stretta....se non gli diamo una "regolata" con i prezzi (considerando anche i cut vergognosi da fascia inferiore rispetto a quella nominale) la prossima gen sarà ancora più vergognosa sotto questo aspetto, al netto di tutte le scuse/giustificazioni/ragioni che uno può tirar fuori per il proprio acquisto.

Chissà forse con le 5000 tornerà anche EVGA :sofico:

ultimate trip
16-04-2023, 11:09
... ma spero in un gigantesco flop di vendite altrimenti vuol dire che i customers hanno perso il senso della misura, soprattutto considerato il periodo di pianto per le conseguenze di pandemia, guerra, siccità, migrazioni, etc.

io credo che un segnale stia arrivando, prima di tutto con le 4080 e ora con i modelli a scendere. probabilmente era un passaggio obbligato in quanto c'erano ancora tante ampere in giro, ma non mi pare di sentire tanta frenesia a passare a queste schede tranne per la fascia enthusiast

mikael84
16-04-2023, 11:53
Difatti non è una scheda da 4k .

È la fascia bassa che un tempo andava bene per ul 1080p e oggi si sposa bene con il 2k.

Ma se il titolo nvidia continua a salire jenseng ha cmq vinto.

Nvidia sale, le mazzate le prendono gli AIB. A breve nvidia, avrà pure un vantaggio sui datacenter, ed avrà sempre più grossa fetta di margine da li.

Chissà forse con le 5000 se ne andranno altri come EVGA :sofico:

Aggiungo un fix, così mi sembra più corretto.

Ubro92
16-04-2023, 11:58
Aggiungo un fix, così mi sembra più corretto.

:sofico:

Ale55andr0
16-04-2023, 12:34
A quanto pare per il mercato americano il lancio della 4070 è stato un completo disastro con i vari store che hanno centinaia di schede a marcire sugli scaffali.

.

la mia fiducia nell'intelligenza media dell'uomo comune è salita dell'1% :O

Ale55andr0
16-04-2023, 12:37
Questa è un'ottima notizia, hai qualche link a riguardo ?

Le "goiellerie" dell'HW di Milano hanno a tutt'oggi disponibili, a pronta consegna, parecchi esemplari di 4070, vari modelli di vari brand, questo mi dà l'idea che nessuno ha bivaccato fuori degli stessi la notte prima del lancio :D


speriamo che la Cina non rompa le balle a Taiwan va'....:stordita:

mikael84
16-04-2023, 12:39
A quanto pare per il mercato americano il lancio della 4070 è stato un completo disastro con i vari store che hanno centinaia di schede a marcire sugli scaffali.

Visto il costo più "basso" si aspettavano che i gamers si fiondassero su questa scheda e avevano fatto scorta :D

Speriamo che la stessa cosa accada anche qui da noi.
L'unico modo per normalizzare il mercato è quello di non comprare queste 4000 (4090 a parte).

Il problema della 4070 non è soltanto di prezzo, ma di prestazioni.
Infatti a causa del bus castrato scala male a 4K e di fatto non la rende simile a una 3080 nonostante i 2Gb di vram in più.

E molti ancora non sanno che x60/ti sta preparando. 128bit con 288 gb/s di banda + 32mb di cache x 500 euro.

Io continuo a ripetere che questo nodo, è stato croce e delizia. Ottimo in alto, male, molto male in basso, per il riciclo di chip di classe inferiore.

Al prossimo giro, si ritroverà con i 3nm scarsi in riduzione cache, e la quadrupla densità potrebbe non averla ancora, soprattutto quando fai accordi con micron che è indietro. Ci potrebbe essere la possibilità, che BL102 passi da 384 a 512bit a scalare in basso.

ColdWarGuy
16-04-2023, 14:00
speriamo che la Cina non rompa le balle a Taiwan va'....:stordita:

La Cina invaderà Taiwan quando arriverà a pensare che rompere i rapporti di scambio economico con USA ed EU sia un passaggio sopportabile.

Personalmente penso che, malgrado i meccanismi di protezione recentemente adottati dagli USA, ormai le proprietà intellettuali che i cinesi hanno, in un modo o nell'altro, acquisito e messo in opera, siano sufficienti per indurre il loro governo a pensare di potersi arrangiare da soli.

Se dovesse mai succedere, l'intera economia globale ne verrebbe sconvolta, almeno per un certo periodo, con conseguenze difficilmente stimabili, tipo banche che saltano, aziende che chiudono, servizi che cessano, etc etc.

Le sorti del mondo videoludico sarebbero l'ultimo dei nostri problemi, to say the least.

ColdWarGuy
16-04-2023, 14:12
Nvidia sale, le mazzate le prendono gli AIB. A breve nvidia, avrà pure un vantaggio sui datacenter, ed avrà sempre più grossa fetta di margine da li.


Tutto vero ma c'è anche da dire che il loro titolo è decisamente sovraquotato, se compiono errori strategici e/o subentrano fattori esterni fanno presto a fare la fine che hanno fatto parecchie aziende tecnologiche della silicon valley ormai scomparse / svendute, soprattutto come entità completamente fabless e totalmente dipendente da TSMC.

Ricordiamoci che anche Apple ha rischiato la chiusura dopo un periodo di sovraprezzi e decisioni di mercato errate derivate da deliri di onnipotenza e forse non tutti sanno che al ritorno di Steve Jobs la mela è stata salvata grazie ad un prestito, mai realmente reso, fatto dalla Microsoft per decisione di Bill Gates su richiesta personale del "visionario".

ste-87
16-04-2023, 15:46
Tutto vero ma c'è anche da dire che il loro titolo è decisamente sovraquotato, se compiono errori strategici e/o subentrano fattori esterni fanno presto a fare la fine che hanno fatto parecchie aziende tecnologiche della silicon valley ormai scomparse / svendute, soprattutto come entità completamente fabless e totalmente dipendente da TSMC.

Ricordiamoci che anche Apple ha rischiato la chiusura dopo un periodo di sovraprezzi e decisioni di mercato errate derivate da deliri di onnipotenza e forse non tutti sanno che al ritorno di Steve Jobs la mela è stata salvata grazie ad un prestito, mai realmente reso, fatto dalla Microsoft per decisione di Bill Gates su richiesta personale del "visionario".

sovra-quotato non direi, ha avuto picchi ben più alti (con lo split delle azioni attuali) era arrivata ai circa 330 dollari a fine 2021 e da allora ha fatto passi avanti molto importanti sotto molti fronti, molto più remunerativi delle schede video per i consumer sul quale ci concentriamo noi, vedi chip per la guida autonoma, chip per IA, datacenter...il più recente "picco" di poche settimane fa si è fermato a 267$, quindi a situazione (per lei) migliorata in molti campi il valore rispetto a prima è ancora "basso"

ColdWarGuy
16-04-2023, 16:25
sovra-quotato non direi, ha avuto picchi ben più alti (con lo split delle azioni attuali) era arrivata ai circa 330 dollari a fine 2021 e da allora ha fatto passi avanti molto importanti sotto molti fronti, molto più remunerativi delle schede video per i consumer sul quale ci concentriamo noi, vedi chip per la guida autonoma, chip per IA, datacenter...il più recente "picco" di poche settimane fa si è fermato a 267$, quindi a situazione (per lei) migliorata in molti campi il valore rispetto a prima è ancora "basso"

E' vero che stanno cavalcando a pieno l'onda dell'AI ed hanno pescato un pesce bello grosso a cui hanno venduto 10000 GPU professionali :

https://i.postimg.cc/RhcWQgRg/je.jpg

detto questo molte pubblicazioni / addetti ai lavori, tra cui Forbes, la pensano diversamente (basta cercare i termini nvidia overvalued con google per farsi un'idea) ed io la penso allo stesso modo.

EffeX
16-04-2023, 20:02
Io son sempre dell'idea che a Nvidia il mercato delle gpu consumer non sia più quello trainante, di conseguenza possono permettersi di vendere meno chip ma a prezzi più alti, tanto la patata bollente passa agli aib.
Devono stare però attenti a fare questa mossa in quanto se le prossime schede della "new entry" Intel andranno bene e costeranno il giusto, alcuni aib potrebbero snobbare Nvidia e integrare Intel.
Anche perché tra l'altro una volta le reference non se le filava nessuno e le custom avevano differenze e vantaggi sostanziosi, ora praticamente le FE sono migliori rispetto a tantissime custom entry level e di fascia media degli aib.
Per fare una riflessione, economicamente le cose son completamente diverse, ma ricordiamo che la morte di 3dfx, oltre che alla stagnazione architetturale, fu dettata dalla decisione di mollare gli aib per prodursi le schede da sé, regalando praticamente ad Nvidia tutte le partnership con i precedenti aib.
Non mi stupirei se questa "mossa" si riproponesse in un futuro non troppo lontano da parte di Intel su Nvidia, anche perché economicamente la forza Intel ce l'ha.

Kvarat
16-04-2023, 20:55
A quanto pare per il mercato americano il lancio della 4070 è stato un completo disastro con i vari store che hanno centinaia di schede a marcire sugli scaffali.

Visto il costo più "basso" si aspettavano che i gamers si fiondassero su questa scheda e avevano fatto scorta :D

Speriamo che la stessa cosa accada anche qui da noi.
L'unico modo per normalizzare il mercato è quello di non comprare queste 4000 (4090 a parte).

Il problema della 4070 non è soltanto di prezzo, ma di prestazioni.
Infatti a causa del bus castrato scala male a 4K e di fatto non la rende simile a una 3080 nonostante i 2Gb di vram in più.

Per capire se un componente è davvero snobbato esiste una banale procedura: aprite il sito di Nex..., se il prodotto è terminato vuol dire che si vende benissimo, se ci sono solo pochi pezzi a prezzo pieno si vende bene, se invece cominciano già gli sconticini web allora va una schifezza. Calcolando sempre che in Italia il gaming fa storia a parte. Su Casek... ad esempio ci sono molti esemplari disponibili. Il vero problema secondo me del gamers da pc, quello casuale, è che non è disposto a simili esborsi. Non è la potenza il problema ma il costo. Se metà della gente come minimo gioca in FHD perchè non dovrebbe aspettare una bella 4050 al prezzo giusto? Lo sappiamo che non accadrà ma è quella l'attesa. E poi che fine hanno fatto le ITX? Non si usano più?

ninja750
17-04-2023, 09:44
la mia fiducia nell'intelligenza media dell'uomo comune è salita dell'1% :O

https://i.postimg.cc/dQ6K0nYY/4070-1.jpg

c'è da dire che è stata la vga più venduta perfino su mind la scorsa settimana, quindi questi rantoli non so quanto siano veri

Vul
17-04-2023, 10:36
detto questo molte pubblicazioni / addetti ai lavori, tra cui Forbes, la pensano diversamente (basta cercare i termini nvidia overvalued con google per farsi un'idea) ed io la penso allo stesso modo.

Ha un rapporto price/equity di 150. E' stra elevatissimo. Livelli da startup.

Significa che le azioni sono prezzate presupponendo che Nvidia aumenti fatturato e profitti di almeno 10x in tempi ragionevolmente brevi. La vedo difficile avvenga in tempi brevi, 10 anni fa fatturava 1/8 di oggi, ma non certo un decimo.

Ale55andr0
17-04-2023, 15:50
https://i.postimg.cc/dQ6K0nYY/4070-1.jpg

c'è da dire che è stata la vga più venduta perfino su mind la scorsa settimana, quindi questi rantoli non so quanto siano veri


più venduta rispetto a cosa e in confronto a cosa? se vendo 10 schede invece che 5 ho fatto un +100%....

ninja750
17-04-2023, 16:13
più venduta rispetto a cosa e in confronto a cosa? se vendo 10 schede invece che 5 ho fatto un +100%....

la vga più venduta rispetto a tutte le altre, mò cerco la classifica

da un lato al day1 c'è sicuro l'effetto novità

edit ecco:

https://www.techpowerup.com/forums/attachments/mfgraphicscardsales-png.291898/

Vul
17-04-2023, 20:43
Continuo a ritenere il paragone 4070/3080 inopportuno se si considerano i consumi.

Ok che la 4070 e' una ciofeca sovrapprezzata, ma rimane sempre e comunque una gpu che consuma molto meno della 3080.

Certo, rimane il fatto che offrire le stesse prestazioni a prezzo simile dopo 3 anni guardando solo i consumi e scemenze software non messe sulla serie 3000 e' triste, ma rimane il fatto che i consumi sono ben diversi.

Ad esempio a me non salterebbe per l'anticamera del cervello di mettere un accrocco da 300+ watt di picco in un mio case, il che rende 4070 e 3080 ben diverse ai miei occhi.

devil_mcry
17-04-2023, 20:55
Continuo a ritenere il paragone 4070/3080 inopportuno se si considerano i consumi.

Ok che la 4070 e' una ciofeca sovrapprezzata, ma rimane sempre e comunque una gpu che consuma molto meno della 3080.

Certo, rimane il fatto che offrire le stesse prestazioni a prezzo simile dopo 3 anni guardando solo i consumi e scemenze software non messe sulla serie 3000 e' triste, ma rimane il fatto che i consumi sono ben diversi.

Ad esempio a me non salterebbe per l'anticamera del cervello di mettere un accrocco da 300+ watt di picco in un mio case, il che rende 4070 e 3080 ben diverse ai miei occhi.

il problema della serie 4000 secondo me è solo il prezzo

ma anche li, è solo il prezzo ORA, se la serie 5000 costerà sempre così pace si aspetta la 6000 e poi si scende di tier, io non mi faccio problemi a prendere una 6060 se la 6080 sarà a 1500€

fraussantin
17-04-2023, 21:55
Se va bene costerà uguale, ma temo sia per forza maggiore in aumento. Se tirerà fuori 600 e passa mm2 di die a 3nm, una 5090 avrà dei costi superiori alla 4090, e di conseguenza ne risentirà tutta la serie.



Considerando che i 3nm scalano male in riduzione cache, potrebbero anche riportare il 512bit x 32gb e scendere di conseguenza.Bisogna però vedere tsmc se continuerà a fare la preziosa perche mi sembra che molti si stanno guardando intorno , vedi arm con intel .

Però senza una reale concorrenza che gli frega a jhh di svendere?

Ubro92
17-04-2023, 22:05
Se va bene costerà uguale, ma temo sia per forza maggiore in aumento. Se tirerà fuori 600 e passa mm2 di die a 3nm, una 5090 avrà dei costi superiori alla 4090, e di conseguenza ne risentirà tutta la serie.

Considerando che i 3nm scalano male in riduzione cache, potrebbero anche riportare il 512bit x 32gb e scendere di conseguenza.

Non penso passeranno a 512bit renderebbero tutto troppo complesso.

Con le GDDR7 si parla di quasi 36gbps, su un 384bit sarebbero 1728 GB/s che non è poco, e alla fine anche 24GB mi sembrano bilanciati sulla top.

Sui tagli inferiori possono giocarsela come vogliono, basta riportare la x60 a 192bit e la x70 a 256bit per avere un incremento della vram, che uniti alla GDDR7 è un bel salto anche senza cache particolarmente ampie.

mikael84
18-04-2023, 00:30
Bisogna però vedere tsmc se continuerà a fare la preziosa perche mi sembra che molti si stanno guardando intorno , vedi arm con intel .

Però senza una reale concorrenza che gli frega a jhh di svendere?

JHH ha parlato sia con TSMC che con samsung, che ha i primi GAAFET. Non è del tutto escluso un ritorno in corea.:)

Non penso passeranno a 512bit renderebbero tutto troppo complesso.

Con le GDDR7 si parla di quasi 36gbps, su un 384bit sarebbero 1728 GB/s che non è poco, e alla fine anche 24GB mi sembrano bilanciati sulla top.

Sui tagli inferiori possono giocarsela come vogliono, basta riportare la x60 a 192bit e la x70 a 256bit per avere un incremento della vram, che uniti alla GDDR7 è un bel salto anche senza cache particolarmente ampie.

Si, sui 512bit è stata una mia ipotesi, facendo riscontro alla minima riduzione area lato cache dei 3nm.
I 512bit, sono si complessi, ma non di impossibile implementazione, già da ampere nvidia ha instradato i 6144 bit hbm, ovvero 768bit gddr (che è pazzesco).

Sulle g7, bisogna vedere la situazione, se saranno subito disponibili lato micron che è il primo partner, ed anche da vedere a che velocità potranno operare e se riusciranno a garantire la quadrupla densità, come già anticipato da samsung sulle g6w.

Sulle fasce basse, salvo usare la quadrupla densità, bisognerà per forza salire di bus. Anche con la quadrupla, nvidia non darà mai x70 a 24gb.:)

Ale55andr0
18-04-2023, 11:20
i 512 bit esistevano con schede vecchissime e pp da svariate decine di nanometri, non vedo perchè sarebbe un problema oggi, specialmente visto che nvidia i padelloni da 100 bilioni di transistor o giu di li li ama e ormai siamo alle soglie dei 2nm. 512bit/32gb suona dannatamente bene :O e poi nel pro di quello "vero" sono numeri quasi banali

Ubro92
18-04-2023, 13:30
Se passa a 512bit é solo perché le gddr7 non sono disponibili.

Già su Ampere hanno tirato fuori le GDDR6X pur di non aumentare il bus, e su un GA102 anche solo 448bit avrebbe aiutato dato che avresti guadagnato anche una cache più ampia.

Al prossimo giro é possibile che si appoggino in toto alle GDDR7, anche un 128 bit si ritroverebbe 576gb/s.

Però si sa troppo poco per fare speculazioni.

Inviato dal mio M2012K11AG utilizzando Tapatalk

nessuno29
18-04-2023, 13:39
Se passa a 512bit é solo perché le gddr7 non sono disponibili.

Già su Ampere hanno tirato fuori le GDDR6X pur di non aumentare il bus, e su un GA102 anche solo 448bit avrebbe aiutato dato che avresti guadagnato anche una cache più ampia.

Al prossimo giro é possibile che si appoggino in toto alle GDDR7, anche un 128 bit si ritroverebbe 576gb/s.

Però si sa troppo poco per fare speculazioni.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Se passa alle gddr7 senza quadrupla densità i bus dovrà aumentarli per forza, altrimenti andrà sulle gddr6 a quadrupla con gli stessi bus strozzati e più cache.

EffeX
18-04-2023, 14:13
Se passa a 512bit é solo perché le gddr7 non sono disponibili.

Già su Ampere hanno tirato fuori le GDDR6X pur di non aumentare il bus, e su un GA102 anche solo 448bit avrebbe aiutato dato che avresti guadagnato anche una cache più ampia.

Al prossimo giro é possibile che si appoggino in toto alle GDDR7, anche un 128 bit si ritroverebbe 576gb/s.

Però si sa troppo poco per fare speculazioni.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Se passa alle gddr7 senza quadrupla densità i bus dovrà aumentarli per forza, altrimenti andrà sulle gddr6 a quadrupla con gli stessi bus strozzati e più cache.

Sta di fatto che una volta si dimezzava il bus per semplificare e abbattere i costi, ora abbiamo schede con 128 bit e 192 bit + circuiteria e pcb semplificati al massimo che costano un rene.
Il vantaggio c'è, ma per Nvidia, non per me.
Ma tanto a quanto pare anche AMD adotterà bus più piccoli sulle sue schede di fascia inferiore quindi per questa gen ormai è andata così. :(

Ubro92
18-04-2023, 15:02
Se passa alle gddr7 senza quadrupla densità i bus dovrà aumentarli per forza, altrimenti andrà sulle gddr6 a quadrupla con gli stessi bus strozzati e più cache.

Eh si, infatti è da vedere, senza doppia densità anche i chip verranno tarati diversamente.

Potremmo anche vedere un approccio misto con GDDR6X e GDDR7, a seconda della fascia, che forse è l'approccio più probabile.

Sta di fatto che una volta si dimezzava il bus per semplificare e abbattere i costi, ora abbiamo schede con 128 bit e 192 bit + circuiteria e pcb semplificati al massimo che costano un rene.
Il vantaggio c'è, ma per Nvidia, non per me.
Ma tanto a quanto pare anche AMD adotterà bus più piccoli sulle sue schede di fascia inferiore quindi per questa gen ormai è andata così. :(

Una volta era molto diverso, i chip non venivano spremuti fino all'osso, tra la reference e una custom ben progettata e con un buon silicio la differenza era molto marcata.
Per esempio con Maxwell i chip reference della 980ti non arrivavano a 1200mhz stock (in relazione all'ASIC), mentre in OC muravano sui 1350-1400mhz, le custom di quasi fine serie boostavano a 1450mhz di fabbrica e in OC arrivavano anche a 1550-1580mhz con un buon silicio.

Infatti si è creato anche un grosso appiattimento tra i chip, estetica a parte tutte sono molto spinte anche come sistema di dissipazione e in OC non è che ci tiri fuori molto, anzi si undervolta per recuperare.

mikael84
18-04-2023, 15:51
i 512 bit esistevano con schede vecchissime e pp da svariate decine di nanometri, non vedo perchè sarebbe un problema oggi, specialmente visto che nvidia i padelloni da 100 bilioni di transistor o giu di li li ama e ormai siamo alle soglie dei 2nm. 512bit/32gb suona dannatamente bene :O e poi nel pro di quello "vero" sono numeri quasi banali

Non c'è alcun problema ad instradare un 512 bit con i 3nm. E' molto complesso, questo è indubbio, ma già da ampere HPC invidia ha instradato un equivalente 768bit (anche se HBM è meno esoso).
Il 3nm è abbastanza valido in logica, ma molto scarso in sram con circa il 20/30% di riduzione stimata.

Se passa a 512bit é solo perché le gddr7 non sono disponibili.

Già su Ampere hanno tirato fuori le GDDR6X pur di non aumentare il bus, e su un GA102 anche solo 448bit avrebbe aiutato dato che avresti guadagnato anche una cache più ampia.

Al prossimo giro é possibile che si appoggino in toto alle GDDR7, anche un 128 bit si ritroverebbe 576gb/s.

Però si sa troppo poco per fare speculazioni.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Il 448 bit, difficilmente lo vedrai su un chip, e su ampere avrebbero dovuto rivedere tutto il layout. Ok 23mm2, ma bisognava ridisegnare il tutto con varie aree grigie, ad ingrandire ancor più il die di 627. Inoltre al debutto di Ampere era già scritta Lovelace, con l'obbiettivo della cache.:)

Riguardo le g7, due considerazioni, è vero che si sbandiera 36 gb/s in PAM3 (praticamente, modulazione ampiezza impulso a 3 livelli, 1,5bit per 2 cicli/ 3bit), ma questi sono dati sparati da samsung.

Micron usa ancora le g6 a 14 gb/s, i chip che vediamo da 16 e 18, sono samsung. A fine 2022, AMD lancia le sue schede con le 20 gb/s, ma non adotta samsung, ma delle Hynix (che fa il suo debutto).

Ora, che micron sia pronta con la quadrupla densità (ha introdotto la doppia nelle g6x solo un anno fa) ed un data rate di 36 gb/s, quando le gpu g6 non integrano neppure le 16 gb/s, mah....:p

Con le g5x ha floppato, con le g6x in 3 anni, 2 cambi PP ram, è riuscita a passare da 19 a 21, le 24, le deve downclockare.

Se passa alle gddr7 senza quadrupla densità i bus dovrà aumentarli per forza, altrimenti andrà sulle gddr6 a quadrupla con gli stessi bus strozzati e più cache.

Le gddr6 non hanno quadrupla, e stanno morendo, solo hynix è riuscita a garantire ad AMD i 20gb/s.
Sui bus, senza quadrupla, si, dovrà aumentarli, almeno a partire da BL104.
Anche avendo la quadrupla a disposizione, non penso che tirerà fuori mai una 5070 da 24gb :D

Eh si, infatti è da vedere, senza doppia densità anche i chip verranno tarati diversamente.

Potremmo anche vedere un approccio misto con GDDR6X e GDDR7, a seconda della fascia, che forse è l'approccio più probabile.



Penso che vedremmo una sorta di g7 micron ma con data rate molto basso.

ColdWarGuy
18-04-2023, 19:45
Arrivata la sorellina, adesso vediamo le mazzate che prende dalla 4090:D
-snip


Perdonami l'ardire ... ma che lavoro fai ? :)

Reyand
18-04-2023, 21:37
Arrivata la sorellina, adesso vediamo le mazzate che prende dalla 4090:D

https://i.ibb.co/kKDjkSQ/fdgfd.jpg (https://ibb.co/kKDjkSQ) https://i.ibb.co/7SK3Y65/fgddf.jpg (https://ibb.co/7SK3Y65) https://i.ibb.co/y6NZfFg/fgdfdgdfg.jpg (https://ibb.co/y6NZfFg) https://i.ibb.co/prh9f1F/gdff.jpg (https://ibb.co/prh9f1F)


avrei preferito la foto con queste sorelle sul quel letto..

https://i.postimg.cc/SN1R6xPk/2238045-sorellebuccino-sexy.jpg (https://postimages.org/)

Ps. Letto ordinato, almeno questo :O

Ubro92
18-04-2023, 22:52
Riguardo le g7, due considerazioni, è vero che si sbandiera 36 gb/s in PAM3 (praticamente, modulazione ampiezza impulso a 3 livelli, 1,5bit per 2 cicli/ 3bit), ma questi sono dati sparati da samsung.

Micron usa ancora le g6 a 14 gb/s, i chip che vediamo da 16 e 18, sono samsung. A fine 2022, AMD lancia le sue schede con le 20 gb/s, ma non adotta samsung, ma delle Hynix (che fa il suo debutto).

Ora, che micron sia pronta con la quadrupla densità (ha introdotto la doppia nelle g6x solo un anno fa) ed un data rate di 36 gb/s, quando le gpu g6 non integrano neppure le 16 gb/s, mah....:p

Con le g5x ha floppato, con le g6x in 3 anni, 2 cambi PP ram, è riuscita a passare da 19 a 21, le 24, le deve downclockare.

Penso che vedremmo una sorta di g7 micron ma con data rate molto basso.

Ma anche le nvidia stanno montando le Hynix, la mia 3060ti infatti sale molto con queste memorie, senza artefatti e crash sembra stabile fino a 17.8Gbps e non credo neanche sia la più fortunata.

Se non erro ci furono anche diversi rumors su GDDR6 fino a 27Gbps da parte di Hynix.

Per blackwell non escluderei che possano adottare sia GDDR7 che GDDR6/X, soprattutto per marcare le differenze tra 5070 e 5080 se adottassero lo stesso bus di 256bit, un pò come fecero per 1070 e 1080.

ColdWarGuy
18-04-2023, 23:44
:D Nulla a che vedere con sta roba, sono un comune mortale:)

Ma devo essere sincero, anche a me sarebbe piaciuto riceverle a casa al D1 e sparare minghi@te su youtube come fanno stanlio e olio e tutti gli altri che seguono (guadagnando piú di me) e se ci riescono loro é tutto dire... l'utente medio di questo forum fa barba e capelli a qualsiasi mitomane italiano youtuber.

Maestra: E tu kekko cosa vuoi fare da grande?

Kekko: Il posto fisso l'influencer:muro:

Io mi sono accorto che su YT seguo quasi esclusivamente canali di stranieri, per lo più USA e UK, mi spiace dirlo ma i peggiori del settore informatico sono quelli italiani e con il tempo la situazione sta peggiorando ...

mikael84
19-04-2023, 00:18
Ma anche le nvidia stanno montando le Hynix, la mia 3060ti infatti sale molto con queste memorie, senza artefatti e crash sembra stabile fino a 17.8Gbps e non credo neanche sia la più fortunata.

Quindi attualmente le sta montando anche su Ampere, beh ti è andata davvero bene.



Se non erro ci furono anche diversi rumors su GDDR6 fino a 27Gbps da parte di Hynix.

Si sono clock di picco specifici, agendo tramite modifiche al WCK. Anche sulle d5 desktop, aveva apportato modifiche per clockare di più senza euv.
I 27 attualmente lasciano il tempo che trovano, ma non è escluso che possano trovare spazio nelle sku AMD e black di fascia più bassa.


Per blackwell non escluderei che possano adottare sia GDDR7 che GDDR6/X, soprattutto per marcare le differenze tra 5070 e 5080 se adottassero lo stesso bus di 256bit, un pò come fecero per 1070 e 1080.

Si, soprattutto g6 lisce pompate. Le g6x visto il collegamento dispendioso, probabilmente le molleranno (come le g5x), considerando che solo micron le ha.

Ubro92
19-04-2023, 06:28
Si eccole qui:

https://gpuz.techpowerup.com/23/04/19/6ec.png

Fino a 17.8gbps si tengono stabili in game e non mostrano artefatti.
Ho provato anche a maxare a 18gbps (il massimo impostabile da AB) e artefatti non ne fanno ma alcuni giochi su UE4 si chiudono brutalmente.

Nel daily le sto tenendo a 17gbps, anche perchè non noto incrementi concreti, anzi ho la sensazione che causa PL limitato a 200w se salgo troppo con le memorie anche il clock della gpu ne risente.

Penso che soprattutto le varianti LHR usino i chip hynix, che alla fine con l'OC tallonano la versione GDDR6X della 3060ti.


Comunque anche le GDDR6 di Samsung si cloccano decisamente bene vedendo alcune 6950xt:

https://tpucdn.com/review/asrock-radeon-rx-6950-xt-oc-formula/images/gpuz-overclocking.gif

HSH
19-04-2023, 10:09
https://www.tomshardware.com/news/reported-nvidia-partner-rebate-means-rtx-4070-might-fall-to-dollar549

qualcunoi s'è accorto che forse il prezzo è troppo alto per la 4070

peccato che 50€ siano fin troppo pochi, sempre che cali veramente

Ubro92
19-04-2023, 10:13
https://www.tomshardware.com/news/reported-nvidia-partner-rebate-means-rtx-4070-might-fall-to-dollar549

qualcunoi s'è accorto che forse il prezzo è troppo alto per la 4070

peccato che 50€ siano fin troppo pochi, sempre che cali veramente

Prevedo un brutto anno per i partner XD
Mi sa che altri si aggiungeranno a EVGA.

nessuno29
19-04-2023, 10:26
Prevedo un brutto anno per i partner XD
Mi sa che altri si aggiungeranno a EVGA.

Se nvidia ha scontato di 50$ il chip agli AIB probabile che ci sia già molto più di qualche malumore nell'aria.

devil_mcry
19-04-2023, 10:56
Si eccole qui:

https://gpuz.techpowerup.com/23/04/19/6ec.png

Fino a 17.8gbps si tengono stabili in game e non mostrano artefatti.
Ho provato anche a maxare a 18gbps (il massimo impostabile da AB) e artefatti non ne fanno ma alcuni giochi su UE4 si chiudono brutalmente.

Nel daily le sto tenendo a 17gbps, anche perchè non noto incrementi concreti, anzi ho la sensazione che causa PL limitato a 200w se salgo troppo con le memorie anche il clock della gpu ne risente.

Penso che soprattutto le varianti LHR usino i chip hynix, che alla fine con l'OC tallonano la versione GDDR6X della 3060ti.


Comunque anche le GDDR6 di Samsung si cloccano decisamente bene vedendo alcune 6950xt:

https://tpucdn.com/review/asrock-radeon-rx-6950-xt-oc-formula/images/gpuz-overclocking.gif

forse più che altro a 18 la gpu non se ne fa più nulla di tutta quella banda

ultimate trip
19-04-2023, 11:02
Se nvidia ha scontato di 50$ il chip agli AIB probabile che ci sia già molto più di qualche malumore nell'aria.

il consiglio è sempre lo stesso, chi può aspettare non compri a questi prezzi. purtroppo con la pandemia abbiamo dato il brutto esempio e loro han preso appunti :-)

mikael84
19-04-2023, 11:29
Si eccole qui:



Fino a 17.8gbps si tengono stabili in game e non mostrano artefatti.
Ho provato anche a maxare a 18gbps (il massimo impostabile da AB) e artefatti non ne fanno ma alcuni giochi su UE4 si chiudono brutalmente.

Nel daily le sto tenendo a 17gbps, anche perchè non noto incrementi concreti, anzi ho la sensazione che causa PL limitato a 200w se salgo troppo con le memorie anche il clock della gpu ne risente.

Penso che soprattutto le varianti LHR usino i chip hynix, che alla fine con l'OC tallonano la versione GDDR6X della 3060ti.


Comunque anche le GDDR6 di Samsung si cloccano decisamente bene vedendo alcune 6950xt:



Paradossalmente la tanto "derelitta" Manli, monta le ram migliori.
Le g6x cmq, hanno latenze migliori rispetto alle g6 lisce grazie al PAM4, l'accesso dai test è risultato migliore.

Sulle AMD c'è il controller ad errore, e l'OC ram è più incasinato. Al debutto delle AMD mi aspettavo di vedere samsung hc20, visto che sbandierava le 24, invece hanno dovuto mettere hynix.
Lato micron, non ho visto esemplari da 16, sono soprattutto HC16 di samsung ed a questo punto Hynix.

il consiglio è sempre lo stesso, chi può aspettare non compri a questi prezzi. purtroppo con la pandemia abbiamo dato il brutto esempio e loro han preso appunti :-)

Cmq ora la situazione è ben più rosea, se il prezzo è per molti alto sul nuovo, si trovano offerte pure sull'usato. Anzi la 4070 ha ucciso GA102.
Se già prendiamo una 3080ti vs 4070, anche se spesso rimane un tantino dietro, la nuova è altamente preferibile, DLSS3 e consumi quasi dimezzati.

ColdWarGuy
19-04-2023, 19:58
NVIDIA Stock Surges As Demand For AI GPUs Grow, AI Chips Being Sold For Up To 20 Times More Than Gaming GPUs (https://wccftech.com/nvidia-stock-surges-as-demand-for-ai-gpus-grow-ai-chips-being-sold-for-up-to-20-times-more-than-gaming-gpus/)

RedPrimula
19-04-2023, 20:04
NVIDIA Stock Surges As Demand For AI GPUs Grow, AI Chips Being Sold For Up To 20 Times More Than Gaming GPUs (https://wccftech.com/nvidia-stock-surges-as-demand-for-ai-gpus-grow-ai-chips-being-sold-for-up-to-20-times-more-than-gaming-gpus/)

Come la metti metti cadono in piedi.

nessuno29
19-04-2023, 20:14
Cmq ora la situazione è ben più rosea, se il prezzo è per molti alto sul nuovo, si trovano offerte pure sull'usato. Anzi la 4070 ha ucciso GA102.
Se già prendiamo una 3080ti vs 4070, anche se spesso rimane un tantino dietro, la nuova è altamente preferibile, DLSS3 e consumi quasi dimezzati.

Vero la 4070 nonostante il centello di troppo ha reso obsolete e costose le 3080 a 550 euro nell'usato. Dovranno calare.

ColdWarGuy
19-04-2023, 20:59
Come la metti metti cadono in piedi.

Rimane da vedere se questa mania per l'AI è un fuoco di paglia o meno, ultimamente ne parlano parecchio ma da quello che vedo stanno creando più disinformazione che altro.

Ubro92
19-04-2023, 21:00
Come la metti metti cadono in piedi.

Per come guadagnano sui chip AI, potrebbero tranquillamente ridurre i prezzi dei chip gaming.

Rimane da vedere se questa mania per l'AI è un fuoco di paglia o meno, ultimamente ne parlano parecchio ma da quello che vedo stanno creando più disinformazione che altro.

Vabbè è un grosso passo, pure io quando devo cercare del materiale o argomenti specifici le chat AI sono estremamente veloci e chiare, anche se hai bisogno di esempi con specifiche modalità di esecuzione o se hai bisogno di grafici testuali riescono a elaborare tutto in modo estremamente naturale.

Possono tranquillamente porsi come degli assistenti sia nello studio che anche per lavoro.

devil_mcry
19-04-2023, 21:55
Vero la 4070 nonostante il centello di troppo ha reso obsolete e costose le 3080 a 550 euro nell'usato. Dovranno calare.

fammi dire, meno male...

ma comunque questa cosa non è normale

mikael84
19-04-2023, 22:13
Vero la 4070 nonostante il centello di troppo ha reso obsolete e costose le 3080 a 550 euro nell'usato. Dovranno calare.

Ha reso completamente obsoleto tutto GA102, la 3080 in proporzione è quella che perde meno.
Pensa una 3080ti, che veramente non ha più senso con la 4070 ( non che lo avesse prima con la 3080 12.):p
Chiaro non crollerà troppo considerando che sotto non ci sarà nulla, se non una 3070 like a 450-500.

nessuno29
19-04-2023, 22:33
Ha reso completamente obsoleto tutto GA102, la 3080 in proporzione è quella che perde meno.
Pensa una 3080ti, che veramente non ha più senso con la 4070 ( non che lo avesse prima con la 3080 12.):p
Chiaro non crollerà troppo considerando che sotto non ci sarà nulla, se non una 3070 like a 450-500.

E vabbè ma se a 500 c'è la 4060ti ed a 600 la 4070 chi compra le 3080 usate a 550 euro? Solo un pollo lo farebbe credo che si assesterà intorno ai 400 con la 3070 in caduta libera, forse mi conviene vendere ora perché la 4070 inno 3d a 606 mi tenta.

devil_mcry
19-04-2023, 22:40
E vabbè ma se a 500 c'è la 4060ti ed a 600 la 4070 chi compra le 3080 usate a 550 euro? Solo un pollo lo farebbe credo che si assesterà intorno ai 400 con la 3070 in caduta libera, forse mi conviene vendere ora perché la 4070 inno 3d a 606 mi tenta.

si ma la 4060 ti mi sa che andrà meno di una 3070 ti, già la 4070 va un filo meno della 3080 10 in 4k ... ok che c'è il dlss3 ma mica in tutti i giochi

Ubro92
19-04-2023, 23:40
si ma la 4060 ti mi sa che andrà meno di una 3070 ti, già la 4070 va un filo meno della 3080 10 in 4k ... ok che c'è il dlss3 ma mica in tutti i giochiEd é qua che il dlss3 fa cartello 🤣

Inviato dal mio M2012K11AG utilizzando Tapatalk

Ubro92
20-04-2023, 00:13
C'è anche da dire che i driver sono ancora molto acerbi, siamo tipo alla prima release per la gpu. Per me con delle release migliori in futuro, la maggior ottimizzazione per ada che avranno i prossimi titoli e i requisiti di vram che continuano a salire, si arriverà al punto in cui la 4070 starà sempre avanti, anche se di poco. Inoltre la frame gen sarà sempre più supportata per forza di cose, e questo aumenterà il gap di parecchio.

Sicuramente migliorerà, ma sinceramente uno scarto così piccolo é già di per sé trascurabile.

L'unica vera aggiunta dal punto di vista prestazionale é il DLSS3, da vedere se l'FSR3 darà nuova linfa ad Ampere anche su quel fronte.

Anche per la vram sinceramente non mi farei troppi problemi, tanto quando arriverà Blackwell, la 3080/4070 saranno chip di fascia media come oggi é la 3060.



Inviato dal mio M2012K11AG utilizzando Tapatalk

mikael84
20-04-2023, 00:16
E vabbè ma se a 500 c'è la 4060ti ed a 600 la 4070 chi compra le 3080 usate a 550 euro? Solo un pollo lo farebbe credo che si assesterà intorno ai 400 con la 3070 in caduta libera, forse mi conviene vendere ora perché la 4070 inno 3d a 606 mi tenta.

Beh no, non si può paragonare quel rottame ad un GA102, qua c'è troppa differenza.:p

La 3070 si, come le altre dovrà scendere di prezzo, ma non più di tanto. Se oggi la vendi a 350, domani a 300, fascia in cui non ci sarà nulla.:)

C'è anche da dire che i driver sono ancora molto acerbi, siamo tipo alla prima release per la gpu. Per me con delle release migliori in futuro, la maggior ottimizzazione per ada che avranno i prossimi titoli e i requisiti di vram che continuano a salire, si arriverà al punto in cui la 4070 starà sempre avanti, anche se di poco. Inoltre la frame gen sarà sempre più supportata per forza di cose, e questo aumenterà il gap di parecchio.

Le microarchitetture sono 1:1, quindi non ci sarà alcun stravolgimento.;)

fraussantin
20-04-2023, 06:36
Rimane da vedere se questa mania per l'AI è un fuoco di paglia o meno, ultimamente ne parlano parecchio ma da quello che vedo stanno creando più disinformazione che altro.È li per restare. Oltre il supporto professionale di certi mestieri ,visti i risultati in ambito multimediale ( libri , foto , canzoni ) non mi stupirei se nel futuro prossimo rimpiazzi la roba commerciale di molti artisti che sfornano la solita solfa ciclicamente .


Stimo huang, professionalmente, solo per il fatto che ha sempre un piano B pronto , non è solo fortuna.

Poi spero cmq che nvidia schiatti nell'abisso.

bobby10
20-04-2023, 06:51
si ma la 4060 ti mi sa che andrà meno di una 3070 ti, già la 4070 va un filo meno della 3080 10 in 4k ... ok che c'è il dlss3 ma mica in tutti i giochi

Penso anche io tra una 3070 e 3070ti
Anche perché poco sotto la 3070 c'è la 3060ti e a quel punto diventerebbe un suo doppione :rolleyes:

devil_mcry
20-04-2023, 08:19
Rimane da vedere se questa mania per l'AI è un fuoco di paglia o meno, ultimamente ne parlano parecchio ma da quello che vedo stanno creando più disinformazione che altro.

non penso sia un fuoco di paglia, è oggettivamente il futuro
che poi sia un futuro bello o brutto vedremo

mikael84
20-04-2023, 11:25
Penso anche io tra una 3070 e 3070ti
Anche perché poco sotto la 3070 c'è la 3060ti e a quel punto diventerebbe un suo doppione :rolleyes:

bisogna vedere come regge il reparto bus e cache, quest'ultima sarà di 32mb a quasi 6tb/s, come la 4070. Il bus invece è davvero piccolo, solo 288 gb/s.
Lato potenza computazionale, a 2,750 (classico boost) sono circa 24tf di calcolo, contro i 23,3tf di una 3070ti@1,9.

La 4060 liscia, in potenza pura, non arriverà alla 3060ti, gli andrà vicino, ma tecnicamente è un tantino più debole.

devil_mcry
20-04-2023, 11:26
Non é una gpu da 4k, cioé ci vá ma non é il suo campo da battaglia, senza dlls3 in qhd é tranquillamente equiparabile ad una 3080 10gb, consumando quasi la metá.

La 4070 ad oggi é piú conveniente delle 3080 10 e anche delle 3080 12 di conseguenza anche delle 3080ti.

Ovvio per chi le possiede é un no-sense fare il passaggio, ma ha fatto tabula rasa a GA102 ormai.

Poi lo sappiamo le 3000 sono staste schede messe in vendita in fretta e furia e vittime di un pp pessimo a dir poco, quando nvidia si aggiudica il pp buono sappiamo tutti che fa il boom, a questo giro lo aveva ha volutamente castrato le gpu sapendo di avere un architettura vincente ed il pp ottimo, sono dei ..........

beh ma oggi quelle prestazioni sono nella fascia 4k dai poi con il dlss3 rende insensato prendere un ga102 in qualunque salsa

alla fine le 3000 al lancio erano ottime come posizionamento al netto del pp. queste un po' meno per i tagli vari

mikael84
20-04-2023, 11:54
beh ma oggi quelle prestazioni sono nella fascia 4k dai poi con il dlss3 rende insensato prendere un ga102 in qualunque salsa

alla fine le 3000 al lancio erano ottime come posizionamento al netto del pp. queste un po' meno per i tagli vari

Purtroppo il salto PP così enorme, è stato un vantaggio solo per lui e per i possessori di x90, sotto ha fatto le peggio porcate, soprattutto utilizzando la base dei chip inferiori.
Se Ampere fosse stato stampato su TSMC 7nm hp come AMD, sarebbe stato totalmente diverso, e la 4080 sarebbe stata x70ti.
I 7 samsung invece avrebbero dato solo un +10% di perf.

Il DLSS3 cmq verrà prima o poi colmato da FSR3. Anche se bisogna prenderlo come un buon plus, ma aggiunge molta latenza in base al gioco.
https://www.igorslab.de/wp-content/uploads/2023/04/Hogwarts-Legacy-Latency-3840-x-1600p-DX12-Ultra-RT-Ultra.png

devil_mcry
20-04-2023, 12:00
io rimango onestamente perplesso sul FG del dlss3 sulle 4000

non penso lo userei, come non penso che userò quello amd nel caso andasse su ampere

tra latenza e artefatti mi chiedo se non convenga ridurre qualcosa a livello di dettagli, tanto rendere il gioco brutto per brutto...

X360X
20-04-2023, 12:09
io rimango onestamente perplesso sul FG del dlss3 sulle 4000

non penso lo userei, come non penso che userò quello amd nel caso andasse su ampere

tra latenza e artefatti mi chiedo se non convenga ridurre qualcosa a livello di dettagli, tanto rendere il gioco brutto per brutto...

Infatti ora che siamo a livello buono di DLSS (e anche FSR) andare a esagerare con l'interpolazione non so quanto convenga.

Averlo "come possibilità aggiuntiva" è ottimo certo, ma farci la campagna pubblicitaria come fosse il "game changing" io dico anche no.
Prestazioni prima, DLSS poi, frame generator come ultima cosa

bagnino89
20-04-2023, 12:16
Prestazioni prima, DLSS poi, frame generator come ultima cosa

Giacchetts invece la pensa esattamente al contrario. :asd:

mikael84
20-04-2023, 12:21
io rimango onestamente perplesso sul FG del dlss3 sulle 4000

non penso lo userei, come non penso che userò quello amd nel caso andasse su ampere

tra latenza e artefatti mi chiedo se non convenga ridurre qualcosa a livello di dettagli, tanto rendere il gioco brutto per brutto...

Chi lo usa, salvo qualche problemino random, è piuttosto soddisfatto. Io non l'ho provato per poter dare una considerazione. La latenza aumenta, ma il boost di FPS è importante.
Noi con Ampere, dovremmo sperare che FSR3 sia un tantino decente, o che JHH lo porti più avanti, come fatto sul RT su pascal (anche se li c'era poco da fare). Con Ampere però oltre la latenza bisognerebbe vedere la ricostruzione dell'immagine, con 1/3 di OFA.

mikael84
20-04-2023, 13:13
Senza reflex sarebbe un disastro.:p



https://www.igorslab.de/wp-content/uploads/2023/04/Hogwarts-Legacy-Latency-3840-x-1600p-DX12-Ultra-RT-Ultra-1.png

Cmq da il meglio di se a frame alti, ma il best vero per me rimane dove sgrava la CPU.:)

ninja750
20-04-2023, 13:25
farci la campagna pubblicitaria come fosse il "game changing" io dico anche no.

scommetto che quelli che non si adegueranno al loro standard review mischiando le barrette con FG vs concorrenza senza, non riceveranno più founders al day1 :O

Cutter90
20-04-2023, 14:20
io rimango onestamente perplesso sul FG del dlss3 sulle 4000

non penso lo userei, come non penso che userò quello amd nel caso andasse su ampere

tra latenza e artefatti mi chiedo se non convenga ridurre qualcosa a livello di dettagli, tanto rendere il gioco brutto per brutto...

Dubbi leciti, che però vengono spazzati via quando la attivi. ne la latenza, ma soprattutto gli artefatti li noterai. Gli artefatti è quasi impossibile notarli anche se li cerchi apposta mentre giochi. Per la latenza dipende, ma anche lì noti pochissimo. Magari si, nei multy lo lascerei stare, giusto così. ma in tutti gli altri giochi in sostanza guadagni tanti fps, senza alcun effetto negativo

Di fatto il FG è molto meglio anche del dlss: non impatta sulla cpu, come invece fa il dlss scalando risoluzione, non ha difetti tangibili e guadagni molti più fps. Tutti i giochi dovrebbero implementarlo

ColdWarGuy
20-04-2023, 14:34
Purtroppo il salto PP così enorme, è stato un vantaggio solo per lui e per i possessori di x90, sotto ha fatto le peggio porcate, soprattutto utilizzando la base dei chip inferiori.
Se Ampere fosse stato stampato su TSMC 7nm hp come AMD, sarebbe stato totalmente diverso, e la 4080 sarebbe stata x70ti.
I 7 samsung invece avrebbero dato solo un +10% di perf.

Il DLSS3 cmq verrà prima o poi colmato da FSR3. Anche se bisogna prenderlo come un buon plus, ma aggiunge molta latenza in base al gioco.
https://www.igorslab.de/wp-content/uploads/2023/04/Hogwarts-Legacy-Latency-3840-x-1600p-DX12-Ultra-RT-Ultra-1.png


152ms in nativa con Reflex Off ... possibile ?

Quei numeri mi sembrano enormi, tanto da rendere il game estremamente fastidioso ed ingiocabile, con quale metodo li hanno ricavati ?

Comunque FPS alti con alte latenze non servono a niente, almeno per il sottoscritto che percepisce pesantemente la stessa.

Aggiungo che dalle combinazioni dei settaggi di quel grafico non riesco a capire qual'è l'apporto in ms del FG, sei tu hai inteso qualcosa di più illuminami.

devil_mcry
20-04-2023, 14:35
Dubbi leciti, che però vengono spazzati via quando la attivi. ne la latenza, ma soprattutto gli artefatti li noterai. Gli artefatti è quasi impossibile notarli anche se li cerchi apposta mentre giochi. Per la latenza dipende, ma anche lì noti pochissimo. Magari si, nei multy lo lascerei stare, giusto così. ma in tutti gli altri giochi in sostanza guadagni tanti fps, senza alcun effetto negativo

Di fatto il FG è molto meglio anche del dlss: non impatta sulla cpu, come invece fa il dlss scalando risoluzione, non ha difetti tangibili e guadagni molti più fps. Tutti i giochi dovrebbero implementarlo

si ma tu hai una 4090 e parti magari da 80fps
fallo con una 4060 che parte da 20...

gli artefatti sono tanto più visibili quanti pochi sono gli fps nativi, perché stanno di più a video

Cutter90
20-04-2023, 15:19
si ma tu hai una 4090 e parti magari da 80fps
fallo con una 4060 che parte da 20...

gli artefatti sono tanto più visibili quanti pochi sono gli fps nativi, perché stanno di più a video

Se in un gioco fai 20 fps significa che stai sbagliando risoluzione/dettagli per te. Il minimo per avere il FG attivo secondo me sono i 60 fps, con FG attivo e dlss quality, tipo cp2077 con il path tracing. Se con dlss e FG stai sotto i 60 allora non va usato, secondo me.
Ovviamente con una 4060 il 1440p dovrebbe essere il tuo massimo massimo.

mikael84
20-04-2023, 15:24
152ms in nativa con Reflex Off ... possibile ?

Quei numeri mi sembrano enormi, tanto da rendere il game estremamente fastidioso ed ingiocabile, con quale metodo li hanno ricavati ?

Comunque FPS alti con alte latenze non servono a niente, almeno per il sottoscritto che percepisce pesantemente la stessa.

Aggiungo che dalle combinazioni dei settaggi di quel grafico non riesco a capire qual'è l'apporto in ms del FG, sei tu hai inteso qualcosa di più illuminami.

Leggiti direttamente la review, fai prima.:)
https://www.igorslab.de/en/the-palit-nvidia-geforce-rtx-4070-dual-12-gb-in-the-ultrawide-quick-test-comparison-when-8-gb-video-memory-misses-you-the-day/5/

devil_mcry
20-04-2023, 16:25
Se in un gioco fai 20 fps significa che stai sbagliando risoluzione/dettagli per te. Il minimo per avere il FG attivo secondo me sono i 60 fps, con FG attivo e dlss quality, tipo cp2077 con il path tracing. Se con dlss e FG stai sotto i 60 allora non va usato, secondo me.
Ovviamente con una 4060 il 1440p dovrebbe essere il tuo massimo massimo.

Eh ma non te la vendono così, è quello che sto dicendo io
loro te lo vendono come moltiplicatore di frame, non ti dicono che per sfruttarlo devi fare almeno 60 fps (e negli esempi anche loro poi guarda caso puntano sui 55-60fps nativi)

se io faccio 60fps nativi o dlss senza frame generator, nella maggior parte dei casi sono a posto.

quella feature ha senso forse se hai monito 120-144hz+ e hai una 4090 o 4080


secondo me ovviamente

bobby10
20-04-2023, 16:28
io rimango onestamente perplesso sul FG del dlss3 sulle 4000

non penso lo userei, come non penso che userò quello amd nel caso andasse su ampere

tra latenza e artefatti mi chiedo se non convenga ridurre qualcosa a livello di dettagli, tanto rendere il gioco brutto per brutto...

Quando ci avvicineremo all 8k pur di aumentare gli fps ci convinceranno che giocare in bianco e nero è ancora più figo :asd:

ColdWarGuy
20-04-2023, 16:36
Leggiti direttamente la review, fai prima.:)
https://www.igorslab.de/en/the-palit-nvidia-geforce-rtx-4070-dual-12-gb-in-the-ultrawide-quick-test-comparison-when-8-gb-video-memory-misses-you-the-day/5/

I will do.

mikael84
20-04-2023, 16:40
"Secondo quanto riferito, NVIDIA ha limitato la produzione di GPU GeForce RTX 4070 a causa delle scarse vendite"

https://wccftech.com/nvidia-reportedly-limiting-production-of-geforce-rtx-4070-gpus-due-to-poor-sales/

Cutter90
20-04-2023, 16:42
Eh ma non te la vendono così, è quello che sto dicendo io
loro te lo vendono come moltiplicatore di frame, non ti dicono che per sfruttarlo devi fare almeno 60 fps (e negli esempi anche loro poi guarda caso puntano sui 55-60fps nativi)

se io faccio 60fps nativi o dlss senza frame generator, nella maggior parte dei casi sono a posto.

quella feature ha senso forse se hai monito 120-144hz+ e hai una 4090 o 4080


secondo me ovviamente

Beh però scusa. Se si fanno meno di 60 fps allora tanto vale una console. 60 fps sono Il minimo per il PC gaming. Ora con le tv a 120 e 144 hz che danno anche la "paga" ai monitor avere un pc per i soli 60 fps a me sembra un spreco.
Poi loro ti dicono che puoi attivarlo (e io aggiungo senza difetti nel campo di utilizzo del PC gaming). Poi se follemente non lo vuoi attivare obbligatorio non è no?
Però trovo davvero irreale criticare o non essere convinti di una delle feature più incredibili che abbia mai visto come il FG.

bagnino89
20-04-2023, 16:58
"Secondo quanto riferito, NVIDIA ha limitato la produzione di GPU GeForce RTX 4070 a causa delle scarse vendite"



https://wccftech.com/nvidia-reportedly-limiting-production-of-geforce-rtx-4070-gpus-due-to-poor-sales/Ma come, non erano il punto di ingresso a Lovelace?

Inviato dal mio Pixel 6 utilizzando Tapatalk

X360X
20-04-2023, 17:06
Ma come, non erano il punto di ingresso a Lovelace?

Inviato dal mio Pixel 6 utilizzando Tapatalk

Potrebbero provare a stamparci un frutto morsicato, ma credo che abbiano una clientela molto meno predisposta a comprare in sovraprezzo finito "lo strano periodo"

OrazioOC
20-04-2023, 17:19
"Secondo quanto riferito, NVIDIA ha limitato la produzione di GPU GeForce RTX 4070 a causa delle scarse vendite"

https://wccftech.com/nvidia-reportedly-limiting-production-of-geforce-rtx-4070-gpus-due-to-poor-sales/

Che sia da monito per le prossime sku ad106/107, non si azzardino a lanciare quella 4060 ti con 8gb di vram a 500 euro. :rolleyes:

devil_mcry
20-04-2023, 17:25
Beh però scusa. Se si fanno meno di 60 fps allora tanto vale una console. 60 fps sono Il minimo per il PC gaming. Ora con le tv a 120 e 144 hz che danno anche la "paga" ai monitor avere un pc per i soli 60 fps a me sembra un spreco.
Poi loro ti dicono che puoi attivarlo (e io aggiungo senza difetti nel campo di utilizzo del PC gaming). Poi se follemente non lo vuoi attivare obbligatorio non è no?
Però trovo davvero irreale criticare o non essere convinti di una delle feature più incredibili che abbia mai visto come il FG.


Questa del "se non fanno 60 fps gioca a una console" è una grande stronzata da master race ma tolto questo non hai colto il punto del discorso. E' un di più non ci può fai 3/4 di generazione che si sovrappone come prezzo e prestazioni sulla vecchia.

Ripeto te hai una 4090 ma sotto alla 4080 il valore aggiunto è minimo in prestazioni pure, il FG quanti giochi lo hanno? non dico quanti ne avranno tra 2 anni, li ci sarà la quinta generazione

Ale55andr0
20-04-2023, 18:06
Il DLSS3 cmq verrà prima o poi colmato da FSR3

Massì, che schifo la nativa :O

ColdWarGuy
20-04-2023, 18:07
Sorry per l'OT :

SpaceX's uncrewed Starship explodes on launch attempt (https://edition.cnn.com/us/live-news/spacex-starship-rocket-launch-04-20-23/index.html)

Dopo la comunicazione di un bel quarto di cacca di Tesla, il giocattolo dell'amichetto di giacchetta ha fatto SPOOOF ...

Progettato con l'AI ?

HSH
21-04-2023, 08:19
https://www.tomshardware.com/news/msi-launches-geforce-rtx-3060-ti-super-3x-gpus

scaffale?

ninja750
21-04-2023, 08:31
"Secondo quanto riferito, NVIDIA ha limitato la produzione di GPU GeForce RTX 4070 a causa delle scarse vendite"

https://wccftech.com/nvidia-reportedly-limiting-production-of-geforce-rtx-4070-gpus-due-to-poor-sales/

che è la conferma che piuttosto che calare di prezzo, preferiscono non vendere e produrne meno

kiwivda
21-04-2023, 08:43
che è la conferma che piuttosto che calare di prezzo, preferiscono non vendere e produrne meno

E anche del fatto che il mercato è saturo delle ampere ex mining che stanno coprendo tutta la fascia bassa a prezzi ormai più che competitivi, rubando market share alle nuove gen. Ci sono letteralmente bancali di gpu usate 3070 3060TI a prezzo delle patate.

Il che fa pensare che la serie 5000 secondo me non arriverà sicuramente tanto presto, o quanto meno non nei tempi canonici che tutti si aspettano. Anzi uno scenario interessante sarebbe la commercializzazione in tempi consoni di una nuova flagship aka 5090, e basta, tanto la fascia sotto è ampiamente coperta dalla bolla del mining e dall'invenduto di Ada.

Senza contare che al prezzo attuale una 6800XT è molto meglio di una 4070.

HSH
21-04-2023, 08:50
E anche del fatto che il mercato è saturo delle ampere ex mining che stanno coprendo tutta la fascia bassa a prezzi ormai più che competitivi, rubando market share alle nuove gen. Ci sono letteralmente bancali di gpu usate 3070 3060TI a prezzo delle patate.


se mi dici dove stanno... forse tutti stipati in cina? :D

kiwivda
21-04-2023, 08:54
se mi dici dove stanno... forse tutti stipati in cina? :D

sulla baia ci sono 3070 custom di tutto punto a 350 euro, 3060ti a meno di 300, fatto salvo per le FE che forse per una questione di feticcio da collezione tengono sui 100 euro in più per gli imbecilli che ci cascano.

Cutter90
21-04-2023, 08:56
Questa del "se non fanno 60 fps gioca a una console" è una grande stronzata da master race ma tolto questo non hai colto il punto del discorso. E' un di più non ci può fai 3/4 di generazione che si sovrappone come prezzo e prestazioni sulla vecchia.

Ripeto te hai una 4090 ma sotto alla 4080 il valore aggiunto è minimo in prestazioni pure, il FG quanti giochi lo hanno? non dico quanti ne avranno tra 2 anni, li ci sarà la quinta generazione

E' proprio questo il punto, Troppo pochi. Ma come per il dlss (tutti all'inzio a dire " eh ma non lo supporta nessuno, poi ora ce l'hanno in tantissimi), sempre più giochi lo avranno e tu fidati che è una KA a tutti gli effetti, anche più del dlss. Soprattutto sulle schede di fascia più bassa. Forse non so se hai capito come funziona. Attualmente ti da 30 fps in 4k senza caricare la cpu di 1 punto, ti crea zero artefatti visibili e ti aumenta la latenza di punti assolutamente trascurabili in single player...... cioè, più di cosi non so cosa potrebbe essere migliore :)


Per quanto riguarda FSR3, l'esperienza dlss vs FSR insegna che finchè nvidia ha hardware dedicato batterà sempre le soluzioni AMD.

PS: non è affatto una stronzata la cosa dei 60. Cosa serve stare su pc se poi giochi come su una console? E' più brigoso, molto più costoso e si va spesso incontro a vari problemi che su console nemmeno se ne parla.

ninja750
21-04-2023, 09:12
E' proprio questo il punto, Troppo pochi. Ma come per il dlss (tutti all'inzio a dire " eh ma non lo supporta nessuno, poi ora ce l'hanno in tantissimi), sempre più giochi lo avranno e tu fidati che è una KA a tutti gli effetti, anche più del dlss. Soprattutto sulle schede di fascia più bassa.

invece paradossalmente sulle schede di fascia più bassa va peggio, con 60fps a video hai la latenza di 30fps

https://www.techspot.com/article/2546-dlss-3/

cit. "when enabling frame generation, while scene FPS rose again to 112 FPS, latency increased to 63 ms. What this means is that despite the game having the visual smoothness of 112 FPS, the latency and responsiveness you're experiencing is more like playing the game at 40 FPS. You end up with smooth motion but a slow feel, which is hard to show on a video"

X360X
21-04-2023, 09:14
E' proprio questo il punto, Troppo pochi. Ma come per il dlss (tutti all'inzio a dire " eh ma non lo supporta nessuno, poi ora ce l'hanno in tantissimi), sempre più giochi lo avranno e tu fidati che è una KA a tutti gli effetti, anche più del dlss. Soprattutto sulle schede di fascia più bassa. Forse non so se hai capito come funziona. Attualmente ti da 30 fps in 4k senza caricare la cpu di 1 punto, ti crea zero artefatti visibili e ti aumenta la latenza di punti assolutamente trascurabili in single player...... cioè, più di cosi non so cosa potrebbe essere migliore :)


Per quanto riguarda FSR3, l'esperienza dlss vs FSR insegna che finchè nvidia ha hardware dedicato batterà sempre le soluzioni AMD.

PS: non è affatto una stronzata la cosa dei 60. Cosa serve stare su pc se poi giochi come su una console? E' più brigoso, molto più costoso e si va spesso incontro a vari problemi che su console nemmeno se ne parla.

Vuoi sapere come funziona PS5? (da possessore) abbassa i dettagli generali direi anche rispetto a una 3060Ti, per andare in simil-qhd nativo e upscalarlo in 4K.
Senza avere accesso a un'esperienza superiore come l'ultrawide (che si gestisce ben più facile del 4K tra l'altro, ma 4K upscalato è il target di PS5).
Avendo il VRR da 48 a 120fps SE hai HDMI 2.1, sennò niente.
Morendo se provassero ad attivare un attimo di RT più serio.
Miracolosamente in questa gen i 60fps sono diventati qualcosa di normale, perché su PS4 il target era praticamente sempre 30.
Ovviamente no mod, no ritocchi vari, no gestione avanzata della grafica.

di norma quella è la situazione di PS5, che per carità per quel che costa fa il suo e brilla pure quando gli studi interni di Sony in quella manciata di giochi riescono a spremerla (e la spremeranno ancor di più in futuro).

non è un PC, non dà l'esperienza uguale al PC, poi che uno su PC punti ad avere almeno 60fps ok ci mancherebbe, ma forse come pubblicizza NVIDIA tanti pensano che potrà essere utile proprio ad averli 60fps, magari con determinati effetti RT altrimenti preclusi. Perché ora stai certo che lanciano la 4060Ti al prezzo della vecchia 3060Ti di 3 anni fa andando massimo come una 3070 ma "with frame generator is better".
pure le 4060 lisce proveranno a sovraprezzare co quella scusa dai.

poi se sarà almeno funzionale quando già stai a 60 bene, è qualcosa

HSH
21-04-2023, 09:20
sulla baia ci sono 3070 custom di tutto punto a 350 euro, 3060ti a meno di 300, fatto salvo per le FE che forse per una questione di feticcio da collezione tengono sui 100 euro in più per gli imbecilli che ci cascano.

cercherò ma non mi pare di averne trovate molte... se mi dai qualche link in pvt ti sarei grato
ho visto solo gente con 50 voti positivi, io compro se ne hanno almeno 500
oppure tutte aste che poi vanno a finire sopra i 330+ sped

kiwivda
21-04-2023, 09:29
cercherò ma non mi pare di averne trovate molte... se mi dai qualche link in pvt ti sarei grato
ho visto solo gente con 50 voti positivi, io compro se ne hanno almeno 500

MP.

E queste solo in Italia, che siamo una caccola del mercato.

StylezZz`
21-04-2023, 09:58
sulla baia ci sono 3070 custom di tutto punto a 350 euro, 3060ti a meno di 300, fatto salvo per le FE che forse per una questione di feticcio da collezione tengono sui 100 euro in più per gli imbecilli che ci cascano.

non solo ''feticcio da collezione'', ma anche qualità costruttiva, design più elegante (le custom a confronto sembrano dei giocattoli IMHO), sistema di dissipazione, e dimensioni più compatte.

nessuno29
21-04-2023, 10:01
In genere ad ogni nuova uscita di gpu ci sono dei malumori inziali e poi tutti comprano, a sto giro invece si è creato un movimento unico piuttosto attivo su youtube ed i vari canali social. Che sia la volta buona? vedremo

Cutter90
21-04-2023, 10:13
invece paradossalmente sulle schede di fascia più bassa va peggio, con 60fps a video hai la latenza di 30fps

https://www.techspot.com/article/2546-dlss-3/

cit. "when enabling frame generation, while scene FPS rose again to 112 FPS, latency increased to 63 ms. What this means is that despite the game having the visual smoothness of 112 FPS, the latency and responsiveness you're experiencing is more like playing the game at 40 FPS. You end up with smooth motion but a slow feel, which is hard to show on a video"

Con reflex attivo non è nulla di tutto ciò. Ragazzi, io lo sto usando dal d1, è inutile che mi postate analisi.:D

MKa naturalmente parto sempre dal presupposto che uno con una 4060 ti o 4070 non l'abbia presa per il 4k a 30 fps, ma per la risoluzione per cui è stata fatta. Cioè, con una 4070 si punterà al 1440p 100 e passa fps.

Vuoi sapere come funziona PS5? (da possessore) abbassa i dettagli generali direi anche rispetto a una 3060Ti, per andare in simil-qhd nativo e upscalarlo in 4K.
Senza avere accesso a un'esperienza superiore come l'ultrawide (che si gestisce ben più facile del 4K tra l'altro, ma 4K upscalato è il target di PS5).
Avendo il VRR da 48 a 120fps SE hai HDMI 2.1, sennò niente.
Morendo se provassero ad attivare un attimo di RT più serio.
Miracolosamente in questa gen i 60fps sono diventati qualcosa di normale, perché su PS4 il target era praticamente sempre 30.
Ovviamente no mod, no ritocchi vari, no gestione avanzata della grafica.

di norma quella è la situazione di PS5, che per carità per quel che costa fa il suo e brilla pure quando gli studi interni di Sony in quella manciata di giochi riescono a spremerla (e la spremeranno ancor di più in futuro).

non è un PC, non dà l'esperienza uguale al PC, poi che uno su PC punti ad avere almeno 60fps ok ci mancherebbe, ma forse come pubblicizza NVIDIA tanti pensano che potrà essere utile proprio ad averli 60fps, magari con determinati effetti RT altrimenti preclusi. Perché ora stai certo che lanciano la 4060Ti al prezzo della vecchia 3060Ti di 3 anni fa andando massimo come una 3070 ma "with frame generator is better".
pure le 4060 lisce proveranno a sovraprezzare co quella scusa dai.

poi se sarà almeno funzionale quando già stai a 60 bene, è qualcosa

So molto bene quello che dico, visto che ho anche ps5, per l'appunto. Ps5 è circa una 2070 super come performance.
Ad ogni modo in cp2077 con path tracing con 4090 si arriva ai 60 fps grazie al FG ma con reflex l'aumento di lantenza è trascurabile. E' inutile che mi postate articoli,m fidatevi di chi lo usa dal D1 ragazzi.

appleroof
21-04-2023, 10:15
https://www.everyeye.it/notizie/unrecord-quant-e-realistico-svelato-fps-body-cam-giocatore-singolo-645807.html

:eek:

Reyand
21-04-2023, 10:18
https://www.everyeye.it/notizie/unrecord-quant-e-realistico-svelato-fps-body-cam-giocatore-singolo-645807.html

:eek:

matrix sempre più vicino.

ultimate trip
21-04-2023, 10:24
In genere ad ogni nuova uscita di gpu ci sono dei malumori inziali e poi tutti comprano, a sto giro invece si è creato un movimento unico piuttosto attivo su youtube ed i vari canali social. Che sia la volta buona? vedremo

vediamo se a settembre esce qualche modello nuovo e/o qualche repricing.
in teoria se ci sono ancora tante ampere sull'usato con domanda sarebbe una cosa buona perchè chi vende poi prende una nuova vga, il problema è se chi vende poi non compra nulla, per cui a nvidia forse conviene produrre meno a prezzi alti

appleroof
21-04-2023, 10:24
matrix sempre più vicino.

nel frattempo sarebbe bello se tutti cominciassero a spremere il fenomenale UE5 :D

ninja750
21-04-2023, 11:06
MKa naturalmente parto sempre dal presupposto che uno con una 4060 ti o 4070 non l'abbia presa per il 4k a 30 fps, ma per la risoluzione per cui è stata fatta. Cioè, con una 4070 si punterà al 1440p 100 e passa fps.

il punto è che il messaggio che si vuole far passare è che una vga che in 4K fa 30fps, con il FG diventano 60fps. mantenendo pari esperienza ludica pari risultato visivo (artefatti) in tutti i giochi e pari latenza rispetto ad altra vga 60fps nativi

da un lato sono curioso di vedere se quando uscirà la 5090 che farà +50% sulla 4090 se considereranno ancora questo FG, o se visto che il tutto potrebbe girare in nativa lo metteranno nel cassetto

mikael84
21-04-2023, 11:38
Ma come, non erano il punto di ingresso a Lovelace?

Inviato dal mio Pixel 6 utilizzando Tapatalk

L'unica lovelace degna è la 4090.
Questa scheda oltre al prezzo, è stata criticata per le performance, molti si aspettavano una 3080ti in tutto e per tutto. E con questo nodo per prendere una 3080ti basta davvero niente.

Che sia da monito per le prossime sku ad106/107, non si azzardino a lanciare quella 4060 ti con 8gb di vram a 500 euro. :rolleyes:

399$ sicuri, poi se ha il coraggio di fare 449, beh...
Infatti, come riportavano su wccf " un calo a 549$ per le 4070, ammazzerebbe le 4060ti, che sarebbero troppo vicine".

Cmq in fascia medio-bassa, si sapeva da tempo che sarebbe stato un bel casotto.

Avevo letto che oltre al rinnovato optical flow accelerator Ada aggiunge alcune features non ancora utilizzate, nemmeno per il PT di Cyberpunk.

Ma se è come dici tanto meglio, così il primo che rompe perché la prossima Switch userà Ampere anziché Lovelace gli sparo una testata sulle gengive :asd:

Non credo ci saranno stravolgimenti comunque, ma un piccolo boost dovuto alla maturità dei driver (come è sempre avvenuto) in combinazione con gli altri elementi menzionati che sarà sufficiente perché la scheda non le prenda dalla 3080 in praticamente nessun caso coi prossimi titoli, tranne qualche raro caso (in 4K) dove i vantaggi in termini di bus e bandwidth delle 3080 risulteranno particolarmente importanti.


Lol, piuttosto limitassero il prezzo questi buffoni :asd:

Internamente è 1:1, fatto salvo per RT core, cache e struttura, tensor. I vantaggi di Lovelace sono nel path tracing (anche se non stravolgente), in tutto il resto è uguale.
Dalla prossima gen, probabilmente rivedranno la microarchitettura, allora si che in seguito ci potrebbero essere differenza in base ai titoli.

che è la conferma che piuttosto che calare di prezzo, preferiscono non vendere e produrne meno

Chiaro, l'ha detto pure AMD che per ora giocano così. Tuttavia, i wafer sono prenotati e prima o poi li dovranno consumare. E' chiaro che l'anno prossimo vedremmo la 5090, e Lovelace farà come ampere per molto tempo.
Nvidia cmq, i wafer può consumarli tranquillamente nei datacenter, visto che data la mole, ogni 30 chip un wafer viene bruciato.