PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 [389] 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

R@nda
27-04-2023, 10:38
Mah..a me sembra davvero tanta roba a schermo nel complesso e non è gratis da muovere, vale lo stesso per Tlou e Hogwart:
https://www.youtube.com/watch?v=8yUiu12jZBE

Poi si, anche questo parte male come rifinitura e ottimizzazione come bachi vari ma fischia graficamente non siete mai contenti :D

Ps.
Vale anche per il prossimo Diablo, si vede che è "raffinato" graficamente.

Pps e ho pure sbagliato filmato...quello è il precedente, figurati l'attuale!

https://youtu.be/qPTPJtpR0pE

Cutter90
27-04-2023, 11:08
Mah..a me sembra davvero tanta roba a schermo nel complesso e non è gratis da muovere, vale lo stesso per Tlou e Hogwart:
https://www.youtube.com/watch?v=8yUiu12jZBE

Poi si, anche questo parte male come rifinitura e ottimizzazione come bachi vari ma fischia graficamente non siete mai contenti :D

Ps.
Vale anche per il prossimo Diablo, si vede che è "raffinato" graficamente.

Pps e ho pure sbagliato filmato...quello è il precedente, figurati l'attuale!

https://youtu.be/qPTPJtpR0pE

"Tanta roba" per me assolutamente no. Se non sbaglio nemmeno ha il RT.
Graficamente io ultimamente non sono mai contento perchè ci sono giochi molto più vecchi migliori dei nuovi e con requisiti molto inferiori.

R@nda
27-04-2023, 11:22
"Tanta roba" per me assolutamente no. Se non sbaglio nemmeno ha il RT.
Graficamente io ultimamente non sono mai contento perchè ci sono giochi molto più vecchi migliori dei nuovi e con requisiti molto inferiori.

Non so se supporta Rt mi pare che non c'è nemmeno Dlss al lancio (??).

E' tanto che non modello in 3d ma così a occhio lavorare con quella estensione negli scenari, tutti quei modelli, con quella
quantità e varietà di shader, map, normal map, texture, illumanzione e quant'altro non è gratis ne per la ram ne per Vram.

Se mi dici che Forspoken è deludente sono d'accordo, ma solo perchè risulta anonimo, nel complesso è comunque tanta roba anche lui e richiede risorse ram.

Sono anche d'accordo che a livello di ottimizzazione si deve fare di più, gli ultimi giochi sono indecenti all'uscita.

Ti faccio un esempio, Crysis 3 sembra avere un'estensione molto alta nei livelli quanto a orizzonte visivo e invece non è così, inganna bene questo si.

Cutter90
27-04-2023, 12:08
Non so se supporta Rt mi pare che non c'è nemmeno Dlss al lancio (??).

E' tanto che non modello in 3d ma così a occhio lavorare con quella estensione negli scenari, tutti quei modelli, con quella
quantità e varietà di shader, map, normal map, texture, illumanzione e quant'altro non è gratis ne per la ram ne per Vram.

Se mi dici che Forspoken è deludente sono d'accordo, ma solo perchè risulta anonimo, nel complesso è comunque tanta roba anche lui e richiede risorse ram.

Sono anche d'accordo che a livello di ottimizzazione si deve fare di più, gli ultimi giochi sono indecenti all'uscita.

Ti faccio un esempio, Crysis 3 sembra avere un'estensione molto alta nei livelli quanto a orizzonte visivo e invece non è così, inganna bene questo si.

E' un gioco amd quindi niente dlss purtroppo. Non ha RT e non è nemmeno OW. Ora vediamo i test ma siamo tra l'osceno e l'imbarazzante al momento come perfromance :)

nessuno29
27-04-2023, 12:37
Vabbè ma se la grafica è ottima anche senza rt va bene, per il dlss secondo me uscirà qualche mod

bagnino89
27-04-2023, 12:38
Ultimamente la situazione su PC è veramente pietosa.

Spero sia solo un periodo di transizione...

R@nda
27-04-2023, 13:07
Che poi mi par di capire che qui il problema non è nemmeno 2k o 4k ma questione di "fatto col culo" proprio, ottimo :D

Però se spingono sui 12gb dalla fascia media in su i motivi ci saranno.
(Metterne direttamente 16 no che poi giacchetta non margina abbastanza).

EffeX
27-04-2023, 13:21
Che poi mi par di capire che qui il problema non è nemmeno 2k o 4k ma questione di "fatto col culo" proprio, ottimo :D

Però se spingono sui 12gb dalla fascia media in su i motivi ci saranno.
(Metterne direttamente 16 no che poi giacchetta non margina abbastanza).

Veramente, fare un chip con 256 bit di bus per le x70 com'è sempre stato faceva brutto eh. :rolleyes:

Cutter90
27-04-2023, 13:24
Vabbè ma se la grafica è ottima anche senza rt va bene, per il dlss secondo me uscirà qualche mod

Va bene certo! Mica ci deve essere RT ovunque (anche se sarebbe anche ora) Ma non a queste performance....

mikael84
27-04-2023, 13:58
:asd: :asd:

https://www.youtube.com/watch?v=iOBzHYw1TVE&t=1s&ab_channel=HardwareUnboxed

Ale55andr0
27-04-2023, 14:08
:asd: :asd:

https://www.youtube.com/watch?v=iOBzHYw1TVE&t=1s&ab_channel=HardwareUnboxed

+1, a prescindere :O







...se stanno difendendo nvidia dimmelo che lo tolgo :asd:

Moreno Morello
27-04-2023, 14:15
aspetto il loro video dove dicono che la 4090 è invecchiata male con Jedi Survivor come benchmark

bagnino89
27-04-2023, 14:21
:asd: :asd:

https://www.youtube.com/watch?v=iOBzHYw1TVE&t=1s&ab_channel=HardwareUnboxed

Buffoni.

EffeX
27-04-2023, 14:41
Più che altro sarei curioso di conoscere le motivazioni dietro a questo astio per Nvidia e la simpatia con AMD.

Cutter90
27-04-2023, 14:52
Più che altro sarei curioso di conoscere le motivazioni dietro a questo astio per Nvidia e la simpatia con AMD.

Ma perchè se ricordo bene una volta Nvidia li ha "diffidati" una roba simile. Perchè hanno pralato male di qualcosa. Da allora ce l'hanno con Nvidia e cercano in modo molto elegante e fazioso di screditarla ogni tanto.
In realtà non sempre

EffeX
27-04-2023, 15:03
Ma perchè se ricordo bene una volta Nvidia li ha "diffidati" una roba simile. Perchè hanno pralato male di qualcosa. Da allora ce l'hanno con Nvidia e cercano in modo molto elegante e fazioso di screditarla ogni tanto.
In realtà non sempre

Ah ecco, non lo sapevo, grazie.

Ale55andr0
27-04-2023, 15:07
https://www.youtube.com/watch?v=XVvBOfkO2gk&ab_channel=Prodigeek

bel giochino

Ale55andr0
27-04-2023, 15:15
Infatti non sarebbe un probelma... se non per il fatto che sono requisiti del tutto ingiustificati per quello che si vede a schermo.
Io sono felicissimo che le SH usino sempre più risorse, è il progresso. Ma se a questo utilizzo non corrisponde un avanzamento diretto grafico allora significa solo che è la pigrizia/scarsa ottimizzazione/scarso investimento la ragione dei requisiti più alti. E questo è assolutamente da condannare

Perfettamente d'accordo

mikael84
27-04-2023, 15:20
Più che altro sarei curioso di conoscere le motivazioni dietro a questo astio per Nvidia e la simpatia con AMD.

Perchè quando nvidia gli aveva mandato la 3080 non parlarono di RT.

EffeX
27-04-2023, 15:33
Perchè quando nvidia gli aveva mandato la 3080 non parlarono di RT.

Bè, oggettivamente non parlare del RT su una scheda che ne faceva il cavallo di battaglia non è che fosse proprio corretto.

mikael84
27-04-2023, 15:56
Bè, oggettivamente non parlare del RT su una scheda che ne faceva il cavallo di battaglia non è che fosse proprio corretto.

decisamente direi. JHH non la prese bene, e da parte di HU ne nacque un piagnisteo continuo, ed avendo abbastanza seguito, nvidia decise di tornare a collaborare...

Alekos Panagulis
27-04-2023, 16:08
Più che altro sarei curioso di conoscere le motivazioni dietro a questo astio per Nvidia e la simpatia con AMD.

Ma perchè se ricordo bene una volta Nvidia li ha "diffidati" una roba simile. Perchè hanno pralato male di qualcosa. Da allora ce l'hanno con Nvidia e cercano in modo molto elegante e fazioso di screditarla ogni tanto.
In realtà non sempre

Perchè quando nvidia gli aveva mandato la 3080 non parlarono di RT.

Bè, oggettivamente non parlare del RT su una scheda che ne faceva il cavallo di battaglia non è che fosse proprio corretto.

decisamente direi. JHH non la prese bene, e da parte di HU ne nacque un piagnisteo continuo, ed avendo abbastanza seguito, nvidia decise di tornare a collaborare...

Non è andata così.
Nvidia non gradì la loro review della 3080, ed è legittimo, ma scrisse ad HWunboxed una bruttissima lettera, da cui emerse un atteggiamento mafioso e padronale nei confronti dei giornalisti e recensori indipendenti.
Tutto il settore si rivoltò contro Nvidia, tanto da spingerli a chiedere scusa e a ritirare quanto scritto.

https://cdn.discordapp.com/attachments/725727472364290050/787156437494923304/unknown.png

Vi invito a non sottovalutare il ruolo cruciale dei soggetti terzi, che con imparzialità - non tutti, purtroppo - testano prodotti che NOI compriamo, e paghiamo anche cari.

Bollare come "piangisteo" tutto quello che ne seguì è veramente miope.

ultimate trip
27-04-2023, 16:37
ma quindi secondo voi se nvidia ha fatto ritirare la 3060 super a msi significa che rispolvera il suffisso?
e lo farà sia per le 4000 che 3000?

https://www.pcgamer.com/msi-just-had-to-unlaunch-its-rtx-3060-ti-super-3x-because-its-not-actually-super/

mikael84
27-04-2023, 16:39
Non è andata così.
Nvidia non gradì la loro review della 3080, ed è legittimo, ma scrisse ad HWunboxed una bruttissima lettera, da cui emerse un atteggiamento mafioso e padronale nei confronti dei giornalisti e recensori indipendenti.
Tutto il settore si rivoltò contro Nvidia, tanto da spingerli a chiedere scusa e a ritirare quanto scritto.

https://cdn.discordapp.com/attachments/725727472364290050/787156437494923304/unknown.png

Vi invito a non sottovalutare il ruolo cruciale dei soggetti terzi, che con imparzialità - non tutti, purtroppo - testano prodotti che NOI compriamo, e paghiamo anche cari.

Bollare come "piangisteo" tutto quello che ne seguì è veramente miope.

pesiamo le parole per cortesia. Ci fu uno scontro ben più duro con AMD e kitguru qualche anno fa.
Non c'è alcuna minaccia nella lettera, ma un chiaro disappunto da parte dell'azienda sulla loro recensione. Nvidia ha investito parecchi soldi sul RT/AI e giustamente si aspettava che nella review se ne parlasse, visto il bacino di utenza che hanno.

HU è stata scorretta a non analizzare il RT e tutto quello che ne consegue, e giustamente nvidia è ben libera di non collaborare più con loro, visto che il campo che stava intraprendendo non veniva analizzato.

Dopo i vari piagnistei di HU, si ci fu una mobilitazione che fece cambiare idea ad nvidia, ma gli unici scorretti sono stati loro, visto che hanno ricevuto il materiale gratis, facendogli fare parecchie visual.

Se nella lettera si fosse parlato di non aver intrapreso il diktac imposto, e non aver fatto le review come loro imponevano, la situazione era ben diversa. Anzi drasticamente diversa...

Alekos Panagulis
27-04-2023, 16:41
pesiamo le parole per cortesia. Ci fu uno scontro ben più duro con AMD e kitguru qualche anno fa.
Non c'è alcuna minaccia nella lettera, ma un chiaro disappunto da parte dell'azienda sulla loro recensione. Nvidia ha investito parecchi soldi sul RT/AI e giustamente si aspettava che nella review se ne parlasse, visto il bacino di utenza che hanno.

HU è stata scorretta a non analizzare il RT e tutto quello che ne consegue, e giustamente nvidia è ben libera di non collaborare più con loro, visto che il campo che stava intraprendendo non veniva analizzato.

Dopo i vari piagnistei di HU, si ci fu una mobilitazione che fece cambiare idea ad nvidia, ma gli unici scorretti sono stati loro, visto che hanno ricevuto il materiale gratis, facendogli fare parecchie visual.

Se nella lettera si fosse parlato di non aver intrapreso il diktac imposto, e non aver fatto le review come loro imponevano, la situazione era ben diversa. Anzi drasticamente diversa...

Non commento nemmeno la sequela di sciocchezze che hai scritto. Per me la discussione finisce qui.

Cutter90
27-04-2023, 16:45
Non commento nemmeno la sequela di sciocchezze che hai scritto. Per me la discussione finisce qui.

Ma non ha scritto nessuna sciocchezza. E' proprio così che è andata :mbe:

EffeX
27-04-2023, 16:46
Non è andata così.
Nvidia non gradì la loro review della 3080, ed è legittimo, ma scrisse ad HWunboxed una bruttissima lettera, da cui emerse un atteggiamento mafioso e padronale nei confronti dei giornalisti e recensori indipendenti.
Tutto il settore si rivoltò contro Nvidia, tanto da spingerli a chiedere scusa e a ritirare quanto scritto.

https://cdn.discordapp.com/attachments/725727472364290050/787156437494923304/unknown.png

Vi invito a non sottovalutare il ruolo cruciale dei soggetti terzi, che con imparzialità - non tutti, purtroppo - testano prodotti che NOI compriamo, e paghiamo anche cari.

Bollare come "piangisteo" tutto quello che ne seguì è veramente miope.

Grazie per la puntualizzazione.
In ogni caso credo che la verità stia nel mezzo: la 3080 piazzata a msrp era ed è ancora una gran scheda a tutto tondo, sia raster che rt, evidentemente Hwunboxed non la testò correttamente ed Nvidia se la prese a male scatenando il malcontento di tutto il settore giornalistico.
E dire che una volta riuscivano anche a fare ironia su loro stessi. :D

https://youtu.be/WOVjZqC1AE4

mikael84
27-04-2023, 16:55
ma quindi secondo voi se nvidia ha fatto ritirare la 3060 super a msi significa che rispolvera il suffisso?
e lo farà sia per le 4000 che 3000?

https://www.pcgamer.com/msi-just-had-to-unlaunch-its-rtx-3060-ti-super-3x-because-its-not-actually-super/

Super l'ha usato solo con la serie turing, penso sia completamente accantonato.:)

ultimate trip
27-04-2023, 17:14
....
E dire che una volta riuscivano anche a fare ironia su loro stessi. :D

https://youtu.be/WOVjZqC1AE4

:D Altri tempi

HSH
27-04-2023, 17:25
a breve non dovrebbe uscire la 4060 e 4060ti? stima di prezzo 500€ ?

Kvarat
27-04-2023, 18:34
a breve non dovrebbe uscire la 4060 e 4060ti? stima di prezzo 500€ ?

Dato l'andamento direi di si. Avrà prestazioni un pelino meglio della 3070 la ti e la liscia vedremo. Credo che i prezzi saranno 400 la liscia e 500 la ti.

EffeX
27-04-2023, 20:22
Dato l'andamento direi di si. Avrà prestazioni un pelino meglio della 3070 la ti e la liscia vedremo. Credo che i prezzi saranno 400 la liscia e 500 la ti.

Più che altro sarà da capire se potranno usare DLSS3 e FG anche loro avendo meno unità, perché se così fosse allora non è intenzione di portarla sulle Ampere per una mera questione di marketing.

devil_mcry
27-04-2023, 20:29
Più che altro sarà da capire se potranno usare DLSS3 e FG anche loro avendo meno unità, perché se così fosse allora non è intenzione di portarla sulle Ampere per una mera questione di marketing.

il dlss3 in termini di upscaling c'è anche su ampere, quello che manca è il frame generator ma quasi di sicuro è per marketing

nessuno29
27-04-2023, 20:33
La 4060 da 8gb con prestazioni da 3060ti sarà obbrobriosa, mamma mia che fail

OrazioOC
27-04-2023, 20:36
La 4060 da 8gb con prestazioni da 3060ti sarà obbrobriosa, mamma mia che fail

Ma magari arrivasse alle prestazioni della 3060 ti, secondo gli ultimi leak non arriverebbe a quelle performance.
Finirebbe in una terra di mezzo tra la 3060 e la ti, sarebbe una simil 2080. :rolleyes:

Se si presentano con una scheda così oltre i 350 euro gli auguro lo scaffale a vita.:asd:

EffeX
27-04-2023, 20:44
il dlss3 in termini di upscaling c'è anche su ampere, quello che manca è il frame generator ma quasi di sicuro è per marketing

Ah, non lo sapevo del DLSS3, ho avuto la 3070Ti fino a dicembre ma non mi son mai accorto che si potesse attivare, ero convinto fosse sempre il 2. :doh:

EffeX
27-04-2023, 20:46
Ma magari arrivasse alle prestazioni della 3060 ti, secondo gli ultimi leak non arriverebbe a quelle performance.
Finirebbe in una terra di mezzo tra la 3060 e la ti, sarebbe una simil 2080. :rolleyes:

Se si presentano con una scheda così oltre i 350 euro gli auguro lo scaffale a vita.:asd:

Io continuo a sperare in un calo di prezzi di tutta la linea visto lo scarso consenso da parte di giornalisti del settore e mercato.
Anche perché di sto passo la futura 5060 potrebbe essere su 64 bit di bus. :sofico:

devil_mcry
27-04-2023, 20:49
Ah, non lo sapevo del DLSS3, ho avuto la 3070Ti fino a dicembre ma non mi son mai accorto che si potesse attivare, ero convinto fosse sempre il 2. :doh:

le funzioni di image scaling sono parallele di fatto non è che su ampere sono finite li, ma non c'è il frame generator che però è la novità vera

ninja750
27-04-2023, 20:54
HU è stata scorretta a non analizzare il RT e tutto quello che ne consegue


ah quindi essere indipendenti e recensire come più si ritiene opportuno, è essere scorretti? :O

mikael84
27-04-2023, 21:22
La 4060 da 8gb con prestazioni da 3060ti sarà obbrobriosa, mamma mia che fail

Ma magari arrivasse alle prestazioni della 3060 ti, secondo gli ultimi leak non arriverebbe a quelle performance.
Finirebbe in una terra di mezzo tra la 3060 e la ti, sarebbe una simil 2080. :rolleyes:

Se si presentano con una scheda così oltre i 350 euro gli auguro lo scaffale a vita.:asd:

Si teoricamente sarà più una sorta di 2080 che 3060ti. L'obbiettivo della x60 classica, dopo 2 gen...

ah quindi essere indipendenti e recensire come più si ritiene opportuno, è essere scorretti? :O

Se io ti mando un chip, su cui punto tutto sul RT/AI/DLSS e tu non me ne parli, posso tranquillamente chiudere i rapporti con te, l'azienda non è obbligata a collaborare con te.


Il grave sono i diktat imposti, che HU non ha in quanto sta solo screditando pesantemente l'azienda, pur ricevendo i sample.

Trovo decisamente più scorretto il caso AMD kitguru

Questo era il caso Kitguru:
"Christine Browne mi ha informato direttamente al telefono che il motivo del ritiro del campione era basato sulla "posizione negativa di KitGuru nei confronti di AMD". Ha detto che con un prodotto limitato volevano concentrarsi sul dare i campioni a pubblicazioni che sono "più positive" su AMD come marchio e azienda"

Questo è gravissimo, in pratica ti dava il sample solo in caso di marketta positiva.

"A causa della loro decisione, KitGuru non sarà in grado di fornire una copertura imparziale e dettagliata della parte FIJI di AMD a milioni di lettori il giorno del lancio
Se non siamo in grado di condividere le nostre opinioni e opinioni autentiche per paura che un'azienda ritiri campioni di prodotti, non vedo alcun motivo per essere qui. KitGuru ha sempre avuto un focus primario per i nostri lettori appassionati e il nostro obiettivo è quello di fornire consigli di acquisto accurati e genuini."

https://www.kitguru.net/tech-news/announcements/zardon/amd-withdraw-kitguru-fury-x-sample-over-negative-content/

Questo è gravissimo da parte mia.
Il caso di JHH non è che sia tutto rosa e fiori, ma non ti ha imposto nulla di parlarne bene per forza, solo di parlare del RT e di tutto quello che c'è dietro, avendo investito parecchi mld.:)

Cmq chiudo Ot

ColdWarGuy
28-04-2023, 00:11
:asd: :asd:

https://www.youtube.com/watch?v=iOBzHYw1TVE&t=1s&ab_channel=HardwareUnboxed

Quindi siamo SOLO al quarto video di hating in 3 settimane ? :fagiano:

Alekos Panagulis
28-04-2023, 06:42
State difendendo quella che la stessa Nvidia non è riuscita a difendere. Anzi, Nvidia ha scritto una lettera di scuse senza precedenti.

Se non capite che i bad guys qui non sono quelli di Hwunboxed, che fanno solo il lavoro lavoro, allora siete un caso disperato di fanboyismo compulsivo.
State applicando alle gpu le categorie del tifo calcistico.
Leggete la lettera e appenderevela sul letto, in modo da poterla guardate tutte le mattine :asd:

https://uploads.tapatalk-cdn.com/20230428/287e0c3b90585f84aef062556e82fedd.jpg



Vi invito anche ad ascoltare il Wan show che segui allo scandalo https://www.youtube.com/live/iXn9O-Rzb_M?feature=share se volete capirci qualcosa, altrimenti continuate pure nel vostro tifo insensato.
Secondo me nemmeno JHH sperava di avere dei sostenitori così accaniti e ciechi.

Quello che hanno fatto Steve e Tom di Hwunboxed è stato estremamente coraggioso, perché hanno esposto l'atteggiamento ricattatorio di Nvidia agli occhi del mondo, nell'interesse di tutti gli utenti e tutti i giornalisti, compreso hwupgrade.it.

Questo è il modo il cui l'industria piega il giornalismo al suo potere e manipola il mercato.


Inviato dal mio CPH2305 utilizzando Tapatalk

ColdWarGuy
28-04-2023, 06:59
State difendendo quella che la stessa Nvidia non è riuscita a difendere. Anzi, Nvidia ha scritto una lettera di scuse senza precedenti.

Se non capite che i bad guys qui non sono quelli di Hwunboxed, che fanno solo il lavoro lavoro, allora siete un caso disperato di fanboyismo compulsivo.
State applicando alle gpu le categorie del tifo calcistico.
Leggete la lettera e appenderevela sul letto, in modo da poterla guardate tutte le mattine :asd:


Al tuo posto appenderei al muro la fattura di acquisto della 4090 per guardarla ogni volta che ti viene in mente di dire certe ***.

Alekos Panagulis
28-04-2023, 07:01
Al tuo posto appenderei al muro la fattura di acquisto della 4090 per guardarla ogni volta che ti viene in mente di dire certe ***.Mi sembra una argomentazione molto pregnante.

Inviato dal mio CPH2305 utilizzando Tapatalk

Salfox
28-04-2023, 07:21
Al tuo posto appenderei al muro la fattura di acquisto della 4090 per guardarla ogni volta che ti viene in mente di dire certe ***.

Pur non condividendo nemmeno una virgola di ciò che dice Panagulis devo dire che il tuo odio per le persone che hanno una 4090 traspare in ogni dove, io ti consiglierei di fumare meno sigarette, bere meno e andare meno in disco così risparmieresti anche tu un po' di soldi per acquistare una 4090 (l'unica Lovelace che vale la pena acquistare) come credo abbiano fatto un po' tutti i possessori su questo forum.:D :D :D :D

aled1974
28-04-2023, 07:22
State difendendo quella che la stessa Nvidia non è riuscita a difendere. Anzi, Nvidia ha scritto una lettera di scuse senza precedenti.

Se non capite che i bad guys qui non sono quelli di Hwunboxed, che fanno solo il lavoro lavoro, allora siete un caso disperato di fanboyismo compulsivo.
State applicando alle gpu le categorie del tifo calcistico.
Leggete la lettera e appenderevela sul letto, in modo da poterla guardate tutte le mattine :asd:



Vi invito anche ad ascoltare il Wan show che segui allo scandalo https://www.youtube.com/live/iXn9O-Rzb_M?feature=share se volete capirci qualcosa, altrimenti continuate pure nel vostro tifo insensato.
Secondo me nemmeno JHH sperava di avere dei sostenitori così accaniti e ciechi.

Quello che hanno fatto Steve e Tom di Hwunboxed è stato estremamente coraggioso, perché hanno esposto l'atteggiamento ricattatorio di Nvidia agli occhi del mondo, nell'interesse di tutti gli utenti e tutti i giornalisti, compreso hwupgrade.it.

Questo è il modo il cui l'industria piega il giornalismo al suo potere e manipola il mercato.

concordo in toto

il giorno che capirete come e quanto questi attori influenzino le recensioni (di giornalisti come di influencer) sarà un giorno troppo tardi. Ma tutte eh: amd, nvidia, intel, apple, samsung, microsoft, aggiungete voi…

poi non lamentatevi delle recensioni che sembrano i comunicati stampa della sezione marketing/pr delle società stesse (ho visto questo tipo di lamentela più volte in questi anni, e non solo all’estero)

permettere loro (e ai “giornalisti” prezzolati) di fare un passetto oggi, un passetto domani in questa direzione non fa bene a nessuno. Alla lunga neanche alle società stesse che li mettono in pratica


è il solito metodo economico occidentale degli ultimi anni: prendi quanti più soldi puoi e scappa, non importa se il prodotto fa schifo. Poi appena c'è una voce contraria vai prima con gli insulti, poi con la macchina del fango e infine con gli avvocati. Specie se vedi che hai una bella schiera di yes-consumer che ti supportano nell'operazione


ma se si ha parenti (o soldi) all’interno delle suddette allora un po’ cambia e si può (quasi) capire le scusanti


ma quasi


ciao ciao

nessuno29
28-04-2023, 07:24
Che poi cosa state criticando? Le argomentazioni che ci sono nel video sono corrette, probabilmente sono peggio i 12gb di oggi rispetto agli 8 di tre anni fa, non mi pare stiano dicendo castronerie a maggior ragione su una scheda da 4k come la 4070ti.

Poi se preferite recensioni finte piene di slide su quanto sia magico il dlss e fondamentale l’rt e test fatti solo su giochi selezionati per cullarvi su non so cosa peggio per voi :D

ColdWarGuy
28-04-2023, 08:29
Che poi cosa state criticando? Le argomentazioni che ci sono nel video sono corrette, probabilmente sono peggio i 12gb di oggi rispetto agli 8 di tre anni fa, non mi pare stiano dicendo castronerie a maggior ragione su una scheda da 4k come la 4070ti.

Poi se preferite recensioni finte piene di slide su quanto sia magico il dlss e fondamentale l’rt e test fatti solo su giochi selezionati per cullarvi su non so cosa peggio per voi :D

Non ho contestato i contenuti, se leggi i miei post in questo 3ad scoprirai che non risparmio critiche verso NVIDIA, ma il fatto che sono diventati monotematici.

Io seguo parecchi canali YT e loro sono gli unici, a quel livello di numero di iscritti, a manifestare un hate così evidente.

Detto questo non sò se avete notato il farcito "magazzeno" :

https://i.postimg.cc/7h0F6nNN/HU.png

ColdWarGuy
28-04-2023, 08:36
Pur non condividendo nemmeno una virgola di ciò che dice Panagulis devo dire che il tuo odio per le persone che hanno una 4090 traspare in ogni dove, io ti consiglierei di fumare meno sigarette, bere meno e andare meno in disco così risparmieresti anche tu un po' di soldi per acquistare una 4090 (l'unica Lovelace che vale la pena acquistare) come credo abbiano fatto un po' tutti i possessori su questo forum.:D :D :D :D

Non è questione di banda di portafoglio, ma di equilibrio tra quello che spendi, quello che ottieni e quello che ci fai.

Ad esempio io 2K li spenderò a breve, con convinzione, per una MTB nuova, che mi aiuterà a mantenere la forma all'aria aperta e che tra 10 anni avrà ancora un valore.

Tra 10 anni la 4090 tra è destinata all'ecocentro per lo smaltimento, ergo soldi buttati per i miei criteri.

nessuno29
28-04-2023, 09:10
Non ho contestato i contenuti, se leggi i miei post in questo 3ad scoprirai che non risparmio critiche verso NVIDIA, ma il fatto che sono diventati monotematici.

Io seguo parecchi canali YT e loro sono gli unici, a quel livello di numero di iscritti, a manifestare un hate così evidente.


Ma dove sarebbe l'hating? E' un tema caldo perché stanno iniziando ad uscire i primi giochi "next gen" ed è giusto che se ne parli.

Salfox
28-04-2023, 09:39
Non è questione di banda di portafoglio, ma di equilibrio tra quello che spendi, quello che ottieni e quello che ci fai.

Ad esempio io 2K li spenderò a breve, con convinzione, per una MTB nuova, che mi aiuterà a mantenere la forma all'aria aperta e che tra 10 anni avrà ancora un valore.

Tra 10 anni la 4090 tra è destinata all'ecocentro per lo smaltimento, ergo soldi buttati per i miei criteri.

Finalmente stai capendo che il valore che dai ai soldi è un concetto puramente soggettivo, secondo me spendere 2000 € per una MTB è una gran cazzata ma mica te lo vengo a ripetere in ogni momento perchè io al contrario tuo rispetto il prossimo....

ninja750
28-04-2023, 09:42
ah quindi essere indipendenti e recensire come più si ritiene opportuno, è essere scorretti? :O


Il grave sono i diktat imposti, che HU non ha in quanto sta solo screditando pesantemente l'azienda, pur ricevendo i sample.


cioè non parlare approfonditamente del RT per (all'epoca) scelta editoriale sarebbe "screditare l'azienda"? :confused:


Il caso di JHH non è che sia tutto rosa e fiori, ma non ti ha imposto nulla di parlarne bene per forza, solo di parlare del RT e di tutto quello che c'è dietro

cioè non ti ha IMPOSTO nulla, ma ti ha IMPOSTO di parlare del RT :fagiano:

ripeto, per me editoria libera vuol dire fare come si vuole fare, cioè come top gear prendere una ferrari e andare nel deserto anziché in pista oppure come roman der8uer prendere il proprio sample di 7950X 3D e portarlo alla fusione appositamente per vedere fin dove arriva

detto questo aggiungono sempre grafici RT in ogni review eh, non è che ignorano l'esistenza di questa tecnologia

ColdWarGuy
28-04-2023, 09:48
Finalmente stai capendo che il valore che dai ai soldi è un concetto puramente soggettivo, secondo me spendere 2000 € per una MTB è una gran cazzata ma mica te lo vengo a ripetere in ogni momento perchè io al contrario tuo rispetto il prossimo....

Nel post ho dimenticato l'argomentazione In Thread :

con l'acquisto del TOP di gamma della serie 4000 avete acquisito la GOLD CARD del club dell'endorsement a questa vergognosa politica dei prezzi a cui, a dire la verità, ha fatto sponda anche AMD.

Questo va a detrimento di chi vuole spendere cifre ragionevoli nelle GPU da gaming.

Tutto qui, niente di personale.

kiwivda
28-04-2023, 09:55
cioè non parlare approfonditamente del RT per (all'epoca) scelta editoriale sarebbe "screditare l'azienda"? :confused:



cioè non ti ha IMPOSTO nulla, ma ti ha IMPOSTO di parlare del RT :fagiano:

ripeto, per me editoria libera vuol dire fare come si vuole fare, cioè come top gear prendere una ferrari e andare nel deserto anziché in pista oppure come roman der8uer prendere il proprio sample di 7950X 3D e portarlo alla fusione appositamente per vedere fin dove arriva

detto questo aggiungono sempre grafici RT in ogni review eh, non è che ignorano l'esistenza di questa tecnologia

La loro poca lungimiranza nel non trattare le nuove tech in quel video si è poi chiaramente vista nei mesi a seguire fino ad oggi, per me contano come il 2 di picche a briscola in tre. La loro presa di posizione contro una strada che era da sempre segnata, li ha resi ridicoli, come usare una 4090 per giocare in 1080P o dire che le prestazioni in 4k sono scarse senza usare DLSS e FrameGen, o non usare il RT e lamentarsi che la grafica è vecchia.

Possono tranquillamente continuare a recensire dalla 1080TI in giù.

Nel post ho dimenticato l'argomentazione In Thread :

con l'acquisto del TOP di gamma della serie 4000 avete acquisito la GOLD CARD del club dell'endorsement a questa vergognosa politica dei prezzi a cui, a dire la verità, ha fatto sponda anche AMD.

Questo va a detrimento di chi vuole spendere cifre ragionevoli nelle GPU da gaming.

Tutto qui, niente di personale.

Veramente la 4090 è l'unica scheda che potendo vale la pena comprare in questa gen e che vale i soldi che costa.

nessuno29
28-04-2023, 11:07
Veramente la 4090 è l'unica scheda che potendo vale la pena comprare in questa gen e che vale i soldi che costa.

Ottimo, più prestazioni a maggior prezzo questo si che è progresso.

ste-87
28-04-2023, 11:17
Veramente la 4090 è l'unica scheda che potendo vale la pena comprare in questa gen e che vale i soldi che costa.

top assoluto, scheda da prestazioni eccezionali ad oggi tanto che è difficile sfruttarla a pieno se non in 4k, ma dire che 1700-2000€ di scheda è il valore effettivo di quella scheda mi lascia sempre più meh e mi fa capire quanto abbiano vinto ormai da anni a spostare la mentalità dell'utente prima da 600 poi 8/900, a seguire 1100€ (di pochi anni fa) per la top come un prezzo davvero alto a almeno 1700/2000...altre 2 gen e la top ne costerà almeno 2300/2500 e quando succederà si sentirà dire in egual maniera che è una scheda che vale i soldi che costa....questa cosa mi fa un pò rabbrividire e non parlo dei prezzi in se, ma di come riescono a condizionare nel tempo l'utenza abituandola gradualmente a soglie sempre più alte e renderli pure capaci di giustificare tali prezzi al posto loro

p.s. quando poi costeranno troppo per tutti (almeno il 98% dell'utenza) saranno tutti a "piangere", ma a quel punto direi che è parecchio ma parecchio tardi

X360X
28-04-2023, 11:17
A parte che datevi una calmata, ma non è il thread nvidia vs youtubers o quel che sono.

Ottimo, più prestazioni a maggior prezzo questo si che è progresso.

il fatto è che se crei il top del top ti puoi permettere di spararlo a prezzo altissimo, lo compreranno quei pochi appassionati interessati e va bene così.

sono quelle sotto che dovrebbero avere il buon rapporto qualità-prezzo, e quando vedi le caratteristiche della 4070Ti (che per me è il peggior prodotto NVIDIA a mani basse) a 850/900 euro allora la 4090 diventa pure conveniente a confronto :asd:

nessuno29
28-04-2023, 11:33
A parte che datevi una calmata, ma non è il thread nvidia vs youtubers o quel che sono.



il fatto è che se crei il top del top ti puoi permettere di spararlo a prezzo altissimo, lo compreranno quei pochi appassionati interessati e va bene così.

sono quelle sotto che dovrebbero avere il buon rapporto qualità-prezzo, e quando vedi le caratteristiche della 4070Ti (che per me è il peggior prodotto NVIDIA a mani basse) a 850/900 euro allora la 4090 diventa pure conveniente a confronto :asd:

Se piazzi la top gamma a 2000 euro, l'innalzamento di prezzo nelle altre fasce è solo la naturale conseguenza (la 4070ti costa la metà circa di una 4090), a maggior ragione se si giustifica l'acquisto a questi prezzi. Se in passato gli utenti fossero stati così ingenui ad ogni gen la 4090 oggi costava 3k.

Salfox
28-04-2023, 11:39
il fatto è che se crei il top del top ti puoi permettere di spararlo a prezzo altissimo, lo compreranno quei pochi appassionati interessati e va bene così.

sono quelle sotto che dovrebbero avere il buon rapporto qualità-prezzo, e quando vedi le caratteristiche della 4070Ti (che per me è il peggior prodotto NVIDIA a mani basse) a 850/900 euro allora la 4090 diventa pure conveniente a confronto :asd:

Infatti è proprio così, all'estremo si può dire che tra la 4090 e le altre Lovelace non c'è solo uno step di prestazioni nella stessa generazione ma visto le prestazioni della 4090 rispetto alle altre si può dire che ci sia una generazione di differenza e lo dimostra il fatto che tutti i processori in commercio sono ancora ben lontani dall'ottenerne il pieno potenziale. Secondo me la 4090 vale tutti i soldi che costa e vale molto di più della 3090 che all'uscita costava uguale. Lo scandalo sono i prezzi delle altre Lovelace che per il bus utilizzato dovrebbero costare molto ma molto meno.

ste-87
28-04-2023, 11:43
il fatto è che se crei il top del top ti puoi permettere di spararlo a prezzo altissimo, lo compreranno quei pochi appassionati interessati e va bene così.

sono quelle sotto che dovrebbero avere il buon rapporto qualità-prezzo, e quando vedi le caratteristiche della 4070Ti (che per me è il peggior prodotto NVIDIA a mani basse) a 850/900 euro allora la 4090 diventa pure conveniente a confronto :asd:

abbi pazienza, si fa solo per confrontarsi, ma come fanno ad essere quelle sotto ad avere un buon rapporto qualità prezzo quando sono riusciti a farti dire che la più conveniente è la top (non sono parole mie) e la top la possono prezzare al prezzo che vogliono loro?

Tutto il resto sarà proporzionato di conseguenza in base alle prestazioni offerte rispetto a lei più o meno...e sarà lei a fare da metro di paragone... alzando la top si tirano su tutti i prezzi della gamma è chi si è visto si è visto, ma non è è una novità

Il problema grosso è dire la prima fase in grassetto, senza rendersi conto che se la top è considerata quella più conveniente a (1700-2000€) si trascina dietro tutto il resto delle declinazioni in base al rapporto di prestazioni che offrono...se la prossima (5090) la prezzano 2500€ pensi che la 5070 che va la metà la metteranno di nuovo a 600$ o più probabilmente ad almeno 800$?

X360X
28-04-2023, 11:51
Ma ricordate i prezzi delle varie Titan? tipo la Titan RTX a 2.699 euro con 24GB di VRAM? e le hanno piazzate a prezzi migliori ma anche peggiori.

e questo non gli ha impedito di fare le 3000 estremamente più competitive delle 2000 (3060Ti > 2080 Super a 439 euro con prezzo e consumi ben più bassi)

tanto che sulla 3090Ti NVIDIA ha voluto proprio scrivere "prestazioni di classe TITAN" come prima cosa.

Non è colpa di avere una top con caratteristiche superiori a prezzo folle, alla fine era folle pure la 8800GTX a 600 euro nel 2006. Ma c'era la 8800GT alla metà o meno con un ottimo rapporto prezzo-prestazioni

tanto chi vuole la top...se la compra la top, ne ha di caratteristiche per dire "la compro" a chi gli serve o è fissato con la tecnologia e può permetterselo.

non ti rovina il poter mettere a 550 euro una 4070 e 700 una 4070Ti che sarebbero prezzi non certo bassi ma molto più onesti di quelli totalmente improbabili di ora (perché tra tirare la corda e arrivare a spezzarla differenza c'è)

ste-87
28-04-2023, 11:58
Ma ricordate i prezzi delle varie Titan? tipo la Titan RTX a 2.699 euro con 24GB di VRAM? e le hanno piazzate a prezzi migliori ma anche peggiori.

e questo non gli ha impedito di fare le 3000 estremamente più competitive delle 2000 (3060Ti > 2080 Super a 439 euro con prezzo e consumi ben più bassi)

tanto che sulla 3090Ti NVIDIA ha voluto proprio scrivere "prestazioni di classe TITAN" come prima cosa.

Non è colpa di avere una top con caratteristiche superiori a prezzo folle, alla fine era folle pure la 8800GTX a 600 euro nel 2006. Ma c'era la 8800GT alla metà o meno con un ottimo rapporto prezzo-prestazioni

tanto chi vuole la top...se la compra la top, ne ha di caratteristiche per dire "la compro" a chi gli serve o è fissato con la tecnologia e può permetterselo.

non ti rovina il poter mettere a 550 euro una 4070 e 700 una 4070Ti che sarebbero prezzi non certo bassi ma molto più onesti di quelli totalmente improbabili di ora (perché tra tirare la corda e arrivare a spezzarla differenza c'è)

La titan esula dal discorso, chi la comprava per ambito gaming erano quelli che avevano letteralmente soldi da buttare/masochisti, non veniva minimamente percepita come conveniente come fai con la 4090...a quei tempi in ambito gaming quello che "dettava legge" e sembrava "conveniente" (così come lo si percepisce ora per la 4090) come top era la 2080TI e infatti se ci fai caso tutta la gamma si rapportava in base a lei...

RTX 2070 FE $599
RTX 2080 $699
RTX 2080 FE $799
RTX 2080 Ti $999

il prezzo della Titan non trascinava niente dietro a se, la 2080Ti sì

X360X
28-04-2023, 12:07
La titan esula dal discorso, quella scheda chi la comprava per ambito gaming era solo per quelli che avevano letteralmente soldi da buttare/masochisti, non veniva minimamente percepita come conveniente come fai con la 4090...a quei tempi in ambito gaming quello che dettava legge e sembrava conveniente come top era la 2080TI e infatti se ci fai caso tutta la gamma si rapportava in base a lei...

RTX 2070 FE $599
RTX 2080 $699
RTX 2080 FE $799
RTX 2080 Ti $999

il prezzo della Titan no trascinava niente dietro a se, la 2080Ti sì

hanno solo voluto fare una top diversamente per attirare anche i gamer

non a caso abbiamo avuto 980-1080-2080 con le rispettive Titan, e poi via la Titan e dentro il suffisso x90. Cambiata la strategia probabilmente fruttava di più.

la 4080 la trovi sui 1150\1200 euro no? prendila come top attuale con le altre a scendere, perché lo stacco con la 4090 è ben 400\450 euro, non è quella ripeto per me il problema. e non la reputo "conveniente" di per se, semplicemente ci sta e fanno schifo come convenienza quelle "per persone che se ne sbattono del top del top titan style". soprattutto poi se dai soddisfazione a 1150\1200 e già con la 4070Ti lasci l'amaro in bocca nemmeno la stessi regalando

appleroof
28-04-2023, 12:08
imho la serie 4000 ha prezzi folli, 4090 compresa, poco da fare.

ste-87
28-04-2023, 12:16
la 4080 la trovi sui 1150\1200 euro no? prendila come top attuale con le altre a scendere, perché lo stacco con la 4090 è ben 400\450 euro, non è quella ripeto per me il problema. e non la reputo "conveniente" di per se, semplicemente ci sta e fanno schifo come convenienta quelle "per persone che se ne sbattono del top del top titan style". soprattutto poi se dai soddisfazione a 1150\1200 e già con la 4070Ti lasci l'amaro in bocca nemmeno la stessi regalando

il problema è che quella che viene reputata "conveniente" sulla serie 4000 non è la 4080, ma la 4090 ed è quindi quella che trascina tutta la serie in alto...la 4080 è stata/è infamata praticamente da tutti e non sarà mai percepita come il metro di paragone sul quale basare il rapporto delle varie declinazioni...è una scheda che se va di lusso doveva stare al lancio a 900€, ora dovrebbe stare sugli 800, ma la realtà è ben differente dato che la scheda che a questa gen fa da metro di paragone è prezzata ben più alta

Ma è un gioco che fanno ad ogni generazione da una vita...

Il discorso Titan alla fine è contato poco quello che nella serie 9xx-1xxx-2xxx ha tirato il prezzo era la 980Ti - 1080TI - 2080TI, perchè erano quelle che nelle rispettive generazioni risultavano il metro di paragone giusto così come nella sereie 3xxx erano le 3080Ti e nelle 4xxx la 4090 (che guarda caso, come dice sempre Mikael a specifiche è più una 4080Ti al di là della nomenclatura)

bobby10
28-04-2023, 12:16
top assoluto, scheda da prestazioni eccezionali ad oggi tanto che è difficile sfruttarla a pieno se non in 4k, ma dire che 1700-2000€ di scheda è il valore effettivo di quella scheda mi lascia sempre più meh e mi fa capire quanto abbiano vinto ormai da anni a spostare la mentalità dell'utente prima da 600 poi 8/900, a seguire 1100€ (di pochi anni fa) per la top come un prezzo davvero alto a almeno 1700/2000...altre 2 gen e la top ne costerà almeno 2300/2500 e quando succederà si sentirà dire in egual maniera che è una scheda che vale i soldi che costa....questa cosa mi fa un pò rabbrividire e non parlo dei prezzi in se, ma di come riescono a condizionare nel tempo l'utenza abituandola gradualmente a soglie sempre più alte e renderli pure capaci di giustificare tali prezzi al posto loro

p.s. quando poi costeranno troppo per tutti (almeno il 98% dell'utenza) saranno tutti a "piangere", ma a quel punto direi che è parecchio ma parecchio tardi

Concordo.
Stessa cosa con le auto dove ci si è convinti che per una segmento C è normale spendere 35/40k €.
E la gente gira con le rate fin sopra i capelli.

Iceman69
28-04-2023, 12:26
Infatti è proprio così, all'estremo si può dire che tra la 4090 e le altre Lovelace non c'è solo uno step di prestazioni nella stessa generazione ma visto le prestazioni della 4090 rispetto alle altre si può dire che ci sia una generazione di differenza e lo dimostra il fatto che tutti i processori in commercio sono ancora ben lontani dall'ottenerne il pieno potenziale. Secondo me la 4090 vale tutti i soldi che costa e vale molto di più della 3090 che all'uscita costava uguale. Lo scandalo sono i prezzi delle altre Lovelace che per il bus utilizzato dovrebbero costare molto ma molto meno.

No dai, non puoi dire che la 4090 costa come la 3090 al lancio, ci sono almeno 500 euro di differenza, la 3090 Strix la pagai su Amazon 1900 euro, la 4090 strix non la ho presa perchè mi sarebbe costata 2400 euro. Ho preso un a TUF a 2100 euro (comunque tantissimi), ma la TUF la trovavi a 1650 al tempo delle 3090.

I prezzi sono stati alzati molto, per fortuna son aumentate anche le prestazioni. Stanno ancora giocando sul rialzo dovuto a Covid e minatori, spero che per la prossima generazione tutto rientri e si possa trovare la serie 80 intorno ai 1000 euro e le 90 a 1500 altrimenti la spirale dei rialzi non finirà mai.

nessuno29
28-04-2023, 12:30
No dai, non puoi dire che la 4090 costa come la 3090 al lancio, ci sono almeno 500 euro di differenza, la 3090 Strix la pagai su Amazon 1900 euro, la 4090 strix non la ho presa perchè mi sarebbe costata 2400 euro. Ho preso un a TUF a 2100 euro (comunque tantissimi), ma la TUF la trovavi a 1650 al tempo delle 3090.

I prezzi sono stati alzati molto, per fortuna son aumentate anche le prestazioni. Stanno ancora giocando sul rialzo dovuto a Covid e minatori, spero che per la prossima generazione tutto rientri e si possa trovare la serie 80 intorno ai 1000 euro e le 90 a 1500 altrimenti la spirale dei rialzi non finirà mai.

Covid e minatori sono finiti da un bel pezzo, state solo ingrassando Nvidia, la prossima gen uscirà allo stesso prezzo della serie 4000 e sarete contenti per poi alzare di nuovo con le 6000 e giustificherete con le prestazioni.

Salfox
28-04-2023, 12:46
No dai, non puoi dire che la 4090 costa come la 3090 al lancio, ci sono almeno 500 euro di differenza, la 3090 Strix la pagai su Amazon 1900 euro, la 4090 strix non la ho presa perchè mi sarebbe costata 2400 euro. Ho preso un a TUF a 2100 euro (comunque tantissimi), ma la TUF la trovavi a 1650 al tempo delle 3090.

I prezzi sono stati alzati molto, per fortuna son aumentate anche le prestazioni. Stanno ancora giocando sul rialzo dovuto a Covid e minatori, spero che per la prossima generazione tutto rientri e si possa trovare la serie 80 intorno ai 1000 euro e le 90 a 1500 altrimenti la spirale dei rialzi non finirà mai.

Prendi a riferimento le FE perchè le ASUS lo sanno tutti che con Lovelace sono un furto belllo e buono, fai un confronto fra i prezzi delle 3090 e 4090 depurali del cambio euro dollaro e vedrai che i prezzi sono vicini se non uguali

ste-87
28-04-2023, 12:48
Covid e minatori sono finiti da un bel pezzo, state solo ingrassando Nvidia, la prossima gen uscirà allo stesso prezzo della serie 4000 e sarete contenti per poi alzare di nuovo con le 6000 e giustificherete con le prestazioni.

eh mi sà che finirà proprio così, se qualcuno vuole salvarsi il post e rivederlo tra 2/3/4 anni :)

con il discorso covid, diciamo che da un pezzo a questa parte "ce la stiamo" cantando da soli per trovare ancora una giustificazione ai prezzi alti e comprare lo stesso, volendo dipingere come cattivi gli altri, ma intanto assecondiamo la solita politica del rialzo...opinione personale ovviamente, che può essere condivisibile o meno

mikael84
28-04-2023, 12:53
Più che altro "la legge di moore è morta" per giustificare i prezzi, gliela ho smontata più volte. Questo sinceramente mi fa imbestialire. JHH dovrebbe trovare altre scuse.

EffeX
28-04-2023, 13:24
Io resto comunque dell'idea che se ci fosse concorrenza non sarebbero così liberi di fare sti prezzi: prima degli anni 2000 avevamo S3, PowerVR, 3dfx, ATI, Matrox ecc ecc ed ogni 6 mesi uscivano schede nuove che rendevano molto più accessibili le vecchie nonostante il gap prestazionale.
Dopo il 2000 restarono solo ATI e Nvidia praticamente e da quando ATI è stata acquisita da AMD, che già non navigava in buone acque ai tempi, le cose cambiarono ulteriormente fino ad arrivare ad oggi dove AMD ha prezzato in modo simile le sue schede nonostante abbiano minori performance in RT per quanto ad uno possa piacere o meno e Nvidia bella libera di fare i prezzi che più le aggradano.
Vorrei vedere se AMD tirasse fuori una scheda con le palle come lo fu a suo tempo la Radeon 9800 pro, per chi se lo ricorda, cosa succederebbe ai prezzi delle vga Nvidia. :D

Ubro92
28-04-2023, 13:31
Ma più che altro é questione di vendite, finché vendono e la domanda c'è i prezzi rimarranno questi, poi se i volumi di vendita saranno bassi per compensare dovranno per forza ridurre i prezzi per vendere più unità.

La fascia più compromessa é quella medio bassa con le x60 e x70, e siamo arrivati al punto che un chippino come la x50 finisca a 300€...

Inviato dal mio M2012K11AG utilizzando Tapatalk

Gello
28-04-2023, 13:45
Ma e' il thread aspettando nuove VGA o il muro del pianto ?

amon.akira
28-04-2023, 13:48
Io resto comunque dell'idea che se ci fosse concorrenza non sarebbero così liberi di fare sti prezzi: prima degli anni 2000 avevamo S3, PowerVR, 3dfx, ATI, Matrox ecc ecc ed ogni 6 mesi uscivano schede nuove che rendevano molto più accessibili le vecchie nonostante il gap prestazionale.
Dopo il 2000 restarono solo ATI e Nvidia praticamente e da quando ATI è stata acquisita da AMD, che già non navigava in buone acque ai tempi, le cose cambiarono ulteriormente fino ad arrivare ad oggi dove AMD ha prezzato in modo simile le sue schede nonostante abbiano minori performance in RT per quanto ad uno possa piacere o meno e Nvidia bella libera di fare i prezzi che più le aggradano.
Vorrei vedere se AMD tirasse fuori una scheda con le palle come lo fu a suo tempo la Radeon 9800 pro, per chi se lo ricorda, cosa succederebbe ai prezzi delle vga Nvidia. :D

se amd tirasse fuori una scheda con le palle, ci prenderebbe per le palle :D

Ma e' il thread aspettando nuove VGA o il muro del pianto ?

no è
aspettando che nvidia cali i prezzi XD

mikael84
28-04-2023, 13:53
Io resto comunque dell'idea che se ci fosse concorrenza non sarebbero così liberi di fare sti prezzi: prima degli anni 2000 avevamo S3, PowerVR, 3dfx, ATI, Matrox ecc ecc ed ogni 6 mesi uscivano schede nuove che rendevano molto più accessibili le vecchie nonostante il gap prestazionale.
Dopo il 2000 restarono solo ATI e Nvidia praticamente e da quando ATI è stata acquisita da AMD, che già non navigava in buone acque ai tempi, le cose cambiarono ulteriormente fino ad arrivare ad oggi dove AMD ha prezzato in modo simile le sue schede nonostante abbiano minori performance in RT per quanto ad uno possa piacere o meno e Nvidia bella libera di fare i prezzi che più le aggradano.
Vorrei vedere se AMD tirasse fuori una scheda con le palle come lo fu a suo tempo la Radeon 9800 pro, per chi se lo ricorda, cosa succederebbe ai prezzi delle vga Nvidia. :D

Non è così semplice per gli avversari, JHH si è creato un ecosistema dietro abbastanza forte.

L'unico modo di aggredirla veramente, è che il competitor riesca a sfruttare un nodo di vantaggio, ma questo non avverrà purtroppo.
Quindi collaborano e si adeguano.

In campo CPU è ben diverso, in quanto AMD riesce ad innovare e sfrutta appieno il vantaggio di PP per competere al meglio con intel. La stessa Intel in campo GPU ci sta provando, ma parte sempre con nodi ormai obsoleti.

Nvidia salvo Lovelace, ha pure rallentato parecchio, lanciando turing sul nodo di pascal ed ampere su un 10nm molto scarso di samsung.

X360X
28-04-2023, 13:53
Ma più che altro é questione di vendite, finché vendono e la domanda c'è i prezzi rimarranno questi, poi se i volumi di vendita saranno bassi per compensare dovranno per forza ridurre i prezzi per vendere più unità.

Ni

nel senso, se chi si occupa di questo pensa che a 600 vendi 100 e a 500 vendi 95...stanno bene così.
non mi stupirebbe che la massima svolta fossero massimo 50 euro in meno fra un po'

sarebbe da capire quanto la gente è interessata e in che fasce è interessata, perché col mining saltò qualsiasi criterio.

EffeX
28-04-2023, 13:55
se amd tirasse fuori una scheda con le palle, ci prenderebbe per le palle :D

Effettivamente vedendo i prezzi delle 7000... :sofico:

mikael84
28-04-2023, 13:59
se amd tirasse fuori una scheda con le palle, ci prenderebbe per le palle :D



Nvidia potrebbe anche solo lanciare la 4090ti e controbattere con RDNA4.:p

EffeX
28-04-2023, 14:05
Non è così semplice per gli avversari, JHH si è creato un ecosistema dietro abbastanza forte.

L'unico modo di aggredirla veramente, è che il competitor riesca a sfruttare un nodo di vantaggio, ma questo non avverrà purtroppo.
Quindi collaborano e si adeguano.

In campo CPU è ben diverso, in quanto AMD riesce ad innovare e sfrutta appieno il vantaggio di PP per competere al meglio con intel. La stessa Intel in campo GPU ci sta provando, ma parte sempre con nodi ormai obsoleti.

Nvidia salvo Lovelace, ha pure rallentato parecchio, lanciando turing sul nodo di pascal ed ampere su un 10nm molto scarso di samsung.

Vero, all'epoca si partiva tutti dalla stessa linea con le dx9, già solo qualche anno più tardi Nvidia si avvantaggiò non poco con l'introduzione dei cuda core, ed oggi abbiamo DLSS, Reflex ecc.
Intel l'unico modo che ha è investire più di ciò che investe Nvidia per riuscire ad appaiarsi, altrimenti la vedo molto grigia.
Per chiudere il discorso, credo proprio che nel 2003 fu l'unica volta che si vide una vga andare di più con un nodo di svantaggio. (0.15 um della Radeon vs i 0.13 um low-k della GeForce).

lordsnk
28-04-2023, 14:12
Più che altro "la legge di moore è morta" per giustificare i prezzi, gliela ho smontata più volte. Questo sinceramente mi fa imbestialire. JHH dovrebbe trovare altre scuse.

Io lo dissi da subito che la legge di Moore non era morta e poi Intel ha rincarato la dose :D

https://moorinsightsstrategy.com/wp-content/uploads/2022/10/960x0-676.jpg

Iceman69
28-04-2023, 14:21
Prendi a riferimento le FE perchè le ASUS lo sanno tutti che con Lovelace sono un furto belllo e buono, fai un confronto fra i prezzi delle 3090 e 4090 depurali del cambio euro dollaro e vedrai che i prezzi sono vicini se non uguali

Se non ricordo male era 100 dollari la differenza, però se ci mettiamo di mezzo il discorso del cambio smontiamo il 20% degli aumenti dei prezzi su tutte le fasce.

Quindi non è più colpa della cattiva Nvidia, ma del cattivo dollaro che si è apprezzato contro l'euro.

Sono lontani i giorni in cui tutti esultavano per i prezzi convenienti (in euro) a cui era uscita la 3080FE, salvo poi non trovarne fisicamente da compare a quel prezzo.

amon.akira
28-04-2023, 14:28
Se non ricordo male era 100 dollari la differenza, però se ci mettiamo di mezzo il discorso del cambio smontiamo il 20% degli aumenti dei prezzi su tutte le fasce.

Quindi non è più colpa della cattiva Nvidia, ma del cattivo dollaro che si è apprezzato contro l'euro.

Sono lontani i giorni in cui tutti esultavano per i prezzi convenienti (in euro) a cui era uscita la 3080FE, salvo poi non trovarne fisicamente da compare a quel prezzo.

al momento 1599dollari sono 1456€+22% iva sarebbero 1779euro a cui nvidia dovrebbe vendere la 4090FE ma la vende a 1859, quindi un 80ina in piu

devil_mcry
28-04-2023, 14:47
al momento 1599dollari sono 1456€+22% iva sarebbero 1779euro a cui nvidia dovrebbe vendere la 4090FE ma la vende a 1859, quindi un 80ina in piu

si ma non mi stupirei se c'è qualche tassa del cazzo in più in Italia su ste cose

fraussantin
28-04-2023, 14:56
Se non ricordo male era 100 dollari la differenza, però se ci mettiamo di mezzo il discorso del cambio smontiamo il 20% degli aumenti dei prezzi su tutte le fasce.



Quindi non è più colpa della cattiva Nvidia, ma del cattivo dollaro che si è apprezzato contro l'euro.



Sono lontani i giorni in cui tutti esultavano per i prezzi convenienti (in euro) a cui era uscita la 3080FE, salvo poi non trovarne fisicamente da compare a quel prezzo.Si ma della 4090 nessuno ha da ridire .

Invece la 4080 per come è stata fatta doveva costare 100 dollari meno della 3080 , e invece costa 400 in più.
Cambio a parte :asd:

Brava nvidia , brava ...

Iceman69
28-04-2023, 15:11
Si ma della 4090 nessuno ha da ridire .

Invece la 4080 per come è stata fatta doveva costare 100 dollari meno della 3080 , e invece costa 400 in più.
Cambio a parte :asd:

Brava nvidia , brava ...

Sì lo so, è una delle poche volte che non mi sento sciocco ad aver preso la TOP di gamma spendendo un patrimonio ...

Però si sapeva che la 4080 e a seguire erano delle porcate, il buon Mikael è da mò che ce lo dice, si trattava di comprare la 4090 o di non comprare nulla.

Però alla fine Nvidia gioca nel mercato che si trova per massimizzare gli utili, se non fosse riuscita a piazzare le 4080 e le 4070 avrebbe abbassato i prezzi, evidentemente invece ce la ha fatta.
Io credo che chi ha 1500 euro per una scheda video ne ha anche 1950, quindi si tratto proprio di scelte dei consumatori (per esempio parliamo di quelli che si comprano una 4080 strix pagandola quasi come una 4090FE), non di Nvidia, lei fa solo la sua parte.

lordsnk
28-04-2023, 17:50
al momento 1599dollari sono 1456€+22% iva sarebbero 1779euro a cui nvidia dovrebbe vendere la 4090FE ma la vende a 1859, quindi un 80ina in piu

Tutto giusto, ma di fatto la 4090 si trova a 1500€ e alla fine chi se ne frega della FE :D
Da questo punto stiamo tornando al passato in cui la FE costava di più rispetto alle schede dei partner :D

amon.akira
28-04-2023, 17:54
Tutto giusto, ma di fatto la 4090 si trova a 1500€ e alla fine chi se ne frega della FE :D
Da questo punto stiamo tornando al passato in cui la FE costava di più rispetto alle schede dei partner :D

e so 2volte che dici 1500, link? su trovaprezzi iniziano da 1600

lordsnk
28-04-2023, 18:00
e so 2volte che dici 1500, link? su trovaprezzi iniziano da 1600

Ho appena controllato, non lo facevo da una decina di giorni. :D
In effetti le schede che stavano sui 1550€ ora stanno a 1600€, ma cmq sono sempre 250€ in meno rispetto alla FE :D

amon.akira
28-04-2023, 18:03
Ho appena controllato, non lo facevo da una decina di giorni. :D
In effetti le schede che stavano sui 1550€ ora stanno a 1600€, ma cmq sono sempre 250€ in meno rispetto alla FE :D

la FE è normale costi di piu, non ha pcb reference...sopra come fasi ci sono solo la suprim e la strix...insomma siamo medio alti come lv

Ale55andr0
28-04-2023, 20:37
E' compiuto :O (leggere la firma :O )

amon.akira
28-04-2023, 20:43
E' compiuto :O (leggere la firma :O )

mi son stoppato al 1700x XD

Ale55andr0
28-04-2023, 20:50
mi son stoppato al 1700x XD

non pervenuto :O

mikael84
28-04-2023, 21:32
Vero, all'epoca si partiva tutti dalla stessa linea con le dx9, già solo qualche anno più tardi Nvidia si avvantaggiò non poco con l'introduzione dei cuda core, ed oggi abbiamo DLSS, Reflex ecc.
Intel l'unico modo che ha è investire più di ciò che investe Nvidia per riuscire ad appaiarsi, altrimenti la vedo molto grigia.
Per chiudere il discorso, credo proprio che nel 2003 fu l'unica volta che si vide una vga andare di più con un nodo di svantaggio. (0.15 um della Radeon vs i 0.13 um low-k della GeForce).

Senza andare molto lontano Ampere batteva navi su un 10nm (3° gen) di samsung vs un 7nm HP elvt di TSMC, che salvo la densità è molto vicino al nodo di lovelace.:)

Cmq, Intel sta anche Lavorando bene, però, ti faccio un esempio. Se intel potesse usare per un anno prima i 3nm di TSMC, su un die di 380mm2 potrebbe impilare i transistor di AD102 (4090ti). Ok che a pari transistor nvidia risulterebbe sempre più performante, però per magari 600 euro, poteva darti una 4080, oscillante anche alla 90, con tecnologie come RT e XESS di buona qualità.

Questo si chiamerebbe spaccare il mercato.:)

Invece con i 4nm, al massimo vai a colpire la 4070- 4070ti se va bene.

Io lo dissi da subito che la legge di Moore non era morta e poi Intel ha rincarato la dose :D



Beh Intel qua può fare la voce grossa, grande pianificazione, ma non riescono mai a cambiare nodo. Non morirà mai la legge di Moore:p

Cmq i costi parametrati ai die ad alte rese sono molto bassi.

L'idea di mettere la 4060 su AD107 per i costi fa ridere.:)

E' compiuto :O (leggere la firma :O )

Ora vogliamo lo status di 4070ti incoming:O

Ale55andr0
28-04-2023, 22:00
Ora vogliamo lo status di 4070ti incoming:O

al momento l'unica cosa che è incoming sono 230 euro di danno al parabrezza :asd: :doh: :cry:


cmq ho ordinato 32gb di ram per consolarmi :O

Ubro92
28-04-2023, 22:02
Sembra confermato il taglio delle linee a 4.0@x8 per la 4060ti:

https://videocardz.com/newz/nvidia-geforce-rtx-4060-ti-ad106-350-gpu-has-been-pictured

Ale55andr0
28-04-2023, 22:10
Sembra confermato il taglio delle linee a 4.0@x8 per la 4060ti:

https://videocardz.com/newz/nvidia-geforce-rtx-4060-ti-ad106-350-gpu-has-been-pictured

non c'è limite al record di roitismo in casa nvidia

ultimate trip
28-04-2023, 22:17
le vendite non esaltanti potrebbero portare nvidia ad un taglio prezzi per tutta la serie 40

https://wccftech-com.cdn.ampproject.org/v/s/wccftech.com/nvidia-limiting-gpu-production-excess-inventory-lead-to-geforce-rtx-40-price-cuts/amp/?amp_gsa=1&amp_js_v=a9&usqp=mq331AQGsAEggAID#amp_tf=Da%20%251%24s&aoh=16827105677550&csi=0&referrer=https%3A%2F%2Fwww.google.com&ampshare=https%3A%2F%2Fwccftech.com%2Fnvidia-limiting-gpu-production-excess-inventory-lead-to-geforce-rtx-40-price-cuts%2F

ed inoltre le aspettative future di domanda unite a una situazione economica non in ripresa potrebbero far shiftare il 3nm a dopo Blackwell

https://wccftech.com/nvidia-next-gen-3nm-gpus-not-launching-until-2025-tsmc-report/

Forse la serie 5000 costerà meno di Ada?

mikael84
28-04-2023, 22:20
al momento l'unica cosa che è incoming sono 230 euro di danno al parabrezza :asd: :doh: :cry:


cmq ho ordinato 32gb di ram per consolarmi :O

Ci stanno:)
Per le spese, dovessi farti l'elenco...

Sembra confermato il taglio delle linee a 4.0@x8 per la 4060ti:

https://videocardz.com/newz/nvidia-geforce-rtx-4060-ti-ad106-350-gpu-has-been-pictured

non c'è limite al record di roitismo in casa nvidia

Il premio dell'anno, va alla 4060 su AD107.
2080 liscia a 350-400 euro almeno.
https://i.postimg.cc/NFM3whRc/4060.png

Ubro92
28-04-2023, 22:23
Sei ottimista, io la 4060 liscia la vedo più vicina alla 2070 Super :sofico:

mikael84
28-04-2023, 22:25
le vendite non esaltanti potrebbero portare nvidia ad un taglio prezzi per tutta la serie 40

https://wccftech-com.cdn.ampproject.org/v/s/wccftech.com/nvidia-limiting-gpu-production-excess-inventory-lead-to-geforce-rtx-40-price-cuts/amp/?amp_gsa=1&amp_js_v=a9&usqp=mq331AQGsAEggAID#amp_tf=Da%20%251%24s&aoh=16827105677550&csi=0&referrer=https%3A%2F%2Fwww.google.com&ampshare=https%3A%2F%2Fwccftech.com%2Fnvidia-limiting-gpu-production-excess-inventory-lead-to-geforce-rtx-40-price-cuts%2F

ed inoltre le aspettative future di domanda unite a una situazione economica non in ripresa potrebbero far shiftare il 3nm a dopo Blackwell

https://wccftech.com/nvidia-next-gen-3nm-gpus-not-launching-until-2025-tsmc-report/

Forse la serie 5000 costerà meno di Ada?

Secondo quanto diceva Igor, le 4070 sono talmente a risparmio in quanto gli AIB non ce la fanno, hanno un margine drasticamente ridicolo. Ed infatti sono in picchiata.
Non so quanto possano scendere.

Riguardo TSMC e Samsung hanno ancora rese pessime sui 3nm, ma penso che almeno la 5090 venga tirata fuori, per poi finire l'opera nel 2025. Da considerare che nvidia ha ordinato un botto di wafer, e non sta vendendo nulla, ben peggio del periodo Ampere. Farà prima a fare una serie 5, riciclando Lovelace.

Sei ottimista, io la 4060 liscia la vedo più vicina alla 2070 Super :sofico:

Appena posso la calcolo, convertendo fp ed int per vedere quanto risulta realmente, ma dovremmo essere li.:p

shauni86
28-04-2023, 22:28
Secondo quanto diceva Igor, le 4070 sono talmente a risparmio in quanto gli AIB non ce la fanno, hanno un margine drasticamente ridicolo. Ed infatti sono in picchiata.
Non so quanto possano scendere.

Riguardo TSMC e Samsung hanno ancora rese pessime sui 3nm, ma penso che almeno la 5090 venga tirata fuori, per poi finire l'opera nel 2025. Da considerare che nvidia ha ordinato un botto di wafer, e non sta vendendo nulla, ben peggio del periodo Ampere. Farà prima a fare una serie 5, riciclando Lovelace.



Appena posso la calcolo, convertendo fp ed int per vedere quanto risulta realmente, ma dovremmo essere li.:p
la serie 5000 si aspetta nel 2024?

Ubro92
28-04-2023, 22:33
Riguardo TSMC e Samsung hanno ancora rese pessime sui 3nm, ma penso che almeno la 5090 venga tirata fuori, per poi finire l'opera nel 2025. Da considerare che nvidia ha ordinato un botto di wafer, e non sta vendendo nulla, ben peggio del periodo Ampere. Farà prima a fare una serie 5, riciclando Lovelace.


Beh non si può dire che non si sia lasciata un ampio margine di manovra per fare un refresh decente di tutta la lineaup.

ultimate trip
28-04-2023, 22:33
la serie 5000 si aspetta nel 2024?

settembre 24 in teoria

mikael84
28-04-2023, 22:50
la serie 5000 si aspetta nel 2024?

Si cadenza biennale.
Marzo 2024 HPC, settembre/ottobre pro/gaming top.

Beh non si può dire che non si sia lasciata un ampio margine di manovra per fare un refresh decente di tutta la lineaup.

Beh direi di si.:)
Cmq per curiosità ho calcolato, prendendo un tomb raider medio a 38int.
Risulterebbe 4060@2,75ghz =10,4tf
2080: 11,1 /2070 s = 9,7tf.

In queste condizioni sarebbe praticamente una via di mezzo, anche se il carico di Lovelace è variabile, quindi sarà più zona x80.
Non serve aggiungere altro direi.

Da considerare inoltre che la cache sarà solo di 24mb. Un disastro che potrebbe scalare male anche in 1440p.

bobby10
28-04-2023, 23:55
E pensare che 128bit di bus mi sembravano pochi a suo tempo per la 1650super..

Ale55andr0
29-04-2023, 00:50
Riguardo TSMC e Samsung hanno ancora rese pessime sui 3nm, ma penso che almeno la 5090 venga tirata fuori, per poi finire l'opera nel 2025. Da considerare che nvidia ha ordinato un botto di wafer, e non sta vendendo nulla, ben peggio del periodo Ampere. Farà prima a fare una serie 5, riciclando Lovelace.




Che io godo :O
...Che pure io godo :O
...Che egli, cioè sempre io, gode :O
---che noi (io e loro) godiamo :O
etc :O
'notte :O

LurenZ87
29-04-2023, 09:34
Una curiosità, ma questo Frame Generator verrà implementato anche nel DLSS2 (avevo letto qualcosa in merito)? Inoltre è così "funzionale" tipo il DLSS oppure si vede la differenza tra attivarlo o meno?

Inviato dal mio Pixel 7 utilizzando Tapatalk

EffeX
29-04-2023, 11:07
Senza andare molto lontano Ampere batteva navi su un 10nm (3° gen) di samsung vs un 7nm HP elvt di TSMC, che salvo la densità è molto vicino al nodo di lovelace.:)

Sicuramente! Però bisogna dire che ora AMD e Nvidia hanno due uarch molto differenti già da parecchi anni, indietro di 20 anni erano estremamente semplificate sia per ATI che per Nvidia, con la differenza che Nvidia fece scelte sbagliate pensando di cloccare più alto con lo 0.13 um, infatti optarono per 128 bit di bus, ddrII appena uscite con timings altissimi, architettura 4x2, diciamo che tutto quello che potevano sbagliare lo sbagliarono, mentre ATI aveva una 8x1 con 256 bit di bus e ddr lisce con timings bassi nonostante il clock minore.
Oggi giustamente, come mi hai già fatto notare tu, anche se si ha molta densità di transistor, ma non si riesce a sfruttare l'architettura, si creano un sacco di stalli sulla pipeline a scapito delle prestazioni, per questo credo che investire significhi anche dare i giusti strumenti agli sviluppatori in modo da ottimizzare il più possibile i futuri motori grafici su tutte le uarch. ;)
Alla fine questo ha fatto Nvidia in tutti questi anni, oltre che a investire solo sullo sviluppo hw ha anche creato una serie di strumenti software da fornire agli sviluppatori in modo da sfruttare al massimo la loro tecnologia, quello che tu hai chiamato giustamente "ecosistema".
AMD, per tutta una serie di motivi economici dalla rilevazione di ATI che già era in difficoltà, non ebbe mai il piglio di fare una cosa analoga a Nvidia, o perlomeno, ci provò con Mantle, ma non ci riuscì.
Quello che ora spero Intel possa fare, è spingere i dev a usare gli strumenti e le ottimizzazioni necessarie per sfruttare al meglio i loro futuri prodotti, solo così si potrà assistere ad un minimo di concorrenza.
Tra l'altro se le prossime vga Nvidia usciranno non prima del 2025, gli altri due competitor potrebbero sfruttare la finestra temporale per proporre schede con buone performance a prezzi "umani" ed andare a rubacchiare fette di utenza a Nvidia.
Scusate in anticipo per il pippone!

Cutter90
29-04-2023, 11:43
Una curiosità, ma questo Frame Generator verrà implementato anche nel DLSS2 (avevo letto qualcosa in merito)? Inoltre è così "funzionale" tipo il DLSS oppure si vede la differenza tra attivarlo o meno?

Inviato dal mio Pixel 7 utilizzando Tapatalk

Il FG è molto meglio del dlss nromale. Grava zero sulla cpu, aumenta i frame di molto (parliamo di 20-30) e non ha difetti grafici. Usarlo sotto i 60 fps crea qualche artefatto visibile e aumenta l'input lag (con reflex migliora però)

X360X
29-04-2023, 11:52
Ah ok belle VGA ste 60. quindi se AMD continuasse a vendere 6800 lisce a 500 euro avrebbe una VGA rispetto a quella 4060Ti con doppio BUS, doppia VRAM e prestazioni penso pure sopra la 3070Ti (RT a parte).
VGA che a stock (ed è ritoccabile) non consuma nemmeno molto.

Mentre NVIDIA metà VRAM, metà BUS, prestazioni...3070 liscia? un po' meglio?

fra un po' proveranno a rivendere una 750Ti mettendo i bollini DLSS3\RT

LurenZ87
29-04-2023, 12:00
Il FG è molto meglio del dlss nromale. Grava zero sulla cpu, aumenta i frame di molto (parliamo di 20-30) e non ha difetti grafici. Usarlo sotto i 60 fps crea qualche artefatto visibile e aumenta l'input lag (con reflex migliora però)Perfetto, grazie mille per la spiegazione ;)Ah ok belle VGA ste 60. quindi se AMD continuasse a vendere 6800 lisce a 500 euro avrebbe una VGA rispetto a quella 4060Ti con doppio BUS, doppia VRAM e prestazioni penso pure sopra la 3070Ti (RT a parte).
VGA che a stock (ed è ritoccabile) non consuma nemmeno molto.

Mentre NVIDIA metà VRAM, metà BUS, prestazioni...3070 liscia? un po' meglio?

fra un po' proveranno a rivendere una 750Ti mettendo i bollini DLSS3\RTÈ l'unica cosa che può trainare un po' le vendite di queste vga insieme ai consumi ridotti.

Inviato dal mio Pixel 7 utilizzando Tapatalk

X360X
29-04-2023, 12:06
Perfetto, grazie mille per la spiegazione ;)È l'unica cosa che può trainare un po' le vendite di queste vga insieme ai consumi ridotti.

Inviato dal mio Pixel 7 utilizzando Tapatalk

Si ma sulla 4070 (aka 3080 12GB remastered) fai il furbo con un senso, sulla 4060Ti di quelle slide (aka 3070 8GB remastered?) mi comincio a sentire offeso che me la stai seriamente proponendo, a meno che lo fai a 350 euro.

EffeX
29-04-2023, 13:31
Si ma sulla 4070 (aka 3080 12GB remastered) fai il furbo con un senso, sulla 4060Ti di quelle slide (aka 3070 8GB remastered?) mi comincio a sentire offeso che me la stai seriamente proponendo, a meno che lo fai a 350 euro.

Ma sì, il problema di questa serie è il prezzo, le prestazioni alla fine ci sono anche, ma non si può far pagare più di 300€ un chip che sarebbe dovuto essere una x50.
Poi se spendere 300€ è diventata ormai la norma per la fascia bassa quello non lo so...

ColdWarGuy
29-04-2023, 13:33
Ah ok belle VGA ste 60. quindi se AMD continuasse a vendere 6800 lisce a 500 euro avrebbe una VGA rispetto a quella 4060Ti con doppio BUS, doppia VRAM e prestazioni penso pure sopra la 3070Ti (RT a parte).
VGA che a stock (ed è ritoccabile) non consuma nemmeno molto.

Mentre NVIDIA metà VRAM, metà BUS, prestazioni...3070 liscia? un po' meglio?

fra un po' proveranno a rivendere una 750Ti mettendo i bollini DLSS3\RT

Io invece dico nettamente meno della 3070 liscia, 1080p a parte, ovviamente al netto di magheggi stile DLSS3 ed affini.

Ma d'altra parte stanno ancora vendendo le 3060 a più di 300 euro e le 3060 Ti oltre i 400, sono quasi certo che le 4060 Ti saranno lanciate a non meno di 500 Euro, però questa volta dubito che i distributori / rivenditori riempiano gli scaffali a meno che non gli facciano il conto vendita.

Io ripeto il mio appello : NON COMPRATE NIENTE ! :D

LurenZ87
29-04-2023, 14:14
Si ma sulla 4070 (aka 3080 12GB remastered) fai il furbo con un senso, sulla 4060Ti di quelle slide (aka 3070 8GB remastered?) mi comincio a sentire offeso che me la stai seriamente proponendo, a meno che lo fai a 350 euro.Ehm ni, parliamo sempre di oltre 600€ di vga, mica pizza e fichi... Se vogliamo togliere il mercato dell'usato e non si è partito preso c'è a 600€ la 6950XT che gli fa letteralmente le scarpe. Certo consuma di più e non ha il DLSS3, ma ha 4Gb in più di vram e potrebbe beneficiare del FSR3, con Frame Generator e roba varia. Alla fine torniamo sempre sullo stesso punto...

Inviato dal mio Pixel 7 utilizzando Tapatalk

X360X
29-04-2023, 14:32
Ehm ni, parliamo sempre di oltre 600€ di vga, mica pizza e fichi... Se vogliamo togliere il mercato dell'usato e non si è partito preso c'è a 600€ la 6950XT che gli fa letteralmente le scarpe. Certo consuma di più e non ha il DLSS3, ma ha 4Gb in più di vram e potrebbe beneficiare del FSR3, con Frame Generator e roba varia. Alla fine torniamo sempre sullo stesso punto...

Inviato dal mio Pixel 7 utilizzando Tapatalk

Ma differenza sostanziale: la 6950XT ha picchi di corrente ridicoli e un consumo generale alto (che significa pure eventuale nuovo alimentatore e raffreddamento case diverso), una 4070 la alimenti a batterie sta bene ovunque. La 6950XT con un RT non dico top ma buono va assolutamente meno e sulla 4070 se vuoi te lo usi eccome (tra l'altro c'è il FG che ad oggi su AMD non c'è, anche se in futuro ci sarà sicuro, e il solito DLSS che qualcosa in più continua ad averla). Ed è una VGA da FHD e QHD senza problemi.

Non sto giustificando il prezzo ma è in linea (tra le case dico), NVIDIA ti dà oggettivamente le migliori tecnologie e AMD punta al raster a prezzo simile, ognuno poi fa le sue scelte affar suo cosa gli serve.
Costano troppo entrambe chi per certe mancanze chi per altre semmai. Ovvio se poi 12GB diventeranno pochi in qhd allora avrà toppato NVIDIA a prescindere, quello si.

Una 4060Ti al contrario molto più facile che potrà non bastargli la VRAM, è scarsa ormai per l'RT, hanno scritto qui che si dovrebbero fare i 60fps per usare il FG e una VGA scarsa tenderà più facilmente a non farli, diciamo che gridano FHD le specifiche.
Non è una "scelta diversa" rispetto ad esempio alla 6800 liscia di AMD per me, è una schifezza e basta. Più vai giù più poi è il raster che conta, perché tra 100 e 120fps anche chissene, tra 40 e 60 è vita.
NVIDIA ad oggi è imbarazzante in fascia bassa, la 3060 liscia top "schifezza con marchio RT"

Ale55andr0
29-04-2023, 14:40
Si ma sulla 4070 (aka 3080 12GB remastered) fai il furbo con un senso, sulla 4060Ti di quelle slide (aka 3070 8GB remastered?) mi comincio a sentire offeso che me la stai seriamente proponendo, a meno che lo fai a 350 euro.

Le vendite (pare) non stiano premiando nvidia, vediamo se la smettono di offendere e danno un taglio SERIO ai prezzi. Putroppo, economicamente, hanno le spalle sin troppo larghe e potrebbero permettersi facilmente un "fail" di mercato e lasciarle prezzate uguali pur di non ammettere di averla fatta abbondantemente fuori dal vaso e di imporre "il nuovo ordine", quelli dei prezzi senza vergogna, ci si può riuscire (purtroppo) oggi al distributore ho detto "ah, gasolio a solo 1.65, buon prezzo" :doh:. Cmq AMD non è che sia rose e fiori lato prezzi anche lei, la 7900XT a 850/900 è incagabile tanto quanto la 4070ti andando solo poco più di una 6950xt che sta diventando, per chi se ne batte dell'RT, qualcosa di MOLTO interessante

LurenZ87
29-04-2023, 14:53
Ma differenza sostanziale: la 6950XT ha picchi di corrente ridicoli e un consumo generale alto (che significa pure eventuale nuovo alimentatore e raffreddamento case diverso), una 4070 la alimenti a batterie sta bene ovunque. La 6950XT con un RT non dico top ma buono va assolutamente meno e sulla 4070 se vuoi te lo usi eccome (tra l'altro c'è il FG che ad oggi su AMD non c'è, anche se in futuro ci sarà sicuro, e il solito DLSS che qualcosa in più continua ad averla). Ed è una VGA da FHD e QHD senza problemi.

Non sto giustificando il prezzo ma è in linea (tra le case dico), NVIDIA ti dà oggettivamente le migliori tecnologie e AMD punta al raster a prezzo simile, ognuno poi fa le sue scelte affar suo cosa gli serve.
Costano troppo entrambe chi per certe mancanze chi per altre semmai. Ovvio se poi 12GB diventeranno pochi in qhd allora avrà toppato NVIDIA a prescindere, quello si.

Una 4060Ti al contrario molto più facile che potrà non bastargli la VRAM, è scarsa ormai per l'RT, hanno scritto qui che si dovrebbero fare i 60fps per usare il FG e una VGA scarsa tenderà più facilmente a non farli, diciamo che gridano FHD le specifiche.
Non è una "scelta diversa" rispetto ad esempio alla 6800 liscia di AMD per me, è una schifezza e basta. Più vai giù più poi è il raster che conta, perché tra 100 e 120fps anche chissene, tra 40 e 60 è vita.
NVIDIA ad oggi è imbarazzante in fascia bassa, la 3060 liscia top "schifezza con marchio RT"

Si, si torna alla solita tiritera che una ti da una cosa che non ti da l'altra e viceversa, però la questione della vram c'è alla fine ed è la solita soluzione commerciale per farti cambiare vga, Giacchetta lo sa bene, idem Lisa che monta montagne di vram per sopperire ad altre mancanze. Magari andrà bene per questo e il prossimo anno, ma da quello che si vede inizio ad avere qualche dubbio, poi felice di sbagliarmi.

Inviato dal mio Pixel 7 utilizzando Tapatalk

mikael84
29-04-2023, 15:29
Si, si torna alla solita tiritera che una ti da una cosa che non ti da l'altra e viceversa, però la questione della vram c'è alla fine ed è la solita soluzione commerciale per farti cambiare vga, Giacchetta lo sa bene, idem Lisa che monta montagne di vram per sopperire ad altre mancanze. Magari andrà bene per questo e il prossimo anno, ma da quello che si vede inizio ad avere qualche dubbio, poi felice di sbagliarmi.

Inviato dal mio Pixel 7 utilizzando Tapatalk

Ni, Lisa non è che monta un botto di ram per sopperire, ma per via dei bus. La 7900xt ad esempio, è uno scarto di un grosso chip, con un bus da 320bit, quello che dovrebbe avere una ormai improbabile 4080ti.
Il fatto è che si trova a competere con una x70ti (classe x60 poi), la mette in questo vantaggio lato ram.

In fascia bassa, la 7600xt sarà una 6600xt in rdna3, con forse un +10% sulla fascia 6600 e con 8gb di ram, tale e quale alla 4060.

LurenZ87
29-04-2023, 15:35
Ni, Lisa non è che monta un botto di ram per sopperire, ma per via dei bus. La 7900xt ad esempio, è uno scarto di un grosso chip, con un bus da 320bit, quello che dovrebbe avere una ormai improbabile 4080ti.

Il fatto è che si trova a competere con una x70ti (classe x60 poi), la mette in questo vantaggio lato ram.



In fascia bassa, la 7600xt sarà una 6600xt in rdna3, con forse un +10% sulla fascia 6600 e con 8gb di ram, tale e quale alla 4060.Vero ma a metà, sbandierare 20Gb fa tanto marketing e aiuta le vendite, al contrario per esempio di 10Gb. Ti faccio la domanda al contrario, se la 7900XT fosse stata più veloce della 4080 e di buon margine, secondo te AMD gli avrebbe messo 20Gb oppure 10Gb??? Allo stato attuale, dal mio punto di vista, come ti giri ti giri lo prendi dietro.

Inviato dal mio Pixel 7 utilizzando Tapatalk

ste-87
29-04-2023, 15:59
Le vendite (pare) non stiano premiando nvidia, vediamo se la smettono di offendere e danno un taglio SERIO ai prezzi. Putroppo, economicamente, hanno le spalle sin troppo larghe e potrebbero permettersi facilmente un "fail" di mercato e lasciarle prezzate uguali pur di non ammettere di averla fatta abbondantemente fuori dal vaso e di imporre "il nuovo ordine", quelli dei prezzi senza vergogna, ci si può riuscire (purtroppo) oggi al distributore ho detto "ah, gasolio a solo 1.65, buon prezzo" :doh:. Cmq AMD non è che sia rose e fiori lato prezzi anche lei, la 7900XT a 850/900 è incagabile tanto quanto la 4070ti andando solo poco più di una 6950xt che sta diventando, per chi se ne batte dell'RT, qualcosa di MOLTO interessante

dubito seriamente succederà, ,fan prima a fare un refresh fra 8 mesi 1 anno :asd:

mikael84
29-04-2023, 16:15
Vero ma a metà, sbandierare 20Gb fa tanto marketing e aiuta le vendite, al contrario per esempio di 10Gb.

Si, ma sei costretto a metterne 20 per via del bus. Non potevi uscirtene con 12 e 10 gb rispettivamente quando in lineaup hai già le 6900 con 16.
L'ha fatto la 3080, ma non aveva la doppia g6x ed ereditava la 2080 da 8gb.

Devi sempre adattare il tutto alla bus e alla tua linea passata, presente e futura.:)


Ti faccio la domanda al contrario, se la 7900XT fosse stata più veloce della 4080 e di buon margine, secondo te AMD gli avrebbe messo 20Gb oppure 10Gb??? Allo stato attuale, dal mio punto di vista, come ti giri ti giri lo prendi dietro.

Inviato dal mio Pixel 7 utilizzando Tapatalk

Se la 7900xt fosse stata più veloce della 4080 (come doveva essere alla fine, 76 sm, vs 84cu/320bit), si sarebbe scontrata con una 4080ti da 20gb di nvidia. Se invece ti scontri con una classe x70, è palese che ci siano queste differenze tra i 2 prodotti. Non a caso la classe x70 di AMD sarà sempre con 192bit e 12gb, solo che non reggerà il confronto e sarà messa in fasce inferiori.
Quindi per forza di cose, AMD si ritroverà ad avere per fascia più vram.:)

kiwivda
29-04-2023, 16:15
dubito seriamente succederà, ,fan prima a fare un refresh fra 8 mesi 1 anno :asd:

Esatto, oppure fanno che non buttare fuori più nulla, aspettano che la fascia medio e bassa si aggiusti tra usato e nuovo, e nel 2024 buttano fuori una bella 5090 come fu per la 4090 e stop, per le fasce basse e medie rimane l'usato e quello che c'è della concorrenza, poi nel 2025 faranno i soliti Cut della 5090 per le fasce inferiori e si ricomincia.

mikael84
29-04-2023, 16:22
Esatto, oppure fanno che non buttare fuori più nulla, aspettano che la fascia medio e bassa si aggiusti tra usato e nuovo, e nel 2024 buttano fuori una bella 5090 come fu per la 4090 e stop, per le fasce basse e medie rimane l'usato e quello che c'è della concorrenza, poi nel 2025 faranno i soliti Cut della 5090 per le fasce inferiori e si ricomincia.

Si, con lo stallo che c'è con Lovelace, ed i wafer richiesti, probabilmente l'anno prossimo farà uscire solo la HPC ed il top a 3nm per i pro/gamer, magari segnando un'altra fascia di prezzo per la 5090.:)

X360X
29-04-2023, 16:34
Si, con lo stallo che c'è con Lovelace, ed i wafer richiesti, probabilmente l'anno prossimo farà uscire solo la HPC ed il top a 3nm per i pro/gamer, magari segnando un'altra fascia di prezzo per la 5090.:)

tipo che vai in banca vedi se ti danno il prestito e poi ti presenti da NVIDIA? :sofico:

mikael84
29-04-2023, 16:44
tipo che vai in banca vedi se ti danno il prestito e poi ti presenti da NVIDIA? :sofico:

:D
ho il mezzo (ma solo mezzo):D sospetto, che la 5090 passi a 1999$

Pensa che le HPC (le ex tesla) da 10000$ stabili, sono salite a over 30k$, ed è dove sta marginando tantissimo.
Con un settore che si sta lanciando talmente tanto, e con margini da capogiro, temo che a noi ci daranno le briciole, come stanno facendo ora con le x60 e x70, più il chip d'elite.

ultimate trip
29-04-2023, 17:04
Esatto, oppure fanno che non buttare fuori più nulla, aspettano che la fascia medio e bassa si aggiusti tra usato e nuovo, e nel 2024 buttano fuori una bella 5090 come fu per la 4090 e stop, per le fasce basse e medie rimane l'usato e quello che c'è della concorrenza, poi nel 2025 faranno i soliti Cut della 5090 per le fasce inferiori e si ricomincia.

Si, con lo stallo che c'è con Lovelace, ed i wafer richiesti, probabilmente l'anno prossimo farà uscire solo la HPC ed il top a 3nm per i pro/gamer, magari segnando un'altra fascia di prezzo per la 5090.:)

no dai che lancio sarebbe per il mercato gaming se mi lanci solo un modello a 2k. allora ha più senso 5090 top @3nm e poi refresh di Ada @7nm

mikael84
29-04-2023, 17:22
no dai che lancio sarebbe per il mercato gaming se mi lanci solo un modello a 2k. allora ha più senso 5090 top @3nm e poi refresh di Ada @5nm

Fix
Ada sui 7nm sarebbe problematico, salvo non usare 2 die in MCM da 800mm2.:p

Cmq scherzi a parte, penso si ripeta la stessa situazione attuale, un big chip, e poi man mano che smaltiscono le innumerevoli scorte, lanciano le altre.

Per farsi un'idea migliore, bisognerebbe avere una stima sui wafer che prenoterà, Con Lovelace aveva prenotato quasi 2mld di $ a trimetre per HPC, partendo dal q3 2021.

JHH e nvidia, staranno sicuramente pensando ad un piano B. Il problema serio è degli AIB.

kiwivda
29-04-2023, 17:29
Fix
Ada sui 7nm sarebbe problematico, salvo non usare 2 die in MCM da 800mm2.:p

Cmq scherzi a parte, penso si ripeta la stessa situazione attuale, un big chip, e poi man mano che smaltiscono le innumerevoli scorte, lanciano le altre.

Per farsi un'idea migliore, bisognerebbe avere una stima sui wafer che prenoterà, Con Lovelace aveva prenotato quasi 2mld di $ a trimetre per HPC, partendo dal q3 2021.

JHH e nvidia, staranno sicuramente pensando ad un piano B. Il problema serio è degli AIB.


La soluzione sta tra le righe. La frase detta da JHH "..we are in the iPhone moment of GPU" cosa vi dice?

Avete mai visto un melafonino fatto da terzi?

Meditate gente meditate.

LurenZ87
29-04-2023, 18:20
Si, ma sei costretto a metterne 20 per via del bus. Non potevi uscirtene con 12 e 10 gb rispettivamente quando in lineaup hai già le 6900 con 16.

L'ha fatto la 3080, ma non aveva la doppia g6x ed ereditava la 2080 da 8gb.



Devi sempre adattare il tutto alla bus e alla tua linea passata, presente e futura.:)







Se la 7900xt fosse stata più veloce della 4080 (come doveva essere alla fine, 76 sm, vs 84cu/320bit), si sarebbe scontrata con una 4080ti da 20gb di nvidia. Se invece ti scontri con una classe x70, è palese che ci siano queste differenze tra i 2 prodotti. Non a caso la classe x70 di AMD sarà sempre con 192bit e 12gb, solo che non reggerà il confronto e sarà messa in fasce inferiori.

Quindi per forza di cose, AMD si ritroverà ad avere per fascia più vram.:)Sulla questione di non uscire con 12 o 10Gb quando hai la vecchia top a 16Gb la vedo in maniera diversa (il tuo ragionamento ha perfettamente ragione, sia chiaro), soprattutto per il tornaconto dell'azienda.

Mentre per le prestazioni della 7900XT/XTX alzo le mani, quindi anche loro si aspettavano decisamente altro quando hanno progettato Navi 31??? Oppure non si aspettavano un AD102 così veloce??? Non ho seguito minimamente la questione :)

Inviato dal mio Pixel 7 utilizzando Tapatalk

ste-87
29-04-2023, 18:31
Si, con lo stallo che c'è con Lovelace, ed i wafer richiesti, probabilmente l'anno prossimo farà uscire solo la HPC ed il top a 3nm per i pro/gamer, magari segnando un'altra fascia di prezzo per la 5090.:)

A livello tecnico, visti i tagli fatti sui chip per creare le attuali fasce, sarebbe possibile un refresh dell'architettura magari aumentando di un piccolo margine le specifiche della 4070/4070Ti e 4080 o è pura fantasia? Una scheda di mezzo tra l'attuale 4080 e la 4090?

Per metterla su un esempio pratico, un pò come han fatto con la 3080 da 10Gb e quella uscita poi da 12Gb che aveva anche una manciata di cc in più etc

EffeX
29-04-2023, 18:55
La soluzione sta tra le righe. La frase detta da JHH "..we are in the iPhone moment of GPU" cosa vi dice?

Avete mai visto un melafonino fatto da terzi?

Meditate gente meditate.

Bah, non so che convenienza avrebbe Nvidia a farsi le schede da sola, anche le founders comunque sia son montate da terzi.
Apple ha sempre prodotto "da sè" fin in origine i suoi prodotti, Nvidia ha sempre campato grazie agli AIB invece.
Il problema è che ormai i chip son blindati e già spinti al massimo, quindi non c'è più differenza tra prendere una FE o una custom, se non per questioni estetiche o di raffreddamento.

Sulla questione di non uscire con 12 o 10Gb quando hai la vecchia top a 16Gb la vedo in maniera diversa (il tuo ragionamento ha perfettamente ragione, sia chiaro), soprattutto per il tornaconto dell'azienda.

Mentre per le prestazioni della 7900XT/XTX alzo le mani, quindi anche loro si aspettavano decisamente altro quando hanno progettato Navi 31??? Oppure non si aspettavano un AD102 così veloce??? Non ho seguito minimamente la questione :)

Inviato dal mio Pixel 7 utilizzando Tapatalk

Secondo me AMD sapeva cosa avrebbe lanciato Nvidia, ciò che secondo me non si aspettava son stati i problemi col dual issue.

Dono89
29-04-2023, 18:59
:D
ho il mezzo (ma solo mezzo):D sospetto, che la 5090 passi a 1999$

Pensa che le HPC (le ex tesla) da 10000$ stabili, sono salite a over 30k$, ed è dove sta marginando tantissimo.
Con un settore che si sta lanciando talmente tanto, e con margini da capogiro, temo che a noi ci daranno le briciole, come stanno facendo ora con le x60 e x70, più il chip d'elite.


Ci stai dicendo che una 5070 potrebbe costare più dell'attuale 4070?

Ma andare su Samsung come le 3000 no?

LurenZ87
29-04-2023, 19:03
Secondo me AMD sapeva cosa avrebbe lanciato Nvidia, ciò che secondo me non si aspettava son stati i problemi col dual issue.

Quindi secondo te Navi 31 ha del potenziale non sfruttato???

Inviato dal mio Pixel 7 utilizzando Tapatalk

Ubro92
29-04-2023, 19:04
A livello tecnico, visti i tagli fatti sui chip per creare le attuali fasce, sarebbe possibile un refresh dell'architettura magari aumentando di un piccolo margine le specifiche della 4070/4070Ti e 4080 o è pura fantasia? Una scheda di mezzo tra l'attuale 4080 e la 4090?

Per metterla su un esempio pratico, un pò come han fatto con la 3080 da 10Gb e quella uscita poi da 12Gb che aveva anche una manciata di cc in più etc

No al massimo ci fai un refresh, ad esempio stampi una 5070 con 7168cc, una 5070ti derivata da un cut di AD103 e una 5080 full Ad103 con memorie a 24Gbps, e cosi via per gli altri...

Esattamente come avvenne per le super.

mikael84
29-04-2023, 19:13
Sulla questione di non uscire con 12 o 10Gb quando hai la vecchia top a 16Gb la vedo in maniera diversa (il tuo ragionamento ha perfettamente ragione, sia chiaro), soprattutto per il tornaconto dell'azienda.

Mentre per le prestazioni della 7900XT/XTX alzo le mani, quindi anche loro si aspettavano decisamente altro quando hanno progettato Navi 31??? Oppure non si aspettavano un AD102 così veloce??? Non ho seguito minimamente la questione :)

Inviato dal mio Pixel 7 utilizzando Tapatalk

Diciamo che a livello di transistor, battere AD102 era difficile, però da rumour , pensavamo avessero inserito il doppio delle unità completamente native, alla navi1x/2x, e che con quella semplificazione, allo stesso tempo avere anche clock più elevati.

Invece, ha realmente inserito le doppie unità, con un cluster che può eseguire fp/int ed uno solo fp32 semplificato, ma in modalità dual issue. Bene, si ritorna all'ILP come le vecchie GCN, ovvero il CU con istruzioni identiche può raddoppiare le performance, quello divergente no, creando un'ipotetico 3/4 di utilizzo totali ALU.
Invece a conti fatti, AMD ha imbottito di logica sino all'osso del PP, ma è come se navi31 da 12288 shader che si aspettavano nativi, a 9100 con ILP, altro non è che un navi con 6144 shader più un migliorato IPC interno, ed alcuni miglioramenti lato RT, come il culling, problema già di GCN sulla tessellazione.

Il risultato finale è che AMD ha continuato a dichiarare +54% biennale perf/watt, ma neppure sempre raggiungendolo.

JHH ovviamente sapeva benissimo tutto, ed ha tarato la 4090 come elite, e la 4080 identica alla 7900 in perf. (almeno questa in raster).

---
Chiaramente ho semplificato all'osso per non annoiare.:)

A livello tecnico, visti i tagli fatti sui chip per creare le attuali fasce, sarebbe possibile un refresh dell'architettura magari aumentando di un piccolo margine le specifiche della 4070/4070Ti e 4080 o è pura fantasia? Una scheda di mezzo tra l'attuale 4080 e la 4090?

Per metterla su un esempio pratico, un pò come han fatto con la 3080 da 10Gb e quella uscita poi da 12Gb che aveva anche una manciata di cc in più etc

Si, il refresh è ipotizzabile, ma dipenderà anche dal competitor (esempio un modello di 7900 con 3dcache), altrimenti rischia di farsi le scarpe da sola, in vista della prossima gen. Già i margini di perf, in fascia bassa e media sono davvero minimi.:)

Riguardo AD103, è ipotizzabile un refresh con full chip e magari le 24 effettive di micron.
Su AD102 è più complesso, in quanto quel die, si porta dietro troppi fail, che sicuramente, in qualche modo cercherà di vendere, o ai gamer o in fascia quadro. Al momento sta usando die buoni, qualcuno gravemente fallato lo sta recuperando, ma per la fascia quadro. Un chip drasticamente devastato.
Man mano che aumentano le rese, e per via di liberare la strada a BL102, è facile si inventi qualcosa, o semplicemente per posizionare BL102 sopra AD102, magari a 1999.

Con samsung, per fare spazio alla 4090 e 4080, si è messo addirittura a tagliare lui i chip buoni, facendoli 3080 12, per aumentare le vendite di un mercato stallatissimo.

Sulla fascia bassa invece ha poco margine, o gli AIB gli fanno la guerra, stando a Igor la situazione non è delle migliori, tanto che con le 4070 stanno cercando di risparmiare il possibile.

EffeX
29-04-2023, 19:20
Quindi secondo te Navi 31 ha del potenziale non sfruttato???

Inviato dal mio Pixel 7 utilizzando Tapatalk

Direi che Mikael ha già risposto in modo più che esauriente. :)

Diciamo che a livello di transistor, battere AD102 era difficile, però da rumour , pensavamo avessero inserito il doppio delle unità completamente native, alla navi1x/2x, e che con quella semplificazione, allo stesso tempo avere anche clock più elevati.

Invece, ha realmente inserito le doppie unità, con un cluster che può eseguire fp/int ed uno solo fp32 semplificato, ma in modalità dual issue. Bene, si ritorna all'ILP come le vecchie GCN, ovvero il CU con istruzioni identiche può raddoppiare le performance, quello divergente no, creando un'ipotetico 3/4 di utilizzo totali ALU.
Invece a conti fatti, AMD ha imbottito di logica sino all'osso del PP, ma è come se navi31 da 12288 shader che si aspettavano nativi, a 9100 con ILP, altro non è che un navi con 6144 shader più un migliorato IPC interno, ed alcuni miglioramenti lato RT, come il culling, problema già di GCN sulla tessellazione.

Il risultato finale è che AMD ha continuato a dichiarare +54% biennale perf/watt, ma neppure sempre raggiungendolo.

JHH ovviamente sapeva benissimo tutto, ed ha tarato la 4090 come elite, e la 4080 identica alla 7900 in perf. (almeno questa in raster).

---
Chiaramente ho semplificato all'osso per non annoiare.:)

Ma lato driver non possono avere margine di miglioramento?
Ho come sempre l'impressione che lato hw siano gran chip ma poi mal sfruttati alla grande lato sw, possibile che non riescano a scrivere un driver che sfrutti bene il nuovo hw ogni volta che lanciano qualcosa? :muro:

mikael84
29-04-2023, 19:26
Ci stai dicendo che una 5070 potrebbe costare più dell'attuale 4070?

Ma andare su Samsung come le 3000 no?

Sui costi non ti so dire, ma l'andazzo è quello, molto dipenderà dal lancio della 5090, ed anche dai die utilizzati.
Se parliamo di 300mm2 a 3nm, se va bene rimangono uguali, altrimenti penso possano salire ancora.

Samsung o TSMC lato costi non dovrebbe cambiare nulla. Ampere costava meno, ma usava una versione dei 10nm, non i 7nm.
Se va da samsung userà i 3nm GAAFET, se va da TSMC sempre i 3nmP, non un nodo in meno.

Ubro92
29-04-2023, 19:38
La 4070 che ci meritiamo, ma non quella di cui avevamo bisogno! :sofico:

https://www.hwupgrade.it/articoli/skvideo/6525/pny-geforce-rtx-4070-verto-ancora-piu-piccola-ma-a-che-prezzo-recensione_index.html

mikael84
29-04-2023, 19:46
Direi che Mikael ha già risposto in modo più che esauriente. :)



Ma lato driver non possono avere margine di miglioramento?
Ho come sempre l'impressione che lato hw siano gran chip ma poi mal sfruttati alla grande lato sw, possibile che non riescano a scrivere un driver che sfrutti bene il nuovo hw ogni volta che lanciano qualcosa? :muro:

Più facile a dirsi che a farsi a quanto pare. Probabilmente è anche troppo dispendioso o gravoso da realizzare questo sistema. Forse in proiezione non hanno tenuto conto di tutte le variabili possibili.

Ad esempio, i programmi ridondanti render, sono molto più semplici per il compilatore rispetto ad un gioco, ed in questi casi si dovrebbe assistere a dei picchi di carico più elevati in quanto è molto probabile che il compilatore estragga 2 istruzioni identiche per ciclo di clock.
Vega in render pur integrando l'ILP veniva sfruttato appieno rispetto ai giochi.
GCN nei giochi aveva anche il problema dell'emulazione SFU e FPU, mentre le arc hanno il problema SFU più Int.:)

LurenZ87
29-04-2023, 21:56
Diciamo che a livello di transistor, battere AD102 era difficile, però da rumour , pensavamo avessero inserito il doppio delle unità completamente native, alla navi1x/2x, e che con quella semplificazione, allo stesso tempo avere anche clock più elevati.

Invece, ha realmente inserito le doppie unità, con un cluster che può eseguire fp/int ed uno solo fp32 semplificato, ma in modalità dual issue. Bene, si ritorna all'ILP come le vecchie GCN, ovvero il CU con istruzioni identiche può raddoppiare le performance, quello divergente no, creando un'ipotetico 3/4 di utilizzo totali ALU.
Invece a conti fatti, AMD ha imbottito di logica sino all'osso del PP, ma è come se navi31 da 12288 shader che si aspettavano nativi, a 9100 con ILP, altro non è che un navi con 6144 shader più un migliorato IPC interno, ed alcuni miglioramenti lato RT, come il culling, problema già di GCN sulla tessellazione.

Il risultato finale è che AMD ha continuato a dichiarare +54% biennale perf/watt, ma neppure sempre raggiungendolo.

JHH ovviamente sapeva benissimo tutto, ed ha tarato la 4090 come elite, e la 4080 identica alla 7900 in perf. (almeno questa in raster).

---
Chiaramente ho semplificato all'osso per non annoiare.:)


Per certi versi mi sembra di rivedere Fiji XT, se non ricordo male soffriva di problemi simili (non riusciva a sfruttare tutte le unità presenti), ma forse mi sbaglio.

Comunque grazie della spiegazione :)

Inviato dal mio Pixel 7 utilizzando Tapatalk

mikael84
30-04-2023, 01:25
Per certi versi mi sembra di rivedere Fiji XT, se non ricordo male soffriva di problemi simili (non riusciva a sfruttare tutte le unità presenti), ma forse mi sbaglio.

Comunque grazie della spiegazione :)

Inviato dal mio Pixel 7 utilizzando Tapatalk

Si, RDNA3 per come è pensata si riaffida al classico ILP (Instruction Level Parallelism) di GCN, anche se in realtà, va inquadrata come una navi da 6144st e stop. In qualche gioco magari riesce giusto a tirare fuori qualche istruzione in più, ma spesso è pure controproducente in quanto gli scheduler devono compiere più cicli in cerca di istruzioni identiche.:)

La strada di navi 1/2x era perfetta, pareggiando in IPC nvidia, strano questo cambio di rotta.

LurenZ87
30-04-2023, 07:36
Si, RDNA3 per come è pensata si riaffida al classico ILP (Instruction Level Parallelism) di GCN, anche se in realtà, va inquadrata come una navi da 6144st e stop. In qualche gioco magari riesce giusto a tirare fuori qualche istruzione in più, ma spesso è pure controproducente in quanto gli scheduler devono compiere più cicli in cerca di istruzioni identiche.:)



La strada di navi 1/2x era perfetta, pareggiando in IPC nvidia, strano questo cambio di rotta.

Allora ricordavo bene :). È stato un gran peccato, certo anche il pp schifoso di Samsung li ha aiutati tantissimo a recuperare terreno.

Chiuso OT :)

Inviato dal mio Pixel 7 utilizzando Tapatalk

EffeX
30-04-2023, 10:59
La strada di navi 1/2x era perfetta, pareggiando in IPC nvidia, strano questo cambio di rotta.

Sì, questa mossa non l'ho compresa nemmeno io: con la 5700 tirarono fuori un buon prodotto con buon prezzo pur non avendo RT, le 6800 non erano male se trovate a msrp, ed ora con le 7000 sembra che abbiano fatto un passo indietro. :rolleyes:

Ale55andr0
30-04-2023, 11:14
La strada di navi 1/2x era perfetta, pareggiando in IPC nvidia, strano questo cambio di rotta.

sta cosa fa girare incaxxare abbestia, pare il team di tecnici/muretto Ferrari, paro paro, scelte idiote e senza senso. E il colore è pure quello

LurenZ87
30-04-2023, 11:33
sta cosa fa girare incaxxare abbestia, pare il team di tecnici/muretto Ferrari, paro paro, scelte idiote e senza senso. E il colore è pure quelloPossiamo evitare per cortesia??? Non farmi tirare tutto il Paradiso anche oggi che già ci penseranno loro più tardi, grazie.

Inviato dal mio Pixel 7 utilizzando Tapatalk

Ale55andr0
30-04-2023, 11:58
Possiamo evitare per cortesia??? Non farmi tirare tutto il Paradiso anche oggi che già ci penseranno loro più tardi, grazie.

Inviato dal mio Pixel 7 utilizzando Tapatalk

la stagione è cmq finita, ma tanto vinciamo sicuro l'anno prossimo, come gli ultimi 15 anni

/O T

mikael84
30-04-2023, 18:48
Allora ricordavo bene :). È stato un gran peccato, certo anche il pp schifoso di Samsung li ha aiutati tantissimo a recuperare terreno.

Chiuso OT :)

Inviato dal mio Pixel 7 utilizzando Tapatalk

Il PP di samsung è osceno e arretrato, alcune caratteristiche dei transistor, come il Transistor fin pitch, è simile ai 16nm, ed anche a livello di performance e li. Idem con le sram
Non potendo utilizzare i 7nm di samsung (nettamente inferiori ai 7 di tsmc), la stessa casa gli ha migliorato i 10nm con una terza gen più densa per impilare almeno i transistor logici.
Alla fine è un mix tra 10nm in densità, 16 TSMC il resto.

AMD invece usava il 7nm HP elv (a bassa dispersione). Il top di quel PP.

Sì, questa mossa non l'ho compresa nemmeno io: con la 5700 tirarono fuori un buon prodotto con buon prezzo pur non avendo RT, le 6800 non erano male se trovate a msrp, ed ora con le 7000 sembra che abbiano fatto un passo indietro. :rolleyes:

Col seno di poi, a me non convince, a parer mio era ancora meglio rivedere il tutto per AI, ma usare le classiche unità di navi 1/2-
Loro hanno fato parecchie simulazioni, e non entro in merito su questi aspetti, però i risultati per transistor non sono ottimali.

Per il resto nelle simulazioni e proiezioni hanno cercato anche un rapporto efficienza e perf/watt e bene o male viene mantenuto in vari titoli.:)

ColdWarGuy
01-05-2023, 10:05
Il PP di samsung è osceno e arretrato, alcune caratteristiche dei transistor, come il Transistor fin pitch, è simile ai 16nm, ed anche a livello di performance e li. Idem con le sram
Non potendo utilizzare i 7nm di samsung (nettamente inferiori ai 7 di tsmc), la stessa casa gli ha migliorato i 10nm con una terza gen più densa per impilare almeno i transistor logici.
Alla fine è un mix tra 10nm in densità, 16 TSMC il resto.

AMD invece usava il 7nm HP elv (a bassa dispersione). Il top di quel PP.


Samsung’s 3nm GAA Yield Rate Is Said To Be Up To 70 Percent, Enabling A Comeback Of The Foundry For Cutting-Edge Chips
(https://wccftech.com/samsung-3nm-gaa-yield-rate-up-to-70-percent/)

X360X
01-05-2023, 11:46
Sì, questa mossa non l'ho compresa nemmeno io: con la 5700 tirarono fuori un buon prodotto con buon prezzo pur non avendo RT, le 6800 non erano male se trovate a msrp, ed ora con le 7000 sembra che abbiano fatto un passo indietro. :rolleyes:

bè le 6000 non erano per nulla male rispetto alle 3000 anzi, ma il passo avanti di Ada è notevole, in un consumo un filo inferiore alla 3060Ti ci hanno buttato una 3080 (che consumava di più della controparte AMD 6800XT, l'efficienza è aumentata di tanto).
e AMD cercando di spuntarla in raster (perché a parte quello e la quantità di VRAM come te la giochi?) non è che abbia settato le VGA al top dell'efficienza anzi.

NVIDIA ha fatto un lavoro che se la lineup\prezzi fossero stati diversi che volevi dirgli.

Ora a vedere le due 7000 uscite...come consumi la 4080 sta tipo la 7900XT, ma la 7900XT è inferiore, per superarla hai consumi ben peggiori con la 7900XTX. Restando lo stesso inferiore in RT pari gen, cioè tutto tranne che "wow" queste VGA.

lordsnk
01-05-2023, 13:28
E intanto Hardware Unboxed rincara la dose sulla questione vram :asd:

https://www.youtube.com/watch?v=KT13s9_5vsI

X360X
01-05-2023, 13:38
E intanto Hardware Unboxed rincara la dose sulla questione vram :asd:

https://www.youtube.com/watch?v=KT13s9_5vsI

Di quel gioco non si dovrebbe nemmeno parlare più però a meno che esca qualche video di sviluppatori in ginocchio a chiedere scusa per lo scempio

digitalfoundry: Star Wars Jedi Survivor PC Review: The Worst Triple-A PC Port of 2023... So Far
https://youtu.be/uI6eAVvvmg0

StylezZz`
01-05-2023, 13:53
E intanto Hardware Unboxed rincara la dose sulla questione vram :asd:

https://www.youtube.com/watch?v=KT13s9_5vsI

Altro gioco sponsorizzato AMD che guardacaso esce rotto per giustificare il quantitativo di VRAM...davvero ridicoli.

Nel frattempo TLOU vola sulla mia 3070 con le ultime patch, avessero l'onestà intellettuale di rifare i test con gli ultimi aggiornamenti e mostrare che anche con 8GB gira benissimo...ma ormai si è capito il fine di questi caxxari.

Ubro92
01-05-2023, 13:56
Altro gioco sponsorizzato AMD che guardacaso esce rotto per giustificare il quantitativo di VRAM...davvero ridicoli.

Nel frattempo TLOU vola sulla mia 3070 con le ultime patch, avessero l'onestà intellettuale di rifare i test con gli ultimi aggiornamenti e mostrare che anche con 8GB gira benissimo...ma ormai si è capito il fine di questi caxxari.

Bah, ciò che mi chiedo è quando usciranno le 7600xt e 7700xt con meno vram di 6700XT e 6800XT come la giustificano questa politica? :sofico:

ColdWarGuy
01-05-2023, 14:04
E intanto Hardware Unboxed rincara la dose sulla questione vram :asd:

https://www.youtube.com/watch?v=KT13s9_5vsI

Bene, dopo di questa non mi si dica che non prendono soldi da AMD, nulla di male se non che dovrebbero dichiararlo con un bel banner "Video sponsored by AMD".

ColdWarGuy
01-05-2023, 14:31
Altro gioco sponsorizzato AMD che guardacaso esce rotto per giustificare il quantitativo di VRAM...davvero ridicoli.

Nel frattempo TLOU vola sulla mia 3070 con le ultime patch, avessero l'onestà intellettuale di rifare i test con gli ultimi aggiornamenti e mostrare che anche con 8GB gira benissimo...ma ormai si è capito il fine di questi caxxari.

Confermo al 100%, 3070 si conferma grande scheda nel 2023 anche con soli 8GB :D

Volevo condividere una riflessione scaturita dalla seguente esperienza :

intestarditomi a far funzionare un vecchio volante FF della Thrustmaster comprato, udite udite, nel 2001 e che per motivi di obsolescenza ha drivers che si fermano a Windows 7, ho installato il suddetto sistema operativo su un PC con un 2600x ed una GTX 970, perdendo non poco tempo tempo tra preparazione di boot disk moddato e trafila degli aggiornamenti online (+ patch che sblocca gli stessi fino agli ultimi anche su piattaforma ryzen).

Ebbene, il portento di cui sopra con Assetto Corsa v1.14.1 su un monitor 2K viaggia dai 75 ai 110 FPS fluido da far schifo con un occupazione di Vram sotto i 2GB, fornendo un esperienza straordinaria con una scheda da 4TF del 2014.

Sono quindi giunto alla conclusione che tutta questa rincorsa ad "effetti speciali" ci ha fatto perdere il focus su quello che dovrebbe essere l'obiettivo principale di questo hobby, cioè giocare iterattivamente e non stare ad ammirare passivamente l'artwork ad alta risoluzione con ombre calcolate da tutte le direzioni.

A tergo di ciò, dopo aver passato una mezza giornata a divertirmi inaspettatamente come un bambino a natale su un PC considerato oggigiorno una m****, ho piazzato un ordine a Fanatec per un kit FF direct drive con i soldini che avevo preventivato di spendere per la nuova GPU mid range, a cui ne aggiungerò degli altri per uno stand racing.

Ergo, io questo giro presa per il culo lo salto e mi ciuccio le dita con il mio "roito" da 8GB da 20 Teraflops (5X GTX 970).

nessuno29
01-05-2023, 15:13
Ragazzi sembra che state rosicando perché parlano male del vostro gingillo, anche io ho una 3070 8gb e non trovo fastidioso se dei canali specializzati testano la scheda coi nuovi giochi, anzi mi fa piacere. Non è una gara, se la 6800 oggi va meglio con 16gb e vabbè va meglio sti caxxi, però è giusto che se ne parli senza tifoseria o censure varie. Mi è sembrata un'analisi non da fanboy, la 6800 è la rivale diretta per prezzo della 3070 con chi dovrebbe confrontarla?

bobby10
01-05-2023, 15:18
Vero.
Ho preso da poco un pc nuovo ma i giochi che devo fare girano uguale sul mio secondo pc (in alcuni al massimo devo abbassare la risoluzione) quindi mi sono chiesto che cavolo l ho preso a fare?:asd:

Con gli ultimi giochi usciti so che la musica cambierà ma sono pochi ed è proprio con questi che ci fanno scattare l ingrippo dell aggiornamento

lordsnk
01-05-2023, 15:19
Ragazzi sembra che state rosicando perché parlano male del vostro gingillo, anche io ho una 3070 8gb e non trovo fastidioso se dei canali specializzati testano la scheda coi nuovi giochi, anzi mi fa piacere. Non è una gara, se la 6800 oggi va meglio con 16gb e vabbè va meglio sti caxxi, però è giusto che se ne parli senza tifoseria o censure varie. Mi è sembrata un'analisi non da fanboy, la 6800 è la rivale diretta per prezzo della 3070 con chi dovrebbe confrontarla?

Personalmente sono felice che tirino sempre in ballo la questione delle vram visto lo schifo che hanno fatto con la 4070 e 4070 Ti e con lo scempio totale che averà tra qualche giorno con la presentazione delle nuove schede.

bobby10
01-05-2023, 15:38
Ragazzi sembra che state rosicando perché parlano male del vostro gingillo, anche io ho una 3070 8gb e non trovo fastidioso se dei canali specializzati testano la scheda coi nuovi giochi, anzi mi fa piacere. Non è una gara, se la 6800 oggi va meglio con 16gb e vabbè va meglio sti caxxi, però è giusto che se ne parli senza tifoseria o censure varie. Mi è sembrata un'analisi non da fanboy, la 6800 è la rivale diretta per prezzo della 3070 con chi dovrebbe confrontarla?

Ma la 6800 è sempre andata meglio della 3070 perché dici "oggi"?
La vram qui non c'entra proprio niente.
Anche se la 3070 avesse 16gb non cambierebbe nulla, di che stanno a parla'?

Perché non fanno il confronto con la 3080 che ha solo 10gb ? Perché sanno che la 6800 le prenderebbe

nessuno29
01-05-2023, 16:15
Ma la 6800 è sempre andata meglio della 3070 perché dici "oggi"?
La vram qui non c'entra proprio niente.
Anche se la 3070 avesse 16gb non cambierebbe nulla, di che stanno a parla'?

Perché non fanno il confronto con la 3080 che ha solo 10gb ? Perché sanno che la 6800 le prenderebbe

Ma perché dovrebbe confrontare la 6800 con la 3080? la 6800 si confronta per prezzo con la 3070 ed è giusto così, se va meglio mica significa che stanno screditando Nvidia, va meglio punto. L'idea che su questo forum stia passando la storiella che hw unboxed è biased amd è ridicola davvero.

OrazioOC
01-05-2023, 16:18
Comunque mi stavano simpatici, però con sta tiritela della vram e il continuo buttarlo "in caciara" cherrypickando titoli mangia vram sta iniziando a stancare. :O
Per carità, la 6800 è un ottimo acquisto sotto i 550 euro, preferibile sicuramente alla 3070 in molti contesti, ma:

1)La rivale dellla 6800 è la 3070 ti(che non è che vada chissà quanto più della liscia, ma in certi contesti +10% di performance possono fare comodo), ma loro continuano imperterriti a confrontarla con la 3070 vanilla.
2) Ormai in quella fascia a poco più di 50/60 euro rimedi una 4070 che ha tutt'alltre performance.
3) Sta passando un messaggio errato, cioè che tutte le gpu con 8gb di vram siano diventati all'improvviso dei cancelli, quando non è così nella stragrande maggioranza dei casi. :rolleyes:

X360X
01-05-2023, 16:26
Ma perché dovrebbe confrontare la 6800 con la 3080? la 6800 si confronta per prezzo con la 3070 ed è giusto così, se va meglio mica significa che stanno screditando Nvidia, va meglio punto. L'idea che su questo forum stia passando la storiella che hw unboxed è biased amd è ridicola davvero.

Ma che c'entra loro hanno iniziato un discorso sulla VRAM, però prendendo una VGA con risultati migliori in raster da sempre, non per la VRAM.

Ehi una VGA superiore va di più! eh grazie, prendi una 6700XT (12GB) e confrontala con la 3070 e vediamo se la 6700XT che di solito sta sotto diventa superiore (nei minimi, in media, testi tutto). Se non lo diventa 8GB vanno alla grande anche ora.
Semplice semplice

Salfox
01-05-2023, 16:31
3) Sta passando un messaggio errato, cioè che tutte le gpu con 8gb di vram siano diventati all'improvviso dei cancelli, quando non è così nella stragrande maggioranza dei casi. :rolleyes:

Per ora tutto sommato è vero, ma mi sembra che la tendenza dei giochi recenti e in uscita sia quella di consumare un mare di Vram. Mi sa che in un futuro molto prossimo 12 gb di Vram saranno il minimo sindacale.

StylezZz`
01-05-2023, 16:35
Ragazzi sembra che state rosicando perché parlano male del vostro gingillo, anche io ho una 3070 8gb e non trovo fastidioso se dei canali specializzati testano la scheda coi nuovi giochi, anzi mi fa piacere. Non è una gara, se la 6800 oggi va meglio con 16gb e vabbè va meglio sti caxxi, però è giusto che se ne parli senza tifoseria o censure varie. Mi è sembrata un'analisi non da fanboy, la 6800 è la rivale diretta per prezzo della 3070 con chi dovrebbe confrontarla?

Quindi trovi giusto che se ne parli in questo modo, facendo dei test con giochi usciti rotti, e facendo passare il messaggio che il problema principale è la 3070 a causa degli 8GB? Mi puoi spiegare come mai i giochi che hanno testato anche nei precedenti video, mi girano bene soprattutto dopo le patch? :stordita:

Non sto rosicando (perchè dovrei?), ma trovo ridicolo vedere questa disinformazione da parte di un canale ''specializzato'' (che consideravo tra i più seri) e mi dispiace per chi ci cascherà, in particolare chi ha già una 3060 Ti/3070 e correrà a venderla perchè ''ormai 8GB non bastano più''.

Ma perché dovrebbe confrontare la 6800 con la 3080? la 6800 si confronta per prezzo con la 3070 ed è giusto così, se va meglio mica significa che stanno screditando Nvidia, va meglio punto. L'idea che su questo forum stia passando la storiella che hw unboxed è biased amd è ridicola davvero.

Mi sembra abbastanza evidente, altro che storiella...ma anche se non fosse biased, rimane sempre un canale utube dove il suo scopo principale è fare visuals, e questa storiella degli 8GB va abbastanza di moda perora.

OrazioOC
01-05-2023, 16:36
Per ora tutto sommato è vero, ma mi sembra che la tendenza dei giochi recenti e in uscita sia quella di consumare un mare di Vram. Mi sa che in un futuro molto prossimo 12 gb di Vram saranno il minimo sindacale.

E' solo un trendi di certe ultime uscite, neanche tutte, e sono tutte uscite fatte da software house che montano engine molto più vicine ad amd rispetto a nvidia.
Ora, questo non significa giustificare una 4060 ti con 8gb di vram a 500 euro nel 2023, ma non è che se ho nel case una 3070 ho sbagliato acquisto e ora la devo buttar via.:rolleyes:

X360X
01-05-2023, 16:38
Per ora tutto sommato è vero, ma mi sembra che la tendenza dei giochi recenti e in uscita sia quella di consumare un mare di Vram. Mi sa che in un futuro molto prossimo 12 gb di Vram saranno il minimo sindacale.

e questo è un dubbio che può venire (anche se porting fatti coi piedi non sono troppo indicativi), di contro AMD e NVIDIA sembrano voler realizzare la fascia bassa (prestazioni fino a una 3070 diciamo) con soli 8GB.
Non parliamo quindi di roba di 3 anni fa come la 3070 ma di prossima uscita.

Forse visto pure il bus 128bit sono intese "fullhd VGA"? quindi 8GB sufficienti per il fullhd per entrambe le case

lordsnk
01-05-2023, 16:40
Ma la 6800 è sempre andata meglio della 3070 perché dici "oggi"?
La vram qui non c'entra proprio niente.
Anche se la 3070 avesse 16gb non cambierebbe nulla, di che stanno a parla'?

Perché non fanno il confronto con la 3080 che ha solo 10gb ? Perché sanno che la 6800 le prenderebbe

In verità non è proprio così :D

Se guardi questo (https://www.youtube.com/watch?v=W6uaUHBNFOU) video vedrai che la 3070 modificata con 16Gb ha un bel boost :D

mikael84
01-05-2023, 16:42
Samsung’s 3nm GAA Yield Rate Is Said To Be Up To 70 Percent, Enabling A Comeback Of The Foundry For Cutting-Edge Chips
(https://wccftech.com/samsung-3nm-gaa-yield-rate-up-to-70-percent/)

Questi transistor sono validi, ma sono meno densi dei 3nmp di TSMC. Bisogna vedere anche lo scaling delle sram. I GAP la seconda gen, sono il 63% più performanti rispetto al PP di ampere a 0,75v.

Ma perché dovrebbe confrontare la 6800 con la 3080? la 6800 si confronta per prezzo con la 3070 ed è giusto così, se va meglio mica significa che stanno screditando Nvidia, va meglio punto. L'idea che su questo forum stia passando la storiella che hw unboxed è biased amd è ridicola davvero.

Si, ma chi è che al giorno d'oggi va a comprarsi una 3070 nuova per oltre 500 euro, quando a 600 c'è la 4070.:p
Per i prezzi MSRP di 3 anni fa, la 3070 è tarata 20$ sopra la 6700, che è quella fascia. E' ormai una scheda praticamente eol.
Al massimo doveva fare 4070 vs 6800 che sono mediamente quasi la stessa fascia.
La 3070 è stata sostituita da quest'ultima, è ormai fuori dai giochi.

Se una testata equivalente mette una 4070 per fascia vs una 6800, e testa tutti i titoli RT intensive + FG in ogni video, sarebbe catastrofico, ma lecito viste le fasce

Salfox
01-05-2023, 16:47
E' solo un trendi di certe ultime uscite, neanche tutte, e sono tutte uscite fatte da software house che montano engine molto più vicine ad amd rispetto a nvidia.


Sottoscrivo Orazio, e aggiungo che visto la concorrenza assente, paradossalmente per i videogiocatori a questo punto sarebbe meglio che AMD non esistesse proprio visto le limitazioni che impone ai propri giochi sponsorizzati, prima fra tutte la mancanza del DLSS che io vedo come la panacea da tutti i mali dei videogiochi. Fateci caso, i giochi che all'uscita girano peggio di tutti sono sempre quelli che non hanno il DLSS, Callisto e Jedi Survivor che io considero entrambi spendidi come giochi ma piagati dalla sponsorizzazione AMD che li rovina.

StylezZz`
01-05-2023, 16:54
In verità non è proprio così :D

Se guardi questo (https://www.youtube.com/watch?v=W6uaUHBNFOU) video vedrai che la 3070 modificata con 16Gb ha un bel boost :D

A parte che un video del genere non si dovrebbe montare facendo dei tagli, ma mostrandolo per intero da quando si impostano i settaggi grafici fino al caricamento della partita...ma comunque, RE4 l'ho giocato a 1440p maxato, e non ho avuto quei problemi di stuttering, quindi non so quanto possa essere affidabile.

LkMsWb
01-05-2023, 18:42
Sottoscrivo Orazio, e aggiungo che visto la concorrenza assente, paradossalmente per i videogiocatori a questo punto sarebbe meglio che AMD non esistesse proprio visto le limitazioni che impone ai propri giochi sponsorizzati, prima fra tutte la mancanza del DLSS che io vedo come la panacea da tutti i mali dei videogiochi. Fateci caso, i giochi che all'uscita girano peggio di tutti sono sempre quelli che non hanno il DLSS, Callisto e Jedi Survivor che io considero entrambi spendidi come giochi ma piagati dalla sponsorizzazione AMD che li rovina.

Perdonami, ma il paradosso che il male è AMD perché impone la mancanza di DLSS che è una feature esclusiva di una casa non riesco a leggerlo senza commentarlo. FSR è inferiore, siamo d'accordo, ma gira su tutto l'hardware, anche quello pre-dlss, e negli standard nVidia è sempre stata chiusa (a torto o a ragione non discuto).

Piuttosto, a parte titoli path tracing o ray tracing pesante, non capisco perché con i giochi di oggi si necessiti di render scaling per riuscire a giocare decentemente, anche con VGA che pochi anni fa ci sognavamo ;)

StylezZz`
01-05-2023, 18:47
edit

Salfox
01-05-2023, 18:55
Perdonami, ma il paradosso che il male è AMD perché impone la mancanza di DLSS che è una feature esclusiva di una casa non riesco a leggerlo senza commentarlo.

E' proprio qui il punto non vedo perchè AMD deve imporre agli sviluppatori di non usarlo. Se fossi AMD e conoscendo la pesantezza dei giochi moderni non metterei nessuna restrizione, quello che l'utente vuole usare usa, che sia FSR o DLSS. Il gioco sponsorizzato avrebbe senz'altro più successo.

gixio58
01-05-2023, 19:06
Comunque mi stavano simpatici, però con sta tiritela della vram e il continuo buttarlo "in caciara" cherrypickando titoli mangia vram sta iniziando a stancare. :O
Per carità, la 6800 è un ottimo acquisto sotto i 550 euro, preferibile sicuramente alla 3070 in molti contesti, ma:

1)La rivale dellla 6800 è la 3070 ti(che non è che vada chissà quanto più della liscia, ma in certi contesti +10% di performance possono fare comodo), ma loro continuano imperterriti a confrontarla con la 3070 vanilla.
2) Ormai in quella fascia a poco più di 50/60 euro rimedi una 4070 che ha tutt'alltre performance.
3) Sta passando un messaggio errato, cioè che tutte le gpu con 8gb di vram siano diventati all'improvviso dei cancelli, quando non è così nella stragrande maggioranza dei casi. :rolleyes:

Quoto in toto, da neo possessore di una 4070 ed ex 3070 liscia. Avere 4 GB di VRAM in piu' non ti cambia la vita, in quanto spostare l'asticella delle texture da HIGH a ULTRA nel 99% dei casi non cambia l'esperienza di gioco, soprattutto su uno schermo da 32 pollici in giu'.

ColdWarGuy
01-05-2023, 20:23
Questi transistor sono validi, ma sono meno densi dei 3nmp di TSMC. Bisogna vedere anche lo scaling delle sram. I GAP la seconda gen, sono il 63% più performanti rispetto al PP di ampere a 0,75v.


Cerco di vedere la bottiglia mezza piena, se Samsung pur non avendo il primato di nodo, torna ad essere un alternativa decente ci guadagnamo tutti.


Se una testata equivalente mette una 4070 per fascia vs una 6800, e testa tutti i titoli RT intensive + FG in ogni video, sarebbe catastrofico, ma lecito viste le fasce

Per battere in RT la 6800 basta avanza una 3070, ma secondo HU non importa a nessuno :sofico:

Sono imbarazzanti non per i contenuti ma per la faziosità, quelli che dicono il contrario casualmente hanno la firma prettamente rossa :D

OrazioOC
01-05-2023, 20:28
Per battere in RT la 6800 basta avanza una 3070, ma secondo HU non importa a nessuno :sofico:

Sono imbarazzanti non per i contenuti ma per la faziosità, quelli che dicono il contrario casualmente hanno la firma prettamente rossa :D

Purtroppo quoto, nell'ultimo periodo sono caduti in basso, passi per sottolineare l'importanza della vram in certe situazioni, ma ormai i test delle gpu da parte loro sono tutti focalizzati su quell'aspetto, giusto perchè amd nelle fasce medio/alte farcisce le proprie gpu di molta vram da sempre. :rolleyes:

Voglio vedere però che diranno sulle gpu di fascia media di prossima uscita dotate di 8gb di vram, sia le nvidia che le amd, ci sarà da ridere. :asd:

LkMsWb
01-05-2023, 20:38
E' proprio qui il punto non vedo perchè AMD deve imporre agli sviluppatori di non usarlo. Se fossi AMD e conoscendo la pesantezza dei giochi moderni non metterei nessuna restrizione, quello che l'utente vuole usare usa, che sia FSR o DLSS. Il gioco sponsorizzato avrebbe senz'altro più successo.

Perché nVidia col DLSS ti impone hardware (una RTX), AMD col FSR non può importi hardware, quindi devono togliere direttamente il software ;) . Altrimenti sponsorizzi gli avversari, specie se poi col DLSS hai risultati superiori.

Torno a ripetere che secondo me il problema è la pesantezza ingiustificata dei giochi moderni in rapporto a quanto si vede a schermo, a parte poche eccezioni. Metterci una pezza scalando di risoluzione è permettere agli sviluppatori di continuare a fare 'ste porcate.

Per inciso, Jedi Survivor da fissato di Star Wars l'avrei preso al lancio, uscito come è uscito mi rifiuto, pur avendo una 4090. Se è vero che i soldi veri si fanno al lancio del gioco, beh, ottimizzare potrebbe convenire per fare soldi, se altri utenti la pensano come me sulle spese :sofico:

ColdWarGuy
01-05-2023, 20:40
Purtroppo quoto, nell'ultimo periodo sono caduti in basso, passi per sottolineare l'importanza della vram in certe situazioni, ma ormai i test delle gpu da parte loro sono tutti focalizzati si quell'aspetto, giusto perchè amd nelle fasce medio/alte farcisce le proprie gpu di molta vram da sempre. :rolleyes:

Voglio vedere però che diranno con gpu di fascia media di prossima uscita dotate di 8gb di vram, sia le nvidia che le amd, ci sarà da ridere. :asd:

Ma infatti, esistono altri canali di pari o superiore tiratura simpatizzanti di AMD ma nessuno di questi si è mai prodigato in una sequenza quasi ininterrotta di video sul medesimo argomento, anche perchè chi ha orecchie per intendere capisce al primo giro, non al quinto e alla fine scazzi tutti a prescindere da come la pensano.

nessuno29
01-05-2023, 21:27
Purtroppo quoto, nell'ultimo periodo sono caduti in basso, passi per sottolineare l'importanza della vram in certe situazioni, ma ormai i test delle gpu da parte loro sono tutti focalizzati su quell'aspetto, giusto perchè amd nelle fasce medio/alte farcisce le proprie gpu di molta vram da sempre. :rolleyes:

Voglio vedere però che diranno sulle gpu di fascia media di prossima uscita dotate di 8gb di vram, sia le nvidia che le amd, ci sarà da ridere. :asd:

Sono curioso anche io, così magari finisce anche la critica ad hw unboxed.

mikael84
01-05-2023, 22:16
E intanto Hardware Unboxed rincara la dose sulla questione vram :asd:

https://www.youtube.com/watch?v=KT13s9_5vsI

Altro gioco sponsorizzato AMD che guardacaso esce rotto per giustificare il quantitativo di VRAM...davvero ridicoli.

Nel frattempo TLOU vola sulla mia 3070 con le ultime patch, avessero l'onestà intellettuale di rifare i test con gli ultimi aggiornamenti e mostrare che anche con 8GB gira benissimo...ma ormai si è capito il fine di questi caxxari.

Che poi, ora che lo guardo bene, fateci caso, sulla 6800 è un continuo stutterare, sulla 3070 gira liscissimo.

Sul fatto che in 4k spesso siano praticamente equivalenti la dice tutto, sull'obbiettivo fail del loro video.

Cerco di vedere la bottiglia mezza piena, se Samsung pur non avendo il primato di nodo, torna ad essere un alternativa decente ci guadagnamo tutti.



Per battere in RT la 6800 basta avanza una 3070, ma secondo HU non importa a nessuno :sofico:

Sono imbarazzanti non per i contenuti ma per la faziosità, quelli che dicono il contrario casualmente hanno la firma prettamente rossa :D

Samsung rispetto a TSMC è molto indietro, ma con GAP 2° gen, guadagna un 30% di perf rispetto ai 4nm lpp. mentre TSMC un 18% sul nodo migliore. Quindi in parte recupera. Sono entrambi nodi che permetteranno i 3ghz, salvo rese.

Purtroppo quoto, nell'ultimo periodo sono caduti in basso, passi per sottolineare l'importanza della vram in certe situazioni, ma ormai i test delle gpu da parte loro sono tutti focalizzati su quell'aspetto, giusto perchè amd nelle fasce medio/alte farcisce le proprie gpu di molta vram da sempre. :rolleyes:

Voglio vedere però che diranno sulle gpu di fascia media di prossima uscita dotate di 8gb di vram, sia le nvidia che le amd, ci sarà da ridere. :asd:

Tra un mese, faranno 6800 vs 4060ti.

Ale55andr0
01-05-2023, 22:51
Sono imbarazzanti non per i contenuti ma per la faziosità, quelli che dicono il contrario casualmente hanno la firma prettamente rossa :D

Written from my RTX3070, casualmente ovviamente

Le prestazioni RT della 3070 (..e non solo) nei giochi RT intensivi sono e restano insufficienti per un gameplay "appagante", ergo andare di più di un altra restando sempre nell'ambito della chiavica overall, non è un valore aggiunto, la dotazione di ram patetica (che io sottolineavo 2 anni fa, non oggi "perchè è di moda") fa il resto

Cutter90
01-05-2023, 22:58
Written from my RTX3070, casualmente ovviamente

Le prestazioni RT della 3070 (..e non solo) nei giochi RT intensivi sono e restano insufficienti per un gameplay "appagante", ergo andare di più di un altra restando sempre nell'ambito della chiavica overall, non è un valore aggiunto, la dotazione di ram patetica (che io sottolineavo 2 anni fa, non oggi "perchè è di moda") fa il resto
in 1440p e 1080p con rt la 3070 è una signora scheda. La ram di 8 gb è più che sufficiente ora in quelle risoluzioni. Figuriamoci 2 anni fa.

Se le Sh improvvisamente hanno deciso di non investire in ottimizzazione su pc la colpa non è certo di nvidia....

Ale55andr0
01-05-2023, 23:14
in 1440p e 1080p con rt la 3070 è una signora scheda. La ram di 8 gb è più che sufficiente ora in quelle risoluzioni. Figuriamoci 2 anni fa.

Se le Sh improvvisamente hanno deciso di non investire in ottimizzazione su pc la colpa non è certo di nvidia....

se maxi l'RT a 1440p sulla 3070 in CP2077 tu non conti i frame al secondo, ma i secondi fra un frame e l'altro, e non perchè è ottimizzato male in quel frangente, ma perchè semplicemente la 3070 è del tutto inadeguata a gestirlo ad alto livello a quella risoluzione, ed in buona compagnia di un fiotto di schede anche di fascia superiore. Lo ripeto, non siamo pronti, passeranno almeno due gen prima che l'RT "spinto" sia BEN gestibile e senza barbatrucchi (upscale, frame genrati etc).


Aggiungo, continuo a NON giustificare il risultato a schermo rispetto alla mostruosa perdita di fotogrammi:

https://i.postimg.cc/Y2n885g0/rt4.jpg

Se dell'ultima immagine rispetto quella centrale uno mi dicesse che sta usando un reshade/enb che non un avanzatissimo sistema di illuminazione avveniristico, non avrei alcun modo di smentirlo...


Da notare anche, come con rt attivo si passi a 10 a 13gb di memoria ciucciata (!), giusto a dire quanto sia inaccettabile in una scheda 900 euro, cioè fascia ALTA di media avere 12gb di ram (Ah giusto, una scheda da quasi mille euro non è degna del 4k, mea culpa) e quanto NON sono solo le texture "fighe" o mal compresse a magnare ram all'aumentare dei settings ma tutto il complesso, e che siamo in attesa di motori next gen che no n saranno clementi se legogno che hai una 3070 nel case....e che i 68 frame li sta facendo una QUARANTANOVANTA, non una 3070, anche a 1440p vi lascio immaginare che accadrebbe con quella scheda...

mikael84
01-05-2023, 23:38
La 4070ti non è scheda pura da 4k. In 1440p riesco a tirare l'overdrive a 45-50 fps con DLSS quality io, immagina quella con anche il DLSS3. In g-sync volendo lo giochi benissimo anche sotto i 60.
Se poi mi devo giocare il raster a 80 fps con TAA vs overdrive DLSS, abissalmente meglio la seconda.
Per inciso 7,5gb di vram.

Cutter90
01-05-2023, 23:39
se maxi l'RT a 1440p sulla 3070 in CP2077 tu non conti i frame al secondo, ma i secondi fra un frame e l'altro, e non perchè è ottimizzato male in quel frangente, ma perchè semplicemente la 3070 è del tutto inadeguata a gestirlo ad alto livello a quella risoluzione, ed in buona compagnia di un fiotto di schede anche di fascia superiore. Lo ripeto, non siamo pronti, passeranno almeno due gen prima che l'RT "spinto" sia BEN gestibile e senza barbatrucchi (upscale, frame genrati etc).


Aggiungo, continuo a NON giustificare il risultato a schermo rispetto alla mostruosa perdita di fotogrammi:

https://i.postimg.cc/Y2n885g0/rt4.jpg

Se dell'ultima immagine rispetto quella centrale uno mi dicesse che sta usando un reshade/enb che non un avanzatissimo sistema di illuminazione avveniristico, non avrei alcun modo di smentirlo...


Da notare anche, come con rt attivo si passi a 10 a 13gb di memoria ciucciata (!), giusto a dire quanto sia inaccettabile in una scheda 900 euro, cioè fascia ALTA di media avere 12gb di ram (Ah giusto, una scheda da quasi mille euro non è degna del 4k, mea culpa) e quanto NON sono solo le texture "fighe" o mal compresse a magnare ram all'aumentare dei settings ma tutto il complesso, e che siamo in attesa di motori next gen che no n saranno clementi se legogno che hai una 3070 nel case....e che i 68 frame li sta facendo una QUARANTANOVANTA, non una 3070, anche a 1440p vi lascio immaginare che accadrebbe con quella scheda...

Il perché non debba esser gestito senza " barbatrucchi" solo tu lo sai. IP FG non ha difetti in pratica
Lasciamo stare. Resta valido il mio commento di prima.

EffeX
01-05-2023, 23:47
in 1440p e 1080p con rt la 3070 è una signora scheda. La ram di 8 gb è più che sufficiente ora in quelle risoluzioni. Figuriamoci 2 anni fa.

Se le Sh improvvisamente hanno deciso di non investire in ottimizzazione su pc la colpa non è certo di nvidia....

La questione non è solo ottimizzazione: 8 GB di vram li vediamo dal 2016, montati non solo sulla 1080, ma anche sulla 1070.
È naturale che dopo 7 anni 8 GB inizino a stare stretti, anche perché fino ad adesso abbiamo avuto un periodo di transizione cross gen, ora coi titoli next si hanno le prime avvisaglie sui limiti di avere le dimensioni della vram ferme a 7 anni fa.
8 GB vanno bene per il FullHD e basta da qui in avanti.
Sì giocherà a risoluzioni più alte con 8 GB? Sì, ma a patto di scalare i dettagli o usare DLSS.
Io stesso con alcuni giochi iniziavo ad avere problemi di saturazione vram a 1440p senza DLSS con la 3070Ti, quindi un limite effettivamente inizia ad esserci e parlo di giochi usciti lo scorso anno, non ora.
Che poi fossero giochi ottimizzati male può anche darsi, ma mettiamoci in testa che DLSS + compagnia e RT sono arrivati anche per semplificare la vita agli sviluppatori, quindi non stupiamoci se vedremo sempre più titoli con scarsa ottimizzazione.

Ale55andr0
01-05-2023, 23:50
La 4070ti non è scheda pura da 4k. .

Allora vendimela a 599, come una 3070 "per il 2k"

La 4070ti non è scheda pura da 4k. In 1440p riesco a tirare l'overdrive a 45-50 fps con DLSS quality io, immagina quella con anche il DLSS3. In g-sync volendo lo giochi benissimo anche sotto i 60.
Se poi mi devo giocare il raster a 80 fps con TAA vs overdrive DLSS, abissalmente meglio la seconda.
Per inciso 7,5gb di vram.

si, con l'upscale da 1080 e una 3080, non 3070 che è un "filino" inferiore....


Lasciamo stare. Resta valido il mio commento di prima.

Per te sicuro


La questione non è solo ottimizzazione: 8 GB di vram li vediamo dal 2016, montati non solo sulla 1080, ma anche sulla 1070.



AMD RX480 :rotfl:

EffeX
02-05-2023, 00:02
Allora vendimela a 599, come una 3070 "per il 2k"

Ma fai anche 499$, il punto di queste schede è quello gira che ti rigira, le prestazioni ci sono, sono i prezzi che son troppo esagerati.

AMD RX480 :rotfl:

Il discorso è che sempre 7 anni di 8 GB di vram sono, quindi o erano esageratamente sovradimensionati nel 2016 oppure fino ad ora hanno sviluppato i giochi su motori grafici tarati per funzionare su target di schede vecchie di 7 anni, ed ora coi primi UE5 e compagnia vediamo effettivamente cosa ci sta riservando il futuro.

mikael84
02-05-2023, 01:30
Allora vendimela a 599, come una 3070 "per il 2k"

Sui prezzi non discuto, sono chip x60 alla fine. Bisognerebbe chiedere agli AIB che ne pensano, visto che, parole di Igor, stanno risparmiando nell'induttore per marginare qualcosa su schede come la 4070 liscia.:p


si, con l'upscale da 1080 e una 3080, non 3070 che è un "filino" inferiore....

No, è sempre 1440p più DLSS, 1080p è un'altra cosa (che con DLSS scala anche meno, ma è diverso). :)






AMD RX480 :rotfl:





Il discorso è che sempre 7 anni di 8 GB di vram sono, quindi o erano esageratamente sovradimensionati nel 2016 oppure fino ad ora hanno sviluppato i giochi su motori grafici tarati per funzionare su target di schede vecchie di 7 anni, ed ora coi primi UE5 e compagnia vediamo effettivamente cosa ci sta riservando il futuro.

Dalla rx 480 o 1080/70 o gen equivalente c'è stato il passaggio ad 1gb per 32bit contro i classici 512mb x 32 bit.
La Titan RTX (quadro) e le navi 2x hanno introdotto la doppia densità g6, raddoppiando di fatto la memoria x bus
Le schede attuali la introducono ma sono legate al bus ridicolo.:)

Infatti ci sarà 7700xt 12gb vs 4070ti 12gb, solo che la seconda sarà drasticamente più potente, ma il taglio chip è quello.

Cutter90
02-05-2023, 10:35
https://www.youtube.com/watch?v=HAH_38NtuAY

Un confronto in 1440p 3070 vs 6700 xt con giochi recenti

appleroof
02-05-2023, 10:43
https://www.youtube.com/watch?v=HAH_38NtuAY

Un confronto in 1440p 3070 vs 6700 xt con giochi recenti

uno su tutti mi ha colpito GOW, alloca molta più ram di sistema rispetto alla 6700xt, ma va comunque meglio sulla verde

https://i.postimg.cc/TL1PWg5N/gow.png (https://postimg.cc/TL1PWg5N)

Ubro92
02-05-2023, 10:49
https://www.youtube.com/watch?v=HAH_38NtuAY

Un confronto in 1440p 3070 vs 6700 xt con giochi recenti

Bene o male siamo a un + o - 10% a favore dell'una o dell'altra a seconda dell'engine, escludendo ovviamente il RT.

Più che altro un dato che si nota spesso è la ram occupata che sulle schede nvidia è notevolmente maggiore anche quando la vram non è completamente allocata.

Nel video che hai linkato ad esempio, su Hitman 3 la 3070 alloca circa 5GB di vram mentre la ram alloca 16/24GB, osservando la 6700xt in vram alloca circa 6GB e in ram solo 9/24GB.

Anche in altri titoli si verificano situazioni simili anche se in forma più contenuta.

HSH
02-05-2023, 12:02
https://videocardz.com/newz/nvidia-lowers-geforce-rtx-4090-fe-price-in-europe-now-up-to-9-cheaper-than-original-msrp

Scendono ancora, dal sito ufficiale Italia:

4090 1789
4080 1349
4070 669

dai altri 100€ e la 4070 potrà essere comprabile :D

Gilgamessh
02-05-2023, 12:23
Buongiorno
lo statistic server di afterburner è possibile non farlo avviare se non viene utilizzato? vedo che in ogni modo lo setti comunque lo trovo avviato in maniera ridotta.

mikael84
02-05-2023, 12:29
uno su tutti mi ha colpito GOW, alloca molta più ram di sistema rispetto alla 6700xt, ma va comunque meglio sulla verde

https://i.postimg.cc/TL1PWg5N/gow.png (https://postimg.cc/TL1PWg5N)

A me colpisce che prendiate questo video come reale.:D
24gb di ram con 3x8, ma che roba è...

Cmq anche la 6700xt alloca naturalmente tanta ram.:)

appleroof
02-05-2023, 12:35
A me colpisce che prendiate questo video come reale.:D
24gb di ram con 3x8, ma che roba è...

Cmq anche la 6700xt alloca naturalmente tanta ram.:)

mi sono chiesto anche io il perchè di quel quantitativo di ram, ma non è bastato per farmelo considerare fake :asd:

StylezZz`
02-05-2023, 12:35
https://www.youtube.com/watch?v=HAH_38NtuAY

Un confronto in 1440p 3070 vs 6700 xt con giochi recenti

I recenti porting disastrosi (sponsored by amd) hanno modificato la percezione di queste schede, adesso la gente crede che i 12GB della 6700 XT permettono di fare +15/20fps rispetto la 3070, senza rendersi conto che giochi come TLOU erano rotti al lancio (soprattutto su nvidia con schede da 8GB) e necessitavano di aggiornamenti (ancora adesso non sono perfetti e vanno migliorati).

La situazione OGGI è questa (ho usato gli stessi settaggi di quel video, eccetto Motion Blur e DOF), da considerare anche che io ho un 5600 e non un 5800x3D:

https://www.youtube.com/watch?v=2lY6c0kJXMU

Lo stesso vale anche per altri giochi come RE4 che con gli ultimi aggiornamenti è migliorato e che ho avuto il piacere di godermelo maxato a 1440p.

Mi dispiace per chi ci casca vedendo questi video, ma la verità è che siamo tutti vittime di questa industria malata, complici anche i vari utubers come hwunboxed che fanno disinformazione.

amon.akira
02-05-2023, 14:32
https://videocardz.com/newz/nvidia-lowers-geforce-rtx-4090-fe-price-in-europe-now-up-to-9-cheaper-than-original-msrp

Scendono ancora, dal sito ufficiale Italia:

4090 1789
4080 1349
4070 669

l avevo detto qualche giorno fa...

nvidia "neanche la bocca devi aprire..." :D

https://www.hwupgrade.it/forum/showpost.php?p=48183098&postcount=98221

Ale55andr0
02-05-2023, 17:28
No, è sempre 1440p più DLSS, 1080p è un'altra cosa (che con DLSS scala anche meno, ma è diverso). :)

sai bene che DLSS quality 1440p renderizza partendo da 1080p effettivi

mikael84
02-05-2023, 17:38
sai bene che DLSS quality 1440p renderizza partendo da 1080p effettivi

960... ma non è quello il punto. Sei sempre a 1440p più lo scaler. Non stai impostando direttamente quella res, è diverso.;)

Ale55andr0
02-05-2023, 17:39
960... ma non è quello il punto. Sei sempre a 1440p più lo scaler. Non stai impostando direttamente quella res, è diverso.;)

pure :asd:

cmq hai capito bene che intendo

mikael84
02-05-2023, 17:52
pure :asd:

cmq hai capito bene che intendo

Si, ma l'immagine viene letteralmente ricostruita dall'AI. Non stai giocando come un 960p. :p Capisco che a te non piaccia, ma è una soluzione diversa. :)

devil_mcry
02-05-2023, 17:56
Si, ma l'immagine viene letteralmente ricostruita dall'AI. Non stai giocando come un 960p. :p Capisco che a te non piaccia, ma è una soluzione diversa. :)

tanto più che in qualità è davvero improbabile trovare differenze, è solo una questione mentale

mikael84
02-05-2023, 18:04
tanto più che in qualità è davvero improbabile trovare differenze, è solo una questione mentale

Esattamente, io l'attivo sempre, e sfrutto l'alto refresh. In determinati giochi, dove possibile attivo il DLAA, che è davvero sublime, ma pesante per certe GPU. In base alle res:)

OrazioOC
02-05-2023, 18:22
Tra un mese, faranno 6800 vs 4060ti.

Non mi sorprenderebbe, perchè tanto è una 3070 2.0. :rolleyes:

mikael84
02-05-2023, 19:31
Non mi sorprenderebbe, perchè tanto è una 3070 2.0. :rolleyes:

Beh si, lui veramente ha pure un altro chip severamente devastato, ovvero AD104 con 6144 e 160bit/10gb. Levando qualche cc, poteva essere anche quella la 4060ti.

Igor cmq ribadisce sempre che gli AIB stanno facendo i salti mortali, anche risparmiando sul singolo induttore per avere un minimo di margine (che dai grafici è in picchiata). Secondo quanto riferito, ridicolizzando la 4070 hanno aumentato un 10% di margine.

La realtà è che ormai pare veramente difficile creare prodotti di fascia bassa decenti, considerando i rapporti di margine AIB.
Solo JHH si sta ingrassando.

Se un 294mm2 a full rese gli mette in difficoltà, non fa pensare bene per il futuro.

devil_mcry
02-05-2023, 19:34
onestamente da un lato direi "dovrebbero fare come evga" dall'altra boh rimarremo fregati anche noi

che merda bisognerebbe passare tutti su amd

OrazioOC
02-05-2023, 19:39
Beh si, lui veramente ha pure un altro chip severamente devastato, ovvero AD104 con 6144 e 160bit/10gb. Levando qualche cc, poteva essere anche quella la 4060ti.

Igor cmq ribadisce sempre che gli AIB stanno facendo i salti mortali, anche risparmiando sul singolo induttore per avere un minimo di margine (che dai grafici è in picchiata). Secondo quanto riferito, ridicolizzando la 4070 hanno aumentato un 10% di margine.

La realtà è che ormai pare veramente difficile creare prodotti di fascia bassa decenti, considerando i rapporti di margine AIB.
Solo JHH si sta ingrassando.

Se un 294mm2 a full rese gli mette in difficoltà, non fa pensare bene per il futuro.

Più guardo sti pcb e più mi sembrano fatti di cartone, e dire che sono gpu da quasi 700 euro, roba da 1080 ti di 5 anni fa che aveva tutt'altra fattura rispetto all'odierna 4070 che sta su quel listino. :doh:
Se non riescono a far margini con quel francobollo della 4060 con ad107 sparato a 300 e rotti dollari meglio cambiare proprio mestiere. :rolleyes:

OrazioOC
02-05-2023, 19:55
https://videocardz.com/newz/two-and-a-half-years-since-launch-geforce-rtx-3070-price-finally-drops-below-msrp

La pace dei sensi insomma. :rolleyes:

gixio58
02-05-2023, 19:55
I recenti porting disastrosi (sponsored by amd) hanno modificato la percezione di queste schede, adesso la gente crede che i 12GB della 6700 XT permettono di fare +15/20fps rispetto la 3070, senza rendersi conto che giochi come TLOU erano rotti al lancio (soprattutto su nvidia con schede da 8GB) e necessitavano di aggiornamenti (ancora adesso non sono perfetti e vanno migliorati).

La situazione OGGI è questa (ho usato gli stessi settaggi di quel video, eccetto Motion Blur e DOF), da considerare anche che io ho un 5600 e non un 5800x3D:

https://www.youtube.com/watch?v=2lY6c0kJXMU

Lo stesso vale anche per altri giochi come RE4 che con gli ultimi aggiornamenti è migliorato e che ho avuto il piacere di godermelo maxato a 1440p.

Mi dispiace per chi ci casca vedendo questi video, ma la verità è che siamo tutti vittime di questa industria malata, complici anche i vari utubers come hwunboxed che fanno disinformazione.


ho avuto una 3070 fino a ieri, avendo giocato i medesimi titoli con 16gb di ram (TLOU dopo che è stato patchato sul fronte del consumo VRAM) confermo tutto. Ottima esperienza, e lo sottolineo da neo possessore di 4070. Vogliono convincerti che ce l'hai corto se hai poca VRAM, ma forse sottovalutano il fatto che Nvidia ha la leggerissima tendenza a tirare il mercato :sofico:

Tutto ciò mi ricorda un amico che nel 2003 circa aveva una radeon 9200 da 128MB e io una 9000pro da 64MB, pensava di avere una scheda che andasse generalmente meglio della mia :D

Già allora spopolavano i discorsi sulla quantità di vram che era piu' che altro specchio per le allodole

Adesso mi godo il DLSS3, consumi ridotti e 4GB in piu' che non fanno certo male, con la convinzione che finchè il minimo comun denominatore è l'HW della PS5/Xbox l'asticella dei requisiti non si sposterà piu' di tanto (al netto del fatto che ci saranno sempre titoli che al lancio richiedono un buon 20% di risorse in + di quanto ne richiederanno dopo patchati)
Al massimo fra un paio d'anni ridurrò le texture di una tacca (differenze fra ultra incubo e ultra IMPERCETTIBILI) come feci già appena montata la 3070 con Doom Eternal per giocarlo in 4k. Senza lamentarmi, perchè per il resto sono stato soddisfattissimo delle prestazioni di questa schedina

A proposito di 4070: ricordo che siamo ancora ai primissimi driver, meglio giudicare le prestazioni fra qualche tempo. :)

Ale55andr0
02-05-2023, 21:06
Si, ma l'immagine viene letteralmente ricostruita dall'AI. Non stai giocando come un 960p. :p Capisco che a te non piaccia, ma è una soluzione diversa. :)

non hai capito allora che intendevo: che è ovvio che fai più frame col "barbatrucco" di far lavorare la gpu partendo una res più bassa dell'outpu a livello elaborativo, è proprio per quello che va più forte

tanto più che in qualità è davvero improbabile trovare differenze, è solo una questione mentale

ma quando mai, specialmente in CP2077 su nota subito, sia a livello di nitidezza che a livello di stabilità del quadro a livello di imperfezioni reti, recinzioni etc. La questione "mentale" per me è per chi ha deciso che non si vede differenza, io LA VEDO, degli altri, rispettosamente, me ne batto, decidono i miei occhi per me, non quelli altrui. Gioco per gioco (di quelli in mio possesso) ho sempre pure ben detto in cosa e come cambia fra DLSS quality e nativa, eh si', perchè il bello è che non da' risultati uniformi in tutti allo stesso modo...

Ale55andr0
02-05-2023, 21:16
https://videocardz.com/newz/two-and-a-half-years-since-launch-geforce-rtx-3070-price-finally-drops-below-msrp

La pace dei sensi insomma. :rolleyes:

Assolutamente, contentissimo ...di averla venduta :asd: specialmente vista la notizia :D

Cmq vi lascio in pace :O , che è un impresa postare coi problemi di linea Iliad, pare na 56k :rolleyes:

fraussantin
02-05-2023, 21:17
Assolutamente, contentissimo ...di averla venduta :asd: specialmente vista la notizia :DChe scheda hai preso?

ColdWarGuy
02-05-2023, 21:18
Written from my RTX3070, casualmente ovviamente

Le prestazioni RT della 3070 (..e non solo) nei giochi RT intensivi sono e restano insufficienti per un gameplay "appagante", ergo andare di più di un altra restando sempre nell'ambito della chiavica overall, non è un valore aggiunto, la dotazione di ram patetica (che io sottolineavo 2 anni fa, non oggi "perchè è di moda") fa il resto

Ti stai lasciando suggestionare dalla stampa scandalistica del settore (esempio HU) ed hai sempre e solo usato la tua 3070 su un sistema completamente inadeguato che l'ha strozzata in una misura che noto non hai ancora compreso.

La 3070 probabilmente stata la migliore x70 di sempre, adesso che l'hai venduta per un vero upgrade dovresti prendere almeno una 4070 Ti od una 7900XT e da quello che intuisco il tuo budget è significativamente più basso, anche perchè dovrai sostituire tutto il resto.

Ergo, non hai fatto un affare.

RedPrimula
02-05-2023, 21:24
non hai capito allora che intendevo: che è ovvio che fai più frame col "barbatrucco" di far lavorare la gpu partendo una res più bassa dell'outpu a livello elaborativo, è proprio per quello che va più forte



ma quando mai, specialmente in CP2077 su nota subito, sia a livello di nitidezza che a livello di stabilità del quadro a livello di imperfezioni reti, recinzioni etc. La questione "mentale" per me è per chi ha deciso che non si vede differenza, io LA VEDO, degli altri, rispettosamente, me ne batto, decidono i miei occhi per me, non quelli altrui. Gioco per gioco (di quelli in mio possesso) ho sempre pure ben detto in cosa e come cambia fra DLSS quality e nativa, eh si', perchè il bello è che non da' risultati uniformi in tutti allo stesso modo...

Ciao, ho visto che hai venduto la 3070. Su quale GPU sei orientato ora?

Comunque per me ben venga il DLSS. Laddove presente lo sto attivando in modalità Quality e mi sta dando buoni risultati (Hogwarts Legacy, Horizon Zero Dawn).

kiwivda
02-05-2023, 21:26
non hai capito allora che intendevo: che è ovvio che fai più frame col "barbatrucco" di far lavorare la gpu partendo una res più bassa dell'outpu a livello elaborativo, è proprio per quello che va più forte



ma quando mai, specialmente in CP2077 su nota subito, sia a livello di nitidezza che a livello di stabilità del quadro a livello di imperfezioni reti, recinzioni etc. La questione "mentale" per me è per chi ha deciso che non si vede differenza, io LA VEDO, degli altri, rispettosamente, me ne batto, decidono i miei occhi per me, non quelli altrui. Gioco per gioco (di quelli in mio possesso) ho sempre pure ben detto in cosa e come cambia fra DLSS quality e nativa, eh si', perchè il bello è che non da' risultati uniformi in tutti allo stesso modo...

Di sta tua crociata veramente non se ne può più, vedrai che come avrai una scheda con DLSS3 e Frame Generator, ma soprattutto un monitor, considerando il tuo occhio di falco, non potrai farne a meno, e non potrà essere diversamente.

Ale55andr0
02-05-2023, 21:37
Che scheda hai preso?

Nessuna

Ti stai lasciando suggestionare dalla stampa scandalistica del settore (esempio HU) ed hai sempre e solo usato la tua 3070 su un sistema completamente inadeguato che l'ha strozzata in una misura che noto non hai ancora compreso.

La 3070 probabilmente stata la migliore x70 di sempre, adesso che l'hai venduta per un vero upgrade dovresti prendere almeno una 4070 Ti od una 7900XT e da quello che intuisco il tuo budget è significativamente più basso, anche perchè dovrai sostituire tutto il resto.

Ergo, non hai fatto un affare.

Non mi sono fatto influenzare da nulla: sono mesi che lo dico, la stampa ancora manco si era alzata per il caffè...;)

Ciao, ho visto che hai venduto la 3070. Su quale GPU sei orientato ora?

su nessuna in particolare, al momento le trovo tutte piazzate malissimo, eccetto la 4090 ma di certo non spendo 1600 euro per una GPU

Comunque per me ben venga il DLSS. Laddove presente lo sto attivando in modalità Quality e mi sta dando buoni risultati (Hogwarts Legacy, Horizon Zero Dawn).


Come detto il risultato dipende molto dal gioco

Di sta tua crociata veramente non se ne può più, vedrai che come avrai una scheda con DLSS3 e Frame Generator, ma soprattutto un monitor, considerando il tuo occhio di falco, non potrai farne a meno, e non potrà essere diversamente.

contaci


Solo JHH si sta ingrassando


che merda bisognerebbe passare tutti su amd

CVD
...non ti preoccupare potrai ancora finanziare a lungo le giacche di JJH coso la', e Lisona se ne farà una ragione ;)

gixio58
02-05-2023, 21:56
Alessandro, fai un bel downgrade: prendi una scheda piu' vecchia tipo una 1080 da 11gb (visto che per te conta TANTISSIMO l'argomento VRAM), cosi' avrai una configurazione perfettamente (o quasi) bilanciata al resto (leggasi Ryzen scrauso di prima gen)

Sto scherzando :D

Se il tuo budget è risicato prenditi una PS5 e DIVERTITI SERENAMENTE: magari infatti ti torna anche la voglia di giocare e non solo di guardare qualità dell'immagine/frames :)
In caso contrario mi sbaglierò ma imho non sarai mai contento e verrai sempre qua a lagnarti di che "roito" (che strano però che tu non faccia MAI riferimento alla CPU, il vero elefante nella stanza) di GPU hai in firma.

Per quanto riguarda il DLSS2 e Cyberpunk cmq hai ragione, la differenza su pavimentazioni e ringhiere la vedo anch'io. Il 3 non l'ho ancora provato...è innegabile che cmq Nvidia abbia deciso di seguire la strada del perfezionamento di queste tecnologie, a beneficio di consumi e Vram utilizzata. I competitor rispondono a suon di quantità ram/forza bruta in raster. Continuo a preferire Nvidia.

mikael84
02-05-2023, 22:29
onestamente da un lato direi "dovrebbero fare come evga" dall'altra boh rimarremo fregati anche noi

che merda bisognerebbe passare tutti su amd

AMD però è non pervenuta. Chi ha GA102 ha ben poco interesse a passare ad una AMD, salvo abbia la fobia della ram. Spendere per spendere prendo una 4080 e via.
Lo stesso chi vuole upgradare da 3070, o si butta in fasce da 900 euro, o prende schede di 3 anni fa, oppure prende una 4070.:)

Più guardo sti pcb e più mi sembrano fatti di cartone, e dire che sono gpu da quasi 700 euro, roba da 1080 ti di 5 anni fa che aveva tutt'altra fattura rispetto all'odierna 4070 che sta su quel listino. :doh:
Se non riescono a far margini con quel francobollo della 4060 con ad107 sparato a 300 e rotti dollari meglio cambiare proprio mestiere. :rolleyes:

I PCB sono tutti riciclati dalle x60-70 scorse, hanno anche gli slot ram vuoti dei 256bit.:)
Cmq in questa fascia, non serve neppure tutta questa complessità, alla fine pagare una mega custom bloccata a 220watt ha poco senso, a sto punto vai di 4070ti.

non hai capito allora che intendevo: che è ovvio che fai più frame col "barbatrucco" di far lavorare la gpu partendo una res più bassa dell'outpu a livello elaborativo, è proprio per quello che va più forte



Si che ti ho capito, hai uno scaling a quella res, quindi fai molti più frame, ma l'immagine viene rielaborata, quindi ci guadagni senza grande perdita, anzi in qualche gioco non fa rimpiangere la nativa più quello schifo di TAA, oltre che levare lo shimmering.

Anche il DSR, DLDSR sono barbatrucchi, creano maschere di subpixel, facendoti credere di giocare a res più alte, ma sempre a 1440p sei.:)





CVD
...non ti preoccupare potrai ancora finanziare a lungo le giacche di JJH coso la', e Lisona se ne farà una ragione ;)

Io almeno ho finanziato un utente, non JHH direttamente .:asd: :asd:
JHH sta ancora aspettando.

devil_mcry
02-05-2023, 22:34
AMD però è non pervenuta. Chi ha GA102 ha ben poco interesse a passare ad una AMD, salvo abbia la fobia della ram. Spendere per spendere prendo una 4080 e via.
Lo stesso chi vuole upgradare da 3070, o si butta in fasce da 900 euro, o prende schede di 3 anni fa, oppure prende una 4070.:)



I PCB sono tutti riciclati dalle x60-70 scorse, hanno anche gli slot ram vuoti dei 256bit.:)
Cmq in questa fascia, non serve neppure tutta questa complessità, alla fine pagare una mega custom bloccata a 220watt ha poco senso, a sto punto vai di 4070ti.



Si che ti ho capito, hai uno scaling a quella res, quindi fai molti più frame, ma l'immagine viene rielaborata, quindi ci guadagni senza grande perdita, anzi in qualche gioco non fa rimpiangere la nativa più quello schifo di TAA, oltre che levare lo shimmering.

Anche il DSR, DLDSR sono barbatrucchi, creano maschere di subpixel, facendoti credere di giocare a res più alte, ma sempre a 1440p sei.:)



Io almeno ho finanziato un utente, non JHH direttamente .:asd: :asd:
JHH sta ancora aspettando.

nell'immediato hai ragione, Però saltando una gen potrebbe cambiare la cosa

onestamente ho sempre preso nvidia dalla 460 in poi prima per il physx poi per i gameworks poi per il ray tracing da quel punto di vista hanno sempre offerto un qualcosa di più a prezzi su per giù allineati

ora pero stanno facendo di tutto per farti desistere XD

EffeX
02-05-2023, 23:12
Tutto ciò mi ricorda un amico che nel 2003 circa aveva una radeon 9200 da 128MB e io una 9000pro da 64MB, pensava di avere una scheda che andasse generalmente meglio della mia :D

Già allora spopolavano i discorsi sulla quantità di vram che era piu' che altro specchio per le allodole

Infatti già che hai citato quei tempi, era proprio Nvidia a caricare le FX con più vram per renderle appetibili perché scarse nei calcoli fp, vedi la FX 5900 Ultra con 256 MB che le prendeva dalla Radeon 9800 pro con 128 MB...
La verità è che Nvidia non è una onlus e non lo è nemmeno AMD, se ne han la possibilità entrambe fanno le peggio porcate, dipende da chi ha vantaggio...

mikael84
02-05-2023, 23:14
nell'immediato hai ragione, Però saltando una gen potrebbe cambiare la cosa

onestamente ho sempre preso nvidia dalla 460 in poi prima per il physx poi per i gameworks poi per il ray tracing da quel punto di vista hanno sempre offerto un qualcosa di più a prezzi su per giù allineati

ora pero stanno facendo di tutto per farti desistere XD

Il problema è che non è più come un tempo, raster e basta, ora nvidia si sta creando un ecosistema dietro che ti rende difficile cambiare, soprattutto se i prezzi sono allineati.
DLSS (più qualità), DLAA, DLDSR sono tutte cose che dai un certo peso, già sulle fasce più basse o vecchie il DLAA non riesci ad attivarlo.

Se invece mi piazzi 7900xt vs 4070 liscia (non è che AMD deve fare beneficienza preciso, ma sono 2 sku distrutte e letteralmente devastante da 300mm2, senza considerare che è una post 6800 non 6900), beh li sarebbe tutt'altra cosa.
Allora nel suo ha i suoi pro, e pesando le cose, beh... allora si che mi stuzzicherebbero i suoi pro.:)

Ubro92
02-05-2023, 23:42
Il problema è che non è più come un tempo, raster e basta, ora nvidia si sta creando un ecosistema dietro che ti rende difficile cambiare, soprattutto se i prezzi sono allineati.
DLSS (più qualità), DLAA, DLDSR sono tutte cose che dai un certo peso, già sulle fasce più basse o vecchie il DLAA non riesci ad attivarlo.

Se invece mi piazzi 7900xt vs 4070 liscia (non è che AMD deve fare beneficienza preciso, ma sono 2 sku distrutte e letteralmente devastante da 300mm2, senza considerare che è una post 6800 non 6900), beh li sarebbe tutt'altra cosa.
Allora nel suo ha i suoi pro, e pesando le cose, beh... allora si che mi stuzzicherebbero i suoi pro.:)

AMD con le 6000 si è trovata con un nodo di vantaggio, ma già prima da quello che ricordo ha sempre faticato a prendere le top di nvidia.

Addirittura nel periodo di polaris ci si limitava al target di 1060, solo con la 5700xt si è iniziato a tallonare 1080ti/2070s.

Con il passaggio ai 4nm di nvidia si è ripalesata la differenza e con tanto di interessi con la 4090 sul podio, però i prezzi non è che siano diventati concorrenziali, fondamentalmente si allineata ai prezzi nvidia e sta facendo un ambigua campagna basata sulla vram per vendere le ultime 6000 sugli scaffali.

Campagna che potrebbe riversarsi contro quando sfornerà i chip di fascia media e bassa in cui si paleserà questa situazione: 7600xt 8GB vs 6700XT 12GB o 7700XT 12GB vs 6800XT 16GB...

Anche li si presume che come nvidia si passerà a sponsorizzare i vantaggi dell' FSR3.

Ale55andr0
02-05-2023, 23:49
Alessandro, fai un bel downgrade: prendi una scheda piu' vecchia tipo una 1080 da 11gb (visto che per te conta TANTISSIMO l'argomento VRAM), cosi' avrai una configurazione perfettamente (o quasi) bilanciata al resto (leggasi Ryzen scrauso di prima gen)


guarda che verrà sostituito da un 5700X :O

Se il tuo budget è risicato prenditi una PS5

https://www.youtube.com/watch?v=88GOVPswhjc&ab_channel=WebLurker-StuffIfoundontheNet


Per quanto riguarda il DLSS2 e Cyberpunk cmq hai ragione

lo so :O

la differenza su pavimentazioni e ringhiere la vedo anch'io

Bravo, mi compiaQQuo :O ora va' e diffondi il verbo agli ipovedenti e agli indottrinati delle sette nvidianiche :O

...Cmq è tornata la connessione, faccio 960 mega che manco quando l'attivarono ho mai visto, potrò quindi continuare a disturbarvi indisturbato :O




Io almeno ho finanziato un utente, non JHH direttamente .:asd: :asd:
JHH sta ancora aspettando.


Ma può benissimo finire che lo finanzio pure io, ma avendo una dignità lo farei com'è giusto e dignitoso che sia: lamentandomi. Pedantemente e insistentemente :O

X360X
03-05-2023, 00:10
Il problema è che non è più come un tempo, raster e basta, ora nvidia si sta creando un ecosistema dietro che ti rende difficile cambiare, soprattutto se i prezzi sono allineati.
DLSS (più qualità), DLAA, DLDSR sono tutte cose che dai un certo peso, già sulle fasce più basse o vecchie il DLAA non riesci ad attivarlo.

Se invece mi piazzi 7900xt vs 4070 liscia (non è che AMD deve fare beneficienza preciso, ma sono 2 sku distrutte e letteralmente devastante da 300mm2, senza considerare che è una post 6800 non 6900), beh li sarebbe tutt'altra cosa.
Allora nel suo ha i suoi pro, e pesando le cose, beh... allora si che mi stuzzicherebbero i suoi pro.:)

ma il bello è che oggi in Italia AMD tra la fascia bassa e la 7900XT a 800 e passa ha:

una Pulse 6800 su uno shop abbastanza conosciuto a 510 spedita
una XFX 6800XT da un rivenditore straniero su amazon a 590 spedita (600 per la merc, migliore)
lo stesso rivenditore ha una 6950XT a 690 spedita

non so all'estero se hanno più roba, magari pure a svendita che conviene, ma in Italia la 4070 non è che conviene rispetto ad altro, non ce l'ha proprio la concorrenza

mikael84
03-05-2023, 02:39
Infatti già che hai citato quei tempi, era proprio Nvidia a caricare le FX con più vram per renderle appetibili perché scarse nei calcoli fp, vedi la FX 5900 Ultra con 256 MB che le prendeva dalla Radeon 9800 pro con 128 MB...
La verità è che Nvidia non è una onlus e non lo è nemmeno AMD, se ne han la possibilità entrambe fanno le peggio porcate, dipende da chi ha vantaggio...

Quella scheda fu uno dei più grandi fallimenti nvidia, creata in gran collaborazione con gli ingegneri della 3dfx. Per la storia delle FP fu un mezzo disastro, rimediato totalmente dalla serie 6, che rispetto la x800 aveva il 3.0, grave limitazione della serie AMD.
Sulla ram, vale sempre lo stesso discorso, le schede seguivano il bus, quindi entrambe venivano fornite sia con 128 che 256mb, grazie alle varie densità dell'epoca, come oggi abbiamo la 1gb e la 2gb.
Sui transistor, erano quasi densi uguali, 0,5 vs 0,6, poca roba, che si appiano con le serie dopo.:)

AMD con le 6000 si è trovata con un nodo di vantaggio, ma già prima da quello che ricordo ha sempre faticato a prendere le top di nvidia.

Esattamente, come in campo CPU, AMD ha recuperato terreno con i nodi di vantaggio, a nodi simili, per transistor è sempre stata dietro.


Addirittura nel periodo di polaris ci si limitava al target di 1060, solo con la 5700xt si è iniziato a tallonare 1080ti/2070s.

Si a pari nm la differenza c'era, le AMD col tempo facevano in parte la differenza in quanto le fasce medie loro se la giocavano con le basse rivale, portandosi dietro flop e bus. Vedi i 256 bit su una 580. La 1060 ricordo che è stata collegata con un canale a vuoto ai 192bit, quindi non sfruttava neppure le rop's. Era una scheda da 128bit simmetrica.

La 5700x se l'è giocata alla grande passando ai primi 7nm.:)


Con il passaggio ai 4nm di nvidia si è ripalesata la differenza e con tanto di interessi con la 4090 sul podio, però i prezzi non è che siano diventati concorrenziali, fondamentalmente si allineata ai prezzi nvidia e sta facendo un ambigua campagna basata sulla vram per vendere le ultime 6000 sugli scaffali.

Campagna che potrebbe riversarsi contro quando sfornerà i chip di fascia media e bassa in cui si paleserà questa situazione: 7600xt 8GB vs 6700XT 12GB o 7700XT 12GB vs 6800XT 16GB...

Anche li si presume che come nvidia si passerà a sponsorizzare i vantaggi dell' FSR3.

Piccola precisazione, nvidia sta sui 5nm, ma usa una mod di tsmc chiamata 4n, non è proprio un 4nm in perf. Di questi abbiamo una categoria, come maggior densità e performance superiori. Quelli che userà zen 5 praticamente ed intel.

Sul resto, esattamente, la 6800 verrà ripresa dalla 7700xt 12gb. Quindi un passo indietro.

ma il bello è che oggi in Italia AMD tra la fascia bassa e la 7900XT a 800 e passa ha:

una Pulse 6800 su uno shop abbastanza conosciuto a 510 spedita
una XFX 6800XT da un rivenditore straniero su amazon a 590 spedita (600 per la merc, migliore)
lo stesso rivenditore ha una 6950XT a 690 spedita

non so all'estero se hanno più roba, magari pure a svendita che conviene, ma in Italia la 4070 non è che conviene rispetto ad altro, non ce l'ha proprio la concorrenza

Esattamente, questo è purtroppo importante. Che poi la serie 7 sia una sorta di rebrand RDNA3 ok, ma al giorno d'oggi, è impensabile orientarsi su schede di 3 anni fa, con un misero supporto RT, con l'assenza di IA core, che potrebbe pregiudicare il FSR3.
Come ampere, sono schede che vanno acquistate sui mercatini, non si può investire su schede di 3 anni fa, quando parliamo di cifre anche importanti come 5/600 euro.

Trovo infatti inutile vedere comparative sulla 3070 che sui 500 non conviene, beh ma c'è già la sostituta di quella scheda, è praticamente roba che compri a 350 sui mercatini da tempo.

La 4070 è una x60 di base , ma al momento è pari raster ad una 6800xt, ha memoria a sufficienza, è nettamente superiore in RT, ha funzioni serie PT (può gestire piuttosto bene anche l'overdrive di cp), il FG, DLSS, consuma 200 watt. Beh, al momento, non c'è proprio storia.

E parliamo del peggior chip del cattivo JHH.:)

fraussantin
03-05-2023, 07:31
Quella

La 4070 è una x60 di base , ma al momento è pari raster ad una 6800xt, ha memoria a sufficienza, è nettamente superiore in RT, ha funzioni serie PT (può gestire piuttosto bene anche l'overdrive di cp), il FG, DLSS, consuma 200 watt. Beh, al momento, non c'è proprio storia.

E parliamo del peggior chip del cattivo JHH.:)

Questa è una parolona.
Ha memoria a sufficenza per adesso.

Poi per caritá rimane la scheda best buy del momento , anche se io prob non la comprerei e cercherei una 7900xt a poco piu . ( Che poi 100 150 euro non sono pochi anche se purtroppo ce li fanno sembrare )

Ma fra 1 anno e mezzo c'è il serio rischio che 12 giga diventino gli 8 giga di oggi.

Ora se uno cambia scheda ad ogni gen non c'è da farsi troppi problemi , ma siccome qui è sempre peggio .. Boh. Io stavolta prenderei sul serio una amd con più ram, prestazioni rt simili , +20, 30% raster ma rinunciando al dlss .


Certo la.4070 ha il suo perché lato consumi e temperature per i pc piccoli. Praticamente è la nuova 2070 . ( Ho sbagliato a scrivere di mattina presto xD)

X360X
03-05-2023, 08:10
Questa è una parolona.
Ha memoria a sufficenza per adesso.

Poi per caritá rimane la scheda best buy del momento , anche se io prob non la comprerei e cercherei una 7900xt a poco piu . ( Che poi 100 150 euro non sono pochi anche se purtroppo ce li fanno sembrare )

Ma fra 1 anno e mezzo c'è il serio rischio che 12 giga diventino gli 8 giga di oggi.

Ora se uno cambia scheda ad ogni gen non c'è da farsi troppi problemi , ma siccome qui è sempre peggio .. Boh. Io stavolta prenderei sul serio una amd con più ram, prestazioni rt simili , +20, 30% raster ma rinunciando al dlss .


Certo la.4070 ha il suo perché lato consumi e temperature per i pc piccoli. Praticamente è la nuova 2060 .

La nuova 3060Ti, siamo praticamente lì in dimensioni e consumi

PS5 almeno 2/2.5GB li deve tenere per il sistema, che ricordo permette anche di registrare\streammare in qualsiasi momento senza perdita di frames (anche per quello l'8/16 non è totalmente sfruttabile, oltre che è uno Zen2 con frequenza inferiore al desktop)

quindi facciamo 13.5, 14 ad abbondare, di memoria condivisa per gli sviluppatori per i loro giochi.

Pensare si saturino 12GB di VRAM in qhd (il target della 4070) "perché le console ne hanno 16" non è reale, nemmeno 16 condivisi hanno gli sviluppatori. Che 12GB possa essere la misura "safe" molto più reale (e lo è stata anche per due terribili porting come last of us e jedi survivor).

che si potranno spingere opzioni grafiche (e non parlo di robe fatte a culo come hogwarts legacy, magari effetti RT buoni) a tal punto che 12GB vengano sforati...non è da escludere. ma a quel punto una VGA come la 4070 forse tutta quella roba non la digerirebbe bene non per via della VRAM ma dei limiti stessi di quella che resta una 3080 di 3 anni fa come raster in qhd.

Per me nvidia ci ha preso, fa solo ridere che la fascia media sia "a partire a 669 euro", il problema vram nasce da quello. così come vedere la 4070Ti a quel prezzo con 12GB di VRAM e 192bit fa venir voglia di spaccargliele tutte.
sulla 7900XT 16GB già ci stanno meglio (anche se poi la situazione di consumo RAM con RT quando vai male in RT lascia il tempo che trova), di più ovviamente non serve a una mazza

LkMsWb
03-05-2023, 08:14
Certo la.4070 ha il suo perché lato consumi e temperature per i pc piccoli. Praticamente è la nuova 2060 .

Il problema è che la 2060 fece scandalo per il prezzo in quanto -60, ora siamo altri 200/250 euro più in alto, praticamente in 3 generazioni 3x il prezzo di fascia, neanche la 1080 Ti è aumentata 3x prendendo a riferimento la 4090 :D.

Sorrido, ma in realtà sto vivendo un sacco di problemi a far rinnovare il parco macchine in una azienda che seguo dove serve una scheda dedicata (anche se piccola, e possibilmente nvidia per via del software utilizzato, anche se non è strettamente necessario); è difficile far passare 350-400 euro come spesa minima per una azienda che ha sempre avuto preventivi sulla fascia 150-200.

fraussantin
03-05-2023, 08:20
Il problema è che la 2060 fece scandalo per il prezzo in quanto -60, ora siamo altri 200/250 euro più in alto, praticamente in 3 generazioni 3x il prezzo di fascia, neanche la 1080 Ti è aumentata 3x prendendo a riferimento la 4090 :D.

Sorrido, ma in realtà sto vivendo un sacco di problemi a far rinnovare il parco macchine in una azienda che seguo dove serve una scheda dedicata (anche se piccola), è difficile far passare 350-400 euro come spesa minima per una azienda che ha sempre avuto preventivi sulla fascia 150-200.



La nuova 3060Ti, siamo praticamente lì in dimensioni e consumi

PS5 almeno 2/2.5GB li deve tenere per il sistema, che ricordo permette anche di registrare\streammare in qualsiasi momento senza perdita di frames (anche per quello l'8/16 non è totalmente sfruttabile, oltre che è uno Zen2 con frequenza inferiore al desktop)

quindi facciamo 13.5, 14 ad abbondare, di memoria condivisa per gli sviluppatori per i loro giochi.

Pensare si saturino 12GB di VRAM in qhd (il target della 4070) "perché le console ne hanno 16" non è reale, nemmeno 16 condivisi hanno gli sviluppatori. Che 12GB possa essere la misura "safe" molto più reale (e lo è stata anche per due terribili porting come last of us e jedi survivor).

che si potranno spingere opzioni grafiche (e non parlo di robe fatte a culo come hogwarts legacy, magari effetti RT buoni) a tal punto che 12GB vengano sforati...non è da escludere. ma a quel punto una VGA come la 4070 forse tutta quella roba non la digerirebbe bene non per via della VRAM ma dei limiti stessi di quella che resta una 3080 di 3 anni fa come raster in qhd.

Per me nvidia ci ha preso, fa solo ridere che la fascia media sia "a partire a 669 euro", il problema vram nasce da quello. così come vedere la 4070Ti a quel prezzo con 12GB di VRAM e 192bit fa venir voglia di spaccargliele tutte.
sulla 7900XT 16GB già ci stanno meglio (anche se poi la situazione di consumo RAM con RT quando vai male in RT lascia il tempo che trova), di più ovviamente non serve a una mazza

Ho sbagliato a scrivere intendevo la nuova 2070 stamattina dormo ancora xD stessa situazione con la.differenza che all'epoca le 80 costavano meno e gente preferiva quelle.

Sul fatto che nvidia ci abbia preso boh , per me no.

Cioe le sta vendendo come il pane perche le alternative sono peggiori.
Ma vista in un contesto normale dove la x80 non dovrebbe costare il doppio chi se la comprerebbe?

X360X
03-05-2023, 08:32
Ho sbagliato a scrivere intendevo la nuova 2070 stamattina dormo ancora xD spesso impatto sul mercato con la.differenza che all'epoca le 80 costavano meno e gente preferiva quelle.

Sul fatto che nvidia ci abbia preso boh , per me no.

Cioe le sta vendendo come il pane perche le alternative sono peggiori.
Ma vista in un contesto normale dove la x80 non dovrebbe costare il doppio chi se la comprerebbe?

Nel 2020 la 3060Ti costava 439 e la 3080 719, c'è chi non era interessato a spendere ben 719 euro quando le prestazioni della 3060Ti (che nei bench superava la vecchia e ben più costosa 2080 Super) gli bastavano. ma un 50% in più la 3080 mi sa ci andava.

se normalizzi i prezzi e diminuisci lo stacco restano due VGA sensate come furono 3060Ti e 3080. Anzi esclusa la x90 bastavano proprio quelle due e un'altra in fascia bassa.

se poi ieri si giocava bene con 8GB e oggi si ha paura non ne bastino il 50% in più pena scalare dal qhd...forse è un po' psicologica la cosa

Ale55andr0
03-05-2023, 08:34
Cioe le sta vendendo come il pane

mah, veramente o faccio altro che leggere che siamo in modalità scaffale sia per AMD che nvidia, a meno che per te vendere come il pane è smerciarne più di una 4080..e i prezzi continuano a calare, costantemente., shop sempre in disponibilità totale..non è indice di vendite a gonfie vele e i forum/magazine dell'informatica, che sono quelli dove parla chi è interessato a gpu a 600+ euro, non i casualoni, riportano in grande maggioranza che considerano schifezze sovraprezzate questa gen...

fraussantin
03-05-2023, 08:51
Nel 2020 la 3060Ti costava 439 e la 3080 719, c'è chi non era interessato a spendere ben 719 euro quando le prestazioni della 3060Ti (che nei bench superava la vecchia e ben più costosa 2080 Super) gli bastavano. ma un 50% in più la 3080 mi sa ci andava.

se normalizzi i prezzi e diminuisci lo stacco restano due VGA sensate come furono 3060Ti e 3080. Anzi esclusa la x90 bastavano proprio quelle due e un'altra in fascia bassa.

se poi ieri si giocava bene con 8GB e oggi si ha paura non ne bastino il 50% in più pena scalare dal qhd...forse è un po' psicologica la cosa

Si infatti proprio perche costava la metà , ma anche meno perche la 3080 chi l'ha vista disponibile a 720 l'ha presa al volo anche se non gli serviva.
Se la 4080 costasse 800 euro secondo me la vedremmo con un occhio diverso.

Riguardo la ram non è che sia psicologica , io gioco con la 3080 che ne ha 10 , ma se prossime uscitanno tutte con 16+ giga di memoria , gli sviluppatori hanno dimostrato più di una volta di sbatternese delle ottimizzazioni alla prima occasione.
mah, veramente o faccio altro che leggere che siamo in modalità scaffale sia per AMD che nvidia, a meno che per te vendere come il pane è smerciarne più di una 4080..e i prezzi continuano a calare, costantemente., shop sempre in disponibilità totale..non è indice di vendite a gonfie vele e i forum/magazine dell'informatica, che sono quelli dove parla chi è interessato a gpu a 600+ euro, non i casualoni, riportano in grande maggioranza che considerano schifezze sovraprezzate questa gen...

Sui vari gruppi in giro sui social se la stanno comprando in parecchi .

mikael84
03-05-2023, 12:42
Questa è una parolona.
Ha memoria a sufficenza per adesso.

Poi per caritá rimane la scheda best buy del momento , anche se io prob non la comprerei e cercherei una 7900xt a poco piu . ( Che poi 100 150 euro non sono pochi anche se purtroppo ce li fanno sembrare )

Ma fra 1 anno e mezzo c'è il serio rischio che 12 giga diventino gli 8 giga di oggi.

Ora se uno cambia scheda ad ogni gen non c'è da farsi troppi problemi , ma siccome qui è sempre peggio .. Boh. Io stavolta prenderei sul serio una amd con più ram, prestazioni rt simili , +20, 30% raster ma rinunciando al dlss .


Certo la.4070 ha il suo perché lato consumi e temperature per i pc piccoli. Praticamente è la nuova 2070 . ( Ho sbagliato a scrivere di mattina presto xD)

Se leggi il post di ieri, ho proprio parlato dei grossi pro di una 7900xt vs una 4070, ma non la metto nell'equazione in quanto è fascia da 4070ti, quindi è altra cosa (li vanno fatti altri ragionamenti, ed anche li la 7900 ha grossi pro, ma anche contro).
Il fulcro del discorso era incentrato (visto il continuo bombardamento di AMD sulla ram) su schede da 5-600 euro, e da una parte abbiamo 6800/xt vs 4070, e li non c'è proprio storia al momento a 360°.

La 7900xt si fosse chiamata 7800, poteva spaccare il mercato.
Parliamo di due 300mm2 squartati e devastati brutalmente. Chiaramente la 7900xt ha 40$ di cache in più, qualche $ di ram, pcb, è globalmente più cara, chiaro, ma lo è anche una 6700 vs 3070, eppure una ormai la trovi a 350 euro.:)

Si infatti proprio perche costava la metà , ma anche meno perche la 3080 chi l'ha vista disponibile a 720 l'ha presa al volo anche se non gli serviva.
Se la 4080 costasse 800 euro secondo me la vedremmo con un occhio diverso.

Riguardo la ram non è che sia psicologica , io gioco con la 3080 che ne ha 10 , ma se prossime uscitanno tutte con 16+ giga di memoria , gli sviluppatori hanno dimostrato più di una volta di sbatternese delle ottimizzazioni alla prima occasione.


Sui vari gruppi in giro sui social se la stanno comprando in parecchi .

Morirebbero tutte le fasce (compreso la 4080) che non siano 4090-7900, quando sulle 500 e sotto saranno tutte schede da 8gb, forse si reperirà la 7700xt da 12.
Allora a sto punto vendo tutto, compro usata una 3090 e campo di rendita, tanto in raster non è distante dalla 7900, è più potente in RT e spendo 650-700$ :D

devil_mcry
03-05-2023, 12:47
.


Sui vari gruppi in giro sui social se la stanno comprando in parecchi .

anche io vedo la stessa cosa, sui social vanno abbastanza forti

magari vendono meno di quanto vorrebbero i due guerrieri ma cmq non ci sono scaffali pieni a morte ecco

mikael84
03-05-2023, 12:51
anche io vedo la stessa cosa, sui social vanno abbastanza forti

magari vendono meno di quanto vorrebbero i due guerrieri ma cmq non ci sono scaffali pieni a morte ecco

Infatti, vendere vendono. Il problema è che è ben sotto le loro aspettative. Sotto sotto loro speravano di ripetere, almeno in parte, quanto visto col mining.:)

Vul
03-05-2023, 13:00
A me viene l'orticaria quando leggo di prendere una console al posto del pc o viceversa.

Sono due esperienze totalmente incomparabili, a meno che voi il pc non lo teniate attaccato al televisore e ci giocate con un controller bluetooth o le vostre console abbiano attaccato mouse e tastiera per godersi il parco giochi di giochi competivi del pc (da dota a lol a counter strike).

Onestamente la grafica e' davvero l'ultimo dei problemi e a me non me ne frega proprio nulla o quasi, puo' impressionarmi 5 minuti, ma non mi diverte per mesi.

Se c'e` un evoluzione tecnica ben venga, ma non e' che scegliere fra giocare all'uno o l'altro si contano le feature grafiche, a meno che la grafica non sia l'unica cosa che vi interessi ma in tal caso guardatevi un film d'animazione, non i videogiochi.

fraussantin
03-05-2023, 13:00
Se leggi il post di ieri, ho proprio parlato dei grossi pro di una 7900xt vs una 4070, ma non la metto nell'equazione in quanto è fascia da 4070ti, quindi è altra cosa (li vanno fatti altri ragionamenti, ed anche li la 7900 ha grossi pro, ma anche contro).
Il fulcro del discorso era incentrato (visto il continuo bombardamento di AMD sulla ram) su schede da 5-600 euro, e da una parte abbiamo 6800/xt vs 4070, e li non c'è proprio storia al momento a 360°.

La 7900xt si fosse chiamata 7800, poteva spaccare il mercato.
Parliamo di due 300mm2 squartati e devastati brutalmente. Chiaramente la 7900xt ha 40$ di cache in più, qualche $ di ram, pcb, è globalmente più cara, chiaro, ma lo è anche una 6700 vs 3070, eppure una ormai la trovi a 350 euro.:)



Morirebbero tutte le fasce (compreso la 4080) che non siano 4090-7900, quando sulle 500 e sotto saranno tutte schede da 8gb, forse si reperirà la 7700xt da 12.
Allora a sto punto vendo tutto, compro usata una 3090 e campo di rendita, tanto in raster non è distante dalla 7900, è più potente in RT e spendo 650-700$ :DSi si , anche io avevo detto giorni scorsi che amd ha lasciato scoperta la fascia 7800.

fraussantin
03-05-2023, 13:01
A me viene l'orticaria quando leggo di prendere una console al posto del pc o viceversa.



Sono due esperienze totalmente incomparabili, a meno che voi il pc non lo teniate attaccato al televisore e ci giocate con un controller bluetooth o le vostre console abbiano attaccato mouse e tastiera per godersi il parco giochi di giochi competivi del pc (da dota a lol a counter strike).



Onestamente la grafica e' davvero l'ultimo dei problemi e a me non me ne frega proprio nulla o quasi, puo' impressionarmi 5 minuti, ma non mi diverte per mesi.

Vabbe la xbox se la sono in parecchi sul forum per accompagnare un pc vecchio da aggiornare.

Vul
03-05-2023, 13:03
Vabbe la xbox se la sono in parecchi sul forum per accompagnare un pc vecchio da aggiornare.

Cosa assolutamente insensata, sono e rimangono due esperienze videoludiche differenti.

E non sta ne in cielo ne in terra che al posto di un xbox non si aggiorni un pc, con quel budget sul mercatino dell'usato cambi tutti i componenti core per giocare, a meno che tu non stia fermo ad un core duo.

devil_mcry
03-05-2023, 13:06
Infatti, vendere vendono. Il problema è che è ben sotto le loro aspettative. Sotto sotto loro speravano di ripetere, almeno in parte, quanto visto col mining.:)

esatto, probabilmente i numeri sono simili a quelli pre mining. in america soprattutto da quello che vedo

poi qui si spacca il capello in quattro ma per molti sono buone schede prezzi a parte

A me viene l'orticaria quando leggo di prendere una console al posto del pc o viceversa.

Sono due esperienze totalmente incomparabili, a meno che voi il pc non lo teniate attaccato al televisore e ci giocate con un controller bluetooth o le vostre console abbiano attaccato mouse e tastiera per godersi il parco giochi di giochi competivi del pc (da dota a lol a counter strike).

Onestamente la grafica e' davvero l'ultimo dei problemi e a me non me ne frega proprio nulla o quasi, puo' impressionarmi 5 minuti, ma non mi diverte per mesi.

Se c'e` un evoluzione tecnica ben venga, ma non e' che scegliere fra giocare all'uno o l'altro si contano le feature grafiche, a meno che la grafica non sia l'unica cosa che vi interessi ma in tal caso guardatevi un film d'animazione, non i videogiochi.

ormai si può giocare con m+k su console anche ma non ci sono ovviamente quei due giochi di steam tuttavia non è nemmeno detto che interessino a tutti (soprattutto perché multi)

io onestamente ormai preferisco giocare su console o cmq col gamepad

X360X
03-05-2023, 13:18
Cosa assolutamente insensata, sono e rimangono due esperienze videoludiche differenti.

E non sta ne in cielo ne in terra che al posto di un xbox non si aggiorni un pc, con quel budget sul mercatino dell'usato cambi tutti i componenti core per giocare, a meno che tu non stia fermo ad un core duo.

assolutamente sono esperienze differenti, non puoi scegliere i settings preferiti (utili ad esempio a decidere il framerate, e a evitare i drop a 40fps di ER su PS5 :asd: ), non puoi usare qualsiasi controller, non hai le mod e cosette per la grafica, non rende nemmeno uguale qualitativamente se hai una VGA non troppo scarsa, non hai l'ultrawide.
Su PS5 hai pure solo il VRR da 48 a 120 su HDMI2.1 ed esce in qhd da non troppo tempo (Xbox è più compatibile).

Poi non ti fai un PC allo stesso prezzo e quantomeno su PS5 ci sono esclusive che escono su PC "quando gli pare", certe non sono nemmeno state annunciate. FFXVI magari esce tra un anno, Demon Remake magari mai, chissà. hanno il loro target

Ubro92
03-05-2023, 13:40
A me ciò che urta delle console è la poca versatilità, su pc gli stessi titoli acquistati puoi giocarli su fisso, notebook o eventuale handheld.

Anche i vecchi titoli puoi giocarli tranquillamente senza attendere eventuali remaster o porting vari.

Poi è chiaro che ognuno ha esigenze diverse, però chi è abituato a giocare su PC trovo difficile fare un passaggio radicale alle console, trovo più sensato accostarla per giocare eventuali esclusive temporali.

mikael84
03-05-2023, 13:48
esatto, probabilmente i numeri sono simili a quelli pre mining. in america soprattutto da quello che vedo

poi qui si spacca il capello in quattro ma per molti sono buone schede prezzi a parte



Certamente, è il prezzo che fa la scheda. Anche la 1630 è una gran bella scheda per 50 euro, per sostituire l'integrata, soprattutto per chi non l'ha come i ryzen AM4 non g.:)

Cmq discorso console, valeva nel periodo mining, ma oggi, anche sul nuovo trovi schede che partono da 250 ai 350 della stessa casa, che sono equivalenti. Quindi la console è facilmente sostituibile anche in costi, tenendo presente che uno un PC anche modesto lo abbia.

Il problema sono le soluzioni di fasci alta, che su PC sono impazzate, ma un PC like console o da giocatore senza grossissime pretese, è alla portata di tutti.

Ubro92
03-05-2023, 14:03
Ma il problema è per qualsiasi cosa più potente di una 3060ti/6700xt i prezzi schizzano.

Ma anche nella fascia ultra-bassa troviamo la 6500xt che mediamente costa 150€ quando 5 anni fa ci trovavi al medesimo prezzo schede come RX 570 o 1650 Super che andavano meglio e senza strozzature sul pcie, e grosse alternative non ci sono, forse la A380 di intel...

Diciamo che in tutte le fasce c'è un certo degrado, sicuramente siamo messi meglio rispetto al periodo pandemico ma non cosi bene in termini assoluti.

Ale55andr0
03-05-2023, 14:07
S
La 7900xt si fosse chiamata 7800, poteva spaccare il mercato.



Dillo a Lisa, accidenti a lei

devil_mcry
03-05-2023, 14:10
Certamente, è il prezzo che fa la scheda. Anche la 1630 è una gran bella scheda per 50 euro, per sostituire l'integrata, soprattutto per chi non l'ha come i ryzen AM4 non g.:)

Cmq discorso console, valeva nel periodo mining, ma oggi, anche sul nuovo trovi schede che partono da 250 ai 350 della stessa casa, che sono equivalenti. Quindi la console è facilmente sostituibile anche in costi, tenendo presente che uno un PC anche modesto lo abbia.

Il problema sono le soluzioni di fasci alta, che su PC sono impazzate, ma un PC like console o da giocatore senza grossissime pretese, è alla portata di tutti.

purtroppo con le schede di quella fascia non giochi ugualmente bene come su console ma in ogni caso vogliamo ricordarci per piangere quando una x70 o equivalente amd (prima era x850 poi x950) costavano 300€? Non si parla di secoli fa, la gtx 1070 è di 4 gen fa

fraussantin
03-05-2023, 14:12
Cosa assolutamente insensata, sono e rimangono due esperienze videoludiche differenti.

E non sta ne in cielo ne in terra che al posto di un xbox non si aggiorni un pc, con quel budget sul mercatino dell'usato cambi tutti i componenti core per giocare, a meno che tu non stia fermo ad un core duo.Non sono d'accordo.

Se vuoi giocare a un gioco offline non competitivo , e hai a disposizione 500 euro , compri una console , magari usata l'attacchi al monitor e giochi con un controller.

Non avrai la graficona , non avrai 144 fps , ma come esperianza offline economica non è troppo diversa. E te lo dice uno che è pro pc.


Ps anzi visti i porting del cavolo che fanno ultimamente non è escluso che sia una esperienza anche migliore