PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 [394] 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

bagnino89
30-05-2023, 14:38
Se dobbiamo "impostare i giochi in modo corretto" e' l'argomentazione, puoi giocare benissimo a 4k anche con una 6700xt, tanto e' risaputo che tra impostazioni maxate e alte ma non maxate la differenza grafica e' nulla ma il boost prestazionale enorme.

Ma infatti sono d'accordo con te. Io non sono uno di quelli che se non maxa va in paranoia. Cerco sempre un buon bilanciamento tra qualità grafica e prestazioni. Quello che volevo dire prima è che non ci si deve sorprendere di vedere episodi di stuttering su una scheda con 8 GB di VRAM andando a caricarla più di quello che può. Non ci vedo niente di scandaloso, a differenza di HU.

nessuno29
30-05-2023, 14:53
Il punto è che bisogna impostare i giochi in modo corretto... Ho alcuni dei giochi provati in quel video (RE4, TLOU) e non ho quei stutter per il semplice fatto che non vanno messe le texture ad Ultra con 8 GB di VRAM (1440p). Differenze con il setting un gradino più basso? Nessuna. Perché di fatto sono tanti GB di texture allocate. RE4, TLOU, Callisto... Tutti giochi sponsorizzati AMD che non sapendo più che pesci prendere, fa usare ai programmatori tanta VRAM (ai setting più alti) per favorire le sue schede.

Non è colpa di AMD se 8 gb sono pochi, in ogni caso con le ultime patch girano bene, certo le texture sono più brutte però insomma pace.

bagnino89
30-05-2023, 15:01
Non è colpa di AMD se 8 gb sono pochi, in ogni caso con le ultime patch girano bene, certo le texture sono più brutte però insomma pace.

AMD ci ha sempre marciato sulla VRAM (così come Nvidia è sempre stata col braccino corto, sia chiaro). Più brutte, in RE4 e TLOU, no. Provato di persona. Parlo del passare da Ultra all'impostazione più bassa: non cambia una mazza. Ma si risparmiano anche tanti GB a volte.

bagnino89
30-05-2023, 15:25
TLOU è molto bello, sì. Però non ha RT.

Ale55andr0
30-05-2023, 16:16
AMD ci ha sempre marciato sulla VRAM (così come Nvidia è sempre stata col braccino corto, sia chiaro)

O una ha il giusto e l'altra ha il braccino corto, o una ci marcia e l'altra ha il giusto

nessuno29
30-05-2023, 16:23
AMD ci ha sempre marciato sulla VRAM (così come Nvidia è sempre stata col braccino corto, sia chiaro). Più brutte, in RE4 e TLOU, no. Provato di persona. Parlo del passare da Ultra all'impostazione più bassa: non cambia una mazza. Ma si risparmiano anche tanti GB a volte.

Non si può marciare sulla Vram, perché è una cosa solo utile e mai controproducente.

mikael84
30-05-2023, 16:42
O una ha il giusto e l'altra ha il braccino corto, o una ci marcia e l'altra ha il giusto

La ram segue il bus. Non poteva mettere 10gb e 12 sulle 7900, o 8 sulle 6800/6900. La differenza la fa la differenza di fascia.

Le 6600 e 7600 hanno 8gb (128bit), vs la 3060 che ne ha 12 (192bit), idem la 6700 192bit e 12gb..

La 3070 a 16 non te la metteva, sia per la linea delle 3080 che per la proiezione futura, che per i prezzi.

Tecnicamente la sostituzione della cache con i bus in fascia bassa non è il massimo, ma lo è sulla fascia alta, dove mettere bus over 384bit è complesso.

Ale55andr0
30-05-2023, 16:57
La ram segue il bus. Non poteva mettere 10gb e 12 sulle 7900, o 8 sulle 6800/6900. La differenza la fa la differenza di fascia.




Lo abbiamo ripetuto molte volte. Lo sappiamo. Non è una scusa nemmeno per sbaglio, sono eoni che abbiamo i bus a 256 bit in schede da due lire o addirittura 320 e 384 in quelle top, ergo possiamo avere benissimo 16gb o più senza sfangare alcuna fascia o dobbiamo ripetere altrettante volte che 6700xt e A770 sono schede di costo "contenuto" hanno già 12 e 16 senza costare 1200 euro e senza dover muovere il 4K? La risposta è una: nvidia è una fottuta pidocchiosa e avida, fine. AMD non è una onlus ma ha una dotazione "giusta" senza per questo regalarci una mazza, fa cagare in altro e ha prezzi sostenuti pure lei, fine anche qui. Bastano 256 dannati bit per avere 16gb senza dover cercare le scuse del bus che ti costringe a chisto e chillo senno NON uscivano le 4060ti da 16gb 128bit che, pur costose, costano 550, non 1200 (per tornare al discorso di cui sopra). Le ram te le tirano dietro e con la supercache non ti serve nemmeno avere millemilagbps già col 256, e un bus a 256 nel 2023 non fatemelo passare per costoso o mi faccio bannare davvero a sto giro. Basta giustificare IL GIACCA. Non ci sono ne scuse, ne bus, ne altre caxxate.

E qua chiudo che mi si sta riproponendo il pranzo.

R@nda
30-05-2023, 17:10
Ma infatti una Ps5 completa costa 1200€...ah no.
E non viene più venduta in perdita da tempo (così dicono)...non voglio assolutamente paragonare console e PC.
Però voglio dire, una PS5 non è costruita con componenti alieni, certo ha economie di scala molto più grandi...ma mi sembra comunque che sulle Gpu si sia esagerando quanto a specifiche/prezzi

mikael84
30-05-2023, 17:38
Lo abbiamo ripetuto molte volte. Lo sappiamo. Non è una scusa nemmeno per sbaglio, sono eoni che abbiamo i bus a 256 bit in schede da due lire o addirittura 320 e 384 in quelle top, ergo possiamo avere benissimo 16gb o più senza sfangare alcuna fascia o dobbiamo ripetere altrettante volte che 6700xt e A770 sono schede di costo "contenuto" hanno già 12 e 16 senza costare 1200 euro e senza dover muovere il 4K? La risposta è una: nvidia è una fottuta pidocchiosa e avida, fine. AMD non è una onlus ma ha una dotazione "giusta" senza per questo regalarci una mazza, fa cagare in altro, fine anche qui. Bastano 256 dannati bit per avere 16gb senza dover cercare le scuse del bus che ti costringe a chisto e chillo senno NON uscivano le 4060ti da 16gb che, pur costose, costano 550, non 1200 (per tornare al discorso di cui sopra). Le ram te le tirano dietro e con la supercache no nti serve nemmeno avere millemilagbps già col 256, e un bus a 256 nel 2023 non fatemelo passare per costoso o mi faccio bannare davvero a sto giro. Basta giustificare IL GIACCA. Non ci sono ne scuse, ne bus, ne altre caxxate.

E qua chiudo che mi si sta riproponendo il pranzo.

Infatti come scritto su, la scelta di buttare i bus per la cache, non sta pagando in fascia medio-bassa, ma lo fa in fascia alta.
Il fatto che le arc abbiano 16gb, ok, ma anche qua su trovaprezzi vedo un +100 euro, per una scheda simil 3060/3060ti, non le sta regalando neppure Intel.
Guarda appunto la 4060ti 16 da 550 euro, bello schifo.

Senza cache la 4070ti doveva avere almeno un 384bit, con un 256bit e 672gb/s di banda, la 3090ti la vedeva col binocolo.

Col seno di poi, non posso darti torto, sul fatto che AD104 e AD106 in barba ai costi, dovevano almeno avere un 192bit ed un 256 bit.
Infatti, io cerco di spiegare un pò le cose, ma come puoi vedere, una 4070ti in quelle condizioni, non la comprerei mai. ;)

OrazioOC
30-05-2023, 17:46
Infatti come scritto su, la scelta di buttare i bus per la cache, non sta pagando in fascia medio-bassa, ma lo fa in fascia alta.
Il fatto che le arc abbiano 16gb, ok, ma anche qua su trovaprezzi vedo un +100 euro, per una scheda simil 3060/3060ti, non le sta regalando neppure Intel.
Guarda appunto la 4060ti 16 da 550 euro, bello schifo.

Senza cache la 4070ti doveva avere almeno un 384bit, con un 256bit e 672gb/s di banda, la 3090ti la vedeva col binocolo.

Col seno di poi, non posso darti torto, sul fatto che AD104 e AD106 in barba ai costi, dovevano almeno avere un 192bit ed un 256 bit.
Infatti, io cerco di spiegare un pò le cose, ma come puoi vedere, una 4070ti in quelle condizioni, non la comprerei mai. ;)

Non paga perchè le sku sono sciape di specifiche tecniche anche rispetto ai predecessori.
Lasciando pur perdere il discorso tflops, dove una 4060 ti sembra un portento(22 tflops sono roba da 3070 ti) il contorno della scheda è da offerte speciali del discount(pcie x8, 128 bit di bus, 48 rops).
I pcb poi sono uno spettacolo, pura arte povera.... :D

mikael84
30-05-2023, 17:56
Non paga perchè le sku sono sciape di specifiche tecniche anche rispetto ai predecessori.
Lasciando pur perdere il discorso tflops, dove una 4060 ti sembra un portento(22 tflops sono roba da 3070 ti) il contorno della scheda è da offerte speciali del discount(pcie x8, 128 bit di bus, 48 rops).
I pcb poi sono uno spettacolo, pura arte povera.... :D

Infatti, ma AD106 è sku da 4060 liscia non TI. Chiaro sia così monca. :D

marbasso
30-05-2023, 18:59
nuovi driver nvidia 535.98 WHQL

nessuno29
31-05-2023, 05:45
Sembra tanta roba:
https://www.youtube.com/watch?v=tv-6kLwt1MU

Non vedo l'ora arrivi ottobre per vedere Ac Mirage.

Sembra molto bello anche senza RT, sicuramente sarà un mattonazzo 48fps senza dlss sulla 4090.

Cutter90
31-05-2023, 06:30
Sembra tanta roba:
https://www.youtube.com/watch?v=tv-6kLwt1MU

Non vedo l'ora arrivi ottobre per vedere Ac Mirage.

Figo. Peccato sia un MMO.....

ColdWarGuy
31-05-2023, 06:45
https://i.postimg.cc/s2kFCmLM/a-QX8-Qxe-700bwp.webp


The More You Buy, the more You Save (https://www.youtube.com/watch?v=IlWT_TdOK6s)

Vul
31-05-2023, 08:19
Non ci vedo niente di scandaloso, a differenza di HU.

Il fatto scandaloso e' che la scheda venga venduta a 450 euro con 8GB di ram nel 2023.

Se la gpu costava 300 euro nessuno avrebbe detto nulla.

8GB li avevano GPU come la AMD 290/390/480/580 di fasce di costo ben minori.

In casa Nvidia li avevano la 1070, lanciata 7 anni fa, la 2060 lanciata 4 anni fa, la 3050 lanciata 2 anni fa ne aveva 8, la 3060 di 2 anni fa gia' aveva una versione 12gb.

Tutte le gpu che ho elencato avevano un prezzo inferiore a quello della 4060ti. E' curioso come la 3060ti nel marketing Nvidia fosse presentata come gpu per il 1440p e il suo successore venga presentata come gpu per il 1080p. A quasi 500 euro e con 8gb.

lordsnk
31-05-2023, 08:19
https://i.postimg.cc/s2kFCmLM/a-QX8-Qxe-700bwp.webp


The More You Buy, the more You Save (https://www.youtube.com/watch?v=IlWT_TdOK6s)

ovvero

CHI PIÙ' SPENDE, MENO SPANDE

:D :D :D

JJH è un pozzo di saggezza :asd:

EffeX
31-05-2023, 08:57
Qui la situazione è inquietante, dopo il keynote non so cosa aspettarmi in termini di tecnologia e prezzo per la nuova generazione.
La mia paura più grande è che semplifichino ancora di piu a favore di ottimizzazioni basate su AI è aumentino di conseguenza i prezzi giustificando con le prestazioni.

Ubro92
31-05-2023, 10:10
Il fatto scandaloso e' che la scheda venga venduta a 450 euro con 8GB di ram nel 2023.

Se la gpu costava 300 euro nessuno avrebbe detto nulla.

8GB li avevano GPU come la AMD 290/390/480/580 di fasce di costo ben minori.

In casa Nvidia li avevano la 1070, lanciata 7 anni fa, la 2060 lanciata 4 anni fa, la 3050 lanciata 2 anni fa ne aveva 8, la 3060 di 2 anni fa gia' aveva una versione 12gb.

Tutte le gpu che ho elencato avevano un prezzo inferiore a quello della 4060ti. E' curioso come la 3060ti nel marketing Nvidia fosse presentata come gpu per il 1440p e il suo successore venga presentata come gpu per il 1080p. A quasi 500 euro e con 8gb.

Il problema è solo il prezzo dato che si pone nel mezzo dell'MSRP di 3060ti e 3070 offrendo le stesse prestazioni.

Gli 8GB sinceramente non mi sembrano problematici per un chippino del genere, o almeno con la 3060ti tutti sti problemi non li vedo, le prestazioni murano prima della vram, se poi uno su PC ancora non ha imparato a settare correttamente i set è un altro discorso, non sono certo chip in cui puoi maxare tutto a palla, tanto meno su titoli recenti ottimizzati alla peggio dove devi attendere 10 patch di fix.

Il prezzo di 450€ è un no sense enorme considerando il salto di nodo, nel momento in cui la metti a questo prezzo si scontra 1 a 1 con 3060ti e 3070 non offrendo nessun vantaggio in termini di upgrade se non la sola aggiunta del DLSS3, e un piccolo sgravo sui consumi che alla fine su chip come 3060ti non è neanche nulla di che visto che non supera i 200w.

Poteva essere interessante come 4060 liscia a non più di 329$ sostituendo l'attuale 3060...

Con la 4060 liscia basata su AD107 sarà anche peggio come margine di miglioramento dalla 3060.

Per il resto tra 3060ti e 4060ti ci passano quasi 2-3 anni è normale se prima era ottima per i 1440p, oggi lo stesso target prestazionale o deve fare qualche piccolo compromesso o scala di risoluzione.

La questione vram a mio parere è troppo compromessa dalla nomenclatura farlocca di nvidia, perchè la 4060ti alla fine è un chippino da 190mm2, più piccolo persino di GA107 montato sulle 3050 mobile (200mm2), in quel target nessuno si lamenterebbe degli 8GB XD

bagnino89
31-05-2023, 10:39
Il fatto scandaloso e' che la scheda venga venduta a 450 euro con 8GB di ram nel 2023.

Se la gpu costava 300 euro nessuno avrebbe detto nulla.

8GB li avevano GPU come la AMD 290/390/480/580 di fasce di costo ben minori.

In casa Nvidia li avevano la 1070, lanciata 7 anni fa, la 2060 lanciata 4 anni fa, la 3050 lanciata 2 anni fa ne aveva 8, la 3060 di 2 anni fa gia' aveva una versione 12gb.

Tutte le gpu che ho elencato avevano un prezzo inferiore a quello della 4060ti. E' curioso come la 3060ti nel marketing Nvidia fosse presentata come gpu per il 1440p e il suo successore venga presentata come gpu per il 1080p. A quasi 500 euro e con 8gb.

Sì, su questo nulla da dire.

ColdWarGuy
31-05-2023, 10:45
Qui la situazione è inquietante, dopo il keynote non so cosa aspettarmi in termini di tecnologia e prezzo per la nuova generazione.
La mia paura più grande è che semplifichino ancora di piu a favore di ottimizzazioni basate su AI è aumentino di conseguenza i prezzi giustificando con le prestazioni.

Cosa già successa con l'introduzione dell'RT, hanno introdotto un elemento di discontinuità che ha spiazzato la concorrenza anche se le prestazioni specifiche erano decisamente basse e sicuramente non giustificavano l'aumento dei costi.

Putroppo una parte del mercato ha abboccato ed ha premiato tale scelta, il risultato è che i prezzi sono aumentati del 50% su tutte le gamme ed una parte dei consumatori sembra apprezzare, considerando l'RT un elemento imprescindibile.

Ergo, quello che tu paventi è fatto quasi certo, per quest'anno abbiamo AMD che sembra paralizzata e la migliore offerta di Intel che viaggia in raster al pari di una 7600, in pratica rimane solo da vedere la 7800XT.

Personalmente non mi aspetto miracoli ne lato prestazione ne lato prezzo, penso quindi che per quest'anno skipperò acquisti GPU, nel frattempo ho speso un millino nella postazione race simulation con la sensazione di aver speso bene, in qualcosa di funzionale, di qualità, che fra 5-10 anni avrà ancora il suo bel valore.

nessuno29
31-05-2023, 10:48
Per il resto tra 3060ti e 4060ti ci passano quasi 2-3 anni è normale se prima era ottima per i 1440p, oggi lo stesso target prestazionale o deve fare qualche piccolo compromesso o scala di risoluzione.

Il punto è che se la 3060ti era una scheda da 1440p la 4060ti doveva essere una scheda da 1440p, la scelta di nominare 4060ti questa sku è sbagliata nelle fondamenta.

ColdWarGuy
31-05-2023, 10:55
-snip

Il prezzo di 450€ è un no sense enorme considerando il salto di nodo, nel momento in cui la metti a questo prezzo si scontra 1 a 1 con 3060ti e 3070 non offrendo nessun vantaggio in termini di upgrade se non la sola aggiunta del DLSS3, e un piccolo sgravo sui consumi che alla fine su chip come 3060ti non è neanche nulla di che visto che non supera i 200w.



Lo è ancor di più offrire la versione da 16GB quando con 4070/4070 Ti siamo fermi a 12GB (per semplicità lasciamo da parte i tecnicismi sui bus), secondo me è incoerenza pura.

bonzoxxx
31-05-2023, 11:01
Il punto è che se la 3060ti era una scheda da 1440p la 4060ti doveva essere una scheda da 1440p, la scelta di nominare 4060ti questa sku è sbagliata nelle fondamenta.

Sono tutte sbagliate imho, tranne forse 4080 e 4090.

La 4070ti doveva essere 4070, la 4070 doveva essere la 4060ti e cosi via a scendere, e non a questi prezzi ma di questo ne abbiamo già parlato ampiamente.

nessuno29
31-05-2023, 11:08
Sono tutte sbagliate imho, tranne forse 4080 e 4090.

La 4070ti doveva essere 4070, la 4070 doveva essere la 4060ti e cosi via a scendere, e non a questi prezzi ma di questo ne abbiamo già parlato ampiamente.

Io sono preoccupato, Nvidia mi è sembrata totalmente alienata, una ubriacatura da IA che la allontanata dalla realtà del mondo consumer gaming.

ninja750
31-05-2023, 11:11
Qui la situazione è inquietante, dopo il keynote non so cosa aspettarmi in termini di tecnologia e prezzo per la nuova generazione.
La mia paura più grande è che semplifichino ancora di piu a favore di ottimizzazioni basate su AI è aumentino di conseguenza i prezzi giustificando con le prestazioni.

stesso prezzo ma DLSS4.0 non retrocompatibile :O

bonzoxxx
31-05-2023, 11:20
Io sono preoccupato, Nvidia mi è sembrata totalmente alienata, una ubriacatura da IA che la allontanata dalla realtà del mondo consumer gaming.

Visti i risultati finanziari e la capitalizzazione in borza, JHHetta de pelle sta a 2000...
Mala tempora currunt sed peiora parantur.

stesso prezzo ma DLSS4.0 non retrocompatibile :O

appunto, questo è il peiora di cui sopra..

bagnino89
31-05-2023, 11:21
Io sono preoccupato, Nvidia mi è sembrata totalmente alienata, una ubriacatura da IA che la allontanata dalla realtà del mondo consumer gaming.

Vabbè dai, tanto c'è AMD... Ah, no.

Ale55andr0
31-05-2023, 11:35
Io sono preoccupato, Nvidia mi è sembrata totalmente alienata, una ubriacatura da IA che la allontanata dalla realtà del mondo consumer gaming.

Devo essere sincero, a me giacco pareva sotto l'effetto di qualcosa (o manca davvero di senso del ridicolo)

Vabbè dai, tanto c'è AMD... Ah, no.

non sapevo non ci fosse. Non produce più gpu da?

nessuno29
31-05-2023, 11:41
stesso prezzo ma DLSS4.0 non retrocompatibile :O

Ricorda molto una multinazionale Americana fruttata ahah

:asd:

Come se non esistesse, dovrebbero prendersi una pausa senza inseguire nvidia che ormai fa schede su un altra fascia/pianeta (le 7900xt/xtx sono ridicole e chi le difende non ha proprio capito nulla) proprio per questo può permettersi di fare spezzatini di chip, cuttarle in maniera malsana, metterci poca vram e bus infimi marginando il più possibile.

Non innovano, copiano male e stop (FSR e ora FSR3) , la gente si stufa, non hanno capitale e si vede da come si muovono proponendo surrogati e schede che non sono per nulla efficienti, dovrebbero ritornare con delle idee chiare sul mercato (stile ryzen) innovando e proponendo gpu celeri ed efficienti supportate da IA e software all'altezza, ed è utopia per come sta messa amd ora.

Le 6000 grazie al pp di vantaggio tenevano botta in raster, ma in RT non erano a livello delle 3000, con le 4000 nvidia ha il pp giusto e le devasta.


Meglio che continuino a fare cpu (quelle le sanno fare seppure con un nodo di vantaggio) i 7800x3d e 7950x3d sono dei gioiellini (quando non prendono fuoco)

Nvidia può permettersi di fare quello che vuole perché l'utenza compra comunque Nvidia anche quando AMD è superiore (rx 6600xt vs 3060), perché all'utenza interessa dei consumi solo quando Nvidia consuma meno (utenti felici di avere bios da 600watt sulla 3090) e perché l'utenza crede che l'innovazione sia giocare con risoluzione finta e frame finti a giochi appesantiti da luci ottenibili anche in raster.

La 7900 xtx è la prima gpu non monolitica parliamo del futuro prossimo di tutte le case, non definirla innovativa bisogna essere biased per quanto poi abbia dei limiti a livello architetturale che AMD poteva risparmiarsi.

PS: Intel 7 non è dietro al TSMC 5nm

ColdWarGuy
31-05-2023, 11:50
Ricorda molto una multinazionale Americana fruttata ahah

Alla luce di questo non dovremmo comprare più uno spillo di colore verde, peccato che le 4090 che costano un rene sembrano andare via come il pane.

Vul
31-05-2023, 11:50
Sono tutte sbagliate imho, tranne forse 4080 e 4090.

La 4070ti doveva essere 4070, la 4070 doveva essere la 4060ti e cosi via a scendere, e non a questi prezzi ma di questo ne abbiamo già parlato ampiamente.

Nono, e' molto peggio, basta fare la proporzione con i cores delle gen precedenti.

4070ti dovrebbe essere la 4060ti. 45% dei core della 4090 (che e' lo stesso taglio che aveva 3060ti rispetto alla 3090)

4060ti => 4050. 24% dei core della 4090 (stesso taglio che aveva la 3050 rispetto alla 3090).

La differenza rispetto al chip di punta e' lo stesso, ma i chip sono stati rimarchiati ed elevati di un paio di fasce rispetto alle gen precedenti.

Ale55andr0
31-05-2023, 11:54
:asd:

Come se non esistesse, dovrebbero prendersi una pausa senza inseguire nvidia che ormai fa schede su un altra fascia/pianeta (le 7900xt/xtx sono ridicole e chi le difende non ha proprio capito nulla) proprio per questo può permettersi di fare spezzatini di chip, cuttarle in maniera malsana, metterci poca vram e bus infimi marginando il più possibile.

Non innovano, copiano male e stop (FSR e ora FSR3) , la gente si stufa, non hanno capitale e si vede da come si muovono proponendo surrogati e schede che non sono per nulla efficienti, dovrebbero ritornare con delle idee chiare sul mercato (stile ryzen) innovando e proponendo gpu celeri ed efficienti supportate da IA e software all'altezza, ed è utopia per come sta messa amd ora.

Le 6000 grazie al pp di vantaggio tenevano botta in raster, ma in RT non erano a livello delle 3000, con le 4000 nvidia ha il pp giusto e le devasta.


Meglio che continuino a fare cpu (quelle le sanno fare seppure con un nodo di vantaggio) i 7800x3d e 7950x3d sono dei gioiellini (quando non prendono fuoco)

pensa te, io invece penso a non aver capito nulla sia che suggerisce di prendersi una pausa dal fare GPU (idea semplicemente folle) perchè "non hanno l'IA" o perchè sono indietro in una tecnologia che quando la attivi in molti giochi fa ben poca differenza che non sia l'ammazzare il frame rate tanto che pure una gpu da un fantastiliardo deve piazzarci upscale e fake frames

ColdWarGuy
31-05-2023, 12:15
Nono, e' molto peggio, basta fare la proporzione con i cores delle gen precedenti.

4070ti dovrebbe essere la 4060ti. 45% dei core della 4090 (che e' lo stesso taglio che aveva 3060ti rispetto alla 3090)

4060ti => 4050. 24% dei core della 4090 (stesso taglio che aveva la 3050 rispetto alla 3090).

La differenza rispetto al chip di punta e' lo stesso, ma i chip sono stati rimarchiati ed elevati di un paio di fasce rispetto alle gen precedenti.

Per chi ha naso è evidente che hanno drogato il mercato prima con lo specchietto dell'RT ed ora dell'IA, per quello che mi concerne a questo punto potrebbero anche morire di fame e spero che alla fine della fiera la massa ragioni così.

E nel contempo hanno pure goduto, in buona compagnia, del delirio del mining, ora da quello che vedo nei video è un giacchetta che sembra soffrire di delirio di onnipotenza.

OvErClOck82
31-05-2023, 12:32
pensa te, io invece penso a non aver capito nulla sia che suggerisce di prendersi una pausa dal fare GPU (idea semplicemente folle) perchè "non hanno l'IA" o perchè sono indietro in una tecnologia che quando la attivi in molti giochi fa ben poca differenza che non sia l'ammazzare il frame rate tanto che pure una gpu da un fantastiliardo deve piazzarci upscale e fake framesquello che hai quotato in gergo specialistico si potrebbe definire come sindrome di Stoccolma, temo :asd:

Inviato dal mio 23049PCD8G utilizzando Tapatalk

Cutter90
31-05-2023, 12:34
pensa te, io invece penso a non aver capito nulla sia che suggerisce di prendersi una pausa dal fare GPU (idea semplicemente folle) perchè "non hanno l'IA" o perchè sono indietro in una tecnologia che quando la attivi in molti giochi fa ben poca differenza che non sia l'ammazzare il frame rate tanto che pure una gpu da un fantastiliardo deve piazzarci upscale e fake frames

tecnologia che è il presente e soprattutto il futuro. ma si cosa vuoi che sia.... la poca differenza la vedi solo tu, proprio perchè non l'hai mai visto

mikael84
31-05-2023, 12:45
PS: Intel 7 non è dietro al TSMC 5nm

E' dietro eccome. Il 10nm (intel 7) di Intel è mediamente paragonabile al 7nmP di TSMC. Stesso Minimum (metal) pitch, stesso gate. E' a tutti gli effetti un 7nm.

Non introduce neppure l'euv, inserito nel 6nm, che semplifica di molto il processo e le maschere.

Il 5nmHP andrebbe paragonato al 4nm di Intel. Il 5nmHP è la forma più avanzata dei 5nm (dopo il 4nmp, non quello mod di nvidia).
Infatti in efficienza viene distrutto, ed il nodo si sente.

Se JHH stesse sui 7nmHP (il nodo usato da AMD sulle 6000), al massimo poteva tirare fuori una sorta di 3090ti@ 2,4, o ancora tirare fuori qualche chip da 7-800mm2.:)

Cfranco
31-05-2023, 12:47
ovvero

CHI PIÙ' SPENDE, MENO SPANDE PIÙ GIUBBOTTI MI REGALA


:O

bagnino89
31-05-2023, 12:48
non sapevo non ci fosse. Non produce più gpu da?

GPU davvero interessanti non ne produce da un bel po'. Sotto quasi tutti i punti di vista (prestazioni, prezzo, consumi, ecc.).

:asd:

Come se non esistesse, dovrebbero prendersi una pausa senza inseguire nvidia che ormai fa schede su un altra fascia/pianeta (le 7900xt/xtx sono ridicole e chi le difende non ha proprio capito nulla) proprio per questo può permettersi di fare spezzatini di chip, cuttarle in maniera malsana, metterci poca vram e bus infimi marginando il più possibile.

Non innovano, copiano male e stop (FSR e ora FSR3) , la gente si stufa, non hanno capitale e si vede da come si muovono proponendo surrogati e schede che non sono per nulla efficienti, dovrebbero ritornare con delle idee chiare sul mercato (stile ryzen) innovando e proponendo gpu celeri ed efficienti supportate da IA e software all'altezza, ed è utopia per come sta messa amd ora.

Le 6000 grazie al pp di vantaggio tenevano botta in raster, ma in RT non erano a livello delle 3000, con le 4000 nvidia ha il pp giusto e le devasta.


Meglio che continuino a fare cpu (quelle le sanno fare seppure con un nodo di vantaggio) i 7800x3d e 7950x3d sono dei gioiellini (quando non prendono fuoco)

Quoto...

Ale55andr0
31-05-2023, 13:01
tecnologia che è il presente e soprattutto il futuro. ma si cosa vuoi che sia.... la poca differenza la vedi solo tu, proprio perchè non l'hai mai visto


si', ho solo avuto per quasi 2 anni e mezzo una gpu verde col DLSS/ray tracing e ho solo finito 2 volte CP2077 accumulandoci oltre 250h avendolo visto in tutte le salse RT on/off, medio ultra e folle, quindi parlo senza cognizione di causa :rotfl:. Ah e fa il favore di non erigerti a esponente DI TUTTI i gamer del mondo, dicendo "solo tu non vedi" perchè non sei ne' Dio ne' la rappresentazione fisica, appunto, di tutti gli altri per parlare in loro vece, grazie :). Qui dentro in diversi la pensano come me e l'hanno pure esposto (e no, non per quello dico che siamo 50 e 50 erigendomi a mia volta a contabile supremo delle idee delle masse tirando fuori numeri a caso come fai tu) senza contare la marea di post che trovi in giro per la rete o sul tubo dove c'è sia chi dice che "cambia tutto" come chi dice che "cambia poco" e con il costo in performance che è ridicolmente alto. Fra parentesi parlando di "futuro" pure avere una dedicata ageia doveva essere il futuro, come pure il 3d nei TV.... Quel che sarà il futuro non lo sa nessuno e se sarà full RT (e non dico non possa esserlo) le schede di oggi saranno comunque pile di merda che oggi devono ricorrere ad espedienti come, appunto, gli upscale e i frame inventati e su certe fasce manco bastano a fare 50-60frame, ergo scegliere oggi una GPU per quello è giusto di qualche generazione in anticipo visto che manco tutti i giochi annunciati lo supportano...

Ale55andr0
31-05-2023, 13:07
Per chi ha naso è evidente che hanno drogato il mercato prima con lo specchietto dell'RT ed ora dell'IA, per quello che mi concerne a questo punto potrebbero anche morire di fame e spero che alla fine della fiera la massa ragioni così.

E nel contempo hanno pure goduto, in buona compagnia, del delirio del mining, ora da quello che vedo nei video è un giacchetta che sembra soffrire di delirio di onnipotenza.


specchietto? è ovvio che dici così, tu non lo hai mai visto, parola di nostro signore sopra :O

quello che hai quotato in gergo specialistico si potrebbe definire come sindrome di Stoccolma, temo :asd:

Inviato dal mio 23049PCD8G utilizzando Tapatalk

un altro cieco dalla mente ottenebrata da Satana, "si sta diffondendo dannazione" (cit. :O)

Kvarat
31-05-2023, 13:48
Nvidia può permettersi di fare quello che vuole perché l'utenza compra comunque Nvidia anche quando AMD è superiore
Secondo te quindi milioni e milioni di players al mondo comprano Nvidia perchè sono masochisti e vogliono di meno di Amd spendendo di più?

Korn
31-05-2023, 14:12
dai non facciamo i verginelli, perchè vogliono tutti un iphone? perchè pensano tutti che i dyson siano i migliori aspirapolvere? e tesla tutti sbavano per delle tesla, si chiama marketing efficace, indurre dei bisogni non necessari, amd fa buone schede ma non ha mai avuto del marketing decente dietro, peggio ancora per le cpu, è stata par anni avanti in prestazioni ma non ha capitalizzato quanto meritava, chissà perchè

Cutter90
31-05-2023, 14:20
si', ho solo avuto per quasi 2 anni e mezzo una gpu verde col DLSS/ray tracing e ho solo finito 2 volte CP2077 accumulandoci oltre 250h avendolo visto in tutte le salse RT on/off, medio ultra e folle, quindi parlo senza cognizione di causa :rotfl:. Ah e fa il favore di non erigerti a esponente DI TUTTI i gamer del mondo, dicendo "solo tu non vedi" perchè non sei ne' Dio ne' la rappresentazione fisica, appunto, di tutti gli altri per parlare in loro vece, grazie :). Qui dentro in diversi la pensano come me e l'hanno pure esposto (e no, non per quello dico che siamo 50 e 50 erigendomi a mia volta a contabile supremo delle idee delle masse tirando fuori numeri a caso come fai tu) senza contare la marea di post che trovi in giro per la rete o sul tubo dove c'è sia chi dice che "cambia tutto" come chi dice che "cambia poco" e con il costo in performance che è ridicolmente alto. Fra parentesi parlando di "futuro" pure avere una dedicata ageia doveva essere il futuro, come pure il 3d nei TV.... Quel che sarà il futuro non lo sa nessuno e se sarà full RT (e non dico non possa esserlo) le schede di oggi saranno comunque pile di merda che oggi devono ricorrere ad espedienti come, appunto, gli upscale e i frame inventati e su certe fasce manco bastano a fare 50-60frame, ergo scegliere oggi una GPU per quello è giusto di qualche generazione in anticipo visto che manco tutti i giochi annunciati lo supportano...

Solo perchè hai giocato ad 1 gioco in rt non significa certo che tu ne capisca di rt...... Sorvolo sui soliti deliri dlss e FG (tanto sta cosa non la capisci, quindi lasciamo stare) e ti rammento che chi pensa che il RT non sia una gran cosa sono proprio gli utenti che o ne capiscono poco oppure sono affiliati AMD... ma che caso oh. C'è chi dice che cp2077 in path tracing cambia poco rispetto al Raster..... ma chi dice così non ha semplicemente le conoscenze per poterlo dire. Internet ha avuto il lato dannatamente negativo di dare parola anche e soprattutto a chi non ne capisce. Il fatto che il RT implementato bene cambi un gioco non è un opinione soggettiva. MA una realtà in cui l'illuminazione è reale.
Sul costo non ci piove è davvero alto e fuori dal mondo, ma pensi che sia colpa dell'rt? E AMD che si è allineata a nvidia come prezzi? Anche lì è colpa del RT?
I giochi e la mole di rt negli stessi dal d1 della serie 2000 si è alzata di molto. Negare che il RT sia il presente e il futuro è surreale e davvero miope.

Onestamente tu ti sai solo lamentare di tutto e basta. Cosa serve? NOn ti va bene nulla di qualsiasi tecnologia. Cosa la segui a fare allora? Hai venduto la 3070.... cosa ci fai ancora qui? Il mercato non segue il Marketing "Alessandro" e lo sviluppo tecnologico (per fortuna) nemmeno. Ti lamenti dei prezzi. Ma la vuoi comprare una nuova gpu? No... e allora cosa ti lamenti a fare se non la compri? BOh

FrancoBit
31-05-2023, 14:23
edit .

Kvarat
31-05-2023, 14:38
dai non facciamo i verginelli, perchè vogliono tutti un iphone? perchè pensano tutti che i dyson siano i migliori aspirapolvere? e tesla tutti sbavano per delle tesla, si chiama marketing efficace, indurre dei bisogni non necessari, amd fa buone schede ma non ha mai avuto del marketing decente dietro, peggio ancora per le cpu, è stata par anni avanti in prestazioni ma non ha capitalizzato quanto meritava, chissà perchè

Non è il marketing. Quello a cui ti riferisci può andar bene per un prodotto e non per decenni di un prodotto. Significa che le persone si trovano bene per mille motivi. Un pò come il Folletto e il Bimby ad esempio. Io personalmente non riesco nemmeno per sbaglio ad usare una combinazione diversa per il PC da Nvidia, Intel e Asus.

Ale55andr0
31-05-2023, 14:50
Solo perchè hai giocato ad 1 gioco in rt non significa certo che tu ne capisca di rt...... Sorvolo sui soliti deliri dlss e FG (tanto sta cosa non la capisci, quindi lasciamo stare) e ti rammento che chi pensa che il RT non sia una gran cosa sono proprio gli utenti che o ne capiscono poco oppure sono affiliati AMD... ma che caso oh. C'è chi dice che cp2077 in path tracing cambia poco rispetto al Raster..... ma chi dice così non ha semplicemente le conoscenze per poterlo dire. Internet ha avuto il lato dannatamente negativo di dare parola anche e soprattutto a chi non ne capisce. Il fatto che il RT implementato bene cambi un gioco non è un opinione soggettiva. MA una realtà in cui l'illuminazione è reale.
Sul costo non ci piove è davvero alto e fuori dal mondo, ma pensi che sia colpa dell'rt? E AMD che si è allineata a nvidia come prezzi? Anche lì è colpa del RT?
I giochi e la mole di rt negli stessi dal d1 della serie 2000 si è alzata di molto. Negare che il RT sia il presente e il futuro è surreale e davvero miope.


Onestamente tu ti sai solo lamentare di tutto e basta. Cosa serve? NOn ti va bene nulla di qualsiasi tecnologia. Cosa la segui a fare allora? Hai venduto la 3070.... cosa ci fai ancora qui?
Ti lamenti dei prezzi. Ma la vuoi comprare una nuova gpu? No... e allora cosa ti lamenti a fare se non la compri? BOh

-CP2077 lato RT è il titolo più avanzato che ci sia, negare questo (in caso) sarebbe "surreale e miope" ergo visto quello ad oggi posso a MIO insindacabile giudizio, per la MIA persona (o serve specificarlo?), esprimere quel che ne penso della resa di tale sistema di illuminazione, se la cosa di crea problemi, sono tuoi.

-Non mi sono mai definito esperto di nulla, hai il "simpatico" vizio di mettere in bocca parole alla gente. E fra parentesi, tu invece sei esperto di? (domanda retorica, non me ne potrebbe fregar di meno). Cmq evita di continuare a dire "tu non hai visto niente", tu non capisci niente" "tu deliri", alla prossima offesa segnalo.

-Cosa capisco io o meno non lo sancisci tu che sei un tizio a caso su internet esattamente come me che in questo lido non ha mai palesato mezza competenza in questo ambito rispetto chicchesia, senza ripeterti (a proposito di chi non capisce cosa visto che bisogna ripetertele le cose....) che ci son altrettante personE che NON la pensano come te. E no, non sono tutte "utenze AMD" :read:

-..che poi, tu invece con nvidia in firma sei l'attendibilità e l'imparzialità fatta persona fatta persona entrando nel merito, nevvero? O_o Aggiungo: "mi sono affidato ad AMD" non so dove l'hai visto visto che non ho GPU da gaming di nessuno al momento, e negli ultimi 6 anni ho avuto due gpu nvidia, non AMD :read:


-"Negare che il RT sia il presente e il futuro è surreale e davvero miope"

aridaje, metti di nuovo parole in bocca, dove lo avrei detto? Quindi più che miope uno che nega cio....che NON ha negato (!) è più "delirante" (visto che accusi di quello) chi invece mette parole in bocca ad altri.

-Sono un membro del forum, nel rispetto delle regole commento cio che mi pare, a prescindere dal brand da me posseduto, dal brand che possederò o da qualsiasi altra classificazione ed etichettatura delle persone in base a cio' che è a dir poco stomachevole, o tu stai, chessò, sul forum di quattroruote a commentare l'ultima Ferrari, ma anche fosse una Punto, solo se la devi comprare? non devo rendere conto a te e cio che faccio o non faccio in ambito gpu o in qualsivoglia, sono affari miei

Korn
31-05-2023, 14:56
Non è il marketing. Quello a cui ti riferisci può andar bene per un prodotto e non per decenni di un prodotto. Significa che le persone si trovano bene per mille motivi. Un pò come il Folletto e il Bimby ad esempio. Io personalmente non riesco nemmeno per sbaglio ad usare una combinazione diversa per il PC da Nvidia, Intel e Asus.
macchè, un volta che il tuo brand entra nella testa delle persone è fatta, ci campano di rendita, il bimby e il folletto sono esempi perfetti, la concorrenza è migliore ma la conoscono in pochi

Motenai78
31-05-2023, 15:31
purtroppo è vero, conosco gente che non comprerebbe AMD neanche regalato (per rimanere nel nostro ambito)...poi vabbé, ci sono "giornalai" che ritengono nVidia una azienda semisconosciuta :D :D

Nel nostro ambito noto un triste appiattimento: una volta anche la marca di una GPU/mobo faceva la differenza, ora mi pare di capire che hanno più le mani legate, soprattutto lato mobo...ma spero di sbagliarmi ^^''

Cutter90
31-05-2023, 16:23
-CP2077 lato RT è il titolo più avanzato che ci sia, negare questo (in caso) sarebbe "surreale e miope" ergo visto quello ad oggi posso a MIO insindacabile giudizio, per la MIA persona (o serve specificarlo?), esprimere quel che ne penso della resa di tale sistema di illuminazione, se la cosa di crea problemi, sono tuoi.

-Non mi sono mai definito esperto di nulla, hai il "simpatico" vizio di mettere in bocca parole alla gente. E fra parentesi, tu invece sei esperto di? (domanda retorica, non me ne potrebbe fregar di meno). Cmq evita di continuare a dire "tu non hai visto niente", tu non capisci niente" "tu deliri", alla prossima offesa segnalo.

-Cosa capisco io o meno non lo sancisci tu che sei un tizio a caso su internet esattamente come me che in questo lido non ha mai palesato mezza competenza in questo ambito rispetto chicchesia, senza ripeterti (a proposito di chi non capisce cosa visto che bisogna ripetertele le cose....) che ci son altrettante personE che NON la pensano come te. E no, non sono tutte "utenze AMD" :read:

-..che poi, tu invece con nvidia in firma sei l'attendibilità e l'imparzialità fatta persona fatta persona entrando nel merito, nevvero? O_o Aggiungo: "mi sono affidato ad AMD" non so dove l'hai visto visto che non ho GPU da gaming di nessuno al momento, e negli ultimi 6 anni ho avuto due gpu nvidia, non AMD :read:


-"Negare che il RT sia il presente e il futuro è surreale e davvero miope"

aridaje, metti di nuovo parole in bocca, dove lo avrei detto? Quindi più che miope uno che nega cio....che NON ha negato (!) è più "delirante" (visto che accusi di quello) chi invece mette parole in bocca ad altri.

-Sono un membro del forum, nel rispetto delle regole commento cio che mi pare, a prescindere dal brand da me posseduto, dal brand che possederò o da qualsiasi altra classificazione ed etichettatura delle persone in base a cio' che è a dir poco stomachevole, o tu stai, chessò, sul forum di quattroruote a commentare l'ultima Ferrari, ma anche fosse una Punto, solo se la devi comprare? non devo rendere conto a te e cio che faccio o non faccio in ambito gpu o in qualsivoglia, sono affari miei

È così. Secondo me i tuoi giudizi sono spesso vittime di una conoscenza tecnica non buona. Mica è un offesa, ma una mia constatazione. Sono un tizio a caso su internet ma per fortuna i miei giudizi sono quanto più possibile all oggettività dato da prove e studi tecnici. Quindi, se permetti a mio modo di vedere mi è difficile dire che tu faccia lo stesso.
Per me il forum è un ambiente importante soprattutto per chi non ha conoscenze e vuole informazioni. Il problema è che queste informazioni vanno date giuste e nel modo giusto. E siamo su un forum tecnico, in teoria.

Cmq, goditi le tue lamentele. Io intanto, gioco bencho e mi godo la tecnologia al suo massimo attuale. Ognuno poi alla fine fa quello che vuole.

fabietto76
31-05-2023, 16:45
Nono, e' molto peggio, basta fare la proporzione con i cores delle gen precedenti.

4070ti dovrebbe essere la 4060ti. 45% dei core della 4090 (che e' lo stesso taglio che aveva 3060ti rispetto alla 3090)

4060ti => 4050. 24% dei core della 4090 (stesso taglio che aveva la 3050 rispetto alla 3090).

La differenza rispetto al chip di punta e' lo stesso, ma i chip sono stati rimarchiati ed elevati di un paio di fasce rispetto alle gen precedenti.
Tutto tristemente vero.
La 3060ti (che ho) andava come la 2080 super.
La 4060ti avrebbe dovuto porsi fra la 3080 e la 3080ti, invece in 4k va a stento come una 3070.

bonzoxxx
31-05-2023, 16:47
Tutto tristemente vero.
La 3060ti (che ho) andava come la 2080 super.
La 4060ti avrebbe dovuto porsi fra la 3080 e la 3080ti, invece in 4k va stento a come una 3070.

Concordo, infatti volevo dar via la 3080 prima dell'uscita della serie 4000 perchè temevo un crollo dei prezzi della serie 3000 e una livellamento di potenza come scritto da te, invece nisba.

marbasso
31-05-2023, 18:19
È così. Secondo me i tuoi giudizi sono spesso vittime di una conoscenza tecnica non buona. Mica è un offesa, ma una mia constatazione. Sono un tizio a caso su internet ma per fortuna i miei giudizi sono quanto più possibile all oggettività dato da prove e studi tecnici. Quindi, se permetti a mio modo di vedere mi è difficile dire che tu faccia lo stesso.
Per me il forum è un ambiente importante soprattutto per chi non ha conoscenze e vuole informazioni. Il problema è che queste informazioni vanno date giuste e nel modo giusto. E siamo su un forum tecnico, in teoria.

Cmq, goditi le tue lamentele. Io intanto, gioco bencho e mi godo la tecnologia al suo massimo attuale. Ognuno poi alla fine fa quello che vuole.

E vediamoli sti bench però :D

EffeX
31-05-2023, 18:24
Il discorso marketing è fondamentale, io stesso 20 anni fa, con le mie possibilità economiche di allora, presi una GeForce FX 5200 Ultra della Creative, perché Creative era un brand premium all'epoca e le GeForce FX erano pubblicizzate così tanto da pensare che fossero veramente prodotti validi essendo niubbo all'epoca, mentre con gli stessi soldi ci si prendeva una Radeon 9500 pro nuova o una 9700 usata per dire.
Dopo una vita con Nvidia praticamente mi son reso conto che passare ad altro non è così traumatico come pensavo per driver, ecosistema ecc ecc, gioco come prima, mi diverto e vivo bene lo stesso.
Mi duole dirlo ma i verdi son sempre stati maestri del marketing, molto più maestri di tanti altri.
Imparando a scegliere con la propria testa e per le proprie esigenze non si sbaglia quasi mai.
Oggi se si vuole il top si va di 4090, se si vuole spendere meno ci son molte altre soluzioni valide che non si chiamano Nvidia, basta solo avere il coraggio di provare, tanto alla fine non capita nulla e se non ci trova proprio, la si può vendere e prendere le varie x70, x60 ecc ecc.

bobby10
31-05-2023, 21:18
Il discorso marketing è fondamentale, io stesso 20 anni fa, con le mie possibilità economiche di allora, presi una GeForce FX 5200 Ultra della Creative, perché Creative era un brand premium all'epoca e le GeForce FX erano pubblicizzate così tanto da pensare che fossero veramente prodotti validi essendo niubbo all'epoca, mentre con gli stessi soldi ci si prendeva una Radeon 9500 pro nuova o una 9700 usata per dire.
Dopo una vita con Nvidia praticamente mi son reso conto che passare ad altro non è così traumatico come pensavo per driver, ecosistema ecc ecc, gioco come prima, mi diverto e vivo bene lo stesso.
Mi duole dirlo ma i verdi son sempre stati maestri del marketing, molto più maestri di tanti altri.
Imparando a scegliere con la propria testa e per le proprie esigenze non si sbaglia quasi mai.
Oggi se si vuole il top si va di 4090, se si vuole spendere meno ci son molte altre soluzioni valide che non si chiamano Nvidia, basta solo avere il coraggio di provare, tanto alla fine non capita nulla e se non ci trova proprio, la si può vendere e prendere le varie x70, x60 ecc ecc.

Concordo sul discorso del marketing però oggi non è più traumatico passare ad altro perché 20anni fa effettivamente le Ati non erano proprio come le Nvidia lato drivers.
Ho avuto 3 /4 ati e ricordo le rotture con i vari crash e blu screen con alcuni giochi e dopo per più di 10anni infatti ho preso solo Nvidia.
Ora ho voluto riprovare con una Amd e per ora va tutto bene..
Statisticamente comunque le Amd hanno ancora più problemi

Kvarat
31-05-2023, 22:52
Concordo sul discorso del marketing però oggi non è più traumatico passare ad altro perché 20anni fa effettivamente le Ati non erano proprio come le Nvidia lato drivers.
Ho avuto 3 /4 ati e ricordo le rotture con i vari crash e blu screen con alcuni giochi e dopo per più di 10anni infatti ho preso solo Nvidia.
Ora ho voluto riprovare con una Amd e per ora va tutto bene..
Statisticamente comunque le Amd hanno ancora più problemi

Era uno schifo senza fine. Ma qualcuno non lo ricorda.

Kvarat
31-05-2023, 23:05
macchè, un volta che il tuo brand entra nella testa delle persone è fatta, ci campano di rendita, il bimby e il folletto sono esempi perfetti, la concorrenza è migliore ma la conoscono in pochi

Quindi secondo il tuo ragionamento Nvidia, un marchio che entra nella testa, avrebbe dovuto vendere camion e camion di Shield. Uno dei migliori apparecchi multimediali mai creati.

ColdWarGuy
31-05-2023, 23:24
-snip

Per il resto, ripeto, meglio che cominci ad innovare e tirare fuori prodotti stile 4090, poichè la suddetta scheda fa proprio un altro lavoro, a sto giro è praticamente lontanissima, ma anche le fasce più in basso danno mazzatte, e qualche vecchia 3000 (se non fosse per i 450w) acchiappa la semi-top e la supera in RT.

Spero di sbagliarmi ma l'impressione che ricavo dall'immobilismo di AMD nel mercato GPU è che stiano valutando di tirarsene fuori, magari per concentrare le risorse nelle CPU data center / workstation, dove hanno in mano ben altre carte.

Ormai è chiaro che con RT ed IA l'asticella si è alzata parecchio e per rimanere in gioco l'esposizione di capitale in investimenti di R&D è notevolmente salita, ergo o decidono di rilanciare e mettono sul piatto dei bei dindi e tirano dentro la gente giusta oppure il divario si fa incolmabile.

Dovessi scommettere punterei sul "mollano", poi magari domani lanciano all'improvviso la 7800XT + 30% raster sulla 4070 e 16GB a 550 euro e spaccano tutto :D

fraussantin
01-06-2023, 04:49
Spero di sbagliarmi ma l'impressione che ricavo dall'immobilismo di AMD nel mercato GPU è che stiano valutando di tirarsene fuori, magari per concentrare le risorse nelle CPU data center / workstation, dove hanno in mano ben altre carte.



Ormai è chiaro che con RT ed IA l'asticella si è alzata parecchio e per rimanere in gioco l'esposizione di capitale in investimenti di R&D è notevolmente salita, ergo o decidono di rilanciare e mettono sul piatto dei bei dindi e tirano dentro la gente giusta oppure il divario si fa incolmabile.



Dovessi scommettere punterei sul "mollano", poi magari domani lanciano all'improvviso la 7800XT + 30% raster sulla 4070 e 16GB a 550 euro e spaccano tutto :DNon penso .

Secondo me ad amd serve produrre tecnologia grafica dedicata anche per migliorare e contenere i costi della produzione di cpu che ormai hanno tutte una grafica integrata oltre che per le console che ormai sono quasi tutte amd. ( eccetto switch)

nessuno29
01-06-2023, 06:27
Dovessi scommettere punterei sul "mollano", poi magari domani lanciano all'improvviso la 7800XT + 30% raster sulla 4070 e 16GB a 550 euro e spaccano tutto :D

eh ma i consumi eh ma il dlss3 eh ma i driver (nel 2023) eh ma il RT eh ma io nel 2005 avevo una ATI con problemi driver mai più eh ma tutti i miei amichetti di clan hanno nvidia prendo comunque la 4070 dai.

Motenai78
01-06-2023, 06:46
Era uno schifo senza fine. Ma qualcuno non lo ricorda.
Io ho avuto queste fino a che ho memoria (anche un paio prima, ma inizio ad invecchiare e non me ricordo):

nVIDIA geforce 3
ATi 8500
ATi 9600 Pro
nVIDIA 6800 GT --> andava a 100° in idle, ho dovuto fare refresh pasta siliconica
nVIDIA 7600 GTS
ATi 4850
AMD 5770 Vapor-X
AMD 5850
AMD 7850 --> Morta Ram dopo 12 anni


nel mio piccolo: mai problemi con i driver*, solo il surriscaldamento della 6800GT (risolto cambiando la pasta) e la morte della 7850 (che dopo 12 anni di uso continuo ci sta).

La 6800GT è quella che più mi ha dato soddisfazioni, ma era anche l'unica fascia alta da me comprata ^^ (250€, se ricordo bene...ma non ricordo che anno fosse xD)

*io però non ho mai fatto OC, non so se questo impattava sui problemai

AceGranger
01-06-2023, 07:22
Certo che è per il marketing, mica perchè si guardano i consumi tra 3060 e 6600xt e si sceglie lo stesso la 3060 perchè è così e va bene così:asd:

Già con lo scettro della fascia alta che domina il mercato, con la gpu più veloce sul mercato lobotomizza la massa, in più ne esalta i punti di forza e ci crea un ecosistema attorno, di riflesso anche le fasce inferiori cuttate male e posizionate male come fascia/prezzo ne raccolgono i frutti.

Amd ha un immagine debole, quando è conosciuta, è conosciuta come surrogato/concorrenza (anche se alcuni prodotti sono meritevoli vedasi cpu anche se con un nodo di vantaggio)

Intel e nvidia le conosce pure il gatto, tranne una nota testata di ''giornalai'' che definisce nvidia semisconosciuta LOL

Questo accade tra persone normali (non spugnettoni da forum)

Amd ha tirato fuori cpu mostruose (dai ryzen 5000 in su sono state tutte ottime con un bellissima sorpresa immettendo i 3d sul mercato) eppure non è riuscita a capitalizzare come avrebbe dovuto, anche se si è ripresa una discreta quota di mercato ed ora dispone di più fiducia da parte dei consumatori (con i bulldozer/FX era ai minimi) inoltre va bene con il mobile, console etc..
https://i.ibb.co/sw9tfrP/df.jpg (https://ibb.co/sw9tfrP)


Per il resto, ripeto, meglio che cominci ad innovare e tirare fuori prodotti stile 4090, poichè la suddetta scheda fa proprio un altro lavoro, a sto giro è praticamente lontanissima, ma anche le fasce più in basso danno mazzatte, e qualche vecchia 3000 (se non fosse per i 450w) acchiappa la semi-top e la supera in RT.

non confondere l'impossibilita di produrre con il marketing....

AMD NON ha piu fabbriche e si rivolge solo a TSMC dove deve prenotare con largo anticipo gli slot di produzione; non puo fare il bello e cattivo tempo e deve prenotarsi gli slot secondo le stime e secondo la disponibilità di TSMC. e TSMC, pur essendo enorme non potrebbe mai attualmente sostenere la produzione di CPU di intel. se non raddoppiando gli stabilimenti... Intel fa piu di 2 AMD + nVidia messe insieme.

AMD non ha potuto espandere piu di tanto le sue quote perchè semplicemente non ha la possibiltà di produrre gli enormi lotti di CPU mobile per i notebook dove sono concentrate tutte le quote di Intel.

nelle GPU semplicemente non ha mai presentato nulla di paragonabile alle sue CPU, ma soprattutto AMD non ha mai avuto un ecosistema software/plugin/supporto a sostenere i suoi prodotti e mi sa che non avete ancora capito che il grosso delle GPU "da gaming" non sono mai finiti in computer o notebook che poi sono andati effettivamente a giocare o solo a giocare e questo in numeri fa una differenza notevole.

Ubro92
01-06-2023, 07:58
Io con ATI ebbi la 5870 e fu un'ottima GPU, anche lato driver non mi diede problemi, all'epoca la tenevo in accoppiata con una 9600GT per il physx :fagiano:

Però ricordo che la 4870 era un forno, un amico l'aveva e rispetto la mia vecchia GTX 260 sembrava un elicottero XD

Comunque dipende, architetture non riuscite benissimo e sfighe driver sono capitate da ambo le parti, pure le GPU fermi di Nvidia erano bei fornetti.

A sto giro non c'è concorrenza, già da Polaris in poi AMD si è completamente allineata a Nvidia, attualmente è più interessante lo sviluppo lato cpu, abbiamo avuto più incrementi negli ultimi 5 anni che nei 10 anni precedenti.

bonzoxxx
01-06-2023, 08:14
AMD ho avuto la 5770, la 290 e la 7970, tutte ottime soprattutto la 5770 che al tempo andava davvero benone a un prezzo davvero basso.

Poi 8800GT, 1070, geforce2MX, 1030, 480 sia MSI che nvidia che ancora ho da qualche parte con il dissi blower, grossi problemi non ne ho mai avuti sia con i verdi che con i rossi.

Cutter90
01-06-2023, 08:27
E' di qualche giorno fa che l'ultimo aggiornamento di windows ha problemi con i driver amd......

Secondo me molti hanno la memoria corta. Le differenza nei driver, magari minime, ci sono tutt'ora. Anche nelle cpu ci sono quelle intel che di solito vanno lisce con tutti i videogiochi al d1, mentre su amd ricordo più problemi (in cp 2077 al d1 ricordo che le cpu amd andavano molto male).
Poi, marketing o no, l'offerta delle due case è al momento non uguale. Dlss superiore a FSR, RT superiore a quello amd, FG vs assente su amd.
Potremmo parlare di marketing se le due offerte fossero identiche. Allora si che il marketing la farebbe da padrone e Nvidia sarebbe davanti perchè pubblicizza meglio il suo prodotto.

R@nda
01-06-2023, 08:33
Ma la nomea dei driver malati Ati se la fece ai tempi dei vari chip Rage (fury in particolare ricordo) dalla serie 9xxx in poi non ho
mai avuto problemi con i driver, o meglio gli stessi che saltuariamente ho avuto con tutte le gpu di diverse marche (e ne ho avute e provate tante di marche diverse negli anni) qualche magagna o bug può capitare sempre.

Quello che non capisco è, perchè non ammettere semplicemente che Nvidia attualmente ha un prodotto migliore e stop, non si può negare.
Se poi si preferisce Amd per altre ragioni (ram/prezzo) va bene lo stesso.

L'ultima innovazione seria di Amd che ricordo è il pannello Adrenalin (non sono ironico).

Ale55andr0
01-06-2023, 08:40
E' di qualche giorno fa che l'ultimo aggiornamento di windows ha problemi con i driver amd


Allora il prolema è di Microsoft, non di AMD, cosa peraltro a me capitata svariate volte con gli update di windows con nvidia (mi scazzava sempre le impostazioni della scheda) o mi massacrava la sensibilità del mouse, per dirne due

Cutter90
01-06-2023, 09:05
Allora il prolema è di Microsoft, non di AMD, cosa peraltro a me capitata svariate volte con gli update di windows con nvidia (mi scazzava sempre le impostazioni della scheda) o mi massacrava la sensibilità del mouse, per dirne due

Io riporto solo la notizia. Ma ho letto di altre volte di driver amd non proprio perfetti. Che poi sia colpa di ms o di amd..... fatto sta che i problemi ci sono. Su nvidia non li leggo o ne leggo molto meno. Ma cmq un altra cosa che di amd non mi piace è quanto siano altalenanti le prestazioni delle loro schede. IN alcuni giochi vanno, in altri perdono tantissimo rispetto ad nvidia. Quest'ultima è molto più costante nel parco titoli. E questa per me è una cosa importante

Motenai78
01-06-2023, 09:22
Ma la nomea dei driver malati Ati se la fece ai tempi dei vari chip Rage (fury in particolare ricordo) dalla serie 9xxx in poi non ho
mai avuto problemi con i driver, o meglio gli stessi che saltuariamente ho avuto con tutte le gpu di diverse marche (e ne ho avute e provate tante di marche diverse negli anni) qualche magagna o bug può capitare sempre.

Quello che non capisco è, perchè non ammettere semplicemente che Nvidia attualmente ha un prodotto migliore e stop, non si può negare.
Se poi si preferisce Amd per altre ragioni (ram/prezzo) va bene lo stesso.

L'ultima innovazione seria di Amd che ricordo è il pannello Adrenalin (non sono ironico).
Su questo siamo tutti d'accordo: Amd si salva solo per il rapporto prezzo/prestazioni rinunciando al superfluo* (RT, DLSS etc).

Purtroppo, aggiungerei :D

*e questo è soggettivo, ovviamente

Io riporto solo la notizia. Ma ho letto di altre volte di driver amd non proprio perfetti. Che poi sia colpa di ms o di amd..... fatto sta che i problemi ci sono. Su nvidia non li leggo o ne leggo molto meno. Ma cmq un altra cosa che di amd non mi piace è quanto siano altalenanti le prestazioni delle loro schede. IN alcuni giochi vanno, in altri perdono tantissimo rispetto ad nvidia. Quest'ultima è molto più costante nel parco titoli. E questa per me è una cosa importante
ah, non avevo letto: io mi "salvo" perché il pc con cui gioco sta sempre indietro di SO (ora ho 10, che ho messo solo 2-3 anni fa :D)

Non mi pare che l'aggiornamento dello SO abbia mai portato benefici ai giochi (salvo quando c'erano i salti di DX che ti obbligavano, ma lo 11 non è interessato...correggetimi se sbaglio xD)

dominator84
01-06-2023, 09:27
Io riporto solo la notizia. Ma ho letto di altre volte di driver amd non proprio perfetti. Che poi sia colpa di ms o di amd..... fatto sta che i problemi ci sono. Su nvidia non li leggo o ne leggo molto meno. Ma cmq un altra cosa che di amd non mi piace è quanto siano altalenanti le prestazioni delle loro schede. IN alcuni giochi vanno, in altri perdono tantissimo rispetto ad nvidia. Quest'ultima è molto più costante nel parco titoli. E questa per me è una cosa importante

che problemi con i driver amd?

io ho problemi sia con la 6700xt che con la 3080 su 2 pc diversi, in entrambi ho gli ultimi drivers installati, con nvidia uso sempre ddu prima, mentre con amd aggiorno direttamente sovrascrivendo

il problema è con chivalry 2 che su windows 11 si freeza ogni tot mentre gioco... cosa che non succedeva prima che aggiornassi windows circa 7-10 giorni fa

vado su linux, endeavourOS per la amd e arch puro per la 3080, lancio chivalry 2 ed è tutto ok lì

quindi non è il gioco, non sono i drivers, il solito cazzo di windows che sbarella

Cutter90
01-06-2023, 09:41
Dai, sulle cpu (almeno per come usiamo i pc in questo forum nei topic delle gpu quindi 90% gaming) non si può dire nulla, i 7000 3d sono delle bestie, inutile preferire i raptor (o anche il prossimo refresh di raptor) è follia pura, solo nel caso si optasse per un 13600k spendendo decisamente meno avrebbe senso, oppure perchè oramai si è abituati ad intel e non si vuole cambiare (e ci si trova bene) non trovo un altro motivo valido per preferire intel attualmente lato gaming.

p.s tutto questo quando non prendono fuoco, anche qui macchiati da un lancio troppo affrettato, peccato davvero.

Il problema sono le gpu scarsissime in performance assolute.

Si beh ad ora siamo lì tra intel e amd. Non trovo assolutamente che amd sia superiore lato cpu, ma proprio il contrario semmai. Perchè anche qui, intel si dimostra una garanzia di stabilità e costanza nei vari giochi. E come le frequenze più alte in gaming intel vince, anche se non di molto.
Cmq si, lato cpu si va a preferenze anche personali. Ma lato gpu il divario va ben oltre le preferenze, questo è sicuro

EffeX
01-06-2023, 09:49
Dico solo ancora una cosa sulla questione driver: il merito di Nvidia è anche stato costruirsi un ecosistema e una collaborazione con le software house che ATI non aveva, chi si ricorda come girava Doom 3 sulle Nvidia e invece come girava Half life 2? :sofico:
E guardacaso HL2 era uno dei pochi giochi sponsorizzato ATI, mentre D3 Nvidia.
Peccato che i giochi "The way is meant to be played" sono diventati sempre di più, quelli ATI no, anche da quello nasce l'attuale situazione Nvidia vs AMD vs Intel.

nessuno29
01-06-2023, 10:04
Ma che è successo stamattina in sto thread la sagra del luogo comune?

Ragazzi comprate nvidia perché vi piace nvidia punto non è che bisogna per forza screditare AMD se non provate una scheda di questo marchio da 25 anni dai.

AceGranger
01-06-2023, 10:26
Ma che è successo stamattina in sto thread la sagra del luogo comune?

Ragazzi comprate nvidia perché vi piace nvidia punto non è che bisogna per forza screditare AMD se non provate una scheda di questo marchio da 25 anni dai.

come tu pensi che AMD sia superiore e acquisti giustamente AMD, c'è chi pensa che nVidia sia superiore e acquista giustamente nVidia; non si chiama screditare, si chiama valutazione personale :p.


se vuoi ti posto una foto della mia VEGA FE, un cesso fotonico lato driver :stordita:

Cutter90
01-06-2023, 10:28
Ma che è successo stamattina in sto thread la sagra del luogo comune?

Ragazzi comprate nvidia perché vi piace nvidia punto non è che bisogna per forza screditare AMD se non provate una scheda di questo marchio da 25 anni dai.

Ah perchè ora bisogna addirittura provarle le schede per dire o no i punti di forza debolezza? Non ci sono luoghi comuni, ma analisi di test che sono tutti lì a dimostrare le cose che si dicono. Se le gpu amd hanno punti negativi rispetto a nvidia non è mica uno screditare. Boh

OrazioOC
01-06-2023, 10:29
Ma qualcuno che fa ancora il tifo per il proprio portafoglio lo abbiamo? :asd:

EffeX
01-06-2023, 10:37
Ma qualcuno che fa ancora il tifo per il proprio portafoglio lo abbiamo? :asd:

Io! :D

Cutter90
01-06-2023, 10:41
Ma qualcuno che fa ancora il tifo per il proprio portafoglio lo abbiamo? :asd:

Vi scandalizzate se vi dicessi che per me è un aspetto secondario? :stordita:

nessuno29
01-06-2023, 10:43
Ah perchè ora bisogna addirittura provarle le schede per dire o no i punti di forza debolezza? Non ci sono luoghi comuni, ma analisi di test che sono tutti lì a dimostrare le cose che si dicono. Se le gpu amd hanno punti negativi rispetto a nvidia non è mica uno screditare. Boh

Allora postami dei test che dimostrino i problemi driver AMD confermando quello che hai scritto prima ed anche la variabilità maggiore nei giochi delle cpu amd rispetto ad Intel ahah trasformiamo questo sentito dire in oggettività.

Io riporto solo la notizia. Ma ho letto di altre volte di driver amd non proprio perfetti.Dove lo hai letto? Che poi sia colpa di ms o di amd..... fatto sta che i problemi ci sono. Su nvidia non li leggo o ne leggo molto meno. Ma cmq un altra cosa che di amd non mi piace è quanto siano altalenanti le prestazioni delle loro schedeAd esempio? O forse stai parlando ai tempi di polaris coi giochi ubisoft?. IN alcuni giochi vanno, in altri perdono tantissimo rispetto ad nvidia. Quest'ultima è molto più costante nel parco titoli. E questa per me è una cosa importante

E' di qualche giorno fa che l'ultimo aggiornamento di windows ha problemi con i driver amd......Aggiornamento di windows appunto

Secondo me molti hanno la memoria corta. Le differenza nei driver, magari minime, ci sono tutt'ora. Anche nelle cpu ci sono quelle intel che di solito vanno lisce con tutti i videogiochi al d1fonti?, mentre su amd ricordo più problemi (in cp 2077 al d1 ricordo che le cpu amd andavano molto male).
Poi, marketing o no, l'offerta delle due case è al momento non uguale. Dlss superiore a FSR, RT superiore a quello amd, FG vs assente su amd.
Potremmo parlare di marketing se le due offerte fossero identiche. Allora si che il marketing la farebbe da padrone e Nvidia sarebbe davanti perchè pubblicizza meglio il suo prodotto.

Si beh ad ora siamo lì tra intel e amd. Non trovo assolutamente che amd sia superiore lato cpu, ma proprio il contrario semmai. Perchè anche qui, intel si dimostra una garanzia di stabilità e costanza nei vari giochiFonti? hai dei test?. E come le frequenze più alte in gaming intel vince, anche se non di molto.Infatti il 5800x3d a 4,4ghz è molto più lento dell'efficientissimo 11900k ah no?
Cmq si, lato cpu si va a preferenze anche personali. Ma lato gpu il divario va ben oltre le preferenze, questo è sicuro

Vul
01-06-2023, 10:51
Vi scandalizzate se vi dicessi che per me è un aspetto secondario? :stordita:

No, ognuno fa dei propri soldi quello che vuole.

C'e` chi va a mangiare 2/3 volte fuori la settimana ma non gli va proprio giu di spendere 450 euro per una gpu, figuriamoci di piu. Io sono tra questi.

ColdWarGuy
01-06-2023, 10:59
Vi scandalizzate se vi dicessi che per me è un aspetto secondario? :stordita:

No, perchè lo ha già chiarito la tua firma :)

ColdWarGuy
01-06-2023, 11:11
eh ma i consumi eh ma il dlss3 eh ma i driver (nel 2023) eh ma il RT eh ma io nel 2005 avevo una ATI con problemi driver mai più eh ma tutti i miei amichetti di clan hanno nvidia prendo comunque la 4070 dai.

Io ho posseduto parecchie ATI, tra cui 4870 e 5870, il ricordo di drivers disastrosi ce l'ho per schede decisamente più antiche, ma tantè.

Se fossi rimasto fermo alla 1080, che tutt'ora posseggo ed uso, probabilmente avrei preso anch'io la 4070 liscia, ma avendo anche la 3070 sono finito nel limbo di quelli che vogliono fare un upgrade senza però spendere 1000 euro, visto che il PC gaming non è certo al TOP delle mie attività giornaliere e (last but not the least) viene la questione di principio, che sò essere per molti un inutile cruccio :D

Cutter90
01-06-2023, 11:16
Allora postami dei test che dimostrino i problemi driver AMD confermando quello che hai scritto prima ed anche la variabilità maggiore nei giochi delle cpu amd rispetto ad Intel ahah trasformiamo questo sentito dire in oggettività.

Ho postato prima la notizia...... che poi sia windows o amd la colpa in ogni caso con nvidia non è successo. Poi, negli anni ci sono stati casi più o meno eclatanti. Purtroppo dubito eisista un sito che raccoglie i problemi amd negli anni....
Come ho detto in cp2077 amd faticava molto all'inizio e c'era qualche problema nella gestione dei core. Ma anche qui test non penso ce ne siano storici. Tutt'ora il gioco performa meglio su intel rispetto ad amd
Lato cpu è tutto molto semplice. Dove si usa il multicore in maniera efficace, e fortunatamente ormai lo stanno facendo, amd va benissimo, come intel. Ma nei giochi dove ci sono pochi core usati, le maggiori frequenza intel la fanno da padrone. Intorno alle serie vecchie 6-7-8-9-10 generazione intel, questo era proprio palese.
Poi la grande variabilità è lato gpu, lato cpu per fortuna molto meno per la verità

ColdWarGuy
01-06-2023, 11:45
NVIDIA Won’t Forget About Gamers Now That AI Propelled It to the Big Leagues, Says CEO (https://wccftech.com/nvidia-wont-forget-about-gamers-now-that-ai-propelled-it-to-the-big-leagues-says-ceo/)

Il delirio di onnipotenza è una brutta bestia ...

ColdWarGuy
01-06-2023, 11:49
Don’t tell NVIDIA, Taiwanese company reveals GeForce RTX 3070 16GB GPUs (https://videocardz.com/newz/dont-tell-nvidia-taiwanese-company-reveals-geforce-rtx-3070-16gb-gpus)

:D

dominator84
01-06-2023, 12:10
se continua così di schede video non ne produrranno piu', faranno 1 chip solo per comunicare con l'ai, poi una volta connesso ai loro mainframe deciderai tu se giocare o far giocare l'ai al posto tuo

Cutter90
01-06-2023, 12:25
Le alte frequenze sugli intel servono solo a far aumentare vistosamente le temp ed i consumi (che sono già altissimi) restituendo pochissimo in termini di performance, meglio settare un vcore daily e ottimizzare il tutto.

Il 13900k in full load è scandaloso, è una cpu da non comprare visti i consmi (già sono estremamente pentito del 12900k)

i 7800x3d e 7950x3d sono il TOP al momento ambito gaming, dove questi due assorbono 80w il 13900k ne assorbe 180-190w.

é oggettivo, le migliori cpu che tirano fuori più fps al momento sono i ryzen 7000x 3d su fascia altissima..

L'approccio di tenere le frequenze più basse e spingere sulla cache in gaming è sicuramente un benefit, ottima mossa.

https://www.computerbase.de/2023-04/amd-ryzen-7-7800x3d-test/#abschnitt_spiele_in_720p_ganzer_parcours_weniger_cpus


Con una 4080 UV (200-220w) tiri fuori un sistema bomba, con 300w totali hai prestazioni mostruose ed una cpu che limita solo marginalmente.

7800x3d e rtx 4080 sono i prodotti con migliore efficienza energetica attualmente.

Non è assolutamente così assoluto. Dipende da gioco a gioco, non è vero che gli utlimi amd sono il top sempre come performance
Sull'efficienza energetica ci sta, amd è più avanti. Ma questo è un dato assolutamente secondario per me.

Cutter90
01-06-2023, 12:34
Guardati la review, nella medie le cpu amd sono sopra.

Gioco più, gioco meno, si scambiano di posizione, ma mediamente fa qualche punto in più AMD.

13900k a 180w, 7950x3d a 85w, siamo a meno della metà, non ci sono dubbi quale sia il prodotto migliore, oggettivamente intel con il pp indietro non riesce a competere in termini di efficienza, ci sono titoli dove già un 780xx3d si allontana parecchio, più di quanto non faccia intel rispetto a quest'ultimo, ovviamente poi nella media torna tutto, e amd è avanti.

Non si tratta di 20w in più su 100W qui si consuma più del doppio, andando uguale o poco meno.

Si, d'accordissimo.
Lato consumi i vari bench ingame che ho visto non mostrano questa differenza di watt che mi porti tu. Si parla di 20-50 watt Come mai?
https://www.youtube.com/watch?v=ZwUYrsEK2ko&t=477s

Cmq si, lato cpu dopo le batoste prese anni fa si è rialzata egregiamente e ora è testa a testa con intel. Infatti volevo aspettare Meteor lake per capire dove andare per fare upgrade di mobo+cpu. Ma se mad si dimostrasse conveniente, lato perf, non avrò problemi ad acquistarla.
Diversa invece la faccenda gpu, dove amd è indietro rispetto a nvidia e di fatto non c'è un alternativa così forte come sulle cpu

Vul
01-06-2023, 13:24
C'e` una differenza tecnologica piuttosto netta a favore di AMD, se non si vede non la si vuole vedere.

Cutter90
01-06-2023, 13:51
C'e` una differenza tecnologica piuttosto netta a favore di AMD, se non si vede non la si vuole vedere.

Se parli di cpu sicuramente. MA all'atto pratico le performance non palesano tale differenza tecnologica. E' un po come se il dlss fosse uguale a FSR. Nvidia ha i core dedicati, ma poi il risultato sarebbe uguale ad amd che non ce li ha. Ma non è così infatti.

Ale55andr0
01-06-2023, 14:34
NVIDIA Won’t Forget About Gamers Now That AI Propelled It to the Big Leagues, Says CEO (https://wccftech.com/nvidia-wont-forget-about-gamers-now-that-ai-propelled-it-to-the-big-leagues-says-ceo/)

Il delirio di onnipotenza è una brutta bestia ...

veramente il modo in cui hanno calibrato chip e fasce (e quindi prezzi) dimostra esattamente l'opposto. Chi è che diceva "comprare adesso la 2080ti è safe"? :asd:

la concorrenza propone prezzi alti e allineati offrendo meno.
.


si, avere più ram e prezzi inferiori è offrire meno a prezzi alti rispetto al DLSS3 ogni 10 giochi e a bus/ram devastati

Io riporto solo la notizia. Ma ho letto di altre volte di driver amd non proprio perfetti

quindi "io riporto un sentito dire che ho letto in giro", che fa il classico paio con "è risaputo che" meglio noto come "ammiocuggino" (a parte il mio che esiste davvero :O)

Quindi per lo stesso motivo io ho letto di problemi di stutter con frame generator, e di artefatti partendo a basso framerate, come di uno con la 4080 qui sul forum che gli restava coi clock sparati in idle. Riporto solo quello che si legge in giro, sia chiaro.

Ah perchè ora bisogna addirittura provarle le schede per dire


"tu non conosci e non hai visto" mi disse qualcuno :rotfl: (fra parentesi, dicendo una cosa non vera visto che avevo visto e avevo l'hardware per vedere da 2 anni e passa)

marbasso
01-06-2023, 14:48
come di uno con la 4080 qui sul forum che gli restava coi clock sparati in idle.

Questo è successo anche a me, non è raro. Si risolve reinstallando i driver dopo aver dato una pulita con DDU. Ma non è grave dai. Quando mi è successo è perchè sfanculavo tutto benchando e overcloccando a palla.

Ale55andr0
01-06-2023, 14:52
Questo è successo anche a me, non è raro. Si risolve reinstallando i driver dopo aver dato una pulita con DDU. Ma non è grave dai. Quando mi è successo è perchè sfanculavo tutto benchando e overcloccando a palla.

resta un problema di driver. E pure non raro mi dici. Una stupidaggine, ma resta tale, come tale restano quelli altrui come i miei all'epoca con la 1080 e con la 3070, e quelli prima ancora con 7970 e 290 (ovviamente) ma non vado dicendo in giro che driver nvidia e AMD sono merda.

marbasso
01-06-2023, 15:02
resta un problema di driver. E pure non raro mi dici. Una stupidaggine, ma resta tale, come tale restano quelli altrui come i miei all'epoca con la 1080 e con la 3070, e quelli prima ancora con 7970 e 290 (ovviamente) ma non vado dicendo in giro che driver nvidia e AMD sono merda.

Ba, qualche problema salta sempre fuori da ambo le parti, non son questi che dovrebbero far gridare allo scandalo. Se poi ce ne sono lato OS dipende dall'entità ed allora si che cambia la musica.

Cutter90
01-06-2023, 15:14
veramente il modo in cui hanno calibrato chip e fasce (e quindi prezzi) dimostra esattamente l'opposto. Chi è che diceva "comprare adesso la 2080ti è safe"? :asd:




si, avere più ram e prezzi inferiori è offrire meno a prezzi alti rispetto al DLSS3 ogni 10 giochi e a bus/ram devastati



quindi "io riporto un sentito dire che ho letto in giro", che fa il classico paio con "è risaputo che" meglio noto come "ammiocuggino" (a parte il mio che esiste davvero :O)

Quindi per lo stesso motivo io ho letto di problemi di stutter con frame generator, e di artefatti partendo a basso framerate, come di uno con la 4080 qui sul forum che gli restava coi clock sparati in idle. Riporto solo quello che si legge in giro, sia chiaro.

E scusa qui quando mai è stato contestato?



"tu non conosci e non hai visto" mi disse qualcuno :rotfl: (fra parentesi, dicendo una cosa non vera visto che avevo visto e avevo l'hardware per vedere da 2 anni e passa)

Mi fai morire. ci sono cose che bisogna provare/conoscere prima di parlare tecnicamente. Ma il livello di conoscenza richiesto varia a seconda di quello che si parla. Non ci arrampichiamo sugli specchi su.

Tra l'altro ho proprio detto che avevo problemi con schermate nere alle volte. Ma questi mica sono i problemi driver seri. Anche qui, le cose vanno soppesate. Se un gioco ti gira male è un problema driver serio. Se ho delle schermate nere ogni tanto non lo è.

Poi c'è una bella differenza tra dire la verità o no....

marbasso
01-06-2023, 15:20
resta un problema di driver. E pure non raro mi dici. Una stupidaggine, ma resta tale, come tale restano quelli altrui come i miei all'epoca con la 1080 e con la 3070, e quelli prima ancora con 7970 e 290 (ovviamente) ma non vado dicendo in giro che driver nvidia e AMD sono merda.

Ba, qualche problema salta sempre fuori da ambo le parti, non son questi che dovrebbero far gridare allo scandalo. Se poi ce ne sono lato OS dipende dall'entità ed allora si che cambia la musica.

OrazioOC
01-06-2023, 15:31
Ho notato che stanno apparendo negli store delle 3060 ti anche gddr6x sotto i 350 euro, tanti auguri nvidia a piazzare 4060 e 4060 ti a 450 euro. :D

LkMsWb
01-06-2023, 15:40
[I][B]
Tra l'altro ho proprio detto che avevo problemi con schermate nere alle volte. Ma questi mica sono i problemi driver seri. Anche qui, le cose vanno soppesate. Se un gioco ti gira male è un problema driver serio. Se ho delle schermate nere ogni tanto non lo è.

Poi c'è una bella differenza tra dire la verità o no....

Sarò strano io ma avendo poco tempo per giocare, se un gioco gira male passo ad altro fino a che non sistemano, se ho schermate nere e devo rifare roba mi girano molto più le palle :asd:

Comunque lato attuale driver sia AMD che nVidia hanno belle serie di fix da fare da MESI, e per entrambe (ma per nvidia di più, se vogliamo) l'elenco vero delle problematiche non è quello dei pdf dei driver, sulle Nvidia per esempio l'elenco nel thread ufficiale del forum ufficiale è nettamente più lungo di quello del PDF. Ma ci sta, ormai i driver una volta decompressi solo oltre 2GB di roba...

Salfox
01-06-2023, 17:11
Le alte frequenze sugli intel servono solo a far aumentare vistosamente le temp ed i consumi (che sono già altissimi) restituendo pochissimo in termini di performance, meglio settare un vcore daily e ottimizzare il tutto.

Il 13900k in full load è scandaloso, è una cpu da non comprare visti i consmi (già sono estremamente pentito del 12900k)



Ti consiglierei di provarlo personalmente prima di fare affermazioni così perentorie. Ad esempio io che lo monto sul mio comp, dopo averlo provato, la penso esattamente all'opposto tuo, mai avuto in vita mia (molto lunga purtroppo :D :D :D ) un processore così efficiente, molto ma molto meglio del 12900k che ho tenuto pochissimo prima di raptor.

nessuno29
01-06-2023, 17:54
Ti consiglierei di provarlo personalmente prima di fare affermazioni così perentorie. Ad esempio io che lo monto sul mio comp, dopo averlo provato, la penso esattamente all'opposto tuo, mai avuto in vita mia (molto lunga purtroppo :D :D :D ) un processore così efficiente, molto ma molto meglio del 12900k che ho tenuto pochissimo prima di raptor.

Hai provato anche il 7950x3d?

eXeS
01-06-2023, 19:10
Ti consiglierei di provarlo personalmente prima di fare affermazioni così perentorie. Ad esempio io che lo monto sul mio comp, dopo averlo provato, la penso esattamente all'opposto tuo, mai avuto in vita mia (molto lunga purtroppo :D :D :D ) un processore così efficiente, molto ma molto meglio del 12900k che ho tenuto pochissimo prima di raptor.
12X e 13X vanno forte ma l'efficienza è un'altra cosa, secondo techpowerup in game l'efficienza di un 13900K è questa, è si, in fondo alla classifica ;)

https://tpucdn.com/review/amd-ryzen-7-7800x3d/images/efficiency-gaming.png

Se è il processore più efficiente che hai mai avuto allora la tua avventura con i PC non è di così lungo corso come dichiari, visto che le CPU peggiori sono solo 10900k e 11900k :D

ColdWarGuy
01-06-2023, 19:28
Ho notato che stanno apparendo negli store delle 3060 ti anche gddr6x sotto i 350 euro, tanti auguri nvidia a piazzare 4060 e 4060 ti a 450 euro. :D

Eh ma non ha il DLSS3 con il FG e l'encoder AV1 :D

Salfox
01-06-2023, 19:45
12X e 13X vanno forte ma l'efficienza è un'altra cosa, secondo techpowerup in game l'efficienza di un 13900K è questa, è si, in fondo alla classifica ;)

Se è il processore più efficiente che hai mai avuto allora la tua avventura con i PC non è di così lungo corso come dichiari, visto che le CPU peggiori sono solo 10900k e 11900k :D

Io le review su internet non le guardo proprio più, a mio parere sono troppo diverse le situazioni di prova rispetto al reale utilizzo, io mi baso semplicemente sulla mia esperienza, su quello che uso e che gioco e quanto consumo a parità di utilizzo. Ti assicuro che rimarresti sorpreso se provassi personalmente. Internet per la mia esperienza è un cattivissimo consigliere e sta andando sempre peggio. Poi per restare in tema se avessi seguito le cazzate che dicevano le review e i fantomatici consumi stratosferici delle Lovelace (parlo di ottobre 2022) non avrei mai preso la 4090 che invece ho preso al day one e che mi sta consentendo di giocare molto meglio di prima consumando la metà e quando lo dicevo, appena provata la nuova VGA, tutti mi prendevano per pazzo.....

nessuno29
01-06-2023, 20:02
Ma nelle review della 4090 del day one già si parlava di quanto fosse efficiente la scheda, il 13900k non è efficiente quei test lo dimostrano.

Ubro92
01-06-2023, 20:30
Sinceramente un 13900K esclusivamente per giocare mi sembra uno spreco.
In teoria come 7900x/7950x dovrebbero essere cpu votate in primis alla produttività.

Comunque il 7800x3d è un'ottima soluzione, però paga per il prezzo abbastanza alto (450€ di sola cpu) e per la piattaforma decisamente acerba e costosa.
Nella gamma AM5 quella a mio parere peggiore è il 7900x3d, ma proprio a livello concettuale datoo che solo un chiplet da 6 core può accedere alla cache 3d, se proprio dovevi fare qualcosa del genere sarebbe stato più interessante un 7600X3D, con un costo più accessibile.

Intel vero che per via del pp sta indietro lato efficienza ma è qualcosa che noti principalmente sull'i9 o un i7 tirato a morte, cpu come 13600K e 13700K undervoltate per bene e accoppiate a buone ram alla fine sono soluzioni che si comportano egregiamente in quasi tutti i contesti e con un costo più accessibile per il blocco mobo+cpu.

Poi se con il refresh abilitano il DLVR si dovrebbe beneficiare di un 15% sui consumi e un +7% di prestazioni.

Per il resto se uno punta alla 4090, presumo che abbia un budget bello ampio quindi si potrebbe anche investire sul 7800x3d e su AM5 per una questione di longevità

Salfox
01-06-2023, 20:32
Ma nelle review della 4090 del day one già si parlava di quanto fosse efficiente la scheda

Mi sa che fai confusione, rileggitele.
Si parlava di consumi in game di più di 400W quando poi in effetti la mia la vedo pochissime volte superare i 200W....

nessuno29
01-06-2023, 20:59
Mi sa che fai confusione, rileggitele.
Si parlava di consumi in game di più di 400W quando poi in effetti la mia la vedo pochissime volte superare i 200W....

Non faccio nessuna confusione, forse tu stai facendo confusione tra rumor e review, nelle recensioni si parlava di efficienza elevata, c'erano anche molti test con la 4090 impostata a 200watt. Poi parlare di consumi e basta non ha molto senso meglio parlare di efficienza, la 4090 è efficiente anche a 400watt perché ha prestazioni ottime un 13900k non è efficiente se in game va come un 7800x3d che consuma 1/4.

grng
01-06-2023, 22:32
Mi sa che fai confusione, rileggitele.
Si parlava di consumi in game di più di 400W quando poi in effetti la mia la vedo pochissime volte superare i 200W....
Certo se non la tiri con gli fps cappati o in idle consuma meno :D

ColdWarGuy
02-06-2023, 00:20
E' molto più efficiente dire che il 13900K è un cesso di CPU nel 3ad apposito dei blue, guadagnate degli insulti all'istante, con poco sforzo, soprattutto con un 5600 in firma.

sertopica
02-06-2023, 04:58
Io le review su internet non le guardo proprio più, a mio parere sono troppo diverse le situazioni di prova rispetto al reale utilizzo, io mi baso semplicemente sulla mia esperienza, su quello che uso e che gioco e quanto consumo a parità di utilizzo. Ti assicuro che rimarresti sorpreso se provassi personalmente. Internet per la mia esperienza è un cattivissimo consigliere e sta andando sempre peggio. Poi per restare in tema se avessi seguito le cazzate che dicevano le review e i fantomatici consumi stratosferici delle Lovelace (parlo di ottobre 2022) non avrei mai preso la 4090 che invece ho preso al day one e che mi sta consentendo di giocare molto meglio di prima consumando la metà e quando lo dicevo, appena provata la nuova VGA, tutti mi prendevano per pazzo.....

Si' com'era? Utenza tossica... :D

Peccato che di castronerie ne hai scritte e postate pure te. Jedi Survivor resta l'ultimo esempio ad imperitura memoria. Pur di avere ragione hai postato video senza OSD, che stutteravano vistosamente e con frame cap, perche' sul PC muletto della suocera del mio bisnonno gira una favola. :D

Per quanto riguarda la CPU il miglior compromesso per restare su Intel e' un 13600k per non raggiungere gli squilibri prestazioni/watt del top di gamma.

Ciao :ops:

nessuno29
02-06-2023, 05:16
E' molto più efficiente dire che il 13900K è un cesso di CPU nel 3ad apposito dei blue, guadagnate degli insulti all'istante, con poco sforzo, soprattutto con un 5600 in firma.

Se parli di me io non ho mai detto questo, non è un cesso di cpu semplicemente non è efficiente e non è la scelta migliore per il gaming chi afferma il contrario sbaglia

Salfox
02-06-2023, 05:19
E' molto più efficiente dire che il 13900K è un cesso di CPU nel 3ad apposito dei blue, guadagnate degli insulti all'istante, con poco sforzo, soprattutto con un 5600 in firma.

Hai ragione da vendere purtroppo ma io non voglio convincere nessuno e rispetto le opinioni di tutti che nel 99% dei casi non condivido per nulla, secondo il mio parere attualmente le review di processori e soprattutto VGA non sono più obiettive e non si basano, nella stragrande maggioranza dei casi, sul reale utilizzo del componente. Personalmente non le guardo più con l'attenzione di un tempo ma le leggo solo per passatempo. Tutti i componenti che ho comprato negli ultimi due, tre anni nel mio reale utilizzo si sono dimostrati assai distanti da ciò che avevo letto sulle recensioni e la cosa mi dispiace molto perchè ormai compro solo seguendo le mie sensazioni e non leggendo le recensioni che erano le mie guide di un tempo.

Fos
02-06-2023, 08:40
[I][B]Mi fai morire. ci sono cose che bisogna provare/conoscere prima di parlare tecnicamente. Ma il livello di conoscenza richiesto varia a seconda di quello che si parla.Oppure varia a seconda di quello che non sai, da aggiungere a quello che credi di sapere.
Sentir parlare di frequenza dei processori determinante, chiarisce subito il livello di sapienza che accompagna...

Nel provato, chissà quanti AMD hai testato ultimamente. Lì non testi e non vedi il testato, si direbbe. Che la testa(ta) sia finita sotto la sabbia...?

ColdWarGuy
02-06-2023, 09:50
Se parli di me io non ho mai detto questo, non è un cesso di cpu semplicemente non è efficiente e non è la scelta migliore per il gaming chi afferma il contrario sbaglia

La serie 7000 3d di AMD è stata concepita per il gaming di alto livello e l'operazione è riuscita, detto questo sono processori costosi che richiedono un contorno costoso, io vedo un efficienza al portafoglio abbastanza bassa perchè al di fuori di quella task a parità di prezzo sono mediamente inferiori agli Intel già con la serie 13 e con la 14 sarà ancora peggio.

Prendi ad esempio il 7800x3d, CPU che paghi almeno 450-480 euro, fuori dal gaming sei mediamente sotto un 13600K che costa almeno 150 euro in meno e che puoi montare su una mainboard con DDR4.

Stessa cosa per 7900x3d vs 13700K, se poi prendiamo il 7950x3d tra mainboard e DDR5 adeguate siamo come minimo attorno ai 1200-1300 euro che dovrai giustificare con una 4090 per vedere i numeri delle recensioni.

Ma non è finita, perchè poi parte l'iperbole del case trendy con pareti di cristallo, sistema a liquido con schermo OLED, almeno 10 ventole RGB da 30 euro l'una, alimentatore da 1KW platino, kit cavi modding cromaticamente intonati, accessori vari per il cable management e così via.

Roba da elite insomma :D

Ed io qui ad aspettare la 7800XT a 500-600 euro, che a questo punto potrebbe non arrivare mai...

EDIT : aggiungo i grafici dei test di TPU dove secondo me il 13600K fa davvero una porca figura :

https://i.postimg.cc/kX5VV8hb/3d-cut-13.png

marbasso
02-06-2023, 10:29
Ed io qui ad aspettare la 7800XT a 500-600 euro, che a questo punto potrebbe non arrivare mai...

Ti sono vicino, arriverà...

OrazioOC
02-06-2023, 10:35
Bah, con i saldi attuali non vedo perchè aspettare oltre, rtx 3000 e rx 6000 ad oggi sono ancora competitive.
Perchè dovrei aspettare una simil 6900 xt a 700 euro, quando a 600 euro oggi rimedio la 6950 xt? Idem per la rtx 4060, a 330 spedite ci sto vedendo le 3060 ti gddr6x, che a momenti fanno pure il pelo e contropelo alle 4060 ti. :asd:

Forse giusto per i consumi, ma fatto salvo quello beh... :rolleyes:

ColdWarGuy
02-06-2023, 10:46
Bah, con i saldi attuali non vedo perchè aspettare oltre, rtx 3000 e rx 6000 ad oggi sono ancora competitive.
Perchè dovrei aspettare una simil 6900 xt a 700 euro, quando a 600 euro oggi rimedio la 6950 xt? Idem per la rtx 4060, a 330 spedite ci sto vedendo le 3060 ti gddr6x, che a momenti fanno pure il pelo e contropelo alle 4060 ti. :asd:

Forse giusto per i consumi, ma fatto salvo quello beh... :rolleyes:

Con una 3070 nel case l'upgrade minimo è la 4070 Ti / 7900 XT, se non avessi avuto la suddetta avrei probabilmente preso la 4070 liscia, ma tant'è e siamo nel limbo.

OrazioOC
02-06-2023, 10:48
Con una 3070 nel case l'upgrade minimo è la 4070 Ti / 7900 XT, se non avessi avuto la suddetta avrei probabilmente preso la 4070 liscia, ma tant'è e siamo nel limbo.

Anche una 6800 xt(scheda che ormai è vicina ai 500 spedita) ben tweakkata non andrebbe tanto meno delle due che hai citato, ma comunque ho capito che intendi, faresti un sidegrade generazionale e lo vorresti evitare...

dominator84
02-06-2023, 10:51
figherrimo: https://youtu.be/v6PfZ9CJVUg?t=448

ColdWarGuy
02-06-2023, 11:14
figherrimo: https://youtu.be/v6PfZ9CJVUg?t=448

Carino ma rigidamente legato alla configurazione dei connettori di alimentazione della GPU, sul sito ci sono già 5 differenti P/N destinati a crescere e poi diventa d'obbligo il case con parete di cristallo in posizione strategica.

nessuno29
02-06-2023, 11:41
La serie 7000 3d di AMD è stata concepita per il gaming di alto livello e l'operazione è riuscita, detto questo sono processori costosi che richiedono un contorno costoso, io vedo un efficienza al portafoglio abbastanza bassa perchè al di fuori di quella task a parità di prezzo sono mediamente inferiori agli Intel già con la serie 13 e con la 14 sarà ancora peggio.

Prendi ad esempio il 7800x3d, CPU che paghi almeno 450-480 euro, fuori dal gaming sei mediamente sotto un 13600K che costa almeno 150 euro in meno e che puoi montare su una mainboard con DDR4.

Stessa cosa per 7900x3d vs 13700K, se poi prendiamo il 7950x3d tra mainboard e DDR5 adeguate siamo come minimo attorno ai 1200-1300 euro che dovrai giustificare con una 4090 per vedere i numeri delle recensioni.

Ma non è finita, perchè poi parte l'iperbole del case trendy con pareti di cristallo, sistema a liquido con schermo OLED, almeno 10 ventole RGB da 30 euro l'una, alimentatore da 1KW platino, kit cavi modding cromaticamente intonati, accessori vari per il cable management e così via.

Roba da elite insomma :D


Sono processori costosi che richiedono un contorno costoso tanto quanto un 13900k o un 13700k, non credo che gli Intel li monti su una 4 fasi sdoppiate o te li regalano, chi usa la cpu per lavoro sono un parte irrisoria qua si parlava di gaming, tra l'altro in un discorso partito dalle affermazioni di Cutter90 nessuno sta denigrando Intel semplicemente non è efficiente punto.

Per quanto mi riguarda il discorso più chiudersi qui.

ColdWarGuy
02-06-2023, 12:18
Sono processori costosi che richiedono un contorno costoso tanto quanto un 13900k o un 13700k, non credo che gli Intel li monti su una 4 fasi sdoppiate o te li regalano, chi usa la cpu per lavoro sono un parte irrisoria qua si parlava di gaming, tra l'altro in un discorso partito dalle affermazioni di Cutter90 nessuno sta denigrando Intel semplicemente non è efficiente punto.

Per quanto mi riguarda il discorso più chiudersi qui.

Se guardi i grafici che ho postato il 13600K al cospetto del 7950x3d è un affare e lo monti su MB DDR4 da due lire con le memorie recuperate dalla build precedente.

Con questo posso chiudere anche io.

nessuno29
02-06-2023, 12:26
Se guardi i grafici che ho postato il 13600K al cospetto del 7950x3d è un affare e lo monti su MB DDR4 da due lire con le memorie recuperate dalla build precedente.

Con questo posso chiudere anche io.

Si ho capito, ma si stava parlando del 13900k e della sua efficienza punto.

ColdWarGuy
02-06-2023, 12:34
Anche una 6800 xt(scheda che ormai è vicina ai 500 spedita) ben tweakkata non andrebbe tanto meno delle due che hai citato, ma comunque ho capito che intendi, faresti un sidegrade generazionale e lo vorresti evitare...

Oltre al sidegrade generazionale che hai giustamente menzionato, non ci sarebbe il gap di prestazione minimo per un upgrade, che io ritengo essere el 50%, ma meglio attorno al 100%, non per niente sono passato da GTX 970 a GTX 1080 e poi RTX 3070.

Se guardiamo la prestazione media in 2K della 6800XT è chiaro che siamo lontani dal soddisfare questo criterio :

https://i.postimg.cc/N0R92CKj/6800.png

Dono89
02-06-2023, 12:44
Si, modelliamoci un attimo però.
Auspicare il 50% gen su gen è davvero tanto!

Era successo con le 3000 perché la 3080 aveva il chippone, altrimenti addio.
Non ho i numeri, ma forse pure tra 4080 e 3080 perché una ha un pp pessimo e l'altra top con cache extra (e infatti si vede sui costi)

Gen su gen il 50 mi sembra molto e tendenzialmente non succede

Maury
02-06-2023, 12:52
Se guardi i grafici che ho postato il 13600K al cospetto del 7950x3d è un affare e lo monti su MB DDR4 da due lire con le memorie recuperate dalla build precedente.

Con questo posso chiudere anche io.

Tra l'altro il 13600k lo puoi overclockare con un vcore inferiore allo stock, il mio ha guadagnato 500 mhz su Pcore e Ecore consumando meno dello stock. Una bestia in potenza e efficienza :)

Ale55andr0
02-06-2023, 13:20
Ti sono vicino, arriverà...

In ritardo e ovviamente sarà deludente come le altre

Bah, con i saldi attuali non vedo perchè aspettare oltre, rtx 3000 e rx 6000 ad oggi sono ancora competitive.
Perchè dovrei aspettare una simil 6900 xt a 700 euro, quando a 600 euro oggi rimedio la 6950 xt? Idem per la rtx 4060, a 330 spedite ci sto vedendo le 3060 ti gddr6x, che a momenti fanno pure il pelo e contropelo alle 4060 ti. :asd:

Forse giusto per i consumi, ma fatto salvo quello beh... :rolleyes:

Prodotto più nuovo ergo miglior supporto driver da qui a un tot di tempo e maggiore efficienza. La 6950xt a 600 la trovi solo in shop nati ieri e spariti domani mattina

ColdWarGuy
02-06-2023, 13:23
Si, modelliamoci un attimo però.
Auspicare il 50% gen su gen è davvero tanto!

Era successo con le 3000 perché la 3080 aveva il chippone, altrimenti addio.
Non ho i numeri, ma forse pure tra 4080 e 3080 perché una ha un pp pessimo e l'altra top con cache extra (e infatti si vede sui costi)

Gen su gen il 50 mi sembra molto e tendenzialmente non succede

Non ho mica detto che pretendo il +50% mantenendo la serie da una generazione all'altra :D

Ripeto, requisito minimo +50%, ottimale 100%, saltando alla bisogna una generazione per restare in segmento midrange lato prezzo, come già fatto in passato con GTX 970 -> GTX 1080 -> RTX 3070, dove gli incrementi sono sempre stati prossimi al raddoppio in 2K.

ColdWarGuy
02-06-2023, 13:24
In ritardo e ovviamente sarà deludente come le altre
-snip


Ottimismo sempre ai massimi livelli :D

OrazioOC
02-06-2023, 13:35
In ritardo e ovviamente sarà deludente come le altre



Prodotto più nuovo ergo miglior supporto driver da qui a un tot di tempo e maggiore efficienza. La 6950xt a 600 la trovi solo in shop nati ieri e spariti domani mattina

Tipo amazon. :asd:

Per il discorso driver, dipende molto anche dall'uarch, rdna 2 non è di certo gcn e ampere non è pascal, a lifespan i prossimi 5 anni di supporto driver non dovrebbero essere proprio in discussione.

Ancora ci portiamo dietro lato nvidia i driver per le gpu maxwell gtx 900, roba che ha quasi 10 anni, e amd supporta ancora pienamente vega e polaris che è roba che quest'anno ha 7 anni. :asd:

Salfox
02-06-2023, 13:39
Si ho capito, ma si stava parlando del 13900k e della sua efficienza punto.

Mi piacerebbe tanto che lo provassi invece di credere a tutte le cazzate che scrivono sulle recensioni, ti assicuro che ti ricrederesti alla grande, nel mio caso quando ho visto i dati di consumo rispetto al vecchio PC, non ci credevo.
Ti basti sapere che come consumo il nuovo PC con 13900K e 4090 consuma due terzi del vecchio (con 5930k e 3090) usando il computer nello stesso identico modo con gli stessi giochi e le stesse applicazioni con la sola differenza del SO che nel nuovo è Win11 e nel vecchio era Win10. Poi ognuno è libero di non crederci ed anzi io ci sono abituato perchè sono stato il primo su questo forum a dire che a parità di applicazioni usate la 4090 consumava molto di meno della 3090 e troverai nei post di ottobre 2022 che tutti mi prendevano per un cazzaro prima di dover ammettere che alla fine avevo ragione alla grande.
Ah poi, ho dimenticato di dire che entrambi computer sono assolutamente a default e non ho toccato nulla del bios per overclock vari perchè non sono per niente uno smanettone.

OrazioOC
02-06-2023, 13:39
Oltre al sidegrade generazionale che hai giustamente menzionato, non ci sarebbe il gap di prestazione minimo per un upgrade, che io ritengo essere el 50%, ma meglio attorno al 100%, non per niente sono passato da GTX 970 a GTX 1080 e poi RTX 3070.

Se guardiamo la prestazione media in 2K della 6800XT è chiaro che siamo lontani dal soddisfare questo criterio :


6800 xt e 3080 non vanno meno della 4070 e costano pure meno ora, se rivendessi la 3070 a 350 euro(fattibilissimo, visto che a 450 euro vedo la 4060 ti che oltre il full hd va' pure meno) rimettendoci 150 euro avresti più performance in raster e il doppio della vram.
Senza contare che una 6800 xt quel 10% in più di performance extra lo piglia, e sarebbe già più vicina alla 4070 ti che non alla 4070 vanilla.

Se poi ci si riesce ad arrivare a 600 euro, ci sono le 6950 xt spedite su amazon, e sono gpu che ancora fanno parecchia legna. :asd:

ColdWarGuy
02-06-2023, 14:04
6800 xt e 3080 non vanno meno della 4070

Non lo metto in dubbio ma l'incremento raster è limitato, 4070 Ti è il target minimo ed il solo incremento VRAM non vale la candela.

A proposito di quest'ultimo aspetto, TLOU 1.0.5.0 mi gira fluidissimo a 3440x1440 con DLSS su qualità e settaggi decisamente alti tra i 60 ed i 70 FPS, se poi come qualcuno ha detto hanno impoverito le texture per le schede da 8GB la cosa non sembra così evidente.

Non tirate fuori video di versioni vecchie dove il gioco stuttera, perchè i programmatori hanno capito definitivamente che con una scheda da 8GB hai a disposizione ... 8GB.


Se poi ci si riesce ad arrivare a 600 euro, ci sono le 6950 xt spedite su amazon, e sono gpu che ancora fanno parecchia legna. :asd:

Se intendi la MERC319 a 619 da marketplace fai un giro sui feedback da una stella e guarda a cosa sono casualmente relativi :D

OrazioOC
02-06-2023, 14:09
Se intendi la MERC319 a 619 da marketplace fai un giro sui feedback da una stella e guarda a cosa sono casualmente relativi :D

Azz, 12 review negative su 250, proprio una schedaccia. :asd:

Detto questo, il mercato ad oggi comunque offre appigli validi, ma la 3070 è ancora un osso duro e non è detto che una possibile 7800 xt simil 6900 xt sia un upgrade più valido di quello che trovi oggi a 6/700 euro.

StylezZz`
02-06-2023, 14:12
A proposito di quest'ultimo aspetto, TLOU 1.0.5.0 mi gira fluidissimo a 3440x1440 con DLSS su qualità e settaggi decisamente alti tra i 60 ed i 70 FPS, se poi come qualcuno ha detto hanno impoverito le texture per le schede da 8GB la cosa non sembra così evidente

non le hanno ''impoverite'', è stato aggiunto un settaggio che riguarda la velocità di caricamento delle texture, ma settato su normale ho notato solo qualche episodio sporadico di texture caricata in ritardo (mezzo secondo, una tragedia).

bagnino89
02-06-2023, 14:20
Oltre al sidegrade generazionale che hai giustamente menzionato, non ci sarebbe il gap di prestazione minimo per un upgrade, che io ritengo essere el 50%, ma meglio attorno al 100%, non per niente sono passato da GTX 970 a GTX 1080 e poi RTX 3070.

Hai fatto i miei stessi passaggi, ed infatti quoto il tuo pensiero. 50% è il minimo sindacale per cambiare.

Non lo metto in dubbio ma l'incremento raster è limitato, 4070 Ti è il target minimo ed il solo incremento VRAM non vale la candela.

A proposito di quest'ultimo aspetto, TLOU 1.0.5.0 mi gira fluidissimo a 3440x1440 con DLSS su qualità e settaggi decisamente alti tra i 60 ed i 70 FPS, se poi come qualcuno ha detto hanno impoverito le texture per le schede da 8GB la cosa non sembra così evidente.

Non tirate fuori video di versioni vecchie dove il gioco stuttera, perchè i programmatori hanno capito definitivamente che con una scheda da 8GB hai a disposizione ... 8GB.

Quoto anche qui.

ColdWarGuy
02-06-2023, 14:27
Azz, 12 review negative su 250, proprio una schedaccia. :asd:


Il giudizio non è sulla scheda ma sul venditore che stà facendo "rigirare" le schede rese, ben altra cosa sarebbe stata 619 venduta e spedita da Amazon.

Detto questo anche se vendessi la 3070 a 350 aggiungere poi 270 euro per +25% medi in raster proprio non vale la candela, piuttosto vado a caccia di una 7900 XT a 800 euro.

ColdWarGuy
02-06-2023, 14:33
Hai fatto i miei stessi passaggi, ed infatti quoto il tuo pensiero. 50% è il minimo sindacale per cambiare.

Quoto anche qui.

La GTX 970 si è rivelata un affare alla faccia di tutto il cinema sul discorso VRAM 3.5-4GB, versione Asus Strix pagata 345 euro su Amazon nel 2015, va ancora oggi alla grande nel PC del nipote.

Kvarat
02-06-2023, 14:33
Detto questo anche se vendessi la 3070 a 350 aggiungere poi 270 euro per +25% medi in raster proprio non vale la candela, piuttosto vado a caccia di una 7900 XT a 800 euro.

Non fa una piega :asd:

ColdWarGuy
02-06-2023, 14:38
non le hanno ''impoverite'', è stato aggiunto un settaggio che riguarda la velocità di caricamento delle texture, ma settato su normale ho notato solo qualche episodio sporadico di texture caricata in ritardo (mezzo secondo, una tragedia).

Ho fatto questa mattina una "sessione" di un paio d'ore, solo in una occasione mi è capitato di vedere apparire una piastrella in ritardo tipo di mezzo secondo, rispetto alla versione iniziale è un'altro pianeta, se fossero usciti così al day one su PC avrebbero fatto un figurone.

EffeX
02-06-2023, 15:21
La GTX 970 si è rivelata un affare alla faccia di tutto il cinema sul discorso VRAM 3.5-4GB, versione Asus Strix pagata 345 euro su Amazon nel 2015, va ancora oggi alla grande nel PC del nipote.

Io ho ancora la gtx 980 e i giochi odierni con dettagli medi a 1080p ci girano dignitosamente, basta non pretendere i 100 fps, se si fa paragone tra prestazioni/prezzo/consumi le 900 son state grandissime schede, soprattutto la 970 che sui 320€ si trovava dappertutto.
Ma per dirne un altra, anche sulla gtx 285 i giochi di oggi ci girano a dettagli minimi e mix di res tra 720p e 1080p, a 30 fps ovvio, però ci girano, non pensavo che una gpu del 2008 riuscisse ancora a far girare in modo decente i giochi di questi ultimi 2 anni.
Questo fa capire che comunque le schede vengono cambiate prima per scimmia che per reale necessità, e giustamente Nvidia e gli altri se ne approfittano...

Kvarat
02-06-2023, 15:49
Io ho ancora la gtx 980 e i giochi odierni con dettagli medi a 1080p ci girano dignitosamente, basta non pretendere i 100 fps, se si fa paragone tra prestazioni/prezzo/consumi le 900 son state grandissime schede, soprattutto la 970 che sui 320€ si trovava dappertutto.
Ma per dirne un altra, anche sulla gtx 285 i giochi di oggi ci girano a dettagli minimi e mix di res tra 720p e 1080p, a 30 fps ovvio, però ci girano, non pensavo che una gpu del 2008 riuscisse ancora a far girare in modo decente i giochi di questi ultimi 2 anni.
Questo fa capire che comunque le schede vengono cambiate prima per scimmia che per reale necessità, e giustamente Nvidia e gli altri se ne approfittano...

Non può essere diversamente. Un tempo le schede dovevano risultare funzionanti su risoluzioni al massimo di 1080. Adesso devono far andare giochi a 2k ed oltre su schermi da centinaia di HZ. Le potenze in gioco sono completamente diverse e soprattutto non proporzionali. Muovere un gioco di ultima generazione in 4k a 120hz (il minimo sindacale dei monitor e tv Oled) non potrebbe mai essere possibile con schede simil 980 nel 2023. Per questo costano 2000 euro e nessuno fiata sul loro prezzo prestazioni.

Ryo Hazuki
02-06-2023, 15:52
Io ho ancora la gtx 980 e i giochi odierni con dettagli medi a 1080p ci girano dignitosamente, basta non pretendere i 100 fps, se si fa paragone tra prestazioni/prezzo/consumi le 900 son state grandissime schede, soprattutto la 970 che sui 320€ si trovava dappertutto.
Ma per dirne un altra, anche sulla gtx 285 i giochi di oggi ci girano a dettagli minimi e mix di res tra 720p e 1080p, a 30 fps ovvio, però ci girano, non pensavo che una gpu del 2008 riuscisse ancora a far girare in modo decente i giochi di questi ultimi 2 anni.
Questo fa capire che comunque le schede vengono cambiate prima per scimmia che per reale necessità, e giustamente Nvidia e gli altri se ne approfittano...

No dai, nel 2023 non si può sentire. Quando giochi a risoluzioni 4k o 5k su pannelli decenti, sono quadri e foto in movimento. Oltre agli ottimi gameplay i giochi incantano gli occhi

ColdWarGuy
02-06-2023, 16:04
No dai, nel 2023 non si può sentire. Quando giochi a risoluzioni 4k o 5k su pannelli decenti, sono quadri e foto in movimento. Oltre agli ottimi gameplay i giochi incantano gli occhi

Non hai certo descritto lo standard medio del 2023, a meno che non pensi che il minimo sindacale sia la 4090 con un oled 120Hz.

E poi solitamente quelli che si soffermano ad apprezzare il panorama nei giochi d'azione pigliano le mazzate :D

EffeX
02-06-2023, 22:12
No dai, nel 2023 non si può sentire. Quando giochi a risoluzioni 4k o 5k su pannelli decenti, sono quadri e foto in movimento. Oltre agli ottimi gameplay i giochi incantano gli occhi

Ciò che intendevo io è che, specialmente per la gtx 285, portare una risoluzione che non è nemmeno quella per cui era stata progettata, il 1080p, con giochi recenti e framerate intorno ai 30, non è cosa da poco.
Prova a far partire Crysis su una Radeon 9800 xt (non ti dico una Fx Nvidia perché lì non ci parte nemmeno), gioco uscito 4 anni dopo la suddetta scheda, top di gamma del 2003 e setta 1024x768, vedi che slideshow di 4-5 fps ti viene fuori.
La 285 dopo 14 anni riesce a digerire titoli recenti con fps accettabili, non la trovo una cosa da poco.
Tutto a scopo di test, ovvio che non userei mai una scheda del genere per giocare, però fa capire che con le rtx 2000, ancora ci si può levare qualche soddisfazione se uno si accontenta e riesce a chiudere la scimmia in gabbia.
Chiaro che se uno ha il monitor 4K 144Hz il discorso non sta in piedi, ma mi risulta che nel 2023 il 4K ambito gaming non abbia ancora tutto questo riscontro da parte dell'utenza, la maggior parte credo sia sul 2K.

X360X
02-06-2023, 23:07
da questa pagina in avanti potete vedere gioco per gioco
https://www.techpowerup.com/review/nvidia-geforce-rtx-4060-ti-founders-edition/6.html

questa invece è la media.
Anche una "misera" 2060 6GB, considerando pure che quei test sono fatti tutt'altro che con parsimonia di settings e quindi si possono recupare un sacco di fps, potrebbe far giocare QHD senza affatto sentirsi male. se poi si usa il DLSS...
Voler avere di più è diverso da "necessito sennò il gioco non va"

https://tpucdn.com/review/nvidia-geforce-rtx-4060-ti-founders-edition/images/average-fps-2560-1440.png

EffeX
03-06-2023, 07:54
da questa pagina in avanti potete vedere gioco per gioco
https://www.techpowerup.com/review/nvidia-geforce-rtx-4060-ti-founders-edition/6.html

questa invece è la media.
Anche una "misera" 2060 6GB, considerando pure che quei test sono fatti tutt'altro che con parsimonia di settings e quindi si possono recupare un sacco di fps, potrebbe far giocare QHD senza affatto sentirsi male. se poi si usa il DLSS...
Voler avere di più è diverso da "necessito sennò il gioco non va"

https://tpucdn.com/review/nvidia-geforce-rtx-4060-ti-founders-edition/images/average-fps-2560-1440.png

Hai colto esattamente ciò che volevo dire, Nvidia conosce i suoi polli e giustamente, non essendo una onlus, cerca di spennarli.
Diciamo che sta a noi cercare di valutare oggettivamente caso per caso se serve realmente l'upgrade oppure no...

Cutter90
03-06-2023, 08:08
Hai colto esattamente ciò che volevo dire, Nvidia conosce i suoi polli e giustamente, non essendo una onlus, cerca di spennarli.
Diciamo che sta a noi cercare di valutare oggettivamente caso per caso se serve realmente l'upgrade oppure no...

Il concetto è chiaro, infatti spetta a noi tarare le nostre esigenze. Ovviamente ci sono quasi il doppio degli fps tra una 2060 e una 4060 ti. Bisogna vedere il target e cercare di no0n sovradimensionare inutilmente l'acquisto. Se il target ad esempio è un 1440p a 60 fps, ecco che una 2080/3070 è perfetta senza andare a scomodare una 4060 ti. Prendendo come esempio quest'ultimo grafico.
Ci vuole lucidità quando si acquista, bisogna sempre valutare per bene cosa davvero serve. Anche perchè Nvidia e tutte le aziende del mondo vogliono sempre venderti il prodotto che regala il massimo guadagno per loro....

EffeX
03-06-2023, 08:27
Il concetto è chiaro, infatti spetta a noi tarare le nostre esigenze. Ovviamente ci sono quasi il doppio degli fps tra una 2060 e una 4060 ti. Bisogna vedere il target e cercare di no0n sovradimensionare inutilmente l'acquisto. Se il target ad esempio è un 1440p a 60 fps, ecco che una 2080/3070 è perfetta senza andare a scomodare una 4060 ti. Prendendo come esempio quest'ultimo grafico.
Ci vuole lucidità quando si acquista, bisogna sempre valutare per bene cosa davvero serve. Anche perchè Nvidia e tutte le aziende del mondo vogliono sempre venderti il prodotto che regala il massimo guadagno per loro....

Esattamente, ho amici che han reputato necessario l'acquisto di una 4090 perché giocano su TV 120Hz 4K oled, mentre un altro ha voluto prendere una 4070ti per sfizio per giocare a 1080p, che è un no sense assoluto, nonostante lo avessi avvisato che tanto a quella risoluzione, col 10700K, sarebbe andata la metà. :muro:

ColdWarGuy
03-06-2023, 10:38
Esattamente, ho amici che han reputato necessario l'acquisto di una 4090 perché giocano su TV 120Hz 4K oled, mentre un altro ha voluto prendere una 4070ti per sfizio per giocare a 1080p, che è un no sense assoluto, nonostante lo avessi avvisato che tanto a quella risoluzione, col 10700K, sarebbe andata la metà. :muro:

Sul 10700K ti stai sbagliando, non sei al TOP ma di certo non alla metà, semmai il problema è il calore generato :

https://i.postimg.cc/xCzTQmQb/relative-performance-games-1920-1080.png

Io comunque ho amici che hanno optato per una console un paio di anni fa mollando il PC e sono contenti come pasque.

In parte la colpa è mia perchè hanno provato la Series X nel mio salotto e reputato lo scatolo comodo ed adeguato, accendi e riparti da dove eri rimasto con la ripresa rapida e se sei un casual gamer te la cavi con il game pass.

IL mondo è bello perchè è vario.

Cutter90
03-06-2023, 10:53
Sul 10700K ti stai sbagliando, non sei al TOP ma di certo non alla metà, semmai il problema è il calore generato :

https://i.postimg.cc/xCzTQmQb/relative-performance-games-1920-1080.png

Io comunque ho amici che hanno optato per una console un paio di anni fa mollando il PC e sono contenti come pasque.

In parte la colpa è mia perchè hanno provato la Series X nel mio salotto e reputato lo scatolo comodo ed adeguato, accendi e riparti da dove eri rimasto con la ripresa rapida e se sei un casual gamer te la cavi con il game pass.

IL mondo è bello perchè è vario.

Infatti sono convinto che moltissimi pc gamer che si sono riversati su questo mondo dalla pandemia in poi lo hanno fatto spinti dalla "noia" o dal cercare "console più potenti". Ecco perchè ora abbiamo così tanti casual su pc che non sempre sanno acquistare e/o usare correttamente un pc per giocare. Molti sarebbero dei semplici giocatori da console e non ci sarebbe nulla di male. Ma invece si incaponiscono su pc, spendendo soldi e perdendo una valanga di tempo. Non c'è nulla di male a giocare su console se si trova la propria dimensione di tempo/costi/fegato.

ColdWarGuy
03-06-2023, 13:19
Infatti sono convinto che moltissimi pc gamer che si sono riversati su questo mondo dalla pandemia in poi lo hanno fatto spinti dalla "noia" o dal cercare "console più potenti". Ecco perchè ora abbiamo così tanti casual su pc che non sempre sanno acquistare e/o usare correttamente un pc per giocare. Molti sarebbero dei semplici giocatori da console e non ci sarebbe nulla di male. Ma invece si incaponiscono su pc, spendendo soldi e perdendo una valanga di tempo. Non c'è nulla di male a giocare su console se si trova la propria dimensione di tempo/costi/fegato.

Concordo, se non si è di base appassionati di PC e non si spende del tempo dietro la materia è normale arenarsi sulle inevitabili problematiche tecniche che saltano fuori, trovandosi poi a dover cercare qualcuno che sistema, magari a pagamento se non c'è l'amico "esperto".

Io per fare la partitina veloce spesso accendo la Series X attaccata all'OLED da 65" al posto del PC e devo dire che con parecchi titoli in 4K fa miracoli se consideriamo il costo.

In passato ho usato dei PC da gaming attaccati alla TV nel tentativo di sostituire la console per i giochi da gamepad, ma in termini di usabilità non ci siamo proprio, si è comunque costretti ad avere mouse e tastiera ed è tutto abbastanza macchinoso.

Quando poi hanno implementato il meccanismo di "ripresa rapida" su XBOX ho definitivamente staccato il PC dal televisore :)

Cutter90
03-06-2023, 13:59
Concordo, se non si è di base appassionati di PC e non si spende del tempo dietro la materia è normale arenarsi sulle inevitabili problematiche tecniche che saltano fuori, trovandosi poi a dover cercare qualcuno che sistema, magari a pagamento se non c'è l'amico "esperto".

Io per fare la partitina veloce spesso accendo la Series X attaccata all'OLED da 65" al posto del PC e devo dire che con parecchi titoli in 4K fa miracoli se consideriamo il costo.

In passato ho usato dei PC da gaming attaccati alla TV nel tentativo di sostituire la console per i giochi da gamepad, ma in termini di usabilità non ci siamo proprio, si è comunque costretti ad avere mouse e tastiera ed è tutto abbastanza macchinoso.

Quando poi hanno implementato il meccanismo di "ripresa rapida" su XBOX ho definitivamente staccato il PC dal televisore :)

Io nasco come giocatore console da ps1/ps2. Ma quando xbox decise di portare le esclusive su pc iniziai ad assaporare l idea di poter giocare con il PC attaccato alla TV. E così mi lanciai sulla Titan X maxwell e l oled b6 del 2016. All inizio è stata molto dura perché in quegli anni il pc non era fatto per essere usato sul divano e sulla TV in modalità "console". Le cose da allora si sono evolute moltissimo e ora si riesce davvero ad un usare un pc come una console, come comodità. Certo, si parla però di un pc con tutta la profondità che ti può dare la piattaforma. Ma bisogna spesso stare lì, avere tempo di sistemare le cose, i settaggi, i problemi ecc ecc. Ma mi appassiona molto fare ciò. Le console mi stanno strette ormai.
Ma grazie alle mie origini di videogiocatore le riesco davvero ancora ad apprezzare moltissimo :)

Salfox
03-06-2023, 14:36
Quando poi hanno implementato il meccanismo di "ripresa rapida" su XBOX ho definitivamente staccato il PC dal televisore :)

Purtroppo però è anche il sistema che causa più problemi nei giochi fortemente legati all'online come FH5 e tanti altri che quando si abilita iniziano a dare i numeri. Io che ho anche la Xbox Series X è la prima cosa che ho disabilitato.

mtofa
03-06-2023, 15:38
Concordo, se non si è di base appassionati di PC e non si spende del tempo dietro la materia è normale arenarsi sulle inevitabili problematiche tecniche che saltano fuori, trovandosi poi a dover cercare qualcuno che sistema, magari a pagamento se non c'è l'amico "esperto".

Io per fare la partitina veloce spesso accendo la Series X attaccata all'OLED da 65" al posto del PC e devo dire che con parecchi titoli in 4K fa miracoli se consideriamo il costo.

In passato ho usato dei PC da gaming attaccati alla TV nel tentativo di sostituire la console per i giochi da gamepad, ma in termini di usabilità non ci siamo proprio, si è comunque costretti ad avere mouse e tastiera ed è tutto abbastanza macchinoso.

Quando poi hanno implementato il meccanismo di "ripresa rapida" su XBOX ho definitivamente staccato il PC dal televisore :)

Quoto, stessa esperienza mia, in salotto meglio console+TV, il PC deve avere una postazione dedicata.

mtofa
03-06-2023, 15:41
Io nasco come giocatore console da ps1/ps2. Ma quando xbox decise di portare le esclusive su pc iniziai ad assaporare l idea di poter giocare con il PC attaccato alla TV. E così mi lanciai sulla Titan X maxwell e l oled b6 del 2016. All inizio è stata molto dura perché in quegli anni il pc non era fatto per essere usato sul divano e sulla TV in modalità "console". Le cose da allora si sono evolute moltissimo e ora si riesce davvero ad un usare un pc come una console, come comodità. Certo, si parla però di un pc con tutta la profondità che ti può dare la piattaforma. Ma bisogna spesso stare lì, avere tempo di sistemare le cose, i settaggi, i problemi ecc ecc. Ma mi appassiona molto fare ciò. Le console mi stanno strette ormai.
Ma grazie alle mie origini di videogiocatore le riesco davvero ancora ad apprezzare moltissimo :)

Si ok, ma anche a livello "logistico" non è il massimo, ti costringe ad adottare soluzioni estetiche complicate oltre che poco pratiche.

Cutter90
03-06-2023, 16:05
Si ok, ma anche a livello "logistico" non è il massimo, ti costringe ad adottare soluzioni estetiche complicate oltre che poco pratiche.

Su questo non concordo. Ho il pc dietro la tv e non si vede, ho il couchmaster per usare mouse e tastiera e il pad per il 90% dei giochi. Dove trovi la poca praticità?

ColdWarGuy
03-06-2023, 16:22
Purtroppo però è anche il sistema che causa più problemi nei giochi fortemente legati all'online come FH5 e tanti altri che quando si abilita iniziano a dare i numeri. Io che ho anche la Xbox Series X è la prima cosa che ho disabilitato.

Io invece zero problemi, ma va detto che gioco online solo sporadicamente.

bonzoxxx
03-06-2023, 21:38
Su questo non concordo. Ho il pc dietro la tv e non si vede, ho il couchmaster per usare mouse e tastiera e il pad per il 90% dei giochi. Dove trovi la poca praticità?

Ma che figata, non lo conoscevo, è bellissimo!!

mtofa
03-06-2023, 22:48
Su questo non concordo. Ho il pc dietro la tv e non si vede, ho il couchmaster per usare mouse e tastiera e il pad per il 90% dei giochi. Dove trovi la poca praticità?

L'accesso al PC è poco agevole e comunque un desktop dietro al TV, i cavi, l'uso di tastiera e mouse wireless ecc, un conto è la console con le sue ridotte dimensioni un conto il PC che ogni tanto è soggetto ad accedervi. Boh, a me non piace come soluzione, in passato ho provasto, però capisco che sia anche una cosa personale.

ColdWarGuy
04-06-2023, 10:01
L'accesso al PC è poco agevole e comunque un desktop dietro al TV, i cavi, l'uso di tastiera e mouse wireless ecc, un conto è la console con le sue ridotte dimensioni un conto il PC che ogni tanto è soggetto ad accedervi. Boh, a me non piace come soluzione, in passato ho provasto, però capisco che sia anche una cosa personale.

La differenza fondamentale è che con la console fai tutto con il gamepad (nel bene e nel male) e la spesa è contenuta, soprattutto se consideriamo il new normal delle GPU.

Io poi nei giochi prettamente tastiera + mouse davanti al TV non mi trovo, molto meglio al tavolo con sedia ergonomica e monitor 21:9

Salfox
05-06-2023, 08:07
Comunque si l'ho provato, e consuma più del 12900k, andando poco più in game e discretamente meglio in MT

Ripeto, a parità di condizioni il 13900k è molto più efficiente di un 12900k (li ho avuti entrambi sulla stessa piattaforma e ne ho constatato il differente consumo nelle stesse situazioni di utilizzo) senza considerare poi la superiorità indiscutibile del MC del 13900k rispetto al predecessore, evidentemente quello che hai provato tu era un esemplare fallato. Siamo OT comunque e chiudo qui.

ColdWarGuy
05-06-2023, 10:41
Io parlavo dei 7800x3d e 7950x3d che alla pari del 13900k danno una pista in termini di efficienza energetica, generando gli stessi frame (e anche di più) il 12900k non c'entrava nulla.

Mc superiore che in termini prestazionali non cambia una mazza, se non per benchare sotto aida o IMLC e s£g4rsi sulla banda/latenza ottenuta con delle ram poco più tirate, per poi crashare in game random.

Anche li andare sopra i 6200-6400 diventa deleterio, ho visto gente comprare delle 7600mhz convinti pure che la cpu avrebbe retto in daily use o attivando semplicemente XMP, d'altronde le 7600 sono proprio plug and play LOL.

Io prenderei delle 8000 binnate guarda, vista la bontà dell'mc, questa è la gente vittima del marketing, vede le ddr5 spinte in commercio e crede che metterli li con un click sia fattibile.

Intel ha dato una svolta con Alder lake, le cpu dalle 11th in giù sono tutte inadatte per gpu come le 4080/4090 con uso del DLSS (e aggiungo 4070ti in 1440P) questo succede quando si dorme e ci si culla, da skylake-s serie 6000 (2015) fino al 2020 (10th) ha innovato ZERO mantenendo la stessa architettura core X86 per 5 anni, migliorando di poco IMC e frequenze core, proprio per questo motivo si hanno cpu del 2020 che sembrano dell'era di matusalemme.

Ci è voluta la 4090 a far buttare nel cassonetto i vari 9900k/10700k (o equivalenti) che albergavano nei case dei videogiocatori (convinti di avere cpu che avrebbero retto) poi alla prova dei fatti quando si sono visti vla gpu andare al 60-70%% delle potenzialità si sono resi di avere un sistema completamente sbilanciato, e che forse era meglio fare upgrade con ryzen 7000 o intel 13th, o ripiegare su 5800x3d e salvarsi in corner con AM4 e ddr4.

Ambito gaming ha dato quasi il nulla in 5 anni, un 10900k le prende di brutto da un 12600k (cpu che di listino costava molto meno agli esordi)

Riposto una chart che dimostra che, ad esempio, un 13600K ha un efficienza di portafoglio decisamente più alta degli AMD 7K 3d, just in case:

https://i.postimg.cc/kX5VV8hb/3d-cut-13.png

Cutter90
05-06-2023, 11:15
Io parlavo dei 7800x3d e 7950x3d che alla pari del 13900k danno una pista in termini di efficienza energetica, generando gli stessi frame (e anche di più) il 12900k non c'entrava nulla.

Mc superiore che in termini prestazionali non cambia una mazza, se non per benchare sotto aida o IMLC e s£g4rsi sulla banda/latenza ottenuta con delle ram poco più tirate, per poi crashare in game random.

Anche li andare sopra i 6200-6400 diventa deleterio, ho visto gente comprare delle 7600mhz convinti pure che la cpu avrebbe retto in daily use o attivando semplicemente XMP, d'altronde le 7600 sono proprio plug and play LOL.

Io prenderei delle 8000 binnate guarda, vista la bontà dell'mc, questa è la gente vittima del marketing, vede le ddr5 spinte in commercio e crede che metterli li con un click sia fattibile.

Intel ha dato una svolta con Alder lake, le cpu dalle 11th in giù sono tutte inadatte per gpu come le 4080/4090 con uso del DLSS (e aggiungo 4070ti in 1440P) questo succede quando si dorme e ci si culla, da skylake-s serie 6000 (2015) fino al 2020 (10th) ha innovato ZERO mantenendo la stessa architettura core X86 per 5 anni, migliorando di poco IMC e frequenze core, proprio per questo motivo si hanno cpu del 2020 che sembrano dell'era di matusalemme.

Ci è voluta la 4090 a far buttare nel cassonetto i vari 9900k/10700k (o equivalenti) che albergavano nei case dei videogiocatori (convinti di avere cpu che avrebbero retto) poi alla prova dei fatti quando si sono visti vla gpu andare al 60-70%% delle potenzialità si sono resi di avere un sistema completamente sbilanciato, e che forse era meglio fare upgrade con ryzen 7000 o intel 13th, o ripiegare su 5800x3d e salvarsi in corner con AM4 e ddr4.

Ambito gaming ha dato quasi il nulla in 5 anni, un 10900k le prende di brutto da un 12600k (cpu che di listino costava molto meno agli esordi)

Beh adesso, "inadatte" è un termine esagerato. Si va dall'andare uguale tra i 60 e gli 80 fps a perderne 10-15 sopra i 100 e passa.
LA cpu fortunatamente non va cambiata ogni 2 anni. Con un 10900k che avevo prima ci ho fatto 4 gen di cpu perdendo da niente a pochisssimo. ora si, potrebbe essere arrivato il momento di cambiare, ma solo perchè sto sopra i 100 fps. Se ci stessi sotto la 4090 me la gioco tutta fino alle 5000 con la mia cpu.

ColdWarGuy
05-06-2023, 13:19
Beh adesso, "inadatte" è un termine esagerato. Si va dall'andare uguale tra i 60 e gli 80 fps a perderne 10-15 sopra i 100 e passa.
LA cpu fortunatamente non va cambiata ogni 2 anni. Con un 10900k che avevo prima ci ho fatto 4 gen di cpu perdendo da niente a pochisssimo. ora si, potrebbe essere arrivato il momento di cambiare, ma solo perchè sto sopra i 100 fps. Se ci stessi sotto la 4090 me la gioco tutta fino alle 5000 con la mia cpu.

Quotone, ripescando la review dell'11700K si può notare che all'epoca (2 anni fa ...:D) il suddetto tenevano testa a 5900x e 5950x ed anche il 10700K non se la cavava male, se poi vogliamo dire che sono da buttare anche i due AMD citati ...

https://tpucdn.com/review/intel-core-i7-11700kf/images/relative-performance-games-1920-1080.png

OrazioOC
05-06-2023, 15:15
Fatto salvo la 4090 che è una gpu da 4k se non addirittura prosumer più che consumer, per portare a spasso in 1440p/4k gpu da "cristiani"(per modo di dire, sono sempre briscole da 900 euro per prenderle) tipo 4070 ti/4080 e 7900 xt basta tranquillamente un 13600k o 7800x3d.
Ma pure meno se non si guarda al pelo nell'uovo di qualche pugno di fps persi tra avg/max, cpu come 7600x, 5800x3d, 12600k, 13400, i vecchi i7/i9 lga 1200 ecc...

Inutile presentarsi sempre con la 4090 e benchmark in full hd, sono indicativi fino ad un certo punto. :rolleyes:

Fos
06-06-2023, 06:34
Riposto una chart che dimostra che, ad esempio, un 13600K ha un efficienza di portafoglio decisamente più alta degli AMD 7K 3d, just in case:Just in case aggiornati senza stringere dove ti pare:

https://tpucdn.com/review/amd-ryzen-7-7800x3d/images/relative-performance-games-1920-1080.png

Perché non un 7700X? Non è che sotto il 13600K 2 peli diventano un riccio?
Quella differenza, e senza scegliere il 7950X3D solo nel gaming, per poi amplificare gli altri peli nelle applicazioni contro il 7800X3D.
Giusto per non consumare più del doppio, dettaglio che ti è sfuggito anche quando parlavi di prezzo e contorno...

In gaming se metti il 7700X in liscio mode, perdi un pelo in perf. e una ciocca in consumi.
Per altro, con le DDR4 devi farlo calare il 13600K, nelle intenzioni mantieni una certa coerenza.

Casualmente avevi segato la "fine" che ha fatto l'11700K. La fiera delle coincidenze che tirano sempre verso nord.

...basta tranquillamente un 13600k o 7800x3d.Il 7700X non ce la fai a mettercelo vicino, eh, basta il 7800X3D, ossia il top in gaming. Se non basta quello siamo finiti...

Inutile presentarsi sempre con la 4090 e benchmark in full hd, sono indicativi fino ad un certo punto. :rolleyes:Allora postiamo i test a 4K, che in ottica futura sicuramente saranno più indicativi. Ehh, come no.
Una cosa devi isolare, le perf. del procio, che comunque sfrutteresti pure con una 4090, in particolare col DLSS e/o il RT.

Pieno di accostamenti fittizi e paragoni inpropri, sempre verso nord. :rolleyes:

ColdWarGuy
06-06-2023, 06:39
Just in case aggiornati senza stringere dove ti pare:
-snip


Ah certo, perchè tutti quelli che prendono GPU di pregio poi giocano a 1080p ... ma per piacere :rolleyes:

ColdWarGuy
06-06-2023, 06:53
Fatto salvo la 4090 che è una gpu da 4k se non addirittura prosumer più che consumer, per portare a spasso in 1440p/4k gpu da "cristiani"(per modo di dire, sono sempre briscole da 900 euro per prenderle) tipo 4070 ti/4080 e 7900 xt basta tranquillamente un 13600k o 7800x3d.
Ma pure meno se non si guarda al pelo nell'uovo di qualche pugno di fps persi tra avg/max, cpu come 7600x, 5800x3d, 12600k, 13400, i vecchi i7/i9 lga 1200 ecc...

Inutile presentarsi sempre con la 4090 e benchmark in full hd, sono indicativi fino ad un certo punto. :rolleyes:

Orazio, dire che sono indicativi è un eufemismo, già se prendi una 4070 giochi in 2K, figuriamoci con i modelli superiori.

IL 7800X3D, tolto il gaming, prende schiaffi da cani e porci e se fai i conti di cosa hai speso tra CPU, mainboard AM5 e DDR5 con latenze decenti ti rendi conto di aver fatto una pessima spesa, basta vedere test tipo :

https://tpucdn.com/review/amd-ryzen-7-7800x3d/images/cinebench-multi.png

nessuno29
06-06-2023, 07:06
Ah certo, perchè tutti quelli che prendono GPU di pregio poi giocano a 1080p ... ma per piacere :rolleyes:

Se giochi in RT e quindi usi il dlss sicuramente non giochi in 4k :D

Poi non capisco i test in 1080p sono "utili per carpire quello che può dare una cpu" solo quando Intel va meglio? E' la risoluzione che permette di capire quanta ciccia ha da dare la cpu, chi vuole il massimo in gaming consumando meno della metà (meno della metà ;)) c'è il 7800x3d.

PS: Basare l'acquisto sul punteggio in cinebench non è una furbata eh ahah

Ubro92
06-06-2023, 07:27
Il problema di AM5 é il costo di tutta la piattaforma non solo della CPU, ormai le z690/z790 si trovano a ottimi prezzi, e se poi vuoi risparmiare ogni goccia puoi anche tenerti le ddr4.

Su Am5 la più scrauza delle b650e parte da 230-240€, pure le b650 lisce costicchiano ancora e hanno la limitazione al Pcie 4.0, cosa che alla lunga potrebbe ritorcersi contro se ad esempio a Nvidia gli gira di tagliarti la 5070 a 8 linee...

Quindi chiaro che se uno ha budget am5 sicuramente é interessante, soprattutto se si aggiorna spesso, ma nella fascia media delle persone che acquistano oggi e poi se ne parla tra almeno 4 anni per il prossimo aggiornamento risparmiare 150-200€ su tutta la build tra un 13600kf e 7700x non é cosa da poco potendoli reinvestire su altro.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Cutter90
06-06-2023, 07:30
Se giochi in RT e quindi usi il dlss sicuramente non giochi in 4k :D

Poi non capisco i test in 1080p sono "utili per carpire quello che può dare una cpu" solo quando Intel va meglio? E' la risoluzione che permette di capire quanta ciccia ha da dare la cpu, chi vuole il massimo in gaming consumando meno della metà (meno della metà ;)) c'è il 7800x3d.

PS: Basare l'acquisto sul punteggio in cinebench non è una furbata eh ahah

Sicuramente il test 1080 si usa per escludere la gpu dai fattori. Ma viosto che la 4090/4080 è una scheda da 4k se si vuole capire quale cpu soffre con la 4090 i test vanno presi in 4k, questo mi pare ovvio. Quindi si, in un contesto di confronto in cui si ha una 4090 da un lato, i test in 1080p sono fuorvianti ed assolutamente inutili.
Ragzzi, non è che se si usa il dlss bisogna guardare il 1440p eh. Si è sempre in 4k, ma sono i frame a farla da padrone.
In cp 2077 con PT attivo si fanno 60 fps con dlss performance dal 4k, ossia in 1080p. Peccato che siccome si è a 60 fps la cpu conti zero assoluto in un contesto del genere e una cpu come la mia va in maniera identica rispetto ad un 7950X 3d.
Quindi, ancora vedo che alle volte si fanno errori sul valutare le performance delle cpu solo in base alla risoluzione. Sono gli fps che comandano, non la risoluzione.
Se sei intorno ai 60 (4k, 1440p o 1080p) la cpu conta zero quasi. Poi più si sale di fps più inizia gradualmente a contare, fino ad arrivare ai 120/144 fps dove in base al gioco si perdono fps anche importanti (15-20).
Ma il discorso è slegato dalla risoluzione. Ciò che conta è solo la fascia degli fps in cui si è.

Fos
06-06-2023, 08:43
Ah certo, perchè tutti quelli che prendono GPU di pregio poi giocano a 1080p ... ma per piacere :rolleyes:Il potenziale del processore lo vedi quando può esprimerlo, lo stesso rimarrà in futuro.
Con una impotetica 5090, quello che vedi a 1080p potresti vederlo a 4K.
Con l'aumento della pesantezza dei motori grafici, prova ad indovinare chi cadrà prima.
Sono discorsi che vanno avanti da lustri, eppure son duri a morire.

Orazio, dire che sono indicativi è un eufemismo, già se prendi una 4070 giochi in 2K, figuriamoci con i modelli superiori.

IL 7800X3D, tolto il gaming, prende schiaffi da cani e porci e se fai i conti di cosa hai speso tra CPU, mainboard AM5 e DDR5 con latenze decenti ti rendi conto di aver fatto una pessima spesa, basta vedere test tipo :Il 7800X3D è un processore che non ha concorrenza. Cercare CB come contro significa ignorare il contesto. Che sia per mancanze o volontà, poco cambia.

Non cambia neanche l'intento di mirare dove piace, vedo, per cui cercherò di adattarmi:

Questo a 1440p:

https://tpucdn.com/review/amd-ryzen-7-7800x3d/images/relative-performance-games-2560-1440.png

Non che cambi poi molto, non credi? Se proprio devi prendere il vecchio per risparmiare, tanto vale andare di 13400, così risparmi meglio in principio, e col dissi a seguire.
Tanto se la differenza dal 7800X3D non conta una cippa, non lo farà neanche quella dal 13600K al molto più efficiente 13400, o no?
Tanto meglio se devi giocare a 4K con una schedona col contorno a risparmio, così alla prossima segui con la 5090. Con quello che hai risparmiato ti ci uscirà meglio...

In game con la DDR4 col 13600K scenderesti sotto il Ryzen 7700. Ma che te lo dico a fare, il confronto va fatto tra 13600K e 7850X3D, nevvero?
Perderesti pure qualche punto nelle applicazioni, ma l'importante è risparmiare mettendo Intel. È sempre una questione di priorità.

Ah, dimenticavo l'adattamento:

https://i.postimg.cc/tT5f21jp/10.png

Il 13600k le prende da ogni dove, pure dal vecchio 5800X3D, e accusa solo sul motore grafico più usato, che vuoi che sia.
Scommetto che i picchi valgono da una parte sola. Mi improvviso indovino. :)


Ragzzi, non è che se si usa il dlss bisogna guardare il 1440p eh. Si è sempre in 4k, ma sono i frame a farla da padrone.Ehhh? Ma che discorsi fai (in generale)? Col DLSS la risoluzione è inferiore, quindi se hai il procio che te lo permette lo sfrutti.
Hai preso la 4090 per fissarti a 60fps? Per me ha meno senso di un procio più adatto.
Col DLSS a 4K puoi arrivare a 120fps quando col tuo pascoli attorno alla metà. Questo ora, domani sicuramente sarà peggio.

https://i.postimg.cc/bJV0ybc6/spider.png

Quasi il doppio da 60fps. Altro che 15-20fps a 144Hz. Mi sa che il collo del procio che possiedi ti porta a non capirlo.
Vorrai lesinare con gli effetti con la 4090? Non sarebbe stata meglio una 4080 con contorno migliore?

Dopo, oh, magari ti piace giocare in a 4K in downsampling da 4K, magari col mix del DLSS che paga molto bene.
Ma lo scenario è tutt'altro che tipico, per cui si continuerà a guardare il processsore per quello che serve.

Da lì a scendere i 60fps ce li estrapoli, resta sempre il fatto utile della prevedibilità, e quella bene o male ha sempre quadrato andando avanti.
Quando il 13900K di quel test scenderà il 30%, lo faranno anche gli altri in percentuale simile.
Nel tuo scenario il 7800X3D sarebbe sprecato, però potresti tenerl opassivo, visto che in gaming consuma meno di 50 watt medi col frame rate sciolto.

Il problema di AM5 é il costo di tutta la piattaforma non solo della CPU, ormai le z690/z790 si trovano a ottimi prezzi, e se poi vuoi risparmiare ogni goccia puoi anche tenerti le ddr4.

Su Am5 la più scrauza delle b650e parte da 230-240 euroQuesta è disinformazione. Si trovano b650 a 150€ + 32GB di DDR5 6GHz a 110€, di più con AMD non serve.
Risparmieresti tipo 100€ per rimanere e aggiornare nel vecchio, per altro consumando il doppio?
Datevi una regolata con i dati falsati dalla partigianeria e/o dall'ignoranza.
Non dovrebbe essere il forum adatto... :fagiano:

appleroof
06-06-2023, 08:44
oste, pensavo di essere in "aspettando le discussioni sulle cpu" :D

Cutter90
06-06-2023, 10:11
Il potenziale del processore lo vedi quando può esprimerlo, lo stesso rimarrà in futuro.
Con una impotetica 5090, quello che vedi a 1080p potresti vederlo a 4K.
Con l'aumento della pesantezza dei motori grafici, prova ad indovinare chi cadrà prima.
Sono discorsi che vanno avanti da lustri, eppure son duri a morire.

Il 7800X3D è un processore che non ha concorrenza. Cercare CB come contro significa ignorare il contesto. Che sia per mancanze o volontà, poco cambia.

Non cambia neanche l'intento di mirare dove piace, vedo, per cui cercherò di adattarmi:

Questo a 1440p:

https://tpucdn.com/review/amd-ryzen-7-7800x3d/images/relative-performance-games-2560-1440.png

Non che cambi poi molto, non credi? Se proprio devi prendere il vecchio per risparmiare, tanto vale andare di 13400, così risparmi meglio in principio, e col dissi a seguire.
Tanto se la differenza dal 7800X3D non conta una cippa, non lo farà neanche quella dal 13600K al molto più efficiente 13400, o no?
Tanto meglio se devi giocare a 4K con una schedona col contorno a risparmio, così alla prossima segui con la 5090. Con quello che hai risparmiato ti ci uscirà meglio...

In game con la DDR4 col 13600K scenderesti sotto il Ryzen 7700. Ma che te lo dico a fare, il confronto va fatto tra 13600K e 7850X3D, nevvero?
Perderesti pure qualche punto nelle applicazioni, ma l'importante è risparmiare mettendo Intel. È sempre una questione di priorità.

Ah, dimenticavo l'adattamento:

https://i.postimg.cc/tT5f21jp/10.png

Il 13600k le prende da ogni dove, pure dal vecchio 5800X3D, e accusa solo sul motore grafico più usato, che vuoi che sia.
Scommetto che i picchi valgono da una parte sola. Mi improvviso indovino. :)

Ehhh? Ma che discorsi fai (in generale)? Col DLSS la risoluzione è inferiore, quindi se hai il procio che te lo permette lo sfrutti.
Hai preso la 4090 per fissarti a 60fps? Per me ha meno senso di un procio più adatto.
Col DLSS a 4K puoi arrivare a 120fps quando col tuo pascoli attorno alla metà. Questo ora, domani sicuramente sarà peggio.

https://i.postimg.cc/bJV0ybc6/spider.png

Quasi il doppio da 60fps. Altro che 15-20fps a 144Hz. Mi sa che il collo del procio che possiedi ti porta a non capirlo.
Vorrai lesinare con gli effetti con la 4090? Non sarebbe stata meglio una 4080 con contorno migliore?

Dopo, oh, magari ti piace giocare in a 4K in downsampling da 4K, magari col mix del DLSS che paga molto bene.
Ma lo scenario è tutt'altro che tipico, per cui si continuerà a guardare il processsore per quello che serve.

Da lì a scendere i 60fps ce li estrapoli, resta sempre il fatto utile della prevedibilità, e quella bene o male ha sempre quadrato andando avanti.
Quando il 13900K di quel test scenderà il 30%, lo faranno anche gli altri in percentuale simile.
Nel tuo scenario il 7800X3D sarebbe sprecato, però potresti tenerl opassivo, visto che in gaming consuma meno di 50 watt medi col frame rate sciolto.

Questa è disinformazione. Si trovano b650 a 150€ + 32GB di DDR5 6GHz a 110€, di più con AMD non serve.
Risparmieresti tipo 100€ per rimanere e aggiornare nel vecchio, per altro consumando il doppio?
Datevi una regolata con i dati falsati dalla partigianeria e/o dall'ignoranza.
Non dovrebbe essere il forum adatto... :fagiano:

Quante chiacchiere inutili. Quello che ho scritto è che sono gli fps a comandare. Se in un gioco fai 60 fps, 1080 o 4k che sia la differenza tra le cpu è nulla. Se invece inizi ad andare sui 120-144 fps si inziano a perder più frame, ma sempre in maniera indipendete dalla risoluzione.
Se perdi 10 fps facendo 4k 120 fps, ne perdi sempre 10 facendo 1440p 120 fps.
Figa, dai su erano esempi! Cp 2077 casca a fagiolo e dimostra come siano gli fps a comandare, ho fatto l'esempio apposta.
Cerchiamo di leggere e capire quello che uno vuole dire e non dargli contro giusto per.
i 60 fps in cp2077 con PT sono l'unica scelta possibile in 4k (con dlss perf), mica ho una scelta.

Poi mi fai un grafico in 1080, quando io parlo di 4k. Boh...
In Spiderman (gioco tra l'altro molto cpu dipendente, che non è affatto la media) in 4k perdo 10-20 fps sopra i 100, magari con dlss, non ricordo.
Ma non ci sono assolutamente 60 fps di differenza.
https://www.youtube.com/watch?v=ySrnQ8ei7hg&t=771s

In questo video ho ritrovato circa le mie differenza.
Guardo spesso quando esce un gioco le differenze rispetto alla mia configurazione e raramente ho visto 20 fps di differenza (anczi, mai visti), entro i 120.

Tra l'altro in molti giochi con il FG si annulla quasi del tutto questa differenza tra le cpu

Fos
06-06-2023, 10:41
...Senti, se hai qualcosa da contraddire, fallo senza mettere inbuti anomali come il tuo.

Non ho capito cosa ti ha fatto pensare che quello che dici non fosse irrilevante.
Tra poco esce quello che gioca a 30fps a dire che il procio conta ancora meno.

Come se uno si mettesse a dire che sopra la 3060 non serve, perché lui gioca a 720p, a 60fps se ci arriva...
Mi spieghi che test vorresti fare limitando il frame rate dove ti pare?
Da 105 a 120 tra un 10400 e un 7800X3D, perché il tuo schermo non supera i 120?
Ti ho già detto che l'utilità specifica si può estrapolare dal quadro generale.

Lo hai visto il test che da 60 passa a 120 grazie al processore? Ecco, di quello si stava parlando.
Secondo te, se quello che ne fa 120 arriva a 60, l'altro ci rimane? No, e si parlava anche di quello.

Non è che quello che dici era scontato, quindi l'intervento inutile non era il mio? No, eh...

Cutter90
06-06-2023, 10:46
Senti, se hai qualcosa da contraddire, fallo senza mettere inbuti anomali come il tuo.

Non ho capito cosa ti ha fatto pensare che quello che dici non fosse irrilevante.
Tra poco esce quello che gioca a 30fps a dire che il procio conta ancora meno.

Come se uno si mettesse a dire che sopra la 3060 non serve, perché lui gioca a 720p, a 60fps se ci arriva...
Mi spieghi che test vorresti fare limitando il frame rate dove ti pare?
Da 105 a 120 tra un 10400 e un 7800X3D, perché il tuo schermo non supera i 120?

Non è che quello era scontato, quindi l'intervento inutile non era il mio? No, eh... :mbe:

:mbe: :mbe:

Ma come litando il frame rate dove mi pare scusa? Io ho uno schermo 4k a 120. Cosa me ne frega se sopra i 120 si perdono 50 fps? Che poi, in 4k la 4090 mica fa 200 fps. Secondo me tu non hai proprio l'idea pratica di quello che si parla. Si sta dicendo che sotto un tot di fps la cpu conta quasi zero.
Ma boh, non riesco a capire. Dopodichè credo che il mio post sia chiaro e comprensibile a tutti :)

Fos
06-06-2023, 11:06
:mbe: :mbe:

Ma come litando il frame rate dove mi pare scusa? Io ho uno schermo 4k a 120. Cosa me ne frega se sopra i 120 si perdono 50 fps? Che poi, in 4k la 4090 mica fa 200 fps. Secondo me tu non hai proprio l'idea pratica di quello che si parla. Si sta dicendo che sotto un tot di fps la cpu conta quasi zero.
Ma boh, non riesco a capire. Dopodichè credo che il mio post sia chiaro e comprensibile a tutti :)Ma lo leggi quello che quoti?
Se uno vuole superare i 120fps, secondo te guarda i tuoi bisogni, o i test generali?
Cosa gliene frega del sopra la 3060, a quello a cui basta una 3060?

Il tuo dubitare continuo sui test che non ti piacciono è stancante.

https://tpucdn.com/review/amd-ryzen-7-7800x3d/images/spider-man-rt-2560-1440.png

Sono 60fps di differenza su 87, e non si parla neanche di minimi. Se hai lo schermo a 4K, col DLSS ti sogni i 120 che col 7800X3D tieni stabilmente.
Con la 4090 e un OLED a 4K-120fps, devi accontentarti della metà, perché col DLSS ci arrivi bene.

Perché cominci a parlare di 120fps? Hai capito che forzare verso 60 era ancora più assurdo?

Il frame rate lo comanda il procio, dopodiché, se uno si accontenta di 30fps gli basterà un procetto.
Qualcuno aveva fatto intendere di non saperlo?

Cutter90
06-06-2023, 11:13
Ma lo leggi quello che quoti?
Se uno vuole superare i 120fps, secondo te guarda i tuoi bisogni, o i test generali?
Cosa gliene frega del sopra la 3060, a quello a cui basta una 3060?

Il tuo dubitare continuo sui test che non ti piacciono è stancante.

https://tpucdn.com/review/amd-ryzen-7-7800x3d/images/spider-man-rt-2560-1440.png

Sono 60fps di differenza su 87, e non si parla neanche di minimi. Se hai lo schermo a 4K, col DLSS ti sogni i 120 che col 7800X3D tieni stabilmente.
Con la 4090 e un OLED a 4K-120fps, devi accontentarti della metà, perché col DLSS ci arrivi bene.

Perché cominci a parlare di 120fps? Hai capito che forzare verso 60 era ancora più assurdo?

Il frame rate lo comanda il procio, dopodiché, se uno si accontenta di 30fps gli basterà un procetto.
Qualcuno aveva fatto intendere di non saperlo?

Ancora con sto spiderman. Ma lo sai che ha il FG e tutto questo test è inutile? E lo sai con il 4k + dlss non è 1440p?
Poi, mica tutti i giochi, putroppo, hanno il dlss. Il grafico da guardare è quello del 4k con una 4090

Daedra007
06-06-2023, 11:29
Oggi ho messo sotto torchio la mia nuova 4090 suprim x, appena rientrata dall' rma, in pratica la scheda era difettosa ed hanno sostituito il pcb, cosa ne pensate? a me sembra molto piu' binnata dell'altra, che cappava a 2890/2875 dopo i tagli ad 1.000mv.
hwinfo dopo 2 ore a last of us a 4k e tutto maxato, undervoltata ad 1.000mv perche' non voglio stressarla ovviamente:)

https://i.postimg.cc/5NDWDKx1/Immagine-2023-06-06-024153.png (https://postimg.cc/xcGZzRJF)

Cutter90
06-06-2023, 11:34
Oggi ho messo sotto torchio la mia nuova 4090 suprim x, appena rientrata dall' rma, in pratica la scheda era difettosa ed hanno sostituito il pcb, cosa ne pensate? a me sembra molto piu' binnata dell'altra, che cappava a 2890/2875 dopo i tagli ad 1.000mv.
hwinfo dopo 2 ore a last of us a 4k e tutto maxato, undervoltata ad 1.000mv perche' non voglio stressarla ovviamente:)

https://i.postimg.cc/5NDWDKx1/Immagine-2023-06-06-024153.png (https://postimg.cc/xcGZzRJF)

Beh, direi buona. Appena ho un attimo vorrei trovare anche io una buona curva. Avevo trovato 2920 a 1000 mv, ma l'utlima versione di Afterburner me l'ha reso instabile

Ale55andr0
06-06-2023, 11:35
Hanno sostituito il pcb?:what: Cioè hanno dissaldato tutte le ram, la gpu, i vari componenti passivi e li hanno risaldati su un nuovo pcb? :wtf:

amon.akira
06-06-2023, 11:57
Hanno sostituito il pcb?:what: Cioè hanno dissaldato tutte le ram, la gpu, i vari componenti passivi e li hanno risaldati su un nuovo pcb? :wtf:

penso intendesse tutto incluso :asd:

ninja750
06-06-2023, 11:58
dopo una spesa del genere non mi sarei aspettato una riparazione ma una sostituzione in toto :muro:

amon.akira
06-06-2023, 12:04
dopo una spesa del genere non mi sarei aspettato una riparazione ma una sostituzione in toto :muro:

be se cambi la scheda ti resta il backplate, le ventole e il dissipatore che effettivamente poi sono tutti uguali, a diversificarle c'è solo il seriale incollato sul backplate...e metti tutto nella stessa scatola

Fos
06-06-2023, 12:06
Ancora con sto spiderman. Ma lo sai che ha il FG e tutto questo test è inutile? E lo sai con il 4k + dlss non è 1440p?
Poi, mica tutti i giochi, putroppo, hanno il dlss. Il grafico da guardare è quello del 4k con una 4090È un esempio indicativo, sia per il carico generale che per quello aggiunto dal RT.
Va detto che guadagna bene anche con le DDR5, per cui è utile anche al discorso vecchia piattaforma con DDR4.

Non credo sia il caso di lesinare nel contorno con una 4090. Senza un buon processore strozza ogni 2x3. Nei minimi anche a 4K nativi.
Nei giochi pesanti e/o col RT (se no la 4090 vola ancora meglio) il DLSS è quasi scontato.
Perché limitare una scheda come quella per 2 spicci di contorno? (in confronto all'osso)

Il DLSS-3 peggiora uno dei motivi principe che spingono all'alto frame rate: La latenza nella risposta.
Che poi non si capsice come tu possa gradirlo così tanto, visto che i 60fps sembrano bastarti, e che altrove dicevi di fregartene dei fps minimi.

Sotto i 60fps è inusabile, sopra andresti verso i 120fps che ti interessano poco quando non c'è il FG?
Se no il procio che ti manda il gioco a 120fps fissi lo avresti già accompagnato alla 4090, no?

Capisci come le tue utilità sembrano dettate dai tuoi mezzi?

Daedra007
06-06-2023, 12:11
Beh, direi buona. Appena ho un attimo vorrei trovare anche io una buona curva. Avevo trovato 2920 a 1000 mv, ma l'utlima versione di Afterburner me l'ha reso instabile

ho sbagliato sezione, dovevo postare su 4080/4090, pardon, :doh:

Cutter90
06-06-2023, 12:13
È un esempio indicativo, sia per il carico generale che per quello aggiunto dal RT.
Va detto che guadagna bene anche con le DDR5, per cui è utile anche al discorso vecchia piattaforma con DDR4.

Non credo sia il caso di lesinare nel contorno con una 4090. Senza un buon processore strozza ogni 2x3. Nei minimi anche a 4K nativi.
Nei giochi pesanti e/o col RT (se no la 4090 vola ancora meglio) il DLSS è quasi scontato.
Perché limitare una scheda come quella per 2 spicci di contorno? (in confronto all'osso)

Il DLSS-3 peggiora uno dei motivi principe che spingono all'alto frame rate: La latenza nella risposta.
Che poi non si capsice come tu possa gradirlo così tanto, visto che i 60fps sembrano bastarti, e che altrove dicevi di fregartene dei fps minimi.

Sotto i 60fps è inusabile, sopra andresti verso i 120fps che ti interessano poco quando non c'è il FG?
Se no il procio che ti manda il gioco a 120fps fissi lo avresti già accompagnato alla 4090, no?

Capisci come le tue utilità sembrano dettate dai tuoi mezzi?

Ma dove ho scritto che i 60 mi bastano? Il FG lo abbiamo già trattato e suoi "problemi" di latenza pure. Gli alti fps si fanno per la fluidità. Per la latenza nei multy competitivi.
2 spicci di contorno significa 1000 euro, alla faccia dei due spicci. Inoltre perdere qualche fps per strada ci sta. Io non cambio cpu ad ogni gen altrimenti addio. Ma nemmeno ne vale la pena secondo me, viste le perdite esigue e su pochissimi titoli. Naturalmente a fine anno con i nuovi intel il cambio verrà fatto perchè omrai la mia piattaforma è al capolinea

Kvarat
06-06-2023, 12:15
Hanno sostituito il pcb?:what: Cioè hanno dissaldato tutte le ram, la gpu, i vari componenti passivi e li hanno risaldati su un nuovo pcb? :wtf:

Erano annoiati nel centro assistenza :D

Ale55andr0
06-06-2023, 12:19
penso intendesse tutto incluso :asd:

il pcb è il pcb :O

Erano annoiati nel centro assistenza :D

masochisti, più che altro :asd:

Daedra007
06-06-2023, 12:28
Hanno sostituito il pcb?:what: Cioè hanno dissaldato tutte le ram, la gpu, i vari componenti passivi e li hanno risaldati su un nuovo pcb? :wtf:

Erano annoiati nel centro assistenza :D

il pcb è il pcb :O



masochisti, più che altro :asd:

hanno sostituito la scheda completamente, il pcb, tutta la main board, come la chiamate voi?:doh:
magari chiamate msi per chiedere cosa fanno, che sono curioso pure io...:D

Daedra007
06-06-2023, 12:30
dopo una spesa del genere non mi sarei aspettato una riparazione ma una sostituzione in toto :muro:

anchi'io sinceramente, ma visto che mi hanno mandato un'esemplare super fortunato va' benissimo cosi':)

Ale55andr0
06-06-2023, 12:31
hanno sostituito la scheda completamente, il pcb, tutta la main board, come la chiamate voi?:doh:
magari chiamate msi per chiedere cosa fanno, che sono curioso pure io...:D

"mi hanno sostituito l'intera scheda" :O

Daedra007
06-06-2023, 12:32
"mi hanno sostituito l'intera scheda" :O

vabe' hai ragione tu dai:p hanno dissaldato tutto...
da msi hanno le scimmie che lavorano:p
ignore list on, sei il primo complimenti, consiglio a tutti di evitare queste becere discussioni inutili, che sono qui solo per seminare astio, che poi all'atto pratico non lasciano e non danno assolutamente nulla.

Ubro92
06-06-2023, 13:04
Questa è disinformazione. Si trovano b650 a 150€ + 32GB di DDR5 6GHz a 110€, di più con AMD non serve.
Risparmieresti tipo 100€ per rimanere e aggiornare nel vecchio, per altro consumando il doppio?
Datevi una regolata con i dati falsati dalla partigianeria e/o dall'ignoranza.
Non dovrebbe essere il forum adatto... :fagiano:

Le micro-atx entry level forse le trovi a 150€...

L'ATX più scrauza parte dai 190€... se poi andiamo a vedere le B650E si parte da minimo 235€ e sinceramente se si punta alle nuove piattaforme è un no sense ritrovarsi lo slot GPU in 4.0 andando di B650 liscia, già si è visto con la 4060ti che viaggia completamente monca su chipset x470/x370 in 3.0 x8

Dal punto di vista architetturale cambia tra 13600K e 13400, uno ha core Alder e l'altro Raptor, inoltre un 13600K in full load con un undervolt di -115mv sta sui 135w al massimo, in game meno della metà. Tutto sto problema non ce lo vedo francamente.

Posso capire se parliamo di un 13900K OC dove ovviamente i consumi salgono vertiginosamente, e come costi finisci al pari di AM5, ma sulla fascia media amd se l'è giocata decisamente male a sto giro. Anche la presenza del 7900x3d la reputo veramente un no sense, se proprio volevi offrire un 6 core con 3d cache, offri un 7600x3d a un costo più accessibile, quello sicuro avrebbe spaccato.

amon.akira
06-06-2023, 13:13
"mi hanno sostituito l'intera scheda" :O

ma con l intera scheda intendi compresivo di ventole dissi e backplate? :sofico:

Slater91
06-06-2023, 15:17
Rientriamo nei ranghi, grazie. Non c'è nessun bisogno di farla così lunga, il significato è chiaro.

ColdWarGuy
07-06-2023, 01:06
Se giochi in RT e quindi usi il dlss sicuramente non giochi in 4k :D

Poi non capisco i test in 1080p sono "utili per carpire quello che può dare una cpu" solo quando Intel va meglio? E' la risoluzione che permette di capire quanta ciccia ha da dare la cpu, chi vuole il massimo in gaming consumando meno della metà (meno della metà ;)) c'è il 7800x3d.

PS: Basare l'acquisto sul punteggio in cinebench non è una furbata eh ahah

Ma come, è stato il benchmark più osannato con i Ryzen adesso me lo affossi così ?

Comunque se volete convincermi che chi ha la 4090 gioca a 1080p non ci siete riusciti.

Fos
07-06-2023, 01:19
Ma dove ho scritto che i 60 mi bastano? Il FG lo abbiamo già trattato e suoi "problemi" di latenza pure. Gli alti fps si fanno per la fluidità. Per la latenza nei multy competitivi.
2 spicci di contorno significa 1000 euro, alla faccia dei due spicci. Inoltre perdere qualche fps per strada ci sta. Io non cambio cpu ad ogni gen altrimenti addio. Ma nemmeno ne vale la pena secondo me, viste le perdite esigue e su pochissimi titoli. Naturalmente a fine anno con i nuovi intel il cambio verrà fatto perchè omrai la mia piattaforma è al capolineaQuindi la cpu tornerà ad essere utile al nuovo step Intel, eh...
Chi prende ora e vuole la longevità nel gaming, dovrebbe scegliere AMD. Mi pare chiaro che tu non sia il soggetto adatto ad ammetterlo.
Io di Intel ne ho avuti e ne ho ancora, tu ancora devi dirmi quanti AMD hai testato.

La 4090 non è la migliore GPU. Io me ne frego del RT, non uso gli upscaler e tantomeno i moltiplicatori mezzi farlocchi.
Va a gusti come tra Intel e AMD, no, se no guardi i test e i contesti solo quando ti conviene. :)

Le micro-atx entry level forse le trovi a 150€...

L'ATX più scrauza parte dai 190€... se poi andiamo a vedere le B650E si parte da minimo 235€ e sinceramente se si punta alle nuove piattaforme è un no sense ritrovarsi lo slot GPU in 4.0 andando di B650 liscia, già si è visto con la 4060ti che viaggia completamente monca su chipset x470/x370 in 3.0 x8

Dal punto di vista architetturale cambia tra 13600K e 13400, uno ha core Alder e l'altro Raptor, inoltre un 13600K in full load con un undervolt di -115mv sta sui 135w al massimo, in game meno della metà. Tutto sto problema non ce lo vedo francamente.

Posso capire se parliamo di un 13900K OC dove ovviamente i consumi salgono vertiginosamente, e come costi finisci al pari di AM5, ma sulla fascia media amd se l'è giocata decisamente male a sto giro. Anche la presenza del 7900x3d la reputo veramente un no sense, se proprio volevi offrire un 6 core con 3d cache, offri un 7600x3d a un costo più accessibile, quello sicuro avrebbe spaccato.Il 13900K deve essere OC per non convenire, il 13600K è garantito che consuma la metà in uv, il bollino ce lo metti tu.
Col 13600K si può soprassedere sulle DDR4 e la poca aggiornabilità, su AMD si deve avere tutto, perché di sicuro si andrà a prendere una GPU mezza zoppa come la 4060Ti.

Magari andare nella nuova piattaforma con CPU subito migliori in gaming, molto di più considerando il rapporto col consumo, no, eh...
Può dare fastidio essere pronti ad aggiornamenti a lungo termine anche per la CPU stessa, fatto 30 si deve fare 31 solo quando conviene ad Intel.

Le mb a prezzo mega ATX Intel adatte alla DDR4 saranno tutte mb di livello a 100€, immagino, e, sì, sotto il 13600K non ha senso, sopra ancora meno...

Il Ryzen 7700 che va come il 13600K messo su una mb che può fare 31 in tutti i sensi, sembra si debba escludere in tutti i modi. Da 30 a 30.5 è dovuto, se si arriva a 31 con AMD non va bene.

La non convenienza del 7900X3D non c'entrava niente, così si capisce meglio che i contro li cerchi bene da una parte sola.
Non ha senso manco per me, ma tocca dirlo a chi il buon senso lo mostra ad oltranza.

Non capisco se credete di sembrare obiettivi. Lo slalom a tutti i costi verso Intel non è evidente, ormai è implicito.

Alodesign
07-06-2023, 07:06
Ma come, è stato il benchmark più osannato con i Ryzen adesso me lo affossi così ?

Comunque se volete convincermi che chi ha la 4090 gioca a 1080p non ci siete riusciti.

Sarebbe buona cosa che le tabelle di Steam fossero più profonde e interlacciate tra loro.
Ora si può vedere che la 4099 è allo 0,44% tra tutte le schede rilevate. Ma non si sa quanti utenti la usano, perché steam prende appunto il totale delle schede ma non degli utenti.

E che il 65% usa il Full Hd.

A logica può essere che solo un numero bassissimo di utenti usi una 4090 in full HD e gli altri in qhd e 4k.

Ok direte, steam non fa statistica, ma è l'unico strumento ad oggi consultabile.

Cutter90
07-06-2023, 08:05
Quindi la cpu tornerà ad essere utile al nuovo step Intel, eh...
Chi prende ora e vuole la longevità nel gaming, dovrebbe scegliere AMD. Mi pare chiaro che tu non sia il soggetto adatto ad ammetterlo.
Io di Intel ne ho avuti e ne ho ancora, tu ancora devi dirmi quanti AMD hai testato.

La 4090 non è la migliore GPU. Io me ne frego del RT, non uso gli upscaler e tantomeno i moltiplicatori mezzi farlocchi.
Va a gusti come tra Intel e AMD, no, se no guardi i test e i contesti solo quando ti conviene. :)

Il 13900K deve essere OC per non convenire, il 13600K è garantito che consuma la metà in uv, il bollino ce lo metti tu.
Col 13600K si può soprassedere sulle DDR4 e la poca aggiornabilità, su AMD si deve avere tutto, perché di sicuro si andrà a prendere una GPU mezza zoppa come la 4060Ti.

Magari andare nella nuova piattaforma con CPU subito migliori in gaming, molto di più considerando il rapporto col consumo, no, eh...
Può dare fastidio essere pronti ad aggiornamenti a lungo termine anche per la CPU stessa, fatto 30 si deve fare 31 solo quando conviene ad Intel.

Le mb a prezzo mega ATX Intel adatte alla DDR4 saranno tutte mb di livello a 100€, immagino, e, sì, sotto il 13600K non ha senso, sopra ancora meno...

Il Ryzen 7700 che va come il 13600K messo su una mb che può fare 31 in tutti i sensi, sembra si debba escludere in tutti i modi. Da 30 a 30.5 è dovuto, se si arriva a 31 con AMD non va bene.

La non convenienza del 7900X3D non c'entrava niente, così si capisce meglio che i contro li cerchi bene da una parte sola.
Non ha senso manco per me, ma tocca dirlo a chi il buon senso lo mostra ad oltranza.

Non capisco se credete di sembrare obiettivi. Lo slalom a tutti i costi verso Intel non è evidente, ormai è implicito.

E con questa frase direi che possiamo chiuderla qui :rolleyes:

Fos
07-06-2023, 08:53
E con questa frase direi che possiamo chiuderla qui :rolleyes:Non c'hai capito nulla, eh... :)

A questo punto è evidente che non è la prima volta che rispondi senza comprendere la parodia sul tuo atteggiamento.

R@nda
07-06-2023, 09:04
Va gusti? Come il gelato?
Mi raccomando i Pcb si leccano ad alimentazione scollegata!:D

(si scherza ovviamente, non ho preferenze di marche, mai avute)

Vik94
07-06-2023, 09:13
Sarebbe buona cosa che le tabelle di Steam fossero più profonde e interlacciate tra loro.
Ora si può vedere che la 4099 è allo 0,44% tra tutte le schede rilevate. Ma non si sa quanti utenti la usano, perché steam prende appunto il totale delle schede ma non degli utenti.

E che il 65% usa il Full Hd.

A logica può essere che solo un numero bassissimo di utenti usi una 4090 in full HD e gli altri in qhd e 4k.

Ok direte, steam non fa statistica, ma è l'unico strumento ad oggi consultabile.
Ma steam prende le schede o gli account? Perchè ho letto entrambe le versioni

ColdWarGuy
07-06-2023, 10:19
Tpu non è mai stata brava nei test cpu, tende troppo ad allineare il tutto e nascondere le magagne.


Quindi secondo te un canale YT con 373 iscritti è più affidabile di TPU ?

Comunque è intuile che continuate a postare grafici 1080p con la 4090, sono un esercizio tecnico fine a se stesso.

Cutter90
07-06-2023, 10:27
Tpu non è mai stata brava nei test cpu, tende troppo ad allineare il tutto e nascondere le magagne.

Alcune testate mettono sotto torchio per bene, e li si notano le differenze:

Cambiamo testata:

Efficienza, 13900k da questi test consuma il triplo di un 7800x 3d:

https://i.ibb.co/3RxcWx6/7800x-3d.jpg (https://ibb.co/Z2QxKQ4)

Bench su F1 2022 le cpu sotto le 12th/7000 amd mostrano quanto le altre siano lente e poco adatte per una 4090, se dovessimo mettere 4K DLLS bilanciato/ qualità su una cpu tipo 11900k o 5800x perderebbe sempre quel 20-30% dalle più veloci (tanto vale si compra una 4070ti-4080 max)
https://i.ibb.co/bWb9qVk/dsfvcf.jpg (https://ibb.co/0Dsb8Lx)

Media cpu tra un serie 11th intel ed un 7950x3d ci passa il 66%:

https://i.ibb.co/SxVLSYm/gdf.jpg (https://ibb.co/LP9GKjg)

Ora basta difendere intel, vanno uguale o poco meno in game (confronto ai 3d) e consumano il doppio in game.

Preferite le youutbate (che io non considero) ecco (vedasi consumi):
https://www.youtube.com/watch?v=itP_47tZ8Tw&list=LL&index=3

In aggiunta, i 7800x3d stanno droppando di prezzo:
https://videocardz.com/newz/amd-ryzen-7-7800x3d-drops-to-the-lowest-price-of-406

Basta aspettare un paio di mesi non fare le solite scimmie da D1 (come con i giochi)

Al netto che è inutile continuare con sto 1080p con la 4090 che è uno scenario non reale, le differenza tra il mio e un 13900k o 7950 xd non è assolutamente quella. ma mai nella vita proprio.
Facciamo un bench su un gioco tipo cp 2077? Oppure se un altro? Ci sono video sul tubi di vari giochi con i vari 13900k et simile e alcuni test li abbiamo pure fatti qui. Le differenze non sono assolutamente quelle di quei test con il mio. Ma mai mai mai.
Quello più eclatante che ho visto è tlou che perdevo si e no 10 fps attorno ai 90. Ed è uno dei giochi più dipendenti dalla cpu.

Fos
07-06-2023, 10:48
Va gusti? Come il gelato?
Mi raccomando i Pcb si leccano ad alimentazione scollegata!:D

(si scherza ovviamente, non ho preferenze di marche, mai avute)Quello era sarcasmo mirato, se segui la sagoma lo capisci.
Quindi alla fine potrebbe chiuderla lì con se stesso, ma tant'è... :D

Quindi secondo te un canale YT con 373 iscritti è più affidabile di TPU ?

Comunque è intuile che continuate a postare grafici 1080p con la 4090, sono un esercizio tecnico fine a se stesso.È un esercizio fine a pesare le potenzialità del processore.

Se non serve subito, si sa in anticipo il processore che potrà accontentare meglio. Conosci un metodo migliore?
Se la 5090 e seguenti andranno a 4K come la 4090 a 1080p, il risultato lo hai pronto, senza considerare l'aumento scontato delle richieste.
C'è uno storico sconfinato che dimostra che quel metodo è il più sensato, il resto sono chiacchiere a seconda...
Te lo avevo già esposto, ma non mi pare che hai replicato a tema.

Quello è il motivo principe, e molte testate lo spiegano pure bene, ma scommetto che si sbagliano o sono AMD centrici, almeno quando il vantaggio è di AMD...

Parli di pochi iscritti all'occorrenza, però non consideri che in pratica tutti fanno le prove a 1080p anche con la 4090.
Vedrai che poche centinaia contano poco, ma sicuramente la tua logica conta più di quella del resto del mondo, che ti devo dire...

Per altro, i test postati sopra in generale premiano Intel più di TPU.
Questo perché la scelta dei giochi può fare la differenza.

Stai negando un prinicipio che è sempre stato buono. Sei tu che dovresti spiegare il perché.
Ad occhio direi che non serve nemmeno leggere tra le righe...

ColdWarGuy
07-06-2023, 11:00
Il 7950x3d (13900K) alla tua cpu le fa barba e capelli, mi spiace dirtelo ma hai un sistema completamente sbilanciato è da rivedere lato cpu, vai giusto un filo meglio dei 10700k/9900k e batti un 10900K in game, ma differenze irrisorie, sei sopra del 10% quando ti va bene.


Siamo alla follia.

Cutter90
07-06-2023, 11:01
Il 7950x3d (13900K) alla tua cpu le fa barba e capelli, mi spiace dirtelo ma hai un sistema completamente sbilanciato è da rivedere lato cpu, vai giusto un filo meglio dei 10700k/9900k e batti un 10900K in game, ma differenze irrisorie, sei sopra del 10% quando ti va bene.

A meno che non vai in 6k DLDSR + DLSS Q o usi 4k NATIVO (stupidamente)

Ancora peggio una 4080 in qhd, quella darebbe veramente problemi, ma vabbè quella non la si tiene su nemmeno con i nuovi.

p.s Cp2077 in RT è gpu limited, la cpu a dettagli maxed serve a ben poco, la terresti bene anche con un 9900k, quindi nel tuo caso non ci sarebbero problemi in quel contesto.

Ma scusa un attimo. E allora tutto il ragionamento a che serve? Se io non sono mai in cpu limited, ovviamente, visto che il caso ideale è essere gpu limited, cosa serve tutto sto discorso? La barba e i capelli come fa a farmeli se poi ingame andiamo ugali con impostazioni classiche come 4k nativo con dlss qualità e si sta sotto i 120?
Tantissimi giochi moderni con 4k maxato (o 6k dldsr con dlss qualità) si sta sotto ai 120..... e in questo scenario, che è quello normale per una 4090, la mia cpu tiene benone, con perdite dai 5 ai 10 fps. Quindi di che parliamo?

Cutter90
07-06-2023, 12:31
La barba e capelli in termini di architettura, se lanci un FC6 che carica 2core+HT (fa schifo) il 13900k ti da uno stacco incredibile, un caso dove l'architettura vince sempre, visto che ha fame di IPC e di performance ST.

Se in F1 2022 4k RT usi il dlss q (2560x1440) non hai più il peso del 4k, quindi probabilmente perderesti un 20-30% andando a spanne (non il 66% visto in 1080p) quindi l'unica per non perdere prestazioni sarebbe metterlo in 6k DLDSR e DLSS quality, giocheresti con il peso del 4k nativo e non subiresti perdite del frame rate (se non marginali 10%)

Questo in quel contesto, dove in 1080p ti legna del +60%, in altri contesti a 1080p dove magari ti da il 30% sei già in un botte di ferro in 1440p, ed in 4k sicuro.

Varia gioco per gioco, ad esempio in TLOU quando la città prende fuoco all'inzio (scenario fortemente cpu limited) anche li saresti cpu limit.

Un altro utente con il 10700k l'ha capito, non ha mica fatto tutti sti pipponi per comprendere che ormai sono cpu passate:
https://www.hwupgrade.it/forum/showthread.php?t=2982653
Spero ora che io sia stato chiaro.

Che sono0 cpu passate non ci piove. Che la mia faccia perdere performance rilevanti è un altra questione. Oggi faccio un test e lo dimostro.
Ovviamente bisogna sempre considerare che parlo di scenari sotto i 120 fps.

Se qualcuno ha voglia di fare un test sulla parte iniziale di tlou, magari in quella famosa scena subito dopo che si prende il controllo di joel alla ZQ mi farebbe un favore, altrimenti cerco qualcosa in rete
E bada bene che stiamo parlando del gioco che usa più intensivamente la cpu

Salfox
07-06-2023, 13:23
Tpu non è mai stata brava nei test cpu, tende troppo ad allineare il tutto e nascondere le magagne.



Eh no, e qui ti sbagli di grosso, premesso che secondo me le prove su internet lasciano il tempo che trovano perchè si basano su degli scenari che non hanno nulla a che vedere con la realtà e che quindi, come nel mio caso, puoi avere dei risultati completamente diversi quando li provi personalmente.
Detto questo se porti altro come prove delle tue, sbagliatissime secondo me, tesi, devi accettare anche le recensioni dei siti che non ti piacciono e non solo di quelli che ti fanno comodo.
Se continui su questo piano per favore astieniti perchè non porti assolutamente nulla di costruttivo.

Cutter90
07-06-2023, 13:29
Beh Cutter, se a te soddisfa e giochi in 4k (al massimo 4k DLSS Quality quindi 2560x1440) ci potrebbe anche stare, ripeto non vedrai mai una cpu che ti starà sopra del +60-70% come nei casi precedenti a 1080p, utili solo a dimostrare i limiti delle cpu, dove arriva una piuttosto che l'altra.

Magari nei casi più ostici con il tuo setup e risoluzione, una cpu più veloce ti darà quel +20-30% in altri il +10% in altri potresti andare uguale e quindi non perdere nulla.

In 6k DLDSR + DLSS quality (4k) sono sicuro che non avresti mai problemi, con un ottima qualità immagine e prestazioni elevate.

Tieni conto che stiamo parlando solo di fps medi, gpu usage, tralasciando 0.1% e tutte le problematiche (frame pacing e stuttering)

Ok, già così mi suona più "famigliare la questione" :)

ColdWarGuy
07-06-2023, 14:27
Alla follia sei tu che non riesci a capire concetti base, l'utente sotto la mia reply te l'ha rispiegato.
-snip


Di quello che riesco a capire o non capire io in ambito tecnico tu non ne hai la minima idea, tu continua pure a passare giornate intere a fare benchmark con i giochini e lo schedone per poi vantartene schifando in modo sfrontato le configurazioni altrui, di chi misura saggiamente le uscite di portafoglio in base al rapporto costo / beneficio e non insegue puntualmente mode, miti e leggende e/o passa il tempo a postare record di FPS.

Il vero gaming è un'altra cosa.

StylezZz`
07-06-2023, 14:34
RTX 4060 Ti vs RTX 3070 - Test in 10 Games - 1440p (https://www.youtube.com/watch?v=818Ii1_F6fk)

l'onore (e il valore) della 3070 è salvo!

bagnino89
07-06-2023, 14:37
RTX 4060 Ti vs RTX 3070 - Test in 10 Games - 1440p (https://www.youtube.com/watch?v=818Ii1_F6fk)

l'onore (e il valore) della 3070 è salvo!

Imbarazzante.

FrancoBit
07-06-2023, 14:56
RTX 4060 Ti vs RTX 3070 - Test in 10 Games - 1440p (https://www.youtube.com/watch?v=818Ii1_F6fk)

l'onore (e il valore) della 3070 è salvo!

E' come il vino, grazie alla 4060ti mantiene valore, buono per chi è intenzionato a venderla :fagiano:

fabietto76
07-06-2023, 15:11
Imbarazzante.

Si, non ci sono altri aggettivi se non imbarazzante.
Riesce ad essere ampiamente la peggiore scheda della serie 4000 .. e non era facile.
Devo dire che avere nel case una scheda Nvidia mi crea quasi fastidio .. se mai Intel dovesse riuscire a fare qualcosa di tangibilmente superiore alla A770 ad un prezzo ragionevole cambierò di sicuro, anche a costo di qualche crash e/o instabilità varie.

bagnino89
07-06-2023, 15:27
Si, non ci sono altri aggettivi se non imbarazzante.
Riesce ad essere ampiamente la peggiore scheda della serie 4000 .. e non era facile.
Devo dire che avere nel case una scheda Nvidia mi crea quasi fastidio .. se mai Intel dovesse riuscire a fare qualcosa di tangibilmente superiore alla A770 ad un prezzo ragionevole cambierò di sicuro, anche a costo di qualche crash e/o instabilità varie.Io no, fatto sta che con AMD allo sbando, Giacchetta fa come gli pare. Anche se le vendite non gli vanno così bene, per fortuna.

Kvarat
07-06-2023, 15:47
Devo dire che avere nel case una scheda Nvidia mi crea quasi fastidio ..

Che succede se entri in un negozio e acquisti una confezione di Lego? Ti fai esplodere? :sofico: :sofico:

Cutter90
07-06-2023, 15:58
RTX 4060 Ti vs RTX 3070 - Test in 10 Games - 1440p (https://www.youtube.com/watch?v=818Ii1_F6fk)

l'onore (e il valore) della 3070 è salvo!

Francamente assurdo e imbarazzante. Dovrebbero vergognarsi. Chi ha la 3070 a questo punto se la tenga stretta. Ma chi credono di prendere in giro?

OrazioOC
07-06-2023, 16:00
Se questa 4060 ti è imbarazzante, vi aspetto il mese prossimo per la 4060 liscia. :D

Cutter90
07-06-2023, 16:07
Se questa 4060 ti è imbarazzante, vi aspetto il mese prossimo per la 4060 liscia. :D

Per la serie non c'è limite al peggio. oh, non che ci siano giochi in grado di usarle eh... diciamo che tra giochi e schede stanno facendo a gara a chi è più fermo dal punti di vista tecnologico

EffeX
07-06-2023, 16:37
Si, non ci sono altri aggettivi se non imbarazzante.
Riesce ad essere ampiamente la peggiore scheda della serie 4000 .. e non era facile.
Devo dire che avere nel case una scheda Nvidia mi crea quasi fastidio .. se mai Intel dovesse riuscire a fare qualcosa di tangibilmente superiore alla A770 ad un prezzo ragionevole cambierò di sicuro, anche a costo di qualche crash e/o instabilità varie.

Io già a dicembre mi vergognavo di avere una Nvidia nel case con la 3070Ti che consumava quasi come una 3080 se non facevi uv!
E comunque ora come ora nei giochi che uso i crash son stati risolti, è rimasta sta cosa nell'immaginario collettivo che i driver Intel fanno schifo dallo scorso ottobre, quando le schede sono uscite, quando invece la situazione è stata molto migliore di come mi aspettavo detto sinceramente. ;)

EffeX
07-06-2023, 16:40
Francamente assurdo e imbarazzante. Dovrebbero vergognarsi. Chi ha la 3070 a questo punto se la tenga stretta. Ma chi credono di prendere in giro?

Avessi saputo uno scempio del genere mi tenevo la 3070Ti, avrei pure potuto venderla ora a quanto l'ho venduta a dicembre! 0 svalutazione!:ciapet:

Cfranco
07-06-2023, 16:56
Se questa 4060 ti è imbarazzante, vi aspetto il mese prossimo per la 4060 liscia. :D

Mi sento già poco bene
:Puke:

amon.akira
07-06-2023, 17:24
Alla follia sei tu che non riesci a capire concetti base, l'utente sotto la mia reply te l'ha rispiegato.

Su pascal e maxwell si facevano i test 720p, ancora prima a 480p e allora? sono sempre esistiti i test cpu e si fanno a dettaglio basso e risoluzioni basse proprio per far emergere il massimale (CPU RENDER) che è diverso dal GPU RENDER, ormai ve lo hanno messo pure nei giochi (tipo sottr e altri) giusto per farvelo capire.

Se una CPU ha un render max di 180fps e la GPU ne può produrre 240 sei cpu limited, non ci vuole la scienza, probabile che sorgano fenomeni di frame pacing e rovinino l'esperienza di fluidità, non si guardano solo i medi, bisogna vedere se quei frame vengono tutti renderizzati allo stesso tempo nel caso di 60fps 16.66 ms, più frame meno tempo ogni frame al secondo, anche qui non ci vuole la scienza.



Poi per quele motivo follia? cosa pensi che un 11th vada molto più di un 10th? lo stacco intel l'ha dato con Alder Lake rivedendo per bene l'architettura, non quel misero aumento di IPC che ha dato sugli 11TH.


il test a risoluzioni piu basse ha senso solo se si impostano tutte le altre opzioni su max "per me", perchè mettendo tutto al minimo è vero che si sgrava la gpu e si massimizza la cpu, però la si massimizza con geometria minima...ci sono effetti che usano la cpu molto intensivamente, come ombre, ray tracing, ao etc... e potrebbe mostrare altri scenari con le medesime cpu...esempio uno spiderman con 5800x3d prende vantaggio se tutto al min ma può andare sotto specialmente nei minimi se maxato (se ci pensi sarebbe no sense, al massimo dovrebbe pareggiare a logica).

quindi si sono a favore di usare anche risoluzioni piu basse per testare le cpu, purchè si maxino sempre le impostazioni grafiche, specialmente rt.

Kvarat
07-06-2023, 19:31
Se questa 4060 ti è imbarazzante, vi aspetto il mese prossimo per la 4060 liscia. :D

Facciamo una scommessa? La 4060 liscia a prezzo listino 299 sarà la più consigliata per le build a basso costo? :D

EffeX
07-06-2023, 20:00
Facciamo una scommessa? La 4060 liscia a prezzo listino 299 sarà la più consigliata per le build a basso costo? :D

Bisogna prima capire se al D1 si troverà a 299.. :D

nessuno29
07-06-2023, 21:00
Bisogna prima capire se al D1 si troverà a 299.. :D

Considerando che andrà poco oltre la 3060 con 4gb in meno si troverà a meno ben presto.

Ubro92
07-06-2023, 21:16
Considerando che andrà poco oltre la 3060 con 4gb in meno si troverà a meno ben presto.

Non a caso hanno tirato fuori la 3060 8GB :fagiano:

EffeX
07-06-2023, 21:16
Considerando che andrà poco oltre la 3060 con 4gb in meno si troverà a meno ben presto.

Quello lo spero, è una scheda che sarebbe dovuta costare 149$, una fascia bassa praticamente.

Ubro92
07-06-2023, 21:23
Quello lo spero, è una scheda che sarebbe dovuta costare 149$, una fascia bassa praticamente.

La vecchia fascia in cui risiedevano le RX 570 e le 1650s, oramai completamente morta.

Alla fine per un chippino da 146mm2 le prestazioni sono di tutto rispetto, la 3050 (GA107) ha un die di 200mm2 e c'è un divario di prestazioni di un +50%...

Il salto di nodo è stato enorme.

nessuno29
07-06-2023, 21:32
La vecchia fascia in cui risiedevano le RX 570 e le 1650s, oramai completamente morta.

Alla fine per un chippino da 146mm2 le prestazioni sono di tutto rispetto, la 3050 (GA107) ha un die di 200mm2 e c'è un divario di prestazioni di un +50%...

Il salto di nodo è stato enorme.

Il solito +50% che ci sarebbe dovuto essere in ogni fascia e che invece c'è stato solo per le due big.

Kharonte85
07-06-2023, 21:55
da questa pagina in avanti potete vedere gioco per gioco
https://www.techpowerup.com/review/nvidia-geforce-rtx-4060-ti-founders-edition/6.html

questa invece è la media.
Anche una "misera" 2060 6GB, considerando pure che quei test sono fatti tutt'altro che con parsimonia di settings e quindi si possono recupare un sacco di fps, potrebbe far giocare QHD senza affatto sentirsi male. se poi si usa il DLSS...
Voler avere di più è diverso da "necessito sennò il gioco non va"

https://tpucdn.com/review/nvidia-geforce-rtx-4060-ti-founders-edition/images/average-fps-2560-1440.png

Leggendo le ultime pagine mi sono ricordato perchè non scrivo più nel forum. Discussioni fini a se stesse, spesso polemiche, che perdono di vista l'obiettivo. Che potrebbe essere riassunto dall'intervento sopra.

Un "dinosauro" come me è stato abituato fin dagli albori a giocare con framerate mediocri (per non dire inconcepibili oggi), non ha certo bisogno di fare le gare a chi ne genera di più. Nel leggere questi grafici il dinosauro capisce che l'era è finita. Non ha senso "aspettarsi" più nulla. Certo ci sono esigenze diverse, ci saranno sempre prodotti per gli hardcore gamer (o per chi compete online), per chi deve fare 4K, ma volere il massimo oggi vuol dire scontrarsi con consumi e costi oggettivamente problematici.

Un "normal" gamer come me oggi può permettersi di sopravvivere tenendo una configurazione PC di età variabile tra i 5-10 anni senza sacrificarsi troppo. Vi farà ridere ma sono sopravvisuto fino al mese scorso, 9 anni con un i7 4770 (liscio neanche K) e un cambio di un paio di GPU (ultima la GTX 1080 TI) abbinate a un ottimo monitor 1440p con G-sync (molto utile per giocare tra i 30-60fps).

E il paradosso è che ho cambiato più per la curiosità di provare le nuove tecnologie di illuminazione, che non per avere incontrato un titolo ingiocabile (come invece succedeva in passato). Certo Dyining light 2 è stato forse quello che mi ha ricordato che erano passati 9 anni da quando mi ero fatto un PC, eppure senza RT risultava a dettagli ULtra ancora giocabile tra 40-50FPS! Con una scheda di 6 anni e un processore di 10 anni! Ho giocato tranquillamente anche Cyberpunk e altri giochi che vedo usati spesso per fare i benchmark.

Non fosse ancora chiaro: l'evoluzione delle GPU si sta appiattendo perchè si sta avvicinando sempre più al punto di saturazione di questa tecnologia/architettura, della capacità di calcolo e dell'efficientamento dei processi produttivi (sempre più complessi e costosi). Se non si fossero inventati Raytracing e DLLS e tutto ciò che oggi Nvidia fa passare come "calcoli IA" questa evidenza sarebbe ancora più palese. E forse non avrei cambiato la mia configurazione ancora altri anni.

Ecco perchè ho deciso di sperimentare e prendere l'unica scheda video che potesse avere un senso al momento, ovvero una GTX 4070 (su un i5 13400F). Ho fatto questa scelta avendo in mente un obiettivo chiaro: migliorare le prestazioni ma diminuendo i consumi/calore ecc. Obiettivo pienamente centrato. In game con una media di circa 220W CPU+GPU. E va bene così.

Cosa ci aspetta il futuro? Quello che vediamo già nel presente: un lieve incremento prestazionale di generazione in generazione, seguito da cicli di "ottimizzazione" che puntano a migliorarne efficienza o a rendere compatibili le schede con le nuove diavolerie. Le uniche che potranno fare una qualche differenza.

Mi spingo più in là e affermo che se vogliono (e vogliamo) vedere la rivoluzione prestazionale dovranno cambiare paradigma, sono oltre 30 anni che i PC si costruiscono esattamente nello stesso modo con lo stesso materiale per fare i chip. Con incrementi quantitativi più che qualitativi. Ma prima o poi dovranno inventarsi qualcosa di nuovo. Tipo un PC quantistico, fotonico, basato su fibra ottica o sottovuoto. O tutte queste cose messe assieme :D

ColdWarGuy
08-06-2023, 02:27
Ecco perchè ho deciso di sperimentare e prendere l'unica scheda video che potesse avere un senso al momento, ovvero una GTX 4070 (su un i5 13400F). Ho fatto questa scelta avendo in mente un obiettivo chiaro: migliorare le prestazioni ma diminuendo i consumi/calore ecc. Obiettivo pienamente centrato. In game con una media di circa 220W CPU+GPU. E va bene così.


Partendo da una 1080Ti la 4070 è senz'altro un upgrade sensato così come il 13400F è sicuramente adeguato per i 2K, sei a quasi 2X di prestazione grafica e 3-4X di prestazione di CPU, chi invece ha una 3070 e vuole lo stesso gap deve guardare la 4080 che costa il doppio :(

Domanda : i 220W li hai misurati alla spina o dedotti da software di monitoring ?


Cosa ci aspetta il futuro?


PC esteticamente sempre più grossi, zarri, luminosi e costosi, i costruttori stanno investendo molto sull'estetica e sull'ergonomia delle parti assemblate, molto oltre quello che avrei mai potuto immaginare, che non sarebbe un problema di per sè se non fosse che sembra essere diventato il focus principale.

Motenai78
08-06-2023, 07:32
Leggendo le ultime pagine mi sono ricordato perchè non scrivo più nel forum. Discussioni fini a se stesse, spesso polemiche, che perdono di vista l'obiettivo. Che potrebbe essere riassunto dall'intervento sopra.

Un "dinosauro" come me è stato abituato fin dagli albori a giocare con framerate mediocri (per non dire inconcepibili oggi), non ha certo bisogno di fare le gare a chi ne genera di più. Nel leggere questi grafici il dinosauro capisce che l'era è finita. Non ha senso "aspettarsi" più nulla. Certo ci sono esigenze diverse, ci saranno sempre prodotti per gli hardcore gamer (o per chi compete online), per chi deve fare 4K, ma volere il massimo oggi vuol dire scontrarsi con consumi e costi oggettivamente problematici.

Un "normal" gamer come me oggi può permettersi di sopravvivere tenendo una configurazione PC di età variabile tra i 5-10 anni senza sacrificarsi troppo. Vi farà ridere ma sono sopravvisuto fino al mese scorso, 9 anni con un i7 4770 (liscio neanche K) e un cambio di un paio di GPU (ultima la GTX 1080 TI) abbinate a un ottimo monitor 1440p con G-sync (molto utile per giocare tra i 30-60fps).

E il paradosso è che ho cambiato più per la curiosità di provare le nuove tecnologie di illuminazione, che non per avere incontrato un titolo ingiocabile (come invece succedeva in passato). Certo Dyining light 2 è stato forse quello che mi ha ricordato che erano passati 9 anni da quando mi ero fatto un PC, eppure senza RT risultava a dettagli ULtra ancora giocabile tra 40-50FPS! Con una scheda di 6 anni e un processore di 10 anni! Ho giocato tranquillamente anche Cyberpunk e altri giochi che vedo usati spesso per fare i benchmark.

Non fosse ancora chiaro: l'evoluzione delle GPU si sta appiattendo perchè si sta avvicinando sempre più al punto di saturazione di questa tecnologia/architettura, della capacità di calcolo e dell'efficientamento dei processi produttivi (sempre più complessi e costosi). Se non si fossero inventati Raytracing e DLLS e tutto ciò che oggi Nvidia fa passare come "calcoli IA" questa evidenza sarebbe ancora più palese. E forse non avrei cambiato la mia configurazione ancora altri anni.

Ecco perchè ho deciso di sperimentare e prendere l'unica scheda video che potesse avere un senso al momento, ovvero una GTX 4070 (su un i5 13400F). Ho fatto questa scelta avendo in mente un obiettivo chiaro: migliorare le prestazioni ma diminuendo i consumi/calore ecc. Obiettivo pienamente centrato. In game con una media di circa 220W CPU+GPU. E va bene così.

Cosa ci aspetta il futuro? Quello che vediamo già nel presente: un lieve incremento prestazionale di generazione in generazione, seguito da cicli di "ottimizzazione" che puntano a migliorarne efficienza o a rendere compatibili le schede con le nuove diavolerie. Le uniche che potranno fare una qualche differenza.

Mi spingo più in là e affermo che se vogliono (e vogliamo) vedere la rivoluzione prestazionale dovranno cambiare paradigma, sono oltre 30 anni che i PC si costruiscono esattamente nello stesso modo con lo stesso materiale per fare i chip. Con incrementi quantitativi più che qualitativi. Ma prima o poi dovranno inventarsi qualcosa di nuovo. Tipo un PC quantistico, fotonico, basato su fibra ottica o sottovuoto. O tutte queste cose messe assieme :D

Bell'intervento, quoto in pieno ^^

mtofa
08-06-2023, 08:04
Leggendo le ultime pagine mi sono ricordato perchè non scrivo più nel forum. Discussioni fini a se stesse, spesso polemiche, che perdono di vista l'obiettivo. Che potrebbe essere riassunto dall'intervento sopra.

Un "dinosauro" come me è stato abituato fin dagli albori..... :D

Ueh Kharonte, quant'era che non ti vedevo da queste parti, condivido anch'io il tuo discorso ;), ma anchj'io, appunto,sono un "dinosauro" :D

bonzoxxx
08-06-2023, 08:16
Ne siamo parecchi di dinosauri qui dentro :D :D

Condivido appieno quello che ha scritto il buon Kharonte.

mtofa
08-06-2023, 08:20
Fa piacere vedere che ci siamo ancora, questo è l'importante, oggi compio gli anni e ritrovare persone con cui si è già interagito molti anni addietro fa sempre piacere.

EffeX
08-06-2023, 08:26
Leggendo le ultime pagine mi sono ricordato perchè non scrivo più nel forum. Discussioni fini a se stesse, spesso polemiche, che perdono di vista l'obiettivo. Che potrebbe essere riassunto dall'intervento sopra.

Un "dinosauro" come me è stato abituato fin dagli albori a giocare con framerate mediocri (per non dire inconcepibili oggi), non ha certo bisogno di fare le gare a chi ne genera di più. Nel leggere questi grafici il dinosauro capisce che l'era è finita. Non ha senso "aspettarsi" più nulla. Certo ci sono esigenze diverse, ci saranno sempre prodotti per gli hardcore gamer (o per chi compete online), per chi deve fare 4K, ma volere il massimo oggi vuol dire scontrarsi con consumi e costi oggettivamente problematici.

Un "normal" gamer come me oggi può permettersi di sopravvivere tenendo una configurazione PC di età variabile tra i 5-10 anni senza sacrificarsi troppo. Vi farà ridere ma sono sopravvisuto fino al mese scorso, 9 anni con un i7 4770 (liscio neanche K) e un cambio di un paio di GPU (ultima la GTX 1080 TI) abbinate a un ottimo monitor 1440p con G-sync (molto utile per giocare tra i 30-60fps).

E il paradosso è che ho cambiato più per la curiosità di provare le nuove tecnologie di illuminazione, che non per avere incontrato un titolo ingiocabile (come invece succedeva in passato). Certo Dyining light 2 è stato forse quello che mi ha ricordato che erano passati 9 anni da quando mi ero fatto un PC, eppure senza RT risultava a dettagli ULtra ancora giocabile tra 40-50FPS! Con una scheda di 6 anni e un processore di 10 anni! Ho giocato tranquillamente anche Cyberpunk e altri giochi che vedo usati spesso per fare i benchmark.

Non fosse ancora chiaro: l'evoluzione delle GPU si sta appiattendo perchè si sta avvicinando sempre più al punto di saturazione di questa tecnologia/architettura, della capacità di calcolo e dell'efficientamento dei processi produttivi (sempre più complessi e costosi). Se non si fossero inventati Raytracing e DLLS e tutto ciò che oggi Nvidia fa passare come "calcoli IA" questa evidenza sarebbe ancora più palese. E forse non avrei cambiato la mia configurazione ancora altri anni.

Ecco perchè ho deciso di sperimentare e prendere l'unica scheda video che potesse avere un senso al momento, ovvero una GTX 4070 (su un i5 13400F). Ho fatto questa scelta avendo in mente un obiettivo chiaro: migliorare le prestazioni ma diminuendo i consumi/calore ecc. Obiettivo pienamente centrato. In game con una media di circa 220W CPU+GPU. E va bene così.

Cosa ci aspetta il futuro? Quello che vediamo già nel presente: un lieve incremento prestazionale di generazione in generazione, seguito da cicli di "ottimizzazione" che puntano a migliorarne efficienza o a rendere compatibili le schede con le nuove diavolerie. Le uniche che potranno fare una qualche differenza.

Mi spingo più in là e affermo che se vogliono (e vogliamo) vedere la rivoluzione prestazionale dovranno cambiare paradigma, sono oltre 30 anni che i PC si costruiscono esattamente nello stesso modo con lo stesso materiale per fare i chip. Con incrementi quantitativi più che qualitativi. Ma prima o poi dovranno inventarsi qualcosa di nuovo. Tipo un PC quantistico, fotonico, basato su fibra ottica o sottovuoto. O tutte queste cose messe assieme :D

Straquoto! :)
Diciamo che le evoluzioni ci son sempre state, solo che a mio parere in passato si notavano di più rispetto ad ora: se pensiamo all'inizio del nuovo millennio le cose più pesanti da gestire erano i filtri di AA e AF, poi i riflessi ssr (sacro unto vi dice niente?) motion blur, e arrivando fino al 2010 la tesselation.
Dal 2010 fino al 2020 ci sono state innovazioni, ma nulla da darmi la sensazione che ebbi indietro negli anni tra giocare con e senza AA, piuttosto che giocare un Half life 2 o un Far Cry in dx7-8 piuttosto che in dx9, la grafica cambiava dal giorno alla notte, specialmente l'acqua.
Con l'introduzione delle RTX Nvidia ha voluto spingere sul RT, che è cosa buona e giusta, ma a mio avviso il gap di differenza grafica tra il raster classico e l'rt, non è affatto la stessa cosa che accadeva anni fa quando usciva il titolo spacca mascella di turno, ma credo perché si è arrivati ad un punto dove ormai la grafica è talmente curata e ricca di dettagli che andare a notare una cosa piuttosto che l'altra è diventato meno evidente.

bonzoxxx
08-06-2023, 08:30
Fa piacere vedere che ci siamo ancora, questo è l'importante, oggi compio gli anni e ritrovare persone con cui si è già interagito molti anni addietro fa sempre piacere.

Auguri!!!!! :happy:
Sei entrato negli "anta" o ti manca ancora qualche anno?

R@nda
08-06-2023, 08:35
Ehh vabbhè condivido anche io ma noi siamo della generazione "a 60fps vengo", ricordatevi che siamo stati anche noi
così (eravamo qui a trepidare per ogni nuova relase di 3dmark, nuovi driver e litigare sulle gpu me lo ricordo bene).

Oggi c'è la deriva del 4k, 250fps (minimo!) degli Aio e dei led Rgb.
E' meglio? E' Peggio?
Ma chissenefrega, abbassate i prezzi :sbonk:

FrancoBit
08-06-2023, 08:38
Io ricordo bene DoomII sul 386 sx25 che mi giocai alla bellezza di 25 fps medi :cool: Comunque sono d'accordo con Kharonte85, bell'intervento dopo le ultime pallosissime pagine del thread

X360X
08-06-2023, 09:27
Anni fa passavi da console a PC (ho sempre avuto entrambi) e sembrava di fare i salti nel futuro.

Ma la stessa PS4 (ho avuto la Pro) che già aveva una grafica "curata" e risoluzioni native umane (PS3\360 erano ancora 720p nativi fate conto) coi suoi 30fps un po' ovunque ti sbatteva in faccia che non erano i 60 del PC, mentre su PS5 li ho trovati quasi sempre i 60.

sono diventati sfizi più di necessità, e a me se posso giocare a 120 piace, se il framerate è più stabile piace, se posso alzare certe opzioni piace, lo stesso RT schifo non fa se usato bene, non preferisco la PS5...ma con la PS5 e VGA non top si gioca bene senza problemi? Si.

Anni passati li rimpiango perché è tutto più noioso ora, anzi beato chi ha iniziato dagli albori che si è goduto ancora più step "wow".

Riguardo le CPU...è un thread per le VGA, se dovete stare mille pagine a parlare di CPU forse è più adatto un altro thread

Kvarat
08-06-2023, 09:31
Non fosse ancora chiaro: l'evoluzione delle GPU si sta appiattendo perchè si sta avvicinando sempre più al punto di saturazione di questa tecnologia/architettura, della capacità di calcolo e dell'efficientamento dei processi produttivi (sempre più complessi e costosi). Se non si fossero inventati Raytracing e DLLS e tutto ciò che oggi Nvidia fa passare come "calcoli IA" questa evidenza sarebbe ancora più palese. E forse non avrei cambiato la mia configurazione ancora altri anni.


Falsissimo. Mai come ora invece le schede video sono dei mostri. Un tempo puntavi a fare 60 fps in hd, poi 60 in fhd, poi 75 in fhd e così via. Adesso le potenze necessarie sono esponenziali. Si passa da chi gioca in fhd con i monitor dell'ufficio al 4k con le TV Oled a 120hz. Su questo per favore no vi prego. Mai visto un balzo in avanti come negli ultimi 4 anni in tutte le componenti del PC e periferiche.

bobby10
08-06-2023, 09:40
Concordo con Karonte ma io ho anche un altro vantaggio, vivo ancora nel 2017...ma con hardware del 2023 e me ne frego di dlss , FG e tutte ste balle.:D

Per quando sarò arrivato ai giochi di quest' anno probabilmente avrò una rtx6080

Cutter90
08-06-2023, 09:54
Falsissimo. Mai come ora invece le schede video sono dei mostri. Un tempo puntavi a fare 60 fps in hd, poi 60 in fhd, poi 75 in fhd e così via. Adesso le potenze necessarie sono esponenziali. Si passa da chi gioca in fhd con i monitor dell'ufficio al 4k con le TV Oled a 120hz. Su questo per favore no vi prego. Mai visto un balzo in avanti come negli ultimi 4 anni in tutte le componenti del PC e periferiche.

vero, ma si parla cmq solo di risoluzione. Sotto tantissimi aspetti siamo fermi, se non addirittura sono stati fatti passi indietro, vedi la fisica e l IA nei videogiochi

EffeX
08-06-2023, 10:04
vero, ma si parla cmq solo di risoluzione. Sotto tantissimi aspetti siamo fermi, se non addirittura sono stati fatti passi indietro, vedi la fisica e l IA nei videogiochi

Vero, un esempio su tutti è proprio CB2077, tutta grafica, ma ad asset e fisica è veramente lasciato a se stesso.
Ricordo i Batman, o andando ancora più indietro Mirrors edge col physix che mandava in frantumi i vetri in modo "realistico", per l'epoca si intende. :D
Cose che nei tripla A di oggi non si vedono più spesso...

Cutter90
08-06-2023, 10:09
Vero, un esempio su tutti è proprio CB2077, tutta grafica, ma ad asset e fisica è veramente lasciato a se stesso.
Ricordo i Batman, o andando ancora più indietro Mirrors edge col physix che mandava in frantumi i vetri in modo "realistico", per l'epoca si intende. :D
Cose che nei tripla A di oggi non si vedono più spesso...

Io speravo che una volta raggiunto il 4k come standard si concentrassero su fisica e ia. LA risoluzione è inutile aumentarla e gli fps ormai sono sufficienti anche in 4k.
Si, bene il RT, ma pensavo che onestamente la cosa fosse molto più veloce da implementare. Invece le SH fanno piccoli passettini per volta. Con le 2000 si è introdotto il RT. Con le 4000 speravo che tutti i giochi lo usassero su ombre e riflessi almeno e che il conmcetto fosse bello che finito e collaudato. In mado poi da concentrarsi sulla fisica e l IA che sono cose che il videogioco te lo cambiano proprio.
Invece siamo alle 4000 e non solo il RT è tutt'altro che uno stanadrd, ma addirittura c'è chi ancora non lo ha mai visto in azione. E' troppo lento il tutto. Troppo.