PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 [383] 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

mikael84
08-01-2023, 15:19
Alla fine il silicio è come un maiale, non si butta via niente. :oink:

Per me è ancora possibile, anche perchè un ad104 disastrato non a livello da declassamento completo(roba da ga106-150 della 3050 che in realtà è un ga107-400), risulterebbe ancora fattibile tagliando bus, vram e qualche CC.

Certo viene fuori un ad104 veramente brutto brutto da vedere(roba che mi fa tornare indietro alla 660 ti partendo da gk104 delle 680 e 670) però sempre meglio che dare ad106 a gente che spende 500 euro di sola gpu.:rolleyes:

Per la 3050 ne ha sradicato i collegamenti del GPC, e ne ha levato uno.
La 4070, praticamente per salvargli i collegamenti gli ha smontato le cache ad una ad una, ma anche qua, lato calcolo gli ha buttato oltre 1 GPC completo.
Senza andare ad invadere AD106 in calcolo, l'unico cut bruttale è questo, che ti paintizzo.:p
https://i.postimg.cc/P5xs8N9F/4060ti-dev.png

Rimarrebbero 5120 cuda, 64 rop's (le abbiamo salvate), 160 bit, cache da 36 a 30mb ( e qua già si storce il naso, visto che sarebbe inferiore ad AD106).

Oppure la soluzione migliore, collegamenti da x70 liscia e 5120cc.
Questo è l'unico modo per riciclare al meglio quel chip in un mondo parallelo.

In quello reale, sarà AD106 cuttato, con la full per la 4070 mobile probabilmente.:p


JHH si sta salvando con il clock che garantisce tsmc, taglia i cuda e ci infila i mhz, così facendo si spiana la strada per far nascere potenziali bidoni che poi ai fatti, viaggiano. E lui guadagna spendendo il minimo.

Una 4070 con gli stessi cuda della 3070 ne è proprio un chiaro esempio del resto.

Quando ti dissi che lui le tagliava in base al competitor, beh fatti 2 domande, alla fine AD103 va quanto la full del competitor, e ci aveva visto giusto (come naturale).:)

Maury
08-01-2023, 16:38
Quando ti dissi che lui le tagliava in base al competitor, beh fatti 2 domande, alla fine AD103 va quanto la full del competitor, e ci aveva visto giusto (come naturale).:)

JHH è furbo come pochi, oltre ad avere un potere economico che gli permette tutto. :)

In arrivo i nuovi driver stile DETONATOR (per chi se li ricorda :asd: )

https://videocardz.com/newz/nvidia-reportedly-working-on-ai-optimized-drivers-with-improved-performance

Promettono un bel change.

EffeX
08-01-2023, 16:53
Salve a tutti!
Secondo voi potrebbe essere il q2 2023 la finestra di lancio della 4070 liscia o si andrà verso inizio giugno? Per i prezzi visto l'andazzo spero ritocchino i listini al ribasso in quanto se non vendono le 4070Ti appena uscite a msrp quasi sicuramente non venderanno nemmeno le lisce a 599$.

ninja750
08-01-2023, 17:36
il dlss3 con la generazione dei frame però a 60 frame interpolati genera tanti artefatti, cioè si notano di più


sarebbe da fare una comparativa col DLSS2.0 performance :stordita:

ninja750
08-01-2023, 17:39
Una 4070TI doppia una 3070, e non stiamo neanche scomodando il dlss3 che fa decollare gli fps quando e dove serve. Sicuramente il dlss 3 è manna per una 4070 liscia.

Stavo notando che in 2 anni di 3070 in pratica ho giocato al 80% giochi con RT + Dlss, e il futuro, a parte possibili casi, vedrà questa combo sempre più presente. È per me irrilevante chi svetta in raster, e nel futuro avrà un peso ben più che leggero.

Conta questo... :)

https://tinypic.host/images/2023/01/07/cybetuntitled-27-1.png

doppierà anche, ma 34 fps resta non giocabile :fagiano:

parcher
08-01-2023, 18:35
doppierà anche, ma 34 fps resta non giocabile :fagiano:ma è senza dlss.. ?? 🤔

Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk

Ubro92
08-01-2023, 18:43
doppierà anche, ma 34 fps resta non giocabile :fagiano:

Però sei in 4K nativo, mettici il DLSS e già hai un discreto guadagno, poi aggiungi anche il frame generator e hai messo le pezze.

Comunque è solo questione di tempo, non so se ci saranno modder che permettano di abilitarlo su Turing/Ampere, ma sicuramente lo riceveranno con l'arrivo dell'FSR3.

mikael84
08-01-2023, 18:53
Però sei in 4K nativo, mettici il DLSS e già hai un discreto guadagno, poi aggiungi anche il frame generator e hai messo le pezze.

Comunque è solo questione di tempo, non so se ci saranno modder che permettano di abilitarlo su Turing/Ampere, ma sicuramente lo riceveranno con l'arrivo dell'FSR3.

Su turing potrebbe essere un problema, su Ampere è da vedere se riesce a mantenere la stessa qualità di Lovelace, perchè se per via degli OFA restituisce glitch o altre problematiche di ricostruzione è un problema. Di certo vorrei vederlo prima, così potrebbe essere solo una markettata pro lovelace.

Dovrebbe fare come per il RT su pascal, e dimostrarti che non ce la fanno.

Se non lo abilita, bisogna vedere ciò che farà AMD con FSR3, visto che alla base è sempre il frame generator.

fraussantin
08-01-2023, 19:44
Comunque è solo questione di tempo, non so se ci saranno modder che permettano di abilitarlo su Turing/Ampere, ma sicuramente lo riceveranno con l'arrivo dell'FSR3.

Bisogna vedere però , se amd darà supporto alle 6000 e se ci funzionerà e sopratutto se avranno sempre 3000 da vendere.

Non ci conterei troppo

Maury
08-01-2023, 19:58
doppierà anche, ma 34 fps resta non giocabile :fagiano:

ma è senza dlss.. ?? 🤔

Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk

Esatto, è in 4k nativo :)

EffeX
08-01-2023, 20:26
Bisogna vedere però , se amd darà supporto alle 6000 e se ci funzionerà e sopratutto se avranno sempre 3000 da vendere.

Non ci conterei troppo

Se non avevo capito male durante la presentazione mi pareva che FSR 3 sarà prerogativa della serie 7000, se poi lo implementano open source come FSR 2 tanto meglio! :)

Ubro92
08-01-2023, 22:30
Se non avevo capito male durante la presentazione mi pareva che FSR 3 sarà prerogativa della serie 7000, se poi lo implementano open source come FSR 2 tanto meglio! :)

A livello HW da quanto so RDNA3 non introduce nessun hardware aggiuntivo quindi se va con le 7000 dovrebbe fungere anche sulle precedenti, poi l'FSR è uno standard opensource quindi a meno di incompatibilità HW non dovrebbero esserci blocchi, alla fine l'FSR andava persino su Pascal e Maxwell.

scorpion73
08-01-2023, 23:18
A livello HW da quanto so RDNA3 non introduce nessun hardware aggiuntivo quindi se va con le 7000 dovrebbe fungere anche sulle precedenti, poi l'FSR è uno standard opensource quindi a meno di incompatibilità HW non dovrebbero esserci blocchi, alla fine l'FSR andava persino su Pascal e Maxwell.

Non mi sembra però, perché vedo delle unità dedicate alla AI che non mi sembra ci fossero sulle vecchie 6000.

https://www.hwcooling.net/en/amd-rdna-3-details-architecture-changes-ai-acceleration-dp-2-1/

Ovviamente se mi sbaglio faccio ammenda ma dovrebbero essere quelle a gestire l'equivalente del frame generator sulle 7000.
Può darsi però che siccome le OFA ci sono anche su ampere è possibile che fra queste due architetture sia possibile usare l'FSR 3. E' una mia idea eh, mi posso anche sbagliare.

amon.akira
08-01-2023, 23:32
Se non lo abilita, bisogna vedere ciò che farà AMD con FSR3, visto che alla base è sempre il frame generator.

si che sarà un "frame generator" è sicuro, ma bisogna vedere che tecnica utilizzeranno per generarlo, partendo solo dal frame precedente? di li i risultati potrebbero essere molto diversi...da 1 e 3 tipo nvidia? chissà certo che potevano dire qualcosa...l avranno messo in cantiere post presentazione nvidia ed hanno detto "già era in sviluppo"...se come no...

Nerd1
08-01-2023, 23:55
A livello HW da quanto so RDNA3 non introduce nessun hardware aggiuntivo quindi se va con le 7000 dovrebbe fungere anche sulle precedenti, poi l'FSR è uno standard opensource quindi a meno di incompatibilità HW non dovrebbero esserci blocchi, alla fine l'FSR andava persino su Pascal e Maxwell.

rdna3 introduce parecchie cose nuove a livello hw invece....

mikael84
09-01-2023, 00:55
A livello HW da quanto so RDNA3 non introduce nessun hardware aggiuntivo quindi se va con le 7000 dovrebbe fungere anche sulle precedenti, poi l'FSR è uno standard opensource quindi a meno di incompatibilità HW non dovrebbero esserci blocchi, alla fine l'FSR andava persino su Pascal e Maxwell.

Si ha acceleratori AI, 2x FP16 ognuno.
Tuttavia, anche se il FSR3 di AMD non si appoggia ad FP16, può calcolarlo anche con le precedenti, in quanto ha unità splitate per inferenza.

si che sarà un "frame generator" è sicuro, ma bisogna vedere che tecnica utilizzeranno per generarlo, partendo solo dal frame precedente? di li i risultati potrebbero essere molto diversi...da 1 e 3 tipo nvidia? chissà certo che potevano dire qualcosa...l avranno messo in cantiere post presentazione nvidia ed hanno detto "già era in sviluppo"...se come no...

AMD ha parlato solo di FSR3 frame generator con Fluid Motion Frames, con risultati 2x. Nel lunghissimo e dettagliato dev, non c'è alcuna menzione. Bisogna aspettare, anche se dovrebbe lavorare come quello nvidia. Gli acceleratori gli ha messi, vediamo che tirano su.
Cmq è semplicissimo il frame generator, bisogna vedere come ti riesce a livello di resa, ed il risultato dell'immagine non tanto del frame.:)

Fluid motion frames, cercherà di emulare le OFA di nvidia.

amon.akira
09-01-2023, 01:12
Si ha acceleratori AI, 2x FP16 ognuno.
Tuttavia, anche se il FSR3 di AMD non si appoggia ad FP16, può calcolarlo anche con le precedenti, in quanto ha unità splitate per inferenza.



AMD ha parlato solo di FSR3 frame generator con Fluid Motion Frames, con risultati 2x. Nel lunghissimo e dettagliato dev, non c'è alcuna menzione. Bisogna aspettare, anche se dovrebbe lavorare come quello nvidia. Gli acceleratori gli ha messi, vediamo che tirano su.
Cmq è semplicissimo il frame generator, bisogna vedere come ti riesce a livello di resa, ed il risultato dell'immagine non tanto del frame.:)

Fluid motion frames, cercherà di emulare le OFA di nvidia.

si be frame nel senso puro, quindi immagine.
l ho provato poco, su spiderman giusto per vedere ed effettivamente rendeva bene, notavo solo un po di inputlag, ma era quasi una "sensazione" poi cmq non l ho usato perchè non ce n era bisogno, su portal avrei voluto usarlo ma mi stutterava se cappavo a 60, quindi l ho fatto senza con dlss bilanciato...ora l ho riprovato e va bene, l avranno patchato...mi farò un giro in quality+framegen, ma provandolo pochi minuti mi è sembrata tanta roba :P

mikael84
09-01-2023, 01:39
si be frame nel senso puro, quindi immagine.
l ho provato poco, su spiderman giusto per vedere ed effettivamente rendeva bene, notavo solo un po di inputlag, ma era quasi una "sensazione" poi cmq non l ho usato perchè non ce n era bisogno, su portal avrei voluto usarlo ma mi stutterava se cappavo a 60, quindi l ho fatto senza con dlss bilanciato...ora l ho riprovato e va bene, l avranno patchato...mi farò un giro in quality+framegen, ma provandolo pochi minuti mi è sembrata tanta roba :P

Rispetto al DLSS2 aumenta l'input, c'è poco da fare. DLSS2 quality, mediamente DLSS3 prestazioni.
Per massimizzare l'input bisogna scalare il DLSS3.

In portal infatti, forse per la patch, ma avevano detto che non c'era tanta differenza tra DLSS2 e 3, e li è essenziale direi.:)

ninja750
09-01-2023, 08:27
Però sei in 4K nativo, mettici il DLSS e già hai un discreto guadagno, poi aggiungi anche il frame generator e hai messo le pezze.


resta il fatto che tutte queste pezze servirebbero di più su schede meno performanti non supportate, cioè quelle di chi ha speso mille euro l'anno scorso :stordita:

Ubro92
09-01-2023, 10:19
resta il fatto che tutte queste pezze servirebbero di più su schede meno performanti non supportate, cioè quelle di chi ha speso mille euro l'anno scorso :stordita:

Saranno gli stessi che spenderanno 1000€ ora :sofico:

Comunque bisogna attendere, anche lato modders per ora tutto tace, su Ampere qualcosa si potrebbe pure fare ufficialmente o no, su Turing è da vedere, ma il problema rimarrebbe la precisione e la resa.

Su spiderman sembra esserci un incremento del 35% di fps tra DLSS2 e DLSS3:

https://www.youtube.com/watch?v=ohPPRW71vq8

Quindi su GPU di gen precedente se la resa è inferiore potrebbe anche non valerne proprio la pena.

devil_mcry
09-01-2023, 10:24
ma secondo me più che non farli, escono male, non penso ne faccia meno

Ubro92
09-01-2023, 10:31
ma secondo me più che non farli, escono male, non penso ne faccia meno

Non lo so, servirebbero dei test.

Arrow0309
09-01-2023, 11:51
Rispetto al DLSS2 aumenta l'input, c'è poco da fare. DLSS2 quality, mediamente DLSS3 prestazioni.
Per massimizzare l'input bisogna scalare il DLSS3.

In portal infatti, forse per la patch, ma avevano detto che non c'era tanta differenza tra DLSS2 e 3, e li è essenziale direi.:)

Che vuoi dire esattamente?

mikael84
09-01-2023, 12:08
Che vuoi dire esattamente?

Il DLSS3 tende ad alzare le latenze, da quality a performance, scendono notevolmente, almeno questo dimostrano alcuni test. Mentre il DLSS2 già con qualità le abbassa notevolmente.

amon.akira
09-01-2023, 12:42
Su spiderman sembra esserci un incremento del 35% di fps

se non entrano in gioco altri limiti è quello il limite, poichè hai 1frame generato su 3 (2elaborati nirmalmente)

fraussantin
09-01-2023, 12:53
Il DLSS3 tende ad alzare le latenze, da quality a performance, scendono notevolmente, almeno questo dimostrano alcuni test. Mentre il DLSS2 già con qualità le abbassa notevolmente.Se si potesse tenere dlss2 performance ( che è un bel vedere con le ultime versioni ) e dlss3 quality sarebbe conpensato?

amon.akira
09-01-2023, 13:01
Se si potesse tenere dlss2 performance ( che è un bel vedere con le ultime versioni ) e dlss3 quality sarebbe conpensato?

non esiste dlss3 quality, il dlss3 è dlss classico + framegen+ reflex per la latenza.

il frame gen genera il frame2 prendendo le informazioni dal frame 1 e dal frame3, poi se il frame1 e il frame3 sono di qualità lo sarà maggiormente anche il frame2.

per ora almeno il frame generator nn ha impostazioni di precisione

Cutter90
09-01-2023, 13:22
Il dlss3 è la nativa con frame "inventati", davvero simili, ai frame nativi. Non c'entra nulla con il dlss2. Infatti, secondo me, potevano evitare di chiamarlo dlss3.

fraussantin
09-01-2023, 13:22
non esiste dlss3 quality, il dlss3 è dlss classico + framegen+ reflex per la latenza.

il frame gen genera il frame2 prendendo le informazioni dal frame 1 e dal frame3, poi se il frame1 e il frame3 sono di qualità lo sarà maggiormente anche il frame2.

per ora almeno il frame generator nn ha impostazioni di precisioneOk capito , cmq se prende le info dal frame 3 per generare poi un frame 2 abbiamo latenza per forza.
Praticamente a 60 fps abbiamo 16 millisecondi di latenza solo per dover aspettare il frame 3 piu quelli necessari per elaborare il frame mancante. A 30 fps ( la latenza raddoppia)

Questo credo sia un problema insormontabile a meno che non riescano a prevedere il frame 2 solo partendo dal frame 1.

mikael84
09-01-2023, 13:26
non esiste dlss3 quality, il dlss3 è dlss classico + framegen+ reflex per la latenza.

il frame gen genera il frame2 prendendo le informazioni dal frame 1 e dal frame3, poi se il frame1 e il frame3 sono di qualità lo sarà maggiormente anche il frame2.

per ora almeno il frame generator nn ha impostazioni di precisione

Aspè, ma puoi combinarli? O ho capito male io, o forse mi sono espresso male io
https://i.postimg.cc/tTk05mc5/dlss3.png

Dice
Con Frame Generation (DLSS 3), la latenza aumenta a 88 ms a livello nativo, 58 ms con qualità DLSS e 45 ms con prestazioni DLSS.

Senza frame generator, 43 ms con la modalità Qualità DLSS e 32 ms con la modalità Performance.

Quindi quando abiliti il frame generator, per scalare la latenza, devi utilizzare pure il DLSS, meglio se performance.
Dai test leggo questo.:p

Cutter90
09-01-2023, 13:40
Aspè, ma puoi combinarli? O ho capito male io, o forse mi sono espresso male io
https://i.postimg.cc/tTk05mc5/dlss3.png

Dice
Con Frame Generation (DLSS 3), la latenza aumenta a 88 ms a livello nativo, 58 ms con qualità DLSS e 45 ms con prestazioni DLSS.

Senza frame generator, 43 ms con la modalità Qualità DLSS e 32 ms con la modalità Performance.

Quindi quando abiliti il frame generator, per scalare la latenza, devi utilizzare pure il DLSS, meglio se performance.
Dai test leggo questo.:p

Ma solo perchè con il dlss peformance produci più frame che con il nativo o il dlss quality, quindi è normale. Più frame=latenza minore. Ecco perchè il frame generetor, alias dlss3 ha meno latenza se si parla di alti fps.

mikael84
09-01-2023, 13:42
Ma solo perchè con il dlss peformance produci più frame che con il nativo o il dlss quality, quindi è normale. Più frame=latenza minore. Ecco perchè il frame generetor, alias dlss3 ha meno latenza se si parla di alti fps.

Beh quello è naturale.

ninja750
09-01-2023, 13:54
Questo credo sia un problema insormontabile a meno che non riescano a prevedere il frame 2 solo partendo dal frame 1.

beh prevedere il frame 2 solo partendo dal frame 1 vuol dire chiaroveggenza :D

fraussantin
09-01-2023, 14:10
beh prevedere il frame 2 solo partendo dal frame 1 vuol dire chiaroveggenza :DÈ più o meno quello che fa il dlss da sempre con i pixel

In teoria in base ai movimenti che ci sono in una animazione si puo prevedere come sarà il frame successivo.

ninja750
09-01-2023, 14:20
È più o meno quello che fa il dlss da sempre con i pixel

In teoria in base ai movimenti che ci sono in una animazione si puo prevedere come sarà il frame successivo.

si esatto, ma movimento vuol dire 2 fotogrammi in cui metterci il tuo inventato in mezzo che "medi" tra i due

fraussantin
09-01-2023, 14:25
si esatto, ma movimento vuol dire 2 fotogrammi in cui metterci il tuo inventato in mezzo che "medi" tra i dueIl movimento lo puoi capire dai frame passati.

Bisogna vedere se riescono a creare bene il frame successivo.

Senno tanto valeva usare il frame ganerator delle tv che fa quello che dici tu , prendono 1 e 3 e fanno una media e si inventano 2 , e lo fanno con chip da poche decine di euro.

Secondo me c'è spazio per lavorare in questo senso.

Anche perche senno non capisco dove si creino gli artefatti se non per colpa di un errata previsione.

ninja750
09-01-2023, 14:41
Il movimento lo puoi capire dai frame passati.

Bisogna vedere se riescono a creare bene il frame successivo.

Senno tanto valeva usare il frame ganerator delle tv che fa quello che dici tu , prendono 1 e 3 e fanno una media e si inventano 2 , e lo fanno con chip da poche decine di euro.

Secondo me c'è spazio per lavorare in questo senso.

Anche perche senno non capisco dove si creino gli artefatti se non per colpa di un errata previsione.

è impossibile che funzioni come dici tu, se siamo al frame 1 io posso premere sia lo stick a sinistra o a destra a caso, lui cosa fa? non può prevederlo, o prevederli entrambi impiegando doppia potenza computazionale (che poi, potrebbero essere infiniti in qualunque direzione, per dire)

da quello che ho capito è una evoluzione di quello che vedevamo con le TV, infatti non artefatta se l'immagine è "lenta" stile ms flight simulator dove lì hai un boost pazzesco

già in F1 2022 la differenza si vede nei fermo immagini specie nei fences a bordo pista, con cyberpunk non immagino proprio come possa funzionare

sono convinto che fsr 3.0 funzionerà in questo senso

amon.akira
09-01-2023, 18:22
Il movimento lo puoi capire dai frame passati.

Bisogna vedere se riescono a creare bene il frame successivo.

Senno tanto valeva usare il frame ganerator delle tv che fa quello che dici tu , prendono 1 e 3 e fanno una media e si inventano 2 , e lo fanno con chip da poche decine di euro.

Secondo me c'è spazio per lavorare in questo senso.

Anche perche senno non capisco dove si creino gli artefatti se non per colpa di un errata previsione.

no le tv duplicano semplicemente il frame1 con il motion plus, esempio 1-1-2-2-3-3-4-4 e li interpolano...ovviamente crea artefatti oltre a non servire a nulla, ti da solo la sensazione di fluidità ma stai vedendo gli stessi frame duplicati.

qui invece conoscendo il precedente e il successivo può "predire" quello che ci sarebbe in mezzo.

x mikael
si la latenza la recuperi avendo piu fps ma non avremo mai 1:1 con il corrispettivo, l unica è trovare un denominatore comune in cui sia "accettabile"

esempio a 60 avrai la latenza di 40 conservando la fluidità, a 120 avrai quella di 80.

io ero molto scettico ma devo dire che già a 60 lo trovo accettabile, immagino che piu si va su e piu sarà meglio.

eXeS
09-01-2023, 18:40
Il dlss3 è la nativa con frame "inventati", davvero simili, ai frame nativi. Non c'entra nulla con il dlss2. Infatti, secondo me, potevano evitare di chiamarlo dlss3.
Il DLSS viene comunque usato per costruire il frame, quindi la nomenclatura è corretta ;)


With DLSS 3 enabled, AI is reconstructing three-fourths of the first frame with DLSS Super Resolution, and reconstructing the entire second frame using DLSS Frame Generation. In total, DLSS 3 reconstructs seven-eighths of the total displayed pixels, increasing performance significantly!


https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/

eXeS
09-01-2023, 18:46
Ok capito , cmq se prende le info dal frame 3 per generare poi un frame 2 abbiamo latenza per forza.
Praticamente a 60 fps abbiamo 16 millisecondi di latenza solo per dover aspettare il frame 3 piu quelli necessari per elaborare il frame mancante. A 30 fps ( la latenza raddoppia)

Questo credo sia un problema insormontabile a meno che non riescano a prevedere il frame 2 solo partendo dal frame 1.
Usa il frame corrente e il precedente per generare il nuovo frame


The DLSS Frame Generation convolutional autoencoder takes 4 inputs – current and prior game frames, an optical flow field generated by Ada’s Optical Flow Accelerator, and game engine data such as motion vectors and depth.

https://www.nvidia.com/en-us/geforce/news/dlss3-ai-powered-neural-graphics-innovations/

fraussantin
09-01-2023, 18:55
no le tv duplicano semplicemente il frame1 con il motion plus, esempio 1-1-2-2-3-3-4-4 e li interpolano...ovviamente crea artefatti oltre a non servire a nulla, ti da solo la sensazione di fluidità ma stai vedendo gli stessi frame duplicati.

qui invece conoscendo il precedente e il successivo può "predire" quello che ci sarebbe in mezzo.

x mikael
si la latenza la recuperi avendo piu fps ma non avremo mai 1:1 con il corrispettivo, l unica è trovare un denominatore comune in cui sia "accettabile"

esempio a 60 avrai la latenza di 40 conservando la fluidità, a 120 avrai quella di 80.

io ero molto scettico ma devo dire che già a 60 lo trovo accettabile, immagino che piu si va su e piu sarà meglio.Spe non ho capito :se duplicano il frame praticamente come faccio ad avere più fluidità?

Avrei un immagine ferma per un frame in più ergo come non avercelo .

amon.akira
09-01-2023, 19:05
Spe non ho capito :se duplicano il frame praticamente come faccio ad avere più fluidità?

Avrei un immagine ferma per un frame in più ergo come non avercelo .

perchè dai 25fotogrammi dei film ne hai poi 50, quindi vedi fluido, il famoso effetto soap opera :D, stesso discorso x qualunque cosa

Arrow0309
09-01-2023, 23:44
no le tv duplicano semplicemente il frame1 con il motion plus, esempio 1-1-2-2-3-3-4-4 e li interpolano...ovviamente crea artefatti oltre a non servire a nulla, ti da solo la sensazione di fluidità ma stai vedendo gli stessi frame duplicati.

qui invece conoscendo il precedente e il successivo può "predire" quello che ci sarebbe in mezzo.

x mikael
si la latenza la recuperi avendo piu fps ma non avremo mai 1:1 con il corrispettivo, l unica è trovare un denominatore comune in cui sia "accettabile"

esempio a 60 avrai la latenza di 40 conservando la fluidità, a 120 avrai quella di 80.

io ero molto scettico ma devo dire che già a 60 lo trovo accettabile, immagino che piu si va su e piu sarà meglio.

Ecco perché TW3 Next Gen alle prime ore mi sembrava non al 100% fluido cioè dlss3 (dlss quality) 90 - 100 fps che sembravano meno.
Dopo un po di ore la vista si era adeguata.
Quando torno dall'Italia devo provare anche Plague ma lì già siamo più alti di fps (senza RT).

shauni86
10-01-2023, 01:24
ragazzi ma attualmente cosa è meglio fare, prendere una 4070ti, o aspettare che i prezzi scendano nei prossimi mesi e puntare sulla 4080?

ninja750
10-01-2023, 10:54
perchè dai 25fotogrammi dei film ne hai poi 50, quindi vedi fluido, il famoso effetto soap opera :D, stesso discorso x qualunque cosa

esatto, da 25 a 50 è eclatante e in effetti la noti

da 100 a 150 per dire.. meh :stordita:

fraussantin
10-01-2023, 11:05
Si ma continua a non tornarmi come 2 fotogrammi uguali possano dare fluidità.

Devono per forza di cose essere una via di mezzo fra i fotogrammi adiacenti per essere visti.

Diversamente sono un immagine fissa.

Cfranco
10-01-2023, 11:40
ragazzi ma attualmente cosa è meglio fare, prendere una 4070ti, o aspettare che i prezzi scendano nei prossimi mesi e puntare sulla 4080?

La prima domanda è quanto pesa la scimmia :p
Spendere soldi in schede grafiche è sempre un cattivo affare, più aspetti meglio è ( la perfezione sarebbe non comprarle affatto :stordita: )
Quando il tuo gioco preferito non ce la fa più oppure la scimmia ormai ti tiene sveglio la notte, allora ti tocca comprarla per forza.
Razionalmente è sempre meglio aspettare il più possibile e spendere il meno possibile
Ma 1000 euro di scheda non si spendono razionalmente ( a meno che non ci lavori ) sono il cuore e la scimmia che te lo impongono

Salfox
10-01-2023, 16:45
Stranamente nessuno l'ha segnalato ma è in corso un drop Nvidia di 4090FE anche se penso che tutti quelli cha la volevano l'abbiano già presa :sofico:

mikael84
10-01-2023, 16:48
Intanto le varie 4080 (soprattutto manli) sono scese di 50-60 euro, ora partono da 1270 vs 1330.
La polvere comincia ad essere tanta.

craesilo
10-01-2023, 16:49
3070-3070ti ....5%
4070 (5888 cc previsti)-4070ti.....20%? :stordita:

mikael84
10-01-2023, 16:59
3070-3070ti ....5%
4070 (5888 cc previsti)-4070ti.....20%? :stordita:

All'incirca. l'obbiettivo sarà mediamente la 3080 in 1440p.
La FE stock toccherebbe il ratio della 3080 liscia a 1850mhz.
In 4k si complica ancora di più, in quanto gli ha smontato la cache da 48mb a 36.

bonzoxxx
10-01-2023, 17:00
Intanto le varie 4080 (soprattutto manli) sono scese di 50-60 euro, ora partono da 1270 vs 1330.
La polvere comincia ad essere tanta.

Sempre troppi secondo me.
JHH ha sparato alto, EVGA ha fatto bene a sfacularlo

mikael84
10-01-2023, 17:06
Sempre troppi secondo me.
JHH ha sparato alto, EVGA ha fatto bene a sfacularlo

E' un inizio... sempre detto che senza mining, prima o poi si scontrava con il mercato. Vedremmo tra un anno circa (settembre-ottobre).

E' vero che la 4090 per la storia della cache, è una 4080ti a tutti gli effetti, però sicuramente, tirerà fuori qualcosa di più castrato, e da li, vediamo che si inventa.

craesilo
10-01-2023, 17:14
All'incirca. l'obbiettivo sarà mediamente la 3080 in 1440p.
La FE stock toccherebbe il ratio della 3080 liscia a 1850mhz.
In 4k si complica ancora di più, in quanto gli ha smontato la cache da 48mb a 36.

a 599$ (o +) incomprabile, ma anche se fosse a 499, preferirei la ti

LkMsWb
10-01-2023, 17:38
Stranamente nessuno l'ha segnalato ma è in corso un drop Nvidia di 4090FE anche se penso che tutti quelli cha la volevano l'abbiano già presa :sofico:

Io sarei anche interessato ma deve calare ancora, spero nel cambio. Pagarla come chi la ha ormai da 2-3 mesi non mi va :sofico: . Anche se più probabilmente sarò il target di una eventuale 4080 Ti se cut della 4090. O della 4090 se uscirà la 4090 Ti e avrà taglio di prezzo :) . Comunque grazie per la segnalazione!

mikael84
10-01-2023, 17:39
Probabilmente sarà 599, troppa differenza vs la TI.
Immagino 699 navi32 e 599 questa.

devil_mcry
10-01-2023, 17:48
ragazzi ma attualmente cosa è meglio fare, prendere una 4070ti, o aspettare che i prezzi scendano nei prossimi mesi e puntare sulla 4080?

aspetta che i prezzi scendano e prendi una 4070 ti

OrazioOC
10-01-2023, 17:54
Probabilmente sarà 599, troppa differenza vs la TI.
Immagino 699 navi32 e 599 questa.

E' quello che ipotizzo anche io, questa 4070 alla fine ha una forte riduzione nelle specifiche rispetto alla TI, non ci sarà più quel gap poco marcato stile 3070 vs 3070 ti o 3080 vs 3080 ti.:rolleyes:

Comunque neanche navi 32 con 60 cu me l'aspetto tanto vicina alla 7900 xt, può essere tranquillamente un 30% più lenta(arrivando alla buona a livello della 6900 xt).
Quindi sarebbe un 3080 vs 6900 xt 2023 edition.:fagiano:

mikael84
10-01-2023, 18:44
E' quello che ipotizzo anche io, questa 4070 alla fine ha una forte riduzione nelle specifiche rispetto alla TI, non ci sarà più quel gap poco marcato stile 3070 vs 3070 ti o 3080 vs 3080 ti.:rolleyes:

Comunque neanche navi 32 con 60 cu me l'aspetto tanto vicina alla 7900 xt, può essere tranquillamente un 30% più lenta(arrivando alla buona a livello della 6900 xt).
Quindi sarebbe un 3080 vs 6900 xt 2023 edition.:fagiano:

Praticamente, un tantino più raster per una, un tantino di RT l'altra.
In linea di massima, navi 32, avrà la potenza di calcolo della 6800xt stock @2,65, ma con i benefici delle rop's, geometria più veloce, e vantaggi RDNA3 (soprattutto lato RT).
La 4070 invece messa così, è suppergiù una 3080.

OrazioOC
10-01-2023, 18:50
Praticamente, un tantino più raster per una, un tantino di RT l'altra.
In linea di massima, navi 32, avrà la potenza di calcolo della 6800xt stock @2,65, ma con i benefici delle rop's, geometria più veloce, e vantaggi RDNA3 (soprattutto lato RT).
La 4070 invece messa così, è suppergiù una 3080.

Schede che mi auguro di trovare a non più di 600/650 euro. :rolleyes:

Comunque anche qui il declassamento inizia ad essere tangibile, alla fine anche amd si trova a ficcare il chip sostituto della 6700 xt sulla 7800 xt, idem nvidia, alla fine quella 4070 è alla meglio una 4060/ti. :doh:

Ubro92
10-01-2023, 21:53
E' quello che ipotizzo anche io, questa 4070 alla fine ha una forte riduzione nelle specifiche rispetto alla TI, non ci sarà più quel gap poco marcato stile 3070 vs 3070 ti o 3080 vs 3080 ti.:rolleyes:

Comunque neanche navi 32 con 60 cu me l'aspetto tanto vicina alla 7900 xt, può essere tranquillamente un 30% più lenta(arrivando alla buona a livello della 6900 xt).
Quindi sarebbe un 3080 vs 6900 xt 2023 edition.:fagiano:

Bene o male è lo stesso gap che c'è tra 3060ti e 3070ti, circa il 23% di ALU in meno, quindi lo stacco ci sarà ma difficilmente andrà oltre il 15-20%.

Come prestazioni brute la 4070 liscia si porrebbe comunque ai livelli di 3080, in se per sè rimane un ottimo chip...

Solo che un chip del genere l'avrei visto bene come 4060ti non certo come una x70 e di certo non a cifre simili alla 3080...

recky
11-01-2023, 08:26
Per giocare a Full HD a 144 Hz maxato su cosa bisognerebbe puntare?

4060 ti basterebbe?

Cfranco
11-01-2023, 14:07
Come prestazioni brute la 4070 liscia si porrebbe comunque ai livelli di 3080, in se per sè rimane un ottimo chip...
La 3080 a 700$ era un ottimo chip due anni fa
La 4070 che va come la 3080 se la piazzano a 700$ è una presa per il **lo

Ale55andr0
11-01-2023, 15:09
Intanto le varie 4080 (soprattutto manli) sono scese di 50-60 euro, ora partono da 1270 vs 1330.
La polvere comincia ad essere tanta.

ottimo, a fine ciclo forse le si troverà a 900 nelle versioni pezzenti :asd:

fraussantin
11-01-2023, 15:12
ottimo, a fine ciclo forse le si troverà a 900 nelle versioni pezzenti :asd:Si ma è sempre il solito discorso a fine ciclo compri una scheda che dopo poco andrà come 5060 a 900 euro e con meno feature.

StylezZz`
11-01-2023, 15:28
Box della 4070 FE:

https://videocardz.com/newz/nvidia-geforce-rtx-4070-founders-edition-packaging-leaks-out

EffeX
11-01-2023, 15:35
Box della 4070 FE:

https://videocardz.com/newz/nvidia-geforce-rtx-4070-founders-edition-packaging-leaks-out

Quindi ci sarà una versione FE della 4070 e non della 4070Ti?
Che abbiano deciso di lasciare le versioni Ti solo agli AIB per non farli arrabbiare troppo?:confused:

mikael84
11-01-2023, 15:44
ottimo, a fine ciclo forse le si troverà a 900 nelle versioni pezzenti :asd:

completa ed includendo pure il R&D, gli costa mediamente 350-370$, di margine per lui e per scendere ne ha.

Si ma è sempre il solito discorso a fine ciclo compri una scheda che dopo poco andrà come 5060 a 900 euro e con meno feature.

Si le 5060, andranno sicuramente a prendere le attuali x70.
Spero che le g7 siano già pronte con la quadrupla densità (le W sono solo di samsung, quindi nada), per evitare di ritrovarsi con 128bit ed 8gb anche li.

Io sarei anche interessato ma deve calare ancora, spero nel cambio. Pagarla come chi la ha ormai da 2-3 mesi non mi va :sofico: . Anche se più probabilmente sarò il target di una eventuale 4080 Ti se cut della 4090. O della 4090 se uscirà la 4090 Ti e avrà taglio di prezzo :) . Comunque grazie per la segnalazione!

Per la 4090ti, ha ancora rese basse, le pochissime le sta utilizzando sulle ex quadro. E non sono neppure full, ma da 18176 cc. Sarebbero una sorta di chimera per pochi.
La 4080ti, va detto, che la 4090 è già una 4080ti per la storia della cache, ma è altamente probabile, che un altro modello lo tiri fuori su un monolite così grande. Quella al prezzo della 4080, e si cominciava a ragionare.

Quindi ci sarà una versione FE della 4070 e non della 4070Ti?
Che abbiano deciso di lasciare le versioni Ti solo agli AIB per non farli arrabbiare troppo?:confused:

La 4070ti è solo custom, per un cambio di rotta, in quanto era pensata come 4080 12gb solo AIB. Ora hanno cambiato nome, ma è rimasta sempre solo per i partner.
Dalla 70 ci saranno di nuovo le FE.

ninja750
11-01-2023, 16:27
5060 a 900 euro e con meno feature.

DLSS 4.0 ? :eek:

Ubro92
11-01-2023, 16:32
Si ma è sempre il solito discorso a fine ciclo compri una scheda che dopo poco andrà come 5060 a 900 euro e con meno feature.

Prossimo giro 5060 a 899$ :sofico:

fraussantin
11-01-2023, 16:56
DLSS 4.0 ? :eek:Qualche cazzata se la inventano sempre ad ogni gen , ormai è l'unico motivo percui la gente le ricompra.

mikael84
11-01-2023, 17:09
Beh, il suo vero investimento è nel settore HPC, con le probabili FP4 raddoppierà i tensor e li userà sulle pro-gaming. Al prossimo giro, non ci sarà il + 50% di clock. Quindi o riesce a migliore la microarchitettura, IPC generale, oppure spinge molto su RT-DLSS.

amon.akira
11-01-2023, 18:03
Beh, il suo vero investimento è nel settore HPC, con le probabili FP4 raddoppierà i tensor e li userà sulle pro-gaming. Al prossimo giro, non ci sarà il + 50% di clock. Quindi o riesce a migliore la microarchitettura, IPC generale, oppure spinge molto su RT-DLSS.

o semplicemente ritaglia i chip come dovrebbe e recupera il margine :D

StylezZz`
11-01-2023, 18:10
Io spero sempre nella sorpresa, dopo turing con la 2080 Ti a 1200 ci aspettavamo tutti prezzi assurdi e invece...499!! :D

amon.akira
11-01-2023, 18:14
Io spero sempre nella sorpresa, dopo turing con la 2080 Ti a 1200 ci aspettavamo tutti prezzi assurdi e invece...499!! :D

be la 3080ti costava uguale 1200 solo che turing l avevi dal dayone

Hadar
11-01-2023, 18:20
completa ed includendo pure il R&D, gli costa mediamente 350-370$, di margine per lui e per scendere ne ha.



Si le 5060, andranno sicuramente a prendere le attuali x70.
Spero che le g7 siano già pronte con la quadrupla densità (le W sono solo di samsung, quindi nada), per evitare di ritrovarsi con 128bit ed 8gb anche li.



Per la 4090ti, ha ancora rese basse, le pochissime le sta utilizzando sulle ex quadro. E non sono neppure full, ma da 18176 cc. Sarebbero una sorta di chimera per pochi.
La 4080ti, va detto, che la 4090 è già una 4080ti per la storia della cache, ma è altamente probabile, che un altro modello lo tiri fuori su un monolite così grande. Quella al prezzo della 4080, e si cominciava a ragionare.



La 4070ti è solo custom, per un cambio di rotta, in quanto era pensata come 4080 12gb solo AIB. Ora hanno cambiato nome, ma è rimasta sempre solo per i partner.
Dalla 70 ci saranno di nuovo le FE.Ma per la 4080ti che ti aspetti come performance?

Inviato dal mio Pixel 2 XL utilizzando Tapatalk

mikael84
11-01-2023, 18:45
o semplicemente ritaglia i chip come dovrebbe e recupera il margine :D

Probabile che a sto giro, riveda qualcosa internamente, a partire dagli SM. Anche se il lavoro sarà soprattutto via RT/tensor.

Piuttosto la riduzione della sram è molto limitata con i 3nm, sperando non faccia super padelloni per metterci tutta quella cache. Visto che la densità a sto giro non sarà elevatissima.
Cmq in un 600mm2 può impilarci circa 120mld di transistor, non è poco.

Io spero sempre nella sorpresa, dopo turing con la 2080 Ti a 1200 ci aspettavamo tutti prezzi assurdi e invece...499!! :D

A 499 ti darà la 3080ti, se va bene.:p
Probabile 5060ti= 4070ti.

La 4090 classica, volendo (almeno tecnicamente) è prendibile con la 5070ti.

mikael84
11-01-2023, 18:55
Ma per la 4080ti che ti aspetti come performance?

Inviato dal mio Pixel 2 XL utilizzando Tapatalk

La 4080ti è la 4090 tecnicamente (per via del taglio sulla cache). Se mai dovesse uscire quel modello da 14848, ci sarà un 10% di cuda a favore della 4090, quindi ben poco distacco tra le 2, però, se magari fa un riposizionamento, allora diventerebbe piuttosto interessante.
E' palese che la 4080 non può continuare così, ed andrebbe sostituita prima o poi. anche in caso di ristagno vendite della 4090.

Ale55andr0
11-01-2023, 20:53
Si ma è sempre il solito discorso a fine ciclo compri una scheda che dopo poco andrà come 5060 a 900 euro e con meno feature.

ma guarda che io mica lo dicevo in chiave positiva, era sarcasmo



E' palese che la 4080 non può continuare così, ed andrebbe sostituita prima o poi. anche in caso di ristagno vendite della 4090.


Dio volesse, ma mi pare che a oggi non si sono mossi di una virgola, ergo o stanno vendendo a frotte e noi ce la raccontiamo che stanno prendendo polvere perchè sì, o sono talmente boriosi e pieni di se che preferiscono darle allo sfascio piuttosto che venderle al prezzo "giusto"

Ubro92
11-01-2023, 20:56
La 4080ti è la 4090 tecnicamente (per via del taglio sulla cache). Se mai dovesse uscire quel modello da 14848, ci sarà un 10% di cuda a favore della 4090, quindi ben poco distacco tra le 2, però, se magari fa un riposizionamento, allora diventerebbe piuttosto interessante.
E' palese che la 4080 non può continuare così, ed andrebbe sostituita prima o poi. anche in caso di ristagno vendite della 4090.

E' molto probabile che se ne escano con un refresh in stile Super o proprio un rebrand a serie 5000 come fecero con Fermi e Kepler.

OrazioOC
11-01-2023, 20:59
E' molto probabile che se ne escano con un refresh in stile Super o proprio un rebrand a serie 5000 come fecero con Fermi e Kepler.

Io invece spero che anticipino Blackwell, magari sempre a 5nm raffinato ma architettura rivista e chip meglio proporzionati/cuttati invece che piccoli e tirati per i capelli nei clock.:rolleyes:

terranux
11-01-2023, 21:02
E' molto probabile che se ne escano con un refresh in stile Super o proprio un rebrand a serie 5000 come fecero con Fermi e Kepler.

ma la tua manli è decente oppure è rumorosa?

Ubro92
11-01-2023, 21:05
Io invece spero che anticipino Blackwell, magari sempre a 5nm raffinato ma architettura rivista e chip meglio proporzionati/cuttati invece che piccoli e tirati per i capelli nei clock.:rolleyes:

Blackwell penso se ne parli come minimo di fine 2024, quindi ne passerà molta di acqua sotto i ponti, un refresh invece puoi proporlo quando ti fa più comodo.

Personalmente mi interessa solo che i prezzi tornino in linea, è inconcepibile vedere a 1000€ un chippetto da 295mm2.

Ubro92
11-01-2023, 21:34
ma la tua manli è decente oppure è rumorosa?

Dipende dalla percentuale della ventola, fino al 50-55% si sente poco, si inizia ad udire vistosamente oltre il 60-70%, ma in game a 1965mhz 0.925v si tiene sempre sotto il 60%.

Poi tieni conto che l'H510 Elite ha il front chiuso, non ho provato a togliere la paratia frontale, ma sicuramente in un case meshato dovrebbe andare anche meglio.

La 3060ti è un chip molto bilanciato, consuma 180-200w quindi non ha grosse esigenze termiche/alimentazione, ovviamente la manli non è un chip da OC tirato per il collo, anche l'alimentazione ha un singolo 8pin e il bios è tarato sui 200w.

La 3070ti è invece più delicata, dato che è tirata per il collo e anche le GDDR6X scaldicchiano.

mikael84
11-01-2023, 21:41
ma guarda che io mica lo dicevo in chiave positiva, era sarcasmo





Dio volesse, ma mi pare che a oggi non si sono mossi di una virgola, ergo o stanno vendendo a frotte e noi ce la raccontiamo che stanno prendendo polvere perchè sì, o sono talmente boriosi e pieni di se che preferiscono darle allo sfascio piuttosto che venderle al prezzo "giusto"

Aspetta, ancora è un pre lancio, mancano ancora tutte le altre fasce. Sempre detto, vediamo dopo un anno che succede.

E' molto probabile che se ne escano con un refresh in stile Super o proprio un rebrand a serie 5000 come fecero con Fermi e Kepler.

Si ne avevamo già discusso, è un ipotesi. Anche se li, il big chip, stravolse tutto (big chip, poi, che era come quello della 580).
Anche se per me, la 4080ti movimenterà le fasce, con magari un riposizionamento di AD103, in versione super. Il margine è talmente alto che può inventarsi di tutto.

Io invece spero che anticipino Blackwell, magari sempre a 5nm raffinato ma architettura rivista e chip meglio proporzionati/cuttati invece che piccoli e tirati per i capelli nei clock.:rolleyes:

Io non riesco a capire perchè vorresti continuare ad utilizzare il 5nm.:p
Per affinare e potenziare la microarchitettura, servono transistor, più transistor più padelloni. Oltre i 600, le rese cominciano ad essere un serio problema.

Un 3nm ad esempio, ti potrebbe permettere di shrinkare AD102 (4090ti) in circa 380mm2 con clock sopra i 3ghz.
Quasi 115 die puliti a 176$.
AD102, 300$ circa, la metà di die.

La convenienza è netta.:)

Ubro92
12-01-2023, 21:32
Non saprei la 4080ti tende ad arrivare molto tardi, penso che nvidia lucrerà per bene prima di proporla.

Poi anche AD103 mi sembra strano che le rese siano tutte accettabili, e non ci sia nessun chip monco da cuttare sui 8000cc.

Ma vedremo... per ora, per quella che è la mia opinione, rispetto la gen precedente le fasce non sono propriamente ben suddivise, i relativi prezzi offrono lo stesso rapporto prezzo/prestazioni.

L'idea che possano fare un refresh a fine anno con le 5000 è possibile, cosi riallineano le fasce e con le migliori rese possono anche proporre un full AD102 con memorie a 24Gbps.

fraussantin
12-01-2023, 23:15
Non saprei la 4080ti tende ad arrivare molto tardi, penso che nvidia lucrerà per bene prima di proporla.

Poi anche AD103 mi sembra strano che le rese siano tutte accettabili, e non ci sia nessun chip monco da cuttare sui 8000cc.

Ma vedremo... per ora, per quella che è la mia opinione, rispetto la gen precedente le fasce non sono propriamente ben suddivise, i relativi prezzi offrono lo stesso rapporto prezzo/prestazioni.

L'idea che possano fare un refresh a fine anno con le 5000 è possibile, cosi riallineano le fasce e con le migliori rese possono anche proporre un full AD102 con memorie a 24Gbps.Ma alla fine anche se arriva a quanto arriva? 1700 euro?
A quel punto dico io stesso meglio oggi una 4090.
Almeno te la godi a pieno e a lungo.

amon.akira
13-01-2023, 02:01
Ma alla fine anche se arriva a quanto arriva? 1700 euro?
A quel punto dico io stesso meglio oggi una 4090.
Almeno te la godi a pieno e a lungo.

in un futuro prossimo (settembre?) io ci vedo

4090 1599$ -> 1750€
4080ti 1199$ -> 1299€
4080 scalata a 899$ -> 1000€
4070ti scalata a 649$ -> 750€

anche perchè dovrà pur venderli sti chip, altrimenti se li userà tutti per il geforce now :D

davide155
13-01-2023, 07:46
Intanto, per quanto possa valere, faccio notare che le 4000fe vanno sold out nel giro di 48h.
Finché non inizieranno a rimanere disponibili per settimane sul sito mi sa che giacchetta non abbasserà un bel niente....
Le uniche cose ad abbassarsi saranno le nostre mutande :D

nessuno29
13-01-2023, 07:56
Raga è inutile sperarci, ormai questo è il nuovo pc gaming, non si torna indietro, anche perchè considerando quanto costano le schede anche con un -20% sono comunque un botto di soldi, prendere o lasciare. Io andrò di usato per l'eternità, almeno finchè non mi passa la voglia di giocare visto che sto iniziando ad invecchiare (maledetti 30 anni ahaha).

Ubro92
13-01-2023, 07:59
Ma alla fine anche se arriva a quanto arriva? 1700 euro?
A quel punto dico io stesso meglio oggi una 4090.
Almeno te la godi a pieno e a lungo.

Sicuramente avrà più senso di esistere una 4080ti che la precedente 3080ti.
Ma è sempre da vedere come vorranno giocarsela.

in un futuro prossimo (settembre?) io ci vedo

4090 1599$ -> 1750€
4080ti 1199$ -> 1299€
4080 scalata a 899$ -> 1000€
4070ti scalata a 649$ -> 750€

anche perchè dovrà pur venderli sti chip, altrimenti se li userà tutti per il geforce now :D

Se refreshano tutto se ne escono più puliti come immagine rispetto un taglio di listino corposo, anche perchè vendere la 4080 a 1000€ significa un taglio di listino di 429€ e come immagine e soprattutto nei confronti degli OEM sarebbe una mazzata.

Comunque veramente non riesco a farmi un'idea di come si evolverà il mercato, per ora mi sono preso una GPU tampone e se ne parla direttamente l'anno prossimo.

Le mie attenzioni in questi mesi le dedico più alle cpu che oramai la mia è al capolinea, l'utilizzo gpu scende pure sotto il 70% in alcuni engine :stordita:

craesilo
13-01-2023, 08:03
Intanto, per quanto possa valere, faccio notare che le 4000fe vanno sold out nel giro di 48h.


ma la 80 è perennemente disponibile

amon.akira
13-01-2023, 08:16
ma la 80 è perennemente disponibile

la 4080 sullo store nvidia nn ce ora

craesilo
13-01-2023, 08:17
la 4080 sullo store nvidia nn ce ora

io la vedo e posso anche ordinarla

davide155
13-01-2023, 08:19
ma la 80 è perennemente disponibilePerennemente è un parolone.
Ora è disponibile ma segue lo stesso trend della 4090, che per assurdo costando 400euro in più vende di più.

craesilo
13-01-2023, 08:20
Perennemente è un parolone.
Ora è disponibile ma segue lo stesso trend della 4090, che per assurdo costando 400euro in più vende di più.

io la vedo ogni giorno, insieme alla 90ti....ovviamente 2 gpu incomprabili

amon.akira
13-01-2023, 08:23
io la vedo ogni giorno, insieme alla 90ti....ovviamente 2 gpu incomprabili

a me dice esaurito anche la 90ti, almeno dal cell

craesilo
13-01-2023, 08:24
a me dice esaurito anche la 90ti, almeno dal cell

allora hai problemi di visual. di qualche genere, sono sempre disponibili
se vai su tp cmq, le 80 sotto i 1400 non vendono un razzo

amon.akira
13-01-2023, 08:26
allora hai problemi di visual. di qualche genere, sono sempre disponibili

forse sa che ancora nn aggiorni e te ne tiene una riservata xD

craesilo
13-01-2023, 08:27
forse sa che ancora nn aggiorni e te ne tiene una riservata xD

no no tranqui :D

amon.akira
13-01-2023, 08:29
no no tranqui :D

ahah cmq si ho visto dal fisso e me la vede...lei e la 90ti...è il cell allora :P

Matz
13-01-2023, 12:27
Hmmm… quindi seguendo la vostra logica, nintendo Switch che si trova everywhere non vende un Caxxo… hmmm
…e io che pensavo!!!! 0_0

Complimenti per le analisi da bar di ultimo livello! XD

mikael84
13-01-2023, 12:31
La 4080 FE, gli rimane per forza, oltre a non convenire già di suo, si trova a 200 euro in meno volendo, nei vari eshop...
Inoltre 400$ di differenza vs la 4070ti, per un margine di perf, non certo elevatissimo.
Diverso la 4090, che ha un prezzo allineato anche alle più economiche. Ed è ovviamente la più appetibile, oltre ad avere un mercato pro.

Anche la 3090ti, non oso immaginare chi possa acquistarla a quei prezzi... avendo tolto (stranamente) nvlink, è l'unica che può garantire 48gb in tale modalità ai pro, che però si ritroverebbero quasi 1kw per prestazioni da 4090 in calcolo.

OvErClOck82
13-01-2023, 12:37
Hmmm… quindi seguendo la vostra logica, nintendo Switch che si trova everywhere non vende un Caxxo… hmmm
…e io che pensavo!!!! 0_0

Complimenti per le analisi da bar di ultimo livello! XD

eh si perchè una console per le uber-masse in vendita da 5 anni è paragonabilissima a una gpu da 1000€ sovrapprezzata uscita il mese scorso :stordita:

Matz
13-01-2023, 12:47
Ragazzi, tornate al presente… il cosiddetto “silicon shortage” è finito.
Senza dati di vendita state facendo discorsi da bar… poi se siete contenti voi, bene così! ;)

Ale55andr0
13-01-2023, 13:12
Intanto, per quanto possa valere, faccio notare che le 4000fe vanno sold out nel giro di 48h.


perchè ne metteranno una manciata per volta...

più che altro a preoccupare è la situazione in Cina, se davvero li' il covid dilaga si avranno di nuovo problemi produttivi con quel che ne segue...

craesilo
13-01-2023, 13:13
La 4080 FE, gli rimane per forza, oltre a non convenire già di suo, si trova a 200 euro in meno volendo, nei vari eshop...


ma non vendono manco quelle sotto msrp, è proprio una fregatura disarmante

fraussantin
13-01-2023, 13:21
Perennemente è un parolone.
Ora è disponibile ma segue lo stesso trend della 4090, che per assurdo costando 400euro in più vende di più.Si ma per quelle cifre la 4090 almeno è la top in tutto.

La.4080 è una accontentarsi spendendo cmq una folllia

EffeX
13-01-2023, 14:08
Si ma per quelle cifre la 4090 almeno è la top in tutto.

La.4080 è una accontentarsi spendendo cmq una folllia

Dal mio punto di vista spendere 900€ per una 4070Ti con 192 bit di bus è una follia ancora peggiore, considerando che si va in zona fascia media.

shauni86
13-01-2023, 14:08
conviene adesso prendere una 4070ti ? mi pare di capire che c'è grosso rischio che i prezzi aumentino

EffeX
13-01-2023, 14:17
conviene adesso prendere una 4070ti ? mi pare di capire che c'è grosso rischio che i prezzi aumentino

Il mining è finito e queste schede sono già prezzate male, i prezzi possono solo scendere se puoi avere pazienza:)
Se ti serve perché sei a piedi allora il discorso può cambiare...

Maury
13-01-2023, 14:21
allora hai problemi di visual. di qualche genere, sono sempre disponibili
se vai su tp cmq, le 80 sotto i 1400 non vendono un razzo

Basta girare gli store, le 70 e le 80 sono disponibili in grandi quantità, rimangono sugli scaffali.

shauni86
13-01-2023, 16:14
Il mining è finito e queste schede sono già prezzate male, i prezzi possono solo scendere se puoi avere pazienza:)
Se ti serve perché sei a piedi allora il discorso può cambiare...

posso aspettare tranquillamente, non ho tutta questa fretta, ma se poi ad esempio in autunno me le ritrovo più care.. chi può saperlo

mikael84
13-01-2023, 16:26
Dal mio punto di vista spendere 900€ per una 4070Ti con 192 bit di bus è una follia ancora peggiore, considerando che si va in zona fascia media.

Il bus comincia a pesare su 4k, soprattutto quando vengono richieste grosse porzioni di banda, la cache su tale res, ha pochi accessi positivi (circa il 30%) e le rop's messe alla frusta, occupano gran porzione di banda in scrittura.

Se l'uso è il 1440p, va piuttosto bene, in quanto li, la fa da padrona la cache, una grande pezza del problema warp (thread) stall.

Su Ampere devi fare: l1-l2 (5/6mb a 2 gb/s) -BW
Su Lovelace devi fare: l1-l2 (48mb a 5,7gb/s)-BW

Guarda la 4070ti a 1440p, come spesso si stacca da Ampere su alcuni giochi.
https://www.techspot.com/review/2601-nvidia-geforce-rtx-4070-ti/

Chiaro che un 256 bit, le avrebbe garantito prestazioni decorose anche in 4.

Kvarat
13-01-2023, 16:51
posso aspettare tranquillamente, non ho tutta questa fretta, ma se poi ad esempio in autunno me le ritrovo più care.. chi può saperlo

Basta comprarle in estate :D
Comunque sono destinate a scendere se non addirittura a crollare stile "Samsung". Hai presente quei prodotti che al lancio costano un rene ma appena esci dal negozio è già calato il prezzo? E' uno scenario possibile perchè da come la vedo io c'è la fascia medio bassa che va fortissimo nell'usato mentre quella alta è completamente piantata nonostante la produzione sia modesta.

Cfranco
13-01-2023, 18:31
posso aspettare tranquillamente, non ho tutta questa fretta, ma se poi ad esempio in autunno me le ritrovo più care.. chi può saperlo

Hanno fatto pochissime schede 4080 e 4070ti e sono tutte sullo scaffale a prendere polvere
Ci sono gli scalper disperati che cercano di venderle al prezzo di costo o restituirle perché nessuno le vuole
Il mining di Ethereum con le schede video è finito (e le crypto sono al collasso, ma questo è un altro discorso)
Già adesso i prezzi sono insostenibili e ci sono segnali di cedimento

L'unica direzione in cui possono andare i prezzi è verso il basso, comprare ora serve solo a regalare una giacchetta nuova a Huang

EffeX
13-01-2023, 18:40
Il bus comincia a pesare su 4k, soprattutto quando vengono richieste grosse porzioni di banda, la cache su tale res, ha pochi accessi positivi (circa il 30%) e le rop's messe alla frusta, occupano gran porzione di banda in scrittura.

Se l'uso è il 1440p, va piuttosto bene, in quanto li, la fa da padrona la cache, una grande pezza del problema warp (thread) stall.

Su Ampere devi fare: l1-l2 (5/6mb a 2 gb/s) -BW
Su Lovelace devi fare: l1-l2 (48mb a 5,7gb/s)-BW

Guarda la 4070ti a 1440p, come spesso si stacca da Ampere su alcuni giochi.
https://www.techspot.com/review/2601-nvidia-geforce-rtx-4070-ti/

Chiaro che un 256 bit, le avrebbe garantito prestazioni decorose anche in 4.

Grazie per la spiegazione. :)
La cache è un'ottima soluzione per il 1440p, su quello non ci sono dubbi, però far pagare 900$ un chippino che sarebbe stato una fascia x60 in tempi non troppo lontani la trovo proprio una pessima mossa in quanto i clienti appassionati, che magari guardano un poco più in là dei numeri che ti presentano loro, capiscono che non è un prodotto high end, ma un mid end spacciato per high end.
Nutro ancora un minimo di speranza per il prezzo della 4070, se fosse intorno ai 499$ uno potrebbe anche passarci sopra al fatto che sia un chippino da x60 viste le prestazioni in 2k che avrà, se andiamo sopra i 549$ sarà un' altra presa per i fondelli micidiale allora, almeno secondo il mio punto di vista. :muro:

parcher
13-01-2023, 19:38
ma non vendono manco quelle sotto msrp, è proprio una fregatura disarmante

A quei prezzi La polvere gli tocca..

mikael84
13-01-2023, 20:49
Grazie per la spiegazione. :)
La cache è un'ottima soluzione per il 1440p, su quello non ci sono dubbi, però far pagare 900$ un chippino che sarebbe stato una fascia x60 in tempi non troppo lontani la trovo proprio una pessima mossa in quanto i clienti appassionati, che magari guardano un poco più in là dei numeri che ti presentano loro, capiscono che non è un prodotto high end, ma un mid end spacciato per high end.
Nutro ancora un minimo di speranza per il prezzo della 4070, se fosse intorno ai 499$ uno potrebbe anche passarci sopra al fatto che sia un chippino da x60 viste le prestazioni in 2k che avrà, se andiamo sopra i 549$ sarà un' altra presa per i fondelli micidiale allora, almeno secondo il mio punto di vista. :muro:

499 la vedo molto, molto difficile, se farà 599 è oro. Gli costa a lui 300-320$, e ci deve mangiare bene lui, e gli AIB. Per il prezzo finale dipende anche se riuscirà a utilizzare gli scarti, in modo da ammortizzargli un tantino i costi, altrimenti la vedo grigia.
499 per me mette la 4060ti con AD106 (se va bene). :)

Ubro92
13-01-2023, 21:10
Penso che il risparmio a pari prestazioni ammonterà bene o male sui 50-100€ rispetto le 3070ti/3080.

Se fino a 2 mesi fa trovavi le 3080 sui 750-850€ probabilmente la 4070 liscia si troverà nell'intorno dei 700€, sorte simile per la 4060ti che -100€ da 3070ti si impone mediamente sui 500-550€.

Non credo cambieranno le carte, anzi penso che in questi mesi e con i nuovi titoli in arrivo ci mangeranno tantissimo sul DLSS3.

Anche AMD non mi sembra interessata a competere ma si sta allineando a nvidia.

amon.akira
13-01-2023, 23:01
Penso che il risparmio a pari prestazioni ammonterà bene o male sui 50-100€ rispetto le 3070ti/3080.

Se fino a 2 mesi fa trovavi le 3080 sui 750-850€ probabilmente la 4070 liscia si troverà nell'intorno dei 700€, sorte simile per la 4060ti che -100€ da 3070ti si impone mediamente sui 500-550€.

Non credo cambieranno le carte, anzi penso che in questi mesi e con i nuovi titoli in arrivo ci mangeranno tantissimo sul DLSS3.

Anche AMD non mi sembra interessata a competere ma si sta allineando a nvidia.

possono anche fare cosi, cioè decidere che d ora in poi trovi quelle fasce di prezzo, ma se per esempio nella fascia 1300€ ci sono solo tot acquirenti dovranno adeguare la produzione e aumentarla su quelle piu basse in questo caso da 4070 in giu.

poi si è giusto e sarebbe anche normale che tutti i modelli si trovino disponibili d appertutto, del resto cosi era un tempo, ma non per questo non vuol dire che non vendessero, è semplicemente una questione di quantità

Ubro92
13-01-2023, 23:23
Per ora ci sono ancora troppi SE.

Sicuramente però i chip medio gamma come AD106 dubito si vedranno prima di Maggio, quindi non credo che cambierà nulla prima della metà dell'anno.

Comunque in giro sia da parte dell'utenza che dei recensori si ode un lamento universale, e non credo passerà in sordina.

Dal lato rosso potrebbe esserci una risposta migliore, Navi 32 nonostante dovrebbe avere prestazioni simili a 6800xt e 6900xt, ha un bus a 192bit quindi anche il quantitativo di memoria è inferiore alla gen che precede, quindi potrebbero esserci prezzi più interessanti ma è da vedere.

nessuno29
14-01-2023, 06:55
Scusate ma se la 4070ti costa a partire da 919 euro, pensare di trovare la 4070 sui 700 euro non è ottimistico? Un buco di 200 euro tra la liscia e la ti non credo ci sia mai stato o sbaglio?

Secondo me il prezzo sarà di 649$-629$ + tasse.

Anche AMD non mi sembra interessata a competere ma si sta allineando a nvidia.
Forte del suo ampio 5% sul mercato ahah che cosa ridicola.

fraussantin
14-01-2023, 07:22
.

Forte del suo ampio 5% sul mercato ahah che cosa ridicola.

Probabilmente ha ragione umbro , perche anche a me pare che ad amd non interessi sfondare il mercato , ma più tenersi la sua piccola fetta di mercato fatta di clienti "sicuri" e marginarci bene sopra.
Perche questa volta c'era la possibilità di sputtanare veramente nvidia che non solo sta vendendo la fascia alta a prezzi assurdi , ma ha lasciato una fascia di prezzo importante totalmente scoperta.

craesilo
14-01-2023, 08:05
Anche AMD non mi sembra interessata a competere ma si sta allineando a nvidia.

sono anni che si è allineata a nvidia e intel

demonangel
14-01-2023, 08:15
Temo che il calo di prezzo si creerà...ma solo con l'uscita di nuove varianti super...tra un annetto. Ora semplicemente faranno uscire la fascia media e la bassa...con le solite 70 - 60- 50. Tutto ovviamente a prezzi belli pompati. Hanno poca concorrenza di cui preoccuparsi... A oggi.

EffeX
14-01-2023, 12:34
Scusate ma se la 4070ti costa a partire da 919 euro, pensare di trovare la 4070 sui 700 euro non è ottimistico? Un buco di 200 euro tra la liscia e la ti non credo ci sia mai stato o sbaglio?

Secondo me il prezzo sarà di 649$-629$ + tasse.


Forte del suo ampio 5% sul mercato ahah che cosa ridicola.

Può essere, ma per me potranno restare lì a prendere la polvere pure quelle allora a quei prezzi.
Feci la follia a fine 2018 di prendere la RTX 2070 Founders appena uscì che costava uno sproposito giustificando il prezzo con la qualità costruttiva rispetto alle custom dell'epoca, il chip binnato "A", e soprattutto la novità del ray tracing e del dlss che prima di allora non erano presenti in nessun altra vga.
Ora dopo 4 anni abbondanti mi trovo una 4070 liscia con 4GB di vram in più, bus downgradato a 192 bit (ok il boost dato dalla cache come diceva Mike) che costa quasi 150€ in più.
Di solito si aspettava la nuova gen per avere le prestazioni di quella precedente a prezzo e watt inferiori, ora mi rendo conto che queste nuove schede costano uguali alle Ampere, consumando quasi uguale, con solo il dlss3 come feature nuova, ergo il motivo della convenienza per me viene a mancare, a questo punto prendevo una 3080Ti all'uscita, spendevo gli stessi soldi e me la stavo godendo già da un bel pezzo. :muro:
Tra l'altro dopo 4 anni di RT mi sto rendendo conto che per quello che costa e per come viene implementato nei giochi dagli sviluppatori, non è che sia sto gran gamechanger come esperienza videoludica come invece vogliono spacciare loro per vendere le schede a peso d'oro.
Ovviamente questo riguarda il mio pensiero, ognuno fa le proprie scelte in base alle proprie esigenze e possibilità. :)

shauni86
14-01-2023, 14:41
però io ad esempio alcuni giochi come i due spider man o cyberpunk non ritornerei a giocarli senza rt
control non l'ho ancora rigiocato con rt, anche questo da quel che dicono

Ale55andr0
14-01-2023, 14:45
in CP2077 l'RT spinge visivamente sui riflessi e li vale il costo, ma sull'illuminazione globale per me non vale assolutamente, remotamente, la pena, manco messo a medio, idem le ombre. Un macigno senza alcuna logica. Il problema è che, forse spinti dalle sponsorizzazioni, certi sviluppatori han fatto in modo che spegnendo l'RT l'immagine appare più monca di quanto dovrebbe, come se spegnessero anche roba che per anni abbiamo avuto tranquillamente in raster.

fraussantin
14-01-2023, 14:48
in CP2077 l'RT spinge visivamente sui riflessi e li vale il costo, ma sull'illuminazione globale per me non vale assolutamente, remotamente, la pena, manco messo a medio. Un macigno senza alcuna logicaHo provato in questi giorni rt e non rt in cyberpunk , dopo 2 anni di supprto e se non fosse che le ombre e alcune superfici senza rt sono veramente fatte male , e spesso buggate , non sarebbe neanche necessario.

Tralasciando poi che la grafica è l'ultima delle preoccupazioni di quel gioco.

Servirebbe una megamod per rifare tutto lo shooting che fa veramente pena.

Infatti penso che anche questa run la farò tutta katana+ hack

Ale55andr0
14-01-2023, 14:52
Ho provato in questi giorni rt e non rt in cyberpunk , dopo 2 anni di supprto e se non fosse che le ombre e alcune superfici senza rt sono veramente fatte male , e spesso buggate , non sarebbe neanche necessario.

Tralasciando poi che la grafica è l'ultima delle preoccupazioni di quel gioco.

Servirebbe una megamod per rifare tutto lo shooting che fa veramente pena.

Infatti penso che anche questa run la farò tutta katana+ hack

mah, io le ombre in 2077 le preferisco senza RT, intendo proprio esteticamente non per questioni di performance

EffeX
14-01-2023, 15:08
però io ad esempio alcuni giochi come i due spider man o cyberpunk non ritornerei a giocarli senza rt
control non l'ho ancora rigiocato con rt, anche questo da quel che dicono

Control lo giocai full RT + DLSS all'uscita, cambia molto, più che altro per i riflessi in RT, i due Spiderman non li ho giocati quindi non posso esprimermi.
Spenderi di nuovo 639€ di scheda per vedere i riflessi in Control oggi? No, ecco cosa intendevo dire nel post precedente. :)

in CP2077 l'RT spinge visivamente sui riflessi e li vale il costo, ma sull'illuminazione globale per me non vale assolutamente, remotamente, la pena, manco messo a medio, idem le ombre. Un macigno senza alcuna logica. Il problema è che, forse spinti dalle sponsorizzazioni, certi sviluppatori han fatto in modo che spegnendo l'RT l'immagine appare più monca di quanto dovrebbe, come se spegnessero anche roba che per anni abbiamo avuto tranquillamente in raster.

Esatto, RT sembra aiutare più gli sviluppatori che noi videogiocatori come risultato finale, in quanto spesso implementando effetti in RT "risparmiano" mettendo dei riflessi ssr veramente penosi che nemmeno in NFS Underground con le dx9 erano fatti così male.

Ho provato in questi giorni rt e non rt in cyberpunk , dopo 2 anni di supprto e se non fosse che le ombre e alcune superfici senza rt sono veramente fatte male , e spesso buggate , non sarebbe neanche necessario.

Tralasciando poi che la grafica è l'ultima delle preoccupazioni di quel gioco.

Servirebbe una megamod per rifare tutto lo shooting che fa veramente pena.

Infatti penso che anche questa run la farò tutta katana+ hack

Come scritto sopra, senza riflessi in RT (tralascio ombre e GI) nel gioco, in alcuni materiali, manca proprio la controparte ssr, come se avessero evitato di implementarle tanto c'era già RT.

mah, io le ombre in 2077 le preferisco senza RT, intendo proprio esteticamente non per questioni di performance

Io dopo averlo finito con rt reflections, shadow e GI su medio e DLSS, ora rigiocandolo in nativa per forza di cose e senza RT (l'FSR in CB2077 proprio non lo digerisco nemmeno su quality) mi rendo conto che cambia dal giorno alla notte, specie nei dettagli in distanza, che per quanto il TAA possa far schifo, son privi di flickering, noto più quello della mancanza del RT detto francamente.

fraussantin
14-01-2023, 16:08
mah, io le ombre in 2077 le preferisco senza RT, intendo proprio esteticamente non per questioni di performanceAlcune , sui volti specialmente , ma anche nella stanza del japponese arasakoso fanno proprio cagare , sono quadrettose e ballerine.

eXeS
14-01-2023, 16:31
https://videocardz.com/newz/nvidia-is-now-shipping-geforce-rtx-4080-with-ad103-301-gpu

Gainward has become the first company to confirm a new variant of AD103 GPU. An updated silicon labeled as AD103-301 brings minor changes to end users, but will help board partners in lowering the cost.

Ma è mai successa una cosa del genere in passato ? Capisco che con il tempo milgiorano le rese il costo di produzione per singola gpu tende a calare, ma sono passati così pochi mesi, che sia l'alibi per portare l'MSRP a 999$ senza dover ammettere che il prezzo era completamente fuori logica ?

EffeX
14-01-2023, 18:14
https://videocardz.com/newz/nvidia-is-now-shipping-geforce-rtx-4080-with-ad103-301-gpu

Ma è mai successa una cosa del genere in passato ? Capisco che con il tempo milgiorano le rese il costo di produzione per singola gpu tende a calare, ma sono passati così pochi mesi, che sia l'alibi per portare l'MSRP a 999$ senza dover ammettere che il prezzo era completamente fuori logica ?

Con Turing abbiamo visto i chip A e non A che costavano un 100$ buoni in meno, e solo i partner li montavano in quanto le FE usavano solo chip A, magari questa è una strategia simile.

fraussantin
14-01-2023, 18:39
https://videocardz.com/newz/nvidia-is-now-shipping-geforce-rtx-4080-with-ad103-301-gpu

Ma è mai successa una cosa del genere in passato ? Capisco che con il tempo milgiorano le rese il costo di produzione per singola gpu tende a calare, ma sono passati così pochi mesi, che sia l'alibi per portare l'MSRP a 999$ senza dover ammettere che il prezzo era completamente fuori logica ?Spero che abbiano fatto versioni con tdp più basse e dissipatori più piccoli , potrei veramente prendere una 4080 sotto i 1000 euro.

Peccato che non saranno fe.

Arrow0309
14-01-2023, 19:45
Aspetta, ancora è un pre lancio, mancano ancora tutte le altre fasce. Sempre detto, vediamo dopo un anno che succede.



Si ne avevamo già discusso, è un ipotesi. Anche se li, il big chip, stravolse tutto (big chip, poi, che era come quello della 580).
Anche se per me, la 4080ti movimenterà le fasce, con magari un riposizionamento di AD103, in versione super. Il margine è talmente alto che può inventarsi di tutto.



Io non riesco a capire perchè vorresti continuare ad utilizzare il 5nm.:p
Per affinare e potenziare la microarchitettura, servono transistor, più transistor più padelloni. Oltre i 600, le rese cominciano ad essere un serio problema.

Un 3nm ad esempio, ti potrebbe permettere di shrinkare AD102 (4090ti) in circa 380mm2 con clock sopra i 3ghz.
Quasi 115 die puliti a 176$.
AD102, 300$ circa, la metà di die.

La convenienza è netta.:)

https://tech.everyeye.it/notizie/nvidia-rtx-4080-pronta-cambiare-gpu-ridurre-costi-629391.html

"... 4080 subirà presto un refresh alla GPU, che passerà dal chip AD103-300 al più recente AD103-301."

Come fanno a ridurre i costi?
Sara' uguale?

https://videocardz.com/newz/nvidia-is-now-shipping-geforce-rtx-4080-with-ad103-301-gpu

fraussantin
14-01-2023, 19:49
https://tech.everyeye.it/notizie/nvidia-rtx-4080-pronta-cambiare-gpu-ridurre-costi-629391.html



"... 4080 subirà presto un refresh alla GPU, che passerà dal chip AD103-300 al più recente AD103-301."



Come fanno a ridurre i costi?

Sara' uguale?I sistemi per ridurre i costi sono 3

I diminuire performance \ bin del prodotto aumentando la quantità di pezzi prodotto

Usare chip tagliati quindi fare una scheda diversa ( tipo 3080 le per capirsi )

Fare una scheda tdo più basso quindi meno costi in vrm e dissipazione.

Poi potrebbero essere anche solo scuse per abbassare il prezzo e non far incazzare troppo chi già l'ha comprata.


Ps la semplice ottimizzazione di produzione riduce cmq i costi ( come ha fatto amd con i processori 5000 ) ma di poco quindi se escono con una scheda uguale ma a meno prezzo significa che fino ad oggi ci marginavano parecchio

OrazioOC
14-01-2023, 19:58
Sarebbe carino avere delle rtx 4000 con tdp umani, per dire la 4070 ti con clock un attimino ribassati può essere tranquillamente una gpu da 180w massimo 200w, non 285w!! :rolleyes:

Idem far rimanere una 4080 sotto i 250w di tdp, o magari la 4090<300w.

Un po' di decenza nell'efficienza energetica, che diamine.:doh:

fraussantin
14-01-2023, 20:08
Sarebbe carino avere delle rtx 4000 con tdp umani, per dire la 4070 ti con clock un attimino ribassati può essere tranquillamente una gpu da 180w massimo 200w, non 285w!! :rolleyes:

Idem far rimanere una 4080 sotto i 250w di tdp, o magari la 4090 300w.

Un po' di decenza nell'efficienza energetica, che diamine.:doh:Potrei fare la pazzia e comprarla la 4080.

amon.akira
14-01-2023, 20:14
mah, io le ombre in 2077 le preferisco senza RT, intendo proprio esteticamente non per questioni di performance

ma l rt non nasce per essere piu bello, quello è soggettivo...a me puo piacere una stanza piu buia o piu illuminata etc...l rt vuole essere solo piu fedele,preciso di come si dovrebbe presentare quella situazione realisticamente...se l ombra in quella data occasione è piu soffusa, anche se a te piace piu netta lascia il tempo che trova.

RedPrimula
14-01-2023, 20:29
Non so se è già stata postata questa notizia o è sfuggita, in ogni caso la linko: https://videocardz.com/newz/nvidia-reportedly-working-on-ai-optimized-drivers-with-improved-performance

Direi interessante, futuri driver ottimizzati mediante IA, che promettono un miglioramento medio lato performance del 10% e fino ad un teorico 30%.

Kvarat
14-01-2023, 20:37
Sarebbe carino avere delle rtx 4000 con tdp umani, per dire la 4070 ti con clock un attimino ribassati può essere tranquillamente una gpu da 180w massimo 200w, non 285w!! :rolleyes:

Idem far rimanere una 4080 sotto i 250w di tdp, o magari la 4090<300w.

Un po' di decenza nell'efficienza energetica, che diamine.:doh:

Si può fare manualmente ma oltre questo vorrei dirti che la mia 3070ti Aorus aveva 3x8pin e superava i 300w. Quindi siamo tranquillamente in linea. Anzi date le prestazioni della 4070ti dovresti prendere in considerazione i consumi della 3090/3090ti.

mikael84
14-01-2023, 20:37
https://videocardz.com/newz/nvidia-is-now-shipping-geforce-rtx-4080-with-ad103-301-gpu

Ma è mai successa una cosa del genere in passato ? Capisco che con il tempo milgiorano le rese il costo di produzione per singola gpu tende a calare, ma sono passati così pochi mesi, che sia l'alibi per portare l'MSRP a 999$ senza dover ammettere che il prezzo era completamente fuori logica ?

https://tech.everyeye.it/notizie/nvidia-rtx-4080-pronta-cambiare-gpu-ridurre-costi-629391.html

"... 4080 subirà presto un refresh alla GPU, che passerà dal chip AD103-300 al più recente AD103-301."

Come fanno a ridurre i costi?
Sara' uguale?

https://videocardz.com/newz/nvidia-is-now-shipping-geforce-rtx-4080-with-ad103-301-gpu

Ora dovrei controllare ma con Ampere, in 2 casi hanno cambiato il terzo numerino di serie, ed è stato sulla 3060ti, quando nell'ultima rev, hanno introdotto le g6x, e nella 3060 quando le hanno stroncato il bus.

La 4080 ha 10240cc totali, ma in questo caso prenderebbe il nome di x400 o x350.
L'ultimo numero, potrebbe indicare una modifica interna, come un passaggio alle g6 lisce, un tantino meno costose. Se parliamo di taglio costi, revisionando il PCB a pari spec e l'unica cosa che puoi fare.

Un ulteriore cut, non manterrebbe più le spec.
Poi per carità, ci sono anche altri metodi, ad esempio, riciclare i fail, magari andando a sminuzzare le cache, in modo da utilizzare più die per wafer.

Da notare che parla anche di AD104 250 e 251, magari per differenziare le ram.

Questo ovviamente in ottica di risparmiare in produzione quei due spicci.

EffeX
14-01-2023, 20:49
Sarebbe carino avere delle rtx 4000 con tdp umani, per dire la 4070 ti con clock un attimino ribassati può essere tranquillamente una gpu da 180w massimo 200w, non 285w!! :rolleyes:

Idem far rimanere una 4080 sotto i 250w di tdp, o magari la 4090<300w.

Un po' di decenza nell'efficienza energetica, che diamine.:doh:

Concordo in pieno, a prezzi congrui ovviamente.:read:

Arrow0309
14-01-2023, 22:19
Ora dovrei controllare ma con Ampere, in 2 casi hanno cambiato il terzo numerino di serie, ed è stato sulla 3060ti, quando nell'ultima rev, hanno introdotto le g6x, e nella 3060 quando le hanno stroncato il bus.

La 4080 ha 10240cc totali, ma in questo caso prenderebbe il nome di x400 o x350.
L'ultimo numero, potrebbe indicare una modifica interna, come un passaggio alle g6 lisce, un tantino meno costose. Se parliamo di taglio costi, revisionando il PCB a pari spec e l'unica cosa che puoi fare.

Un ulteriore cut, non manterrebbe più le spec.
Poi per carità, ci sono anche altri metodi, ad esempio, riciclare i fail, magari andando a sminuzzare le cache, in modo da utilizzare più die per wafer.

Da notare che parla anche di AD104 250 e 251, magari per differenziare le ram.

Questo ovviamente in ottica di risparmiare in produzione quei due spicci.

Si ma che e' sto "comparatore" non più richiesto coi AD103-301 e 104-251?

https://twitter.com/VideoCardz/status/1614291610585501697?cxt=HHwWgsC8zdfqjucsAAAA

Potrebbero ripetere la storia dei TU102-300A e quelli senza A?

Ale55andr0
14-01-2023, 22:26
Io dopo averlo finito con rt reflections, shadow e GI su medio e DLSS, ora rigiocandolo in nativa per forza di cose e senza RT (l'FSR in CB2077 proprio non lo digerisco nemmeno su quality) mi rendo conto che cambia dal giorno alla notte, specie nei dettagli in distanza, che per quanto il TAA possa far schifo, son privi di flickering, noto più quello della mancanza del RT detto francamente.


sempre detto che il dlss è una merda flickerante, ma il pazzo sono io :asd: (...per i fan di giacchetto "dlssmejocheinativah!!1!")

Sarebbe carino avere delle rtx 4000 con tdp prezzi umani

fixed :O

Lo Straniero Misterioso
14-01-2023, 22:27
Sarebbe carino avere delle rtx 4000 con tdp umani, per dire la 4070 ti con clock un attimino ribassati può essere tranquillamente una gpu da 180w massimo 200w, non 285w!! :rolleyes:

Idem far rimanere una 4080 sotto i 250w di tdp, o magari la 4090<300w.

Un po' di decenza nell'efficienza energetica, che diamine.:doh:

Ho postato un po' di test sul thread della 4090; undervoltando pesantemente son riuscito ad ottenere circa 240W di consumo per prestazioni ridotte del 10% circa.

Cyberpunk in 4k profilo RT Ultra fa cmq 90 fps di media...

Tutto con una "misera" Inno3D reference, eh, niente di speciale.

mikael84
15-01-2023, 01:25
Si ma che e' sto "comparatore" non più richiesto coi AD103-301 e 104-251?

https://twitter.com/VideoCardz/status/1614291610585501697?cxt=HHwWgsC8zdfqjucsAAAA

Potrebbero ripetere la storia dei TU102-300A e quelli senza A?

Questo è ancora diverso, si tratta di rivedere il solo chip, cercando di ridurre al minimo le porte logiche (or, and, not etc), in modo da semplificare il circuito, spazi e migliorare anche il consumo.

Qua però non vedo cosa possa realmente cambiare nel concreto. I non A, erano i chip fascia bassa del brand a TDP più basso e basta, presenti già da subito.

parcher
15-01-2023, 06:11
Spero che abbiano fatto versioni con tdp più basse e dissipatori più piccoli , potrei veramente prendere una 4080 sotto i 1000 euro.

Peccato che non saranno fe.Vediamo il prezzo e cosa cambia all'atto pratico, i CUDA core sembrano gli stessi.. di certo non potevano tenerle ancora prendere polvere..

I due processori grafici avranno le stesse frequenze e il medesimo core count, nonché un TGP identico, al fine di ridurre i costi di produzione, anche se non di molto, poiché il nuovo non necessiterebbe di un comparatore, quindi una componente in meno da tenere in considerazione.(cit.)

Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk

fraussantin
15-01-2023, 08:01
Potrebbero ripetere la storia dei TU102-300A e quelli senza A?



Questo è ancora diverso, si tratta di rivedere il solo chip, cercando di ridurre al minimo le porte logiche (or, and, not etc), in modo da semplificare il circuito, spazi e migliorare anche il consumo.

Qua però non vedo cosa possa realmente cambiare nel concreto. I non A, erano i chip fascia bassa del brand a TDP più basso e basta, presenti già da subito.
Nel caso io ero un felicissimo possessore di una 2070 non binnata , lo sarei anche di una di queste se la differenza di prezzo dovesse essere meritevole.

Il problema come detto prima è che non essendoci la fe in ballo , e non essendoci manco più evga con i listini ufficiali ( dove presi la 2070 a 500 euro ) c'è il rischio che i prezzi di queste si adattino alla domanda e siano più alti del dovuto . Proprio come per le turing


Vediamo il prezzo e cosa cambia all'atto pratico, i CUDA core sembrano gli stessi.. di certo non potevano tenerle ancora prendere polvere..

A quanto pare, infatti, la RTX 4080 subirà presto un refresh alla GPU, che passerà dal chip AD103-300 al*più recente AD103-301. I due processori grafici avranno le stesse frequenze e il medesimo core count, nonché un TGP identico. Il motivo del cambio? Ridurre i costi di produzione, anche se non di molto, poiché il nuovo non necessiterebbe di un comparatore, quindi una componente in meno da tenere in considerazione.

Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk

Banalmemte potrebbe anche essere solo una scusa per abbassare i prezzi facendo bella figura.

In quel caso toglierebbero di mezzo la 4080 cassettone ediscion che nessuno vuole e saremmo tutti contenti

Cfranco
15-01-2023, 08:03
Si ma che e' sto "comparatore" non più richiesto coi AD103-301 e 104-251?

Mah, normalmente sono op-amp (roba che costa 50 centesimi dal pizzicagnolo di roba elettronica all'angolo)
Anche fosse superottimizzato, elaborato e studiato non credo che il costo sia tale da far costare 1400 $ una scheda da 900
Sarà solo una scusa per abbassare il prezzo senza dover per forza fare una figura di melma

Ale55andr0
15-01-2023, 08:11
Mah, normalmente sono op-amp (roba che costa 50 centesimi dal pizzicagnolo di roba elettronica all'angolo)
Anche fosse superottimizzato, elaborato e studiato non credo che il costo sia tale da far costare 1400 $ una scheda da 900
Sarà solo una scusa per abbassare il prezzo senza dover per forza fare una figura di melma

se non diventa una scheda da 900 quale che sia il motivo del taglio di prezzo non fregherà nulla a nessuno. Non si parerebbero per nulla la faccia adducendo un motivo plausibile, proprio perchè con un taglio lieve resterebbe comunque sovraprezzata ed è quello che importa agli utenti. Devono tagliare minimo 250 carte alla 80 e 150 alla 70ti se vogliono renderle lontanamente cagabili

Ubro92
15-01-2023, 08:48
Potrebbe anche essere che le prime sfornate furono leggermente binnate per tenere quei clock in una produzione di massa.

Forse migliorando le rese non è più necessario selezionarsi i chip e quindi meno costi.

A sto giro per AD103 e Ad104 hanno risparmiato sul silicio e occate a morte, se i chip li facevano un 20% più grossi e con clock leggermente più bassi avrebbero mantenuto le stesse prestazioni e probabilmente tolto 100w dal chip, lasciando anche margine ai partner per fare custom che in qualche modo offrissero qualcosa in più.

craesilo
15-01-2023, 08:49
Ho postato un po' di test sul thread della 4090; undervoltando pesantemente son riuscito ad ottenere circa 240W di consumo per prestazioni ridotte del 10% circa.

Cyberpunk in 4k profilo RT Ultra fa cmq 90 fps di media...

Tutto con una "misera" Inno3D reference, eh, niente di speciale.

potresti far andare la 4090 a 10w che tanto scriverebbero le stesse vac..cose

parcher
15-01-2023, 09:42
se non diventa una scheda da 900 quale che sia il motivo del taglio di prezzo non fregherà nulla a nessuno. Non si parerebbero per nulla la faccia adducendo un motivo plausibile, proprio perchè con un taglio lieve resterebbe comunque sovraprezzata ed è quello che importa agli utenti. Devono tagliare minimo 250 carte alla 80 e 150 alla 70ti se vogliono renderle lontanamente cagabili

250&euro;. ?? magari.. dovrebbero poi tagliare, come dici, anche la 4070TI.. e con che scusa ? già li sono dovuti scappare a tamponare di corsa la prima cagata, non credo in tutta questa bontà di jakkett, se scende di 150&euro;. sarà grasso che cola.

Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk

fraussantin
15-01-2023, 09:48
se non diventa una scheda da 900 quale che sia il motivo del taglio di prezzo non fregherà nulla a nessuno. Non si parerebbero per nulla la faccia adducendo un motivo plausibile, proprio perchè con un taglio lieve resterebbe comunque sovraprezzata ed è quello che importa agli utenti. Devono tagliare minimo 250 carte alla 80 e 150 alla 70ti se vogliono renderle lontanamente cagabili

Si ma alla fine sarà un sogno bagnato.

È tanto se cuttano 100 dollari .

EffeX
15-01-2023, 10:02
Io spero ancora che il cut price sia maggiore di 150$, son prezzi ingiustificabili quelli proposti per innovazioni portate da questa gen, l'unica giustificabile è la 4090, ma non tutti son disposti a spendere 2000€ per una scheda se viene usata solo per giocare, se poi uno col PC ci lavora cambia tutto.

Ale55andr0
15-01-2023, 10:08
250&euro;. ?? magari.. dovrebbero poi tagliare, come dici, anche la 4070TI.. e con che scusa ? già li sono dovuti scappare a tamponare di corsa la prima cagata, non credo in tutta questa bontà di jakkett, se scende di 150&euro;. sarà grasso che cola.

Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk

infatti nel post ho ben scritto che devono tagliare anche la 70ti

mikael84
15-01-2023, 11:36
Nel caso io ero un felicissimo possessore di una 2070 non binnata , lo sarei anche di una di queste se la differenza di prezzo dovesse essere meritevole.

Il problema come detto prima è che non essendoci la fe in ballo , e non essendoci manco più evga con i listini ufficiali ( dove presi la 2070 a 500 euro ) c'è il rischio che i prezzi di queste si adattino alla domanda e siano più alti del dovuto . Proprio come per le turing



Per me quell'articolo vuol dire tutto, e niente allo stesso tempo.
Nvidia in questa gen, si è ritrovata un salto troppo grande da gestire, con un prodotto over performante (che è pure uno scarto), ed una concorrenza che gli si sovrappone ai chippetti, facendogli perdere appeal, per le caratteristiche di tali, come i 192bit, i 12gb etc.

Il top cut AMD si ritrova a competere con il chip della 4060 (chiamato x70ti), e questo non da una buona immagine ai suoi chip.

Maury
15-01-2023, 12:51
È solo un giochetto per giustificare un prossimo cut, i prezzi attuali sono completamente sbagliati e nVidia l'ha capito a sue spese.

Cuttare senza una mezza scusa è una mazzata ma se lo giustifichi con fantomatiche versione a costo di produzione inferiore in parte ti salvi...

Ale55andr0
15-01-2023, 13:24
È solo un giochetto per giustificare un prossimo cut, i prezzi attuali sono completamente sbagliati e nVidia l'ha capito a sue spese.

Cuttare senza una mezza scusa è una mazzata ma se lo giustifichi con fantomatiche versione a costo di produzione inferiore in parte ti salvi...

ancora non abbastanza, al prossimo report di mercato voglio leggere tipo -80% nelle vendite più una perdita idraulica dal bagno nell'ufficio di giacco :sofico:

Maury
15-01-2023, 13:36
ancora non abbastanza, al prossimo report di mercato voglio leggere tipo -80% nelle vendite più una perdita idraulica dal bagno nell'ufficio di giacco :sofico:

E ancora non basta :sofico:

ste-87
15-01-2023, 17:52
ho letto giusto oggi la notizia della 4080/4070Ti e sinceramente mi sono messo a ridere sentendo il rumore di arrampicata sugli specchi che arrivava dall'America :D

in definitiva è già tanto se con questa supercazzola tagliano il prezzo di 100$, (ma anche fossero 150) non han ancora capito che non se la incul...ebbe nessuno, che sia a 1299 o 1249€ cosa pensano che cambi per l'utente quando è una scheda da massimo 900€?

Lato prezzi, non ne hanno infilata neanche mezza con questa serie, a questo punto rimango curioso di vedere che si inventeranno quando anche dopo l'abbassamento dei prezzi le vendite rasenteranno ugualmente il nulla cosmico :asd:

parcher
17-01-2023, 05:47
Si sa quando si vedranno questi effetti realmente sulle schede immesse sul mercato ? Gainward dovrebbe essere la prima..

Inviato dal mio Mi Note 10 Lite utilizzando Tapatalk

PConly92
17-01-2023, 07:45
ho letto giusto oggi la notizia della 4080/4070Ti e sinceramente mi sono messo a ridere sentendo il rumore di arrampicata sugli specchi che arrivava dall'America :D

in definitiva è già tanto se con questa supercazzola tagliano il prezzo di 100$, (ma anche fossero 150) non han ancora capito che non se la incul...ebbe nessuno, che sia a 1299 o 1249€ cosa pensano che cambi per l'utente quando è una scheda da massimo 900€?

Lato prezzi, non ne hanno infilata neanche mezza con questa serie, a questo punto rimango curioso di vedere che si inventeranno quando anche dopo l'abbassamento dei prezzi le vendite rasenteranno ugualmente il nulla cosmico :asd:

una scheda da 900 euro? ma siamo pazzi? queste sono schede (4080 4070ti) che dovrebbero costare massimo massimo (e sono buono) 600 e 500 rispettivamente... ma ragazzi non vi ricordate i tempi delle x800xt e 6800 ultra? costavano se non ricordo male 450 la x800xt e sui 500 la 6800ultra.. ma almeno avevi il top del top
ps. quanto mi mancano quei tempi :cry:

fraussantin
17-01-2023, 08:19
ps. quanto mi mancano quei tempi :cry:

E non torneranno più.

Una dacia costa 17k una panda 14 15k , bollette , spesa , medicinali ...

Siamo tornati negli anni 80 , ma senza scala mobile .

craesilo
17-01-2023, 08:25
4080 a 250€, e ci sto rimettendo!
solo su Hardupgradecore Pawn

ninja750
17-01-2023, 09:04
una scheda da 900 euro? ma siamo pazzi? queste sono schede (4080 4070ti) che dovrebbero costare massimo massimo (e sono buono) 600 e 500 rispettivamente... ma ragazzi non vi ricordate i tempi delle x800xt e 6800 ultra? costavano se non ricordo male 450 la x800xt e sui 500 la 6800ultra.. ma almeno avevi il top del top
ps. quanto mi mancano quei tempi :cry:

JHH insegna che la digestione del nuovo listino dura tempo due o tre mesi poi la gente troverà i prezzi normali e comprerà come prima a prescindere dal prodotto

tutti scandalizzati all'inizio poi beh c'è DLSS3 poi beh c'è la crisi l'inflazione.. povero JHH :(

Nerd1
17-01-2023, 09:20
Nvidia in questa gen, si è ritrovata un salto troppo grande da gestire, con un prodotto over performante (che è pure uno scarto), ed una concorrenza che gli si sovrappone ai chippetti, facendogli perdere appeal, per le caratteristiche di tali, come i 192bit, i 12gb etc.

Il top cut AMD si ritrova a competere con il chip della 4060 (chiamato x70ti), e questo non da una buona immagine ai suoi chip.

top nvidia 608mm a 4nm monolitico, 76,3mld transistor

top amd 520mm a 5nm/6nm chiplet, 57,7mld transistor

mentre la 4080 379 mm² a 4nm, 45,9 mld transistor

hai voglia ad abbassare i prezzi....praticamente siamo tornati al chip gaming snello contro il mostro pro mascherato da gaming

AMD potrà tagliare prezzo agevolmente nei mesi che seguiranno una crisi economica mondiale, nvidia meh.....potrà tirarsela fino all'ultimo ma i volumi non le hanno mai fatte le titan, le 80ti, etc etc le 4080 sono lì a prendere polvere a questi prezzi, se abbassi troppo le 80 la 90 perderebbe di appeal dato che meno del 5% usa il 4K alto refresh o disposto a spendere il doppio per il 50% di prestazioni in più. E poi ci sono le uscite dei giochi, :stordita: , e questo è deprimente sia per amd che nvidia in generale :stordita:

EffeX
17-01-2023, 09:43
una scheda da 900 euro? ma siamo pazzi? queste sono schede (4080 4070ti) che dovrebbero costare massimo massimo (e sono buono) 600 e 500 rispettivamente... ma ragazzi non vi ricordate i tempi delle x800xt e 6800 ultra? costavano se non ricordo male 450 la x800xt e sui 500 la 6800ultra.. ma almeno avevi il top del top
ps. quanto mi mancano quei tempi :cry:

Io mi ricordo di più la GeForce FX 5800 e la Radeon 9700 che costavano meno e le suonavano di brutto al NV30.
Dovrebbe di nuovo capitare qualcosa del genere per dare una registrata a Nvidia ma son consapevole che non accadrà più anche perché ormai il cartello sul price/performance con AMD è palese. :(

Ubro92
17-01-2023, 09:49
JHH insegna che la digestione del nuovo listino dura tempo due o tre mesi poi la gente troverà i prezzi normali e comprerà come prima a prescindere dal prodotto

tutti scandalizzati all'inizio poi beh c'è DLSS3 poi beh c'è la crisi l'inflazione.. povero JHH :(

Per me rimangono a scaffale, vorrà dire che lascio la palla a chi considera i prezzi normali e si va di usato in usato :sofico:

EffeX
17-01-2023, 10:09
Per me rimangono a scaffale, vorrà dire che lascio la palla a chi considera i prezzi normali e si va di usato in usato :sofico:

Idem per me, hanno carcato troppo la mano questa volta.
Se poi in futuro i prezzi scenderanno sarò il primo ad acquistarle, ma fino ad allora possono stare comode comode nei magazzini.

Saturn
17-01-2023, 10:12
Per me rimangono a scaffale, vorrà dire che lascio la palla a chi considera i prezzi normali e si va di usato in usato :sofico:

Usato...magari...:stordita:

Un mio amico si è procurato a circa 150€ (prezzo di favore) una 1070TI arrugginita (letteralmente) che gli ho rimesso a nuovo io ripulendola e ora si gode quella. Qui nel mercatino del forum le 1080 stanno ancora sui 200€ e passa....per non parlare poi delle serie RTX 2xxx e 3xxx - per quanto mi riguarda a prezzi inavvicinabili.

Anche perchè mi domando, se mi schiatta dopo una settimana, un mese, usata e senza garanzia e una ci ha speso pure 400/500€ a che Santo ci si affida poi ???

Probabilmente sarò troppo negativo io, ma vai tranquillo che sarebbe il mio caso. Sicuro. :fagiano:

p.s. felice attuale possessore di nVidia 1070 acquistata a fine 2016 a meno di 400€ e di ARC770, anche questa acquistata questo mese a meno di 400€.

OvErClOck82
17-01-2023, 10:15
4080 a 250€, e ci sto rimettendo!
solo su Hardupgradecore Pawn

quanto riderò quando metteranno le xx60 a 1000€ e vi arrampicherete su km di specchi pur di giustificarle :asd:

Saturn
17-01-2023, 10:19
quanto riderò quando metteranno le xx60 a 1000€ e vi arrampicherete su km di specchi pur di giustificarle :asd:

Perchè c'è qualcuno che giustifica pure questi prezzi ?

Quando uscirà la RTX 5060 o 6060 a 1000€ basterà non comprarla.

Si sopravvive egregiamente anche senza videogiochi @4K MAXATI, ULTRA DETTAGLIO. Anzi si sopravvive direttamente senza se occorre.

Possono fallire domani mattine e tutte insieme, nvidia e amd. Lo stesso ragionamento vale per Intel sulle cpu, non fosse stato per la concorrenza di AMD, avrebbero continuato a rilasciare novità col contagocce a prezzi folli.

Apposta serve un terzo competitor tra questi due mostri. Sperando che una volta raggiunti i loro livelli non si allineino anche loro. E comunque riapplicherei il discorso scaffale, nel caso !

OvErClOck82
17-01-2023, 10:22
Perchè c'è qualcuno che giustifica pure questi prezzi ?

Quando uscirà la RTX 5060 o 6060 a 1000€ basterà non comprarla.

Si sopravvive egregiamente anche senza videogiochi @4K MAXATI, ULTRA DETTAGLIO. Anzi si sopravvive direttamente senza se occorre.

Possono fallire domani mattine e tutte insieme, nvidia e amd. Lo stesso ragionamento vale per Intel sulle cpu, non fosse stato per la concorrenza di AMD, avrebbero continuato a rilasciare novità col contagocce a prezzi folli.

Apposta serve un terzo competitor tra questi due mostri. Sperando che una volta raggiunti i loro livelli non si allineino anche loro. E comunque riapplicherei il discorso scaffale, nel caso !

avoglia se ci sono :stordita:

Ubro92
17-01-2023, 10:22
Usato...magari...:stordita:

Un mio amico si è procurato a circa 150€ (prezzo di favore) una 1070TI arrugginita (letteralmente) che gli ho rimesso a nuovo io ripulendola e ora si gode quella. Qui nel mercatino del forum le 1080 stanno ancora sui 200€ e passa....per non parlare poi delle serie RTX 2xxx e 3xxx - per quanto mi riguarda a prezzi inavvicinabili.

Anche perchè mi domando, se mi schiatta dopo una settimana, un mese, usata e senza garanzia e una ci ha speso pure 400/500€ a che Santo ci si affida poi ???

Probabilmente sarò troppo negativo io, ma vai tranquillo che sarebbe il mio caso. Sicuro. :fagiano:

p.s. felice attuale possessore di nVidia 1070 acquistata a fine 2016 a meno di 400€ e di ARC770, anche questa acquistata questo mese a meno di 400€.

Bisogna anche cercare, la 3060ti in firma la pagai 300€ qualche settimana fa con fattura e ha 5 mesi di utilizzo.

Sui 200€ sull'usato si possono trovare anche 2060, che sinceramente sono preferibili considerando che puoi sfruttare il DLSS, chip che ancora oggi in FHD spinge bene, ma ho visto anche 2070s sui 250e.

Sul nuovo sotto i 400€ i best rimangono RX 6700 liscia e le nuove arc A750/A770 di intel.

nessuno29
17-01-2023, 10:25
Usato...magari...:stordita:

Un mio amico si è procurato a circa 150€ (prezzo di favore) una 1070TI arrugginita (letteralmente) che gli ho rimesso a nuovo io ripulendola e ora si gode quella. Qui nel mercatino del forum le 1080 stanno ancora sui 200€ e passa....per non parlare poi delle serie RTX 2xxx e 3xxx - per quanto mi riguarda a prezzi inavvicinabili.

Anche perchè mi domando, se mi schiatta dopo una settimana, un mese, usata e senza garanzia e una ci ha speso pure 400/500€ a che Santo ci si affida poi ???

Probabilmente sarò troppo negativo io, ma vai tranquillo che sarebbe il mio caso. Sicuro. :fagiano:

p.s. felice attuale possessore di nVidia 1070 acquistata a fine 2016 a meno di 400€ e di ARC770, anche questa acquistata questo mese a meno di 400€.
A 330 euro ci sono le 6650xt che sono delle signore gpu, a 250-270 euro le 6600, insomma ad oggi la possibilità di avere schede dall'ottimo rapporto q\p c'è, basta guardare il video di hwunboxed di oggi che lo conferma.

Ubro92
17-01-2023, 10:27
A 330 euro ci sono le 6650xt che sono delle signore gpu, a 250-270 euro le 6600, insomma ad oggi la possibilità di avere schede dall'ottimo rapporto q\p c'è, basta guardare il video di hwunboxed di oggi che lo conferma.

Finchè ci si limita al target di prestazioni fino al massimo di 3070/6700xt la spesa è gestibile, però se già vuoi fare un piccolo saltello in avanti devi letteralmente investire il doppio se non oltre, si aspettavano le 4000 proprio per ammortizzare questo saltello ma Nvidia ha deciso che non "s'adda fare"....

Saturn
17-01-2023, 10:29
avoglia se ci sono :stordita:

Si vede che non gli mancano i soldi da "investire" ! Son contento per loro ! :)

Bisogna anche cercare, la 3060ti in firma la pagai 300€ qualche settimana fa con fattura e ha 5 mesi di utilizzo.

Sui 200€ sull'usato si possono trovare anche 2060, che sinceramente sono preferibili considerando che puoi sfruttare il DLSS, ma ho visto anche 2070s sui 250e, che ancora oggi in FHD spingono bene.

Sul nuovo sotto i 400€ i best rimangono RX 6700 liscia e le nuove arc A750/A770 di intel.

Quoto in pieno. Purtroppo o per fortuna provenendo da una gtx 1070oc, anche avessi deciso di buttarmi sull'usato, non avrei cercato niente di meno che una 2080/3070 possibilmente con più di 8gb di ram. Ma per i tanti motivi sopra esposti ho desistito. Che poi non è neanche una reale necessità. Era tanto per dire dopo 7 anni di ricomprarmi una scheda video. E alla fine, in altra maniera, l'ho comunque fatto. Mi accontento alla grande...:)

Saturn
17-01-2023, 10:30
A 330 euro ci sono le 6650xt che sono delle signore gpu, a 250-270 euro le 6600, insomma ad oggi la possibilità di avere schede dall'ottimo rapporto q\p c'è, basta guardare il video di hwunboxed di oggi che lo conferma.

Vedi sotto. Comunque ripeto, possiedo già una nVidia 1070oc.

Finchè ci si limita al target di prestazioni fino al massimo di 3070/6700xt la spesa è gestibile, però se già vuoi fare un piccolo saltello in avanti devi letteralmente investire il doppio se non oltre, si aspettavano le 4000 proprio per ammortizzare questo saltello ma Nvidia ha deciso che non "s'adda fare"....

*

PConly92
17-01-2023, 10:32
4080 a 250€, e ci sto rimettendo!
solo su Hardupgradecore Pawn

c'è poco da scherzare... per 500 euro (fai altri 500 per una tv e arrivi QUASI al prezzo di una 4080:asd: ) ti prendi una xbox series x e giri in 4k a tutti i giochi.. ok che sono cose diverse ma sempre per giocare servono!
ormai i prezzi (cartello?) sono fuori controllo e pagare +1000 euro per una 4080 è da pazzi.. non è possibile che per farsi un pc decente per giocare ormai ti servono almeno 2000e solo di componenti :rolleyes:
se continuano di questo passo la gente se ne andrà tutta su console con buona pace di jhh e lisa su e il mercato gpu gaming

Nerd1
17-01-2023, 10:52
cartello qui, cartello lì....

Funziona in qualsiasi mercato così.

Il prezzo del mercato lo fa il top player, e gli altri si adattano.... se l'alfa avesse una macchina che caga in testa alla bmw di pari fascia la metterebbe a metà del prezzo secondo voi? :stordita:

Le due top nvidia
1599
1299

le due top amd
999
899

Dove è sto cartello che non lo vedo? :stordita:

Vul
17-01-2023, 10:53
avoglia se ci sono :stordita:

Bisogna pur convincersi che aver speso 1500/2000 euro per una gpu ne sia valsa la pena. :mc:

Poi una volta spesi se escono gpu di prestazioni simili e prezzi inferiori parte il rosicamento ulteriore.

Vul
17-01-2023, 10:54
Dove è sto cartello che non lo vedo? :stordita:

Hanno smesso di farsi concorrenza sui prezzi ed entrambe rilasciano gpu di fasce di prezzo molto elevate.

E' ormai chiaro a partire dalla gen 5000 di amd che hanno finito con il farsi concorrenza.

craesilo
17-01-2023, 11:04
quanto riderò quando metteranno le xx60 a 1000€ e vi arrampicherete su km di specchi pur di giustificarle :asd:

ma ''vi'' cosa? non capisco il nesso tra sta vaccata e quello che ho scritto, mai giustificato niente a differenza vostra...topic nvidia solita fogna di flame sui prezzi, topic nvidia rossa strette di mano e pacche sulle spalle :asd:

c'è poco da scherzare... per 500 euro (fai altri 500 per una tv e arrivi QUASI al prezzo di una 4080:asd: ) ti prendi una xbox series x e giri in 4k a tutti i giochi.. ok che sono cose diverse ma sempre per giocare servono!
ormai i prezzi (cartello?) sono fuori controllo e pagare +1000 euro per una 4080 è da pazzi.. non è possibile che per farsi un pc decente per giocare ormai ti servono almeno 2000e solo di componenti :rolleyes:
se continuano di questo passo la gente se ne andrà tutta su console con buona pace di jhh e lisa su e il mercato gpu gaming

si a 10 fps, ma per chi è cieco 10 o 60 cambia poco :asd:
io ne ho spesi meno di 1000 e bastono le carrette attuali...poi se compri i componenti da dolce e gabbana è un altro discorso

OvErClOck82
17-01-2023, 11:08
ma ''vi'' cosa? non capisco il nesso tra sta vaccata e quello che ho scritto, mai giustificato niente a differenza vostra...topic nvidia solita fogna di flame sui prezzi, topic nvidia rossa strette di mano e pacche sulle spalle :asd:

veramente è ESATTAMENTE il contrario :fagiano:

OvErClOck82
17-01-2023, 11:09
si a 10 fps, ma per chi è cieco 10 o 60 cambia poco :asd:

ah scusa, fai parte della masterrracehh, potevo capirlo prima :asd:

craesilo
17-01-2023, 11:18
ah scusa, fai parte della masterrracehh, potevo capirlo prima :asd:

se in 18 anni non hai capito che questa è una sezione di gpu e non console è un po grave :stordita:

Cutter90
17-01-2023, 11:19
Nviadia e mad sono cartello da almeno 2 gen. E' innegabile. E si, con 500 ti compri xsx, che va come una 2080 e una 2070 a livello di RT

Saturn
17-01-2023, 11:22
Da amante del PC.

Con 674€ si trova la PS5, con annesso lettore blu-ray.

E certo non lavora "a 10 fps" !

L'accendi, scarichi il gioco e buona notte !

Non avrà forse la qualità o il frame rate della RTX 4090 ma parliamo già di una cifra ben più ragionevole, visto che parliamo di VIDEOGIOCHI !

Quindi qualcosa che dovrebbe essere un passatempo nella vita.

Poi se giocate "di mestiere", es. youtuber o roba simile, allora è un altro discorso.
se in 18 anni non hai capito che questa è una sezione di gpu e non console è un po grave :stordita:

Ciò non toglie che non si possano fare ragionamenti o comparazioni, eh ! Per il top delle consolle neanche 700€, per il top dei pc sfondi tranquillamente i 3-4000€, ma anche più se ti ci metti d'impegno...!

nessuno29
17-01-2023, 11:24
Si vede che non gli mancano i soldi da "investire" ! Son contento per loro ! :)



Quoto in pieno. Purtroppo o per fortuna provenendo da una gtx 1070oc, anche avessi deciso di buttarmi sull'usato, non avrei cercato niente di meno che una 2080/3070 possibilmente con più di 8gb di ram. Ma per i tanti motivi sopra esposti ho desistito. Che poi non è neanche una reale necessità. Era tanto per dire dopo 7 anni di ricomprarmi una scheda video. E alla fine, in altra maniera, l'ho comunque fatto. Mi accontento alla grande...:)

Con la 6650xt pagavi meno ed andavi di più, è una scheda molto migliore della 1070 tanto quanto la 770. Comunque l'importante è esserne contenti.

PConly92
17-01-2023, 11:25
si a 10 fps, ma per chi è cieco 10 o 60 cambia poco :asd:
io ne ho spesi meno di 1000 e bastono le carrette attuali...poi se compri i componenti da dolce e gabbana è un altro discorso

10 fps? ma dove? ritenta per favore..
appunto meno di 1000 solo per i componenti eccetto la gpu :asd:
non si tratta di comprare quello o questo (dolce gabbana? ma ci sei?)
ma di farsi un pc (investimento) che ti dura parecchi anni... ovvio che ti fai un pc anche con 500e ma tra neanche 2 anni sei li a cambiare ancora. spero tu abbia capito cosa intendo..
i prezzi delle gpu attuali sono una follia e di questo passo tra 3 anni la futura 4080 costera 4000 euro perche ha il dlsssssss3434 e ci sono i polli a comprare con tutta la felicita di jhh

Saturn
17-01-2023, 11:26
Con la 6650xt pagavi meno ed andavi di più, è una scheda molto migliore della 1070 tanto quanto la 770. Comunque l'importante è esserne contenti.

Non mi interessano le performances, stavo e sto già bene con la 1070oc.

Mi interessava ridivertirmi con un prodotto nuovo ! E dati i costi l'ho fatto senza problemi.

Al momento, neanche morto, nvidia o amd vedranno mezzo centesimo da me per le loro schede video !

p.s. sull'andare di più ad ogni modo è tutta da vedere la questione. Ne riparleremo tra qualche tempo ! :)

mikael84
17-01-2023, 11:27
una scheda da 900 euro? ma siamo pazzi? queste sono schede (4080 4070ti) che dovrebbero costare massimo massimo (e sono buono) 600 e 500 rispettivamente... ma ragazzi non vi ricordate i tempi delle x800xt e 6800 ultra? costavano se non ricordo male 450 la x800xt e sui 500 la 6800ultra.. ma almeno avevi il top del top
ps. quanto mi mancano quei tempi :cry:

La 6800 ultra, tralasciando il cambio costi, inflazione del tempo, aveva il die della 4070, 287mm2, con il wafer a 1000$ circa, vs i 17000$ attuali, senza considerare, dissipatori, pcb molto più complessi.
500 euro per un prodotto che ne costava forse 50$ produrlo, con il die a 6/7$.

La 4080 è sovrapprezzata da paura, ma non potranno mai costare 600 euro, visto che gli costa quasi 400$ produrla.
Quello si può accettare, non certo però a 1250 euro.

Nerd1
17-01-2023, 11:30
Nviadia e mad sono cartello da almeno 2 gen. E' innegabile. E si, con 500 ti compri xsx, che va come una 2080 e una 2070 a livello di RT

Con hw amd, ma davvero? :stordita: cavoli amd va bene solo quando non è amd a venderlo...

craesilo
17-01-2023, 11:34
10 fps? ma dove? ritenta per favore..
appunto meno di 1000 solo per i componenti eccetto la gpu :asd:
non si tratta di comprare quello o questo (dolce gabbana? ma ci sei?)
ma di farsi un pc (investimento) che ti dura parecchi anni... ovvio che ti fai un pc anche con 500e ma tra neanche 2 anni sei li a cambiare ancora. spero tu abbia capito cosa intendo..
i prezzi delle gpu attuali sono una follia e di questo passo tra 3 anni la futura 4080 costera 4000 euro perche ha il dlsssssss3434 e ci sono i polli a comprare con tutta la felicita di jhh

case 120
ali 70-80
10600kf 200
mobo z490 120
16 ddr4 sotto i 100
ssd m2 80
3060ti 440

tutto nuovo, sai contare?


riguardo i 10 fps sono ironico ma basta che vai su forumocchio per leggere le bestemmie di vari consolari verso i multi castrati a 30 fps o modalità performance mediocri..quindi da me cosa vuoi? se volevo risparmiare al massimo mi sarei tenuto le scatolette con le loro prestazioni e basta

Nerd1
17-01-2023, 11:37
La 6800 ultra, tralasciando il cambio costi, inflazione del tempo, aveva il die della 4070, 287mm2, con il wafer a 1000$ circa, vs i 17000$ attuali, senza considerare, dissipatori, pcb molto più complessi.
500 euro per un prodotto che ne costava forse 50$ produrlo, con il die a 6/7$.

La 4080 è sovrapprezzata da paura, ma non potranno mai costare 600 euro, visto che gli costa quasi 400$ produrla.
Quello si può accettare, non certo però a 1250 euro.

si fa finta di non vedere che il progresso tecnologico porta dietro sempre più investimenti e costi importanti....

vga di venti anni fa avevano pcb a 10 strati scarni e alimentazioni che manco una 1050...ora abbiamo pcb da 14 strati, dissipatori tri slot con vapor chamber, etc etc e mi fermo qui

Altro discorso sarebbe dire: ma ho necessità di avere questi ritmi tecnologici? devo per forza far uscire una line up ogni 12 mesi? etc etc etc

Saturn
17-01-2023, 11:38
Ah dimenticavo....senza scordarsi di quanto queste società, nvidia in primis, abbiano mostrato di "tenere" ai propri utenti...vedi "periodo mining" ! Tutto venduto in blocco e in anticipo a chi li faceva arricchire, qualche rimanenza per le solite marchette pubblicitarie nei social a quei quattro sbarbatelli e quelle tre o quattro schede che avanzavano "per gli utenti" ! Wow ! :eek:

E ora tutti gioiosi a dargli pure altri soldi ??? E come no ! Di corsa ! :ciapet:

Nerd1
17-01-2023, 11:41
Non esiste etica nel business.......esistono solo gli investitori e i dividendi che gli assicuri....

mikael84
17-01-2023, 11:42
top nvidia 608mm a 4nm monolitico, 76,3mld transistor

top amd 520mm a 5nm/6nm chiplet, 57,7mld transistor

mentre la 4080 379 mm² a 4nm, 45,9 mld transistor

hai voglia ad abbassare i prezzi....praticamente siamo tornati al chip gaming snello contro il mostro pro mascherato da gaming

AMD potrà tagliare prezzo agevolmente nei mesi che seguiranno una crisi economica mondiale, nvidia meh.....potrà tirarsela fino all'ultimo ma i volumi non le hanno mai fatte le titan, le 80ti, etc etc le 4080 sono lì a prendere polvere a questi prezzi, se abbassi troppo le 80 la 90 perderebbe di appeal dato che meno del 5% usa il 4K alto refresh o disposto a spendere il doppio per il 50% di prestazioni in più. E poi ci sono le uscite dei giochi, :stordita: , e questo è deprimente sia per amd che nvidia in generale :stordita:

Premetto che il 4nm, è una mod del 5nm come lo erano i 12 (AMD utilizzava i 14, che erano la stessa cosa), AMD usa i 5nm HP, la versione potenziata dei 5, come i ryzen, quindi i costi sono identici.

Riguardo i prezzi, beh, se uno riesce a vendere bene con quei prezzi è ok, altrimenti devi abbassare a lungo andare. Nvidia, rispetto ad AMD, ci fa una figura barbina, perchè pur mantenendo la concorrenza con AMD, lo fa con i chippetti della classe 60 e 70, rebrandati in 80 e 70ti. E qua è palese che l'immagine non è la migliore.

Le 7900, se le facessimo tutte a 5nm, sarebbero da 440-450mm2, ma i costi sono i medesimi della 4080. 150 di die l'una, 120+50 l'altra, ma essendo il die da 307mm2, ha più rese, quindi i costi sono simili.

Attualmente, la più sballata di MSRP però è la 4080.
Ovviamente più avanti verrà soppiantata dalla 4080ti quasi sicuramente.

si fa finta di non vedere che il progresso tecnologico porta dietro sempre più investimenti e costi importanti....

vga di venti anni fa avevano pcb a 10 strati scarni e alimentazioni che manco una 1050...ora abbiamo pcb da 14 strati, dissipatori tri slot con vapor chamber, etc etc e mi fermo qui

Altro discorso sarebbe dire: ma ho necessità di avere questi ritmi tecnologici? devo per forza far uscire una line up ogni 12 mesi? etc etc etc

Esatto, sono il primo a fare questi discorsi sulla speculazione in atto, ma non ha neppure senso paragonare costi di 20 anni fa. Bisogna calcolare i costi di realizzo attuali, e dopo calcolare quanto ci stanno speculando su.

Sul progresso, beh, si, non si possono fermare di certo per anni. Nvidia soprattutto è interessata al HPC.

PConly92
17-01-2023, 11:48
case 120
ali 70-80
.....

ahhh scusa. che pc della madonna :asd: un 6 core monco e una piattaforma morta.. tra 2 anni massimo 3 sei già costretto a cambiare per giocare decentemente.
ma per piacere... è inutile che difendi l'indifendibile.

craesilo
17-01-2023, 11:51
ahhh scusa. che pc della madonna :asd: un 6 core monco e una piattaforma morta.. tra 2 anni massimo 3 sei già costretto a cambiare per giocare decentemente.
ma per piacere... è inutile che difendi l'indifendibile.

si tutto morto ma che defeca sulle tue scatolette, pensa te :asd:

ma poi perchè in firma hai componenti medi che ti fanno schifo e non una scatoletta? :asd:

ninja750
17-01-2023, 11:51
cartello qui, cartello lì....

Funziona in qualsiasi mercato così.

Il prezzo del mercato lo fa il top player, e gli altri si adattano.... se l'alfa avesse una macchina che caga in testa alla bmw di pari fascia la metterebbe a metà del prezzo secondo voi? :stordita:

Le due top nvidia
1599
1299

le due top amd
999
899

Dove è sto cartello che non lo vedo? :stordita:

suppongo si riferisca al fatto che con gli stessi soldi da una gen all'altra hanno tutti e due frenato il perf/price di una fascia rispettivamente

EffeX
17-01-2023, 12:13
cartello qui, cartello lì....

Funziona in qualsiasi mercato così.

Il prezzo del mercato lo fa il top player, e gli altri si adattano.... se l'alfa avesse una macchina che caga in testa alla bmw di pari fascia la metterebbe a metà del prezzo secondo voi? :stordita:

Le due top nvidia
1599
1299

le due top amd
999
899

Dove è sto cartello che non lo vedo? :stordita:

Che il mercato funzioni così non ci piove, peccato che una volta all'uscita delle nuove schede le serie precedenti si svalutavano in quanto le performance della top di gamma vecchia andavano in fascia media con relativo drop di prezzo, ora abbiamo raddoppio di performance e raddoppio di prezzo, quindi la convenienza dov'è?
Quello che vogliono far loro è vendere il nuovo e non svendere il vecchio, è lì che la cosa non funziona tanto.

Cutter90
17-01-2023, 12:24
ahhh scusa. che pc della madonna :asd: un 6 core monco e una piattaforma morta.. tra 2 anni massimo 3 sei già costretto a cambiare per giocare decentemente.
ma per piacere... è inutile che difendi l'indifendibile.

Guarda che va più delle console quel pc....

Cutter90
17-01-2023, 12:24
Con hw amd, ma davvero? :stordita: cavoli amd va bene solo quando non è amd a venderlo...

Non ti seguo:)

PConly92
17-01-2023, 12:30
si tutto morto ma che defeca sulle tue scatolette, pensa te :asd:

ma poi perchè in firma hai componenti medi che ti fanno schifo e non una scatoletta? :asd:

il mio l'ho assemblato inizio 2019 per la bellezza di 600e esclusa la VGA (una rx580 pagata 179) e con pochi spicci prendo un bel 5800x3d l'anno prossimo e tiro avanti altri 3 o 4 anni.. tu?
io sono un pc-ista puro ma non si può negare la qualità prezzo di questa gen di console in base ai prezzi attuali delle gpu..con la 3060ti riesci a giocare in 4k? si a 10 fps forse :asd:
quello che intendevo e che per giocare in 4k ti serve almeno una 3080ti o 3090 in su e ci vai a spendere più del doppio o triplo rispetto a una xbox series x. ovvio che giocare a 800x600 ti basta anche una apu amd

PConly92
17-01-2023, 12:56
Guarda che va più delle console quel pc....

lo so e ci mancherebbe pure che andasse meno ( a parte la cpu 6 core) ... ma imho allo stato attuale con questi prezzi per uno che vuole giocare (no multi competitivo) in 4k fa prima a prendersi una console e via..

Ubro92
17-01-2023, 13:02
Non vorrei dire ma se con la 3060ti fai 10fps, la 3080ti al massimo ne fa 16-17 :sofico:

Bisognerebbe scomodare la 4090 per arrivare ai 30 fps :fagiano:

Cutter90
17-01-2023, 13:07
lo so e ci mancherebbe pure che andasse meno ( a parte la cpu 6 core) ... ma imho allo stato attuale con questi prezzi per uno che vuole giocare (no multi competitivo) in 4k fa prima a prendersi una console e via..

Ripeto. una consola va come una 2070 circa tra raster e RT. Ed ha una cpu che è un ryzen 3600, quindi di che parliamo? Un i5 10 th già basta ad andare di più e una 2070 hai le stesse performance delle console, quindi una 3060 ti, che va di più di una 2070 va più delle console. Si, anche in 4k..... e inoltre su pc abbiamo dlss, fsr a dare ancora più risalto alle schede grafiche. Il paragone non sussiste. Con 1200 euro ti fai un pc va di più delle console, 4k compreso.

EffeX
17-01-2023, 13:11
Non vorrei dire ma se con la 3060ti fai 10fps, la 3080ti al massimo ne fa 16-17 :sofico:

Bisognerebbe scomodare la 4090 per arrivare ai 30 fps :fagiano:

In Cyberpunk 2077 in 4K, tutto ultra con RT senza DLSS è già così!

craesilo
17-01-2023, 13:25
il mio l'ho assemblato inizio 2019 per la bellezza di 600e esclusa la VGA (una rx580 pagata 179) e con pochi spicci prendo un bel 5800x3d l'anno prossimo e tiro avanti altri 3 o 4 anni.. tu?
io sono un pc-ista puro ma non si può negare la qualità prezzo di questa gen di console in base ai prezzi attuali delle gpu..con la 3060ti riesci a giocare in 4k? si a 10 fps forse :asd:
quello che intendevo e che per giocare in 4k ti serve almeno una 3080ti o 3090 in su e ci vai a spendere più del doppio o triplo rispetto a una xbox series x. ovvio che giocare a 800x600 ti basta anche una apu amd

lo so e ci mancherebbe pure che andasse meno ( a parte la cpu 6 core) ... ma imho allo stato attuale con questi prezzi per uno che vuole giocare (no multi competitivo) in 4k fa prima a prendersi una console e via..

ti rispondo e poi ti cancello perchè perdere tempo per delle vaccate è abbastanza ridicolo
il 6/12 a 4.8 ghz stock è spanne sopra la spazzatura da 8/16 a 3 ghz (dinamici :asd:) delle scatolette...la 3060ti non va in 4k? volendo faccio girare tutto a dettagli medio-alti-massimi a 60 (dipende dal gioco), ma preferisco scalare la res è giocare a 60 maxati o poco meno (dipende dal gioco), con anche RT...la stessa roba sulle scatolette è ancorata a 30 (cinematografici!!11!!) in 4k dinamici o a 60 a 1440p dinamici e abbastanza castrati...giocaci tu, a me non va di subire querele dagli occhi :asd:

gli unici giochi usciti bene tipo natale a ragnarok e horizon fw sono proprio così perchè cuciti estremamente su misura

fraussantin
17-01-2023, 13:30
Ma ancora dopo tutti questi anni la discussione sterile console vs pc.

Sono 2 cose diverse hanno costi diversi e sono indirizzate ad utenze generalmente diverse. Generalmente ..anche se quella microsoft sta accaparrandosi una bella fetta di utenza old pc cmq rimpiazzata abbondantemente dai millennial e dal mercato asiatico.

Cfranco
17-01-2023, 13:33
Esatto, sono il primo a fare questi discorsi sulla speculazione in atto, ma non ha neppure senso paragonare costi di 20 anni fa. Bisogna calcolare i costi di realizzo attuali, e dopo calcolare quanto ci stanno speculando su.
Beh, non è che le vecchie schede le hanno progettate gratis ... anche su quelle c' è stato un investimento notevole.
Se vogliamo possiamo pure tenere conto dell' inflazione, dal 2010 a oggi è circa del 35%, quindi se il prezzo di una top di gamma come la GTX 580 era 500$ la top di gamma odierna dovrebbe costare meno di 700$
Certamente ci possono essere altri fattori da tenere in considerazione, tuttavia la 3080 è uscita con msrp di 699$ ...


Sul progresso, beh, si, non si possono fermare di certo per anni. Nvidia soprattutto è interessata al HPC.
Il progresso è offrire qualcosa di meglio allo stesso prezzo oppure la stessa prestazione a un costo minore, se offri la stessa prestazione allo stesso prezzo dove sta il progresso ?

fraussantin
17-01-2023, 13:37
Se vogliamo possiamo pure tenere conto dell' inflazione, dal 2010 a oggi è circa del 35%,

Quella percentuale probailmente è l'inflazione reale di questi anni covid\post covid

Ma il paniere se lo accomodano sempre come gli pare.

Detto questo costano troppo e non le stanno vendendo .
Non è l'iphone che lo compra anche gente che non sa accenderlo solo perche ha i soldi e deve farsi vedere.

PConly92
17-01-2023, 13:37
Ripeto...

ovvio che i pc siano superiori (anche come spesa) a console con hw fisso che devono durare almeno 5 o 6 anni. era così anche ai tempi della ps3 e xbox360 e lo è tuttora. non voglio continuare con il dibattito perché siamo pesantemente ot.

mi raccomando fate ricco jhh&lisa e continuate a spendere 1500 o 2000 per UNA gpu... poi non lamentatevi se arriveranno pure a 3000+ :asd:
per me personalmente altri soldi per gpu sovraprezzate in questo modo non li spendo più.. già mi sono girati i maroni per i 500 spesi sulla rtx 3070 nuova. se non usavo il pc anche per altri scopi mi sarei preso un xbox o ps5 e amen. ormai ci puoi attaccare pure mouse + tastiera

PConly92
17-01-2023, 13:52
ti rispondo e poi ti cancello...

ascolta... gioco su pc dal lontano 2003 e ho passato diverse generazioni di gpu e piattaforme. MAI e poi mai ho pensato di prendermi una console.. neanche nei momenti più bui.
ma vedere una rtx 4080 (neanche il top di gamma ehh) venduta a 1200 mi spezza il cuore pensando che non molti anni fa con 600 max 700 (il primo esempio la 1080ti o la 980ti) avevi il top delle gpu :mc:

ps. per me fine ot.

amon.akira
17-01-2023, 13:57
Da amante del PC.

Con 674€ si trova la PS5, con annesso lettore blu-ray.

E certo non lavora "a 10 fps" !

L'accendi, scarichi il gioco e buona notte !

Non avrà forse la qualità o il frame rate della RTX 4090 ma parliamo già di una cifra ben più ragionevole, visto che parliamo di VIDEOGIOCHI !

Quindi qualcosa che dovrebbe essere un passatempo nella vita.

Poi se giocate "di mestiere", es. youtuber o roba simile, allora è un altro discorso.


Ciò non toglie che non si possano fare ragionamenti o comparazioni, eh ! Per il top delle consolle neanche 700€, per il top dei pc sfondi tranquillamente i 3-4000€, ma anche più se ti ci metti d'impegno...!

ammazza overpriced del 70% da 399€ a 675€

a 350euro ho venduto la 3060ti che già è meglio della ps5

Vul
17-01-2023, 14:00
a 350euro ho venduto la 3060ti che già è meglio della ps5

Ci mancherebbe una mobo, cpu, ram, ssd, alimentatore, case, cavo hdmi, lettore blue ray e un controller wireless e poi le due cose sono anche lontanamente paragonabili.

Ma no, non sono paragonabili, con una console ci si gioca principalmente sul divano in salotto, quindi dovresti fare anche una build minimale che possa stare in salotto senza occupare troppo spazio.

amon.akira
17-01-2023, 14:03
Ci mancherebbe una mobo, una cpu, ram, ssd, alimentatore, lettore blue ray e un controller wireless e poi le due cose sono anche lontanamente paragonabili.

lettore bluray cancella pure che non ci giochi su pc XD, ma anche se alla fine spendo 1000 vs 700 ho un pc che gioco meglio, non pago abbonamenti e i giochi te li tirano in faccia

la ps5 conviene se la paghi 399 come 2anni fa, ma cosi non è

Nerd1
17-01-2023, 14:06
Il progresso è offrire qualcosa di meglio allo stesso prezzo oppure la stessa prestazione a un costo minore, se offri la stessa prestazione allo stesso prezzo dove sta il progresso ?

Avete voluto l'rt? E allora pedalare :O

ps: sto iperbolando, nessuno si offenda

Saturn
17-01-2023, 14:08
ammazza overpriced del 70% da 399€ a 675€

a 350euro ho venduto la 3060ti che già è meglio della ps5

Si che invece le schede video, specie le nvidia, quelle non sono "overpriced", no ?

Almeno con la ps5 ti porti a casa de-facto un consolle e sei pronto per giocare.

Se invece spendi 350€ per una scheda video ti manca di comprare tutto il resto, salvo non possedere già il restante hardware.

Vul
17-01-2023, 14:14
lettore bluray cancella pure che non ci giochi su pc XD, ma anche se alla fine spendo 1000 vs 700 ho un pc che gioco meglio, non pago abbonamenti e i giochi te li tirano in faccia

la ps5 conviene se la paghi 399 come 2anni fa, ma cosi non è

Io ce l'ho avuto un pc ad uso console in salotto, costa molto, e' difficile da gestire ed e' meglio una console.

Anche il discorso del costo dei giochi lascia il tempo che trova, hai tonnellate di giochi ad un costo inferiore a netflix con gli abbonamenti ps+.

Io non capisco il motivo per questi paragoni tra console e pc e questi paragoni del O uno O l'altro. Sono due filosofie di gioco diverse.

Sulle console non ci giochi a League of Legends o CS:GO o World of Warcraft o altri milioni di giochi in particolare quelli online.

Sul pc non ci giochi sdraiato sul divano in salotto.

Uno puo' giocare benissimo ad uno o all'altro o ad uno e l'altro (come faccio io che gioco ad entrambi).

amon.akira
17-01-2023, 14:16
Si che invece le schede video, specie le nvidia, quelle non sono "overpriced", no ?

Almeno con la ps5 ti porti a casa de-facto un consolle e sei pronto per giocare.

Se invece spendi 350€ per una scheda video ti manca di comprare tutto il resto, salvo non possedere già il restante hardware.

si che poi so andato a vedere, 675 dal napoletano di prezzo bomba XD, la prima digital acquistabile in maniera sicura parte da 699€

almeno la 3060ti il suo prezzo ufficiale è 439€ e parte da 422 su trovaprezzi acquistabile seriamente.

OvErClOck82
17-01-2023, 14:18
ammazza overpriced del 70% da 399€ a 675€

a 350euro ho venduto la 3060ti che già è meglio della ps5

con lettore costa 549 (449 senza), e nei 600 e fischia euro sono compresi un paio di giochi...

amon.akira
17-01-2023, 14:19
con lettore costa 549 (449 senza), e nei 600 e fischia euro sono compresi un paio di giochi...

link? XD

Ubro92
17-01-2023, 14:23
Ma un pc in casa che sia fisso o notebook ce l'hai a prescindere...

Ci sono amici che per i prezzi che avevano i fissi fino a 1-2 anni fa, sono andati direttamente di notebook e ci attaccavano tv e monitor esterni.

Anzi probabilmente le 4000 daranno il meglio proprio nelle soluzioni mobile considerando i limiti di tdp e l'enorme salto di nodo.

OvErClOck82
17-01-2023, 14:24
link? XD

prezzi ufficiali, poi che non si trovino se non in drop sporadici (ora più frequenti) è un altro paio di maniche.. chiaramente se ti riferivi alla digital liscia venduta a quasi il doppio del prezzo da peppiniello o' scalper non fa molto testo :D

i bundle ufficiali o ufficiosi delle varie catene per circa 600/650 ti danno almeno un gioco in bundle

amon.akira
17-01-2023, 14:28
prezzi ufficiali, poi che non si trovino se non in drop sporadici (ora più frequenti) è un altro paio di maniche.. chiaramente se ti riferivi alla digital liscia venduta a quasi il doppio del prezzo da peppiniello o' scalper non fa molto testo :D

i bundle ufficiali o ufficiosi delle varie catene per circa 600/650 ti danno almeno un gioco in bundle

quindi fuffa se non sono comprabili, io invece ci metterei 2secondi a linkarti una 3060ti a prezzo ufficiale che ripeto è meglio di una ps5

fraussantin
17-01-2023, 14:29
Ma un pc in casa che sia fisso o notebook ce l'hai a prescindere...



Ci sono amici che per i prezzi che avevano i fissi fino a 1-2 anni fa, sono andati direttamente di notebook e ci attaccavano tv e monitor esterni.



Anzi probabilmente le 4000 daranno il meglio proprio nelle soluzioni mobile considerando i limiti di tdp e l'enorme salto di nodo.Poi a 420 euro c'è la steam deck che per le esclusive pc puo tamponare.

Secondo me oggi sarebbe il momento adatto per una steambox a 500 euro senza i costi di display batteria con un ssd normale da 256 e un apu però con le palle quadre in grado da dominare il 1080p .


Apu preparata ad oc con 6 core zen 2 e una grossa gpu rdna3

bagnino89
17-01-2023, 14:31
Non per dire, ma oggi con 700 euro prendi PS5 con lettore + Spiderman MM, Horizon 2 e GOW 2... Bundle ufficiale. E giochi del calibro di questi ultimi due (anche tecnicamente) su PC non ci sono.

Alla faccia delle GPU a 1000 e rotti euro.

Saturn
17-01-2023, 14:36
quindi fuffa se non sono comprabili, io invece ci metterei 2secondi a linkarti una 3060ti a prezzo ufficiale che ripeto è meglio di una ps5

Ma funziona da sola la 3060ti o le serve ancora un pc dove essere inserita ?

Mi stai facendo venire il dubbio a questo punto...! :mbe:

Ripeto, non avrà la qualità della tua 4090 ma per giocare vai alla grande anche una PS5, in più anche se è "overpriced" con 700€ ti stanno dicendo che ti becchi anche due giochi.

Non saprei che altro aggiungere a questo punto. Boh ! :confused:

OvErClOck82
17-01-2023, 14:41
quindi fuffa se non sono comprabili, io invece ci metterei 2secondi a linkarti una 3060ti a prezzo ufficiale che ripeto è meglio di una ps5

linkamela che la compro e la piazzo accanto alla tv in salotto :stordita:


dai su che sono discorsi del menga... pc e console sono da sempre due mondi diversi, su questo non ci piove.

fatto sta che la forbice tra i due mondi negli ultimi anni si è ampliata a livelli disumani e scarsamente giustificabili per la maggioranza dei giocatori.

con una console non posso giocare competitivo ad elevatissimi framerate oppure in configurazioni multimonitor ecc... ma per tutto il resto le console non sono mai state convenienti rispetto al pc come lo sono in questo periodo.

ovviamente su console non si gioca a 10fps, non si vedono i pixel e non si prendono malattie, lo specifico per chi magari pensa di avere a che fare col demonio :asd:

bagnino89
17-01-2023, 14:44
linkamela che la compro e la piazzo accanto alla tv in salotto :stordita:


dai su che sono discorsi del menga... pc e console sono da sempre due mondi diversi, su questo non ci piove.

fatto sta che la forbice tra i due mondi negli ultimi anni si è ampliata a livelli disumani e scarsamente giustificabili per la maggioranza dei giocatori.

con una console non posso giocare competitivo ad elevatissimi framerate oppure in configurazioni multimonitor ecc... ma per tutto il resto le console non sono mai state convenienti rispetto al pc come lo sono in questo periodo.

ovviamente su console non si gioca a 10fps, non si vedono i pixel e non si prendono malattie, lo specifico per chi magari pensa di avere a che fare col demonio :asd:

Quoto, e ribadisco che la resa di un GOW2 o un Horizon 2 prendono a pesci in faccia tanti titoli su PC tanto osannati... Difficile da digerire per i PCisti incalliti, ma tant'è.

craesilo
17-01-2023, 14:50
Quoto, e ribadisco che la resa di un GOW2 o un Horizon 2 prendono a pesci in faccia tanti titoli su PC tanto osannati... Difficile da digerire per i PCisti incalliti, ma tant'è.

l'unica cosa difficile da digerire sarebbero i 30 fps cinematografici che per fortuna non violenteranno gli occhi dei pcisti incalliti quando i 2 giochini usciranno, ma tanterellin'è :asd:
purtroppo toccherà digerire la ciofeca di scrittura che hanno, fortuna che almeno esce roba obsidian :asd:

OvErClOck82
17-01-2023, 14:51
l'unica cosa difficile da digerire sarebbero i 30 fps cinematografici che per fortuna non violenteranno gli occhi dei pcisti incalliti quando i 2 giochini usciranno, ma tanterellin'è :asd:
purtroppo toccherà digerire la ciofeca di scrittura che hanno, fortuna che almeno esce roba obsidian :asd:

vanno a 60fps

craesilo
17-01-2023, 14:53
vanno a 60fps

lo so, in performance mod, ci ho giocato su ps4 pro(letaria) ai primi a 60, vabbè che calavano a 40 anche ma fa niente :asd:

bagnino89
17-01-2023, 14:59
l'unica cosa difficile da digerire sarebbero i 30 fps cinematografici che per fortuna non violenteranno gli occhi dei pcisti incalliti quando i 2 giochini usciranno, ma tanterellin'è :asd:
purtroppo toccherà digerire la ciofeca di scrittura che hanno, fortuna che almeno esce roba obsidian :asd:

lo so, in performance mod, ci ho giocato su ps4 pro(letaria) ai primi a 60, vabbè che calavano a 40 anche ma fa niente :asd:

Su PS5 sono fluidissimi a 60 FPS.

Ciofeca di scrittura, ok... Dimmi cosa c'è oggi su PC, esclusivo, di livello paragonabile.

Saturn
17-01-2023, 15:03
[.....]

Non capisco. Qual'è il problema nell'ammettere, che al momento ci stanno letteralmente rapinando con i costi delle nuove schede video ?

E che una consolle come la PS5 per quanto non possa mai eguagliare un PC con ultima cpu/gpu più potente dia comunque degli ottimi e gradevolissimi risultati in gaming ?

Per restare in topic "Aspettando le nuove vga nVidia" quanto pensi che te le metteranno le prossime di questo passo ?

Non capisco. Qua ci sarebbe di non acquistare più manco mezza scheda per far rinsavire nvidia e amd, altro che storie. :rolleyes:

OvErClOck82
17-01-2023, 15:05
Su PS5 sono fluidissimi a 60 FPS.

Ciofeca di scrittura, ok... Dimmi cosa c'è oggi su PC, esclusivo, di livello paragonabile.

Time spy, Port Royal e Firestrike :O

mikael84
17-01-2023, 15:06
Beh, non è che le vecchie schede le hanno progettate gratis ... anche su quelle c' è stato un investimento notevole.
Se vogliamo possiamo pure tenere conto dell' inflazione, dal 2010 a oggi è circa del 35%, quindi se il prezzo di una top di gamma come la GTX 580 era 500$ la top di gamma odierna dovrebbe costare meno di 700$
Certamente ci possono essere altri fattori da tenere in considerazione, tuttavia la 3080 è uscita con msrp di 699$

Si, ma nell'equazione bisogna tenere anche i costi, la 4090 attuale, il top di gamma costa molto di più produrlo, idem quelle sotto.
30$ di die (che scendevano a 25 circa con i parziali) vs 300$ della 4090, dissipatore che nvidia diceva che costava 150$ ( e qua non ci sono riscontri, come i 50$ di AMD).

AD103, sta a 150$ die, dissi da 4090, PCB molto più complesso, ram g6x che costano più delle lisce.

Non si possono tenere a mente solo i costi di prima con l'inflazione.
Nell'equazione, bisogna vedere quanto li costo a loro, poi valutare lo sciacallaggio, e nella 4080 e nelle AMD c'è.


Il progresso è offrire qualcosa di meglio allo stesso prezzo oppure la stessa prestazione a un costo minore, se offri la stessa prestazione allo stesso prezzo dove sta il progresso ?

Il problema sta nelle fasce minori, dalla 4080 in giù, la 4090, offre un salto, quasi mai visto a pari costi. Oltre 2x per i pro, e 70-80% in RT-rasterizzazione.

La 4080 a pari MSRP (3080ti) offre cmq, un 35% raster e 40% RT e un 2x su certi pro, come vray, blender, rispetto alla 3080ti, essendo il campo pro, pensato principalmente per nvidia.

Quella scheda dovrebbe costare 899$ mediamente, e qua sta il problema.

mikael84
17-01-2023, 15:08
Ps: delle console in questo thread non ce ne frega nulla, ci sono i thread appositi.:)

FrancoBit
17-01-2023, 15:16
Non capisco. Qual'è il problema nell'ammettere, che al momento ci stanno letteralmente rapinando con i costi delle nuove schede video ?

E che una consolle come la PS5 per quanto non possa mai eguagliare un PC con ultima cpu/gpu più potente dia comunque degli ottimi e gradevolissimi risultati in gaming ?

Per restare in topic "Aspettando le nuove vga nVidia" quanto pensi che te le metteranno le prossime di questo passo ?

Non capisco. Qua ci sarebbe di non acquistare più manco mezza scheda per far rinsavire nvidia e amd, altro che storie. :rolleyes:

Nessuno può negare che i costi dell'hardware purtroppo ad oggi siano da rapina. Però anche venire a vendere l'esperienza videoludica di una consolle in un thread sulle schede video, peraltro "aspettando"..... Magari sul thread AMD qualcosa riuscite a vendere visto che l'hardware è lo stesso

OvErClOck82
17-01-2023, 15:17
Il problema sta nelle fasce minori, dalla 4080 in giù

embè dici poco, sarà solo il 90% del mercato :stordita:

bagnino89
17-01-2023, 15:22
Time spy, Port Royal e Firestrike :O

Già...

Chiudiamo OT, va.

OvErClOck82
17-01-2023, 15:22
Nessuno può negare che i costi dell'hardware purtroppo ad oggi siano da rapina. Però anche venire a vendere l'esperienza videoludica di una consolle in un thread sulle schede video, peraltro "aspettando"..... Magari sul thread AMD qualcosa riuscite a vendere visto che l'hardware è lo stesso

qui nessuno vende nulla, e soprattutto mi pare che a discutere siano tutti giocatori principalmente pc... aprire gli occhi sulla situazione attuale non fa di certo male...

Saturn
17-01-2023, 15:23
Nessuno può negare che i costi dell'hardware purtroppo ad oggi siano da rapina.

Sai che ti dico ? Che se il mercato risponde positivamente hanno ragione loro, anche leggendo i commenti di questo thread.

Però anche venire a vendere l'esperienza videoludica di una consolle in un thread sulle schede video, peraltro "aspettando"..... Magari sul thread AMD qualcosa riuscite a vendere visto che l'hardware è lo stesso

Peccato che non possieda una consolle dai tempi della PS2 ma una "semplice" gtx 1070oc (e me la tengo) e non voglia ne io ne altri "vendervi" proprio nulla. Si stava facendo una semplice constatazione, rientriamo pure in topic. Allora si sa già qualcosa della futura nVidia RTX 5080 ? :)

Prezzo ipotizzato ? :D

qui nessuno vende nulla, e soprattutto mi pare che a discutere siano tutti giocatori principalmente pc... aprire gli occhi sulla situazione attuale non fa di certo male...

Appunto. Sembra quasi che uno vada a toccare "argomenti personali" ! :asd:

EffeX
17-01-2023, 15:26
Si, ma nell'equazione bisogna tenere anche i costi, la 4090 attuale, il top di gamma costa molto di più produrlo, idem quelle sotto.
30$ di die (che scendevano a 25 circa con i parziali) vs 300$ della 4090, dissipatore che nvidia diceva che costava 150$ ( e qua non ci sono riscontri, come i 50$ di AMD).

AD103, sta a 150$ die, dissi da 4090, PCB molto più complesso, ram g6x che costano più delle lisce.

Non si possono tenere a mente solo i costi di prima con l'inflazione.
Nell'equazione, bisogna vedere quanto li costo a loro, poi valutare lo sciacallaggio, e nella 4080 e nelle AMD

Perdona una cosa da ignorante in materia, nel lontano 2003 ricordo che su tutte le testate dell'epoca Nvidia andò quasi in bancarotta col lancio della GeForce FX 5800, perché aveva investito un sacco per la sua prima gpu dx9 compliant, aveva processo a 0.13 um che nei primi anni 2000 era come se ora fosse il 3nm, ram ddr2 che nessuno montava prima e pcb a 12 strati che nel 2003 non credo costasse poco ingegnerizzare , per non parlare del flow fx che era una soluzione stravagante e costosa in quanto unica per l'epoca, e il prezzo al lancio nel 2003 era di 500$ e non penso Nvidia la vendesse in perdita, che poi sia stato un flop è un altro discorso, ma cosa è cambiato di così drastico nei prezzi tra ieri e oggi?
Perdonate il leggero OT