PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 [356] 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466

mat0109
22-09-2022, 13:32
Ne ho uno 5K LG ed uno 4K samsung. Io valgo per 2? :asd:

il 5k a 60hz conta come un tubo catodico. Stiamo parlando di giocare mica di editing video :muro:

Ale55andr0
22-09-2022, 13:32
Concordo su tutto.
Inoltre proprio ieri sono usciti i grafici, ed ha fatto praticamente un 1:1 con ampere, in fase di calcolo, smontando i tensor dell'HPC e mettendoli sulle gaming.
L'unica sua fortuna, aver avuto un PP che gli ha permesso molto clock.
Che proprio lui si lamenti del prezzo dei wafer, fa davvero ridere.

La situazione avrà sicuramente ripercussioni.
Spero che già le testate siano severe.


Sei serio? :fagiano: Le testate severe su nvidia? :stordita:

Siamo nel 2022 non nel 2017.
Lo standard ormai sono i 4K.
Se con una console, con tutti i suoi limiti, si gioca a 4K lo stesso deve valere anche su PC. :cool:

Sui TV nuovi si, sui monitor per PC manco per sbaglio

amon.akira
22-09-2022, 13:36
il 5k a 60hz conta come un tubo catodico. Stiamo parlando di giocare mica di editing video :muro:

peccato che tu non possa giocare elden ring allora :asd:

mat0109
22-09-2022, 13:38
peccato che tu non possa giocare elden ring allora :asd:

Onesto, non l'ho capita... probabilmente meglio cosi. :rolleyes:

amon.akira
22-09-2022, 13:40
Onesto, non l'ho capita... probabilmente meglio cosi. :rolleyes:

hai detto che a 60hz non è giocare...elden ring è locked a 60hz

Ale55andr0
22-09-2022, 13:41
no l unica incognita è il prezzo non l rt

jhh sta vendendo deliberatamente gpu che come ha detto mikael gli costano uguale dato le rese, da 499$ a 899$ cambiando solamente il nome +400$.

tu dici che amd non farà lo stesso? non lo faccio tanto stupido jhh da non averlo previsto oppure veramente punta tutto sul dlss3

Come detto sopra: se AMD NON vuole guadagnare mercato farà come dici, perchè sai benissimo che lato GPU la loro base di mercato è miserabile...che senso avrebbe secondo te? Poi certo mi aspetto di tutto anch'io: allo schifo, in generale, non pongo alcun limite ma vedi, lato CPU han guadagnato un bel tot a intel, sia sul retail che soprattutto sui server, in questi ultimi anni, quindi hanno "osato" perchè ne avevano la possibilità, ma lato GPU? :fagiano:

FrancoBit
22-09-2022, 13:43
Ragazzi non è che con le ampère che abbiamo già in saccoccia si giochi a 20 fps c'mon. Ci sono giusto 2 o 3 titoli mattone in giro, non c'è altro. Non è necessario oltretutto comprare subito la nuova scheda. Personalmente trovo scorretto il naming e la comunicazione fuorviante di questa generazione di Nvidia. E si, l'aumento dei wafer lo fa pagare a noi, come il pizzaiolo che vi mette la bolletta insieme al conto. E io chi cazzo sono Joe Condor, la MIA di bolletta non è aumentata che cristo? E quindi, cosa posso fare da consumatore? Posso NON FARE, per ora non compro, inizierò a tirarmela molto di più, amen, perchè tutto aumenta, ma con la 3080 mi diverto ugualmente. Chi ha ancora le turing o le precedenti non ha speso la millata negli ultimi 3-4 anni, quindi può ancora spareare la cartuccia diciamo. Insomma, sto giro mi sta enormemente sulla minchia Jensen e le sue politiche da scalper. Vedremo Lisona, ma ribadisco, ad oggi per la maggior parte della gente non serve una 4090.

D4N!3L3
22-09-2022, 13:43
idem io poi vorrei la tuf se proprio la prendo. io controllo loro ed i crucchi. dato che sei di firenze (io di montevarchi) a volte anche tradeco. però preferisco amazon

Si loro però hanno spesso prezzi più alti e la garanzia Amazon non la batte nessuno.

Cutter90
22-09-2022, 13:45
Ah si ? voglio vedere quanti qui dentro hanno un monitor decente 4k o una tv con hdmi 2.1 :D forse siamo in 10 fra tutti i 200 che commentano :confused: :mc:

Le tv 4k ormai tutti ce l'hanno.
Su pc magari no, ma anche li ci si arriverà. Già un 32 il 4k lo vedi. Poi ora ci sono i 42 oled che sono magnifici

fraussantin
22-09-2022, 13:46
Siamo nel 2022 non nel 2017.

Lo standard ormai sono i 4K.

Se con una console, con tutti i suoi limiti, si gioca a 4K lo stesso deve valere anche su PC. :cool:Sulle console si gioca in 4k?
A 30 fps.

Gia se vuoi prestazioni devi calare a 1080p

Il 4k è un lusso .

1500 euro di pannello , 2000 di gpu ( per goderseli al massimo ) più il resto.

^Niko^
22-09-2022, 13:46
Concordo su tutto.
Inoltre proprio ieri sono usciti i grafici, ed ha fatto praticamente un 1:1 con ampere, in fase di calcolo, smontando i tensor dell'HPC e mettendoli sulle gaming.
L'unica sua fortuna, aver avuto un PP che gli ha permesso molto clock.
Che proprio lui si lamenti del prezzo dei wafer, fa davvero ridere.

La situazione avrà sicuramente ripercussioni.
Spero che già le testate siano severe.

leggendo alcuni articoli (e in particolare quelli di questo sito) sto riscontrando soltanto giustificazioni alle dichiarazioni di nvidia, come se gli articoli fossero scritti direttamente da nvidia, per quanto sembrano di parte.
vedremo con le recensioni reali...

mat0109
22-09-2022, 13:49
Ragazzi non è che con le ampère che abbiamo già in saccoccia si giochi a 20 fps c'mon. Ci sono giusto 2 o 3 titoli mattone in giro, non c'è altro. Non è necessario oltretutto comprare subito la nuova scheda. Personalmente trovo scorretto il naming e la comunicazione fuorviante di questa generazione di Nvidia. E si, l'aumento dei wafer lo fa pagare a noi, come il pizzaiolo che vi mette la bolletta insieme al conto. E io chi cazzo sono Joe Condor, la MIA di bolletta non è aumentata che cristo? E quindi, cosa posso fare da consumatore? Posso NON FARE, per ora non compro, inizierò a tirarmela molto di più, amen, perchè tutto aumenta, ma con la 3080 mi diverto ugualmente. Chi ha ancora le turing o le precedenti non ha speso la millata negli ultimi 3-4 anni, quindi può ancora spareare la cartuccia diciamo. Insomma, sto giro mi sta enormemente sulla minchia Jensen e le sue politiche da scalper. Vedremo Lisona, ma ribadisco, ad oggi per la maggior parte della gente non serve una 4090.

Che poi parliamoci chiaro, i processori non si sente la necessità di cambiarli ad ogni gen, ora se ne può saltare tranquillamente anche due alla volta vedi i vari i9 9900k o 10900k non è che oggi facciano cosi schifo. idem per le schede video, uno che ha una 3080 o 3080ti ad oggi può puntare direttamente ad aspettare le serie 5000! Cioè il 2k viene DEVASTATO dalle serie 30 e come ho scritto prima, voglio vedere chi ha quei 7-800 euro per un monitor 4k decente o 1200 o più per un tv oled con 2.1 alla fine se si punta alla serie 4000 è obbligatorio prenderci insieme il monitor/tv adeguato e quindi la spesa come minimo diventa 2500-3000 euro e a quel punto 500+ o 500- NON possono fare la differenza a chi decide di fare il passo. Sempre a mio parere ovviamente...

narniagreen
22-09-2022, 13:50
https://i.postimg.cc/j5RymyL5/AORUS-RTX4090-SIZE-1.jpg (https://postimg.cc/B8w81L59)

:mc: :mc: :mc: :mc:

https://videocardz.com/newz/gigabytes-rtx-4090-aorus-master-could-fit-four-mini-itx-cards-inside

E manca ancora la 4090ti da 600 watt, SEICENTO a 2000$ + iva. :sofico:

Talmente vile da non metterci la faccia.
Se mi clonassi, sai quante potrei dirne su tutti voi, te.:p
Potrei fare nera la community, e dire cose su ognuno di voi.:p

Ecco perchè avete sempre la 3080, e le comprate mangiate pane e cipolla e scalperate di continuo.

E' una battuta biggym, anche se sia come costi che gestione metabolica è decisamente fuori scala, poi ci sarebbe pure da vedere quanto tu sia natural o meno, però dalla risposta non sembra proprio che tu te la sia presa, e soprattutto che non hai risentimenti verso qualcuno qua dentro, no no, proprio per niente :asd:

PS. non ho la 3080 o una 6800XT e non scalpero, pane e cipolla comunque è ottimo e ricco di proteine se usi il cerale giusto, prendi nota.

mat0109
22-09-2022, 13:51
Le tv 4k ormai tutti ce l'hanno.
Su pc magari no, ma anche li ci si arriverà. Già un 32 il 4k lo vedi. Poi ora ci sono i 42 oled che sono magnifici

Le tv 4k adatte a giocare e dedicate a giocare siamo in 4 gatti ad averle, non diciamo cose a caso suvvia. La gente sta piangendo per le schede a 1400 euro di listino figurati se si compra pure altri 1200 euro di tv adeguata.

DJurassic
22-09-2022, 13:51
Le tv 4k ormai tutti ce l'hanno.
Su pc magari no, ma anche li ci si arriverà. Già un 32 il 4k lo vedi. Poi ora ci sono i 42 oled che sono magnifici

Io ormai gioco più sull'Oled che sul monitor. Hai perfettamente ragione, anche perchè l'HDR sui monitor ancora fatica a decollare e non è nemmeno lontano parente di quello presente sulle più recenti TV.

Kostanz77
22-09-2022, 13:53
Ragazzi non è che con le ampère che abbiamo già in saccoccia si giochi a 20 fps c'mon. Ci sono giusto 2 o 3 titoli mattone in giro, non c'è altro. Non è necessario oltretutto comprare subito la nuova scheda. Personalmente trovo scorretto il naming e la comunicazione fuorviante di questa generazione di Nvidia. E si, l'aumento dei wafer lo fa pagare a noi, come il pizzaiolo che vi mette la bolletta insieme al conto. E io chi cazzo sono Joe Condor, la MIA di bolletta non è aumentata che cristo? E quindi, cosa posso fare da consumatore? Posso NON FARE, per ora non compro, inizierò a tirarmela molto di più, amen, perchè tutto aumenta, ma con la 3080 mi diverto ugualmente. Chi ha ancora le turing o le precedenti non ha speso la millata negli ultimi 3-4 anni, quindi può ancora spareare la cartuccia diciamo. Insomma, sto giro mi sta enormemente sulla minchia Jensen e le sue politiche da scalper. Vedremo Lisona, ma ribadisco, ad oggi per la maggior parte della gente non serve una 4090.


Quotone


Inviato dal mio iPhone utilizzando Tapatalk Pro

Cutter90
22-09-2022, 13:54
Sulle console si gioca in 4k?
A 30 fps.

Gia se vuoi prestazioni devi calare a 1080p

Il 4k è un lusso .

1500 euro di pannello , 2000 di gpu ( per goderseli al massimo ) più il resto.

beh insomma. Tanti giochi sono in 4k a 60 o 1400p 60. I mattonazzi sono 4k e 30 fps, vero, ma i consolari a 30 fps ci giocano da sempre.
Su pc il 4k si faceva dai tempi della 980 ti a 30 fps....
Le tv 4k costano anche 400 euro e una buona scehda per il 4k a 60 fps è già una 3070/2080 ti. Siamo ben lontani dalle tue cifre

thunderforce83
22-09-2022, 13:58
in pratica in passato nvidia con la 3080 ci ha fatto un regalo incredibile, visto che ha dato il chip derivato dal full per poco piu' di 700euro, mentre adesso beh, sono sberle supersoniche...Non capisco se si sono fatti ingolosire vedendo la baraonda di scalper, miner, appassionati super inscimmiati, disposti a sborsare 2000euro per una 3080 sulla baia, pero' la situazione e' veramente ostica...4080/12 e 4080/16 sono delle colossali inkul...tion per quanto riguarda prezzo/prestazioni quindi, l'unica scheda che da appassionato prenderei per sostituire la mia attuale 3080 e' ovviamente la 4090...pero' sei costretto praticamente...
amd manco la considero... sicuramente se ne uscira' come fece con le 6xxx uguale con queste 7xxx, con accrocchi low cost ingegneristici per compensare e giustificare gpu povere nella sostanza, ma che sulla carta promettono miracolo, ma non voglio sparare sentenze senza vedere prima bench reali di confronto tra le due, ma la sensazione e' quella, poi vedremo quando usciranno entrambe.
in pratica sull amazzonia aspettiamoci delle 4090 decenti ben soprai i 2000 baiocchi...a sto giro non per una questione di soldi, ma piu' per la presa per il :ciapet: che desisterei fortemente...

mat0109
22-09-2022, 14:00
beh insomma. Tanti giochi sono in 4k a 60 o 1400p 60. I mattonazzi sono 4k e 30 fps, vero, ma i consolari a 30 fps ci giocano da sempre.
Su pc il 4k si faceva dai tempi della 980 ti a 30 fps....
Le tv 4k costano anche 400 euro e una buona scehda per il 4k a 60 fps è già una 3070/2080 ti. Siamo ben lontani dalle tue cifre

Se devo giocare su una tv 4k a 60 hz con i dettagli medi che mi sanguinano gli occhi piuttosto non gioco.

mikael84
22-09-2022, 14:03
leggendo alcuni articoli (e in particolare quelli di questo sito) sto riscontrando soltanto giustificazioni alle dichiarazioni di nvidia, come se gli articoli fossero scritti direttamente da nvidia, per quanto sembrano di parte.
vedremo con le recensioni reali...

Purtroppo, ma dovranno recensirle.:)

E manca ancora la 4090ti da 600 watt, SEICENTO a 2000$ + iva. :sofico:



E' una battuta biggym, anche se sia come costi che gestione metabolica è decisamente fuori scala, poi ci sarebbe pure da vedere quanto tu sia natural o meno, però dalla risposta non sembra proprio che tu te la sia presa, e soprattutto che non hai risentimenti verso qualcuno qua dentro, no no, proprio per niente :asd:

PS. non ho la 3080 o una 6800XT e non scalpero, pane e cipolla comunque è ottimo e ricco di proteine se usi il cerale giusto, prendi nota.

Non ce l'ho con nessuno, io discuto con tutti, come vedi e dico la mia.:)
Però tu essendo un utente iscritto sicuramente, stai utilizzando un altro nick, perchè non hai il coraggio di fare una critica, senza metterci il nome.

Se tu mi dici chi sei, io ti rispondo amichevolmente, però a quel punto, potrei pure anche io clonarmi e fare letteralmente a pezzi chiunque, visto tutto quello che so qua dentro.:) Ma mai lo farò:) facile fare così...

per il resto natural, ed anche li ne avrei da dire su certi.:p

Goofy Goober
22-09-2022, 14:04
Infatti, mediamente con la Titan i giocatori usavano programmi DP, come calcoli meteorologici, scientifici.:asd: Venne data pure la scusa di avere le DP ai giocatori.

Io sono sempre stato sulla fascia alta sino a maxwell, ai tempi di kepler, fermi, e amd anche in cross sulle top, ricordo con ammirazione il tuo uber PC, mediamente 7-800 euro sono libero di investirli, e prima se ne investivi già 500 per una 780, eri l'elite.
Ora dopo la conferenza, uno come me si sente uno straccione, prezzo minimo 1100 euro.
Almeno presenta la x70 fasulla sotto i mille, no, una conferenza sopra i mille.

Bevo il vino ai pasti, non mi faccio mancare nulla.:p :sofico:

Grazie per l'ammirazione :D ma che pc era? Quello con lo SLI di Titan? Bei tempi :asd:

Comunque la curiosità è mia vedere tutto il mercato composto di oggi gama con la 1060 o altre schede da 250/300 euro, cosa farà tra un po' di anni.
Io propendo per un megashrink e quote mangiate a legno da prodotti come steam deck, visti i prezzi altrove.
Oppure rivoluzione di AMD/Intel con metodologie a me oscure. Non mi spiacerebbe.

p.s.
sono figlio di sommelier, non mi parlare di vino ai pasti che è un degrado :asd:

Io ormai gioco più sull'Oled che sul monitor. Hai perfettamente ragione, anche perchè l'HDR sui monitor ancora fatica a decollare e non è nemmeno lontano parente di quello presente sulle più recenti TV.

Vero, e tolto l'HDR, io mi sono tenuto apposta il vecchio 55" oled del 2014 a 1080p per continuare a giocarci quando in 4K su 65" non ce la si fa, tanto a metri di distanza i miei malconci occhi (5.5 diottrie perse per strada) rendono tutto sempre magnifico :asd:

Cutter90
22-09-2022, 14:07
Se devo giocare su una tv 4k a 60 hz con i dettagli medi che mi sanguinano gli occhi piuttosto non gioco.

Perchè dettagli medi? Dipende da quanti fps vuoi, più che altro.

thunderforce83
22-09-2022, 14:07
hai detto che a 60hz non è giocare...elden ring è locked a 60hz

Anche per questo non lo giochero' mai:D sti giapponesi sono rimasti proprio indietro...secondo me sono ancora a livello della psx a livello grafico:D
qui abbiamo le bestie da calcoli atomici con la serie 4xxx, pero' bisognera' accendere un mutuo...:sofico:

ultimate trip
22-09-2022, 14:09
in pratica in passato nvidia con la 3080 ci ha fatto un regalo incredibile, visto che ha dato il chip derivato dal full per poco piu' di 700euro,......

non scordiamoci che fino a 6 mesi fa a 700 l'han presa in pochi, tutti gli altri dai 1000 ai 2000

thunderforce83
22-09-2022, 14:12
non scordiamoci che fino a 6 mesi fa a 700 l'han presa in pochi, tutti gli altri dai 1000 ai 2000

io personalmente questa trio l ho pagata 1000 a novembre 2020...e per prenderla mi sono dovuto iscrivere ai canali telegram con i bot, cct e tacci loro inclusi:D
l'ho dovuta letteralmente strappare, mettendola in tempi record nel carrello ed acquistandola a tempo di 3 secondi...ma prima avevamo mining e scalper contro, adesso abbiamo proprio contro nvidia:rolleyes:

DJurassic
22-09-2022, 14:15
Sto morendo :asd:

https://www.youtube.com/watch?v=0frNP0qzxQc&list=FL9YyRlrjGAKC1CvjHapLMUQ&index=1


https://i.ibb.co/njfZyYN/wr32342.png

mat0109
22-09-2022, 14:16
non scordiamoci che fino a 6 mesi fa a 700 l'han presa in pochi, tutti gli altri dai 1000 ai 2000

Si ho fatto lo stesso pensiero, 6-7 mesi fà se prendevi una 3080 liscia a 1300 euro eri felice ora sembra che siano lammerda di scheda e la gente a momenti la svende haha:help:

no_side_fx
22-09-2022, 14:17
Anche per questo non lo giochero' mai:D sti giapponesi sono rimasti proprio indietro...secondo me sono ancora a livello della psx a livello grafico:D

mah non vuoi giocare al gioco migliore uscito negli ultimi anni solo per laa questione dei 60 frames
per quanto se ne dica
la priorità dell'industria videoludica è ed è sempre stata la console, il pc è sempre stato messo in secondo piano basta vedere le pessime conversioni che propinano ogni volta, si sta qua a pensare al DLSS 3 ma gli sviluppatori se ne fregheranno abbastanza come è successo fino adesso

lordsnk
22-09-2022, 14:17
Ah si ? voglio vedere quanti qui dentro hanno un monitor decente 4k o una tv con hdmi 2.1 :D forse siamo in 10 fra tutti i 200 che commentano :confused: :mc:

Mi dispiace ma non hai il punto di vista corretto. :D
Ora ti spiego :)
Nvidia è un multinazionale che non vende in Italia, ma vende in tutto il MONDO.
Per mondo è da intendere i mercati più importanti ovvero USA, JAP, TWN, CAN, AUS, UK, GER (escludo Cina ed India perché sono mercati a parte).
In questi paesi nella maggior parte delle case sono presenti più TV a 4k e ci sono una marea di canali televisivi in 4K.
Inoltre in USA e JAP stanno sperimentando i canali in 8K.
Quindi come puoi vedere lo standard per il mondo è 4K.
Dobbiamo smettere di avere come punto di riferimento l'Italia perché il nostro paese, da un punto di vista di sviluppo tecnologico, è da terzo mondo. :muro:
Solo nel 2022 siamo passati al DVB-T2 e i canali nazionali trasmettono con un bitrate osceno e non utilizzano audio multicanale, mentre nel resto del mondo la norma è la qualità che in Italia abbiamo con Sky 4k. ;)
Mi fermo qui visto che siamo OT, ma ci sarebbe molto ancora da dire :D

devAngnew
22-09-2022, 14:18
Capito, se serve per far tornare le fascia di mercato standard, ben venga.



Ce ne vuole a far passare tutti i giocatori su 1060 o schede analoghe a giocare in cloud, dove le variabili sono numerose e le problematiche sui costi/consumi delle server farm divenute problemi attuali.

Per ora comunque anche "accontentarsi" delle 3XXX vuol dire poco, chi è cliente tipo della 1060, magari l'ha comprata a 250 euro.

Oggi a 250 euro non esiste niente che riguardi il mercato GPU, a parte i waterblock EK :asd:



Prezzi dei wafer a parte, resta il punto che stanno facendo sparire le fasce di mercato del gaming su pc al di fuori della medio/alta/altissima/estrema.

Magari a 250 qualche rtx 2000 usata la trovano, mentre ora le 3000 sono rivolte a noi ex entusiasta incaz zati che non vogliamo superare i 1000 :sofico:

Predator_1982
22-09-2022, 14:21
non scordiamoci che fino a 6 mesi fa a 700 l'han presa in pochi, tutti gli altri dai 1000 ai 2000

da allora ad oggi...il mondo è cambiato, in peggio. Con questo non voglio dire che siano prezzi giusti per giocare o poco più, ma cosa vuoi farci.

devil_mcry
22-09-2022, 14:21
https://www.techpowerup.com/299148/amd-cuts-msrps-of-radeon-rx-6000-series-graphics-cards

6950 o 6900 e passa la paura

mat0109
22-09-2022, 14:24
Mi dispiace ma non hai il punto di vista corretto. :D
Ora ti spiego :)
Nvidia è un multinazionale che non vende in Italia, ma vende in tutto il MONDO.
Per mondo è da intendere i mercati più importanti ovvero USA, JAP, TWN, CAN, AUS, UK, GER (escludo Cina ed India perché sono mercati a parte).
In questi paesi nella maggior parte delle case sono presenti più TV a 4k e ci sono una marea di canali televisivi in 4K.
Inoltre in USA e JAP stanno sperimentando i canali in 8K.
Quindi come puoi vedere lo standard per il mondo è 4K.
Dobbiamo smettere di avere come punto di riferimento l'Italia perché il nostro paese, da un punto di vista di sviluppo tecnologico, è da terzo mondo. :muro:
Solo nel 2022 siamo passati al DVB-T2 e i canali nazionali trasmettono con un bitrate osceno e non utilizzano audio multicanale, mentre nel resto del mondo la norma è la qualità che in Italia abbiamo con Sky 4k. ;)
Mi fermo qui visto che siamo OT, ma ci sarebbe molto ancora da dire :D

Eh si bello, PECCATO che si stava parlando di mercato pc e TI ASSICURO che il 4k ha una diffusione bassisima, se sai l'inglese ti invito ad andare a visitare altri forum e te ne accorgerai da solo... e poi pensa che stup1d1n1 quelli di lg ad avviare tutta una serie di nuovi MONITOR ULTRAGEAR con il focus sul full hd e il 1440p proprio negli anni in cui tu dici: '' il 4k è lo standard mondiale gne gne gne'' senza capire che stiamo parlando di pc e di gioco su pc e non di tv e di trasmissioni tv ....

narniagreen
22-09-2022, 14:25
Purtroppo, ma dovranno recensirle.:)

Non ce l'ho con nessuno, io discuto con tutti, come vedi e dico la mia.:)
Però tu essendo un utente iscritto sicuramente, stai utilizzando un altro nick, perchè non hai il coraggio di fare una critica, senza metterci il nome.
L'ultima volta che ci ho messo la faccia e vi ho smontavo l'hype sulle rtx2000 e il ray tracing marchetta (quelle che poi dopo 2 anni sono diventate architettura beta, te le ricordi?) mi hanno bannato :banned:
Ecco, oggi ti piazzano un x60ti/70 a 1100€ ivati, ora compratela però altrimenti ci si rimangia tutto quello che dicevate 4 anni fa, ma c'è chi vede avanti.

Se tu mi dici chi sei, io ti rispondo amichevolmente, però a quel punto, potrei pure anche io clonarmi e fare letteralmente a pezzi chiunque, visto tutto quello che so qua dentro.:) Ma mai lo farò:) facile fare così...

per il resto natural, ed anche li ne avrei da dire su certi.:p
Ahia però, dai blink sei passato a mettere 5 smile...

No dai però non è bella la parte in grassetto da dire, Cringe su, ma del resto il tuo ego ti ha sempre preceduto :sofico:

Ciao Guru ;)

thunderforce83
22-09-2022, 14:28
mah non vuoi giocare al gioco migliore uscito negli ultimi anni solo per laa questione dei 60 frames
per quanto se ne dica
la priorità dell'industria videoludica è ed è sempre stata la console, il pc è sempre stato messo in secondo piano basta vedere le pessime conversioni che propinano ogni volta, si sta qua a pensare al DLSS 3 ma gli sviluppatori se ne fregheranno abbastanza come è successo fino adesso

Non lo gioco sopratutto perche' non amo i souls,
pero' e' innegabile che a livello di grafica questo genere lascia molto a desiderare...avere queste schede oggi (3xxx e tra poco 4xxx) e non sfruttarle e' veramente un peccato non credi?
L'occhio vuole la sua parte, anche se e' innegabile che sara' un gioco bellissimo per chi ama il genere:)

amon.akira
22-09-2022, 14:32
L'ultima volta che ci ho messo la faccia...
...mi hanno bannato :banned:

quoto :sofico:

devAngnew
22-09-2022, 14:38
E manca ancora la 4090ti da 600 watt, SEICENTO a 2000$ + iva. :sofico:

.

Vedo che sei ottimista :sofico:

lordsnk
22-09-2022, 14:40
Eh si bello, PECCATO che si stava parlando di mercato pc e TI ASSICURO che il 4k ha una diffusione bassisima, se sai l'inglese ti invito ad andare a visitare altri forum e te ne accorgerai da solo... e poi pensa che stup1d1n1 quelli di lg ad avviare tutta una serie di nuovi MONITOR ULTRAGEAR con il focus sul full hd e il 1440p proprio negli anni in cui tu dici: '' il 4k è lo standard mondiale gne gne gne'' senza capire che stiamo parlando di pc e di gioco su pc e non di tv e di trasmissioni tv ....

Io collego il mio pc anche sulla TV 55" 4k HDR Oled e ti posso assicurare che non c'è monitor che tenga come qualità visiva :D
Se poi per te PC = solo monitor non sai cosa ti perdi :D
Chiudo qui l'OT.

narniagreen
22-09-2022, 14:40
Vedo che sei ottimista :sofico:

Nvidia vuole fare concorrenza alla Apple e al 14 pro max 1TB :sofico:

Maury
22-09-2022, 14:42
Le tv 4k adatte a giocare e dedicate a giocare siamo in 4 gatti ad averle, non diciamo cose a caso suvvia. La gente sta piangendo per le schede a 1400 euro di listino figurati se si compra pure altri 1200 euro di tv adeguata.

Il mio pc è attaccato al TV, LG OLED C1, i soldi meglio spesi degli utlimi anni. In game fa paura, consiglio veramente di investire una buona cifra in un Tv serio, ti cambia la prospettiva, cosa che un monitor non fa.

D4N!3L3
22-09-2022, 14:44
Qualcuno conosce il Phanteks 719, lì ci starebbe una 4090? :confused:

Non trovo info da nessuna parte nei dettagli tecnici. :mbe:

no_side_fx
22-09-2022, 14:50
pero' e' innegabile che a livello di grafica questo genere lascia molto a desiderare...avere queste schede oggi (3xxx e tra poco 4xxx) e non sfruttarle e' veramente un peccato non credi?

più che altro è from software che per grafica non si mai sprecata più di tanto anche nei titoli precedenti ma non vale per tutte le case jappo, bandai namco già si spreca un po' di più :D

per il resto sono d'accordo ma finché fanno le conversioni da console con il copia-incolla + aggiunta di qualche effettino in più è inutile che ci propinano gpu da 2k

no_side_fx
22-09-2022, 14:52
Il mio pc è attaccato al TV, LG OLED C1, i soldi meglio spesi degli utlimi anni. In game fa paura, consiglio veramente di investire una buona cifra in un Tv serio, ti cambia la prospettiva, cosa che un monitor non fa.

concordo fatto la stessa cosa

mircocatta
22-09-2022, 14:52
Si ho fatto lo stesso pensiero, 6-7 mesi fà se prendevi una 3080 liscia a 1300 euro eri felice ora sembra che siano lammerda di scheda e la gente a momenti la svende haha:help:

e poi ci sono io che sono riuscito a recuperare quella bestiolina che ho in firma a 800€ e 2 giorni fa ho tirato un bel sospiro di sollievo :sofico:

D4N!3L3
22-09-2022, 15:02
Hai un massimo di 50 centimetri, ci stanno tutte

Se ci metto gli hard disk o il radiatore lo spazio diminuisce.

Io ho un radiatore da 280 più le ventole.

FrancoBit
22-09-2022, 15:03
Se ci metto gli hard disk o il radiatore lo spazio diminuisce.

Io ho un radiatore da 280 più le ventole.

Ventole sono spesse 25mm, radiatore dipende, magari misuralo. comunque dovresti starci, in caso degli hard disk già cambia se c'è una gabbietta o cosa... Comunque è un case enorme non credo avrai problemi

Alekos Panagulis
22-09-2022, 15:06
Anche per questo non lo giochero' mai:D sti giapponesi sono rimasti proprio indietro...secondo me sono ancora a livello della psx a livello grafico:D


Saranno anche rimasti indietro sull'aspetto tecnico, ma su tutto il resto sono anni luce avanti ai vari cinepanettoni tutti uguali che Ubisoft, Activision, EA e compagnia cantante propongono da anni. ;)

Goofy Goober
22-09-2022, 15:07
Magari a 250 qualche rtx 2000 usata la trovano, mentre ora le 3000 sono rivolte a noi ex entusiasta incaz zati che non vogliamo superare i 1000 :sofico:

Purtroppo un mercato come quello del gioco su pc non si regge sulle usate (che finiscono in tempi brevissimi), e se il nuovo diktak è quello di aumentare sempre di prezzo ad ogni lancio, tutto quanto si andrà a restringere nell'arco di pochi anni salvo concorrenti che lasciano aperta la piazza a chi vuole giocare su pc spendendo poco, o comunque, molto meno di quanto prospetta Nvidia.

Le 3XXX non sappiamo nemmeno per quanto ancora saranno vendute (non prodotte...), se solo a fine scorta o dopo, rebrandate magari.

Comunque ora che hanno sepolto definitivamente l'NVLink anche sulla 4090, magicamente riusciranno a dire che è normale che una gpu di oggi occupi lo spazio di 2 di ieri, tanto lo SLI non si può più fare :asd:

mat0109
22-09-2022, 15:08
Il mio pc è attaccato al TV, LG OLED C1, i soldi meglio spesi degli utlimi anni. In game fa paura, consiglio veramente di investire una buona cifra in un Tv serio, ti cambia la prospettiva, cosa che un monitor non fa.

Concordo al 100% anche io sono su un c1 da 48 e prima ero su un c9 da 55, vorrei tanto il c2 da 42 ma attendo il balck friday.

parcher
22-09-2022, 15:10
ma quella >E'< L'IGNOTA..

RT AMD=chiodo :D

io ancora sono indeciso...ma so che giorno 12, puntale alle 6, sarò sul WC

Della serie tentar ancora non nuoce ? ... presi la Zotac 3080 al dayone da Next.. :sofico:

Goofy Goober
22-09-2022, 15:10
Io se non avessi i soldi non comprerei mai una console lo stesso. Infatti da giovane, quando non avevo i soldi, sono sempre rimasto a pc nonostante c'era la play 1 e 2 e mai presa.


Nell'hobby del videogioco (e non in quello di hardware/costruttore/smaettone di PC) ho sempre dato priorità al gioco che mi interessava e praticamente mai alla piattaforma.
Mai rinuncerei ad un gioco solo perchè gira su console. Di contro raramente è capitato di dover affrettare l'acquisto di pc o parti di esso a causa di un esclusiva PC... Ricordo i tempi di HL2 e Doom3 e dei prima quando uscivano i giochi a cavallo degli aggiornamenti DirectX, li si che qualche gpu "d'urgenza" l'avevo cambiata.

Questione di priorità nei passatempi preferiti :D

mikael84
22-09-2022, 15:18
L'ultima volta che ci ho messo la faccia e vi ho smontavo l'hype sulle rtx2000 e il ray tracing marchetta (quelle che poi dopo 2 anni sono diventate architettura beta, te le ricordi?) mi hanno bannato :banned:
Ecco, oggi ti piazzano un x60ti/70 a 1100€ ivati, ora compratela però altrimenti ci si rimangia tutto quello che dicevate 4 anni fa, ma c'è chi vede avanti.

Ahia però, dai blink sei passato a mettere 5 smile...

No dai però non è bella la parte in grassetto da dire, Cringe su, ma del resto il tuo ego ti ha sempre preceduto :sofico:

Ciao Guru ;)

Perchè, quando mai sono stato scorbutico con voi, abbiamo scritto centinaia di pagine su architetture, sempre in maniera pacifica. Con alcuni mi sentivo spesso pure in PVT.:)
Su JHH come vedi, sono il primo a farli battaglia, e gli ho comprato l'unica scheda con il prezzo e performance migliore, non certo la TI, neanche un ampere.

Io ripeto, come vedi discuto con tutti.
Pensa però se io andassi in altri lidi (frequento questo e basta, ma qualcosa ho visto) e mi mettessi a lurkare alcuni come finirebbe, con nick fasulli...potrei farlo, ma a me che me ne importa.:p
Il fatto è che molti si creano cloni, per attaccare qualcuno, quando sono già iscritti, perchè hanno paura di metterci la faccia.;)

Sul mio ego, si, tra kopite e me, la differenza è che io la microarchitettura l'ho presa, conoscendo il funzionamento delle unità interne. Kopite e le riviste no. La micro ampere, neppure in beyond la conoscono, compreso lo scorporo int. Tutto questo, chiamalo ego...io lo chiamo discutere con voi, infatti molti mi ringraziano per questo. Potevo aprirmi siti e guadagnare, invece quello che so, lo spiego a tutti, e nello stesso tempo, imparo da voi, per questo sto qua.

Poi che uno con un post, venga a dirmi, si ma avevi scritto 4070 a 599$, beh, se potessi prevedere completamente il futuro, avrei vinto al lotto, aperto un'azienda e preso voi a lavorare ad un progetto, tanto peggio di Koduri non puoi fare.:asd: :asd: scherzo.:)

AceGranger
22-09-2022, 15:19
Concordo su tutto.
Inoltre proprio ieri sono usciti i grafici, ed ha fatto praticamente un 1:1 con ampere, in fase di calcolo, smontando i tensor dell'HPC e mettendoli sulle gaming.
L'unica sua fortuna, aver avuto un PP che gli ha permesso molto clock.
Che proprio lui si lamenti del prezzo dei wafer, fa davvero ridere.

La situazione avrà sicuramente ripercussioni.
Spero che già le testate siano severe.

a me quello che fa un po storcere il naso è l'assenza dell'nVlink sulla 4090, anche sulla nuova Quadro 6000 non lo hanno messo; magari se lo tengono per la 4090Ti e la Quadro 8000.



Inoltre proprio ieri sono usciti i grafici, ed ha fatto praticamente un 1:1 con ampere, in fase di calcolo, smontando i tensor dell'HPC e mettendoli sulle gaming.


ho perso il filo, intendi che la parte CUDA core è identica Ampere, ne hanno aumentato il numero e messo i nuovi Tensor ?

Lato GPGPU il salto dovrebbe essere un vero 2X

D4N!3L3
22-09-2022, 15:27
Misura e vedi un pó, la Fe é lunga 30cm, le custom arrivano fino a 36 ho visto.

Ci sto io e non ci stai tu? Con un Evolv X, avendo davanti un radiatore da 280mm piú ventole ho ancora 37cm disponibili.

Poi certo se hai la gabbia hdd lo spazio diminuisce notevolmente..

Gli HDD ho visto che li puoi montare anche sotto o più in alto.

Di dischi duri ne ho solo 3, poi ho 4 SSD SATA, ma quelli non sono un problema.

Dovrei starci senza montare le gabbie degli HDD.

La cosa che mi rogna è che perdo la baia hotswap per hdd e ssd che ora ho inclusa nel case. Il punto è che la uso pure parecchio. Ma non trovo più un case che ce l'abbia.

piperprinx
22-09-2022, 15:32
Il mio pc è attaccato al TV, LG OLED C1, i soldi meglio spesi degli utlimi anni. In game fa paura, consiglio veramente di investire una buona cifra in un Tv serio, ti cambia la prospettiva, cosa che un monitor non fa.

Sono al quarto oled LG usato 70% gaming e 30% streaming serie tv.
Piuttosto che tornare su un monitor smetto di giocare.

Maury
22-09-2022, 15:33
concordo fatto la stessa cosa

Concordo al 100% anche io sono su un c1 da 48 e prima ero su un c9 da 55, vorrei tanto il c2 da 42 ma attendo il balck friday.

Il C1 (55 nel mio caso) ha la goduria del Gsync, quindi nVidia mi ha leggermente per le pa@@@ :cry: , non parliamo poi dell'HDR che ha... :)

Sono al quarto oled LG usato 70% gaming e 30% streaming serie tv.
Piuttosto che tornare su un monitor smetto di giocare.

Quoto

Maury
22-09-2022, 15:37
Guarda ho il c1 pure io e lo uso con una 6900xt e ha anche il freesync che funziona da dio.

Questa è una buona notizia... vai Lisaaaa :sofico:

mikael84
22-09-2022, 15:37
Grazie per l'ammirazione :D ma che pc era? Quello con lo SLI di Titan? Bei tempi :asd:

Comunque la curiosità è mia vedere tutto il mercato composto di oggi gama con la 1060 o altre schede da 250/300 euro, cosa farà tra un po' di anni.
Io propendo per un megashrink e quote mangiate a legno da prodotti come steam deck, visti i prezzi altrove.
Oppure rivoluzione di AMD/Intel con metodologie a me oscure. Non mi spiacerebbe.

p.s.
sono figlio di sommelier, non mi parlare di vino ai pasti che è un degrado :asd:



Vero, e tolto l'HDR, io mi sono tenuto apposta il vecchio 55" oled del 2014 a 1080p per continuare a giocarci quando in 4K su 65" non ce la si fa, tanto a metri di distanza i miei malconci occhi (5.5 diottrie perse per strada) rendono tutto sempre magnifico :asd:


Si quello con le Titan, noi poveracci all'epoca con la 780 liscia.:p
Ma infatti, io faccio parte di uno che 7-800 euro, ce li spende pure se ne ha l'occasione, ma la fascia bassa di questo passo sparirà del tutto.
Può essere un bene per Intel, forse.

a me quello che fa un po storcere il naso è l'assenza dell'nVlink sulla 4090, anche sulla nuova Quadro 6000 non lo hanno messo; magari se lo tengono per la 4090Ti e la Quadro 8000.




ho perso il filo, intendi che la parte CUDA core è identica Ampere, ne hanno aumentato il numero e messo i nuovi Tensor ?

Lato GPGPU il salto dovrebbe essere un vero 2X

L'avevo sempre pensato ad una carognata così, sai perchè? Con la doppia densità può creare la 4090ti da 48gb in clamshell, ed ho sempre avuto il presentimento che ne facesse un cavallo di battaglia per i pro.
Una scusa per venderti a margine la 4090ti o la relativa quadro.

Sul 1:1 si, puoi vedere qua:
https://cdn.videocardz.com/1/2022/09/NVIDIA-AD102-GPU-vs-GA102-1-850x612.jpg

Addirittura la l1 è rimasta invariata, con FP ed INT condivisi nel primo datapath.
i tensor invece, oltre al numero ed al clock, hanno raddoppiato le OPS, quindi è come se fossero 2 quelli Ampere.
Con il 2 Ampere, clock, e numero quasi 2x, ha ottenuto quel valore li in FP16.

Quindi qua tanta roba, un'abisso.

Sulle perf GPGPU, si sfrutta principalmente clock e cuda più numerosi. Sono schede che dovrebbero boostare tra i 2800 e 2700 stock:)

narniagreen
22-09-2022, 15:41
Perchè, quando mai sono stato scorbutico con voi, abbiamo scritto centinaia di pagine su architetture, sempre in maniera pacifica. Con alcuni mi sentivo spesso pure in PVT.:)
Su JHH come vedi, sono il primo a farli battaglia, e gli ho comprato l'unica scheda con il prezzo e performance migliore, non certo la TI, neanche un ampere.

Io ripeto, come vedi discuto con tutti.
Pensa però se io andassi in altri lidi (frequento questo e basta, ma qualcosa ho visto) e mi mettessi a lurkare alcuni come finirebbe, con nick fasulli...potrei farlo, ma a me che me ne importa.:p
Il fatto è che molti si creano cloni, per attaccare qualcuno, quando sono già iscritti, perchè hanno paura di metterci la faccia.;)

Sul mio ego, si, tra kopite e me, la differenza è che io la microarchitettura l'ho presa, conoscendo il funzionamento delle unità interne. Kopite e le riviste no. La micro ampere, neppure in beyond la conoscono, compreso lo scorporo int. Tutto questo, chiamalo ego...io lo chiamo discutere con voi, infatti molti mi ringraziano per questo. Potevo aprirmi siti e guadagnare, invece quello che so, lo spiego a tutti, e nello stesso tempo, imparo da voi, per questo sto qua.

Poi che uno con un post, venga a dirmi, si ma avevi scritto 4070 a 599$, beh, se potessi prevedere completamente il futuro, avrei vinto al lotto, aperto un'azienda e preso voi a lavorare ad un progetto, tanto peggio di Koduri non puoi fare.:asd: :asd: scherzo.:)

Ma mi avete fatto fuori, bannato, perchè 4 anni fa vi dicevo che RT era una buffonata per alzare i prezzi, oggi ne pagate le conseguenze, anzi le paghiamo noi proletari che abbiamo una famiglia da sfamare, perchè chi ha i soldi le comprerà lo stesso, e non ci ho più potuto parlare qua dentro, anche riprovando a fare account seri per un anno di fila...
Ora erano 2 anni che non facevo un account instant giusto per trollare un attimo e farmi due risate, perchè ste 4000 solo trollarle si può fare, pure 3dcenter si è messa a trollare Nvidia su twitter, "narniagreen" non è mica a caso come nick.

A parte questa premessa, io ho mollato forum schede tecniche, processi e di capirci qualcosa seriamente dopo che ho visto a fine 2020 lo schifo che hanno fatto, AMD compresa, tra shortage, mining e le cifre folli, per cosa poi, giocare a Minecraft o Doom?
la nausea proprio...

In Questi 4 anni ho giocato di tutto, molti titoli lasciati indietro, pensa pure a Control anche se i riflessi come li facevano una volta non ce li hanno voluti mettere per fare marketta, e tutt'ora mi godo il mio volante t300 con la t3pm in Assetto Corsa a 60fps in QHD con quella chiavica di Vega56 comprata a 300€... ops :sofico:

Pensa che scemo che sono ;)

Beh scusami tanto, ma invece di impermalosirti potresti dire "ho sbagliato" se in diversi te lo fanno notare, e se mi riportano alcune tue uscite dove tutto è il contrario di tutto, forse non è così campata in aria come cosa eh...

Cutter90
22-09-2022, 15:43
Ma mi avete fatto fuori, bannato, perchè 4 anni fa vi dicevo che RT era una buffonata per alzare i prezzi, oggi ne pagate le conseguenze, anzi le paghiamo noi proletari che abbiamo una famiglia da sfamare, perchè chi ha i soldi le comprerà lo stesso, e non ci ho più potuto parlare qua dentro, anche riprovando a fare account seri per un anno di fila...
Ora erano 2 anni che non facevo un account instant giusto per trollare un attimo e farmi due risate, perchè ste 4000 solo trollarle si può fare, pure 3dcenter si è messa a trollare Nvidia su twitter, "narniagreen" non è mica a caso come nick.

A parte questa premessa, io ho mollato forum schede tecniche, processi e di capirci qualcosa seriamente dopo che ho visto a fine 2020 lo schifo che hanno fatto, AMD compresa, tra shortage, mining e le cifre folli, per cosa poi, giocare a Minecraft o Doom?
la nausea proprio...

In Questi 4 anni ho giocato di tutto, molti titoli lasciati indietro, pensa pure a Control anche se i riflessi come li facevano una volta non ce li hanno voluti mettere per fare marketta, e tutt'ora mi godo il mio volante t300 con la t3pm in Assetto Corsa a 60fps in QHD con quella chiavica di Vega56 comprata a 300€... ops :sofico:

Pensa che scemo che sono ;)

Beh scusami tanto, ma invece di impermalosirti potresti dire "ho sbagliato" se in diversi te lo fanno notare, e se mi riportano alcune tue uscite dove tutto è il contrario di tutto, forse non è così campata in aria come cosa eh...

Scusa, non so chi tu sia, ma nessuno tutt'ora si permetterebbe di dire che il RT è una buffonata. Quali conseguenze? MA di che parli? Preferivi stare in raster per sempre senza alcun tipo di progresso grafico? MA lol

mat0109
22-09-2022, 15:47
Scusa, non so chi tu sia, ma nessuno tutt'ora si permetterebbe di dire che il RT è una buffonata. Quali conseguenze? MA di che parli? Preferivi stare in raster per sempre senza alcun tipo di progresso grafico? MA lol

Cutter ma tu in altri lidi ti chiami IL robottino ? hai un gemello che scrive e si comporta in maniera IDENTICA a te. AHA :read:

Cutter90
22-09-2022, 15:48
Cutter ma tu in altri lidi ti chiami IL robottino ? hai un gemello che scrive e si comporta in maniera IDENTICA a te. AHA :read:

Mmm direi di no ahahaha

Raven
22-09-2022, 15:51
Che poi parliamoci chiaro, i processori non si sente la necessità di cambiarli ad ogni gen, ora se ne può saltare tranquillamente anche due alla volta vedi i vari i9 9900k o 10900k non è che oggi facciano cosi schifo.

Hold my i7-3770k @4.5Ghz :O


:sofico:

AceGranger
22-09-2022, 15:52
L'avevo sempre pensato ad una carognata così, sai perchè? Con la doppia densità può creare la 4090ti da 48gb in clamshell, ed ho sempre avuto il presentimento che ne facesse un cavallo di battaglia per i pro.
Una scusa per venderti a margine la 4090ti o la relativa quadro.


si che la mettessero solo sulla GPU di Punta ( si spera ) un po era prevedibile, andando gia di raddoppio della Vram si sarebbero fregati con la prossima generazione.


Sulle perf GPGPU, si sfrutta principalmente clock e cuda più numerosi. Sono schede che dovrebbero boostare tra i 2800 e 2700 stock:)

qui è molto buono, gia con al scorsa generazione si era arrivati al punto che una 3090Ti era preferibile un Threadripper 64 core ( il TOP delle CPU in questi ambiti ), con questa generazione ci sara un sorpasso netto; se uno usa un motore di render CUDA RTX converra di gran lunga investire sulla GPU invece che sulla CPU.

amon.akira
22-09-2022, 15:53
Ora erano 2 anni che non facevo un account instant giusto per trollare un attimo e farmi due risate

ci risentiamo alle 5000 nel 2024 allora, quanto tempo pensi di restare? fino al 12ottobre o aspetti il 3novembre per scomparire? :asd:

Scusa, non so chi tu sia, ma nessuno tutt'ora si permetterebbe di dire che il RT è una buffonata. Quali conseguenze? MA di che parli? Preferivi stare in raster per sempre senza alcun tipo di progresso grafico? MA lol

è un personaggio che si è quasi estinto come il raster... "i riflessi come li facevano una volta" XD

narniagreen
22-09-2022, 15:55
Scusa, non so chi tu sia, ma nessuno tutt'ora si permetterebbe di dire che il RT è una buffonata. Quali conseguenze? MA di che parli? Preferivi stare in raster per sempre senza alcun tipo di progresso grafico? MA lol

Quali conseguenze: per pagare questo progresso siamo passati da una 1060/580/1070 che costavano 250/350€ a ~1000€ con la prossima Gen

No grazie.

Il progresso poi, spesso hanno fatto tagli forzati per far apparire il ray tacing NECESSARIO ad oggi, quando prendi un Half life 2 o Bioshock di 20 o 15 anni fa si facevano cose già notevoli a 1 decimo della potenza richiesta, spreco immane di risorse come schede con TDP e consumi raddoppiati, ma poi lo spazio, l'ITX un bel ricordo se vuoi roba seria.

Come fai a non capire che RT è stato buttato sul mercato così acerbo e tutto per venderti un prodotto nuovo dicendoti che è necessaria più potenza?

Ci sono diverse SH che hanno rinunciato a implementarlo, per esempio ACC.

mat0109
22-09-2022, 15:55
Hold my i7-3770k @4.5Ghz :O


:sofico:

No ecco non esageriamo, cioè se parliamo di un i9 o comunque un processore da 5-600 euro è un conto, si prendi un i7 pre 8 core ecco allora no. :mc:

AceGranger
22-09-2022, 15:56
Scusa, non so chi tu sia, ma nessuno tutt'ora si permetterebbe di dire che il RT è una buffonata. Quali conseguenze? MA di che parli? Preferivi stare in raster per sempre senza alcun tipo di progresso grafico? MA lol

cosi a naso credo sia il buon caro vecchio Gridracedriver :ubriachi:

narniagreen
22-09-2022, 15:57
ci risentiamo alle 5000 nel 2024 allora, quanto tempo pensi di restare? fino al 12ottobre o aspetti il 3novembre per scomparire? :asd:



è un personaggio che si è quasi estinto come il raster... "i riflessi come li facevano una volta" XD

Se mi chiede il motivo gli rispondo.

e invece pensa, giocate coi riflessi belli usando upscaler che fino a pochi mesi fa era roba da nabbo consolaro...

thunderforce83
22-09-2022, 15:58
più che altro è from software che per grafica non si mai sprecata più di tanto anche nei titoli precedenti ma non vale per tutte le case jappo, bandai namco già si spreca un po' di più :D

per il resto sono d'accordo ma finché fanno le conversioni da console con il copia-incolla + aggiunta di qualche effettino in più è inutile che ci propinano gpu da 2k
perfettamente d'accordo:)

Saranno anche rimasti indietro sull'aspetto tecnico, ma su tutto il resto sono anni luce avanti ai vari cinepanettoni tutti uguali che Ubisoft, Activision, EA e compagnia cantante propongono da anni. ;)

in effetti ultimamente giochi di spessore non c'e' ne sono... aspettiamo speranzosi elder scroll 6, diablo 4 ed altri titoli che valga la pena di giocare a 120fps, magari con una 4090 presa a prezzo di saldo:D

narniagreen
22-09-2022, 15:58
cosi a naso credo sia il buon caro vecchio Gridracedriver :ubriachi:

Mica era difficile capirlo, l'ho scritto in ogni post chi fossi.

mikael84
22-09-2022, 15:59
Ma mi avete fatto fuori, bannato, perchè 4 anni fa vi dicevo che RT era una buffonata per alzare i prezzi, oggi ne pagate le conseguenze, anzi le paghiamo noi proletari che abbiamo una famiglia da sfamare, perchè chi ha i soldi le comprerà lo stesso, e non ci ho più potuto parlare qua dentro, anche riprovando a fare account seri per un anno di fila...
Ora erano 2 anni che non facevo un account instant giusto per trollare un attimo e farmi due risate, perchè ste 4000 solo trollarle si può fare, pure 3dcenter si è messa a trollare Nvidia su twitter, "narniagreen" non è mica a caso come nick.

A parte questa premessa, io ho mollato forum schede tecniche, processi e di capirci qualcosa seriamente dopo che ho visto a fine 2020 lo schifo che hanno fatto, AMD compresa, tra shortage, mining e le cifre folli, per cosa poi, giocare a Minecraft o Doom?
la nausea proprio...

In Questi 4 anni ho giocato di tutto, molti titoli lasciati indietro, pensa pure a Control anche se i riflessi come li facevano una volta non ce li hanno voluti mettere per fare marketta, e tutt'ora mi godo il mio volante t300 con la t3pm in Assetto Corsa a 60fps in QHD con quella chiavica di Vega56 comprata a 300€... ops :sofico:

Pensa che scemo che sono ;)

Beh scusami tanto, ma invece di impermalosirti potresti dire "ho sbagliato" se in diversi te lo fanno notare, e se mi riportano alcune tue uscite dove tutto è il contrario di tutto, forse non è così campata in aria come cosa eh...

Perchè devo dire ho sbagliato? Devo assumermi responsabilità dei commenti sul forum, ma stiamo scherzando, fosse anche tutto il contrario di tutto. E'un forum di discussione a tempo perso. La mia parola vale come quella di tutti. Sbagliano, sapendo di sbagliare le grosse redazioni a dati fatti, ed io dovrei scusarmi per aver pensato ad una x70 a 599.:asd:
Non si è scusato JHH dopo la porcata della 970.:p

Semmai me la prendo un pochino, quando uno si sbatte per fare qualcosa di costruttivo e qualcuno ti rigira le parole. Non pretendevo nessuna 4070 sotto i 500 euro.

Cmq con l'onesta 2070 ho giocato un pò a tutto pure io, anzi... felice di non aver dato un euro a scalper e JHH, e neppure lo farò con questi chippetti, rinominati. :muro:

Andy1111
22-09-2022, 15:59
Sulle perf GPGPU, si sfrutta principalmente clock e cuda più numerosi. Sono schede che dovrebbero boostare tra i 2800 e 2700 stock:)

Il problema di queste schede (oltre al costo ecc ecc) è che sono troppo energivore, e se con le 5000 non cambiano piani, perchè se ti ricordi poco tempo fa si parlava ancora di monolitico , il prossimo salto di nodo sarà un bel problema a livello di consumi e di prestazioni.

Kostanz77
22-09-2022, 16:00
Ma pensare di saltarla sta generazione no?
Prezzi esorbitanti per un parco giochi del piffero, un minimo di riflessione bisognerebbe farsela.


Inviato dal mio iPhone utilizzando Tapatalk Pro

AceGranger
22-09-2022, 16:02
Come fai a non capire che RT è stato buttato sul mercato così acerbo e tutto per venderti un prodotto nuovo dicendoti che è necessaria più potenza?

Ci sono diverse SH che hanno rinunciato a implementarlo, per esempio ACC.


lo ha fatto per prendersi in sicurezza la fascia Pro ed essere in vantaggio dopo; ti ricordi quando tu ti lamentavi della sere 20x0 e io ti dicevo che sarebbero arrivati ad avere un canale diretto fra software Pro e Gaming ? se hai visto la presentazione, Omniverse è esattamente quello che gia si intravvedeva all'epoca; oggi è sicuramente piu semplice creare contenuti e nVidia è praticamente lo standard in campo grafico.
e gia all'epoca di dicevo che la fascia TOP gamma non avrebbe mai piu avuto prezzi buoni per il gaming, perchè il mercato Pro era disposto a spendere di piu e le Quadro alla fine sono usate solo in determinati ambiti e mission Critical.

narniagreen
22-09-2022, 16:03
Perchè devo dire ho sbagliato? Devo assumermi responsabilità dei commenti sul forum, ma stiamo scherzando, fosse anche tutto il contrario di tutto. E'un forum di discussione a tempo perso. La mia parola vale come quella di tutti. Sbagliano, sapendo di sbagliare le grosse redazioni a dati fatti, ed io dovrei scusarmi per aver pensato ad una x70 a 599.:asd:
Non si è scusato JHH dopo la porcata della 970.:p

Semmai me la prendo un pochino, quando uno si sbatte per fare qualcosa di costruttivo e qualcuno ti rigira le parole. Non pretendevo nessuna 4070 sotto i 500 euro.

Cmq con l'onesta 2070 ho giocato un pò a tutto pure io, anzi... felice di non aver dato un euro a scalper e JHH, e neppure lo farò con questi chippetti, rinominati. :muro:

Quindi avevo ragione o no a dire che stava andando tutto a puttane 4 anni fa vedendo l'andazzo di Turing?

Poi sai com'è, per alcuni le priorità cambiano, ma poi anche a comprarle, a cosa si gioca che ne valga veramente la pena...

narniagreen
22-09-2022, 16:05
lo ha fatto per prendersi in sicurezza la fascia Pro ed essere in vantaggio dopo; ti ricordi quando tu ti lamentavi della sere 20x0 e io ti dicevo che sarebbero arrivati ad avere un canale diretto fra software Pro e Gaming ? se hai visto la presentazione, Omniverse è esattamente quello che gia si intravvedeva all'epoca; oggi è sicuramente piu semplice creare contenuti e nVidia è praticamente lo standard in campo grafico.

Ma io lo capisco anche, ma a chi pensa a giocare, che ricordiamolo è un hobby e siamo arrivati veramente a pensare di spegnere la ciabatta del PC quando è spento, ci si compra una Xbox + gamepass e tanti saluti, tanto si upscala pure su PC adesso...

AceGranger
22-09-2022, 16:07
Ma io lo capisco anche, ma a chi pensa a giocare, che ricordiamolo è un hobby e siamo arrivati veramente a pensare di spegnere la ciabatta del PC quando è spento, ci si compra una Xbox + gamepass e tanti saluti, tanto si upscala pure su PC adesso...

ehhh bè, non è un caso che le console vendano cosi tanto... pero oh, vendono bene anche le GPU; anche togliendo il mining che ha fatto disastri, non avrebbero venduto male.

mikael84
22-09-2022, 16:08
si che la mettessero solo sulla GPU di Punta ( si spera ) un po era prevedibile, andando gia di raddoppio della Vram si sarebbero fregati con la prossima generazione.



qui è molto buono, gia con al scorsa generazione si era arrivati al punto che una 3090Ti era preferibile un Threadripper 64 core ( il TOP delle CPU in questi ambiti ), con questa generazione ci sara un sorpasso netto; se uno usa un motore di render CUDA RTX converra di gran lunga investire sulla GPU invece che sulla CPU.

Si considerando che in ambiti pro dovresti pure scalare bene a livello di cuda.
Inoltre anche a livello di matrice è davvero su un altro pianeta, per chi le usa.

mat0109
22-09-2022, 16:08
Ma io lo capisco anche, ma a chi pensa a giocare, che ricordiamolo è un hobby e siamo arrivati veramente a pensare di spegnere la ciabatta del PC quando è spento, ci si compra una Xbox + gamepass e tanti saluti, tanto si upscala pure su PC adesso...

giusto è circa quello che ho fatto io... :muro:

DJurassic
22-09-2022, 16:11
Quali conseguenze: per pagare questo progresso siamo passati da una 1060/580/1070 che costavano 250/350€ a ~1000€ con la prossima Gen

No grazie.

Il progresso poi, spesso hanno fatto tagli forzati per far apparire il ray tacing NECESSARIO ad oggi, quando prendi un Half life 2 o Bioshock di 20 o 15 anni fa si facevano cose già notevoli a 1 decimo della potenza richiesta, spreco immane di risorse come schede con TDP e consumi raddoppiati, ma poi lo spazio, l'ITX un bel ricordo se vuoi roba seria.

Come fai a non capire che RT è stato buttato sul mercato così acerbo e tutto per venderti un prodotto nuovo dicendoti che è necessaria più potenza?

Ci sono diverse SH che hanno rinunciato a implementarlo, per esempio ACC.

Quindi secondo te l'aumento dei prezzi delle nuove GPU è colpa del RT? Non è che forse nel frattempo il mondo è cambiato, c'è una guerra in atto, un inflazione che non si vedeva dal 1985 e una crisi del settore produttivo che ha fatto schizzare i prezzi verso le stelle e che nonostante tutto ha mostrato quanto la gente fosse disposta a pagare pur di avere in casa l'ultimo giocattolo? No dico chiedo per un amico. Dopo tutto quel che abbiam visto era quasi scontato che sarebbe stata la stessa Nvidia a volerci guadagnare di più ed ecco che ha tirato fuori dal cilindro la serie 40xx. Preferisco dare 2000€ a lei piuttosto che allo scalper di turno che di certo non investe nè in ricerca nè in innovazione perchè il suo unico scopo è quello di fare la cresta al consumatore comprando e rivendendo hw a prezzi doppi.

Se per te il fatto che una 1070 costava 350€ mentre oggi le nuove rtx non te le danno a meno di 1000€ è colpa del RT alzo le mani.

Ma poi chi ti obbliga a cambiare GPU? Chi ti obbliga a scegliere Nvidia piuttosto che Amd (o Intel a breve)? Il RT è diventata un opzione fondamentale per godersi un bel gioco?

Questi discorsi senza capo ne coda sono tanto sbagliati quanto divertenti.

Ale55andr0
22-09-2022, 16:13
Io ormai gioco più sull'Oled che sul monitor. Hai perfettamente ragione, anche perchè l'HDR sui monitor ancora fatica a decollare e non è nemmeno lontano parente di quello presente sulle più recenti TV.

ma non si rischia di far danni al pannello con gli HUD fissi dei giochi per ore?

mikael84
22-09-2022, 16:15
Quindi avevo ragione o no a dire che stava andando tutto a puttane 4 anni fa vedendo l'andazzo di Turing?

Poi sai com'è, per alcuni le priorità cambiano, ma poi anche a comprarle, a cosa si gioca che ne valga veramente la pena...

Con Ampere nessuno si sarebbe aspettato tutto quello, dai. Le schede erano pure prezzate bene. Che turing abbia alzato l'asticella è palese, come le TI.
Ora però siamo all'inganno con la 4080 da 12 e 16. Questa situazione gli deve andare tutta di traverso, anche se poi veramente a farne le spese sono gli AIB.

DJurassic
22-09-2022, 16:17
ma non si rischia di far danni al pannello con gli HUD fissi dei giochi per ore?

Assolutamente no. Con i nuovi TV i problemi di burn in sono solo un lontano ricordo. Ora hanno tante di quelle tecnologie atte a prevenire la comparsa di simili fenomeni che puoi stare tranquillo su questo.

AceGranger
22-09-2022, 16:18
Quindi secondo te l'aumento dei prezzi delle nuove GPU è colpa del RT? Non è che forse nel frattempo il mondo è cambiato, c'è una guerra in atto, un inflazione che non si vedeva dal 1985 e una crisi del settore produttivo che ha fatto schizzare i prezzi verso le stelle e che nonostante tutto ha mostrato quanto la gente fosse disposta a pagare pur di avere in casa l'ultimo giocattolo? No dico chiedo per un amico.

Se per te il fatto che una 1070 costava 350€ mentre oggi le nuove rtx non te le danno a meno di 1000€ è colpa del RT alzo le mani.

Ma poi chi ti obbliga a cambiare GPU? Chi ti obbliga a scegliere Nvidia piuttosto che Amd (o Intel a breve)? Il RT è diventata un opzione fondamentale per godersi un bel gioco?

Questi discorsi senza capo ne coda sono tanto sbagliati quanto divertenti.

bè, non è colpa dell'RT in se, nel senso che era un passo a cui si sarebbe arrivati, pero è cristallino che la fascia alta di nVidia si sia alzata di prezzo perchè è andata a prendere tutta quella fascia Pro che non avrebbe mai investito nelle Quadro perchè costavano troppo in rapporto alle prestazioni, ma che invece invece avrebbero investito in una Titan;

Poi con gli anni hanno fatto il circo con i nomi, ma quello che è successo è esattamente quello, hanno incrementato le vendite della fascia alta mettendo dentro hardware e driver Pro;

la serie 20x0 essendo la prima aveva addirittura l'nVlink anche sulla 2080 e 2080Ti e non solo sulla Titan RTX...

sicuramente non è solo questo, è stato un insieme di concause, ma tutto ha giocato la sua parte nel far lievitare i prezzi; le Quadro ora sono veramente GPU studi veramente grossi o usi mission critical, sono arrivate a costare 10K.... tutto il resto dei professionisti, Freelance, ma anche studi di grafica medio grandi, usano tutti le RTX; con 10K della Quadro TOP ti prendi 5 4090, che a naso saranno l'equivalente in prestazioni di tipo 7-8 Threadripper da 64 core....

e ti diro di piu, se prendi anche un portatile con una 3060/3070, oggi, con svariati software riesci a tirare fuori immagini mica da ridere con il fatto che sfrutti l'RTX, roba che fino a nemmeno 3-4 anni fa con un portatile ti svegliavi tutto bagnato.

narniagreen
22-09-2022, 16:20
Quindi secondo te ...cut...
Questi discorsi senza capo ne coda sono tanto sbagliati quanto divertenti.

Certo che no, ma un 3x, NO.
Tutto parte da Turing, e ho anche specificato che AMD è stata al gioco, vedi le 6000, bene il Raster finalmente, il perf/watt, ma male RT e prezzi alti che è il perf/cost la prima cosa che guardo... skippato.

Con Ampere nessuno si sarebbe aspettato tutto quello, dai. Le schede erano pure prezzate bene. Che turing abbia alzato l'asticella è palese, come le TI.
Ora però siamo all'inganno con la 4080 da 12 e 16. Questa situazione gli deve andare tutta di traverso, anche se poi veramente a farne le spese sono gli AIB.

Io ci spero, ma hai presente quanti vanno in negozio o al centro commerciale a comprare il PC Nvidia perchè "è un Nvidia" con dentro la 4080-12GB 2x del suo vero prezzo?

ecco, l'utenza forum sgamata che lo sa è una goccia, basta solo leggere multiplayer et simila...

Maury
22-09-2022, 16:20
ma non si rischia di far danni al pannello con gli HUD fissi dei giochi per ore?

No, nessun pericolo, non sono più gli oled di prima generazione, hanno l'impossibile per ovviare al problema.

craesilo
22-09-2022, 16:20
E il problema è che son sicuro che AMD gli andrà dietro con prezzi/prestazioni come ha sempre fatto la nipotina.

non per essere complottista ma trovo quasi impossibile che jen non sappià già a grandi linee cosa tirerà fuori amd e a quanto, a meno che i magazzini siano vuoti di amd e pieni solo di 3000

Ale55andr0
22-09-2022, 16:21
https://www.techpowerup.com/299148/amd-cuts-msrps-of-radeon-rx-6000-series-graphics-cards

6950 o 6900 e passa la paura

"Male", una 6900xt a 699 vuol dire che le 7000 costeranno un rene e mezzo pure loro...

mikael84
22-09-2022, 16:25
Il problema di queste schede (oltre al costo ecc ecc) è che sono troppo energivore, e se con le 5000 non cambiano piani, perchè se ti ricordi poco tempo fa si parlava ancora di monolitico , il prossimo salto di nodo sarà un bel problema a livello di consumi e di prestazioni.

Infatti se ricordi bene, un capoccione AMD ammise che la situazione non migliorerà anzi.
I 20A forse li avrà Intel, TSMC al massimo li potrà fornire con la serie 6000.
Ora l'unica soluzione sono i 3nm, moddati per nvidia.

Nvidia dovrà riscrivere in parte la microarchitettura, non potrà andare avanti a shrink, aggiungendo nuovi tensor. Anche nel migliore delle ipotesi i consumi saranno questi.

Attualmente nvidia con il MCM ci sta andando piano, l'ipotesi mono è prevedibile, se il punto di partenza era l'HPC e scontato, bene non è stato così, in quanto i codici riportano tutt'ora un H2 su Hopper.

Da vedere però anche AMD, al momento la GPU è mono, il MCM sta nei collegamenti e cache.
Certo 300mm2 a 5nm non sono padelloni da 600 a 5nm, ma è solo gaming.
Si parla di MCM GPU per competere nel pro e pareggiare le ALU della 4090.

no_side_fx
22-09-2022, 16:29
siamo arrivati veramente a pensare di spegnere la ciabatta del PC quando è spento

io lo faccio sempre :D

DJurassic
22-09-2022, 16:29
bè, non è colpa dell'RT in se, nel senso che era un passo a cui si sarebbe arrivati, pero è cristallino che la fascia alta di nVidia si sia alzata di prezzo perchè è andata a prendere tutta quella fascia Pro che non avrebbe mai preso una Quadro perchè costava troppo in rapporto alle prestazioni, ma che invece invece avrebbe investito in una Titan;

Poi con gli anni hanno fatto il circo con i nomi, ma quello che è successo è esattamente quello, hanno incrementato le vendite della fascia alta mettendo dentro hardware e driver Pro;

la serie 20x0 essendo la prima aveva addirittura l'nVlink anche sulla 2080 e 2080Ti e non solo sulla Titan RTX...

Su questo non ci sono dubbi ma non per questo mi sento perculato o offeso in alcun senso. Semplicemente si sta proponendo un prodotto di fascia altissima che ha un prezzo diciamo importante. Ma non è obbligatorio comprarlo e siamo liberi di rispedirlo al mittente. Starà a Nvidia fare in seguito le sue valutazioni e queste verranno fatte sulla base dei suoi rendiconti finanziari e sulle unità vendute in rapporto alle aspettative. E' scontato dire che se nessuno comprasse le nuove 40xx queste subirebbero un calo nel giro di qualche mese, ma come fai a convincere chi di questa passione di campa o chi magari saltando le precedenti generazioni ora ha racimolato abbastanza grana da permettersi di fare il colpo? L'umanità non ragiona tutta allo stesso modo e per 100 persone che leggendo quei prezzi pensano sia una truffa ce ne sono altrettante che non si pongono il problema.

Io cerco di vedere il bicchiere sempre mezzo pieno. Con l'arrivo delle nuove GPU la serie precedente subirà di conseguenza un calo e già ora sul sito Nvidia sono disponibili le 3090Ti a 1300€ quando solo qualche mese fà era impossibile trovarle e per le custom te ne chiedevano 2 volte tanto. Seppure è vero che l'intendo di Nvidia è quello di piazzare un hw per ogni fascia di prezzo è scontato che la serie 30xx perderà un pò della sua attrattiva e chi magari non ne ha avuto finora la possibilità potrà da domani portarsela a casa senza vendersi un rene.

Predator_1982
22-09-2022, 16:30
"Male", una 6900xt a 699 vuol dire che le 7000 costeranno un rene e mezzo pure loro...

Beh certo, AMD non è di sicuro una Onlus :D (Ryzen 5000 docet)

Cutter90
22-09-2022, 16:30
ma non si rischia di far danni al pannello con gli HUD fissi dei giochi per ore?

Quei tempi sono ampiamente finiti da almeno 3 anni. Ora ci sono tecnologie e future che permettono di stare tranquilli

Poi va beh, dire "tanto siamo arrivati ad upscalare come su console" significa davvero saperne poco e giocare poco.

Raven
22-09-2022, 16:30
No ecco non esageriamo, cioè se parliamo di un i9 o comunque un processore da 5-600 euro è un conto, si prendi un i7 pre 8 core ecco allora no. :mc:

:boh:

... per cambiarlo potrei tranquillamente farlo... ma alla mia età non ho più voglia di reisntallare/cambiare nulla! Pensa che il mio win10 attuale viene da un upgrade di win7 di 10 anni fa! :asd: ... Il mio schifo-i7 del 2012 con sotto la 6800xt macina tutti i giochi sul mio dell UW 21:9 3660x1440 con freesync senza il minimo problema, per cui vado avanti così e bona... lo so che un un 11k o 12k incrementerei alla grande... ma passare da 120 a 180 frame, che mi cambia?... per i due giochi che faccio?

Ringrazio iddio di aver ormai da anni superato la fase smanetto-nerd... :O

Se penso che ere fa cambiavo i firmware delle radeon 8500 per guadagnare 1 fps e selezionavo tra decine di celeron 600mhz per trovare quello che andava meglio a 950Mhz... :fagiano:

AceGranger
22-09-2022, 16:33
Infatti se ricordi bene, un capoccione AMD ammise che la situazione non migliorerà anzi.
I 20A forse li avrà Intel, TSMC al massimo li potrà fornire con la serie 6000.
Ora l'unica soluzione sono i 3nm, moddati per nvidia.

Nvidia dovrà riscrivere in parte la microarchitettura, non potrà andare avanti a shrink, aggiungendo nuovi tensor. Anche nel migliore delle ipotesi i consumi saranno questi.

Attualmente nvidia con il MCM ci sta andando piano, l'ipotesi mono è prevedibile, se il punto di partenza era l'HPC e scontato, bene non è stato così, in quanto i codici riportano tutt'ora un H2 su Hopper.

Da vedere però anche AMD, al momento la GPU è mono, il MCM sta nei collegamenti e cache.
Certo 300mm2 a 5nm non sono padelloni da 600 a 5nm, ma è solo gaming.
Si parla di MCM GPU per competere nel pro e pareggiare le ALU della 4090.

non so se ricordo male, ma io ricordo una vecchia intervista, prima che arrivassero anche le CPU MCM di AMD, dove dicevano che uno dei tanti problemi dell'MCM nelle GPU era il consumo elevato che si sarebbe mangiata la parte di comunicazione fra i chip, che evidentemente era superiore in modo significativo a quella delle CPU.

mikael84
22-09-2022, 16:34
Io ci spero, ma hai presente quanti vanno in negozio o al centro commerciale a comprare il PC Nvidia perchè "è un Nvidia" con dentro la 4080-12GB 2x del suo vero prezzo?

ecco, l'utenza forum sgamata che lo sa è una goccia, basta solo leggere multiplayer et simila...

Perchè succede anche questo. Guarda io evito proprio di guardarmi video sul tubo, non mi interessano. A sto giro l'ho fatto.
Tutti si sono lamentati del prezzo, ma hanno tutti sottolineato, "beh però va 2/4x le vecchie, quindi ci sta".:muro:

Io se segui, ho attaccato JHH in tutti i modi già da prima, con quei chip fasulli, ma di certo l'unico mezzo è non comprarle e far aprire la mente a qualcuno, poi ognuno faccia quello che vuole.

Anche le testate mediamente possono poco, non sai quanti ne vedo che non conoscono le performance di una data scheda, ed anche utenti non di primo pelo.

AceGranger
22-09-2022, 16:35
Su questo non ci sono dubbi ma non per questo mi sento perculato o offeso in alcun senso. Semplicemente si sta proponendo un prodotto di fascia altissima che ha un prezzo diciamo importante. Ma non è obbligatorio comprarlo e siamo liberi di rispedirlo al mittente. Starà a Nvidia fare in seguito le sue valutazioni e queste verranno fatte sulla base dei suoi rendiconti finanziari e sulle unità vendute in rapporto alle aspettative. E' scontato dire che se nessuno comprasse le nuove 40xx queste subirebbero un calo nel giro di qualche mese, ma come fai a convincere chi di questa passione di campa o chi magari saltando le precedenti generazioni ora ha racimolato abbastanza grana da permettersi di fare il colpo? L'umanità non ragiona tutta allo stesso modo e per 100 persone che leggendo quei prezzi pensano sia una truffa ce ne sono altrettante che non si pongono il problema.

Io cerco di vedere il bicchiere sempre mezzo pieno. Con l'arrivo delle nuove GPU la serie precedente subirà di conseguenza un calo e già ora sul sito Nvidia sono disponibili le 3090Ti a 1300€ quando solo qualche mese fà era impossibile trovarle e per le custom te ne chiedevano 2 volte tanto. Seppure è vero che l'intendo di Nvidia è quello di piazzare un hw per ogni fascia di prezzo è scontato che la serie 30xx perderà un pò della sua attrattiva e chi magari non ne ha avuto finora la possibilità potrà da domani portarsela a casa senza vendersi un rene.

ah no bè chiaro, loro hanno sempre mostrato quello cosa facevano le GPU;

anche ora, c'è chi sara disposto a spendere per queste 4000 e chi no;

DJurassic
22-09-2022, 16:36
Quei tempi sono ampiamente finiti da almeno 3 anni. Ora ci sono tecnologie e future che permettono di stare tranquilli

Poi va beh, dire "tanto siamo arrivati ad upscalare come su console" significa davvero saperne nulla e giocare poco.

Fixed, perchè quel poco mi sembrava anche troppo :asd:

ah no bè chiaro, loro hanno sempre mostrato quello cosa facevano le GPU;

anche ora, c'è chi sara disposto a spendere per queste 4000 e chi no;

Io ancora non lo sò. Se comprero una 40xx prenderò la 4090. Vendendo la 3080 FE attuale qualcosa riesco ad ammortizzare ma ripeto non ne ho ancora nessuna certezza. La cosa che più di ogni cosa mi frena, e per molti potrà sembrare una cazzata, non è il prezzo ma la consapevolezza che non ci sono giochi ne ora ne nell'immediato futuro che sfrutteranno una GPU di quelle caratteristiche. Non a caso la presentazione ha fatto leva su CP2077 e su Flight Simulator che sono universalmente considerati dei macigni se maxati. Spendere tanto per frullare a manetta un gioco che si è già finito e un altro che è venuto a noia non è proprio il massimo.

C'è l'HW ma non c'è il software che lo metta su strada. Non sò se mi spiego. Di fare 1001 benchmark me ne faccio cavoli, anche perchè non sono il tipo.

mikael84
22-09-2022, 16:43
non so se ricordo male, ma io ricordo una vecchia intervista, prima che arrivassero anche le CPU MCM di AMD, dove dicevano che uno dei tanti problemi dell'MCM nelle GPU era il consumo elevato che si sarebbe mangiata la parte di comunicazione fra i chip, che evidentemente era superiore in modo significativo a quella delle CPU.

Più che altro, il problema era far parallelizzare il tutto, e per certe applicazioni come il gaming era davvero tosto. Le latenze con dimensioni gigantesche di ram erano sopra i 100ns.
Uno dei grossi problemi erano le cache, in quanto non accessibile a tutto il crossbar, ma a solo un WGM, e le latenze tra WGM (gruppo che conteneva gli SM) erano alte, allora stavano lavorando a delle l1,5, una sorta di l2 per memorizzare i dati ed accelerare il tutto.

Ci sarebbe molto da dire, ma dal 2016 che se ne parlò, non si è mai più sentito nulla.

Creare un die gigante mono più i bus e le cache MCM, sarebbe più facile, in quanto non devi spostare i dati tra i WGP e la cache è per forza unificata.

D4N!3L3
22-09-2022, 16:48
La FE è 30 cm, possibile che non ci sia una custom vista finora che non sia grossomodo intorno a quelle misure? Tutte minimo 35 cm.

FrancoBit
22-09-2022, 16:50
La FE è 30 cm, possibile che non ci sia una custom vista finora che non sia grossomodo intorno a quelle misure? Tutte minimo 35 cm.

Ocio che già con ampère le custom erano belle lunghe, minimo 32-33 cm a salire, sono le generazioni dei grandi falli queste :sofico:

StrixyRoG
22-09-2022, 16:50
Fixed, perchè quel poco mi sembrava anche troppo :asd:



Io ancora non lo sò. Se comprero una 40xx prenderò la 4090. Vendendo la 3080 FE attuale qualcosa riesco ad ammortizzare ma ripeto non ne ho ancora nessuna certezza. La cosa che più di ogni cosa mi frena, e per molti potrà sembrare una cazzata, non è il prezzo ma la consapevolezza che non ci sono giochi ne ora ne nell'immediato futuro che sfrutteranno una GPU di quelle caratteristiche. Non a caso la presentazione ha fatto leva su CP2077 e su Flight Simulator che sono universalmente considerati dei macigni se maxati. Spendere tanto per frullare a manetta un gioco che si è già finito e un altro che è venuto a noia non è proprio il massimo.

C'è l'HW ma non c'è il software che lo metta su strada. Non sò se mi spiego. Di fare 1001 benchmark me ne faccio cavoli, anche perchè non sono il tipo.

È quello che ho sempre pensato anche io, viste anche le cifre a cui sono arrivati. Per tutto il prossimo anno non si intravede nulla, e magari anche io alla fine attenderò fino al 2024. Va bene la passione, ma spendere effettivamente 2000 euro per rigiocare le stesse cose, anche no :D

DVD2005
22-09-2022, 16:57
:boh:

... per cambiarlo potrei tranquillamente farlo... ma alla mia età non ho più voglia di reisntallare/cambiare nulla! Pensa che il mio win10 attuale viene da un upgrade di win7 di 10 anni fa! :asd: ... Il mio schifo-i7 del 2012 con sotto la 6800xt macina tutti i giochi sul mio dell UW 21:9 3660x1440 con freesync senza il minimo problema, per cui vado avanti così e bona... lo so che un un 11k o 12k incrementerei alla grande... ma passare da 120 a 180 frame, che mi cambia?... per i due giochi che faccio?

Ringrazio iddio di aver ormai da anni superato la fase smanetto-nerd... :O

Se penso che ere fa cambiavo i firmware delle radeon 8500 per guadagnare 1 fps e selezionavo tra decine di celeron 600mhz per trovare quello che andava meglio a 950Mhz... :fagiano:

Ehhhhh caro Raven tempi andati ormai !!!

kiwivda
22-09-2022, 16:57
Premettendo che non sono amante delle tecniche di upsampling o downsampling, e lo sapete tutti benissimo, a me importa solo della qualità visiva finale. Renderizzavo in 4k facendo downsampling al 1080p già dai tempi della 2080Ti, finalmente con l'avanzare della tecnologia sono riuscito a bandire qualsiasi schermo sub 4k da casa. Il monitor da gioco in firma è 4k 27" a 160Hz e la tv oled è da 60zh. Con la 2080ti ho giocato abbastanza bene ma era una scheda da 1080p maxato nulla più, poi con l'uscita dei primi titoli in RayTracing anche il 1080p sulla 2080Ti è diventato proibitivo, di ampere ho preso 3070, 3080 e 3090 (tra l'altro tutte in vendita :D per quelli che Ada che schifo), e solo con la 3090 sono riuscito a sfruttare appieno il vecchio monitor 1080p e ora con il nuovo 4k si tribola non poco. Essendo amante dei giochi spaccamasciella lato grafica, e solo single player, non sono ancora riuscito a giocare a CP2077 perchè per avere la Global Illumination in Ray Tracing va messo su "folle" e senza DLSS con la 3090 vuol dire fare 25/40 fps, inaccettabili.
Forse con la 4090 in raster si riuscirà ad avere sui 60 fps minimi in 4k con Ray tracing e allora magari ci faccio il pensierino, se no aspetto la 4090Ti. Detto questo se manco la 4090Ti regge tutto a 60 fps in 4k maxato senza DlSS metto la 3070 nel pc e mi di al backlog della libreria di steam, dove di giochi ne ho per almeno 3 anni al mio ritmo e aspetto le 5000 o le 6000 o se AMD riuscisse a fare un miracolo in RayTracing anche una rossa.

Tra l'altro una rossa ce l'ho ancora una bellissima 6800XT Red Devil, che in raster sfiora la 3090 per un pelo, ma poi in game con RT e menate con regge il colpo, magari venderò anche quella nel frattempo o magari per il backlog di Steam potrei usare lei e vendere anche la 3070.

Per ora tutto fermo e scimmia tranquilla fintanto che vedo le recensioni sia delle 4000 che delle 7000.

Unica nota positiva è che la cpu tirerà sicuramente almeno fino alla serie 15 di intel.

Lato prezzi concordo con chi dice che le 4080 12/16 siano delle prese per il :ciapet: e che la 4090 sia l'unica degna di nota e sinceramente in merito al prezzo avevo indovinato al centesimo tutta la gamma e non li trovo esagerati, d'altronde se vuoi giocare come con una 2080 ad oggi basta una 6700Xt/3060ti e sei a posto, ma io in quel caso consiglio vivamente una bella console e vivete felici.

narniagreen
22-09-2022, 16:58
Quei tempi sono ampiamente finiti da almeno 3 anni. Ora ci sono tecnologie e future che permettono di stare tranquilli

Poi va beh, dire "tanto siamo arrivati ad upscalare come su console" significa davvero saperne poco e giocare poco.
dai su il DLSS 1 faceva pena, PENA, poi ci hanno messo la pezza 1.1, il 2 è buono, il 3 si iniziano a vedere già artefatti mica da ridere, come ha riportato Alessandro ieri e oggi ho visto cose oscene su spiderman.

https://i.ibb.co/5FN2d0F/spiderman.jpg

Non è tutto oro quello che luccica, ma ancora liberi di credere alle slide dell'oste.

Perchè succede anche questo. Guarda io evito proprio di guardarmi video sul tubo, non mi interessano. A sto giro l'ho fatto.
Tutti si sono lamentati del prezzo, ma hanno tutti sottolineato, "beh però va 2/4x le vecchie, quindi ci sta".:muro:

Io se segui, ho attaccato JHH in tutti i modi già da prima, con quei chip fasulli, ma di certo l'unico mezzo è non comprarle e far aprire la mente a qualcuno, poi ognuno faccia quello che vuole.

Anche le testate mediamente possono poco, non sai quanti ne vedo che non conoscono le performance di una data scheda, ed anche utenti non di primo pelo.

No, ripeto, non seguo più come prima ho perso proprio la voglia e ho visto l'altro giorno la presentazione e qualcosa che passa in questi giorni, come notizie, l'ultima il connettore nuovo che dura 30 plug e play :doh:

albero77
22-09-2022, 17:00
La FE è 30 cm, possibile che non ci sia una custom vista finora che non sia grossomodo intorno a quelle misure? Tutte minimo 35 cm.

Solo le msi sembrano essere meno ingombranti ma comunque sui 33 cm, inoltre notavo come a parte la lunghezza anche le altre dimensioni sono fuori scala. La maggior parte dei case compatti sono fuori dai giochi. Forse le 4080 saranno meno ingombranti, dico forse...

kiwivda
22-09-2022, 17:01
Ocio che già con ampère le custom erano belle lunghe, minimo 32-33 cm a salire, sono le generazioni dei grandi falli queste :sofico:

https://i.imgur.com/yTyeKhDm.jpg (https://i.imgur.com/Uen9HXu.mp4)

33,8cm la 3090 strix l'avevo dovutra montare sospesa con le fascette per usarla in attesa del wubbo. :D

Ubro92
22-09-2022, 17:02
Vabbe anche il dlss all'inizio faceva pena devono migliorarlo il 3 che caspita è appena uscito :)

Tecnicamente ancora deve uscire XD

narniagreen
22-09-2022, 17:03
Vabbe anche il dlss all'inizio faceva pena devono migliorarlo il 3 che caspita è appena uscito :)

Indubbiamente, ma io non sono contro eh, ho solo detto che una volta sarebbe stata vista come una cosa da sfigati consolari, oggi è la norma anche a patto di perdere quel 1% di qualità grafica.

Basta solo ammetterlo.

Thunder-74
22-09-2022, 17:03
NVIDIA RTX 4090 2,85 GHz di serie, minor consumo energetico con DLSS3

https://cdn.videocardz.com/1/2022/09/RTX4090-CLOCK-HERO-BANNER-1200x324.jpg

https://i.imgur.com/NbQIkZ8.png


fonte (https://videocardz.com/newz/nvidia-shows-geforce-rtx-4090-running-2850-mhz-gpu-clock-at-stock-settings)


comunque 60 fps a 1440 senza DLSS.. certi mattoni sono ingestibili anche per la 4090....

kiwivda
22-09-2022, 17:10
NVIDIA RTX 4090 2,85 GHz di serie, minor consumo energetico con DLSS3

https://cdn.videocardz.com/1/2022/09/RTX4090-CLOCK-HERO-BANNER-1200x324.jpg

https://i.imgur.com/NbQIkZ8.png


fonte (https://videocardz.com/newz/nvidia-shows-geforce-rtx-4090-running-2850-mhz-gpu-clock-at-stock-settings)


comunque 60 fps a 1440 senza DLSS.. certi mattoni sono ingestibili anche per la 4090....


ecco 60 fps a 1440p temo che dovrò aspettare le 5000.

Thunder-74
22-09-2022, 17:12
riprendo una news postata da qualcuno prima e passata in sordina... ma veramente triste....


Scollega la GPU solo se necessario
Secondo ZOTAC, si dovrebbe rimuovere l'adattatore del cavo di alimentazione con attenzione e solo quando veramente necessario.

https://cdn.videocardz.com/1/2022/09/ZOTAC-RTX4090-HERO2-1200x387.jpg


Se sei una di quelle persone che sostituiscono o rimuovono frequentemente le schede grafiche, assicurati di contare quante volte è stato utilizzato l'adattatore del cavo di alimentazione. ZOTAC ha una nota interessante sul proprio sito Web, affermando che il cavo di alimentazione 4x da 8 pin a 12VHPWR (il cosiddetto PCIe Gen5 o 16 pin) ha una durata di servizio limitata fino a 30 connessioni/disconnessioni.

:doh: :doh:

FONTE (https://videocardz.com/newz/zotac-rtx-4090s-pcie-gen5-power-cable-adapter-service-life-is-up-to-30-connection-cycles)

devAngnew
22-09-2022, 17:13
Con Ampere nessuno si sarebbe aspettato tutto quello, dai. Le schede erano pure prezzate bene. Che turing abbia alzato l'asticella è palese, come le TI.
Ora però siamo all'inganno con la 4080 da 12GB vram e 16 GB vram . Questa situazione gli deve andare tutta di traverso, anche se poi veramente a farne le spese sono gli AIB.

Scusa mika non è riferito a te ma a qualche buon tempone :D

dai su il DLSS 1 faceva pena, PENA, poi ci hanno messo la pezza 1.1, il 2 è buono, il 3 si iniziano a vedere già artefatti mica da ridere, come ha riportato Alessandro ieri e oggi ho visto cose oscene su spiderman.

https://i.ibb.co/5FN2d0F/spiderman.jpg

Non è tutto oro quello che luccica, ma ancora liberi di credere alle slide dell'oste.



No, ripeto, non seguo più come prima ho perso proprio la voglia e ho visto l'altro giorno la presentazione e qualcosa che passa in questi giorni, come notizie, l'ultima il connettore nuovo che dura 30 plug e play :doh:

Credo che a sx sia in nativa cmq li il DLSS è in performance mode . :)

Vabbe anche il dlss all'inizio faceva pena devono migliorarlo il 3 che caspita è appena uscito :)

In effeti devono migliorare poco devono mettere il DLSS in modalità qualità :D li è in modalità performance.
Cmq. il DLSS3 è il DLSS2 con il fake frame + reflex anti lag niente di veramente nuovo. :D

albero77
22-09-2022, 17:13
riprendo una news postata da qualcuno prima e passata in sordina... ma veramente triste....


Scollega la GPU solo se necessario
Secondo ZOTAC, si dovrebbe rimuovere l'adattatore del cavo di alimentazione con attenzione e solo quando veramente necessario.

https://cdn.videocardz.com/1/2022/09/ZOTAC-RTX4090-HERO2-1200x387.jpg


Se sei una di quelle persone che sostituiscono o rimuovono frequentemente le schede grafiche, assicurati di contare quante volte è stato utilizzato l'adattatore del cavo di alimentazione. ZOTAC ha una nota interessante sul proprio sito Web, affermando che il cavo di alimentazione 4x da 8 pin a 12VHPWR (il cosiddetto PCIe Gen5 o 16 pin) ha una durata di servizio limitata fino a 30 connessioni/disconnessioni.

:doh: :doh:

FONTE (https://videocardz.com/newz/zotac-rtx-4090s-pcie-gen5-power-cable-adapter-service-life-is-up-to-30-connection-cycles)

Ma è uno scherzo?

Raven
22-09-2022, 17:16
ZOTAC ha una nota interessante sul proprio sito Web, affermando che il cavo di alimentazione 4x da 8 pin a 12VHPWR (il cosiddetto PCIe Gen5 o 16 pin) ha una durata di servizio limitata fino a 30 connessioni/disconnessioni.[/I]

:doh: :doh:


:eek:

:rotfl: :rotfl: :rotfl: :rotfl: :rotfl:

:doh:

Ma... e il motivo di questa oscenità sarebbe?!?!... :fagiano:

Thunder-74
22-09-2022, 17:18
MA poi l'articolo continua...

Di recente abbiamo trattato un problema relativo alla variazione di potenza per gli adattatori del cavo di alimentazione 12VHPWR. Questo problema non è stato ufficialmente commentato da PCI-SIG (l'ente che governa le specifiche PCI-Express), ma è stato trattato da GamersNexus .

A quanto pare, il problema è stato segnalato da NVIDIA come membro di PCI-SIG, che stava testando vari prototipi di cavi di alimentazione e alimentatori. Hanno osservato che alcuni cavi erano inclini a mostrare punti caldi o addirittura a fondersi a causa di forti piegamenti o a causa di cicli di connessione eccessivi (circa 40) . Detto questo, i 30 cicli di ZOTAC sono persino inferiori a quanto NVIDIA ha riferito a PCI-SIG per aumentare la consapevolezza di potenziali problemi con tali cavi di alimentazione.

https://cdn.videocardz.com/1/2022/09/PCI-SIG-POWER-CABLE-1.jpg

https://cdn.videocardz.com/1/2022/09/PCI-SIG-POWER-CABLE-2.jpg



Praticamente sto cavo va maneggiato con cura, come la parte più intima del vostro corpo :D :D


Preparate i popcorn che di sfiammate su YT ce ne saranno parecchie .... hahahaha

thunderforce83
22-09-2022, 17:20
riprendo una news postata da qualcuno prima e passata in sordina... ma veramente triste....


Scollega la GPU solo se necessario
Secondo ZOTAC, si dovrebbe rimuovere l'adattatore del cavo di alimentazione con attenzione e solo quando veramente necessario.

https://cdn.videocardz.com/1/2022/09/ZOTAC-RTX4090-HERO2-1200x387.jpg


Se sei una di quelle persone che sostituiscono o rimuovono frequentemente le schede grafiche, assicurati di contare quante volte è stato utilizzato l'adattatore del cavo di alimentazione. ZOTAC ha una nota interessante sul proprio sito Web, affermando che il cavo di alimentazione 4x da 8 pin a 12VHPWR (il cosiddetto PCIe Gen5 o 16 pin) ha una durata di servizio limitata fino a 30 connessioni/disconnessioni.

:doh: :doh:

FONTE (https://videocardz.com/newz/zotac-rtx-4090s-pcie-gen5-power-cable-adapter-service-life-is-up-to-30-connection-cycles)

Connettore a consumo praticamente:p
vedo ben 4 connettori per alimentarla...in tutto 600watt praticamente:oink:

devAngnew
22-09-2022, 17:20
NVIDIA RTX 4090 2,85 GHz di serie, minor consumo energetico con DLSS3

https://cdn.videocardz.com/1/2022/09/RTX4090-CLOCK-HERO-BANNER-1200x324.jpg

https://i.imgur.com/NbQIkZ8.png


fonte (https://videocardz.com/newz/nvidia-shows-geforce-rtx-4090-running-2850-mhz-gpu-clock-at-stock-settings)


comunque 60 fps a 1440 senza DLSS.. certi mattoni sono ingestibili anche per la 4090....

Ma grazie alla pipa non c'è lo metti :sofico:

Thunder-74
22-09-2022, 17:23
Ma grazie alla pipa non c'è lo metti :sofico:

dici che aspettarsi prestazioni più elevate in QHD dal mostro sacro X2 - X4 , era chiedere troppo :fagiano:
praticamente sta ADA è nata sotto la stella "DLSS dipendente".

Se ti riferivi al risparmio energetico con DLSS impostato su "super/ultra/maxi prestazioni", direi di si ;)

narniagreen
22-09-2022, 17:29
Non ho seguito tutti i passaggi passaggi ma cmq puoi scrivere quanto vuoi tanto freeman non c'è da luglio e non so cosa li sia successo. Spero stia bene anche se l'ho detestato da morire. Anche se a volte aveva ragione. Ma lasciamo stare.


No non lo sapevo, scherzi a parte, speriamo non gli sia successo nulla, figuriamoci.

Kostanz77
22-09-2022, 17:29
dici che aspettarsi prestazioni più elevate in QHD dal mostro sacro X2 - X4 , era chiedere troppo :fagiano:
praticamente sta ADA è nata sotto la stella "DLSS dipendente".

Se ti riferivi al risparmio energetico con DLSS impostato su "super/ultra/maxi prestazioni", direi di si ;)


Tu cosa fai? Aspetti recensioni e test indipendenti e poi decidi? O per il momento salti comunque?


Inviato dal mio iPhone utilizzando Tapatalk Pro

D4N!3L3
22-09-2022, 17:30
Ocio che già con ampère le custom erano belle lunghe, minimo 32-33 cm a salire, sono le generazioni dei grandi falli queste :sofico:

Si ma io ho una 3090 EVGA e ci sta benissimo nel mio case, meno di 30 cm.

Solo le msi sembrano essere meno ingombranti ma comunque sui 33 cm, inoltre notavo come a parte la lunghezza anche le altre dimensioni sono fuori scala. La maggior parte dei case compatti sono fuori dai giochi. Forse le 4080 saranno meno ingombranti, dico forse...

Sarei comunque al limite, pare che solo la FE ci starebbe nel mio case.

Lo posso anche cambiare, il problema è riaddatare il mio workflow ad un nuovo case. Che palle...

Ho visto anche il Fractal Design 7XL ma ha l'alimentatore coperto e io voglio vedere il display del Thor per l'assorbimento. Non riesco a capire se posso rimuovere la barriera lato glass.

albero77
22-09-2022, 17:30
Comunque come era facile aspettarsi le quantità per d1 saranno ridicole, me l'ha detto mio cugggino super tecnico rivenditore...:D Ma tanto mi pare di capire che qui la stragrande maggioranza non è interessata alla 4090:fiufiu:

Thunder-74
22-09-2022, 17:33
Tu cosa fai? Aspetti recensioni e test indipendenti e poi decidi? O per il momento salti comunque?


Inviato dal mio iPhone utilizzando Tapatalk Pro

Per ora vorrei adottare il criterio di cambiare HW nel momento di effettiva necessità, visto che all'orizzonte non ci sono titoli importanti.
Magari intanto svecchio il resto... devo dirti che prima del lancio ero convito di cambiare tutto, adesso molto titubante sul da farsi
Vediamo

thunderforce83
22-09-2022, 17:37
Comunque come era facile aspettarsi le quantità per d1 saranno ridicole, me l'ha detto mio cugggino super tecnico rivenditore...:D Ma tanto mi pare di capire che qui la stragrande maggioranza non è interessata alla 4090:fiufiu:

Io purtroppo ni...la scimmia e' a livelli super, ma e' scesa dalla spalla per arrivare altrove appena visti i 1979euri:doh:

devAngnew
22-09-2022, 17:37
dici che aspettarsi prestazioni più elevate in QHD dal mostro sacro X2 - X4 , era chiedere troppo :fagiano:
praticamente sta ADA è nata sotto la stella "DLSS dipendente".

Se ti riferivi al risparmio energetico con DLSS impostato su "super/ultra/maxi prestazioni", direi di si ;)

NO intendevo il DLSS infatti l'avevo evidenziato in grassetto. Cmq. c'è delusione a 1440 nativo praticamente senza il fake frame ste 4000 son poca roba. Bha vediamo :fagiano:

Kostanz77
22-09-2022, 17:45
Per ora vorrei adottare il criterio di cambiare HW nel momento di effettiva necessità, visto che all'orizzonte non ci sono titoli importanti.
Magari intanto svecchio il resto... devo dirti che prima del lancio ero convito di cambiare tutto, adesso molto titubante sul da farsi
Vediamo


Si te passando a Raptor avrai quei minimo 1600-1800 euro solo di piattaforma, se gli metti pure i 2000 e rotti euro per la scheda diventa na botta bella forte


Inviato dal mio iPhone utilizzando Tapatalk Pro

FrancoBit
22-09-2022, 17:47
Per ora vorrei adottare il criterio di cambiare HW nel momento di effettiva necessità, visto che all'orizzonte non ci sono titoli importanti.

Magari intanto svecchio il resto... devo dirti che prima del lancio ero convito di cambiare tutto, adesso molto titubante sul da farsi

VediamoIo sono per cambiare CPU mother e ram entro fine 2023, poi x il comparto video si vedrà. X il blocco penso alla seconda tornata am5 o meteor lake, vedremo. La priorità al momento è sulla nuova casa via da Milano merda 😎

Inviato dal mio M2101K9G utilizzando Tapatalk

Kostanz77
22-09-2022, 17:50
Io sono per cambiare CPU mother e ram entro fine 2023, poi x il comparto video si vedrà. X il blocco penso alla seconda tornata am5 o meteor lake, vedremo. La priorità al momento è sulla nuova casa via da Milano merda 😎

Inviato dal mio M2101K9G utilizzando Tapatalk


io mi tengo stretto il 12700K e non ci penso minimamente ad upgradare la CPU a Raptor, per la GPU penso di aspettare e stare alla finestra


Inviato dal mio iPhone utilizzando Tapatalk Pro

FrancoBit
22-09-2022, 17:50
io mi tengo stretto il 12700K e non ci penso minimamente ad upgradare la CPU a Raptor, per la GPU penso di aspettare e stare alla finestra


Inviato dal mio iPhone utilizzando Tapatalk ProMa x forza hai una piattaforma nuova di pacca zio 🤟🏻

Inviato dal mio M2101K9G utilizzando Tapatalk

Kostanz77
22-09-2022, 17:52
Ma x forza hai una piattaforma nuova di pacca zio 🤟🏻

Inviato dal mio M2101K9G utilizzando Tapatalk


Lo sai come funziona, sulla Aorus Master Z690 aggiorni il BIOS e gli schiaffi un 13700K easy, ma preferisco tenermi i bollini in saccoccia 😂


P.S. Auguri per la nuova casa, quella si che è la vera priorità

Inviato dal mio iPhone utilizzando Tapatalk Pro

davide155
22-09-2022, 17:54
Pronti a farvi spennare? :D

https://uploads.tapatalk-cdn.com/20220922/a5239efc826e77cf58ccb4e7957a22fa.jpg

albero77
22-09-2022, 18:02
Si ma io ho una 3090 EVGA e ci sta benissimo nel mio case, meno di 30 cm.



Sarei comunque al limite, pare che solo la FE ci starebbe nel mio case.

Lo posso anche cambiare, il problema è riaddatare il mio workflow ad un nuovo case. Che palle...

Ho visto anche il Fractal Design 7XL ma ha l'alimentatore coperto e io voglio vedere il display del Thor per l'assorbimento. Non riesco a capire se posso rimuovere la barriera lato glass.

Una fe? Fai prima a prendere una stufa a pellet. Quel dissipatore, guardando le custom, sembra sottodimensionato.

StrixyRoG
22-09-2022, 18:04
Si ma io ho una 3090 EVGA e ci sta benissimo nel mio case, meno di 30 cm.



Sarei comunque al limite, pare che solo la FE ci starebbe nel mio case.

Lo posso anche cambiare, il problema è riaddatare il mio workflow ad un nuovo case. Che palle...

Ho visto anche il Fractal Design 7XL ma ha l'alimentatore coperto e io voglio vedere il display del Thor per l'assorbimento. Non riesco a capire se posso rimuovere la barriera lato glass.

Io presi l'Helios anche per il Thor. Lo pagai 270 euro, ma almeno potrò montarci qualsiasi cosa esca, compresa la 3080ti con AIO ed avanza ancora molto spazio, e la 4090 ci starebbe ancora bella comoda. Si fa la spesa una volta, ma fatta bene :D

Thunder-74
22-09-2022, 18:06
Io sono per cambiare CPU mother e ram entro fine 2023, poi x il comparto video si vedrà. X il blocco penso alla seconda tornata am5 o meteor lake, vedremo. La priorità al momento è sulla nuova casa via da Milano merda 😎

Inviato dal mio M2101K9G utilizzando Tapatalk

Assolutamente priorità a casa. Passo fatto a inizio dello scorso anno :fagiano:

D4N!3L3
22-09-2022, 18:11
Io presi l'Helios anche per il Thor. Lo pagai 270 euro, ma almeno potrò montarci qualsiasi cosa esca, compresa la 3080ti con AIO ed avanza ancora molto spazio, e la 4090 ci starebbe ancora bella comoda. Si fa la spesa una volta, ma fatta bene :D

Eh quando lo presi io (5 anni fa circa) mica pensavo di aver bisogno di così tanto spazio.

FrancoBit
22-09-2022, 18:16
Eh quando lo presi io (5 anni fa circa) mica pensavo di aver bisogno di così tanto spazio.Io per il pc2 in firma avevo un phanteks evolv mini atx e ho fatto fatica a infilarci la aorus. Ora col lian li mini air non ho più problemi di dimensioni. Purtroppo ci sono case che a loro tempo prevedevano schede meno ingombranti

Inviato dal mio M2101K9G utilizzando Tapatalk

DJurassic
22-09-2022, 18:19
Vabbe anche il dlss all'inizio faceva pena devono migliorarlo il 3 che caspita è appena uscito :)

Mi raccomando diamo retta a un paio di slide fatte fotografando un video compresso sul tubo e crediamo alla favoletta che Nvidia renderà il DLSS 3 peggiore di quanto visto con la prima versione :asd:

NVIDIA RTX 4090 2,85 GHz di serie, minor consumo energetico con DLSS3

https://cdn.videocardz.com/1/2022/09/RTX4090-CLOCK-HERO-BANNER-1200x324.jpg

https://i.imgur.com/NbQIkZ8.png


fonte (https://videocardz.com/newz/nvidia-shows-geforce-rtx-4090-running-2850-mhz-gpu-clock-at-stock-settings)


comunque 60 fps a 1440 senza DLSS.. certi mattoni sono ingestibili anche per la 4090....

Ma DLSS 3 con quale settings poi? Non seguirà anche lui la solita scaletta Ultra performance-performance-Balanced-Quality?

ecco 60 fps a 1440p temo che dovrò aspettare le 5000.

Temo per te che dovrai aspettare all'infinito. Le tecniche di upscaling sono il futuro, non la risoluzione nativa che non frega una mazza a nessuno con TAA blurroso appiccicato sopra.

Thunder-74
22-09-2022, 18:27
Mi raccomando diamo retta a un paio di slide fatte fotografando un video compresso sul tubo e crediamo alla favoletta che Nvidia renderà il DLSS 3 peggiore di quanto visto con la prima versione :asd:



Ma DLSS 3 con quale settings poi? Non seguirà anche lui la solita scaletta Ultra performance-performance-Balanced-Quality?



Temo per te che dovrai aspettare all'infinito. Le tecniche di upscaling sono il futuro, non la risoluzione nativa che non frega una mazza a nessuno con TAA blurroso appiccicato sopra.


Nei grafici in piccolo c è scritto che il dlss è impostato su ultra performances o una cosa del genere


Inviato dal mio iPhone X utilizzando Tapatalk

D4N!3L3
22-09-2022, 18:27
Io per il pc2 in firma avevo un phanteks evolv mini atx e ho fatto fatica a infilarci la aorus. Ora col lian li mini air non ho più problemi di dimensioni. Purtroppo ci sono case che a loro tempo prevedevano schede meno ingombranti

Inviato dal mio M2101K9G utilizzando Tapatalk

Anche il Corsair 7000D AIRFLOW potrebbe essere una valida opzione mi pare.

Rinuncerò all'hotswap e prevederò l'utilizzo di una semplice dock usb.

davide155
22-09-2022, 18:29
Vabbè, con dlss che la gpu consumasse meno anche con le ampere.
Più che altro è quel salto prestazionale, che se unito ad una qualità grafica quasi simile alla nativa, è assurdo.
La 4090 è un mostro c'è poco da fare. Ma 450euro in più rispetto al mercato americano non mi vanno giù.

lordsnk
22-09-2022, 18:33
Che la Shit Storm su Nvidia abbia inizio!!! :D

JayzTwoCents in questo (https://www.youtube.com/watch?v=F7TRFK3lCOQ) video ha duramente criticato Nvidia per la questione della 4080 farlocca chiedendo l'intervento della Federal Trade Commission per obbligarla a mettere le specifiche tecniche complete sulla scatola.
Video monumentale che vi consiglio di guardare e condividere :D

AceGranger
22-09-2022, 18:41
L'avevo sempre pensato ad una carognata così, sai perchè? Con la doppia densità può creare la 4090ti da 48gb in clamshell, ed ho sempre avuto il presentimento che ne facesse un cavallo di battaglia per i pro.
Una scusa per venderti a margine la 4090ti o la relativa quadro.



a quanto pare, nemmeno l'eventuale futura 4090TI avra l'nVlink

https://www.techpowerup.com/299107/jensen-confirms-nvlink-support-in-ada-lovelace-is-gone


ma presumo che quella la faranno uscire con 48GB di Vram

mikael84
22-09-2022, 18:48
a quanto pare, nemmeno l'eventuale futura 4090TI avra l'nVlink

https://www.techpowerup.com/299107/jensen-confirms-nvlink-support-in-ada-lovelace-is-gone


ma presumo che quella la faranno uscire con 48GB di Vram

Per curiosità ho riguardato il Chip, e nvlink non c'è proprio. Ieri notte, l'ho guardato di sfuggita e non ho controllato quel particolare.
Cmq si tutto confermato, neppure la 4090ti l'avrà
https://cdn.videocardz.com/1/2022/09/AD102-GPU-DIAGRAM-1536x642.png

Nhirlathothep
22-09-2022, 18:57
togliendo il prezzo e la fascia media (ora riprezzata)

- la 4090
- la 4090ti (se avrà 18176 core - 2600 di Boost Clock - 48gb)

non hanno deluso per niente

Sono tutto quello che ci si aspettava e sono contento che siano uscite così come sono.

gente anche a me non piace la pubblicità ingannevole, i nomi ingannevoli e i prezzi ingannevoli, ma stò parlando del prodotto.

mikael84
22-09-2022, 19:01
jayz o come cavolo si chiama puói anche tagliarsi le vene, la gente non stará a guardare i numerini delle specifiche, 4080 12/16 1200 e 1500 euro di schede, fa figo le compro, la gente ragiona cosí.

Poi chissene se AD102 in versione cut ha il 68% di shader in piú rispetto alla 4080 16gb che costa 500 euro in meno. ed é a +95% di shader dalla 12gb, senza contare la BW.

L'unica buona e odve si giustificano meglio i 2000 euro é proprio la 4090 pochi caxxi, le altre sono un vorrei ma non posso, vendendo sempre un rene, tanto vale allora che mi ci butto per bene.

Perché cazzarola un divario cosí non si é mai visto tra due fasce, tra la 1080 su Gp104 full e la 1080ti con gp102 cut ci passavo il 40% di cc, tra 2080 tu104 e 2080ti tu 102 ci passava il 45%.

Troppo divario e gap di performance con quei chip monchi e tagliati su misura per risparmiare wafer e produrne di piú, il gap di prezzo invece, non é ingente dalla 4080 16 alla 4090, e mi fa preferire tutta la vita la 4090 che almeno sostanza ne ha e che fará fumare la 3090ti in raster.

Qui siamo ai limiti della follia, 192 bit di bus manco in una x60/x60ti dai su, hanno tagliato di brutto dei chip giá medio-medio/piccoli.

La 4080 16gb è già un lusso chiamarla 4080, figuriamoci 4080 12.

La x80 alcune volte è stata nei chipponi, in altre ha mantenuto sempre il ratio 2/3 del chippone.
Maxwell: 2048 su 2048
Pascal: 2560 su 3840
Turing: 3072 su 4608


Quindi con Lovelace, dovevi chiudere l'ottavo GPC per fare 2/3, quindi non è una 4080 canone neppure quella.

La x70 invece è sempre stata la metà del chippone in ALU, alcune volte anche di più.
Maxwell: 1664/3072 = 84% di ALU
pascal: 1920/3840 = la metà
Turing: 4608/2304 = la metà
Ampere:10752/5888 = 82% ALU
Lovelace RTX 4080 16gb 9728/18432 89% delle ALU.

Ora, come la vogliamo chiamare la 4080 16? Esatto 4070/ti dai.:p

FrancoBit
22-09-2022, 19:07
Per curiosità ho riguardato il Chip, e nvlink non c'è proprio. Ieri notte, l'ho guardato di sfuggita e non ho controllato quel particolare.

Cmq si tutto confermato, neppure la 4090ti l'avrà

https://cdn.videocardz.com/1/2022/09/AD102-GPU-DIAGRAM-1536x642.pngBravo perché io ieri notte ho avuto tutt altri pensieri 👹, sempre apprezzate le tue analisi

Inviato dal mio M2101K9G utilizzando Tapatalk

DJurassic
22-09-2022, 19:11
Nei grafici in piccolo c è scritto che il dlss è impostato su ultra performances o una cosa del genere


Inviato dal mio iPhone X utilizzando Tapatalk

Nei grafici rilasciati da Nvidia si, ma nei test che hai linkato di Videocardz non è specificato con quale settings lo hanno utilizzato.

mikael84
22-09-2022, 19:12
Ma infatti, la 4090 va bene é ok, anche se non ci avrei sputato sopra a vederla con un MSRP pari a quello della 3090 al lancio (anche se i prezzi non furono rispettati per la situazione del caxxo, solo oggi i prezzi sono normali)

Sono le altre due a far cag@re

mike quella da 3072cc era la 2080 super, sulla 2080 liscia anche li avevano fatto un leggero taglio ad un tpc del tu104 portandolo a 2944cc..

p.s infatti, la 4080 12gb é proprio una x70 visto che ad102 é il doppio.

Si ok, ma alla fine siamo li, 56% in meno di ALU.
Su Lovelace sarebbero 11776 cc in rapporto.

Bravo perché io ieri notte ho avuto tutt altri pensieri 👹, sempre apprezzate le tue analisi

Inviato dal mio M2101K9G utilizzando Tapatalk

;)

Telstar
22-09-2022, 19:17
comunque 60 fps a 1440 senza DLSS.. certi mattoni sono ingestibili anche per la 4090....

Probabilmente ci sono TUTTE le opzioni RT attive. Con la 3090Ti farebbe 35fps.

Telstar
22-09-2022, 19:19
Che la Shit Storm su Nvidia abbia inizio!!! :D

JayzTwoCents in questo (https://www.youtube.com/watch?v=F7TRFK3lCOQ) video ha duramente criticato Nvidia per la questione della 4080 farlocca

Visto oggi. J2C mi sta sulle palle, ma in quel video era perfetto.

Thunder-74
22-09-2022, 19:20
Nei grafici rilasciati da Nvidia si, ma nei test che hai linkato di Videocardz non è specificato con quale settings lo hanno utilizzato.


La demo l ha mostrata nVidia ai giornalisti dicendogli di parlarne, anzi esortandoli a farlo il prima possibile. Mi immagino che per far bella figura, abbiano impostato il dlss3 al suo massimo rendimento . Anche perché 170 fps da 60 , lo suggerisce . :)


Inviato dal mio iPhone X utilizzando Tapatalk

amon.akira
22-09-2022, 19:21
Forse con la 4090 in raster si riuscirà ad avere sui 60 fps minimi in 4k con Ray tracing e allora magari ci faccio il pensierino, se no aspetto la 4090Ti.

nel test nvdia la 4090 senza dlss a 4k con settaggi RT massimi stava a 22fps, quindi ti serve una scheda con almeno un +200% sulla 4090, dai con la 7090 nel 2028 dovresti poterlo giocare senza dlss, sempre se con ulteriori patch non lo upgradano ulteriormente ^^'

Ale55andr0
22-09-2022, 19:25
Cmq con l'onesta 2070 ho giocato un pò a tutto pure io, anzi... felice di non aver dato un euro a scalper e JHH, e neppure lo farò con questi chippetti, rinominati. :muro:


E io gli dato 700 per il roito :mad:

Ale55andr0
22-09-2022, 19:30
Vabbe anche il dlss all'inizio faceva pena devono migliorarlo il 3 che caspita è appena uscito :)


ora invece fa compassione :asd:

Nhirlathothep
22-09-2022, 19:31
qui si vedono performance molto deludenti della 4090 vs 3090ti

https://i.ibb.co/4dLWyrW/1.png (https://ibb.co/zJgscvs)

già dovrebbe fare il doppio per il nuovo DLSS 3

DJurassic
22-09-2022, 19:37
La demo l ha mostrata nVidia ai giornalisti dicendogli di parlarne, anzi esortandoli a farlo il prima possibile. Mi immagino che per far bella figura, abbiano impostato il dlss3 al suo massimo rendimento . Anche perché 170 fps da 60 , lo suggerisce . :)


Inviato dal mio iPhone X utilizzando Tapatalk

Mi sembrano strani quei risultati senza DLSS in 2K con RT attivo visto che la 3090Ti con gli stessi settings ne fà 45 di media. Diciamo che i test fatti così hanno poco senso perchè non essendoci un benchmark e non conoscendo con precisione il resto della configurazione è tutto molto all'acqua di rose.

Sicuramente tanto è anche dovuto al fatto che si tratta di una versione acerba dei driver video.

Ale55andr0
22-09-2022, 19:39
Ma... e il motivo di questa oscenità sarebbe?!?!... :fagiano:

nvidia e i suoi connettori del piffero?

Goofy Goober
22-09-2022, 19:40
ma non si rischia di far danni al pannello con gli HUD fissi dei giochi per ore?

Pensa che uso ancora un LG del 2014 oled fullhd, primissima serie di tv viste in commercio, ci ho praticamente solo giocato con pc e console, oltre ad usare windows per l'htpc... Ad oggi zero burn in o stampaggi di alcun tipo... si fa sempre il suo ciclo di pulizia a fine ad uso, e fine.

non so i modelli usciti dopo se hanno avuto più problemi, ma gli attuali sono quasi "invincibili".

Comprare una console solo per dei giochi mi sembra proprio da malati :)

tra comprare una console per 1 gioco o una scheda video per un 1 effetto grafico, poco ci cambia a livello di malattia, dipende da cosa ti interessa.
poi malattia di che tipo? di sperpero economico? di passione verso un singolo gioco o verso una resa grafica migliore?

penso che anche tu possa ammettere candidamente che il 90% di chi è qui a scrivere e leggere sia allora definibile "malato" di qualche cosa :D

la mia priorità sono sempre stati i giochi che mi piacevano, non l'hardware che serviva per giocarli, considerato poi che la spesa da sostenere per dotarsi di una console è ridicola rispetto a quella di un computer, mai mi sono posto il problema :asd:
se mi fossi limitato a giocare su singola piattaforma (qualunque essa fosse) avrei dovuto scartare una elevato numero di giochi che ho letteralmente amato. Per cui, razionalmente e logicamente, a quel punto potevo smettere completamente d'aver questo passatempo e dedicarmi ad altro.


Praticamente sto cavo va maneggiato con cura, come la parte più intima del vostro corpo :D :D


Preparate i popcorn che di sfiammate su YT ce ne saranno parecchie .... hahahaha

Onestamente mi vien da chiedere PERCHE' han puntato su questo tipo di connettore singolo, se ve ne era sul serio una necessità tecnica specifica rispetto ad usarne ad esempio 2 di potenza dimezzata affiancati, rispetto a crear tal aborto di cavi... O se semplicemente è l'ennesima mossa capital consumistica per far girare un po' il mercato anche degli alimentatori.

La storia delle 30 connessioni è oltre il ridicolo e il paradossale, roba che dovrebbe esser vietato il commercio per leggi di sicurezza dato che le leggi contro le assurdità ancora non le abbiamo purtroppo.

thunderforce83
22-09-2022, 19:42
Di roba c'e' ne tanta in questa next gen ma ripeto, manca l'offerta media, che con queste 4070 rebrendizzate 4080 sono a dir poco scandalose. Comunque troppo presto per parlarne...aspettiamo dei test su piu' giochi e con piu' configurazioni.

Ale55andr0
22-09-2022, 19:44
La 4080 16gb è già un lusso chiamarla 4080, figuriamoci 4080 12.



a 599 sarebbe stata una scheda meravigliosa però. Avrebbero fatto il botto, speriamo voglia farlo Lisona....:oink:

FrancoBit
22-09-2022, 20:01
Di roba c'e' ne tanta in questa next gen ma ripeto, manca l'offerta media, che con queste 4070 rebrendizzate 4080 sono a dir poco scandalose. Comunque troppo presto per parlarne...aspettiamo dei test su piu' giochi e con piu' configurazioni.Fascia media per ora sono le ampère in stock, qualcosa devi pur farne

Inviato dal mio M2101K9G utilizzando Tapatalk

terranux
22-09-2022, 20:02
qui si vedono performance molto deludenti della 4090 vs 3090ti

https://i.ibb.co/4dLWyrW/1.png (https://ibb.co/zJgscvs)

già dovrebbe fare il doppio per il nuovo DLSS 3
anche io penso un 40% in raster e con dlss come figura

eXeS
22-09-2022, 20:08
qui si vedono performance molto deludenti della 4090 vs 3090ti

https://i.ibb.co/4dLWyrW/1.png (https://ibb.co/zJgscvs)

già dovrebbe fare il doppio per il nuovo DLSS 3
Si, solo il DLSS3 ti raddoppia i frame, fotogrammi creati artificialmente da un algoritmo scollegato all'input dell'utente e che quindi decide per i c... suoi :D

Sarà interessante capirne la fedeltà comparando i fotogrammi generati artificialmente con gli equivalenti generati dall'engine, ma temo che dovremmo aspettare una 40x0 che andrà la metà rispetto alla 4090 per un confronto di questo tipo.

albero77
22-09-2022, 20:12
a 599 sarebbe stata una scheda meravigliosa però. Avrebbero fatto il botto, speriamo voglia farlo Lisona....:oink:

Ma voi pensate davvero che er giacchetta non sappia cosa bolle nella pentola della concorrenza?! Giusto noi possiamo non saperlo....

StylezZz`
22-09-2022, 20:16
https://www.youtube.com/watch?v=Uo8rs5YfIYY

Chissà perchè hanno disattivato i commenti :sofico:

thunderforce83
22-09-2022, 20:19
Fascia media per ora sono le ampère in stock, qualcosa devi pur farne

Inviato dal mio M2101K9G utilizzando Tapatalk

D'accordissimo, praticamente cosi' mantieni alti i prezzi anche delle gpu usate.
Praticamente i tempi un cui si vedevano svalutazioni sulle titan da 1300 a 300 euro nel giro di pochi giorni sono sempre piu' lontani:p

amon.akira
22-09-2022, 20:23
D'accordissimo, praticamente cosi' mantieni alti i prezzi anche delle gpu usate.
Praticamente i tempi un cui si vedevano svalutazioni sulle titan da 1300 a 300 euro nel giro di pochi giorni sono sempre piu' lontani:p

almeno so che quando esce la 5000 la 4090 da 2000 mi varrà ancora 1000minimo perche chi le farà le scarpe probabilmente costerà 1500

mat0109
22-09-2022, 20:24
Ma è uno scherzo?

Ma che poi se questo è il problema basta che lo dicano si scollegano i 4 cavi 8 pin e apposto. Quelli don cavi classici.

albero77
22-09-2022, 20:30
Ma che poi se questo è il problema basta che lo dicano si scollegano i 4 cavi 8 pin e apposto. Quelli don cavi classici.

A parte che quell'adattatore non si può guardare, ma ti stanno dicendo in maniera nemmeno troppo criptica di cambiare alimentatore in favore di uno nuovo con collegamento dedicato pci ex 5. Del resto chi spende oltre 2k per una vga ne potrà spendere anche 300 per un ali nuovo...

craesilo
22-09-2022, 20:31
La 4080 16gb è già un lusso chiamarla 4080

spe fammi capire, prendiamo x es cyberpunk in 4k maxato.....tra 2080 e 3080 (stesso msrp usa) in raster ci sono circa 25-30 fps di differenza....tra 3080 e 4080 (16) quanti dovrebbero esserci?

thunderforce83
22-09-2022, 20:43
almeno so che quando esce la 5000 la 4090 da 2000 mi varrà ancora 1000minimo perche chi le farà le scarpe probabilmente costerà 1500

Se vogliamo vedere il bicchiere mezzo pieno ok e' proprio cosi'...
anche se per esperienza non puoi mai capire come va' questo mercato, sta diventando tutto molto imprevedibile...
comunque alla fine dei conti siamo sempre alle solite...
https://i.postimg.cc/Sj68d0tX/CWNhs42-XIAAjoq-H.jpg (https://postimg.cc/Sj68d0tX)
:sofico:

Ale55andr0
22-09-2022, 20:45
Ma voi pensate davvero che er giacchetta non sappia cosa bolle nella pentola della concorrenza?! Giusto noi possiamo non saperlo....

:asd:

https://i.imgflip.com/6uccyc.jpg

scorpion73
22-09-2022, 20:48
https://www.amazon.it/hz/wishlist/ls/2XSH607N9HPPW?ref_=wl_share&tag=mvtutorias-21

Lo percula pure Amazon. Quando mi hanno fatto vedere sta cosa non ci potevo credere.

Comunque per prendere ste schede conviene prendere un ali nativo se con un adattatore si rischiano sti casini. Anche se non so quanto sia marketing e quanto verità.
Altro motivo per lasciarle a scaffale.


Inviato dal mio iPhone utilizzando Tapatalk

lordsnk
22-09-2022, 21:07
Si ma di nativi non ce ne sono molti. Io vorrei un ali che mi faccia sentire sicuro tipo il corsair ax o asus thor. Però preferisco quest'ultimo cosi vedo quanto consumo :)

Se vuoi sapere il reale consumo prendi questo (https://www.amazon.it/KETOTEK-Misuratore-energetici-DellEnergia-Retroilluminazione/dp/B09K4HJ8QF/ref=sr_1_10?crid=24TVEFZL3W8QR&keywords=wattmetro&qid=1663877142&sprefix=watt%2Caps%2C232&sr=8-10) :D

Nhirlathothep
22-09-2022, 21:09
c'è un modo per vedere dalle slides nvidia le performance senza dlss 3 delle gpu paragonate alla 3090ti : guardate Resident evil,che non lo supporta.

vedrete che la 4080 12gb è sotto alla 3090ti (nonostante sia supportato il raytracing)

https://i.ibb.co/y6hjKGL/1.png (https://ibb.co/QP8whzs)

thunderforce83
22-09-2022, 21:09
https://i.postimg.cc/rzygPXKP/a-EPDKLx-700bwp.webp (https://postimg.cc/rzygPXKP)

Siamo alle comiche:p

Nhirlathothep
22-09-2022, 21:10
edit

Nhirlathothep
22-09-2022, 21:12
https://i.postimg.cc/rzygPXKP/a-EPDKLx-700bwp.webp (https://postimg.cc/rzygPXKP)

Siamo alle comiche:p

veramente a me fa pensare il contrario : nei pc retrogaming ho una gtx 480 e una gtx 580 . con una 4090ti sarei poco sopra (senza parlare delle dual-gpu)

mikael84
22-09-2022, 21:26
nel test nvdia la 4090 senza dlss a 4k con settaggi RT massimi stava a 22fps, quindi ti serve una scheda con almeno un +200% sulla 4090, dai con la 7090 nel 2028 dovresti poterlo giocare senza dlss, sempre se con ulteriori patch non lo upgradano ulteriormente ^^'

Però 22 fps con la 4090 non si possono vedere, e la 3090ti li cosa fa 14.:p

:asd:



A me sembra piuttosto potente, se già con 4096 shader, in flops possono superare una 6900 (solo in flops):)

spe fammi capire, prendiamo x es cyberpunk in 4k maxato.....tra 2080 e 3080 (stesso msrp usa) in raster ci sono circa 25-30 fps di differenza....tra 3080 e 4080 (16) quanti dovrebbero esserci?

Più che FPS bisogna ragionare in percentuale. Nel primo caso 60-65 in base ai titoli, nel secondo al momento si vede un +45-50%.:) Poi CB si adeguerà allo scaling




Lo percula pure Amazon. Quando mi hanno fatto vedere sta cosa non ci potevo credere.

Comunque per prendere ste schede conviene prendere un ali nativo se con un adattatore si rischiano sti casini. Anche se non so quanto sia marketing e quanto verità.
Altro motivo per lasciarle a scaffale.


Inviato dal mio iPhone utilizzando Tapatalk

Severo ma giusto.:D

davide155
22-09-2022, 21:33
riprendo una news postata da qualcuno prima e passata in sordina... ma veramente triste....


Scollega la GPU solo se necessario
Secondo ZOTAC, si dovrebbe rimuovere l'adattatore del cavo di alimentazione con attenzione e solo quando veramente necessario.

https://cdn.videocardz.com/1/2022/09/ZOTAC-RTX4090-HERO2-1200x387.jpg


Se sei una di quelle persone che sostituiscono o rimuovono frequentemente le schede grafiche, assicurati di contare quante volte è stato utilizzato l'adattatore del cavo di alimentazione. ZOTAC ha una nota interessante sul proprio sito Web, affermando che il cavo di alimentazione 4x da 8 pin a 12VHPWR (il cosiddetto PCIe Gen5 o 16 pin) ha una durata di servizio limitata fino a 30 connessioni/disconnessioni.

:doh: :doh:

FONTE (https://videocardz.com/newz/zotac-rtx-4090s-pcie-gen5-power-cable-adapter-service-life-is-up-to-30-connection-cycles)
Mi ero perso questa chicca.
Spero che le Founders non abbiano tale problema altrimenti siamo alla frutta.
Ma poi per quale motivo? Ok 30 attacca e stacca son tanti, ma perchè? si rovinano i contatti? Fanno come i gamberi invece che andare avanti vanno indietro :muro:

fraussantin
22-09-2022, 21:36
I recensori li compreranno a pacchi su alibaba! :asd:

McRooster23
22-09-2022, 22:14
E il calore da forno, e i consumi da centrale elettrica, e l'alimentatore nuovo e il connettore che devi staccare poche volte altrimenti si consuma....
Sembra quasi di tornare indietro più che andare avanti.

Poi dicono che la gente manda tutti a fanc*lo e si prende una console :rolleyes:

RoUge.boh
22-09-2022, 22:23
Questa serie sembra una barzelletta...
Detto sinceramente, basterà non comprargli la serie 4, e secondo me tolti i pazzi che se la possono permettere, parecchi appassionati ci penseranno 2 volte prima di prenderla..

Thunder-74
22-09-2022, 23:05
Mi ero perso questa chicca.
Spero che le Founders non abbiano tale problema altrimenti siamo alla frutta.
Ma poi per quale motivo? Ok 30 attacca e stacca son tanti, ma perchè? si rovinano i contatti? Fanno come i gamberi invece che andare avanti vanno indietro :muro:


Praticamente la stessa nVidia come membro di PCI-SIG , ha segnalato che da test effettuati sugli adattatori , se questi vengono piegati eccessivamente e quindi collegati e scollegati una quarantina di volte , tendono a surriscaldarsi fino a fondersi.
Quandi quando li passate , fate in modo di non forzarli in pieghe . Cercate di lasciarli più dritti possibili . Vabbè ma porcata . Zotac dice 30 per tutelarsi


Inviato dal mio iPhone X utilizzando Tapatalk

FaTcLA
22-09-2022, 23:06
E il calore da forno, e i consumi da centrale elettrica, e l'alimentatore nuovo e il connettore che devi staccare poche volte altrimenti si consuma....
Sembra quasi di tornare indietro più che andare avanti.

Poi dicono che la gente manda tutti a fanc*lo e si prende una console :rolleyes:

Non ero riuscito a prendere la 3080 i primi giorni ma ho sculato la ps5 al day one.
Tornassi indietro la ricomprerei, sebbene i compromessi, poca spesa zero sbatti.
E dalla regia mi dicono che non ho avuto alcun rimpicciolimento del sacro ugello

Giuro che mi sto impegnando ma non sono riuscito ad elaborare nessuna leva mentale per giustificare un upgrade del mio PC oggi, zero giochi interessanti, gli unici che avrebbero potuto interessarmi erano Battlefield ma è una ciofeca, l'altro era cb2077, per carità che delusione.
Inoltre adesso abbiamo prezzi fuori di melone, consumi, temperature e dimensioni esagerati, costi corrente impazziti e aggiungiamoci prese in giro come le 4080 12... dai..

PS:
Appena finito Horizon forbidden west, capolavoro assoluto!
the last of us 2 miglior film interattivo mai fatto
ho in pre-order god of war
..

Ci gira il nuovo monkey island so una 290 liquidata?

devAngnew
22-09-2022, 23:08
Cmq. a quanto pare Turing/Ampere può far girare il DLSS3 via hardware ovviamente ci saranno meno performance. Chi lo ha detto nvidia ovviamente (già dalla presentazione :eek: )(dopo che in Ada c'è OFA ma non in turing e ampere poi si può via software però fa schifo :sofico: ora abbiamo la risposta definitiva )
L'OFA accelerator esiste fin da turing : guardare qui (https://docs.nvidia.com/video-technologies/optical-flow-sdk/pdf/NVOFA_Application_Note.pdf)

Per chi và di fretta meglio un immagine (non completa :) ) grafico a barre a sinistra :D

https://i.imgur.com/KaQhNDn.png

devAngnew
22-09-2022, 23:14
Praticamente la stessa nVidia come membro di PCI-SIG , ha segnalato che da test effettuati sugli adattatori , se questi vengono piegati eccessivamente e quindi collegati e scollegati una quarantina di volte , tendono a surriscaldarsi fino a fondersi.
Quandi quando li passate , fate in modo di non forzarli in pieghe . Cercate di lasciarli più dritti possibili . Vabbè ma porcata . Zotac dice 30 per tutelarsi


Inviato dal mio iPhone X utilizzando Tapatalk

Secondo me stanno enfatizzando la cosa per forzare il passaggio ai nuovi alimentatori, chi si ricorda gli adattatori per le nvidia 6800 per i vecchi ali :D

Thunder-74
22-09-2022, 23:16
Cmq. a quanto pare Turing/Ampere può far girare il DLSS3 via hardware ovviamente ci saranno meno performance. Chi lo ha detto nvidia ovviamente (già dalla presentazione :eek: )(dopo che in Ada c'è OFA ma non in turing e ampere poi si può via software però fa schifo :sofico: ora abbiamo la risposta definitiva )
L'OFA accelerator esiste fin da turing : guardare qui (https://docs.nvidia.com/video-technologies/optical-flow-sdk/pdf/NVOFA_Application_Note.pdf)

Per chi và di fretta meglio un immagine (non completa :) ) grafico a barre a sinistra :D

https://i.imgur.com/KaQhNDn.png


Certo che facevano più bella figura se lo facevano retro compatibile dicendo che giustamente su ADA avrebbe dato il suo meglio. Sono certo che in futuro verrà reso disponibile anche per ampere. Come queste saranno out of stock .


Inviato dal mio iPhone X utilizzando Tapatalk

devAngnew
22-09-2022, 23:28
Certo che facevano più bella figura se lo facevano retro compatibile dicendo che giustamente su ADA avrebbe dato il suo meglio. Sono certo che in futuro verrà reso disponibile anche per ampere. Come queste saranno out of stock .


Inviato dal mio iPhone X utilizzando Tapatalk

Ehhm ma quello serviva per giustificare il price jump :sofico:

Thunder-74
22-09-2022, 23:31
Ehhm ma quello serviva per giustificare il price jump :sofico:


E certo , c ha parlato solo di dlss3 e RT, poteva dire che girava su ampere ? Quanto mi spaventa sta cosa . . . Aspetto le recensioni come un bambino aspetta il Natale .


Inviato dal mio iPhone X utilizzando Tapatalk

amon.akira
22-09-2022, 23:37
Però 22 fps con la 4090 non si possono vedere, e la 3090ti li cosa fa 14.:p


be si quella era la modalità override da ini mi pare...insomma lo sai che abbiamo ancora un rt basico al minimo sindacale, se volessero potrebbero farti fare anche meno se iniziano a fare piu passate per avere meno noise e aumentano i rays per la precisione...non per niente fino al 2035almeno evvoglia a boostare.

devAngnew
22-09-2022, 23:44
E certo , c ha parlato solo di dlss3 e RT, poteva dire che girava su ampere ? Quanto mi spaventa sta cosa . . . Aspetto le recensioni come un bambino aspetta il Natale .


Inviato dal mio iPhone X utilizzando Tapatalk

A me spaventa il prezzo :sofico: onestamente, cmq sarei curioso di veder girare race rtx, per vedere quanti frame fà è se c'è lag per i frame introdotti dalla gpu visto che a detta di giacchetta è full simulated world :sofico: chissa se è interattiva :)
buona notte :ronf:

kiwivda
22-09-2022, 23:52
nel test nvdia la 4090 senza dlss a 4k con settaggi RT massimi stava a 22fps, quindi ti serve una scheda con almeno un +200% sulla 4090, dai con la 7090 nel 2028 dovresti poterlo giocare senza dlss, sempre se con ulteriori patch non lo upgradano ulteriormente ^^'

Beh se fa 22 fps allora fa cagare di brutto perche la mia 3090 nel fa da 25 a 45 con il gioco completamente maxato, questi dati sono una presa per il culo. Mi aspetto che la 4090 in raster faccia dai 50 ai 100 minimo, altrimenti aspetteremo le 4090Ti o le 5000 o le RDNA3.

Inutile upgradare per non raggiungere gli obbiettivi che ci prefissa, se il mercato non offre prodotti validi, la domanda si spegne, e dubito che queste Ada facciano così schifo.

amon.akira
23-09-2022, 00:12
Beh se fa 22 fps allora fa cagare di brutto perche la mia 3090 nel fa da 25 a 45 con il gioco completamente maxato, questi dati sono una presa per il culo. Mi aspetto che la 4090 in raster faccia dai 50 ai 100 minimo, altrimenti aspetteremo le 4090Ti o le 5000 o le RDNA3.

Inutile upgradare per non raggiungere gli obbiettivi che ci prefissa, se il mercato non offre prodotti validi, la domanda si spegne, e dubito che queste Ada facciano così schifo.

si ma quando cdprojectred ti sblocca da menu l opzione rt overdrive che ha usato nvidia nel test tu che fai non maxi? secondo la tua filosofia dovresti maxare, purtroppo ci sarà sempre un compromesso per questo esiste il dlss.

"CD Project Red ha annunciato un nuovo aggiornamento per la modalità Overdrive di Cyberpunk 2077. Il gioco supporterà il DLSS 3.0, il ray tracing diventerà ancora migliore e l'illuminazione sarà più realistica.
L'illuminazione indiretta viene ora riflessa più volte e non solo una volta come in precedenza. Questo aumenterà la precisione e il realismo dell'illuminazione globale. In generale, con l'aggiornamento verrà aggiunta la tecnologia RTX Direct Illumination, che fornirà a tutte le sorgenti luminose un'illuminazione RT e ombre più precise."

mikael84
23-09-2022, 00:16
Praticamente la stessa nVidia come membro di PCI-SIG , ha segnalato che da test effettuati sugli adattatori , se questi vengono piegati eccessivamente e quindi collegati e scollegati una quarantina di volte , tendono a surriscaldarsi fino a fondersi.
Quandi quando li passate , fate in modo di non forzarli in pieghe . Cercate di lasciarli più dritti possibili . Vabbè ma porcata . Zotac dice 30 per tutelarsi


Inviato dal mio iPhone X utilizzando Tapatalk

Ci sta che i cavi se piegati surriscaldino. Cablaggio AWG16 che surriscalda. Mi pare la cavolata dell'anno.:p
Cmq, seriamente, per 2000 euro di GPU, ci sta prendere altri 300 euro di ALI 16 pin.:)
Fai finta che la paghi 2300-2500 euro.
Considera che JHH ha detto che la legge di moore è morta, e quel die ora gli costa ben 220 euro.:p

Cmq. a quanto pare Turing/Ampere può far girare il DLSS3 via hardware ovviamente ci saranno meno performance. Chi lo ha detto nvidia ovviamente (già dalla presentazione :eek: )(dopo che in Ada c'è OFA ma non in turing e ampere poi si può via software però fa schifo :sofico: ora abbiamo la risposta definitiva )
L'OFA accelerator esiste fin da turing : guardare qui (https://docs.nvidia.com/video-technologies/optical-flow-sdk/pdf/NVOFA_Application_Note.pdf)

Per chi và di fretta meglio un immagine (non completa :) ) grafico a barre a sinistra :D



Questo va chiarito. Metro DLSS1, necessitava di 10tf fp16. Tra ampere e Lovelace ci passano 320tf vs 1400 tf fp16, levando lo sparsity per HPC, sei a 160 vs 800 circa.
Basterebbe quanto devono caricare le matrici, considerando che per AI, nvidia usa il 10/20% delle unità.


Secondo me stanno enfatizzando la cosa per forzare il passaggio ai nuovi alimentatori, chi si ricorda gli adattatori per le nvidia 6800 per i vecchi ali :D

No, ma quando mai...:sofico:

Certo che facevano più bella figura se lo facevano retro compatibile dicendo che giustamente su ADA avrebbe dato il suo meglio. Sono certo che in futuro verrà reso disponibile anche per ampere. Come queste saranno out of stock .


Inviato dal mio iPhone X utilizzando Tapatalk

Bisognerebbe vedere quanto carico necessitano le unità matrici, per alcune potrebbe essere difficile, ma non retrocompatibile in hardware.:)

be si quella era la modalità override da ini mi pare...insomma lo sai che abbiamo ancora un rt basico al minimo sindacale, se volessero potrebbero farti fare anche meno se iniziano a fare piu passate per avere meno noise e aumentano i rays per la precisione...non per niente fino al 2035almeno evvoglia a boostare.

Ah ecco.

thunderforce83
23-09-2022, 00:19
Ecco un elenco degli ultimi prezzi previsti sul sito OCUK per le versioni custom...

Gigabyte GeForce RTX 4090 AORUS Master - £ 1999 ($ ​​2258 US)
ZOTAC GeForce RTX 4090 Trinity AMP Extreme AIRO - £ 1898 ($ 2144 US)
Gigabyte GeForce RTX 4090 Gaming OC - £ 1859 ($ 2100 US)
Palit GeForce RTX 4090 GameRock OC - £ 1859 ($ 2100 US)
Palit GeForce RTX 4090 GameRock - £ 1829 ($ 2066 US)
PNY GeForce RTX 4090 VERTO EPIC-X RGB 24 GB - £ 1829 ($ 2066 USD)
ZOTAC GeForce RTX 4090 Trinity OC - £ 1829 ($ 2066 US)
Gigabyte GeForce RTX 4090 Windforce - £ 1799 ($ ​​2032 US)
GeForce RTX 4090 iChill X3 di Inno3D - £ 1799 ($ ​​2032 US).
ZOTAC GeForce RTX 4090 Trinity - £ 1759 ($ 1987 US)
Inno3D GeForce RTX 4090 X3 - £ 1679 ($ 1897 US)
PNY GeForce RTX 4080 VERTO EPIC-X RGB 16GB - £ 1269 ($ 1433 US)
PNY GeForce RTX 4080 GREEN EPIC-X RGB 12GB - £ 949 ($ 1072 US)

thunderforce83
23-09-2022, 00:45
Bella bestia...

https://i.postimg.cc/zH5k5zHH/Acquisisci-schermata-Web-23-9-2022-14346.jpg (https://postimg.cc/zH5k5zHH)

kiwivda
23-09-2022, 00:48
si ma quando cdprojectred ti sblocca da menu l opzione rt overdrive che ha usato nvidia nel test tu che fai non maxi? secondo la tua filosofia dovresti maxare, purtroppo ci sarà sempre un compromesso per questo esiste il dlss.

"CD Project Red ha annunciato un nuovo aggiornamento per la modalità Overdrive di Cyberpunk 2077. Il gioco supporterà il DLSS 3.0, il ray tracing diventerà ancora migliore e l'illuminazione sarà più realistica.
L'illuminazione indiretta viene ora riflessa più volte e non solo una volta come in precedenza. Questo aumenterà la precisione e il realismo dell'illuminazione globale. In generale, con l'aggiornamento verrà aggiunta la tecnologia RTX Direct Illumination, che fornirà a tutte le sorgenti luminose un'illuminazione RT e ombre più precise."
Ah ma quindi quel test è stato fatto già con la nuova modalità fatta e finita? No perché a me nelle opzioni non mi da altro oltre folle nel raytracing. Se hanno fatto accrocchi con i file ini i risultati contano zero. La 4090 va confrontata senza dlss e con la 3090 liscia a pari settaggi. Chissenefrega se ha il dlss 3 4 o 5 quello ben venga, ma conta zero. Quello conta e quanto fa di più della 3090 in path tracing, raytracing misto e raster.

Telstar
23-09-2022, 00:55
Praticamente la stessa nVidia come membro di PCI-SIG , ha segnalato che da test effettuati sugli adattatori , se questi vengono piegati eccessivamente e quindi collegati e scollegati una quarantina di volte , tendono a surriscaldarsi fino a fondersi.

Sicuro al 100% che il prossimo alimentatore che prendo dovrà avere i cavi pcie5 (sia quello da 12 che da 16 pin) nativi in dotazione.

lordsnk
23-09-2022, 01:02
Per chi possiede un alimentatore Corsair con cavi Type4 fra qualche giorno potrà ordinare questi (https://www.corsair.com/it/en/Categories/Products/Accessories-%7C-Parts/PC-Components/Power-Supplies/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284#tab-overview) cavi 600W PCIe 5.0 12VHPWR :D

Purtroppo non è presente la versione sleeve :(

amon.akira
23-09-2022, 01:04
Ah ma quindi quel test è stato fatto già con la nuova modalità fatta e finita? No perché a me nelle opzioni non mi da altro oltre folle nel raytracing. Se hanno fatto accrocchi con i file ini i risultati contano zero. La 4090 va confrontata senza dlss e con la 3090 liscia a pari settaggi. Chissenefrega se ha il dlss 3 4 o 5 quello ben venga, ma conta zero. Quello conta e quanto fa di più della 3090 in path tracing, raytracing misto e raster.

si già con la nuova modalità overdrive che uscirà a breve e nel test si vede solo no dlss 22fps e dlss3 100fps, ora diciamo che mi accontenterei del dlss quality senza framegenerator sui 60, invece per te che non accetti compromessi devi aspettare la 7090 :D

Per chi possiede un alimentatore Corsair con cavi Type4 fra qualche giorno potrà ordinare questi (https://www.corsair.com/it/en/Categories/Products/Accessories-%7C-Parts/PC-Components/Power-Supplies/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284#tab-overview) cavi 600W PCIe 5.0 12VHPWR :D

Purtroppo non è presente la versione sleeve :(

mi sa che lo prendo sicuro
thx

aldo87mi
23-09-2022, 01:10
chissà se quando usciranno i primi giochi con supporto al Dlss 3.0 lasceranno comunque la retrocompatibilità al Dlss 2.0 per i possessori di schede Turing e Ampere, oppure quei giochi funzioneranno soltanto con il Dlss 3.0 costringendoci così a comprare una scheda Lovelace per continuare ad usare il Dlss nei giochi. Non vorrei che ci forzassero la mano fino a questo punto. Per amore del Dio denaro ti devi aspettare di tutto purtroppo :confused:

piperprinx
23-09-2022, 02:12
Ragazzi sul dragone sono aperte le ordinazioni per le prime 4090. Ci sono le MSI conl'aio per raffreddarle, prezzi non indicati però. Azzo vedo ora che ci sono anche i Ryzen 7xxx

Se avesse un wubbo decente anche a ventola ferma potrei prenderla, togliergli il rad e metterla nel mio loop. Forse operazione più easy che non togliere il dissi per mettere il wubbo. Se fosse disponibile al lancio anche zero tempi di attesa per la disponibilità di wb e zero giorni ad aria.

piperprinx
23-09-2022, 02:22
Per chi possiede un alimentatore Corsair con cavi Type4 fra qualche giorno potrà ordinare questi (https://www.corsair.com/it/en/Categories/Products/Accessories-%7C-Parts/PC-Components/Power-Supplies/600W-PCIe-5-0-12VHPWR-Type-4-PSU-Power-Cable/p/CP-8920284#tab-overview) cavi 600W PCIe 5.0 12VHPWR :D

Purtroppo non è presente la versione sleeve :(

Ottimo. Grazie per la segnalazione

Predator_1982
23-09-2022, 05:52
Scusate, fatemi capire: io che ho un Corsair HXi750, devo ordinare un nuovo connettore per alimentare una 4090 founders ?

Salfox
23-09-2022, 06:32
Scusate, fatemi capire: io che ho un Corsair HXi750, devo ordinare un nuovo connettore per alimentare una 4090 founders ?

No tranquillo, quello serve solo per mettere ordine nel case senza tremila cavi e adattatori.

Goofy Goober
23-09-2022, 06:35
Scusate, fatemi capire: io che ho un Corsair HXi750, devo ordinare un nuovo connettore per alimentare una 4090 founders ?

Ma basta quell'alimentatore considerato che il connettore 12pin nuovo è dato per erogare fino a 600watt :fagiano:

Salfox
23-09-2022, 06:42
Ma basta quell'alimentatore considerato che il connettore 12pin nuovo è dato per erogare fino a 600watt :fagiano:

Ecco infatti credo che quell'alimentatore non sia supportato da quel cavo per un questione di potenza.
Le specifiche della 4090 richiedono esplicitamente un 850 w (da sito nvidia)

Thunder-74
23-09-2022, 06:44
Dati sulle prestazioni di GeForce RTX 4090 e nuove funzionalità dettagliate da NVIDIA

Durante una presentazione a porte chiuse con la stampa, NVIDIA ha condiviso i primi dati concreti sulle prestazioni della GPU GeForce RTX 4090, il cui lancio è previsto per il 12 ottobre . Mentre la presentazione pubblica utilizzava solo punti di riferimento vaghi, in questa diapositiva abbiamo ottenuto i numeri FPS effettivi, basati su test di risoluzione 4K con Super Resolution DLSS impostato su Performance Mode. La CPU utilizzata era una Intel i9 12900K, dotata di 32GB di RAM e funzionante su Windows 11 a 64 bit.

Tutti i test elencati di seguito sono stati effettuati in giochi con supporto DLSS 3 , evidenziando l'importanza di questa nuova tecnologia per ottenere le massime prestazioni. NVIDIA ha quindi diviso i risultati in due fasce: i giochi di oggi e i giochi di domani.

Giochi di oggi
Microsoft Flight Simulator - 103 FPS
Warhammer 40.000: Darktide - 138 FPS
Demo di Unreal Engine 5 Lyra (RT) - 155 FPS
F1 22 (RT) - 204 FPS
Demo di Unity Enemies (RT) - 89 FPS
Cyberpunk 2077 (RT) - 141 FPS

Giochi di domani
Cyberpunk 2077 (RT max - Modalità Overdrive ) - 90 FPS
NVIDIA Racer RTX (Full RT) - 80 FPS
Justice (RT completo) - 81 FPS
Portal RTX (Full RT) - 117 FPS

https://cdn.wccftech.com/wp-content/uploads/2022/09/DLSS-3-Performance-1920x1010.jpg

Come puoi vedere, i guadagni in termini di prestazioni registrati dalla GeForce RTX 4090 sono più significativi nei giochi che supportano implementazioni di ray tracing più avanzate. Ad esempio, i giochi senza RT abilitati come Microsoft Flight Simulator e Warhammer 40,000: Darktide ottengono solo incrementi delle prestazioni 2X, ma la demo UE5 e F1 22 non sono lontani da aumenti 3X, mentre la demo Unity e Cyberpunk 2077 sono vicini agli aumenti 4X.

Il gioco di CD Projekt RED sarà presto aggiornato con la modalità Overdrive, che aggiunge calcoli RT più complessi. In modalità Overdrive, la GeForce RTX 4090 funziona 4 volte più velocemente con DLSS 3 abilitato, mentre Racer RTX è di circa 4,5 volte, Justice è quasi a 5 volte e Portal RTX non è lontano da un aumento delle prestazioni di 6 volte.

NVIDIA ha anche discusso di diverse aggiunte hardware realizzate appositamente per ottimizzare il ray tracing sulla nuova architettura Ada Lovelace. Questo perché dalla prima introduzione del ray tracing in Battlefield V, che richiedeva solo 39 operazioni RT per pixel, i titoli più avanzati sono diventati molto più faticosi. L'imminente Cyberpunk 2077 Overdrive Mode, ad esempio, richiede 635 operazioni RT per pixel.

La prima e più importante aggiunta si chiama Shader Execution Reordering. Come spiegato da Jonah Alben, Senior VP of GPU Engineering di NVIDIA, in un gioco ray traced, se alcuni raggi colpiscono aree diverse della scena, non saranno in grado di eseguire lo stesso programma e dovranno quindi rimanere inattivi mentre il primo raggio sta finendo.

SER aiuta aggiungendo una nuova fase nella pipeline di ray tracing in cui i raggi che dovrebbero essere eseguiti sullo stesso programma vengono raggruppati, guadagnando efficienza.
Secondo NVIDIA, SER consente significativi incrementi delle prestazioni in Cyberpunk 2077: modalità Overdrive (+44%), Portal RTX (+29%) e Racer RTX (+20%).

Un'altra innovazione introdotta nella GeForce RTX 4090 e nell'architettura Ada Lovelace nel suo insieme è Displaced Micro-Mesh (DMM). Ancora una volta, è mirato all'ottimizzazione del ray-tracing per la geometria. Il nuovo core RT di terza generazione è in grado di comprendere ed elaborare un BVH (Bounding Volume Gerarchia) ottimizzato. Di conseguenza, le prestazioni di build BVH sono migliorate e i requisiti di archiviazione sono diminuiti.

Le micromesh spostate saranno supportate sia dagli strumenti Simplygon che Adobe.

Infine, Opacity Micro-Maps rende più facile per i core RT capire in che modo gli oggetti irregolari dovrebbero essere influenzati dai raggi. Ciò si ottiene attraverso maschere di opacità che includono stati di opacità predeterminati come traslucido, opaco o sconosciuto. In quanto tali, gli OMM possono salvare un viaggio indietro agli Streaming Multiprocessors (SM) e quindi migliorare le prestazioni, nel caso seguente, del 10%.


... nessun giornalista che chiede come vanno in raster puro? boh

FONTE (https://wccftech.com/geforce-rtx-4090-performance-figures-and-new-features-detailed-by-nvidia/)

nessuno29
23-09-2022, 06:50
Certo che fa un pò ridere leggere nei "giochi del domani" portal ed ancora cyberpunk (che abbiamo giocato tutti 5 volte).

Se davvero per godersi un full rt bisogna riesumare Portal, siamo proprio agli albori ancora.

sertopica
23-09-2022, 06:51
https://youtu.be/mGARjRBJRX8

Overview delle schede custom. :D

Sembra che stavolta sara' davvero necessario procurarsi un qualche tipo di supporto per la scheda onde evitare che la gravita' faccia il suo lavoro.

sertopica
23-09-2022, 06:54
megacut
[/I]

... nessuno giornalista che chiede come vanno in raster puro? boh

FONTE (https://wccftech.com/geforce-rtx-4090-performance-figures-and-new-features-detailed-by-nvidia/)

No perche' dopo averci provato e' saltata la corrente in tutto l'edificio. :asd:

Andy1111
23-09-2022, 07:18
https://wccftech.com/nvidia-geforce-rtx-4090-runs-up-to-2850-mhz-at-stock-50c-temps-in-cyberpunk-2077-dlss-3-cuts-gpu-wattage-by-25-percent/

Qualche info in più aspettando vere rece

Cyberpunk 2077 Ultra Quality + Psycho RT (Native 1440p):

MSI RTX 3090 TI SUPRIM X (Stock Native 1440p) - 37 FPS / 455W Power / ~75C
NVIDIA RTX 4090 FE (Stock Native 1440p) - 60 FPS / 461W Power / ~55C

D4N!3L3
23-09-2022, 07:21
https://youtu.be/mGARjRBJRX8

Overview delle schede custom. :D

Sembra che stavolta sara' davvero necessario procurarsi un qualche tipo di supporto per la scheda onde evitare che la gravita' faccia il suo lavoro.

Fortunatamente almeno quello ce l'ho.

Cutter90
23-09-2022, 07:29
https://wccftech.com/nvidia-geforce-rtx-4090-runs-up-to-2850-mhz-at-stock-50c-temps-in-cyberpunk-2077-dlss-3-cuts-gpu-wattage-by-25-percent/

Qualche info in più aspettando vere rece

Cyberpunk 2077 Ultra Quality + Psycho RT (Native 1440p):

MSI RTX 3090 TI SUPRIM X (Stock Native 1440p) - 37 FPS / 455W Power / ~75C
NVIDIA RTX 4090 FE (Stock Native 1440p) - 60 FPS / 461W Power / ~55C

MAH. le temperature della FE mi sembrano molto fantasiose. Sono solitamente tra le peggiori lato dissipazione. Mi pare molto strano facciano appena 55° con il 100% di utilizzo. Anzi, mi pare impossibile proprio.
Le custom cosa staranno sui 40? No, qualcosa non quadra

Ubro92
23-09-2022, 07:37
MAH. le temperature della FE mi sembrano molto fantasiose. Sono solitamente tra le peggiori lato dissipazione. Mi pare molto strano facciano appena 55° con il 100% di utilizzo. Anzi, mi pare impossibile proprio.

Le custom cosa staranno sui 40? No, qualcosa non quadraDipende, il dissi della 4090 é estremamente generoso come dimensioni, più di quello della 3090 quindi non sarebbe così strano soprattutto se prevedono anche un pl sbloccabile fino a 600w

Ma va bhe vedremo nelle review dettagliate come andrà .

Inviato dal mio M2012K11AG utilizzando Tapatalk

sertopica
23-09-2022, 07:40
Fortunatamente almeno quello ce l'ho.

Si ma sicuramente non e' cosi' figo come il dark obelisk offerto da galax. :O

https://abload.de/img/screenshot2022-09-230lje03.png

Cutter90
23-09-2022, 07:43
Dipende, il dissi della 4090 é estremamente generoso come dimensioni, più di quello della 3090 quindi non sarebbe così strano soprattutto se prevedono anche un pl sbloccabile fino a 600w

Ma va bhe vedremo nelle review dettagliate come andrà .

Inviato dal mio M2012K11AG utilizzando Tapatalk

Si ma consuma anche molto di più della 3090, quindi penso che abbiano mantenuto tutti la proporzione. Dubito che le case si siano messe lì per tirare via 20 gradi "gratis" dalle gpu. Mi aspetto temperature assolutamente in linea con le precedenti

D4N!3L3
23-09-2022, 07:46
Si ma sicuramente non e' cosi' figo come il dark obelisk offerto da galax. :O

https://abload.de/img/screenshot2022-09-230lje03.png

Vero, il mio è una stanga di ferro a L marcata TUF. :D

Minch#a comunque, hanno messo le lucine pure lì.

sertopica
23-09-2022, 07:55
Vero, il mio è una stanga di ferro a L marcata TUF. :D

Minch#a comunque, hanno messo le lucine pure lì.

Lucine, bastoni, ventole posteriori... Si fa di tutto per addolcire l'incul*ta. :asd:

Salfox
23-09-2022, 07:59
MAH. le temperature della FE mi sembrano molto fantasiose. Sono solitamente tra le peggiori lato dissipazione. Mi pare molto strano facciano appena 55° con il 100% di utilizzo. Anzi, mi pare impossibile proprio.
Le custom cosa staranno sui 40? No, qualcosa non quadra

Dimentichi che qui parliamo della 4090 che monta il dissipatore grosso FE che invece è uno dei migliori lato dissipazione come lo era sulla 3090. Il dissipatore scarso FE era quello delle 3080/ti.

Gigibian
23-09-2022, 08:00
https://wccftech.com/nvidia-geforce-rtx-4090-runs-up-to-2850-mhz-at-stock-50c-temps-in-cyberpunk-2077-dlss-3-cuts-gpu-wattage-by-25-percent/

Qualche info in più aspettando vere rece

Cyberpunk 2077 Ultra Quality + Psycho RT (Native 1440p):

MSI RTX 3090 TI SUPRIM X (Stock Native 1440p) - 37 FPS / 455W Power / ~75C
NVIDIA RTX 4090 FE (Stock Native 1440p) - 60 FPS / 461W Power / ~55C

Quindi +62% in RT....in RASTER sarà ancora meno ...

4x...:rolleyes: :sofico:

fraussantin
23-09-2022, 08:02
Quindi +62% in RT....in RASTER sarà ancora meno ...



4x...:rolleyes: :sofico:Vabbe ma che quella era una idiozia si sapeva.

Il raster praricamente la 4060ti .. 4080 12 va come una 3080ti e costa uguale.

L'evoluzione.

Cutter90
23-09-2022, 08:06
Dimentichi che qui parliamo della 4090 che monta il dissipatore grosso FE che invece è uno dei migliori lato dissipazione come lo era sulla 3090. Il dissipatore scarso FE era quello delle 3080/ti.

Mmm no. Era a livello circa della Tuf la 3090 fe, ma stava ampiamente sotto a tante custom top, come la gaming x, aorus, strix, Tuf, Eagle e altre .
https://www.youtube.com/watch?v=IyS5Fa5w34E

Havel
23-09-2022, 08:10
Quindi +62% in RT....in RASTER sarà ancora meno ...

4x...:rolleyes: :sofico:

oppure la si può vedere da altro punto di vista:

+62% rispetto alla scorsa gen, senza contare il dlss. :rolleyes:

Salfox
23-09-2022, 08:13
Mmm no. Era a livello circa della Tuf la 3090 fe, ma stava ampiamente sotto a tante custom top, come la gaming x, aorus, strix, Tuf, Eagle e altre .
https://www.youtube.com/watch?v=IyS5Fa5w34E

E' sotto alle schede top ma è una delle migliori come rapporto qualità prezzo e lo dico con cognizione di causa perchè mio fratello ha la 3090FE e la conosco bene.
Sono d'accordo però che invece il dissipatore delle 3080 era una cagata forse uno dei peggiori in assoluto

Gigibian
23-09-2022, 08:16
Vabbe ma che quella era una idiozia si sapeva.

Il raster praricamente la 4060ti .. 4080 12 va come una 3080ti e costa uguale.

L'evoluzione.

Di pure 3080 12 vs 4080 12. Vanno uguale e tdp simile. Che evoluzione!

narniagreen
23-09-2022, 08:23
Vabbe ma che quella era una idiozia si sapeva.

Il raster praricamente la 4060ti .. 4080 12 va come una 3080ti e costa uguale.

L'evoluzione.

Ma come Fra, siamo già al "si sapeva"? e le slide dell'oste?

Comunque 2.4x in dlss3 vs 2 non è mica da buttare, anzi, resterà da valutare poi la latenza, l'effetto soap, e la qualità finale dell'immagine.

Chiaramente hanno spinto tantissimo sulla parte tensor/AI e imbottito il chip per quello e ti fanno pagare il fatto che sono delle gpgpu.

mah...

lordsnk
23-09-2022, 08:24
Scusate, fatemi capire: io che ho un Corsair HXi750, devo ordinare un nuovo connettore per alimentare una 4090 founders ?

Ti conviene comprare il cavo che ho postato prima.
In questo caso eviti di usare l’adattatore che si trova nelle scatole delle 4000 e visto l'avviso di Nvidia, personalmente, non correi il rischio considerando il prezzo delle schede.

fraussantin
23-09-2022, 08:24
Ma come Fra, siamo già al "si sapeva"? e le slide dell'oste?

Comunque 2.4x in dlss3 vs 2 non è mica da buttare, anzi, resterà da valutare poi la latenza, l'effetto soap, e la qualità finale dell'immagine.

Chiaramente hanno spinto tantissimo sulla parte tensor/AI e imbottito il chip per quello e ti fanno pagare il fatto che sono delle gpgpu.

mah...

Ciao grid entro a lavoro ora non ti posso rispondere ;)

:asd:

Lucageo
23-09-2022, 08:24
Voi tra le custom quale soluzione vedete meglio ?
La ASUS Strix (gigantesca) oppure la Suprim X che a mio avviso è più discreta come ingombro fisico e meno impertinente come design ?
La Strix 4090 la trovo meno bella della precedente Strix.

Andy1111
23-09-2022, 08:29
Ma come Fra, siamo già al "si sapeva"? e le slide dell'oste?

Comunque 2.4x in dlss3 vs 2 non è mica da buttare, anzi, resterà da valutare poi la latenza, l'effetto soap, e la qualità finale dell'immagine.

Chiaramente hanno spinto tantissimo sulla parte tensor/AI e imbottito il chip per quello e ti fanno pagare il fatto che sono delle gpgpu.

mah...

DLSS3 is actually a bad technique.

Say an RT game runs at 30FPS (32ms+ input latency).

DLSS3 needs to wait 32ms to examine 2 whole frames + the DLSS3 processing time before generating a new frame

So:
40ms DLSS3 90fps vs
11ms native 90fps

Se questo è vero è proprio da buttare

Cutter90
23-09-2022, 08:31
E' sotto alle schede top ma è una delle migliori come rapporto qualità prezzo e lo dico con cognizione di causa perchè mio fratello ha la 3090FE e la conosco bene.
Sono d'accordo però che invece il dissipatore delle 3080 era una cagata forse uno dei peggiori in assoluto

Come rapporto qualità prezzo ok, ma non si stava parlando di questo, ma di potenza dissipante. Al minuto 5.51 fa 69 gradi... ora magicamente ne ha guadagnati 15 aumentando la potenza? No, non penso

magic carpet
23-09-2022, 08:31
Ti conviene comprare il cavo che ho postato prima.
In questo caso eviti di usare l’adattatore che si trova nelle scatole delle 4000 e visto l'avviso di Nvidia, personalmente, non correi il rischio considerando il prezzo delle schede.

Dite che si può usare anche con altri ali?
Ho sempre letto che vanno utilizzati i cavi proprietari per evitare problemi.
Chissà se Asus si sbriga a tirar fuori un cavo simile.
Gli ho appena sganciato 3 bombe per il Thor ed è già outdated...:mad:

sertopica
23-09-2022, 08:32
Voi tra le custom quale soluzione vedete meglio ?
La ASUS Strix (gigantesca) oppure la Suprim X che a mio avviso è più discreta come ingombro fisico e meno impertinente come design ?
La Strix 4090 la trovo meno bella della precedente Strix.

Esteticamente trovo la Zotac la migliore. Le altre sono tutte casse da morto, una ha addirittura uno schermo LCD rimovibile. :D

ninja750
23-09-2022, 08:36
DLSS3 is actually a bad technique.

Say an RT game runs at 30FPS (32ms+ input latency).

DLSS3 needs to wait 32ms to examine 2 whole frames + the DLSS3 processing time before generating a new frame

So:
40ms DLSS3 90fps vs
11ms native 90fps

Se questo è vero è proprio da buttare

impossibile che quadruplichi la latenza, non avrebbero mai fatto uscire una tecnologia simile fosse vero

così come è impossibile che faccia l'enorme gap prestazionale penalizzando la qualità visiva

cioè dai sono le prime due cose che i recensori proveranno una volta fatti partire i bench, sicuramente non sarà perfetta ma nemmeno così male come scrivi tu

Cutter90
23-09-2022, 08:37
Esteticamente trovo la Zotac la migliore. Le altre sono tutte casse da morto, una ha addirittura uno schermo LCD rimovibile. :D

Se proseguono come da tradizione Zotac avrà il prezzo più basso, ma sarà più rumorosa (anche se mi pare che le ventole forse abbiano capito come vanno fatte) e boosterà meno, Suprim, Aorus e Strix se la giocheranno. MSI silenziosa as usual, con i """"""best Buy"""""""" TUf e Gaming X.... mi aspetto poche soprese, ormai le custom le conosciamo

Lato estetico... boh. Piuttosto irrilevante per me dato che ho il pc dietro il tv. Se è silenziosa ed ha prestazioni eccellenti può essere anche un Tetraedro

narniagreen
23-09-2022, 08:42
Ciao grid entro a lavoro ora non ti posso rispondere ;)
Ciao :)
DLSS3 is actually a bad technique.

Say an RT game runs at 30FPS (32ms+ input latency).

DLSS3 needs to wait 32ms to examine 2 whole frames + the DLSS3 processing time before generating a new frame

So:
40ms DLSS3 90fps vs
11ms native 90fps

Se questo è vero è proprio da buttare

Se fosse così, cambia solo la barretta degli fps, non l'effettivo guadagno.

esempio
dlss3 90fps 40ms
native 30fps 33ms.
impossibile che quadruplichi la latenza, non avrebbero mai fatto uscire una tecnologia simile fosse vero

così come è impossibile che faccia l'enorme gap prestazionale penalizzando la qualità visiva

cioè dai sono le prime due cose che i recensori proveranno una volta fatti partire i bench, sicuramente non sarà perfetta ma nemmeno così male come scrivi tu

no così:
dlss3 90fps 40ms
native 30fps 33ms.

devi confrontarlo con la scena di partenza, non con nativa a pari fps di quello che avresti con dlss3

Andy1111
23-09-2022, 08:48
Ciao :)


Se fosse così, cambia solo la barretta degli fps, non l'effettivo guadagno.

esempio
dlss3 90fps 40ms
native 30fps 33ms.


no così:
dlss3 90fps 40ms
native 30fps 33ms.

devi confrontarlo con la scena di partenza, non con nativa a pari fps di quello che avresti con dlss3

Vedremo quanto esce , nvidia per mitigare il tutto ci ha messo anche reflex se ricordo bene, non farà miracoli ma ....

Predator_1982
23-09-2022, 08:56
Ecco infatti credo che quell'alimentatore non sia supportato da quel cavo per un questione di potenza.
Le specifiche della 4090 richiedono esplicitamente un 850 w (da sito nvidia)

:muro:

Goofy Goober
23-09-2022, 08:59
DLSS3 is actually a bad technique.

Say an RT game runs at 30FPS (32ms+ input latency).

DLSS3 needs to wait 32ms to examine 2 whole frames + the DLSS3 processing time before generating a new frame

So:
40ms DLSS3 90fps vs
11ms native 90fps

Se questo è vero è proprio da buttare

Wow.
Questo nuovo DLSS3 mi ricorda tanto il black frame insertion/de-judder che usano le tv per creare l'effetto telenovela superfluido.

E io che mi sentivo strano ad usare SVP Smooth Video Player per farlo fare alla gpu mentre guardo i film di animazione a 60fps per non avere stuttering nelle scene di panning violento

Ora le schede video lo applicano ai videogiochi.
Ri-Wow

Maury
23-09-2022, 09:18
Ma siete tutti orientati alla 4090 ?

Come cambia il mondo :fagiano:

narniagreen
23-09-2022, 09:23
Il giochino di giacchetta ha funzionato perfettamente, d'altronde mica sono stupidi.

Mettono due 4080 ridicole a prezzi ancora più ridicoli e l'effetto è che la gente gli compra la 4090 a 2.000 euro :sofico:

Esattamente, mica è fesso... lui :D

sertopica
23-09-2022, 09:25
Se proseguono come da tradizione Zotac avrà il prezzo più basso, ma sarà più rumorosa (anche se mi pare che le ventole forse abbiano capito come vanno fatte) e boosterà meno, Suprim, Aorus e Strix se la giocheranno. MSI silenziosa as usual, con i """"""best Buy"""""""" TUf e Gaming X.... mi aspetto poche soprese, ormai le custom le conosciamo

Lato estetico... boh. Piuttosto irrilevante per me dato che ho il pc dietro il tv. Se è silenziosa ed ha prestazioni eccellenti può essere anche un Tetraedro
Giusto.

Esteticamente fregacazz anche a me, ma si parlava di quello. Ma comunque pur avendo un po' di dindi da parte stavolta se la possono tenere sta scheda. Non bisogna assecondarli, al di la' del fatto che uno possa permettersela o meno, la passione, ecc.

Lisa facci 'o miracolo!

devAngnew
23-09-2022, 09:25
Di pure 3080 12 vs 4080 12. Vanno uguale e tdp simile. Che evoluzione!

NOn hai tutti i torti qui paghiamo il nuovo processo produttivo altro che :sofico:

DLSS3 is actually a bad technique.

Say an RT game runs at 30FPS (32ms+ input latency).

DLSS3 needs to wait 32ms to examine 2 whole frames + the DLSS3 processing time before generating a new frame

So:
40ms DLSS3 90fps vs
11ms native 90fps

Se questo è vero è proprio da buttare

La fonte :confused:
Cmq. già l'avevo evidenziata questa cosa (non empiricamente), sono necessarie recensioni in cui non si vedono solo i frame ma anche la misura dell'inpunt lag.
Una prova preliminare (sull'input lag) che si potrebbe fare, è testare qualche gioco che usa nvidia reflex forse God of war ? :D

D4N!3L3
23-09-2022, 09:26
Esattamente, mica è fesso... lui :D

Giacchetta mi ha detto che la 4090 è buona.

Io mi fido di Giacchetta.

Se Giacchetta dice che è buona allora è vero.

Io comprare quello che Giacchetta vendere.

Lui diventare ricco, io povero. Questo buono.

devAngnew
23-09-2022, 09:27
Dati sulle prestazioni di GeForce RTX 4090 e nuove funzionalità dettagliate da NVIDIA

Durante una presentazione a porte chiuse con la stampa, NVIDIA ha condiviso i primi dati concreti sulle prestazioni della GPU GeForce RTX 4090, il cui lancio è previsto per il 12 ottobre . Mentre la presentazione pubblica utilizzava solo punti di riferimento vaghi, in questa diapositiva abbiamo ottenuto i numeri FPS effettivi, basati su test di risoluzione 4K con Super Resolution DLSS impostato su Performance Mode. La CPU utilizzata era una Intel i9 12900K, dotata di 32GB di RAM e funzionante su Windows 11 a 64 bit.

Tutti i test elencati di seguito sono stati effettuati in giochi con supporto DLSS 3 , evidenziando l'importanza di questa nuova tecnologia per ottenere le massime prestazioni. NVIDIA ha quindi diviso i risultati in due fasce: i giochi di oggi e i giochi di domani.

Giochi di oggi
Microsoft Flight Simulator - 103 FPS
Warhammer 40.000: Darktide - 138 FPS
Demo di Unreal Engine 5 Lyra (RT) - 155 FPS
F1 22 (RT) - 204 FPS
Demo di Unity Enemies (RT) - 89 FPS
Cyberpunk 2077 (RT) - 141 FPS

Giochi di domani
Cyberpunk 2077 (RT max - Modalità Overdrive ) - 90 FPS
NVIDIA Racer RTX (Full RT) - 80 FPS
Justice (RT completo) - 81 FPS
Portal RTX (Full RT) - 117 FPS

https://cdn.wccftech.com/wp-content/uploads/2022/09/DLSS-3-Performance-1920x1010.jpg

Come puoi vedere, i guadagni in termini di prestazioni registrati dalla GeForce RTX 4090 sono più significativi nei giochi che supportano implementazioni di ray tracing più avanzate. Ad esempio, i giochi senza RT abilitati come Microsoft Flight Simulator e Warhammer 40,000: Darktide ottengono solo incrementi delle prestazioni 2X, ma la demo UE5 e F1 22 non sono lontani da aumenti 3X, mentre la demo Unity e Cyberpunk 2077 sono vicini agli aumenti 4X.

Il gioco di CD Projekt RED sarà presto aggiornato con la modalità Overdrive, che aggiunge calcoli RT più complessi. In modalità Overdrive, la GeForce RTX 4090 funziona 4 volte più velocemente con DLSS 3 abilitato, mentre Racer RTX è di circa 4,5 volte, Justice è quasi a 5 volte e Portal RTX non è lontano da un aumento delle prestazioni di 6 volte.

NVIDIA ha anche discusso di diverse aggiunte hardware realizzate appositamente per ottimizzare il ray tracing sulla nuova architettura Ada Lovelace. Questo perché dalla prima introduzione del ray tracing in Battlefield V, che richiedeva solo 39 operazioni RT per pixel, i titoli più avanzati sono diventati molto più faticosi. L'imminente Cyberpunk 2077 Overdrive Mode, ad esempio, richiede 635 operazioni RT per pixel.

La prima e più importante aggiunta si chiama Shader Execution Reordering. Come spiegato da Jonah Alben, Senior VP of GPU Engineering di NVIDIA, in un gioco ray traced, se alcuni raggi colpiscono aree diverse della scena, non saranno in grado di eseguire lo stesso programma e dovranno quindi rimanere inattivi mentre il primo raggio sta finendo.

SER aiuta aggiungendo una nuova fase nella pipeline di ray tracing in cui i raggi che dovrebbero essere eseguiti sullo stesso programma vengono raggruppati, guadagnando efficienza.
Secondo NVIDIA, SER consente significativi incrementi delle prestazioni in Cyberpunk 2077: modalità Overdrive (+44%), Portal RTX (+29%) e Racer RTX (+20%).

Un'altra innovazione introdotta nella GeForce RTX 4090 e nell'architettura Ada Lovelace nel suo insieme è Displaced Micro-Mesh (DMM). Ancora una volta, è mirato all'ottimizzazione del ray-tracing per la geometria. Il nuovo core RT di terza generazione è in grado di comprendere ed elaborare un BVH (Bounding Volume Gerarchia) ottimizzato. Di conseguenza, le prestazioni di build BVH sono migliorate e i requisiti di archiviazione sono diminuiti.

Le micromesh spostate saranno supportate sia dagli strumenti Simplygon che Adobe.

Infine, Opacity Micro-Maps rende più facile per i core RT capire in che modo gli oggetti irregolari dovrebbero essere influenzati dai raggi. Ciò si ottiene attraverso maschere di opacità che includono stati di opacità predeterminati come traslucido, opaco o sconosciuto. In quanto tali, gli OMM possono salvare un viaggio indietro agli Streaming Multiprocessors (SM) e quindi migliorare le prestazioni, nel caso seguente, del 10%.


... nessun giornalista che chiede come vanno in raster puro? boh

FONTE (https://wccftech.com/geforce-rtx-4090-performance-figures-and-new-features-detailed-by-nvidia/)

Neanche i grafici a barre ma dove andremo a finire ... :eek: :rolleyes: :D

Le domande son pilotate a priori :sofico:

Maury
23-09-2022, 09:28
Il giochino di giacchetta ha funzionato perfettamente, d'altronde mica sono stupidi.

Mettono due 4080 ridicole a prezzi ancora più ridicoli e l'effetto è che la gente gli compra la 4090 a 2.000 euro :sofico:

E' riuscito a far sembrare le 4090 convenienti roba da matti :D