PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 [398] 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

argez
15-07-2023, 08:36
Ma almeno leggete gli articoli prima di sentenziare, la modifica non impedisce meccanicamente lo scorrimento all'indietro del connettore ma bensì inibisce il funzionamento perchè i contatti di feedback, ora più corti, non toccando più disabilitano l'erogazione nel momento in cui questo succede.

E per la cronaca, il gioco tra le parti è tale che questo succede per una bella misura senza che la clip di ritenzione si sganci, per capire cosa intendo guardate la seguente porzione di video :

https://youtu.be/RT89QmrNisE?t=739

https://www.youtube.com/watch?v=S4Gj0lkUlSs

Primo commento:
"I bought 1 of Corsairs newer Shift X ATX 3.0 PSU's recently and all the connectors on the PSU side are their own proprietary connectors, When I asked on their reddit about why they didn't use 12VHPWR on the PSU side a rep said and I quote "our connectors are very secure and if any connectors on GPU's or motherboards change we can simply come out with a new cable rather than replacing the entire PSU" which I think is a smart move."

Se gente come corsair e super flower (leadex VII) non si son fidati a mettere il 12vhpwr forse forse due domande me le farei.

Cutter90
15-07-2023, 08:39
https://www.youtube.com/watch?v=S4Gj0lkUlSs

Primo commento:
"I bought 1 of Corsairs newer Shift X ATX 3.0 PSU's recently and all the connectors on the PSU side are their own proprietary connectors, When I asked on their reddit about why they didn't use 12VHPWR on the PSU side a rep said and I quote "our connectors are very secure and if any connectors on GPU's or motherboards change we can simply come out with a new cable rather than replacing the entire PSU" which I think is a smart move."

Se gente come corsair e super flower (leadex VII) non si son fidati a mettere il 12vhpwr forse forse due domande me le farei.

Si e mi do anche una risposta. mettendoli lato PSU proprietari tu puoi comprare solo il loro. davvero siete così ingenui?
Anche perchè ogni psu avrà magari un modo diverso di uscire con la corrente. ecco perchè i cavi delle psu non possono mai essere scambiati tra marche.....

ColdWarGuy
15-07-2023, 09:04
https://www.youtube.com/watch?v=S4Gj0lkUlSs

Primo commento:
"I bought 1 of Corsairs newer Shift X ATX 3.0 PSU's recently and all the connectors on the PSU side are their own proprietary connectors, When I asked on their reddit about why they didn't use 12VHPWR on the PSU side a rep said and I quote "our connectors are very secure and if any connectors on GPU's or motherboards change we can simply come out with a new cable rather than replacing the entire PSU" which I think is a smart move."

Se gente come corsair e super flower (leadex VII) non si son fidati a mettere il 12vhpwr forse forse due domande me le farei.

Big fail ever, ed il fatto che stanno intervenendo a riguardo ne è la prova così come il fatto che AMD si sia rifiutata di adottarlo.

Fantastico che li abbiano montati su schede che costano uno stipendio mensile medio, curioso vedere che molti dei propietari difendano a spada tratta questa scelta fallimentare che ha portato ad una serie di "disgrazie" mai viste prima nella storia di connettori di alimentazione ambito PC.

Cutter90
15-07-2023, 09:08
Ma almeno leggete gli articoli prima di sentenziare, la modifica non impedisce meccanicamente lo scorrimento all'indietro del connettore ma bensì inibisce il funzionamento perchè i contatti di feedback, ora più corti, non toccando più disabilitano l'erogazione nel momento in cui questo succede.

E per la cronaca, il gioco tra le parti è tale che questo succede per una bella misura senza che la clip di ritenzione si sganci, per capire cosa intendo guardate la seguente porzione di video :

https://youtu.be/RT89QmrNisE?t=739

E ciò in che modo eslcude quello che ho detto scusa?
Visto che la gente non sapeva infilare un connettore, hanno inserito una sicurezza che stoppa l'erogazione quando non è inserito bene....
Intanto io quando cambierò gran parte del pc a settembre avrò 1 cavo solo da ali a 4090.

ColdWarGuy
15-07-2023, 09:14
Dopo 10 giorni di ospedale per un problema che all'alba dei 30 anni probabilmente non mi meritavo, specialmente a 15 giorni da un concorso statale che preparo da 1 anno, ho avuto il piacere di provare una scheda con dlss3 una 4070ti. E niente è come pensavo, a bassi frame in cp2077 overdrive si percepisce chiaramente che c'è qualcosa che non va mouse alla mano (un pò come quando giochi agli fps col vsync però peggio) ad alti frame va bene ma se già faccio tot frame a cosa mi serve? Col pad nei giochi action decisamente meglio però anche li forse il raddoppio degli fps manco serve, spero in Nvidia che non abbandonino mai la ricerca della potenza nuda e cruda per questi artifici un pò meh.

Quindi confermi il problema della latenza introdotta dal fake generator, ho perfettamente presente l'effetto che hai descritto e personalmente lo sopporto zero.

Ho provato a giocare con un buon feeling in certi giochi a 25-30 FPS e con estremo fastidio a 60 (o più) con vsync attivo e latenza alta su altri, soprattutto quelli di guida.

D'altra parte aspettarsi che la GPU produca frames utili in autonomia, al di fuori del controllo del motore del gioco che processa gli input della tastiera/mouse, senza introdurre latenza è decisamente da ingenui.

StylezZz`
15-07-2023, 09:29
Allora le 4000 con il connettore ''vecchio'' varranno meno nell'usato? Coda per una 4090 FE 800€ spedita :p

Cutter90
15-07-2023, 09:56
Quindi confermi il problema della latenza introdotta dal fake generator, ho perfettamente presente l'effetto che hai descritto e personalmente lo sopporto zero.

Ho provato a giocare con un buon feeling in certi giochi a 25-30 FPS e con estremo fastidio a 60 (o più) con vsync attivo e latenza alta su altri, soprattutto quelli di guida.

D'altra parte aspettarsi che la GPU produca frames utili in autonomia, al di fuori del controllo del motore del gioco che processa gli input della tastiera/mouse, senza introdurre latenza è decisamente da ingenui.

Sottolineiamo però che questo fenomeno si può notare, ma cmq essere giocabile ( o non avere alternative), come cp2077, se si parte da bassi fps.
Poi, giocare ai competitivi con il FG è ovviamente controproducente.
Ma nei single player non si avverte alcun aumento della latenza in modo tangibile se si arriva intorno ai 90-100 fps.
Quindi non è una feature che si può attivare sempre senza svantaggi. Ma usato nel suo range di utlizzo da vantaggi in termini di fps incredibili.
Esempio: Plague tale senza FG 50-60 fps. Con FG 90-100 fps. Il tutto, e questo noto che è un vantaggio che raramente viene menzionato, non gravando su nessuna componente come carico. Quindi anche chi ha una cpu più vecchiotta tipo la mia, in Spiderman (che è un gioco cpu intensive) si facevano più di 100 fps grazie al FG

lordsnk
15-07-2023, 10:50
Allora le 4000 con il connettore ''vecchio'' varranno meno nell'usato? Coda per una 4090 FE 800€ spedita :p

Al massimo facciamo 800€ x 2 :D
Vista la situazione un pagamento rateale mi sembra congruo :rotfl:

grng
15-07-2023, 11:35
Vero che ora esistono mainboard da 1500 euro, ma la verità è che con 200-250 euro sei più che servito.
Le mb sono forse la componente che piú é aumentata di prezzo, basta confrontare le versioni di qualche anno fa con le attuali, a paritá di nomenclatura costano il doppio.
Vg sono in miglioramento, anche se non ancora a posto.
ram, ssd etc te li tirano dietro a momenti lol

Ubro92
15-07-2023, 11:39
Le mb sono forse la componente che piú é aumentata di prezzo, basta confrontare le versioni di qualche anno fa con le attuali, a paritá di nomenclatura costano il doppio.
Vg sono in miglioramento, anche se non ancora a posto.
ram, ssd etc te li tirano dietro a momenti lol

Ma forse quelle AM5, le varie mobo intel a seconda delle promo si trovano a prezzi decenti.

ColdWarGuy
15-07-2023, 17:05
E ciò in che modo eslcude quello che ho detto scusa?
Visto che la gente non sapeva infilare un connettore, hanno inserito una sicurezza che stoppa l'erogazione quando non è inserito bene....
Intanto io quando cambierò gran parte del pc a settembre avrò 1 cavo solo da ali a 4090.

Vedo che il concetto fa fatica ad essere compreso malgrado il video, provo a riformulare :

innesti il connettore, spingi bene fino in fondo e senti lo scatto della clip di ritenzione, tutto OK ... fino a che non sposti qualcosa nel case e con i tensionamenti del caso il connettore volante femmina scivola all'indietro anche più di un millimetro per il gioco della clip che rimane sempre giù e ti trae in inganno.

Ergo, l'accoppiamento tra connettore a PCB e quello volante ha un gioco che non dovrebbe avere, non è che di colpo sono diventati tutti dementi che si divertono a fare c@zz@te per poi litigare con il costruttore che si rifiuta di prendersi le sue responsabilità e ti rimbalza indietro la scheda dall'RMA.

C'è anche il discorso delle differenti tipologie di contatti del connettore femmina, alcuni non esercitano sufficiente pressione sul maschio :

Intel may have found the solution to Nvidia’s melting GPUs (https://www.digitaltrends.com/computing/intel-solution-for-nvidia-melting-gpu-power-connector-12vhpwr/)

ColdWarGuy
15-07-2023, 17:19
Le mb sono forse la componente che piú é aumentata di prezzo, basta confrontare le versioni di qualche anno fa con le attuali, a paritá di nomenclatura costano il doppio.
Vg sono in miglioramento, anche se non ancora a posto.
ram, ssd etc te li tirano dietro a momenti lol

Vero, ma mediamente sono tutte migliorate lato VRM rispetto al passato e già con 200 euro sei a posto per utilizzi "normali", se vai cheap di processore, tipo un 13400, basta una B760 da 90 euro, quindi almeno per queste parti ci sono ancora ampi margini di manovra.

Cutter90
15-07-2023, 17:23
Vedo che il concetto fa fatica ad essere compreso malgrado il video, provo a riformulare :

innesti il connettore, spingi bene fino in fondo e senti lo scatto della clip di ritenzione, tutto OK ... fino a che non sposti qualcosa nel case e con i tensionamenti del caso il connettore volante femmina scivola all'indietro anche più di un millimetro per il gioco della clip che rimane sempre giù e ti trae in inganno.

Ergo, l'accoppiamento tra connettore a PCB e quello volante ha un gioco che non dovrebbe avere, non è che di colpo sono diventati tutti dementi che si divertono a fare c@zz@te per poi litigare con il costruttore che si rifiuta di prendersi le sue responsabilità e ti rimbalza indietro la scheda dall'RMA.

C'è anche il discorso delle differenti tipologie di contatti del connettore femmina, alcuni non esercitano sufficiente pressione sul maschio :

Intel may have found the solution to Nvidia’s melting GPUs (https://www.digitaltrends.com/computing/intel-solution-for-nvidia-melting-gpu-power-connector-12vhpwr/)

Ah perché questa cosa non è colpa dell utenza? Perché dovresti "spostare qualcosa?" Sarà stato tirato o spinto di brutto. Ricordo, giusto per, che i casi accertati stanno sulle dita di una mano. Quindi di che parliamo?

Salfox
15-07-2023, 17:26
Vedo che il concetto fa fatica ad essere compreso malgrado il video, provo a riformulare :

innesti il connettore, spingi bene fino in fondo e senti lo scatto della clip di ritenzione, tutto OK ... fino a che non sposti qualcosa nel case e con i tensionamenti del caso il connettore volante femmina scivola all'indietro anche più di un millimetro per il gioco della clip che rimane sempre giù e ti trae in inganno.

Ergo, l'accoppiamento tra connettore a PCB e quello volante ha un gioco che non dovrebbe avere, non è che di colpo sono diventati tutti dementi che si divertono a fare c@zz@te per poi litigare con il costruttore che si rifiuta di prendersi le sue responsabilità e ti rimbalza indietro la scheda dall'RMA.



Hai provato con la camomilla? :D :D :D :D
Ti vedo davvero teso :D :D :D
Forse potrebbe risolvere il tuo problema.

ColdWarGuy
15-07-2023, 23:54
Hai provato con la camomilla? :D :D :D :D
Ti vedo davvero teso :D :D :D
Forse potrebbe risolvere il tuo problema.

Teso io ?

Siete più triggerabili di una corda di violino, appena si parla male del vostro schedone o del fatto che MAGARI l'avete pagata troppo vi alternate a difendere il gingillo, il miglior acquisto di sempre.

Ne siete convinti ?

Perfetto, vi ricordo che avete il club esclusivo, questo è quello per quelli che non cedono ai ricatti e pensano che 2000 euro per una GPU sono buttati nel cesso.

mikael84
16-07-2023, 00:46
Dopo 10 giorni di ospedale per un problema che all'alba dei 30 anni probabilmente non mi meritavo, specialmente a 15 giorni da un concorso statale che preparo da 1 anno, ho avuto il piacere di provare una scheda con dlss3 una 4070ti. E niente è come pensavo, a bassi frame in cp2077 overdrive si percepisce chiaramente che c'è qualcosa che non va mouse alla mano (un pò come quando giochi agli fps col vsync però peggio) ad alti frame va bene ma se già faccio tot frame a cosa mi serve? Col pad nei giochi action decisamente meglio però anche li forse il raddoppio degli fps manco serve, spero in Nvidia che non abbandonino mai la ricerca della potenza nuda e cruda per questi artifici un pò meh.

Spero niente di grave.

ColdWarGuy
16-07-2023, 00:46
NVIDIA aggiorna in segreto il connettore della RTX 4090 (https://www.tomshw.it/hardware/nvidia-aggiorna-in-segreto-il-connettore-della-rtx-4090/)

"Per scoprire se su una scheda è utilizzato il nuovo connettore 12V-2×6 è controllare la dicitura: “H+” indica l’uso del vecchio 16 pin, mentre “H++” indica l’implementazione del nuovo standard."

Rest in Peace 12VHPWR Connector – Welcome 12V-2×6 Connector, important modifications (https://www.igorslab.de/en/rest-in-peace-12vhpwr-connector-welcome-12v-2x6-connector/)

"To dismiss the problem with the 12VHPWR only sweepingly with the incompetence of the users may have been very convenient for NVIDIA one day before the announcement of the quarterly results, but it simply does not do justice to the complex matter."

sertopica
16-07-2023, 06:57
Dopo 10 giorni di ospedale per un problema che all'alba dei 30 anni probabilmente non mi meritavo, specialmente a 15 giorni da un concorso statale che preparo da 1 anno, ho avuto il piacere di provare una scheda con dlss3 una 4070ti. E niente è come pensavo, a bassi frame in cp2077 overdrive si percepisce chiaramente che c'è qualcosa che non va mouse alla mano (un pò come quando giochi agli fps col vsync però peggio) ad alti frame va bene ma se già faccio tot frame a cosa mi serve? Col pad nei giochi action decisamente meglio però anche li forse il raddoppio degli fps manco serve, spero in Nvidia che non abbandonino mai la ricerca della potenza nuda e cruda per questi artifici un pò meh.

Buona fortuna e buona guarigione.

Si', purtroppo e' cosi', il movimento del mouse "scivola", la reazione all'input e' ritardata e si nota parecchio gia' a partire dai 70-80 fps, che in realta' sono appunto 35-40. Il meglio lo da' dai 50-60 fps "puri" in su. Me ne accorgo soprattutto quando apro l'overlay di reshade e seleziono le opzioni con il mouse, li' vedi chiaramente quanto lag ci sia in determinate situazioni dove la 4090 e' al limite persino a 1440p con Overdrive e DLSS qualita'. :D

Ma appunto, Overdrive e' un caso limite... Per ora. :stordita:

argez
16-07-2023, 07:38
NVIDIA aggiorna in segreto il connettore della RTX 4090 (https://www.tomshw.it/hardware/nvidia-aggiorna-in-segreto-il-connettore-della-rtx-4090/)

"Per scoprire se su una scheda è utilizzato il nuovo connettore 12V-2×6 è controllare la dicitura: “H+” indica l’uso del vecchio 16 pin, mentre “H++” indica l’implementazione del nuovo standard."

Rest in Peace 12VHPWR Connector – Welcome 12V-2×6 Connector, important modifications (https://www.igorslab.de/en/rest-in-peace-12vhpwr-connector-welcome-12v-2x6-connector/)

"To dismiss the problem with the 12VHPWR only sweepingly with the incompetence of the users may have been very convenient for NVIDIA one day before the announcement of the quarterly results, but it simply does not do justice to the complex matter."

Ormai anche con schede da 1600$ sei un beta tester.

Cutter90
16-07-2023, 08:23
Teso io ?

Siete più triggerabili di una corda di violino, appena si parla male del vostro schedone o del fatto che MAGARI l'avete pagata troppo vi alternate a difendere il gingillo, il miglior acquisto di sempre.

Ne siete convinti ?

Perfetto, vi ricordo che avete il club esclusivo, questo è quello per quelli che non cedono ai ricatti e pensano che 2000 euro per una GPU sono buttati nel cesso.

Visto che qualsiasi scusa è buona per parlarne male è giusti che ci triggheriamo.
Io cmq la mia 4090 l ho pagata troppo, sempre detto.
Ora come la mettiamo?

ColdWarGuy
16-07-2023, 08:47
Ormai anche con schede da 1600$ sei un beta tester.

E non solo sulle GPU, vedi il caso delle mainboard AM5 Asus da 1000 errotti euro che friggono i processori danneggiando anche il socket, con il customer cornuto e mazziato pechè non gli accettano l'RMA.

IL problema tecnico su un prodotto nuovo ci può stare, capita, è il riversare interamente la colpa sull'acquirente che è a dir poco inaccettabile.

ColdWarGuy
16-07-2023, 08:52
Visto che qualsiasi scusa è buona per parlarne male è giusti che ci triggheriamo.
Io cmq la mia 4090 l ho pagata troppo, sempre detto.
Ora come la mettiamo?

Che noi qui si continua ad aspettare qualcosa che abbia un prezzo sensato per un giocattolo.

ColdWarGuy
16-07-2023, 09:05
Gigabyte GeForce RTX 4060 Low-Profile (https://wccftech.com/gigabyte-geforce-rtx-4060-low-profile-gpu-pictured-triple-fan-quad-display-outputs/)

https://i.postimg.cc/nhWB4jLL/Gigabyte-Ge-Force-RTX-4060-Low-Profile-GPU-With-Triple-Fan-Cooler-1-g-very-compressed-scale-2-00x-72.jpg

mikael84
16-07-2023, 11:37
Gigabyte GeForce RTX 4060 Low-Profile (https://wccftech.com/gigabyte-geforce-rtx-4060-low-profile-gpu-pictured-triple-fan-quad-display-outputs/)



Almeno anche i meno esperti, tra pci exp tagliato, e low profile, possono capire meglio che sotto ci sono x50, tendenti all'x30.:p

grng
16-07-2023, 13:27
Si', purtroppo e' cosi', il movimento del mouse "scivola", la reazione all'input e' ritardata e si nota parecchio gia' a partire dai 70-80 fps, che in realta' sono appunto 35-40. Il meglio lo da' dai 50-60 fps "puri" in su. Me ne accorgo soprattutto quando apro l'overlay di reshade e seleziono le opzioni con il mouse, li' vedi chiaramente quanto lag ci sia in determinate situazioni dove la 4090 e' al limite persino a 1440p con Overdrive e DLSS qualita'. :D

Questo é un peccato, dato che funzionasse bene anche sui 30-40fps allungherebbe parecchio la longevitá di certe schede.
Pazienza, forse se ne riparlerá con le 50x0 quando si renderizzeranno i giochi in 720p per spararli in 8k inventandosi 4-5fps a botta :asd:

nessuno29
16-07-2023, 14:53
Buona fortuna e buona guarigione.

Si', purtroppo e' cosi', il movimento del mouse "scivola", la reazione all'input e' ritardata e si nota parecchio gia' a partire dai 70-80 fps, che in realta' sono appunto 35-40. Il meglio lo da' dai 50-60 fps "puri" in su. Me ne accorgo soprattutto quando apro l'overlay di reshade e seleziono le opzioni con il mouse, li' vedi chiaramente quanto lag ci sia in determinate situazioni dove la 4090 e' al limite persino a 1440p con Overdrive e DLSS qualita'. :D

Ma appunto, Overdrive e' un caso limite... Per ora. :stordita:

Grazie mille,

esattamente stesse impressioni mie ahah il mouse è gommosetto, possibile che nessuno youtuber abbia fatto dei test mouse alla mano?

StylezZz`
16-07-2023, 15:16
RTX 4050 vs RTX 4090 - How Big is the Difference? (https://www.youtube.com/watch?v=iCJfFe2DGKI)

mikael84
16-07-2023, 15:45
RTX 4050 vs RTX 4080ti - How Big is the Difference? (https://www.youtube.com/watch?v=iCJfFe2DGKI)

fix obbligato per pignoleria.:p

Pignoleria mode on, level 2: in Ampere la differenza sarebbe tra 3090 ed una 3050 a 1920 anzichè 2560 cc.
Considerando che la x30 è un GPC (1536 shader), questa sarebbe a tutti gli effetti un ibrido tra x30 e x50.

StylezZz`
16-07-2023, 16:49
fix obbligato per pignoleria.:p

Ero tentato anche io di scriverlo, ma poi ho desistito :D

wulff73
16-07-2023, 17:05
fix obbligato per pignoleria.:p

Pignoleria mode on, level 2: in Ampere la differenza sarebbe tra 3090 ed una 3050 a 1920 anzichè 2560 cc.
Considerando che la x30 è un GPC (1536 shader), questa sarebbe a tutti gli effetti un ibrido tra x30 e x50.

L'anomalia però su Ampere è che tutta la linea dalla 3080ti alla 3090ti ha praticamente gli stessi CUDA Cores (come ben sai a causa di Samsung). La fascia alta di Ada sarebbe pure corretta se posizionassero una 4090ti a 18 mila e rotti CUDA con al 4090 a 16 mila ed una ipotetica 4080ti a 14 mila. E' da qui a scendere che tutte le GPU sono tagliate da schifo e prezzate malissimo.
PS: e per inciso e se non ricordo male è da parecchio tempo che le schede Nvidia tra una gen e l'altra scalano sempre di 2 fasce quindi una nuova 70 dovrebbe andare come la 90 della gen precedente, la 60 come la 80 e così via. Poi se Giacchetta riesce a dare queste prestazioni con mezzo CUDA in meno (grazie magari ad un nuovo processo produttivo, a frequenze più alte od alle preghiere di Padre Pio) meglio per lui...il problema è che ora hanno tagliato tutto, alzato i prezzi e manco raggiungono il target senza magheggi software che tanto spesso manco ci sono.

mikael84
16-07-2023, 17:23
L'anomalia però su Ampere è che tutta la linea dalla 3080ti alla 3090ti ha praticamente gli stessi CUDA Cores (come ben sai a causa di Samsung). La fascia alta di Ada sarebbe pure corretta se posizionassero una 4090ti a 18 mila e rotti CUDA con al 4090 a 16 mila ed una ipotetica 4080ti a 14 mila. E' da qui a scendere che tutte le GPU sono tagliate da schifo e prezzate malissimo.
PS: e per inciso e se non ricordo male è da parecchio tempo che le schede Nvidia tra una gen e l'altra scalano sempre di 2 fasce quindi una nuova 70 dovrebbe andare come la 90 della gen precedente, la 60 come la 80 e così via. Poi se Giacchetta riesce a dare queste prestazioni con mezzo CUDA in meno (grazie magari ad un nuovo processo produttivo, a frequenze più alte od alle preghiere di Padre Pio) meglio per lui...il problema è che ora hanno tagliato tutto, alzato i prezzi e manco raggiungono il target senza magheggi software che tanto spesso manco ci sono.

La 4090 ha un taglio cc enorme paragonato alle vecchie TI, ma la differenza non è solo nei CC, ma nel grosso taglio della cache, sminuzzata da 16 a 12mb per canale (da 8 a 6 x32 bit). Un modo elegante per cercare di salvare i canali.:)

Per il resto ADA è una sorta di refresh rivisto, puntato tutto sulla bontà del 5nm (4nm mod) di TSMC, rispetto al 10nm 3° gen (8lpp, ma il gate è da 10) di samsung, in cui hanno creato un big chip, pensando anche all'ambito pro, e sotto è tutta una serie di rebrand di Ampere, dove al posto del bus, hanno messo una pezza con la cache.

AD103-GA102
AD104-GA103 (chip che doveva ospitare la 3080)

Per la nuova gen, vediamo, il 3nm è abbastanza più denso. Il 3nmE può supportare densità per circuito anche di 200mt x mm2.
A sto giro ci sarà un cambio probabilmente a livello microarchitetturale, in quanto il PP è si migliore, ma non ci sarà questa differenza. Parliamo di valori di +12-18% sulle perf, e meno 25-35 in consumi.
Potrebbe avere chip belli energivori.
La 5070ti può arrivare a prendere la 4090, il problema è se lo farà mantenendo lo stesso prezzo. Si vedrà tutto al lancio della 5090 le intenzioni :D

ColdWarGuy
16-07-2023, 19:04
-snip

La 5070ti può arrivare a prendere la 4090, il problema è se lo farà mantenendo lo stesso prezzo. Si vedrà tutto al lancio della 5090 le intenzioni :D

Mah, io penso che ormai questi ragionamenti sulle sigle e sui prezzi delle fasce li possiamo anche abbandonare, tanto abbiamo visto che fanno spudoratamente quello che vogliono, AMD compresa, ogni regola è definitivamente saltata.

OrazioOC
16-07-2023, 19:12
La 4090 ha un taglio cc enorme paragonato alle vecchie TI, ma la differenza non è solo nei CC, ma nel grosso taglio della cache, sminuzzata da 16 a 12mb per canale (da 8 a 6 x32 bit). Un modo elegante per cercare di salvare i canali.:)

Per il resto ADA è una sorta di refresh rivisto, puntato tutto sulla bontà del 5nm (4nm mod) di TSMC, rispetto al 10nm 3° gen (8lpp, ma il gate è da 10) di samsung, in cui hanno creato un big chip, pensando anche all'ambito pro, e sotto è tutta una serie di rebrand di Ampere, dove al posto del bus, hanno messo una pezza con la cache.

AD103-GA102
AD104-GA103 (chip che doveva ospitare la 3080)

Per la nuova gen, vediamo, il 3nm è abbastanza più denso. Il 3nmE può supportare densità per circuito anche di 200mt x mm2.
A sto giro ci sarà un cambio probabilmente a livello microarchitetturale, in quanto il PP è si migliore, ma non ci sarà questa differenza. Parliamo di valori di +12-18% sulle perf, e meno 25-35 in consumi.
Potrebbe avere chip belli energivori.
La 5070ti può arrivare a prendere la 4090, il problema è se lo farà mantenendo lo stesso prezzo. Si vedrà tutto al lancio di RDNA4 e Intel Battlemage :D
Fix doveroso :D , JHH non ti darà mai uno stacco importante di gen in gen se non obbligato a farlo dalla concorrenza. :rolleyes:

Ubro92
16-07-2023, 19:20
Mah, io penso che ormai questi ragionamenti sulle sigle e sui prezzi delle fasce li possiamo anche abbandonare, tanto abbiamo visto che fanno spudoratamente quello che vogliono, AMD compresa, ogni regola è definitivamente saltata.

C'è da stendere un grosso velo, più che altro bisogna incrociare le dita che a pari costo ci sia un salto di prestazioni tangibile, perchè attualmente tra 3060 e 4060 o 3060ti e 4060ti la differenza prestazionale è misera rispetto a quella che c'è tra 4080 e 3080 o tra 3090 e 4090...

Sulle top non credo ci siano grossi dubbi, il problema è come gestiranno i mid chip.

OrazioOC
16-07-2023, 19:25
C'è da stendere un grosso velo, più che altro bisogna incrociare le dita che a pari costo ci sia un salto di prestazioni tangibile, perchè attualmente tra 3060 e 4060 o 3060ti e 4060ti la differenza prestazionale è misera rispetto a quella che c'è tra 4080 e 3080 o tra 3090 e 4090...

Sulle top non credo ci siano grossi dubbi, il problema è come gestiranno i mid chip.

Premesso che, una volta che ci siamo liberati degli enormi stock che ancora girano di 3050/60/70, è probabile chele rtx 4000 vengano un attimino ritarate nei vari listini, e che gli si affianchino anche i refresh super(non rimani con una lineup così fino al 2025, sarebbe grottesco), ti quoto in toto, ad oggi nessuno che ha una buona rtx 3000 o rx 6000 ti fa l'upgrade per sta gen.

mikael84
16-07-2023, 21:05
Mah, io penso che ormai questi ragionamenti sulle sigle e sui prezzi delle fasce li possiamo anche abbandonare, tanto abbiamo visto che fanno spudoratamente quello che vogliono, AMD compresa, ogni regola è definitivamente saltata.

Più che altro la regola di questa gen, è solo sovrapporre una nuova scheda cercando di smaltire le vecchie. mentre le top delle case. sono uscite subito, in quanto avevano via spianata, considerando che sono ad alto margine.
Lisa di AMD lo disse qualche mese fa, che cercavano di produrre meno, per smaltire le vecchie, e fare più margine con le nuove a prezzi più alti.
Leggi
https://www.hwupgrade.it/news/mercato/amd-consegna-meno-cpu-e-gpu-rispetto-a-quanto-potrebbe-fare-per-mantenere-i-prezzi-alti_113788.html

Quando avranno smaltito tutto, è probabile che facciano pure un aggiornamento.:) . Anche lo spostarsi sui 3nm lato HPC, lascerà più wafer a 5nm per i gamer.:)






Fix doveroso :D , JHH non ti darà mai uno stacco importante di gen in gen se non obbligato a farlo dalla concorrenza. :rolleyes:

Diciamo che è da questa gen, che stanno facendo così, per mantenere i margini e vendere le vecchie. Il problema però sarà smaltire i grossi volumi dei 5nm più avanti.
Un tempo si facevano i rebrand annuali, ora praticamente, salvo le top, ogni due anni.:p
In più questo salto di PP, ha incasinato tutto, soprattutto in fascia bassa. Ti do una ibrida x30/x50, tanto ci pensa san TSMC.:p
Inoltre dovendo coprire una 7600, paradossalmente ha fatto pure troppo.:sofico:

Su RDNA4, bah, su Battlemage, se lo scopo è solo raddoppiare gli shader, senza mettere mano alla microarchitettura, stiamo freschi.:)

Alodesign
16-07-2023, 23:24
Se hanno i magazzini pieni di 30x0 o 6x00 che inizino ad abbassare fortemente i prezzi di queste.

Voglio vendere le mie mele ma non le deprezzo, preferisco che marciscano.

P.s. e allora zzi tuoi, che ti marciscano nel magazzino.

ColdWarGuy
17-07-2023, 00:07
C'è da stendere un grosso velo, più che altro bisogna incrociare le dita che a pari costo ci sia un salto di prestazioni tangibile, perchè attualmente tra 3060 e 4060 o 3060ti e 4060ti la differenza prestazionale è misera rispetto a quella che c'è tra 4080 e 3080 o tra 3090 e 4090...

Sulle top non credo ci siano grossi dubbi, il problema è come gestiranno i mid chip.

Infatti, personalmente le TOP a questi prezzi non le considero neanche da ubriaco, punto esclusivamente le MID e qui si è fatta dura perchè a questo giro devi tirar fuori 900-1000 euro.

Se fossi rimasto fermo alla 1080 molto probabilmente avrei comprato una 4070 liscia, ma avendo la 3070 in mano minimo devo guardare alla 4070 Ti, ma proprio minimo.

E pensare che si era gridato allo scandalo con i prezzi della serie 1000 ....

ColdWarGuy
17-07-2023, 00:09
Fix doveroso :D , JHH non ti darà mai uno stacco importante di gen in gen se non obbligato a farlo dalla concorrenza. :rolleyes:

Come ha fatto Intel sino all'arrivo dei Ryzen ...

ColdWarGuy
17-07-2023, 00:51
-snip
Lisa di AMD lo disse qualche mese fa, che cercavano di produrre meno, per smaltire le vecchie, e fare più margine con le nuove a prezzi più alti.


A proposito di smaltire le vecchie, io continuo a vedere listini alti, soprattutto dei rivenditori più grandi, immagino che le abbiano pagate care e non si rassegnano, almeno per il momento, a rimetterci svendendo.

Va un po meglio con i VAT player e gli shop nati ieri, ma queste categorie non le considero proprio, quantomeno con questo genere di prodotti.



Su RDNA4, bah, su Battlemage, se lo scopo è solo raddoppiare gli shader, senza mettere mano alla microarchitettura, stiamo freschi.:)


Riguardo ai blu, più leggo riguardo ai bilanci della divisione AXG più temo che farà un brutta fine (felice di sbagliarmi).

Riguardo ai cinesi, non so se avete visto qualche prova fatta con la Moore Threads MTT S80, quello che si vede nel video del "capellone" è a dir poco grottesco, a me puzza di mera operazione di propaganda finanziata dal loro governo.

mikael84
17-07-2023, 02:20
A proposito di smaltire le vecchie, io continuo a vedere listini alti, soprattutto dei rivenditori più grandi, immagino che le abbiano pagate care e non si rassegnano, almeno per il momento, a rimetterci svendendo.

Va un po meglio con i VAT player e gli shop nati ieri, ma queste categorie non le considero proprio, quantomeno con questo genere di prodotti.




Riguardo ai blu, più leggo riguardo ai bilanci della divisione AXG più temo che farà un brutta fine (felice di sbagliarmi).

Riguardo ai cinesi, non so se avete visto qualche prova fatta con la Moore Threads MTT S80, quello che si vede nel video del "capellone" è a dir poco grottesco, a me puzza di mera operazione di propaganda finanziata dal loro governo.

Non mi sono mai addentrato dentro il cuore di quelle GPU, non ho letto brevetti sul chip, ma quello non è proprio un progettino tanto per, dietro c'è un ex capoccione nvidia, con i finanziamenti del governo cinese e americani.

Al momento ha un'ottima architettura, ma non ha driver per competere nel modo più assoluto.
La scheda pare avere 16 cluster da 256 shader (chiamati musa), ognuno contenente 16 rop's, 16 tmu e 8 tensor core.

Questo significa che tralasciando aspetti gaming (al momento), come le 256 rop's, che neppure la 4090 e la 7900xtx hanno, quella GPU può arrivare a 60 tops per i calcoli AI int8.

Questo rende chiaro come sia un prodotto si a 360°, ma orientato all'AI. e non è da sottovalutare per gli usi che se ne faranno.

Pensiamo che quando JHH si accorse che le maxwell venivano usate per inferenza usando le fp32, con pascal le blocco ad 1/64.

A livello di PP cmq, sono indietro mi pare stiano a 16nm.:)

OrazioOC
17-07-2023, 10:46
Diciamo che è da questa gen, che stanno facendo così, per mantenere i margini e vendere le vecchie. Il problema però sarà smaltire i grossi volumi dei 5nm più avanti.
Un tempo si facevano i rebrand annuali, ora praticamente, salvo le top, ogni due anni.:p
In più questo salto di PP, ha incasinato tutto, soprattutto in fascia bassa. Ti do una ibrida x30/x50, tanto ci pensa san TSMC.:p
Inoltre dovendo coprire una 7600, paradossalmente ha fatto pure troppo.:sofico:

Su RDNA4, bah, su Battlemage, se lo scopo è solo raddoppiare gli shader, senza mettere mano alla microarchitettura, stiamo freschi.:)

Bah 4060 non ha un gran futuro, troppa gente la vede come una gpu overpriced(idem la 4060 ti e in parte la 4070), vero che si confronta con una gpu di fascia medio/bassa della scorsa gen(è una 6650 xt alla fine della fiera) ma nè l'una nè l'altra è un buon upgrade dalle 3060/2060 super/5700 xt di 3/4 anni fa. :rolleyes:

Ho fiducia in intel(assurdo a dirsi visto che parliamo di GPU), le voci che ho sentito sul fatto che gli AIB stiano trattando per una linea gaming su base ARC Battlemage mi danno fiducia.
Portarsi nel proprio portfolio brand come asus, giga e msi sarebbe un colpo mica da ridere. :D

Chiaro non mi aspetto un'anti 5090 o 5080, ma mi aspetto un'anti 5070ti(che sarà sulla falsa riga dell'attuale 4090) e con un chip a 3nm di 400 mm^2, con un'uarch rivista e driver migliorati, può essere alla portata della loro top di gamma nel 2025.

Maury
17-07-2023, 10:58
Bah 4060 non ha un gran futuro, troppa gente la vede come una gpu overpriced(idem la 4060 ti e in parte la 4070), vero che si confronta con una gpu di fascia medio/bassa della scorsa gen(è una 6650 xt alla fine della fiera) ma nè l'una nè l'altra è un buon upgrade dalle 3060/2060 super/5700 xt di 3/4 anni fa. :rolleyes:

Ho fiducia in intel(assurdo a dirsi visto che parliamo di GPU), le voci che ho sentito sul fatto che gli AIB stiano trattando per una linea gaming su base ARC Battlemage mi danno fiducia.
Portarsi nel proprio portfolio brand come asus, giga e msi sarebbe un colpo mica da ridere. :D

Chiaro non mi aspetto un'anti 5090 o 5080, ma mi aspetto un'anti 5070ti(che sarà sulla falsa riga dell'attuale 4090) e con un chip a 3nm di 400 mm^2, con un'uarch rivista e driver migliorati, può essere alla portata della loro top di gamma nel 2025.

Sei più ottimista di me su Battlemage :sofico:

Battlemage non ci arriva così in alto, è dato per max 225w di tdp. Io direi 4070ti/4080, che sarebbe già ottimo. :)

OrazioOC
17-07-2023, 11:30
Sei più ottimista di me su Battlemage :sofico:

Battlemage non ci arriva così in alto, è dato per max 225w di tdp. Io direi 4070ti/4080, che sarebbe già ottimo. :)

Beh se mi prendi la 4080, non ci sputerei sopra, sarebbe sulla falsariga della prossima rtx 5070. :asd:

Chiaro che ci sono molte incognite, ma un conto è presentarsi con una "poco più che 3060 12gb" come nel 2022 con la a770, un altro con una simil 5070. :D

Saturn
17-07-2023, 11:40
Sei più ottimista di me su Battlemage :sofico:

Battlemage non ci arriva così in alto, è dato per max 225w di tdp. Io direi 4070ti/4080, che sarebbe già ottimo. :)

Ci metterei la firma !

E la comprerei in anteprima, prezzo permettendo si intende ! ;)

mikael84
17-07-2023, 11:58
Bah 4060 non ha un gran futuro, troppa gente la vede come una gpu overpriced(idem la 4060 ti e in parte la 4070), vero che si confronta con una gpu di fascia medio/bassa della scorsa gen(è una 6650 xt alla fine della fiera) ma nè l'una nè l'altra è un buon upgrade dalle 3060/2060 super/5700 xt di 3/4 anni fa. :rolleyes:

Ho fiducia in intel(assurdo a dirsi visto che parliamo di GPU), le voci che ho sentito sul fatto che gli AIB stiano trattando per una linea gaming su base ARC Battlemage mi danno fiducia.
Portarsi nel proprio portfolio brand come asus, giga e msi sarebbe un colpo mica da ridere. :D

Chiaro non mi aspetto un'anti 5090 o 5080, ma mi aspetto un'anti 5070ti(che sarà sulla falsa riga dell'attuale 4090) e con un chip a 3nm di 400 mm^2, con un'uarch rivista e driver migliorati, può essere alla portata della loro top di gamma nel 2025.

Battlemage sarà sui 4nm, Celestial sarà sui 3nm nel 2026.
Ad oggi quello che sappiamo, sta nel raddoppio delle unità, neppure se ci saranno aggiornamenti microarchitetturali. Per di più si parla di 7168 shader, su 2x le XE, ma su 448 EU, quindi o hanno le idee molto confuse, o non raddoppiano le EU, ma gli shader per EU, questo creerebbe problemi anche con i core RT.

Senza stravolgimenti, ed un 2x flops, fai massimo un 60%, che ad oggi è 4070 medio.
Si parla di 370mm2, il die della 4080 praticamente, ma non andrai di certo a pareggiare questa per transistor, considerando che Arc ha un die a 6nm da 407mm2 e quasi 22mtransistor. Per un confronto la 3070ti ne ha 17mtransistor ma clocka a -5/600mhz per via del PP.:p

ninja750
17-07-2023, 13:11
Chiaro che ci sono molte incognite, ma un conto è presentarsi con una "poco più che 3060 12gb" come nel 2022 con la a770, un altro con una simil 5070. :D

apri il thread "aspettando le nuove vga moore threads" che hanno appena presentato la S80 :O poi arrivo

ColdWarGuy
17-07-2023, 17:38
Non mi sono mai addentrato dentro il cuore di quelle GPU, non ho letto brevetti sul chip, ma quello non è proprio un progettino tanto per, dietro c'è un ex capoccione nvidia, con i finanziamenti del governo cinese e americani.


Guardati il video :

https://www.youtube.com/watch?v=qPMptuEokPQ,

poi ne riparliamo :D

Ale55andr0
17-07-2023, 17:55
A proposito di smaltire le vecchie, io continuo a vedere listini alti.

verissimo, sento di continuo sta storia di smaltirle e poi non le abbassano manco ammazzati. Di questo passo non si smuoverà nulla nemmeno per il 2025. Siano maledetti quei cani degli scalper e i miner che hanno "insegnato" ai produttori e di conseguenza ai rivenditori a divenire i primi dei bagarini.

Kvarat
17-07-2023, 18:39
verissimo, sento di continuo sta storia di smaltirle e poi non le abbassano manco ammazzati. Di questo passo non si smuoverà nulla nemmeno per il 2025. Siano maledetti quei cani degli scalper e i miner che hanno "insegnato" ai produttori e di conseguenza ai rivenditori a divenire i primi dei bagarini.

Il bello e il brutto di un mercato monopolizzato.

fraussantin
17-07-2023, 19:13
verissimo, sento di continuo sta storia di smaltirle e poi non le abbassano manco ammazzati. Di questo passo non si smuoverà nulla nemmeno per il 2025. Siano maledetti quei cani degli scalper e i miner che hanno "insegnato" ai produttori e di conseguenza ai rivenditori a divenire i primi dei bagarini.La situazione è piu complessa.

Ste schede non è che stiano fioccando via come le 3000 che le vendevano a secchiate.

È un po come le auto.
Di ste auto non ne vendono un cavolo , ma se la vuoi devi aspettare mesi e mesi e la paghi il doppio di quanto vale.

Stanno pensando da gelataio furbo , alzo i prezzi , lavoro meno e guadagno di più.

Finche non arriva un altra gelateria.

HSH
18-07-2023, 14:31
raga che ne dite della 3070 a 450€ ? mi può durare per almeno 3 annetti in 1440p?

fraussantin
18-07-2023, 14:33
raga che ne dite della 3070 a 450€ ? mi può durare per almeno 3 annetti in 1440p?Con il dlss secondo me si .
Il problema forse sars la vram limitante. Ma non penso che usciranno giochi non settabili da non poterla far bastare


Ps come prezzo però a me pare cara

La 4060 ti non costa meno? E hai anche il dlss3

OrazioOC
18-07-2023, 14:36
Con il dlss secondo me si .
Il problema forse sars la vram limitante. Ma non penso che usciranno giochi non settabili da non poterla far bastare


Ps come prezzo però a me pare cara

La 4060 ti non costa meno? E hai anche il dlss3

La 4060 ti la eviterei, vince sulla 3070 per il dlss3(quei pochi casi) ma in 1440p è una scheda generalmente inferiore.
Onestamente comunque a 450 euro ogni tanto saltano fuori anche le 3070 ti e le rx 6800, decisamente più muscolose di 3070 e 4060 ti. :D

zanflank
18-07-2023, 14:41
raga che ne dite della 3070 a 450€ ? mi può durare per almeno 3 annetti in 1440p?

Nelle review delle 4060Ti dicono come sia la stessa Nvidia a citare espressamente fullHD. Quindi la morte sua e della 3070 da qui al domani ad una risoluzione manco indicata dal produttore stesso

Gioman
18-07-2023, 14:47
Esce oggi la 4060 ti 16 gb?

HSH
18-07-2023, 14:54
Nelle review delle 4060Ti dicono come sia la stessa Nvidia a citare espressamente fullHD. Quindi la morte sua e della 3070 da qui al domani ad una risoluzione manco indicata dal produttore stesso

quindi niente, per il 1440p tocca andare sui 600€ della 4070 per forza?

ninja750
18-07-2023, 14:54
Esce oggi la 4060 ti 16 gb?

vincerà un premio il primo che troverà una review :O

StylezZz`
18-07-2023, 15:08
quindi niente, per il 1440p tocca andare sui 600€ della 4070 per forza?

Con il DLSS è come se fosse 1080p nativo, quindi perfettamente gestibile a 60fps ritoccando qualche settaggio.

Cutter90
18-07-2023, 15:12
quindi niente, per il 1440p tocca andare sui 600€ della 4070 per forza?

Beh, tra 450 euro per una 3070 e 600 per una 4070... non penso ci sia nemmeno da pensarci

HSH
18-07-2023, 15:47
Beh, tra 450 euro per una 3070 e 600 per una 4070... non penso ci sia nemmeno da pensarci

ci ballano parecchi soldi invece, se avessi stipendio da 10k al mese prenderei la 4090 invece no....
devo capire qual'è la scelta migliore come rapporto Q\p stando sui 500€

Ubro92
18-07-2023, 15:47
Il best buy è la 3060ti sui 300€, si sono viste intorno a quelle cifre anche le varianti GDDR6X.

Se si vuole spendere di più tanto vale farlo per la 4070, considerando che si iniziano a vedere modelli anche sotto i 600€.

Cutter90
18-07-2023, 15:58
ci ballano parecchi soldi invece, se avessi stipendio da 10k al mese prenderei la 4090 invece no....
devo capire qual'è la scelta migliore come rapporto Q\p stando sui 500€

Per 150 euro di differenza conviene la 4070, questo è il concetto.
Poi se vedi stare entro i 500 per forza o attendi che la 4070 cali, oppure prende una 4060 ti. Che sei in quelle cifre.
Una 3070 sui 380 ci starebbe pure. Ma non a 450.
Dipende poi cosa intendi per "1440p per 3 anni". Fps di target? Dettagli? Tipologia di giochi ( AAA single player, competitivi ecc ecc)
Riesci a dare qualche informazione in più?

RedPrimula
18-07-2023, 16:08
Il best buy è la 3060ti sui 300€, si sono viste intorno a quelle cifre anche le varianti GDDR6X.

Se si vuole spendere di più tanto vale farlo per la 4070, considerando che si iniziano a vedere modelli anche sotto i 600€.

Anche la 3060 da 12GB non è male in 1440p, se non si hanno pretese di giocare con tutto ad ultra. E il DLSS aiuta. Lo dico da possessore.

HSH
18-07-2023, 16:14
Per 150 euro di differenza conviene la 4070, questo è il concetto.
Poi se vedi stare entro i 500 per forza o attendi che la 4070 cali, oppure prende una 4060 ti. Che sei in quelle cifre.
Una 3070 sui 380 ci starebbe pure. Ma non a 450.
Dipende poi cosa intendi per "1440p per 3 anni". Fps di target? Dettagli? Tipologia di giochi ( AAA single player, competitivi ecc ecc)
Riesci a dare qualche informazione in più?

capisco, grazie
titoli Fortnite, jedi survivor, ff7 remake , spiderman miles morales , un domani vorrei povare anche cyb punk2077
cercherò qualche 3060ti allora

Cutter90
18-07-2023, 16:16
capisco, grazie
titoli Fortnite, jedi survivor, ff7 remake , spiderman miles morales , un domani vorrei povare anche cyb punk2077
cercherò qualche 3060ti allora

Qual è il target come frame per secondo?

Gioman
18-07-2023, 16:16
La 3060 è una pessima scheda l'unica cosa che ha di buono è la ram.
Avrei fatto un pensierino per la arc 770 16 gb se non fosse per l'alto consumo in idle

HSH
18-07-2023, 16:21
Qual è il target come frame per secondo?

sui 90 direi che può essere sufficente, niente di competitivo.
dimenticavo anche i battlefield 1, 5, ecc

RedPrimula
18-07-2023, 16:25
La 3060 è una pessima scheda l'unica cosa che ha di buono è la ram.
Avrei fatto un pensierino per la arc 770 16 gb se non fosse per l'alto consumo in idle

Per le mie esigenze non ho nulla da rimproverarle IMHO. Pagata 80€ nuova (ho sfruttato un buono Amazon) :D

HSH
18-07-2023, 16:31
Per le mie esigenze non ho nulla da rimproverarle IMHO. Pagata 80€ nuova (ho sfruttato un buono Amazon) :D

i buoni amazon sono sempre soldi, anche io ho 200€ di buono... ma una sk da 600euro cmq costa 600 solo che la paghi 200 + 400

nessuno29
18-07-2023, 16:38
capisco, grazie
titoli Fortnite, jedi survivor, ff7 remake , spiderman miles morales , un domani vorrei povare anche cyb punk2077
cercherò qualche 3060ti allora

Io quei giochi li ho giocati godendomeli appieno anche con la 2060s in 1440p.

Motenai78
18-07-2023, 16:39
La mia azienda mi ha fatto 650€ di buoni Amazon nel 2022: dubbio decisamente soldi veri :D

Inviato dal mio SM-A226B utilizzando Tapatalk

HSH
18-07-2023, 16:39
Io quei giochi li ho giocati godendomeli appieno anche con la 2060s in 1440p.

allora avrò problemi io, FN ad esempio non va oltre i 50-60 FPS (tutto maxato ovviamente)

RedPrimula
18-07-2023, 16:57
La mia azienda mi ha fatto 650€ di buoni Amazon nel 2022: dubbio decisamente soldi veri :D

Inviato dal mio SM-A226B utilizzando Tapatalk

i buoni amazon sono sempre soldi, anche io ho 200€ di buono... ma una sk da 600euro cmq costa 600 solo che la paghi 200 + 400

https://www.youtube.com/watch?v=Vbm3c7GAGks :D

grng
18-07-2023, 17:59
allora avrò problemi io, FN ad esempio non va oltre i 50-60 FPS (tutto maxato ovviamente)
Maxare con quella gpu a quella res non so quanto abbia senso (se poi con fn intendi fortnite peggio ancora, io rinuncerei a tutto tranne che gli alti fps), ma appunto ognuno smanetta come vuole, questo é il vantaggio del pc.

Cutter90
18-07-2023, 19:39
Io quei giochi li ho giocati godendomeli appieno anche con la 2060s in 1440p.

"Godendomeli appieno" è fortemente soggettivo. Bisogna buttare giù due numeri.
Se vuole gioca sui 90 fps gli AAA magari con rt una 4070 è praticamente obbligatoria in 1440p. Se inizi a levare rt e ad usare dlss qualità allora una 4060 ti/ 3070 a poco prezzo possono dire la loro

HSH
18-07-2023, 20:35
Maxare con quella gpu a quella res non so quanto abbia senso (se poi con fn intendi fortnite peggio ancora, io rinuncerei a tutto tranne che gli alti fps), ma appunto ognuno smanetta come vuole, questo é il vantaggio del pc.

ho controllato e non è neppure maxato, è quasi tutto solo a "elevato"
ora ho messo qualità automatica, vediamo

mikael84
18-07-2023, 20:48
Dati relativi alla Corea.


https://i.postimg.cc/VN3mk5n7/s-corea.png

3060 e 3060ti vanno per la maggiore, l'unica ADA, pare la 4070ti. Scheda che pecca di un bus a 256bit sicuramente, ma a livello di performance è potente.

https://wccftech.com/nvidia-dominates-south-korean-diy-gpu-market-share-amd-intel-fighting-for-cpu-share/

nessuno29
18-07-2023, 21:26
"Godendomeli appieno" è fortemente soggettivo. Bisogna buttare giù due numeri.
Se vuole gioca sui 90 fps gli AAA magari con rt una 4070 è praticamente obbligatoria in 1440p. Se inizi a levare rt e ad usare dlss qualità allora una 4060 ti/ 3070 a poco prezzo possono dire la loro

Certo che è soggettivo, ovviamente voi 4090dotati ve li godete meglio però ti assicuro che giocando con qualche impostazione in meno che poi manco si vede, ci si diverte comunque. La 2060s ad oggi è una scheda che permette di farlo, anche grazie al dlss. Anzi smanettare per trovare la giusta quadra mi diverte un sacco prima di iniziare un gioco.

PS: madonna che fanboy i coreani ahah

StylezZz`
18-07-2023, 21:32
Certo che è soggettivo, ovviamente voi 4090dotati ve li godete meglio però ti assicuro che giocando con qualche impostazione in meno che poi manco si vede, ci si diverte comunque. La 2060s ad oggi è una scheda che permette di farlo, anche grazie al dlss. Anzi smanettare per trovare la giusta quadra mi diverte un sacco prima di iniziare un gioco

Io sarei ancora con la 2070 Super se non avessi ricevuto un offerta da un miner :D a 1440p mi dava tante soddisfazioni, e mi permettevo pure il rt su CP77 + DLSS Quality, mantenevo i 50-60fps giocando con i settaggi.

HSH
19-07-2023, 09:17
ho controllato e non è neppure maxato, è quasi tutto solo a "elevato"
ora ho messo qualità automatica, vediamo

qualità automatica mi fa 60FPS, anche settando gaming mode sul tool Asus di overclock... niente va cambiata :D vediamo se salta fuori qualche offerta per una 4070 o 3060ti

Ubro92
19-07-2023, 15:50
Anche samsung finalmente inizia a farsi sentire:

https://videocardz.com/press-release/samsung-introduces-worlds-first-gddr7-memory-up-to-32-gbps

lordsnk
19-07-2023, 16:56
La solita perla Made in Asus:
https://videocardz.com/newz/asus-newest-strix-rtx-4060-ti-gpu-with-16gb-memory-costs-more-than-many-rtx-4070

:rotfl: :rotfl: :rotfl:

Saturn
19-07-2023, 16:59
La solita perla Made in Asus:
https://videocardz.com/newz/asus-newest-strix-rtx-4060-ti-gpu-with-16gb-memory-costs-more-than-many-rtx-4070

:rotfl: :rotfl: :rotfl:

...649€ io non li darei manco a Brigitte Bardot ! -semi-cit ! :asd:

Salfox
19-07-2023, 17:20
La solita perla Made in Asus:
https://videocardz.com/newz/asus-newest-strix-rtx-4060-ti-gpu-with-16gb-memory-costs-more-than-many-rtx-4070

:rotfl: :rotfl: :rotfl:

Questa servirà solo a chi vuole imbrogliare, esporla dietro alla paratia trasparente e dire che nel case ha una 4090 :D :D :D :D :D

mikael84
19-07-2023, 21:16
Anche samsung finalmente inizia a farsi sentire:

https://videocardz.com/press-release/samsung-introduces-worlds-first-gddr7-memory-up-to-32-gbps

Queste potranno colmare la BW dei bus piccoli, ma se non adottano la quadrupla densità , siamo punto e a capo. Anche integrandola, JHH ti chiede salassi...

La solita perla Made in Asus:
https://videocardz.com/newz/asus-newest-strix-rtx-4060-ti-gpu-with-16gb-memory-costs-more-than-many-rtx-4070

:rotfl: :rotfl: :rotfl:

Con + 100 euro partono le 4070ti. E' come se per 100 euro uno potesse scegliere un ibrido tra 3060ti/70 da 16gb o 3090/ti da 12.:p

ColdWarGuy
20-07-2023, 01:20
Con + 100 euro partono le 4070ti. E' come se per 100 euro uno potesse scegliere un ibrido tra 3060ti/70 da 16gb o 3090/ti da 12.:p

E' la fiera dell'assurdo, un motivo in più per non comprare nulla come messaggio di rifiuto.

Dono89
20-07-2023, 06:37
Mikael è una tematica di marketing o c'è dell'altro?
Capisco che le g6x costino tanto (ora anche no), ma non così tanto da differenziare in modo così netto i prodotti. Qual è il vero motivo dei tagli così sostenuti?

argez
20-07-2023, 07:46
Mikael è una tematica di marketing o c'è dell'altro?
Capisco che le g6x costino tanto (ora anche no), ma non così tanto da differenziare in modo così netto i prodotti. Qual è il vero motivo dei tagli così sostenuti?

Obsolescenza programmata.

Vul
20-07-2023, 08:21
Non ha senso guardare i prezzi alla release.

Anche le 4060ti 8gb i primi giorni stavano a 500+, ora le trovi sotto i 400..

Sembra che siete nuovi in questo mondo...:P

Ubro92
20-07-2023, 09:44
E' la fiera dell'assurdo, un motivo in più per non comprare nulla come messaggio di rifiuto.Ma il punto é che non ha proprio senso, se anche scendesse poco sotto i 500€ comunque risulterebbe insensata rispetto la 4070 liscia a poco più.

Con la 4060ti hanno fatto peggio delle GTX 960 al tempo, con l'aggravante dei prezzi.

Inviato dal mio M2012K11AG utilizzando Tapatalk

StylezZz`
20-07-2023, 09:53
https://videocardz.com/newz/geforce-rtx-4060-ti-16gb-ends-up-slower-than-8gb-in-official-msi-testing

Possiamo dire che le differenze siano del..... no aspetta.. margine di errore.

Eh ma la vram... ce ne vuole a pacchi scherzi, soprattutto su gpu di questo calibro:p

Altra scheda inutile, ancor più scandalosa (considerato il prezzo) della sorellina a 8gb

Adesso è FUTURE PR00F!

OrazioOC
20-07-2023, 10:13
https://videocardz.com/newz/geforce-rtx-4060-ti-16gb-ends-up-slower-than-8gb-in-official-msi-testing

Possiamo dire che le differenze siano del..... no aspetta.. margine di errore.

Eh ma la vram... ce ne vuole a pacchi scherzi, soprattutto su gpu di questo calibro:p

Altra scheda inutile, ancor più scandalosa (considerato il prezzo) della sorellina a 8gb

Ma con 128 bit di bus, pcie x8 e 280 gbps di bandwith(lasciando perdere il discorso cache che non è la panacea di tutti i mali della scheda), che ci si aspettava?
Parliamo di una scheda che sulla carta ha i tflops di una 3070 ti, nella realtà tra rops/tmus/pcie x8 e 128 bit di bus quando gli va' bene è una 3070(in full hd), oltre in 1440p rischia di essere messa dietro pure dalla 3060 ti con le gddr6x. :doh:

Sta scheda oltre i 350 euro è una truffa.

Fos
20-07-2023, 10:31
Adesso è FUTURE PR00F!No, è FUTURE PREEZ!

Non basta la VRAM, soprattutto se la paghi cara e la abbini ad una scheda scarsa.

mikael84
20-07-2023, 11:32
Mikael è una tematica di marketing o c'è dell'altro?
Capisco che le g6x costino tanto (ora anche no), ma non così tanto da differenziare in modo così netto i prodotti. Qual è il vero motivo dei tagli così sostenuti?

Se ti riferisci alle 4060ti da 16gb, non sono le g6x ma le classiche g6 a 18 gb/s di hynix.

Per i partner sono cmq costi più elevati, in quanto devono non solo sostituire i modulini, ma instradare il clamshell e di conseguenza rivedere il PCB. Anche il calore potrebbe essere un tantino più elevato.

E' un' operazione che sulle GPU di fascia bassa, e no sense totale. Bastava spendere un pelino in più di die, e fare un 192bit universale.

Ma con 128 bit di bus, pcie x8 e 280 gbps di bandwith(lasciando perdere il discorso cache che non è la panacea di tutti i mali della scheda), che ci si aspettava?
Parliamo di una scheda che sulla carta ha i tflops di una 3070 ti, nella realtà tra rops/tmus/pcie x8 e 128 bit di bus quando gli va' bene è una 3070(in full hd), oltre in 1440p rischia di essere messa dietro pure dalla 3060 ti con le gddr6x. :doh:

Sta scheda oltre i 350 euro è una truffa.

Questa barzelletta è nata per non instradare un 192bit fisico. Alla fine pure la rivale 7700 (almeno in raster), avrà un 192bit.
La cache è utile a queste schede, ma teoricamente sarebbe un plus per bus. Se mi smonti il bus e metti la cache, stai solo facendo danni e mettendoci una pezza. Se la metti su un 192bit, allora è un bel plus.

Ubro92
20-07-2023, 12:28
Con un 192bit e tutti i 4608cc abilitati sarebbe andata si e no un 10-15% meno della 4070 liscia, divario simile a quello tra 3060ti e 3070.

Sicuramente molto più solido come chip, anche la 4060 se fosse stata stampata da AD106 con 3584/3840cc già si sarebbe piazzata meglio.

mikael84
20-07-2023, 12:47
Con un 192bit e tutti i 4608cc abilitati sarebbe andata si e no un 10-15% meno della 4070 liscia, divario simile a quello tra 3060ti e 3070.

Sicuramente molto più solido come chip, anche la 4060 se fosse stata stampata da AD106 con 3584/3840cc già si sarebbe piazzata meglio.

Oltre ad essere più solido, si sarebbe evitata questa pagliacciata, con AIB pure imbestialiti.
Anche agli occhi delle persone, sarebbe risultato un chip migliore e con 12gb.

Purtroppo loro quando scrivono i codici, lo fanno soprattutto pensando alle pro, ed alle linee future (possiamo parlare di obsolescenza), poi si ritrovano costretti a fare queste figure.

La 4070 è anch'essa troppo tagliata.

grng
20-07-2023, 12:49
Stanco dell'attesa sono andato di 3060ti, sperando di non trovare tra un paio di anni la fascia media con vram a 64bit e pcie5.0 2x

argez
20-07-2023, 13:00
Stanco dell'attesa sono andato di 3060ti, sperando di non trovare tra un paio di anni la fascia media con vram a 64bit e pcie5.0 2x


Shhhhhh che poi ti sentono.

HSH
20-07-2023, 13:06
Stanco dell'attesa sono andato di 3060ti, sperando di non trovare tra un paio di anni la fascia media con vram a 64bit e pcie5.0 2x
puoi dirmi che modello hai preso e a quanto? anche in pvt. grazie

StylezZz`
20-07-2023, 13:29
RTX 4050 Ti 8GB vs RTX 4050 Ti 16GB - Test in 10 Games (https://www.youtube.com/watch?v=-abxGKJ9D1Y)

test a 1440p nativo, quindi vi lascio immaginare le differenze a 1080p o con DLSS :rolleyes:

grng
20-07-2023, 13:35
Shhhhhh che poi ti sentono.
Sparasse amd una gpu integrata seria (ormai la tecnologia c'é), si eviterebbero le prese in giro di gpu ultracastrate

mikael84
20-07-2023, 13:36
RTX 4050 Ti 8GB vs RTX 4050 Ti 16GB - Test in 10 Games (https://www.youtube.com/watch?v=-abxGKJ9D1Y)

test condotto a 1440p nativo, quindi vi lascio immaginare le differenze a 1080p o con DLSS :rolleyes:

Con DLSS quality, scendi anche sotto i 1080p. La res è 1707x960:)

HSH
21-07-2023, 10:19
In Italia dove abbiamo il livello più scarso:
https://www.youtube.com/watch?v=Q9maEAkNiAw

Non cito i vari pulcinella napoletani o stanlio e ollio.


facile screditare i nostri youtuber da dietro una tastiera su un forum eh?
fai tu dei video di divulgazione dove ci metti la faccia, se credi sia tanto facile! :mad:

OrazioOC
21-07-2023, 10:30
facile screditare i nostri youtuber da dietro una tastiera su un forum eh?
fai tu dei video di divulgazione dove ci metti la faccia, se credi sia tanto facile! :mad:

Se mikael84 aprisse un canale youtube farebbe le scarpe a tanti secondo me. :asd:

Comunque si a prescindere dalle preferenze o meno, la stragrande maggioranza dei "ben informati" non si documenta dai nostri youtuber, tutt'al più da' un'occhiata alle recensioni così per intrattenimento. :)

Raynys
21-07-2023, 12:22
4060Ti 16Gb prime review

https://www.youtube.com/watch?v=2_Y3E631ro8

ninja750
21-07-2023, 12:55
4060Ti 16Gb prime review

https://www.youtube.com/watch?v=2_Y3E631ro8

https://i.postimg.cc/gJnQTNVZ/Immagine-2023-07-21-135224.png

beh tutto sommato sembra che in certi scenari sti 16gb a qualcosa servano :D peraltro vi hanno ascoltato e hanno subito iniziato la comparativa di last of us facendo un confronto con la patch del video "incriminato" vs ultima patch :O

RedPrimula
21-07-2023, 13:01
[IMG]https://i.postimg.cc/gJnQTNVZ/Immagine-2023-07-21-135224.png[IMG]

beh tutto sommato sembra che in certi scenari sti 16gb a qualcosa servano :D peraltro vi hanno ascoltato e hanno subito iniziato la comparativa di last of us facendo un confronto con la patch del video "incriminato" vs ultima patch :O

C'è una comparativa fatta da HWU in cui mostrano come la 3060 da 12GB, in TLOU a 1440p, abbia i minimi più alti rispetto a 3060Ti e 4060Ti 8GB.

Pre-patch:

https://i.imgur.com/KyPQJDP.png

Post-patch, situazione "migliorata":

https://i.imgur.com/9z2recV.png

OrazioOC
21-07-2023, 13:03
4060Ti 16Gb prime review

https://www.youtube.com/watch?v=2_Y3E631ro8

Non avevo dubbi che fossero loro, perchè la telenovela della vram doveva continuare. :stordita:

ninja750
21-07-2023, 13:22
Non avevo dubbi che fossero loro, perchè la telenovela della vram doveva continuare. :stordita:

invece no.. la classifica con le medie finali in 1440p fanno 78fps la 8gb, 80fps la 16gb e parlano proprio di "no performance changes"

chiaro che nel cherry pick vedi sopra qualche differenza c'è

StylezZz`
21-07-2023, 13:42
Dovevavo venderla in bundle con TLOU, utile sicuramente per chi vuole giocarci a 1440p nativo.

Cutter90
21-07-2023, 13:42
Ehmmm ragazzi, tlou è l'UNICO gioco in cui la vram è utilizzata in modo anomalo. tra l'altro dal d1 la situazione come utilizzo è migliorata molto. A me consuma 5 gb in meno del d1 circa.....
Quindi tenete a mente queste cose quando fate le valutazioni sulla vram.
Poi è chiaro che se dovessi ancquistare una 4060 ti se vado sopra al full hd la prendo da 16 gb, per 50-80 euro in più.

mikael84
21-07-2023, 15:25
Se mikael84 aprisse un canale youtube farebbe le scarpe a tanti secondo me. :asd:

Comunque si a prescindere dalle preferenze o meno, la stragrande maggioranza dei "ben informati" non si documenta dai nostri youtuber, tutt'al più da' un'occhiata alle recensioni così per intrattenimento. :)

E' già troppo che sto qui.:p





beh tutto sommato sembra che in certi scenari sti 16gb a qualcosa servano :D peraltro vi hanno ascoltato e hanno subito iniziato la comparativa di last of us facendo un confronto con la patch del video "incriminato" vs ultima patch :O

Avrei messo la 4070 nei test in game ed i relativi prezzi. Messa così, se uno non guarda i grafici sembra conveniente

C'è una comparativa fatta da HWU in cui mostrano come la 3060 da 12GB, in TLOU a 1440p, abbia i minimi più alti rispetto a 3060Ti e 4060Ti 8GB.

Pre-patch:



Post-patch, situazione "migliorata":



Sarò fissato che amo l'alto refresh, ma dai grafici, in 1440p no upscaling, le schede che riescono a garantire una buona giocabilità partono dalla 4070. Almeno 60 stabili devo averli. Con 40-50 fps, necessiti di un upscaling obbligatorio, o di un cambio GPU. Li è morta la GPU prima della ram.

Cutter90
21-07-2023, 15:45
E' già troppo che sto qui.:p





Avrei messo la 4070 nei test in game ed i relativi prezzi. Messa così, se uno non guarda i grafici sembra conveniente



Sarò fissato che amo l'alto refresh, ma dai grafici, in 1440p no upscaling, le schede che riescono a garantire una buona giocabilità partono dalla 4070. Almeno 60 stabili devo averli. Con 40-50 fps, necessiti di un upscaling obbligatorio, o di un cambio GPU. Li è morta la GPU prima della ram.

No beh oddio. usare il dlss quality è molto molto meglio di "cambiare gpu" dai

mikael84
21-07-2023, 16:03
No beh oddio. usare il dlss quality è molto molto meglio di "cambiare gpu" dai

Infatti l'ho sottolineato. In uno scenario di 40-50 fps, neppure nelle zone peggiori, quelle impostazioni non hanno senso.
In altri giochi che hanno messo, con 8gb, devi un tantino ritoccare le impostazioni, soprattutto callisto con RT high è un disastro.

mikael84
21-07-2023, 16:24
Me l'hanno segnalato e lo pubblico, ma prendete davvero con le pinze.
Si parla di ipotetiche 4000 super.
https://www.custompc.com/nvidia-rtx-4000-super-specs-price-release-date

Con nvidia quasi solo Kopite ci prende.

StylezZz`
21-07-2023, 16:36
La prenderei volentieri una 4070 Super su AD103 con 16GB e bus a 256bit (e potremmo considerarla la vera 4070).

nessuno29
21-07-2023, 16:44
Secondo questo rumor praticamente inizierà a venderci le vere 4060\4070 etcetc a prezzo aumentato rispetto ad ora, sono supposizioni però significherebbe alzare due volte i prezzi ed alla seconda volte molti saranno anche felici e fessi.

dominator84
21-07-2023, 17:55
La prenderei volentieri una 4070 Super su AD103 con 16GB e bus a 256bit (e potremmo considerarla la vera 4070).

sì ma a quale prezzo...

cioè oggi miravo ad una 7900xt - e non mi piace come generazione, ma mi viene da preferirla all'attuale 4070 ti...

la 4060 ti 16gb, è imcomprabile, come lo è la 8gb...

allo stesso prezzo della attuale 4070 "ti", una ipotetica 16 la prenderei

co sti prezzi di prendere un'altra 4000 non ci penso... la situazione è peggiore di quella passata con la pandemia

OrazioOC
21-07-2023, 17:59
Me l'hanno segnalato e lo pubblico, ma prendete davvero con le pinze.
Si parla di ipotetiche 4000 super.
https://www.custompc.com/nvidia-rtx-4000-super-specs-price-release-date

Con nvidia quasi solo Kopite ci prende.

Non ci vedo nulla di sbagliato, con blackwell in arrivo nel 2025 c'è tempo per ampliare la gamma attuale, e le sku che mettono in vendita oggi sono molto deludenti(e le vendite in parte lo dimostrano).

invece no.. la classifica con le medie finali in 1440p fanno 78fps la 8gb, 80fps la 16gb e parlano proprio di "no performance changes"

chiaro che nel cherry pick vedi sopra qualche differenza c'è

Io mi riferivo alla famosa telenovela che avevano messo in piedi qualche mesetto fa su certi titoli mangia vram per demonizzare gpu con 8gb di vram.
Le conclusioni della review di oggi sulla 4060 ti 16gb sono implicite ma ovvie, non è una scheda che conviene. :)

StylezZz`
21-07-2023, 18:08
sì ma a quale prezzo...

Al prezzo che io considero accettabile per questa fascia di scheda, ovvero non più di 550/600€...non ho fretta, tanto con la 3070 starò bene ancora per alcuni anni, potrei benissimo acquistarla quando ci saranno le 5000, non mi frega nulla di avere l'ultima uscita.

dominator84
21-07-2023, 18:17
Al prezzo che io considero accettabile per questa fascia di scheda, ovvero non più di 550/600€...non ho fretta, tanto con la 3070 starò bene ancora per alcuni anni, potrei benissimo acquistarla quando ci saranno le 5000, non mi frega nulla di avere l'ultima uscita.

ehhh magari a quel prezzo... non ci spero proprio

mikael84
21-07-2023, 21:12
La prenderei volentieri una 4070 Super su AD103 con 16GB e bus a 256bit (e potremmo considerarla la vera 4070).

Una 4080 lite praticamente, mi garberebbe alla grande.:)

Secondo questo rumor praticamente inizierà a venderci le vere 4060\4070 etcetc a prezzo aumentato rispetto ad ora, sono supposizioni però significherebbe alzare due volte i prezzi ed alla seconda volte molti saranno anche felici e fessi.

Beh le prestazioni da x70 sono ben oltre in un chip tagliato così. Qua bene o male ci siamo.
A livello prestazionale si posizionerebbe facilmente sopra la 3090ti.

Questo ovviamente succede in quanto ha saltato 2 nodi.:)

Cmq sono da prendere con le pinze, ucciderebbe del tutto la 4080, la 4070ti e la 4070. Ci credo molto poco.:p

argez
21-07-2023, 21:35
Cioè fatemi capire 4gb di vram in più 100$ (4070s)?

mikael84
21-07-2023, 21:42
Cioè fatemi capire 4gb di vram in più 100$ (4070s)?

No, praticamente sarebbe una 4080 tagliata in cuda, da 9728 a 8100.:)
Meglio di una 4070ti.

argez
21-07-2023, 22:05
No, praticamente sarebbe una 4080 tagliata in cuda, da 9728 a 8100.:)
Meglio di una 4070ti.

Ah ok scusa ho letto meglio ora :).

StylezZz`
21-07-2023, 22:08
Cmq sono da prendere con le pinze, ucciderebbe del tutto la 4080, la 4070ti e la 4070. Ci credo molto poco.:p

Però è già successo con la 2070 Super che all'epoca fece fuori la 2070 (uccisa anche dalla 2060 Super) e 2080.

amon.akira
21-07-2023, 23:08
No, praticamente sarebbe una 4080 tagliata in cuda, da 9728 a 8100.:)
Meglio di una 4070ti.

nella nomenclatura nvidia le Ti sono avanti alle super, 1660 1660super 1660ti

dovrebbero trovargli un nuovo nome Ultra alla intel XD

Raynys
21-07-2023, 23:28
nella nomenclatura nvidia le Ti sono avanti alle super, 1660 1660super 1660ti

dovrebbero trovargli un nuovo nome Ultra alla intel XD

Uber? Già ce la vedo: RTX 4070 Uber Edition :D

amon.akira
21-07-2023, 23:59
Uber? Già ce la vedo: RTX 4070 Uber Edition :D

oppure 4070 True :sofico: :asd:

mikael84
22-07-2023, 00:22
Però è già successo con la 2070 Super che all'epoca fece fuori la 2070 (uccisa anche dalla 2060 Super) e 2080.

Si, però stavano tutte a distanza di 200$. Qua servirebbe proprio una nuova fascia, esempio serie 5xxx. :) Senza contare la TI della 4070, come ricorda anche Amon.

nella nomenclatura nvidia le Ti sono avanti alle super, 1660 1660super 1660ti

dovrebbero trovargli un nuovo nome Ultra alla intel XD

Si, ma infatti, il leak lascia il tempo che trova. Se proprio dovranno refreshare pesantemente i chip, sarebbe opportuna una nuova nomenclatura.:)

Anche se io continuo ad avere dubbi anche su eventuali refresh.:p

ColdWarGuy
23-07-2023, 13:11
Una 4080 lite praticamente, mi garberebbe alla grande.:)

-snip



Sorge però spontanea una domanda :

se in termini di performance questa scheda si posiziona in mezzo tra una 4070 Ti ed una 4080, le quali vengono vendute rispettivamente tra i 900-1000 euro ed i 1200-1400 (escludo i prezzi dei VAT player e dei modelli premium), a quanto ti aspetti venga venduta una 4070 Super ?

Te lo dico io : molto di più di quanto sei/siamo disposti a spendere noi oculati customers che ci permettiamo il lusso di fare questioni di principio su prezzi dei beni "di svago" :)

ste-87
23-07-2023, 13:59
se facessero un taglio dei listini vero, si potrebbero risparmiare il lancio di una lineup di mezzo targata "super" incominciando davvero a vendere, chi ha detto 4090 a 1300€, 4080 a 850€ o 4070Ti a 650€, etc?

com'è bello fantasticare :sofico:

mikael84
23-07-2023, 14:20
Sorge però spontanea una domanda :

se in termini di performance questa scheda si posiziona in mezzo tra una 4070 Ti ed una 4080, le quali vengono vendute rispettivamente tra i 900-1000 euro ed i 1200-1400 (escludo i prezzi dei VAT player e dei modelli premium), a quanto ti aspetti venga venduta una 4070 Super ?

Te lo dico io : molto di più di quanto sei/siamo disposti a spendere noi oculati customers che ci permettiamo il lusso di fare questioni di principio su prezzi dei beni "di svago" :)

Ma infatti, è una scheda che farebbe crollare tutto il castello. Anche se prima o poi dovrà succedere con la 5070.:p

Cmq ecco il clamshell di una 4060ti. 100$
https://i.postimg.cc/Twf3wWk6/clam.png

Ale55andr0
23-07-2023, 16:50
Me l'hanno segnalato e lo pubblico, ma prendete davvero con le pinze.
Si parla di ipotetiche 4000 super.
https://www.custompc.com/nvidia-rtx-4000-super-specs-price-release-date

Con nvidia quasi solo Kopite ci prende.

non conta come lo si prende ma dove...

possono pure metterci 64gb di ram, non muoverà di una mazza il mercato se continuano a prezzare a cazzum delle serie 60/70

Sorge però spontanea una domanda :

se in termini di performance questa scheda si posiziona in mezzo tra una 4070 Ti ed una 4080, le quali vengono vendute rispettivamente tra i 900-1000 euro ed i 1200-1400 (escludo i prezzi dei VAT player e dei modelli premium), a quanto ti aspetti venga venduta una 4070 Super ?

Te lo dico io : molto di più di quanto sei/siamo disposti a spendere noi oculati customers che ci permettiamo il lusso di fare questioni di principio su prezzi dei beni "di svago" :)

esatto/appunto/infatti

nella nomenclatura nvidia le Ti sono avanti alle super, 1660 1660super 1660ti

dovrebbero trovargli un nuovo nome Ultra alla intel XD

il nome "Ultra" lo ha usato prima nvidia negli anni novanta, con le riva TNT 2 ultra 32Mb....la scheda che mi è durata meno nella storia :asd:


..ma che ne volete sapere voi generazione Z :O

mikael84
23-07-2023, 21:32
non conta come lo si prende ma dove...

possono pure metterci 64gb di ram, non muoverà di una mazza il mercato se continuano a prezzare a cazzum delle serie 60/70



esatto/appunto/infatti



il nome "Ultra" lo ha usato prima nvidia negli anni novanta, con le riva TNT 2 ultra 32Mb....la scheda che mi è durata meno nella storia :asd:


..ma che ne volete sapere voi generazione Z :O

Ultra lo ha usato dalla tnt2 2 pixel shader, sino alla 8800. Era l'elite.
Veniva Ultra - TI - pro (anche se non comparivano in tutte le serie).

La sigla ultra, su nvidia è sempre stata utilizzata per i modelli più overclockati.
Ci fu solo una parentesi con la 9800, chiamata GTX+

Sulle fasce più basse, usava anche LE-VE-SE, sulle alte ZT-XT.

Ale55andr0
23-07-2023, 22:13
Ultra lo ha usato dalla tnt2 2 pixel shader, sino alla 8800. Era l'elite.
Veniva Ultra - TI - pro (anche se non comparivano in tutte le serie).

La sigla ultra, su nvidia è sempre stata utilizzata per i modelli più overclockati.
Ci fu solo una parentesi con la 9800, chiamata GTX+

Sulle fasce più basse, usava anche LE-VE-SE, sulle alte ZT-XT.

appunto

amon.akira
24-07-2023, 00:45
..ma che ne volete sapere voi generazione Z :O

sono gen-X comunque :asd:

nessuno29
24-07-2023, 04:53
Non credo che ci siano gen Z su questo forum, siamo tutti vecchi.

fraussantin
24-07-2023, 06:23
Non credo che ci siano gen Z SUI forum, siamo tutti vecchi.

FIX.

Raynys
24-07-2023, 12:44
Infatti mi sa tanto che solo noi vecchiacci siamo rimasti ad utilizzare i forum :sbonk: la nuova generazione scrive principalmente sui gruppi facebook, dove può scrivere un'immane quantità di bestemmie ed insulti senza che nessuno prenda provvedimenti. Ma tant'è...grazie Facebook :muro:

nessuno29
24-07-2023, 12:47
Infatti mi sa tanto che solo noi vecchiacci siamo rimasti ad utilizzare i forum :sbonk: la nuova generazione scrive principalmente sui gruppi facebook, dove può scrivere un'immane quantità di bestemmie ed insulti senza che nessuno prenda provvedimenti. Ma tant'è...grazie Facebook :muro:

La gen Z manco lo ha facebook, si scanna su youtube e su telegram.

Ale55andr0
24-07-2023, 13:46
sono gen-X comunque :asd:

e non sapevi della riva TNT 2 Ultra?


è grave :O

amon.akira
24-07-2023, 15:54
e non sapevi della riva TNT 2 Ultra?


è grave :O

Sai l età, magari ad essere gen-y come te :asd:

bonzoxxx
24-07-2023, 16:05
TNT2 Ultra, la mia seconda GPU dopo la Matrox Mystique.. :cry:

ColdWarGuy
24-07-2023, 16:18
Peggior lancio Nvidia di sempre ? : NVIDIA GeForce RTX 4060 Ti 16 GB Already Seeing A Price Drop In Europe (https://wccftech.com/nvidia-geforce-rtx-4060-ti-16-gb-already-seeing-a-price-drop-in-europe/)

mikael84
24-07-2023, 17:08
Sai l età, magari ad essere gen-y come te :asd:

Ultra erano i modelli overclockati.
Ad oggi un modello ultra di 4090, anzichè boostare base a 2520, boosterebbe a 2615 ad esempio (tralasciando che prima erano full non monchi).:)
L'unica volta che sono coesistite TI ed ultra, mi pare fu sulla geforce 2, dove la ultra era leggermente più clockata.
Erano, Ultra-TI e pro in linea.:)

TNT2 Ultra, la mia seconda GPU dopo la Matrox Mystique.. :cry:

L'ho avuta pure io, dopo la riva 128 (1pixel), fu il primo chip ad elaborare 2 pixel shader.
per chi come me, era ancora sotto i 20 anni, rappresentava l'apice, in quanto il tempo per giocare c'era ancora..:p

Peggior lancio Nvidia di sempre ? : NVIDIA GeForce RTX 4060 Ti 16 GB Already Seeing A Price Drop In Europe (https://wccftech.com/nvidia-geforce-rtx-4060-ti-16-gb-already-seeing-a-price-drop-in-europe/)

https://www.youtube.com/watch?v=n0JP-52gWho&ab_channel=TestingGames

70 euro su trovaprezzi, ma di cosa parliamo...:p

Il bello che quelli di HU, con quel test sulla ram, l'hanno anche fatta sembrare interessante.

ColdWarGuy
24-07-2023, 17:57
-snip

https://www.youtube.com/watch?v=n0JP-52gWho&ab_channel=TestingGames

70 euro su trovaprezzi, ma di cosa parliamo...:p

Il bello che quelli di HU, con quel test sulla ram, l'hanno anche fatta sembrare interessante.

Con tutto il cinema che avevano montato a riguardo non potevano non cogliere la palla al balzo, io comunque non riesco proprio più a guardarli, al di là della linea editoriale, li trovo simpatici come un infarto ...

EffeX
24-07-2023, 21:05
TNT2 Ultra, la mia seconda GPU dopo la Matrox Mystique.. :cry:

Io la TNT2 Ultra me la guardavo col binocolo in quanto ero troppo giovane per permettermela, in compenso il padre di un mio amico si fece il PC con TNT2 Ultra abbinata ad una Voodoo 2 12 MB per avere la massima "compatibilità" e qualità con tutti i giochi in circolazione nel '98.
Se penso a come è diventato ora il mercato e Nvidia stessa mi viene la malinconia.
Per i suffissi l'ultra l'ho coniò con la TNT2, per usarlo fino alle GeForce 2 insieme al suffisso GTS e Ti, per la serie 3 e 4 ci furono solo Ti per poi rispolverare ultra con la serie FX, e lì ci furono le peggiori porcate in quanto ATI usava il suffisso XT per le versioni estreme (eXTreme) delle sue schede, mentre Nvidia per far vendere le FX ebbe la grande idea di usare il suffisso XT per le versioni economiche in modo da renderle appetibili all'utenza, avendo come paragone con la concorrenza prezzi estremamente più bassi sfruttando l'ignoranza di molti utenti che scambiavano il suffisso XT per il modello più performante pensando di fare l'affare pagandolo meno.
Erano già belli scaltri 20 anni fa.

mikael84
24-07-2023, 21:25
Con tutto il cinema che avevano montato a riguardo non potevano non cogliere la palla al balzo, io comunque non riesco proprio più a guardarli, al di là della linea editoriale, li trovo simpatici come un infarto ...

A furia di pubblicarli qua, me li ritrovo sempre nella home.:p

Io la TNT2 Ultra me la guardavo col binocolo in quanto ero troppo giovane per permettermela, in compenso il padre di un mio amico si fece il PC con TNT2 Ultra abbinata ad una Voodoo 2 12 MB per avere la massima "compatibilità" e qualità con tutti i giochi in circolazione nel '98.
Se penso a come è diventato ora il mercato e Nvidia stessa mi viene la malinconia.
Per i suffissi l'ultra l'ho coniò con la TNT2, per usarlo fino alle GeForce 2 insieme al suffisso GTS e Ti, per la serie 3 e 4 ci furono solo Ti per poi rispolverare ultra con la serie FX, e lì ci furono le peggiori porcate in quanto ATI usava il suffisso XT per le versioni estreme (eXTreme) delle sue schede, mentre Nvidia per far vendere le FX ebbe la grande idea di usare il suffisso XT per le versioni economiche in modo da renderle appetibili all'utenza, avendo come paragone con la concorrenza prezzi estremamente più bassi sfruttando l'ignoranza di molti utenti che scambiavano il suffisso XT per il modello più performante pensando di fare l'affare pagandolo meno.
Erano già belli scaltri 20 anni fa.

La serie 5 fu un disastro per le fp.
Cmq riguardo le TNT, un chip del genere oggi non si varrebbe 20 euro. Non per la grafica che può fare oggi, ma a conti fatti, si parla di una schedina da 63mm2 con i costi del wafer ben sotto i 1000$. Una galassia rispetto ad oggi.

Immagina di vedere una scheda così, al giorno d'oggi (senza gli standard vecchi ovviamente).:p
https://tpucdn.com/gpu-specs/images/c/1302-front.small.jpg

EffeX
24-07-2023, 22:16
A furia di pubblicarli qua, me li ritrovo sempre nella home.:p



La serie 5 fu un disastro per le fp.
Cmq riguardo le TNT, un chip del genere oggi non si varrebbe 20 euro. Non per la grafica che può fare oggi, ma a conti fatti, si parla di una schedina da 63mm2 con i costi del wafer ben sotto i 1000$. Una galassia rispetto ad oggi.

Immagina di vedere una scheda così, al giorno d'oggi (senza gli standard vecchi ovviamente).:p
https://tpucdn.com/gpu-specs/images/c/1302-front.small.jpg

Bè, sicuramente è impietoso il paragone tra ieri e oggi, anche se però dopo aver visto il pcb della 4060, questo nonostante sia vecchio di quasi 25 anni, mi aggrada molto di più! :sofico:
Per le FX guarda qui un paio di mesi prima del lancio cosa si diceva sulle varie riviste, questa datata gennaio 2003...

https://i.ibb.co/sbFP30n/20220402-154614.jpg (https://ibb.co/179n2D1)

Il reparto marketing Nvidia era già al top...

EffeX
25-07-2023, 09:50
Mitica la TNT2 la conservo ancora maniacalmente nella sua confezione originale, la presi della SPARKLE ai tempi c'erano pochi AIB, comunque era tra le più economiche ero troppo piccolo per potermi permettere quelle tutte fighe con le pantegane tamarre disegnate, presi anche una GEFORCE4 MX440 128mb DDR, sempre della sparkle, anche lei custodita.

Per poi passare a quel bidone di FX5800

Avevi il "bidone" liscio che faceva il rumore da trapano del dentista o il "bidone" ultra soffiafoglie? :D

EffeX
25-07-2023, 12:19
La liscia:D comunque FLOP totale

Io avevo la FX 5200 Ultra, non andava male, ma nei giochi dx8 le prendeva dalla Ti4200 e nei dx9 era uno slideshow, un po' come l'RT sulla 2060, eppure giocai a Doom 3, HL2, Far Cry con soddisfazione all'epoca.

Salfox
26-07-2023, 05:31
Ennesima conferma che AMD e ray tracing sono distanti anni luce.
Ratchet and Clank senza Ray tracing al lancio per le AMD (https://www.dsogaming.com/news/ratchet-clank-rift-apart-will-not-support-ray-tracing-on-amd-gpus-at-launch/#more-173188)

EffeX
26-07-2023, 07:24
Ennesima conferma che AMD e ray tracing sono distanti anni luce.
Ratchet and Clank senza Ray tracing al lancio per le AMD (https://www.dsogaming.com/news/ratchet-clank-rift-apart-will-not-support-ray-tracing-on-amd-gpus-at-launch/#more-173188)

Secondo me è anche una questione di marketing e immagine a favore di Nvidia, poi che le AMD sull'RT siano indietro non è un segreto.

sertopica
26-07-2023, 07:38
Ennesima conferma che AMD e ray tracing sono distanti anni luce.
Ratchet and Clank senza Ray tracing al lancio per le AMD (https://www.dsogaming.com/news/ratchet-clank-rift-apart-will-not-support-ray-tracing-on-amd-gpus-at-launch/#more-173188)

Ma che, si fanno i "dispetti"...

devil_mcry
26-07-2023, 07:38
Ennesima conferma che AMD e ray tracing sono distanti anni luce.
Ratchet and Clank senza Ray tracing al lancio per le AMD (https://www.dsogaming.com/news/ratchet-clank-rift-apart-will-not-support-ray-tracing-on-amd-gpus-at-launch/#more-173188)

Credo sia solo questione di marketing li

grng
26-07-2023, 07:57
Ennesima conferma che AMD e ray tracing sono distanti anni luce.
Ratchet and Clank senza Ray tracing al lancio per le AMD (https://www.dsogaming.com/news/ratchet-clank-rift-apart-will-not-support-ray-tracing-on-amd-gpus-at-launch/#more-173188)
Marketing, anche guardando quanto spingono su dlss3 e rtxio con questo gioco.
Cmq amd rimane indietro lato rt e ai, non é una novitá, dovranno fare grossi cambi con le prossime architetture

Ubro92
26-07-2023, 08:06
Secondo me è anche una questione di marketing e immagine a favore di Nvidia, poi che le AMD sull'RT siano indietro non è un segreto.Più che altro AMD non ha incrementato il numero di RT core, anche con le 7000 bene o male i rapporti sono rimasti gli stessi delle 6000.

Comunque non si cita nulla riguardo le Arc di Intel, se il problema é limitato ad AMD potrebbe anche essere solo una questione marketing o qualche glitch ancora non risolto.

Però sarebbe strano visto che comunque supporta Xess, fsr e DLSS, se ci fosse qualche campagna pro Nvidia almeno inizialmente mi aspetterei il supporto al solo DLSS.

Inviato dal mio M2012K11AG utilizzando Tapatalk

fraussantin
26-07-2023, 08:06
Secondo me è anche una questione di marketing e immagine a favore di Nvidia, poi che le AMD sull'RT siano indietro non è un segreto.Magari non ci funziona e non vogliono fare figurette .


Perché boh . Come marketing non era meglio farlo uscire e umiliarla con il doppio degli fps su nvidia?

EffeX
26-07-2023, 08:20
Più che altro AMD non ha incrementato il numero di RT core, anche con le 7000 bene o male i rapporti sono rimasti gli stessi delle 6000.

Comunque non si cita nulla riguardo le Arc di Intel, se il problema é limitato ad AMD potrebbe anche essere solo una questione marketing o qualche glitch ancora non risolto.

Però sarebbe strano visto che comunque supporta Xess, fsr e DLSS, se ci fosse qualche campagna pro Nvidia almeno inizialmente mi aspetterei il supporto al solo DLSS.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Lato Intel effettivamente non si sa se RT funzionerà oppure no, secondo me non andrà nemmeno sulle ARC in quanto potrebbe esserci un sistema che abilita l'opzione RT solo se rilevato hw Nvidia, con Control accade la stessa cosa, il gioco non riconosce la ARC come una gpu dx12 con RT.

Magari non ci funziona e non vogliono fare figurette .


Perché boh . Come marketing non era meglio farlo uscire e umiliarla con il doppio degli fps su nvidia?

Secondo me Nvidia punta di più a renderlo esclusivo per il proprio hw, come già accaduto anche per CB2077 per un periodo di tempo limitato, in modo da spingere le vendite delle RTX per chi vuole giocare a tutti i costi al suo gioco preferito con RT, e questo discorso funziona particolarmente bene per chi si orienta sulla fascia media, chi ha i soldi per permettersi una 4080 o 4090 se ne frega di queste dinamiche ovviamente.

Salfox
26-07-2023, 10:21
Ufficialmente rilasciata un'altra delle nuove tecnologie Nvidia che dovrebbe aiutare molto contro lo stuttering.

Nvidia RTX-IO (https://multiplayer.it/notizie/nvidia-rtx-io-puo-correggere-i-problemi-relativi-allo-stuttering.html)

nessuno29
26-07-2023, 10:35
Ennesima conferma che AMD e ray tracing sono distanti anni luce.
Ratchet and Clank senza Ray tracing al lancio per le AMD (https://www.dsogaming.com/news/ratchet-clank-rift-apart-will-not-support-ray-tracing-on-amd-gpus-at-launch/#more-173188)

Non è che se un gioco non permette al livello software di usare l'rt su una marca allora si è indietro. Sarà un gioco in stile cp2077 il rt per Intel ed AMD arriverà dopo, così gli utenti nvidia sono contenti ed apprezzeranno di più la loro gpu pagata quanto vale realmente.

Lan_Di
26-07-2023, 12:09
Ennesima conferma che AMD e ray tracing sono distanti anni luce.
Ratchet and Clank senza Ray tracing al lancio per le AMD (https://www.dsogaming.com/news/ratchet-clank-rift-apart-will-not-support-ray-tracing-on-amd-gpus-at-launch/#more-173188)

dal quel che mi risulta il gioco supporto il ray tracing anche su PS5 che ha un GPU parzialmente derivata da RDNA2. Di fatto una 6700 xt scarsa.
Suppongo il problema non si di natura tecnica

Cutter90
26-07-2023, 12:35
Sono passati 3 anni e RTX IO non ha ancora preso piede, io sto ancora aspettando directstorage e plug in tipo questo (che ho visto solo su forspoken) pc da 5000 euro con ancora le schermate di caricamento:D per non parlare degli nvme pcie 5.0 da 11.000 Mb\s che caricano alla velocità di un sata III, fa tutto un pò ridere.

é ora di farle lavorare queste gpu, basta delegare questi carichi alle cpu che sono notevolmente più lente.

La cosa assurda è che la colpa è solo ed esclusivamente della case di sviluppo. Nvidia soprattutto, ma anche altri le tecnologie le rende disponibili. Se poi le SH se ne fregano e guadagnano lo stesso.....
Nvidia da questo punto di vista è davvero molto brava. Implementa sempre qualcosa di nuovo e che funziona molto bene. poi però le sh si devono svegliare e progredire tecnologicamente....

Ubro92
26-07-2023, 13:42
dal quel che mi risulta il gioco supporto il ray tracing anche su PS5 che ha un GPU parzialmente derivata da RDNA2. Di fatto una 6700 xt scarsa.

Suppongo il problema non si di natura tecnicaSolo sui riflessi, non si applica a tutti gli effetti RT.

Potrebbero esserci dei glitch o le prestazioni sono così oscene che hanno preferito non abilitarlo per ora.

Comunque nei requisiti ufficiali, riportano per il RT come GPU consigliate la 3070 e 6800xt per i 1440p

Inviato dal mio M2012K11AG utilizzando Tapatalk

ColdWarGuy
27-07-2023, 11:17
Nuovo capitolo della telenovela :

"In addition to the cancellation rumor, it is also stated that NVIDIA is prepping two brand new GPUs within its GeForce RTX 4070 and RTX 4060 series. These GPUs are said to feature cut-down AD103 and AD106 GPU cores. Currently, the NVIDIA GeForce RTX 4070 series is based on the AD104 GPU while the RTX 4060 Ti makes use of the AD106 chip. The AD103 GPU can allow for higher cores and memory configurations for the RTX 4070 series."

NVIDIA Reportedly Axes GeForce RTX 4090 Ti, Rumored To Launch New RTX 4070 & RTX 4060 GPUs (https://wccftech.com/nvidia-cancels-geforce-rtx-4090-ti-new-rtx-4070-rtx-4060-gpus-in-works-rumor/)

mikael84
27-07-2023, 13:32
Come avevo ipotizzato, si dovrebbe andare verso i 512bit per la 5090, soprattutto essendo pensato per le g6x non g7

https://videocardz.com/newz/nvidia-rtx-4090-ti-is-reportedly-no-longer-planned-next-gen-flagship-to-feature-512-bit-memory-bus

Kopite parla anche del possibile refresh come veritiero, ma su AD106-103 (dove serve).
Della 4090ti e 4080ti non c'è traccia.

ninja750
27-07-2023, 13:44
quindi possiamo già immaginare il prezzo di cotanto tubo dati e del taglio vram che potrà essere fatto :fagiano: credo che 1999$ sarà la nuova soglia

notevole vedere come avrebbero potuto fare benissimo una TI per via del silicio, e invece rivedono solo la lineup in basso

penso che avrebbe venduto almeno quanto la 4090 liscia tanto in quella fascia non esiste concorrenza

OrazioOC
27-07-2023, 13:45
Come avevo ipotizzato, si dovrebbe andare verso i 512bit per la 5090, soprattutto essendo pensato per le g6x non g7

https://videocardz.com/newz/nvidia-rtx-4090-ti-is-reportedly-no-longer-planned-next-gen-flagship-to-feature-512-bit-memory-bus

Kopite parla anche del possibile refresh come veritiero, ma su AD106-103 (dove serve).
Della 4090ti e 4080ti non c'è traccia.

Beh oddio, un refresh di ad103 se full, è per farci la 4080 ti o 4080 super.

Del refresh di ad106 ne ero certo, la 4060 ti come sku a quel prezzo fa schifo. :rolleyes:

mikael84
27-07-2023, 13:59
Pesantino in 4k, il FG da una spinta di circa il +43% in 4k RT ON (4090)

Diciamo che, con la combo dlss Q+ FG anche questo vola


Bene ora finisce la pacchia, un ondata di giochi amd con solo FSR ci sta per travolgere :D

Troppo bassi i risultati, una 3080 RT max fa dai 60 ai 100fps (con punte anche più alte) con DLAA (peggio della nativa) ,non 40-50:p

Cmq un altro con RT che mi fa crollare il 5700x in alcune zone (anche s ea frame alti).:asd:
Con RT è davvero un bel vedere.

Beh oddio, un refresh di ad103 se full, è per farci la 4080 ti o 4080 super.

Del refresh di ad106 ne ero certo, la 4060 ti come sku a quel prezzo fa schifo. :rolleyes:

Si con AD103 o fai un refresh full, o tiri fuori qualche altro modello per vendere meglio quella sku.

Su AD106 idem, il full ha poco senso.

Cmq il fatto che BL102 potrebbe avere un 512bit, questo fa presupporre che BL103 (la 5080) avrà 384bit e 24gb, mentre BL104 (quello delle x70), avrà 256bit e quindi 16gb.

Potremmo inquadrare una 5070ti con 768 gb/s e 64mb di cache. Chip che dovrebbe attaccare la serie x90 lovelace.

Salfox
27-07-2023, 14:58
Cmq il fatto che BL102 potrebbe avere un 512bit

Io con queste caratteristiche la prenderei subito ma la mia perplessità rimane, se già adesso non si sono ancora viste le potenzialità reali della 4090 figuriamoci se si riusciranno a vedere quelle di una 5090 che a questo punto forse sarà il doppio più potente.....
Ci vorranno come minimo schermi a 8k per sfruttarla e mi sa che quella risoluzione nel mondo consumer non farà presa.

Ubro92
27-07-2023, 14:59
Ma l'uno non esclude l'altro.

Un full AD103 dopo un anno di produzione non sarebbe strano ottenerne in quantità decenti, gli infili delle 24Gbps e hai comunque un chip con un piccolo margine in più come avvenne per le 2080 Super.

Allo stesso tempo puoi anche riciclare diversi fail per farci un chip intermedio tra 4070ti e 4080, come avvenne per la 2070 Super.

Però i chip che avrebbero maggiormente bisogno di una risistemata sono quelli di fascia media...

OrazioOC
27-07-2023, 15:30
Si con AD103 o fai un refresh full, o tiri fuori qualche altro modello per vendere meglio quella sku.

Su AD106 idem, il full ha poco senso.

Cmq il fatto che BL102 potrebbe avere un 512bit, questo fa presupporre che BL103 (la 5080) avrà 384bit e 24gb, mentre BL104 (quello delle x70), avrà 256bit e quindi 16gb.

Potremmo inquadrare una 5070ti con 768 gb/s e 64mb di cache. Chip che dovrebbe attaccare la serie x90 lovelace.

Si concordo, l'aumento di bus per fascia porterebbe ad evitare per questa gen l'adozione delle gddr7, senza sacrificare banda e vram.
Avremmo tranquillamente 5060 da 12gb, 5070 16gb, 5080 da 24 gb ecc...

mikael84
27-07-2023, 15:30
Ci tiri fuori pochissimo da ad103 full è quasi del tutto abilitato sarebbe una scheda inutile, se non per fa sgonfiare i prezzi delle attuali.

Più sensato riciclare scarti di ad103 e fare schede inferiori, per staccare la 4080 ci vorrebbe Ad102 a 320bit 20gb, 144 rop's e 14k di cuda, ma IMHo non vedrà mai la luce.

Secondo me rimarrà tutto così in fascia alta, tanto la concorrenza si ferma molto prima a livello prestazionale, con Rt attivo non arriva nemmeno alla 4080 con consumi superiori.

Le nuove con 512 bit saranno devastanti, 32 gb di vram LOL sfido chiunque a dire che sarà una generazione con poca vram, se cosi fosse le x80 potrebbero venire equipaggiate con bus da 384/320bit.

Temo i prezzi visto che un die con quei collegamenti ha un costo non indifferente e temo anche i consumi per la prossima gen.

Il 512bit lo fai quando sei alla canna del gas con le memorie. E' molto complesso, infatti nvidia è dalla 280 che non lo utilizza, in quanto anche li era bloccata alle g3, mentre Ati arrivando prima alle g5, con un 256 bit emulò un 512bit g3 con pochissimo die.
Purtroppo il n3 non scala benissimo in sram, ed anche aumentando la cache, ti dovresti ripresentare con chip da bus irrisori.

Per tenere i bus piccoli, servirebbe la quadrupla densità e delle g7 già belle spinte.

Ma come cavolo testano questi?

Lo sto provando è davvero fig0 sto gioco, fluidissimo, inoltre ha tutto: FG, DLAA e tutti gli upscaling, viaggia veramente bene, concordo in RT è tanta roba.

Concordo, provato mezz'ora, in RT/DLAA è pazzesco, e soprattutto fluido. Qua ci starebbe bene anche il DLSS3.:)

Io con queste caratteristiche la prenderei subito ma la mia perplessità rimane, se già adesso non si sono ancora viste le potenzialità reali della 4090 figuriamoci se si riusciranno a vedere quelle di una 5090 che a questo punto forse sarà il doppio più potente.....
Ci vorranno come minimo schermi a 8k per sfruttarla e mi sa che quella risoluzione nel mondo consumer non farà presa.

Tra UE5 (che non fanno miracoli) e nuovi motori, man mano i requisiti saliranno (considerando la non ottimizzazione). Inoltre sono schede pensate sempre più per RT e PT, a piccoli passi prenderanno piede pure quelli.

Ma l'uno non esclude l'altro.

Un full AD103 dopo un anno di produzione non sarebbe strano ottenerne in quantità decenti, gli infili delle 24Gbps e hai comunque un chip con un piccolo margine in più come avvenne per le 2080 Super.

Allo stesso tempo puoi anche riciclare diversi fail per farci un chip intermedio tra 4070ti e 4080, come avvenne per la 2070 Super.

Però i chip che avrebbero maggiormente bisogno di una risistemata sono quelli di fascia media...

Kopite al momento esclude 4090ti e 4080ti. Quindi si, è probabile un full AD103, anche se nomenclature affinate a parte, è l'unico chip che davvero meriterebbe un cut in sta gen. AD106 come lo giri e lo rigiri è morto con quel bus. Salvo non portare un 3840cc a rimpiazzare la 4060 attuale.

mikael84
27-07-2023, 16:02
Si concordo, l'aumento di bus per fascia porterebbe ad evitare per questa gen l'adozione delle gddr7, senza sacrificare banda e vram.
Avremmo tranquillamente 5060 da 12gb, 5070 16gb, 5080 da 24 gb ecc...

Esattamente, almeno sulla ram, dovrebbe coprire meglio. Certo poi è probabile che ti ritrovi una 3080 like a 499$... in basso con il wafer a 20k non sono tanto positivo. Anche i chip top, a sto giro non avranno quel margine dal clock, ma dal possibile IPC.

Con la serie 6, magari torneranno a riproporre i piccoli bus, ma con l'introduzione della quadrupla densità. 256bit - 32gb in fascia 6080.

Lan_Di
27-07-2023, 17:03
Se vogliono fanno presto ad affossarla, ieri ho provato remnant 2 in 4k, senza dlss e FG si va sotto i 60 con la 4090.

E questo su di un titolo che non brilla per impatto visivo, TLOU è decisamente meglio e sfrutta meno risorse.

Gira tutto intorno al marketing, l'hardware è fatto per essere saturato, e gli sviluppatori pigri come sono ci mettono ben poco ad usare la froza bruta e via e chissene frega del resto.

La 4090 è overkill anche per il semplice fatto che molti videogiochi sono stati rimandati (covid) e siamo rimasti indietro, ci ritroviamo a far girare giochini, quindi le stime prestazionali di nvidia con la 4090 ad oggi sono completamente future proof, gioco/forza reggono ancora bene le rtx 3000 di fascia alta.



Eh infatti, certo che 2tb di banda o giù di li fanno paura, se equilibrano per bene ti esce un chippone con un backend mostruoso (rop's) e risolverebbe in toto lo sbilanciamento che ora ha la 4090.

Boh ripeto io ho molta paura dei consumi, ragionando e sapendo più o meno cosa offrono i 3nm rispetto ai 5nm attuali, probabile che al prossimo giro quel povero cavo/connettore dovrà lavorare parecchio sulla prossima enthusiast.

In una ambiente di lavoro dove le piaghe principali sono il crunch ed il burnout, fa un po' ridere leggere sempre più spesso che gli sviluppatori che sono pigri, incapaci e mascalzoni....
Probabilmente le colpe sono spesso altrove

Salfox
27-07-2023, 17:18
Boh ripeto io ho molta paura dei consumi, ragionando e sapendo più o meno cosa offrono i 3nm rispetto ai 5nm attuali, probabile che al prossimo giro quel povero cavo/connettore dovrà lavorare parecchio sulla prossima enthusiast.

Non vorrei che la prossima 5090 diventasse (per fare un paragone) il 13900k delle gpu.

Tu continui a dire sta cosa dei consumi del 13900k...
Non è affatto vero perchè nei giochi attuali consuma pochissimo e senza nessun tweak, provare per credere...
Ciò che voglio dire è che nell'uso normale è un processore molto ottimizzato e che consuma addirittura meno del 12900k che avevo prima, ripeto senza nessuna particolare ottimizzazione del bios, chiuso OT :D

Salfox
27-07-2023, 17:29
Ovvio che nei giochi consuma meno, è sfruttato al 30% e al 10% nei giochi più leggeri, fallo andare in full load a stock e vedi un pò cosa combina, apri hwinfo fai uan run di cinebench r23 o usa blender e poi posta qui il consumo del package.

Comunque se ti guardi le review è innegabile che la concorrenza con i 3d ambito gaming e non consuma nettamente meno.

No, non consuma più del 12900k in full load (e anche lui consuma un botto) dati alla mano e review alla mano.

https://www.techpowerup.com/review/intel-core-i9-13900k/22.html

Dire che un 13900k (12900k,13700k ma anche 13600k) non consumi equivale a non essere oggettivi.

Chiudo l'OT dicendo che mi piacerebbe che provassi a sostituire il tuo 12900k con il 13900k senza cambiare null'altro come ho fatto io. Sono convinto che resteresti sorpreso come lo sono stato io....

OrazioOC
27-07-2023, 17:51
Esattamente, almeno sulla ram, dovrebbe coprire meglio. Certo poi è probabile che ti ritrovi una 3080 like a 499$... in basso con il wafer a 20k non sono tanto positivo. Anche i chip top, a sto giro non avranno quel margine dal clock, ma dal possibile IPC.

Con la serie 6, magari torneranno a riproporre i piccoli bus, ma con l'introduzione della quadrupla densità. 256bit - 32gb in fascia 6080.

Beh oggi ci troviamo una 2080 ti like a 399 dollari(aka 4060 ti) non è che ci vada meglio. :asd:
E comunque io penso che per le gpu consumer vadano ancora da samsung come per ampere, a parità di wafer e con densità non troppo dissimili c'è quasi un 30% in più dei costi da tsmc rispetto a Sammy. :rolleyes:

Dono89
27-07-2023, 20:12
Mi sfugge il punto di avere un bus a 512bit con le g7 che presumibilmente andranno a...25gbps?

Avresti una banda teorica di 1.5T?
Dubito serva a qualcosa a meno che la 5090 non salti ancora com'è stato da 4080 a 4090.

Passiamo dai 256 della 4080 ai 384 della 5080 e 384 a 512 della 90?
Se fosse così la 5080 sarebbe davvero da sbavo!

Ubro92
27-07-2023, 20:42
Beh oggi ci troviamo una 2080 ti like a 399 dollari(aka 4060 ti) non è che ci vada meglio. :asd:
E comunque io penso che per le gpu consumer vadano ancora da samsung come per ampere, a parità di wafer e con densità non troppo dissimili c'è quasi un 30% in più dei costi da tsmc rispetto a Sammy. :rolleyes:

Si ma i die sono notevolmente più piccoli...

4060 159mm2 mentre 3060 276mm2
4060ti 188mm2 mentre 3060ti 392mm2
4070ti 294mm2 mentre 3070ti 392mm2
4080 379mm2 mentre 3080 628mm2

Il costo del silicio direi che è abbondantemente recuperato, anzi...

Mi sfugge il punto di avere un bus a 512bit con le g7 che presumibilmente andranno a...25gbps?

Avresti una banda teorica di 1.5T?
Dubito serva a qualcosa a meno che la 5090 non salti ancora com'è stato da 4080 a 4090.

Passiamo dai 256 della 4080 ai 384 della 5080 e 384 a 512 della 90?
Se fosse così la 5080 sarebbe davvero da sbavo!

Le GDDR7 andranno intorno ai 28-32Gbps nelle prime sfornate, con un 384bit sei a 1344/1536 Gb/s di bw.
Comunque dubito che a pari architettura si mettano a cambiare tipologie di memorie o addirittura rivedere in toto allargando i bus.

E' più probabile che verranno introdotte le GDDR6X da 24Gbps, e saranno rivisti i tagli dei chip.

mikael84
27-07-2023, 20:55
Eh infatti, certo che 2tb di banda o giù di li fanno paura, se equilibrano per bene ti esce un chippone con un backend mostruoso (rop's) e risolverebbe in toto lo sbilanciamento che ora ha la 4090.

Boh ripeto io ho molta paura dei consumi, ragionando e sapendo più o meno cosa offrono i 3nm rispetto ai 5nm attuali, probabile che al prossimo giro quel povero cavo/connettore dovrà lavorare parecchio sulla prossima enthusiast.

Non vorrei che la prossima 5090 diventasse (per fare un paragone) il 13900k delle gpu.

Intel è sempre sullo stesso PP, che affina man mano. E' un pò come se in assenza dei 5nm, passavi magari dal 8LPP al 8lpu e tiravi un pò il clock e portavi il die a 750mm2.:D

Con i 3nm chiaramente la densità migliorerà, ma dovrai rivedere l'IPC, e non puntare al 50% di clock, questo potrebbe portare anche a die grandini.

Beh oggi ci troviamo una 2080 ti like a 399 dollari(aka 4060 ti) non è che ci vada meglio. :asd:
E comunque io penso che per le gpu consumer vadano ancora da samsung come per ampere, a parità di wafer e con densità non troppo dissimili c'è quasi un 30% in più dei costi da tsmc rispetto a Sammy. :rolleyes:

Samsung con i GAAFET dovrebbe migliorare ed essere una buona alternativa, cosa che attualmente con i 5nm ed ancora con i 4nmlpp non era.
Ok che ci sta speculando sui prezzi dei wafer, vedi la 4080, ma anche ritrovarsi delle x60 da 300mm2 a 20k di wafer, non è molto positivo.:p

Mi sfugge il punto di avere un bus a 512bit con le g7 che presumibilmente andranno a...25gbps?

Avresti una banda teorica di 1.5T?
Dubito serva a qualcosa a meno che la 5090 non salti ancora com'è stato da 4080 a 4090.

Passiamo dai 256 della 4080 ai 384 della 5080 e 384 a 512 della 90?
Se fosse così la 5080 sarebbe davvero da sbavo!

Il bus a 512bit, pare proprio indicato per sopperire all'assenza delle g7 (un pò come la 280 che non aveva ancora le g5, al contrario della 4870, che divenne miracolosa per quello).:)
Ovviamente, di conseguenza, si dovrebbe salire pure sulle altre fasce, considerando che la 5080 dovrebbe battere la 4090, ed il bus della 4080 rimarrebbe un pò strettino senza cache e g7.:p
Anche BL104 sicuramente passerà ai 256bit x 16gb.

Dono89
27-07-2023, 21:10
Le GDDR7 andranno intorno ai 28-32Gbps nelle prime sfornate, con un 384bit sei a 1344/1536 Gb/s di bw.
Comunque dubito che a pari architettura si mettano a cambiare tipologie di memorie o addirittura rivedere in toto allargando i bus.

E' più probabile che verranno introdotte le GDDR6X da 24Gbps, e saranno rivisti i tagli dei chip.
Ancora le g6x sulle 5000? avevo capito le g7 avrebbero soppiantato le memorie attuali


Il bus a 512bit, pare proprio indicato per sopperire all'assenza delle g7 (un pò come la 280 che non aveva ancora le g5, al contrario della 4870, che divenne miracolosa per quello).:)
Ovviamente, di conseguenza, si dovrebbe salire pure sulle altre fasce, considerando che la 5080 dovrebbe battere la 4090, ed il bus della 4080 rimarrebbe un pò strettino senza cache e g7.:p
Anche BL104 sicuramente passerà ai 256bit x 16gb.
Come senza cache? dopo averla introdotta su ada credi la tolgano nella serie 5000?

mikael84
27-07-2023, 21:20
Ancora le g6x sulle 5000? avevo capito le g7 avrebbero soppiantato le memorie attuali


Come senza cache? dopo averla introdotta su ada credi la tolgano nella serie 5000?

Nel senso che i 3nm difficilmente riusciranno a raddoppiare la cache. La 4090 ha la bw della 3090ti ma 2,5 volte la potenza teorica. Il plus è solo la cache. Altrimenti necessitava già di un 512bit. Con la 5090 si dovrà aumentare la banda per forza.
Un pò come fece la 280 in mancanza di g5. Ram che fecero la fortuna della ati 4070

Ubro92
27-07-2023, 21:23
Con Blackwell sicuramente si passerà alle GDDR7, non avrebbe senso usare le memorie precedenti, pure un 128bit avrebbe una bw di 448/512 GB/s praticamente equivalente a quella dell'attuale 4070ti.

Ma se é previsto un refresh di Lovelace per l'anno prossimo rimarranno sulle classiche GDDR6X, al massimo adottano i 24gbps per i chip di punta.


Inviato dal mio M2012K11AG utilizzando Tapatalk

amon.akira
27-07-2023, 22:41
davo per scontato anche io le g7 per le 5000, essendo appunto il debutto previsto per il q1 2025 e le fasce sotto anche q3 ipotizzo...i tempi si allungheranno di 4-5mesi imho

mikael84
27-07-2023, 22:42
Con Blackwell sicuramente si passerà alle GDDR7, non avrebbe senso usare le memorie precedenti, pure un 128bit avrebbe una bw di 448/512 GB/s praticamente equivalente a quella dell'attuale 4070ti.

Ma se é previsto un refresh di Lovelace per l'anno prossimo rimarranno sulle classiche GDDR6X, al massimo adottano i 24gbps per i chip di punta.


Inviato dal mio M2012K11AG utilizzando Tapatalk

Per le g7, bisogna vedere la situazione interna di micron, nvidia ha gli accordi con loro. Si va a ripetere un GT200 bis.

Ubro92
27-07-2023, 23:17
Per le g7, bisogna vedere la situazione interna di micron, nvidia ha gli accordi con loro. Si va a ripetere un GT200 bis.

Micron dovrebbe già iniziare la produzione nella prima metà del 2024, o almeno cosi si dice dai rumors:

https://www.hwupgrade.it/news/skvideo/micron-pronta-con-le-memorie-gddr7-nella-prima-meta-del-2024_118068.html

mikael84
28-07-2023, 00:38
davo per scontato anche io le g7 per le 5000, essendo appunto il debutto previsto per il q1 2025 e le fasce sotto anche q3 ipotizzo...i tempi si allungheranno di 4-5mesi imho

Micron dovrebbe già iniziare la produzione nella prima metà del 2024, o almeno cosi si dice dai rumors:

https://www.hwupgrade.it/news/skvideo/micron-pronta-con-le-memorie-gddr7-nella-prima-meta-del-2024_118068.html

Bisogna vedere se verranno utilizzate subito. :)

OrazioOC
28-07-2023, 07:30
Si ma i die sono notevolmente più piccoli...

4060 159mm2 mentre 3060 276mm2
4060ti 188mm2 mentre 3060ti 392mm2
4070ti 294mm2 mentre 3070ti 392mm2
4080 379mm2 mentre 3080 628mm2

Il costo del silicio direi che è abbondantemente recuperato, anzi...




Il confronto 8nm samsung(che in realtà per densità è un 10nm ma "dettagli") delle ampere vs i 4nm di tsmc delle attuali rtx a parità di fascia è nefasto per samsung, poco ma sicuro. :)
Però il nodo a cui ci riferiamo io e Mike, il 3nm samsung GAAFET, è un salto in avanti allucinante rispetto al nodo che ha fornito samsung con ampere, e non sarebbe molto meno denso del 3nm di tsmc, costando a listino per wafer il 30/40% in meno(15.5k a wafer per samsung vs 20k proposti dai listini tsmc).

https://i.postimg.cc/1tfD0hWv/samsung-price.png

Se anche i die di un'ipotetico BL104 fatto da samsung fosse ipoteticamente più grande del 20% per avere lo stesso numero di transistor, gli converrebbe comunque. :D
Chiaro che se mi devono saltar fuori delle "pizzette" di più di 400 mm^2 solo per farci BL104 il gioco non mi varrebbe la candela.

Ma ad oggi il nodo samsung 3nm sulla carta è assolutamente da tenere in considerazione, almeno per chip non troppo complessi(aka destinati al mercato consumer). :)

Ubro92
28-07-2023, 08:27
Alla fine anche Turing ha dei die giganteschi, la 2080ti è una piastrella da 754mm2.

Nel passaggio ad ampere il pp di samsung garantiva un'ottima densità e prestazionalmente un chip analogo a TU102 come GA104 era grosso la metà, il problema di samsung erano per lo più i clock e i consumi.

Con Ampere c'è tantissima fluttuazione del clock, superati i 1900mhz si continua a sbattere contro il PL e o vai giù pesante di undervolt o diventa veramente complicato gestirli.

Considerando che in questa gen hanno presentato dei chip francobollo nella fascia media, non mi farei troppi problemi con la prossima gen, il margine c'è ma ovviamente a risentirne potrebbe essere BL102 che difficilmente farà un 2x come tra 3090 e 4090, ottimisticamente credo torniamo al classico +40% da 4090, appogiandoci per lo più a un miglioramento di IPC e densità più che al clock che bene o male dovrebbe rimanere invariato.

devil_mcry
28-07-2023, 08:43
ma perché siete fissati con bus enor i sulle x080? sono sempre state quasi tutte da 256bit, solo un paio escono da questa regola, sarà a 256bit anche la 5080 almeno che non beccano un pp sfigato. poi credo cmq che non si andrà oltre i 16gb di ram per ora su quella fascia

parlando di altro, ieri pensavo come nvidia da ormai 15 anni o più ha sempre un vantaggio in qualcosa al di fuori del raster, tra tassellazione, il physix, i gameworks, il raytracing, il dlss ha sempre dato un di più oltre alla base

non capisco perché amd non investa anche lei così, pure intel in proporzione ha un raytracing migliore

Ubro92
28-07-2023, 09:13
AMD con le 6000 ha fatto un ottimo lavoro, anche il RT come prima implementazione non era male.

Con le 7000 mi sarei aspettato un aumento degli RT core, ma alla fine i rapporti sono rimasti gli stessi, addirittura sui chip di fascia media ci ritroviamo meno vram, meno cache e meno RT core a pari prestazioni delle 6000.

Inoltre se con la passata gen amd aveva un vantaggio sul nodo dato che adottava i 7nm di tsmc, in questa gen si è ripalesata la differenza anche in raster dove amd al massimo prende la 4080.

AMD comunque ha diverse divisioni, e le sue soluzioni più interessanti riguardano soprattutto le APU, che sono un punto di riferimento in ambito console, handheld e soluzioni ultracompatte.

Ultimamente anche samsung nei suoi exynos sta implementando GPU RDNA2.

Per quanto riguarda la questione bus, mi sembra di capire che la questione sia nata solo per la disponibilità delle GDDR7, se queste non sono disponibili entro fine 2024 per forza di cose si potrebbe ripiegare su bus più grossi rimanendo sulle GDDR6X ma è uno scenario che personalmente dubito fortemente che si palesi.

Attualmente Lovelace nella fascia alta non ha proprio competizione, se servisse a prendere tempo possono tranquillamente fare un refresh e guadagnare qualche altro mese.

A mio parere non ha molto senso affrettarsi su Blackwell tanto da non attendere la disponibilità delle GDDR7.

EffeX
28-07-2023, 13:37
ma perché siete fissati con bus enor i sulle x080? sono sempre state quasi tutte da 256bit, solo un paio escono da questa regola, sarà a 256bit anche la 5080 almeno che non beccano un pp sfigato. poi credo cmq che non si andrà oltre i 16gb di ram per ora su quella fascia

parlando di altro, ieri pensavo come nvidia da ormai 15 anni o più ha sempre un vantaggio in qualcosa al di fuori del raster, tra tassellazione, il physix, i gameworks, il raytracing, il dlss ha sempre dato un di più oltre alla base

non capisco perché amd non investa anche lei così, pure intel in proporzione ha un raytracing migliore

Nvidia è sempre stata in anticipo sulle tecnologie, GeForce 256 fu la prima vga ad implementare T&L in hw, la GeForce 3 implementò la compressione colore per salvaguardare la bandwith, le GeForce FX implementavano gli shader model 2.0a, una revisione interna che diventarono gli shader model 3 nelle GeForce 6 e via discorrendo con physX, facial subscattering ecc ecc...

Ale55andr0
28-07-2023, 14:07
Comunque i 512 bit sono dispendiosi e no sense.

385 euro spedita. La mia AMD R9 290 512bit, ed esistevano già le gpu a 1000 euro eh (Titan e mi pare fosse pure a 384 bit...). Assurdo che dopo decenni di sviluppo, improvvisamente, da qualche anno a questa parte, i 512 bit non vanno nemmeno nominati altrimenti vogliono dire automaticamente costi fantastiliardari (non si sa bene perchè) visto che la cosa è stata attuata più volte, senza tutti sti costi assurdi di cui si parla, è attuabile anche oggi e sarà sempre fattibilissima in futuro, se si vuole. Il ricarico di una futura ipotetica 5090 a 512bit non è certo dovuto al fatto che avrebbe 512bit di bus. Abbiamo visto benissimo che se vogliono prezzare i prodotti in modo infame, lo fanno anche 128 miserabili bit e chip grandi quanto un chicco di caffè mi pare...

Per me di no sense c'è la rincorsa ai clock da record delle ram, i bus segati e le supercache che supercompensanoanzi no (4070 che perde in 4k sulla 3080).
Ha senso per loro, perchè marginano di più, non per noi, che otteniamo solo meno su loro risparmio non nostro. Per noi i 512 bit avrebbero un botto di senso altro che no.

mikael84
28-07-2023, 15:43
385 euro spedita. La mia AMD R9 290 512bit, ed esistevano già le gpu a 1000 euro eh (Titan e mi pare fosse pure a 384 bit...). Assurdo che dopo decenni di sviluppo, improvvisamente, da qualche anno a questa parte, i 512 bit non vanno nemmeno nominati altrimenti vogliono dire automaticamente costi fantastiliardari (non si sa bene perchè) visto che la cosa è stata attuata più volte, senza tutti sti costi assurdi di cui si parla, è attuabile anche oggi e sarà sempre fattibilissima in futuro, se si vuole. Il ricarico di una futura ipotetica 5090 a 512bit non è certo dovuto al fatto che avrebbe 512bit di bus. Abbiamo visto benissimo che se vogliono prezzare i prodotti in modo infame, lo fanno anche 128 miserabili bit e chip grandi quanto un chicco di caffè mi pare...

Per me di no sense c'è la rincorsa ai clock da record delle ram, i bus segati e le supercache che supercompensanoanzi no (4070 che perde in 4k sulla 3080).
Ha senso per loro, perchè marginano di più, non per noi, che otteniamo solo meno su loro risparmio non nostro. Per noi i 512 bit avrebbero un botto di senso altro che no.

Non ti sorge il dubbio che se gli ingegneri non lo utilizzano, è perchè non sia il massimo della praticità un 512bit?:p
Loro qualche anno prima fanno delle proiezioni, dove calcolano ogni possibile dettaglio, consultandosi naturalmente con i partner, tra questi rientra anche la micron.

La 280 l'ha usato in quanto non aveva le g5 (cosa che introdusse ati)
La 290x l'ha usato, ma non è stato il massimo quel chip, anzi inizialmente un disastro per via delle schermate nere, ed addirittura hanno dovuto segare la banda, portando le ram a 1250. Infatti Koduri, scelse le HBM con i chip di punta successivi.

Questo è un 384bit, con il 512bit devi instradare le piste per altri 4 modulini.
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/images/front.jpg

grng
28-07-2023, 17:47
La cosa assurda è che la colpa è solo ed esclusivamente della case di sviluppo. Nvidia soprattutto, ma anche altri le tecnologie le rende disponibili. Se poi le SH se ne fregano e guadagnano lo stesso.....
Nvidia da questo punto di vista è davvero molto brava. Implementa sempre qualcosa di nuovo e che funziona molto bene. poi però le sh si devono svegliare e progredire tecnologicamente....
La cosa non mi stupisce, nvidia é molto brava lato r&d, peró rimane chiusa e se vuole spingere le sh a buttare centinaia di ore per implementare le loro tecnologie esclusive, tocca pagare. Funziona cosí un po' dappertutto

devil_mcry
28-07-2023, 17:53
Non ti sorge il dubbio che se gli ingegneri non lo utilizzano, è perchè non sia il massimo della praticità un 512bit?:p
Loro qualche anno prima fanno delle proiezioni, dove calcolano ogni possibile dettaglio, consultandosi naturalmente con i partner, tra questi rientra anche la micron.

La 280 l'ha usato in quanto non aveva le g5 (cosa che introdusse ati)
La 290x l'ha usato, ma non è stato il massimo quel chip, anzi inizialmente un disastro per via delle schermate nere, ed addirittura hanno dovuto segare la banda, portando le ram a 1250. Infatti Koduri, scelse le HBM con i chip di punta successivi.

Questo è un 384bit, con il 512bit devi instradare le piste per altri 4 modulini.


Ma che poi non vedo cosa gli cambia a lui, contano le prestazioni alla fine se puoi fare con meno di più ben venga

La corsa ai MHz di per se non è un male assoluto, se non ti esce poi un P4 o un Bulldozer (ed equivalenti in GPU)

Ale55andr0
28-07-2023, 18:04
Non ti sorge il dubbio che se gli ingegneri non lo utilizzano, è perchè non sia il massimo della praticità un 512bit?:p
Loro qualche anno prima fanno delle proiezioni, dove calcolano ogni possibile dettaglio, consultandosi naturalmente con i partner, tra questi rientra anche la micron.

La 280 l'ha usato in quanto non aveva le g5 (cosa che introdusse ati)
La 290x l'ha usato, ma non è stato il massimo quel chip, anzi inizialmente un disastro per via delle schermate nere, ed addirittura hanno dovuto segare la banda, portando le ram a 1250. Infatti Koduri, scelse le HBM con i chip di punta successivi.

Questo è un 384bit, con il 512bit devi instradare le piste per altri 4 modulini.
https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-founders-edition/images/front.jpg

non è questione del per come, se lo hanno fatto in schede da 400 euro vuol dire che tutti sti costi "terrificanti" da terrorismo psicologico non esistono, non in tale entità intendo. Manco fare un chip con 100 miliardi di transistor mi pare pratico...a te? Non è che fai il 512 bit e la scheda passa da 400 e 2000 euro, ecco, spero di aver chiarito meglio. Si', so che devi "instradare" per altri moduli. Quindi? Nulla di mai visto e di terrificante? No. Il PCB passa da 5 euro (numero a caso) a 100? No. Il fatto che il chip della 290 non fosse il massimo è un discorso diverso, posto che per quanto mi riguarda è una delle gpu migliori avute nella sua gen....Sai meglio di me che a oggi potrebbero tutte essere gpu a 320/384bit anche in fascia media e ci starebbero cmq marginando ancora da tagliaborse per non dire usurai...

mikael84
28-07-2023, 21:02
Ma che poi non vedo cosa gli cambia a lui, contano le prestazioni alla fine se puoi fare con meno di più ben venga

La corsa ai MHz di per se non è un male assoluto, se non ti esce poi un P4 o un Bulldozer (ed equivalenti in GPU)

La corsa ai mhz dipende dalla bontà del PP e dal progetto architetturale. Con i 3nm si avrà la possibilità di salire ancora qualcosa. Quello che abbiamo assistito con Lovelace è dovuto ad un salto di nodo immenso (che poi sarebbero 2 + il passaggio a TSMC).





non è questione del per come, se lo hanno fatto in schede da 400 euro vuol dire che tutti sti costi "terrificanti" da terrorismo psicologico non esistono, non in tale entità intendo. Manco fare un chip con 100 miliardi di transistor mi pare pratico...a te? Non è che fai il 512 bit e la scheda passa da 400 e 2000 euro, ecco, spero di aver chiarito meglio. Si', so che devi "instradare" per altri moduli. Quindi? Nulla di mai visto e di terrificante? No. Il PCB passa da 5 euro (numero a caso) a 100? No. Il fatto che il chip della 290 non fosse il massimo è un discorso diverso, posto che per quanto mi riguarda è una delle gpu migliori avute nella sua gen....Sai meglio di me che a oggi potrebbero tutte essere gpu a 320/384bit anche in fascia media e ci starebbero cmq marginando ancora da tagliaborse per non dire usurai...

Ma il 512 bit non è solo costi, tieni presente che per evitare il 512bit, hanno usato quasi 90mm2 d'area di cache su AD102, mentre i collegamenti sono quasi irrisori.
Oltre alla complessità di un bus simile, è stato quasi sempre inutile utilizzarlo. Lo usi quando non ne puoi fare a meno (come potrebbe essere la 5090), come le schede citate. Lovelace è l'esempio di questo, dove si è preferito mettere la cache più che il bus.
AMD ha fatto lo stesso con IF navi21, spendendo un botto di cache.
Pensa che navi21 spoglio è grande 375mm2, con i collegamenti cache arriva a 520.

I costi salgono quando non solo per il PCB, ma anche per le ram aggiuntive.
Se la 280 avesse avuto le g5 non l'avrebbe creato quel bus, idem la 290x.

Sull'impilare 100mld di transistor, beh, dipende dagli scopi e dal PP che usi. Se devi pensare in primis al pro, li impili.:)

nessuno29
29-07-2023, 09:13
non è questione del per come, se lo hanno fatto in schede da 400 euro vuol dire che tutti sti costi "terrificanti" da terrorismo psicologico non esistono, non in tale entità intendo. Manco fare un chip con 100 miliardi di transistor mi pare pratico...a te? Non è che fai il 512 bit e la scheda passa da 400 e 2000 euro, ecco, spero di aver chiarito meglio. Si', so che devi "instradare" per altri moduli. Quindi? Nulla di mai visto e di terrificante? No. Il PCB passa da 5 euro (numero a caso) a 100? No. Il fatto che il chip della 290 non fosse il massimo è un discorso diverso, posto che per quanto mi riguarda è una delle gpu migliori avute nella sua gen....Sai meglio di me che a oggi potrebbero tutte essere gpu a 320/384bit anche in fascia media e ci starebbero cmq marginando ancora da tagliaborse per non dire usurai...

ahaha i 512bit sono il taboo, la macchina di Toretto che solo Toretto può utilizzare, già solo a nominare quei 4 moduli in più di vram partono 500 euro in più.

Se ci sono riusciti con questa, ci riusciranno anche con una 5090 (magari da 16gb così abbassano i costi di un centello eheh) https://tpucdn.com/gpu-specs/images/c/216-pcb-front.jpg

OrazioOC
29-07-2023, 12:15
L'importante è che non vendano schede gnè gnè a 450 euro tipo la 4060 ti ora, pcie x8, bus 128 bit, 8gb di vram...
Pare una scheda da 300 euro, e non hanno mai fatto nulla per smentirlo.

Se poi l'aumento di bus impatta anche sul resto della gamma, pace. :D

mikael84
29-07-2023, 12:26
ahaha i 512bit sono il taboo, la macchina di Toretto che solo Toretto può utilizzare, già solo a nominare quei 4 moduli in più di vram partono 500 euro in più.

Se ci sono riusciti con questa, ci riusciranno anche con una 5090 (magari da 16gb così abbassano i costi di un centello eheh)

Certo che hai preso l'unico riferimento sbagliato.:p
Inizialmente si sono inventati quell'accrocchio in quanto tosto da digerire.

Con il passaggio ai 55nm ed il debutto della 285, lo fecero in grazia di dio, permettendo pure il clamshell.
https://www.techpowerup.com/review/leadtek-geforce-gtx-285/images/front.jpg

ColdWarGuy
29-07-2023, 12:30
La corsa ai mhz dipende dalla bontà del PP e dal progetto architetturale. Con i 3nm si avrà la possibilità di salire ancora qualcosa. Quello che abbiamo assistito con Lovelace è dovuto ad un salto di nodo immenso (che poi sarebbero 2 + il passaggio a TSMC).



Mikael, il vero punto di Alessandro, che io condivido, è la "giustificabilità" dei costi delle attuali GPU discrete, che perdonate il gioco, di parole non ha alcuna giustificazione.

Se Intel ed AMD avessero ragionato allo stesso modo con le CPU in base al rapporto di performance con il passato ci ritroveremmo a pagarle il triplo.

Ma la cosa più triste di tutte è che ci sono customers pronti a difendere la politica dei prezzi NVIDIA, ancor più esecrabile se consideriamo il contesto socio-economico del momento.

Ora faccio partire il timer per il calcolo del tempo di risposta dei possessori di 4090 :D

mikael84
29-07-2023, 12:34
L'importante è che non vendano schede gnè gnè a 450 euro tipo la 4060 ti ora, pcie x8, bus 128 bit, 8gb di vram...
Pare una scheda da 300 euro, e non hanno mai fatto nulla per smentirlo.

Se poi l'aumento di bus impatta anche sul resto della gamma, pace. :D

Il bello del 512 bit sulla top, è che con molta probabilità verrà ampliato anche sui chip minori. Se alla 5090 servirà più banda, ne servirà pure (e soprattutto) a quelli sotto.:)
Se BL104, vorrà posizionarsi in zona x90 attuale, è un problema con un 192bit.

Come fecero con la 3090, sarebbe interessante vedere quanto perde la 4090 dimezzando il bus e la cache.:)
Se con AD104 hanno messo una pezza con la cache, non ampliando questa, devi per forza salire di bus.:)

mikael84
29-07-2023, 12:48
Mikael, il vero punto di Alessandro, che io condivido, è la "giustificabilità" dei costi delle attuali GPU discrete, che perdonate il gioco, di parole non ha alcuna giustificazione.

Se Intel ed AMD avessero ragionato allo stesso modo con le CPU in base al rapporto di performance con il passato ci ritroveremmo a pagarle il triplo.

Ma la cosa più triste di tutte è che ci sono customers pronti a difendere la politica dei prezzi NVIDIA, ancor più esecrabile se consideriamo il contesto socio-economico del momento.

Ora faccio partire il timer per il calcolo del tempo di risposta dei possessori di 4090 :D

Beh chi più di me, ha cercato di smontare le storielle di JHH.:p

Ho postato il costo attuale delle ram (che stanno a 27$ 8gb, aumento loro 100$), ho calcolato tutti i costi dei die di tutte le sku, con tanto di immagini dei wafer ( e l'ho fatto pure con stime a 17k$, quando realmente pare sia a 14k$), smontandogli tutta la teoria della legge di moore morta.:p

Non ho mai visto siti specializzati (di grossissima taglia), fargli pelo e contropelo su quest'aspetto.
L'unico che si è messo a puntare il dito, l'ha fatto solo sulla ram. Bene, ecco la 4060ti da 16gb a 100$ in più.:asd: :asd:

ColdWarGuy
29-07-2023, 13:16
Beh chi più di me, ha cercato di smontare le storielle di JHH.:p

Ho postato il costo attuale delle ram (che stanno a 27$ 8gb, aumento loro 100$), ho calcolato tutti i costi dei die di tutte le sku, con tanto di immagini dei wafer ( e l'ho fatto pure con stime a 17k$, quando realmente pare sia a 14k$), smontandogli tutta la teoria della legge di moore morta.:p

Non ho mai visto siti specializzati (di grossissima taglia), fargli pelo e contropelo su quest'aspetto.
L'unico che si è messo a puntare il dito, l'ha fatto solo sulla ram. Bene, ecco la 4060ti da 16gb a 100$ in più.:asd: :asd:

Ovviamente l'appunto non era nei tuoi confronti, di fatto se si confermerà la consistenza di queste listini con il piffero che gli appassionati non milionari (o iper fissati) cambieranno scheda ad ogni generazione (ma neanche ogni due ...).

Scherzi a parte, facciamo il punto :

4080 = 1200 euro
4090 = 1600 euro

buon divertimento, io passo.

amon.akira
29-07-2023, 13:38
Ovviamente l'appunto non era nei tuoi confronti, di fatto se si confermerà la consistenza di queste listini con il piffero che gli appassionati non milionari (o iper fissati) cambieranno scheda ad ogni generazione (ma neanche ogni due ...).

Scherzi a parte, facciamo il punto :

4080 = 1200 euro
4090 = 1600 euro

buon divertimento, io passo.

la 3090 stava 1500 con 100dollari in piu in 2anni ti becchi il doppio delle perf

non ripetiamo sempre le stesse cose, è la 4080 che ha avuto 500dollari di aumento rispetto alla 3080

in proporzione la x90 è aumentata del 6% prezzo per +90%perf

la x70 del +20% prezzo per +25%(?) perf


cioè quello che voglio dire è che se la 4080 avesse avuto anche lei un aumento di 100dollari, quindi da 699 a 799...saresti stato contento no? quindi perchè punti il dito ai +100 della 4090 dove in % sarebbe anche un aumento inferiore a un ipotetica 4080 a 799$

nessuno29
29-07-2023, 13:55
Certo che hai preso l'unico riferimento sbagliato.:p
Inizialmente si sono inventati quell'accrocchio in quanto tosto da digerire.

Con il passaggio ai 55nm ed il debutto della 285, lo fecero in grazia di dio, permettendo pure il clamshell.
https://www.techpowerup.com/review/leadtek-geforce-gtx-285/images/front.jpg

ops ahah

che bel pcb

Ale55andr0
29-07-2023, 14:08
non ripetiamo sempre le stesse cose, è la 4080 che ha avuto 500dollari di aumento rispetto alla 3080


il resto della gamma invece è perfetto, il problema è solo la 80 :sofico: ...

ColdWarGuy
29-07-2023, 14:10
la 3090 stava 1500 con 100dollari in piu in 2anni ti becchi il doppio delle perf

non ripetiamo sempre le stesse cose, è la 4080 che ha avuto 500dollari di aumento rispetto alla 3080

in proporzione la x90 è aumentata del 6% prezzo per +90%perf

la x70 del +20% prezzo per +25%(?) perf


cioè quello che voglio dire è che se la 4080 avesse avuto anche lei un aumento di 100dollari, quindi da 699 a 799...saresti stato contento no? quindi perchè punti il dito ai +100 della 4090 dove in % sarebbe anche un aumento inferiore a un ipotetica 4080 a 799$

Ho elencato quelle perchè sono le uniche che danno uno stacco prestazionale rispetto una 3080 da 700 MSRP, il resto è tristezza pura, consumi a parte.

Sul discorso del rapporto price performance 4090 vs 3090 niente da dire se non che anche la 3090 era overpriced, poi per carità, se il new normal è quello di dover spendere 1000 errotti euro per la sola scheda video mica è vietato, semplicemente i numeri di mercato subiranno un deciso ridimensionamento, con le persone che devolveranno il ghello ad hobby diversi, magari anche più salutari.

ColdWarGuy
29-07-2023, 14:12
il resto della gamma invece è perfetto, il problema è solo la 80 :sofico: ...

Concordo, il resto è semplicemente OSCENO.

amon.akira
29-07-2023, 14:19
Ho elencato quelle perchè sono le uniche che danno uno stacco prestazionale rispetto una 3080 da 700 MSRP, il resto è tristezza pura, consumi a parte.

Sul discorso del rapporto price performance 4090 vs 3090 niente da dire se non che anche la 3090 era overpriced, poi per carità, se il new normal è quello di dover spendere 1000 errotti euro per la sola scheda video mica è vietato, semplicemente i numeri di mercato subiranno un deciso ridimensionamento, con le persone che devolveranno il ghello ad hobby diversi, magari anche più salutari.

di solito in tutti gli ambiti piu si sale è piu diventa sconveniente il rapporto costo/benificio, ecco perchè la 3090 era overpriced rispetto alla 3080...pagavi piu del doppio per poco in piu, qui hanno invertito tutto, piu scendi e piu te lo prendi in quel posto...forse l unica è la 4070 dopo la 4090, ma molto distante s intende eh

fraussantin
29-07-2023, 14:21
la 3090 stava 1500 con 100dollari in piu in 2anni ti becchi il doppio delle perf

non ripetiamo sempre le stesse cose, è la 4080 che ha avuto 500dollari di aumento rispetto alla 3080

in proporzione la x90 è aumentata del 6% prezzo per +90%perf

La 4090 non ha avuto un grosso aumento(l'unica) per 2 motivi .

1 il flop della 3090ti che ha segnato che a tutto c'è un limite

2 già la 3090 costava uno stonfo .

Ubro92
29-07-2023, 14:49
di solito in tutti gli ambiti piu si sale è piu diventa sconveniente il rapporto costo/benificio, ecco perchè la 3090 era overpriced rispetto alla 3080...pagavi piu del doppio per poco in piu, qui hanno invertito tutto, piu scendi e piu te lo prendi in quel posto...forse l unica è la 4070 dopo la 4090, ma molto distante s intende ehVabbè con ampere é andata di lusso che la 3080 fosse stampata su ga102, se la facevano su Ga103 lo stacco era molto più marcato dalla 3080ti/3090.

Inoltre con GA103 sarebbe rimasta con un bus a 256bit e quindi 8gb di vram, e non oso immaginare quante imprecazioni si sarebbe beccata, anche perche la doppia densità non era ancora disponibile 😂

In questa gen un full AD102 con memorie a 24gbps eclisserebbe la 4080 ma anche un full AD103.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Salfox
29-07-2023, 14:51
La 4090 non ha avuto un grosso aumento(l'unica) per 2 motivi .

1 il flop della 3090ti che ha segnato che a tutto c'è un limite

2 già la 3090 costava uno stonfo .

Paradossalmente quelli che hanno risentito meno dell'aumento dei prezzi sono proprio gli enthusiast come me e Amon che bene o male comprano la top ad ogni generazione (ripeto che prendendola ogni due anni e mezzo non è nemmeno un grosso sacrificio). Secondo me in Nvidia hanno capito che anche chi è disposto ad acquistare il top ha una soglia psicologica sui 1999 Euro\Dollari (flop della 4090ti docet, in quanti l'avranno comprata?) e bene o male con le top si manterranno sempre sotto quella soglia. Chi sta andando proprio male con questa politica sono quelli che puntano alla fascia media che sembra proprio scomparsa.

mikael84
29-07-2023, 15:09
Ho elencato quelle perchè sono le uniche che danno uno stacco prestazionale rispetto una 3080 da 700 MSRP, il resto è tristezza pura, consumi a parte.

Sul discorso del rapporto price performance 4090 vs 3090 niente da dire se non che anche la 3090 era overpriced, poi per carità, se il new normal è quello di dover spendere 1000 errotti euro per la sola scheda video mica è vietato, semplicemente i numeri di mercato subiranno un deciso ridimensionamento, con le persone che devolveranno il ghello ad hobby diversi, magari anche più salutari.

Ecco, a proposito di 3090. Non è che era sovraprezzata, anzi, fu il seguito al ribasso di quello che successe con turing.
Con turing, grazie alle g6, ci fu la possibilità di utilizzare la doppia densità, raddoppiando i gb per canale.
JHH la sfruttò appieno, creando una Titan (con tu102 full) prosumer, che con 24gb doveva far breccia soprattutto lato pro. Il prezzo era di 2500$.

Non solo, grazie al clamshell creò una quadro da 48gb (prima vincolate a 24), ed il solo quantitativo fece schizzare la GPU fa 6000 a 10000$.

La Titan RTX fu un flop, allora si inventò la 3090 ad un prezzo "più onesto", scheda dedicata sempre al prosumer.

Diciamo che la x90 per ragioni anche di calcolo pro, è in parte giustificata, è la linea di sotto un perfetto schifo.

Ale55andr0
29-07-2023, 15:09
Secondo me in Nvidia hanno capito che anche chi è disposto ad acquistare il top ha una soglia psicologica sui 1999 Euro\Dollaria.

Sicuro? A me mi sa che la soglia psicologica si è sempre alzata: prima ai tempi delle 7970 ricordavo "la top massimo 499 eh, la nuova 599 e va beh, stringiamo l'ano"...poi "999 è la soglia psicologica" (per eccellenza, il millino...), poi no "milleedue ci sta' è una bestia", ora 1999. Ci vediamo al prossimo giro...

mikael84
29-07-2023, 15:25
Sicuro? A me mi sa che la soglia psicologica si è sempre alzata: prima ai tempi delle 7970 ricordavo "la top massimo 499 eh, la nuova 599 e va beh, stringiamo l'ano"...poi "999 è la soglia psicologica" (per eccellenza, il millino...), poi no "milleedue ci sta' è una bestia", ora 1999. Ci vediamo al prossimo giro...

Proprio dalla 7970 in poi cominciò il calvario. Kepler full era in netto ritardo, e decise di giocarsela col chippetto 680. Ecco quel chippetto prese il posto della full, andando a creare una nuova fascia.
Sempre con Kepler, JHH introdusse la Titan, una 780 con le fp64 attive, introducendo un'altra fascia di prezzo ancora.

Tuttavia AMD ribatteva colpo su colpo, e con Maxwell si creò una buona serie.
Ora Lisa è diventata peggio di lui, quindi se il concorrente fa peggio di chi detiene il monopolio, puoi capire l'andazzo.

ColdWarGuy
29-07-2023, 18:06
Ecco, a proposito di 3090. Non è che era sovraprezzata, anzi, fu il seguito al ribasso di quello che successe con turing.
Con turing, grazie alle g6, ci fu la possibilità di utilizzare la doppia densità, raddoppiando i gb per canale.
JHH la sfruttò appieno, creando una Titan (con tu102 full) prosumer, che con 24gb doveva far breccia soprattutto lato pro. Il prezzo era di 2500$.

Non solo, grazie al clamshell creò una quadro da 48gb (prima vincolate a 24), ed il solo quantitativo fece schizzare la GPU fa 6000 a 10000$.

La Titan RTX fu un flop, allora si inventò la 3090 ad un prezzo "più onesto", scheda dedicata sempre al prosumer.

Diciamo che la x90 per ragioni anche di calcolo pro, è in parte giustificata, è la linea di sotto un perfetto schifo.

Aspetta :) ... la 3090 costava il doppio della 3080 dando un mero salto prestazionale del 10% e l'unico plus, il size di memoria, è sfruttabile solo da una clientela di nicchia, in rapporto la 2080 Ti stacca molto di più dalla 2080 liscia con un rapporto di prezzo inferiore, che poi entrambe facciano parte di una categoria che fosse per me non esisterebbe (in campo ludico) è un altro discorso ...

OrazioOC
29-07-2023, 18:20
Proprio dalla 7970 in poi cominciò il calvario. Kepler full era in netto ritardo, e decise di giocarsela col chippetto 680. Ecco quel chippetto prese il posto della full, andando a creare una nuova fascia.
Sempre con Kepler, JHH introdusse la Titan, una 780 con le fp64 attive, introducendo un'altra fascia di prezzo ancora.

Tuttavia AMD ribatteva colpo su colpo, e con Maxwell si creò una buona serie.
Ora Lisa è diventata peggio di lui, quindi se il concorrente fa peggio di chi detiene il monopolio, puoi capire l'andazzo.

Al momento è nvidia contro nvidia, ma non sta andando bene alla nvidia attuale, fatto salvo le 4090(che vendono tanto in rapporto al loro costo) le altre non dico facciano polvere sugli scaffali, ma fanno vendite sottotono.

Di sicuro non ho visto gente fare la fila per rimpiazzare 3060ti/3070/3080 con le 4070/80. :rolleyes:

amon.akira
29-07-2023, 19:16
Vabbè con ampere é andata di lusso che la 3080 fosse stampata su ga102, se la facevano su Ga103 lo stacco era molto più marcato dalla 3080ti/3090.

Inoltre con GA103 sarebbe rimasta con un bus a 256bit e quindi 8gb di vram, e non oso immaginare quante imprecazioni si sarebbe beccata, anche perche la doppia densità non era ancora disponibile ��

In questa gen un full AD102 con memorie a 24gbps eclisserebbe la 4080 ma anche un full AD103.

Inviato dal mio M2012K11AG utilizzando Tapatalk

anche con distacco maggiore, il prezzo era sempre +115%, quindi anche se non si fosse differenziata per 15-20% ma di 25-40% il discorso era uguale.

e cmq il pp nuovo piu costoso se l era già pagato con il rename, 4090(4080ti) da 1200 a 1600 e cosi via...ma viste le prestazioni era logico, quindi il +100 ci sta, ma se sulla x70 ci mette +100 e la x90 ci mette +100, perchè sulla x80 ci metti +500? forse pke ha visto vendere x80 ampere a 1300-1400 che era la norma durante il mining

ste-87
29-07-2023, 20:19
Al momento è nvidia contro nvidia, ma non sta andando bene alla nvidia attuale, fatto salvo le 4090(che vendono tanto in rapporto al loro costo) le altre non dico facciano polvere sugli scaffali, ma fanno vendite sottotono.

Di sicuro non ho visto gente fare la fila per rimpiazzare 3060ti/3070/3080 con le 4070/80. :rolleyes:

forse c'è ancora speranza nell'umanità allora :D

vediamo se con la prossima gen almeno un filo si ridimensionano con i prezzi del nuovo, male che vada ci "accontentiamo" di quelli che a questa gen hanno preso la 4080/4090 pagandola per loro il giusto (altrimenti non l'avrebbero comprata) e che la rivendono come usato per passare alla nuova gen a un prezzo che per il resto del mondo le valuta come giusto prezzo

mikael84
29-07-2023, 20:54
Aspetta :) ... la 3090 costava il doppio della 3080 dando un mero salto prestazionale del 10% e l'unico plus, il size di memoria, è sfruttabile solo da una clientela di nicchia, in rapporto la 2080 Ti stacca molto di più dalla 2080 liscia con un rapporto di prezzo inferiore, che poi entrambe facciano parte di una categoria che fosse per me non esisterebbe (in campo ludico) è un altro discorso ...

Si, la 3090 stacca poco la 3080 in quanto sono basate sulla medesima sku per motivi di PP, ed anche di concorrenza, visto il vantaggio sul PP di AMD. Praticamente si stava creando una sorta di effetto CPU.

Tuttavia la 3090 riprende la Titan RTX da 2500$, e lo fa cercando di prendersi anche la fetta dei giocatori. Una sorta di ibrido adatto a tutti. un modo per alzare ancora l'asticella.:)

Ci tengo a precisare una cosa però, è vero che molti chip sono sovrapprezzati, pero ad esempio la 3080, fece infuriare gli AIB, in quanto chip troppo costoso da produrre. Le g6x ben più care delle g6, e le g6 stavano a quasi 12$ il gb.
Gli AIB sono in perdita perenne.

Immagina una 4080 su AD102 con 300$ di die in rapporto.
Invece una 4080 su AD103, va solo leggermente ad ampliare i costi della 3070ti. La 4070ti va ad amplificare quelli della 3060.
La 4060ti paga 2x il die della 1650 liscia.
Ecco che qua comincia la fregatura.:p

Al momento è nvidia contro nvidia, ma non sta andando bene alla nvidia attuale, fatto salvo le 4090(che vendono tanto in rapporto al loro costo) le altre non dico facciano polvere sugli scaffali, ma fanno vendite sottotono.

Di sicuro non ho visto gente fare la fila per rimpiazzare 3060ti/3070/3080 con le 4070/80. :rolleyes:

Al momento è tutti che sguazzano sotto mamma nvidia. Nvidia si fa i soldi con l'HPC, tiene i prezzi alti in gaming-pro, e la signora Lisa, ne approfitta per fare il suo giochetto.:p

Forse, e dico forse, JHH rivedrà qualcosa, quando sostituirà Hopper con Blackwell.

Dono89
29-07-2023, 21:30
Io mi auguro solo che una 5080 costi un prezzo sensato. Sensato non è 300euro, ma nemmeno oltre 1000 per una scheda che va nemmeno un 30% del top della gen precedente

ste-87
29-07-2023, 21:51
Io mi auguro solo che una 5080 costi un prezzo sensato. Sensato non è 300euro, ma nemmeno oltre 1000 per una scheda che va nemmeno un 30% del top della gen precedente

mi sà che rimarrai deluso allora, ormai la direzione è quella, nella migliore delle ipotesi potranno tirare giù qualcosa dal prezzo della 4080 per farla sembrare più conveniente della gen precedente oltre all'aumento delle prestazioni e avranno la strada spianata....tanto chi abbocca c'è, l'hanno avuto con questa gen e i relativi prezzi da capogiro, figurati se la mettono a qualcosina meno (999 di listino che diventano 1100-1200€) invece dei 1199 di listino della vecchia

devil_mcry
29-07-2023, 23:09
Io mi auguro solo che una 5080 costi un prezzo sensato. Sensato non è 300euro, ma nemmeno oltre 1000 per una scheda che va nemmeno un 30% del top della gen precedente

credo che per un po' il trend sarà quello, più che altro cambierà che uno non comprerà più una scheda dietro l'altra ma aspetterà 2 generazioni almeno per cambiare vedremo come va comunque in questo momento non c'è concorrenza quindi...

ColdWarGuy
30-07-2023, 00:23
Io mi auguro solo che una 5080 costi un prezzo sensato. Sensato non è 300euro, ma nemmeno oltre 1000 per una scheda che va nemmeno un 30% del top della gen precedente

Andrà di lusso se la 5070 avrà prestazioni vicine ad una 4080 attorno ai 700 euro, ma proprio di lusso ...

nessuno29
30-07-2023, 06:03
Io mi auguro solo che una 5080 costi un prezzo sensato. Sensato non è 300euro, ma nemmeno oltre 1000 per una scheda che va nemmeno un 30% del top della gen precedente

Non credo proprio, basterà la giusta campagna marketing qualche mazzetta decente ai vari techtuber con nmila iscritti (immagino già i titoli Nvidia is back again, La SCHEDA da comprare) e prezzi simili a questa gen, leggermente più bassi se andranno veramente da samsung.

ColdWarGuy
30-07-2023, 08:50
"NVIDIA has benefited tremendously from the AI hype, generating revenue figures not yet seen in the industry. A report claims that NVIDIA's cut-down AI GPUs in China are now sold at astonishing prices, reaching as high as 500,000 yuan/ US $69,000."

NVIDIA’s AI GPUs in China Now Selling at A Tremendous 500,000 Yuan Price Tag (https://wccftech.com/nvidias-ai-gpus-in-china-now-selling-at-a-tremendous-500000-yuan-price-tag/)

Stanno vendendo dispositivi AI ad un prezzo "al chilo" molto più alto delle GPU gaming, motivo per cui l'ultima cosa che possiamo aspettarci è una riduzione costi su quest'ultime, anzi se continua così la serie 5000 sarà ancora peggio, visto che di fatto non hanno concorrenza.

Ale55andr0
30-07-2023, 09:37
"NVIDIA has benefited tremendously from the AI hype, generating revenue figures not yet seen in the industry. A report claims that NVIDIA's cut-down AI GPUs in China are now sold at astonishing prices, reaching as high as 500,000 yuan/ US $69,000."

NVIDIA’s AI GPUs in China Now Selling at A Tremendous 500,000 Yuan Price Tag (https://wccftech.com/nvidias-ai-gpus-in-china-now-selling-at-a-tremendous-500000-yuan-price-tag/)

Stanno vendendo dispositivi AI ad un prezzo "al chilo" molto più alto delle GPU gaming, motivo per cui l'ultima cosa che possiamo aspettarci è una riduzione costi su quest'ultime, anzi se continua così la serie 5000 sarà ancora peggio, visto che di fatto non hanno concorrenza.

se le gpu gaming restano invendute, anche se ormai è l'1% (numero a caso ovviamente volutamente estremizzato) del tuo core business, è cmq una danno per l'azienda, non un beneficio, quindi non capirei cmq una politica simile, cioè "tanto faccio i miliardi con l'IA che prendano pure polvere in magazzino". Una azienda non vuole perdere nemmeno un cent, vuole utili in ogni suo reparto, anche quello meno impattante.

mikael84
30-07-2023, 12:33
Io mi auguro solo che una 5080 costi un prezzo sensato. Sensato non è 300euro, ma nemmeno oltre 1000 per una scheda che va nemmeno un 30% del top della gen precedente

Con i 3nm ed i possibili allargamenti dei bus? Temo che rimarrai scontento.
Non mi stupirei neppure di vedere la 5090 a 1999, con 512 bit e 32gb di ram, e sotto a seguire di conseguenza.
Se va bene rimangono uguali, ma se i chip costeranno ancora di più da produrre (soprattutto per gli AIB), significa fare meno margine.

Il miglior chip serie blackwell, potrebbe essere Lovelace usato, come lo è ampere con Lovelace, salvo la serie top, che quella veramente merita.:)

mikael84
30-07-2023, 12:38
Andrà di lusso se la 5070 avrà prestazioni vicine ad una 4080 attorno ai 700 euro, ma proprio di lusso ...

La 5070 pari alla 4080 sarebbe il minimo, ma sono anche +50% per fascia, l'ultima 4070 segna +25/30% dalla 3070.
Chissà l'accordo che avranno preso con la cugina nel grande tavolo.

ColdWarGuy
30-07-2023, 15:33
se le gpu gaming restano invendute, anche se ormai è l'1% (numero a caso ovviamente volutamente estremizzato) del tuo core business, è cmq una danno per l'azienda, non un beneficio, quindi non capirei cmq una politica simile, cioè "tanto faccio i miliardi con l'IA che prendano pure polvere in magazzino". Una azienda non vuole perdere nemmeno un cent, vuole utili in ogni suo reparto, anche quello meno impattante.

Ti sbagli, se c'è un cambio di rotta una multinazionale americana fa questo ed altro.

Ho lavorato in una realtà di quel tipo, ho visto stoppare progetti durati anni e buttar via decine di milioni di dollari in ore uomo così come svendere al chilo magazzini interi di invenduto se non addirittura rottamare reparti interi sulla base di cambi strategici.

Figuriamoci se NVIDIA si fa problemi per le schede invendute delle passate generazioni quando sta piazzando SKU con prezzo multiplo di 10K a ritmi che non osavano neanche sognare.

Dirotteranno tutte le risorse sui prodotti con maggior mark up, molti meno scatoloni, molti più soldi.

ColdWarGuy
30-07-2023, 15:42
La 5070 pari alla 4080 sarebbe il minimo, ma sono anche +50% per fascia, l'ultima 4070 segna +25/30% dalla 3070.
Chissà l'accordo che avranno preso con la cugina nel grande tavolo.

In 4K la 4070 sta leggermente sotto la 3080 anche in RT, in 2K più o meno pareggia, quindi secondo me l'ipotesi di una 5070 al pari della 4080 ci stà, poi ovviamente l'ultima parola sta al prezzo di vendita.

Tu quanto ti aspetti che chiedano per cotanta grazia ? :D

Kostanz77
30-07-2023, 19:15
Io dico che se mi tirano fuori una 5080 (o semi top che sia) da 384 bit 24gb o 320bit 20gb che và +30% dalla 4090 con altre feature importanti per innalzare il frame rate, do via ste due e prendo quella e ciccia, mi parcheggio così.



Ma tanto farà quel +15/20% a -25% di TDP e bisognerà passare alla bestia.



512 bit è roba che non si vede da minimo 15 anni, di positivo il fatto che possono scalare i chip come vogliono non essendo tirati, roba da 128 bit di bus su fascia x60\x60ti non ne voglio più vedere.



giusto per curiosità, cosa te ne fai di una 4080 se già possiedi l’ammiraglia 4090?

amon.akira
30-07-2023, 20:07
giusto per curiosità, cosa te ne fai di una 4080 se già possiedi l’ammiraglia 4090?

Il classico muletto penso ^^'

Kostanz77
30-07-2023, 20:15
Il classico muletto penso ^^'


si ma non vedo in firma le altre componenti di un eventuale muletto


Inviato dal mio iPhone utilizzando Tapatalk Pro

mikael84
30-07-2023, 21:42
In 4K la 4070 sta leggermente sotto la 3080 anche in RT, in 2K più o meno pareggia, quindi secondo me l'ipotesi di una 5070 al pari della 4080 ci stà, poi ovviamente l'ultima parola sta al prezzo di vendita.

Tu quanto ti aspetti che chiedano per cotanta grazia ? :D

In linea di massima, sarebbe il minimo prendere la 4080, però bisogna vedere che tutto si inventano quei due. :p
Purtroppo non conosco ancora nulla del progetto blackwell. A sto giro è piuttosto riservato.:)

giusto per curiosità, cosa te ne fai di una 4080 se già possiedi l’ammiraglia 4090?

Il classico muletto penso ^^'

Si può usare per PhysX, 4090 rendering, 4080 PhysX. Con quelle 2 Mafia 2 vola:p
https://www.youtube.com/watch?v=vCnfWneTsMY&ab_channel=jhwejr34

HSH
31-07-2023, 07:44
beati voi che avete tutta sta grana da spendere in sk video :eek: ho sbagliato lavoro chiaramente :D

mtofa
31-07-2023, 08:21
Per nvidia & company il periodo covid è stato una manna, adesso dopo che la gente è stata abituata a ragionare su certe cifre per una scheda, possono permettersi di venderele a peso d'oro...

Salfox
31-07-2023, 09:38
Per nvidia & company il periodo covid è stato una manna, adesso dopo che la gente è stata abituata a ragionare su certe cifre per una scheda, possono permettersi di venderele a peso d'oro...

Purtroppo le VGA hanno seguito semplicemente la dinamica dei prezzi di ogni cosa dopo l'inizio della guerra in Ucraina e non per la pandemia, prendi uno scontrino della spesa di prima della guerra e confrontalo con uno attuale, vedrai che molte cose non sono solo aumentate ma il più delle volte sono raddoppiate.

ultimate trip
31-07-2023, 09:45
Per nvidia & company il periodo covid è stato una manna, adesso dopo che la gente è stata abituata a ragionare su certe cifre per una scheda, possono permettersi di venderele a peso d'oro...

Ma non mi pare che ci sia comunque la corsa all'acquisto, è vero che la pandemia ha rappresentato la peggiore dimostrazione che il consumatore potesse dare, ora però la situazione sembra diversa

vedremo nel prossimo futuro come nvidia, amd e intel posizioneranno i loro prodotti e avremo un'idea se la media di una vga semi top diventerà 1k€ stabilmente

ColdWarGuy
31-07-2023, 19:05
Ma non mi pare che ci sia comunque la corsa all'acquisto, è vero che la pandemia ha rappresentato la peggiore dimostrazione che il consumatore potesse dare, ora però la situazione sembra diversa

vedremo nel prossimo futuro come nvidia, amd e intel posizioneranno i loro prodotti e avremo un'idea se la media di una vga semi top diventerà 1k€ stabilmente

Se per semi-top intendiamo la 4080, 1k€ non basta neanche per prendere una Manli dal più scurfido VAT player della piazza, comunque mi aspetto che Nvidia forte delle vendite AI se ne sbatta dei lamenti dei nerds sui forums e tiri dritta con i suoi listini da boutique via Monte Napoleone a Milano, tanto dall'altra parte ha dei margini che hanno superato ogni più resea aspettativa.

ColdWarGuy
31-07-2023, 19:07
Purtroppo le VGA hanno seguito semplicemente la dinamica dei prezzi di ogni cosa dopo l'inizio della guerra in Ucraina e non per la pandemia, prendi uno scontrino della spesa di prima della guerra e confrontalo con uno attuale, vedrai che molte cose non sono solo aumentate ma il più delle volte sono raddoppiate.

Io non ho ancora capito se ti prendi in giro per giustificare i 2K euro di schedona, io ogni caso ti consiglio di cambiare supermercato.

Salfox
31-07-2023, 19:55
Io non ho ancora capito se ti prendi in giro per giustificare i 2K euro di schedona, io ogni caso ti consiglio di cambiare supermercato.

Ti faccio due esempi indipendentemente dal supermercato che frequenti :D :D :D :
il pane prima della guerra costava sotto i tre euro al kg ora costa sei euro. La pasta si trovava in offerta anche a 40 cent a pacchetto (500 gr) ora meno di 80 cent non se ne parla nemmeno. La frutta non ne parliamo proprio, più che raddoppiata di prezzo e voi vi aspettate che con questo aumento spropositato di tutti i generi alimentari la VGA non seguano il trend?
Ah poi, io sono una persona assolutamente normale non sono assolutamente ricco anzi forse sono sul medio basso ma ho fatto una scelta, ogni cinque anni cambio il computer con uno top (così mi dura) e lo stesso faccio ogni due anni e mezzo con le VGA (compro sempre la top) vendendo l'usato.
Ti assicuro che non è questo gran sacrificio, tra le altre cose sono astemio e non ho mai fumato in vita mia...
Sono d'accordo che in questa generazione non ci sia quella che prima era la fascia media perchè ora la 4080 (che secondo me è media a tutti gli effetti) ha il prezzo di una semitop e io non la comprerei mai, per questo con poco in più ho preso una vga che va il doppio e sono supersoddisfatto.

In conclusione dico che uno fa delle scelte nella vita, tu evidentemente non le hai fatte ma hai scelto solo di lamentarti non seguendo la tua passione ed è questo che non capisco, come mai non cambi hobby?

Motenai78
31-07-2023, 21:30
Io faccio la spesa da 10 anni ormai, ho notato un incremento post Ucraina di un 20-30%... non del 100%.

Le auto sono salite un 30-40% (su questo sono meno sicuro).

In ambito IT non ho notato incrementi assurdi stile componenti, escluse le GPU.

Mio modesto punto di vista, per carità ^^

Inviato dal mio SM-A226B utilizzando Tapatalk

fraussantin
31-07-2023, 21:52
Io faccio la spesa da 10 anni ormai, ho notato un incremento post Ucraina di un 20-30%... non del 100%.



siamo pesantemente ot , ma l'aumento di prezzo va contestualizzato :

gli oggetti di marca è già sovrabbondantemente sovrapprezzati per politiche di vendita da offerte volantino , non sono aumentate troppo ,o più o meno quello che dici , ma gli articoli da prezzo base tipo pane comune , pasta senza marchio , latte , uova , carne pollo, surgelati e gelati , frutta e verdura , e quasi tutte le linee economiche dei prodotti da scaffale e discount , hanno avuto aumenti spaventosi .

perchè su quelli incide maggiormente il costo della materia prima e dell'energia.

ovvio che se la farina raddoppia , la pasta da 40 centesimi va a costare il doppio , quella che costava già un euro , andrà a 1.40 e noti meno l'aumento.

ColdWarGuy
31-07-2023, 22:06
Io faccio la spesa da 10 anni ormai, ho notato un incremento post Ucraina di un 20-30%... non del 100%.

Le auto sono salite un 30-40% (su questo sono meno sicuro).

In ambito IT non ho notato incrementi assurdi stile componenti, escluse le GPU.

Mio modesto punto di vista, per carità ^^

Inviato dal mio SM-A226B utilizzando Tapatalk

Faccio anche io la spesa almeno due volte alla settimana in catene tipo Esselunga, Tigros, Iper (non hard discount) e confermo in pieno i numeri che hai riportato, +20/30%, 100% è una sparata fuori dal mondo, onestamente non capisco il senso di fare disinformazione a questo livello.