PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 [346] 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

Kostanz77
09-08-2022, 22:36
se i prezzi saranno folli la cosa da fare sarebbe una
Lasciarle a scaffale e via


Inviato dal mio iPhone utilizzando Tapatalk Pro

Ubro92
09-08-2022, 23:14
produrre il doppio con la maggiore potenza di calcolo potrebbe ribilanciare il costo aumentato dell energia, perciò spero che applichino blocchi fin dall inizioMa anche supponendo per assurdo che sia così, tutti i sistemi mining con le 3000 finiscono nei mercatini e ti ritrovi comunque immerso di GPU.

É praticamente impossibile avere la stessa domanda del 2020-2021... Basta anche solo guardare il mercato notebook che ora si é decisamente rilassato, in fascia 500€ trovi anche soluzioni con 5500/5700u, un anno fa allo stesso prezzo ci trovavi gli athlon e Pentium...

Oltre ai miner, anche le persone hanno ripreso a uscire e lavorare fisicamente, e l'assenza di lockdown ha fatto anche scemare la corsa ai beni elettronici.

Chi aveva urgenza di un PC, notebook, tablet ha già dato e se ne parla quando sarà obsoleto 🤣

Inviato dal mio M2012K11AG utilizzando Tapatalk

mikael84
10-08-2022, 00:07
Sono relativamente ottimista.
Perche gli stanno ristagnando.
Costeranno di più , ma non penso quanto avesse in mente Jackye Chan

Infatti anche per gli HD sembrava impossibile, e tutto si è calmato drasticamente.:)

presentazione dal forno di una pizzeria???:sofico:

sono curioso che si inventerà quel matto questa volta:D

Quello è un volpone. La cosa più incredibile che la fase EVT è finita, e non ci sia traccia del dissipatore FE.

Queste ristagnano perchè ormai sono "vecchie"(anche se in verità le 3080 12GB di evga scontate sono andate esaurite) ma vedrai che con le nuove torneranno a pompare i prezzi perchè ovviamente si ripartirà da 0 a livello di domanda degli inscimmiati, enthusiast in primis :D


Vista la moda del momento, io direi presentazione dallo spazio! :D

Quindi di nuovo lockdown, mining al massimo, speriamo di no dai...:D

produrre il doppio con la maggiore potenza di calcolo potrebbe ribilanciare il costo aumentato dell energia, perciò spero che applichino blocchi fin dall inizio

Come i blocchi fasulli.:p
tra Ampere e Turing il vero salto è stato oltre alle FP (per pro non mining), il 2x sulle int 8 in modalità sparsity. Guarda caso i bios dimezzavano esattamente il ratio, riportandolo ai valori di turing.

Dono89
10-08-2022, 00:20
se i prezzi saranno folli la cosa da fare sarebbe una
Lasciarle a scaffale e via


Inviato dal mio iPhone utilizzando Tapatalk Pro

Non succederà, come non è successo con la serie 2000 dove la 2080ti costava 1400€
Per me basta guardare ai prezzi passati, dove il costo di produzione era decisamente minore e non c'erano tutti i problemi di oggi

3080 - 700$ (...) +44pp vs. 2080
2080 - 800$ +30pp vs. 1080
1080 - 600$ +40pp vs. 980
980 - 550$
(pp: punti percentuale, risoluzione: 2K)
una 980 costava nel 2014 quasi 600$
sono passati 8 anni, con il costo attuale delle materie prime, inflazione alle stelle, sappiamo tutti quello che c'è stato e c'è tutt'ora e davvero si spera nel mining per avere prezzi decenti? Non ci saranno, cripto o meno.


L'unico fattore "positivo" è che la 4080 l'hanno depotenziata e quindi resa più semplice riducendo i costi (che lascia l'amaro in bocca venendo da una gen dove invece la 3080 l'hanno potenziata, togliendo di fatto GA103). Questo dovrebbe aiutare, magari, a tenerla sulle 800€/900€ spero almeno, per una tematica di pura decenza considerando i vari tagli. Si vede dalla griglia sopra, il trend è sicuramente verso l'alto, con le 3000 c'è stato il "miracolo" e infatti sono state prese d'assalto. Ma l'andazzo è indubbiamente a rialzo, gen su gen, com'è anche giusto che sia. L'iPhone 13 mica costa come il 6s

Poi magari arriva una conferenza e abbiamo le 4080 a 700$ e allora festeggiamo tutti, però la vedo davvero grigia

Freisar
10-08-2022, 02:30
Se i consumi si rivelassero elevati mi sa che ripiego sulla generazione attuale anche se penso che una 7700xt/4700 posso starci dentro!

Iceman69
10-08-2022, 07:42
Secondo me i prezzi ufficiali saranno gli stessi della precedente generazione, 700/800 euro la 4080 e intorno ai 1500 euro la 4090, poi i prezzi a cui si troveranno effettivamente dipenderanno dal mercato come sempre.

Sperando nel ritorno ad una situazione di normalità dopo 5/6 mesi saranno anche più bassi di quelli ufficiali.

Si deve anche tener conto che con i pannelli 2k già una 3090 è più che adeguata, solo per il 4k serve una 4080 o 4090, quindi anche la domanda (minatori permettendo) non sarà elevatissima dopo i primi 6 mesi in cui gli "entusiasti" le vorranno a tutti i costi.

Oltretutto non mi sembra di vedere all'orizzonte giochi che possano spingere ad aggiornare l'hardware.

Per ora la domanda di schede è bassa e le previsioni non sono di crescita, fanno fatica a vendere la generazione delle 3000 anche abbassando i prezzi quindi ...

Ale55andr0
10-08-2022, 08:51
https://wccftech.com/nvidia-geforce-rtx-4070-2-8-ghz-clocks-285w-tgp-more-tflops-than-rtx-3090-ti/

tarata cosi' imho sarebbe la scheda più desiderata dai gamers "evoluti"

ibra_89
10-08-2022, 09:33
raga una 3080ti con meno di un mese di vita quanto vale più o meno ad oggi?

devil_mcry
10-08-2022, 09:34
Secondo me i prezzi ufficiali saranno gli stessi della precedente generazione, 700/800 euro la 4080 e intorno ai 1500 euro la 4090, poi i prezzi a cui si troveranno effettivamente dipenderanno dal mercato come sempre.

Sperando nel ritorno ad una situazione di normalità dopo 5/6 mesi saranno anche più bassi di quelli ufficiali.

Si deve anche tener conto che con i pannelli 2k già una 3090 è più che adeguata, solo per il 4k serve una 4080 o 4090, quindi anche la domanda (minatori permettendo) non sarà elevatissima dopo i primi 6 mesi in cui gli "entusiasti" le vorranno a tutti i costi.

Oltretutto non mi sembra di vedere all'orizzonte giochi che possano spingere ad aggiornare l'hardware.

Per ora la domanda di schede è bassa e le previsioni non sono di crescita, fanno fatica a vendere la generazione delle 3000 anche abbassando i prezzi quindi ...

Non è che fanno fatica per i prezzi, fanno fatica anche per un discorso di immagine, dopo 2 anni di perculo arrivi a ridosso della serie nuova, se uno può, aspetta.

Io la 3080 12gb l'ho presa perché la vecchia dava noie e se aspettavo mi ciulavo la garanzia (così invece posso vendere la nuova che mi arriverà)

devil_mcry
10-08-2022, 09:35
raga una 3080ti con meno di un mese di vita quanto vale più o meno ad oggi?

meh se stiamo ai prezzi esteri di caseking, vengono nuove sui 1000€ e a 900 le 3080 12gb non so quanto l'hai pagata ma penso 800€?

Ubro92
10-08-2022, 10:21
raga una 3080ti con meno di un mese di vita quanto vale più o meno ad oggi?Basta che ti fai un giro su trovaprezzi, da bpmpower partono da 950€.

Inviato dal mio M2012K11AG utilizzando Tapatalk

TigerTank
10-08-2022, 10:23
Dimentichi una cosa, il periodo dei miners disposti a tutto per accaparrarsi GPU anche a prezzi folli è finito.
Gli inscimmiati su scala globale si contano sulle dita di una mano e non fanno statistica.



Quindi di nuovo lockdown, mining al massimo, speriamo di no dai...:D


Ma no, semplicemente si resetta e riparte quella domanda di users che vogliono subito qualcosa di nuovo già a solo livello gaming. Imho è già questa parecchia gente, vuoi perchè enthusiast da 4K maxato + XXX Hz o perchè magari alla fine ha saltato le ampère.
E ci scommetto che man mano che lanceranno le nuove ci saranno già delle code a livello preorders :sofico:
E anzi, secondo me influirà anche il ragionamento "la prendo subito perchè poi magari succede come con le ampère e i prezzi vanno alle stelle". L'ho già visto scrivere altrove :)

In ogni caso io spero che perlomeno a livello Founders Nvidia torni a vendere in Italia quantità accettabili direttamente dal suo shop. Con le Ampère siamo proprio stati considerati un mercato parecchio secondario finchè non è iniziato qualche drop da LDLC...:mc:
E a livello generale mi auguro misure più severe anti-scalpers.

Tutto questo in una situazione di sperata maggiore "normalità" perchè per il momento vorrei tralasciare un paio di mie "paure"/considerazioni personali circa le distribuzioni del nuovo hardware Nvidia-AMD-Intel relativamente a certe situazioni geopolitiche.

devAngnew
10-08-2022, 11:26
Ma no, semplicemente si resetta e riparte quella domanda di users che vogliono subito qualcosa di nuovo già a solo livello gaming. Imho è già questa parecchia gente, vuoi perchè enthusiast da 4K maxato + XXX Hz o perchè magari alla fine ha saltato le ampère.
E ci scommetto che man mano che lanceranno le nuove ci saranno già delle code a livello preorders :sofico:
E anzi, secondo me influirà anche il ragionamento "la prendo subito perchè poi magari succede come con le ampère e i prezzi vanno alle stelle". L'ho già visto scrivere altrove :)



Cmq. penso che questo sia il loro scopo vendere subito per paura ... :stordita:
Avessi saltato solo ampere :asd:


In ogni caso io spero che perlomeno a livello Founders Nvidia torni a vendere in Italia quantità accettabili direttamente dal suo shop. Con le Ampère siamo proprio stati considerati un mercato parecchio secondario finchè non è iniziato qualche drop da LDLC...:mc:
E a livello generale mi auguro misure più severe anti-scalpers.

Tutto questo in una situazione di sperata maggiore "normalità" perchè per il momento vorrei tralasciare un paio di mie "paure"/considerazioni personali circa le distribuzioni del nuovo hardware Nvidia-AMD-Intel relativamente a certe situazioni geopolitiche.


Chi ha detto valve ? :D

fraussantin
10-08-2022, 12:30
Ma no, semplicemente si resetta e riparte quella domanda di users che vogliono subito qualcosa di nuovo già a solo livello gaming. Imho è già questa parecchia gente, vuoi perchè enthusiast da 4K maxato + XXX Hz o perchè magari alla fine ha saltato le ampère.
E ci scommetto che man mano che lanceranno le nuove ci saranno già delle code a livello preorders :sofico:
E anzi, secondo me influirà anche il ragionamento "la prendo subito perchè poi magari succede come con le ampère e i prezzi vanno alle stelle". L'ho già visto scrivere altrove :)

In ogni caso io spero che perlomeno a livello Founders Nvidia torni a vendere in Italia quantità accettabili direttamente dal suo shop. Con le Ampère siamo proprio stati considerati un mercato parecchio secondario finchè non è iniziato qualche drop da LDLC...:mc:
E a livello generale mi auguro misure più severe anti-scalpers.

Tutto questo in una situazione di sperata maggiore "normalità" perchè per il momento vorrei tralasciare un paio di mie "paure"/considerazioni personali circa le distribuzioni del nuovo hardware Nvidia-AMD-Intel relativamente a certe situazioni geopolitiche.È chiaro che i primi mesi ci sara la corsa a comprarle , ma se poi non ripartono i miner difficilmente non si sbloccherà la cosa.

Perche è vero che tanti la stanno aspettando con una pascal in mano , ma è anche vero che tanti si sono comprati una ampere anche adesso all'ultimo.
E questi difficilmente la cambieranno.

Riguardo le founders , devono rimanere schede marginali , di presentazione e in pochi volumi.

O saranno mediocri come in passato o non saranno disponibili tanto facilmente.

È chiaro che nvidia deve lasciare corda ai partner.

ste-87
10-08-2022, 12:50
Secondo me i prezzi ufficiali saranno gli stessi della precedente generazione, 700/800 euro la 4080 e intorno ai 1500 euro la 4090, poi i prezzi a cui si troveranno effettivamente dipenderanno dal mercato come sempre.

Sperando nel ritorno ad una situazione di normalità dopo 5/6 mesi saranno anche più bassi di quelli ufficiali.

Si deve anche tener conto che con i pannelli 2k già una 3090 è più che adeguata, solo per il 4k serve una 4080 o 4090, quindi anche la domanda (minatori permettendo) non sarà elevatissima dopo i primi 6 mesi in cui gli "entusiasti" le vorranno a tutti i costi.

Oltretutto non mi sembra di vedere all'orizzonte giochi che possano spingere ad aggiornare l'hardware.

Per ora la domanda di schede è bassa e le previsioni non sono di crescita, fanno fatica a vendere la generazione delle 3000 anche abbassando i prezzi quindi ...


magari, ci farei la firma per una 4080 a 900€, ma dubito che accadrà e si trovi qualcosa sotto i 1000 :p

l'UE 5 ha già dimostrato che praticamente piega in due la 3090/3090Ti senza salire neanche tanto come risoluzione

fanno fatica vendere le 3000 perchè "l'abbassamento" dei prezzi è alquanto ridicolo con delle schede di 2 anni vicinissime ormai all'EOL

Ale55andr0
10-08-2022, 12:51
raga una 3080ti con meno di un mese di vita quanto vale più o meno ad oggi?

direi sulle 850

TigerTank
10-08-2022, 12:54
È chiaro che i primi mesi ci sara la corsa a comprarle , ma se poi non ripartono i miner difficilmente non si sbloccherà la cosa.

Perche è vero che tanti la stanno aspettando con una pascal in mano , ma è anche vero che tanti si sono comprati una ampere anche adesso all'ultimo.
E questi difficilmente la cambieranno.

Riguardo le founders , devono rimanere schede marginali , di presentazione e in pochi volumi.

O saranno mediocri come in passato o non saranno disponibili tanto facilmente.

È chiaro che nvidia deve lasciare corda ai partner.

Alla fine secondo me era meglio in passato da questo punto di vista. Quando c'erano le references nvidia che erano tutte uguali ma che venivano vendute dai vari produttori. Le prendevi con facilità e ci piazzavi il fullcover :D
Ora devi avere anche fortuna a beccare una Founder agli inizi di generazione...ed il wubbo ormai custom a tutti gli effetti costa un botto.

Comunque sì, anche nel mio caso, con la vga che ha appena 1 anno, e per come sto giocando ora, non ho fretta di aggiornare la vga...credo di dare la priorità alla config.con la serie 13K Intel o 7K AMD.
Oltretutto con turing e ampère abbiamo visto qualche magagna di troppo con i primi lotti per cui...meglio valutare bene tutti gli aspetti(o attendere delle Ti posticipate?) prima di spendere certe cifre al volo. IMHO.

Telstar
10-08-2022, 13:09
Comunque sì, anche nel mio caso, con la vga che ha appena 1 anno, e per come sto giocando ora, non ho fretta di aggiornare la vga...credo di dare la priorità alla config.con la serie 13K Intel o 7K AMD.
Oltretutto con turing e ampère abbiamo visto qualche magagna di troppo con i primi lotti per cui...meglio valutare bene tutti gli aspetti(o attendere delle Ti posticipate?) prima di spendere certe cifre al volo. IMHO.

Fai bene.

mikael84
10-08-2022, 19:15
https://wccftech.com/nvidia-geforce-rtx-4070-2-8-ghz-clocks-285w-tgp-more-tflops-than-rtx-3090-ti/

tarata cosi' imho sarebbe la scheda più desiderata dai gamers "evoluti"

+50% di clock per base boost con TDP leggermente aumentato. C'è da considerare che la circuiteria sarà pompata ed anche qua un piccolo aumento ci sta.
A 2,8 sta circa 1,5tf sopra la 3090ti a 1950.

Ma no, semplicemente si resetta e riparte quella domanda di users che vogliono subito qualcosa di nuovo già a solo livello gaming. Imho è già questa parecchia gente, vuoi perchè enthusiast da 4K maxato + XXX Hz o perchè magari alla fine ha saltato le ampère.
E ci scommetto che man mano che lanceranno le nuove ci saranno già delle code a livello preorders :sofico:
E anzi, secondo me influirà anche il ragionamento "la prendo subito perchè poi magari succede come con le ampère e i prezzi vanno alle stelle". L'ho già visto scrivere altrove :)

In ogni caso io spero che perlomeno a livello Founders Nvidia torni a vendere in Italia quantità accettabili direttamente dal suo shop. Con le Ampère siamo proprio stati considerati un mercato parecchio secondario finchè non è iniziato qualche drop da LDLC...:mc:
E a livello generale mi auguro misure più severe anti-scalpers.

Tutto questo in una situazione di sperata maggiore "normalità" perchè per il momento vorrei tralasciare un paio di mie "paure"/considerazioni personali circa le distribuzioni del nuovo hardware Nvidia-AMD-Intel relativamente a certe situazioni geopolitiche.

Capisco le paure, per la situazione appena passata, e soprattutto con i casini sempre più grossi globali, però salvo i primi periodi, scongiurando il mining, tutto dovrebbe assestarsi.:)
Considera anche la rivendita dell'usato.

TSMC (senza entrare nei casini che stanno succedendo) è bella carica.
Male andando, si avrà una situazione tipo quella attuale dopo l'assestamento.
Considera che già una 4070 farà crollare totalmente ampere.:)

Dono89
10-08-2022, 19:26
Addirittura crollare ampere con una 4070, mi sembra esagerato

Non entro nel tecnico, avrai le tue ragioni, ma ricordo che la 2080 ha 11TF e la 3080 il triplo, 31tf


Tutti per il tuo stesso motivo su aspettavano il 2x e invece va un 45% in più e ha ammazzato Turing ampere, ma solo causa prezzo. Cosa che non potrà avvenire (a meno di non vendere una 4070 a 400euro)
Guardare i tf su schede diverse non ha senso, ce lo insegna ampere. Inoltre la formula non tiene conto dello scaling, dove si è visto che salire di freq oltre un tot porta benefici limitati, cosa che non si evince dalla formula perché 1x3 fa 3, mentre nel nostro caso farebbe 2

TigerTank
10-08-2022, 20:53
Non resta che attendere e vedere TDP effettivi, prestazioni effettive, pcb effettivi(connettori inclusi), disponibilità effettive, dissipazioni e prezzi. Anche se vabbè...se lanciano prima le 4090 per far cassa sugli enthusiast bisogna prenderla con calma per 4080 e soprattutto 4070 :D

fraussantin
10-08-2022, 21:01
Addirittura crollare ampere con una 4070, mi sembra esagerato

Non entro nel tecnico, avrai le tue ragioni, ma ricordo che la 2080 ha 11TF e la 3080 il triplo, 31tf


Tutti per il tuo stesso motivo su aspettavano il 2x e invece va un 45% in più e ha ammazzato Turing ampere, ma solo causa prezzo. Cosa che non potrà avvenire (a meno di non vendere una 4070 a 400euro)
Guardare i tf su schede diverse non ha senso, ce lo insegna ampere. Inoltre la formula non tiene conto dello scaling, dove si è visto che salire di freq oltre un tot porta benefici limitati, cosa che non si evince dalla formula perché 1x3 fa 3, mentre nel nostro caso farebbe 2

ehmmm....

:asd:

mikael84
10-08-2022, 21:15
Addirittura crollare ampere con una 4070, mi sembra esagerato

Non entro nel tecnico, avrai le tue ragioni, ma ricordo che la 2080 ha 11TF e la 3080 il triplo, 31tf


Tutti per il tuo stesso motivo su aspettavano il 2x e invece va un 45% in più e ha ammazzato Turing ampere, ma solo causa prezzo. Cosa che non potrà avvenire (a meno di non vendere una 4070 a 400euro)
Guardare i tf su schede diverse non ha senso, ce lo insegna ampere. Inoltre la formula non tiene conto dello scaling, dove si è visto che salire di freq oltre un tot porta benefici limitati, cosa che non si evince dalla formula perché 1x3 fa 3, mentre nel nostro caso farebbe 2

No, nessuno si aspettava il 2x, però continui a fare confusione tra ampere e turing.
Turing calcolava FP+Interi contemporaneamente, Ampere no.

Osserva i "blocchi"(datapath), sono 3.
1) tensor e lo escludiamo
2) FP32 (fa solo quello)
3) FP32 in combinazione con gli interi.
https://i.postimg.cc/XY6XNMTF/ampere.png

Segui qua:
Abbiamo che solo un blocco fa FP32, quindi la 3080, risulta avere 4352 cuda + 4352 cuda.
4352 cuda fanno solo FP, i restanti, devono suddividere il carico con gli interi.

Su 100, mediamente gli interi variano da 36 a 40 o anche oltre.
Se ho 38 interi ad esempio, quasi tutto il "blocco" è occupato.

In parole povere su 8704 cuda, 3322 fanno interi, e 5382 fanno FP32

La tua 3080 con 38 interi (tomb raider esempio) ha 5382 FP x 1900 x2 = 20,4 TF + i restanti TOPS.

-----------------
La 3060 TI: sono 4836 cc = 2418 + 2418 (di cui 1838 interi)
2418-1838 = 580 fp.
2418+580= 2998 fp (perchè va come la 2080 super? Quanti cuda ha la 2080super? 3072.:p

Ci siamo?:sofico:

Lovelace dovrebbe condividere il funzionamento di ampere, quindi puoi pure utilizzare il ratio fp completo.

Dono89
10-08-2022, 21:19
ehmmm....



:asd:

Msrp, si intende 😅
L'hype non era per le performance, ma perché la 70era la 80ti a meno della metà.


Non resta che attendere e vedere TDP effettivi, prestazioni effettive, pcb effettivi(connettori inclusi), disponibilità effettive, dissipazioni e prezzi. Anche se vabbè...se lanciano prima le 4090 per far cassa sugli enthusiast bisogna prenderla con calma per 4080 e soprattutto 4070 :D

Condivido.
I calcoli lasciano il tempo che trovano, sopratutto se a farli c'è la frequenza più alta del 50%.
Oltretutto con il nuovo taglio di pl, se dovesse essere vero, ci sarà un riflesso anche sulle performance non da poco.

Nvidia non è scema, fa miliardi da anni, ma questo giro è davvero critica. Si trova da un lato schede prezzate "a poco", dall'altro la 3080 che è di fatto il chippone e quindi sarà ancora più tosto superarla (che la superi è sicuro, va visto a che prezzo) e con la situazione attuale, la serie 3000 potrebbe cannibalizzare la 4000.

Non vorrei essere proprio jhh

mikael84
10-08-2022, 21:24
Sempre per dono
Ecco le tue 8704 fp32 x ambiti pro cosa fanno:)
Ricorda che le schede sono pensate principalmente per ambiti pro.

Ecco qua usi tutti i TF.

https://i.postimg.cc/1XnmrMND/pro-ap.png

fraussantin
10-08-2022, 21:31
Msrp, si intende 😅
L'hype non era per le performance, ma perché la 70era la 80ti a meno della metà.

Si avevo capito che cosa intendevi
Che poi l'msrp era più o meno uguale a quello di turing che al lancio sembrava ( cioè era ) caro esagerato. Poi siccome la gente su youtube ha iniziato a dare di matto confrontando il prezzo della 3070 con quello di mercato della 2080ti sembravano regalate.

Lo avessero confrontato con l'msrp della 2070 ...

Dono89
10-08-2022, 21:41
No, nessuno si aspettava il 2x, però continui a fare confusione tra ampere e turing.
Turing calcolava FP+Interi contemporaneamente, Ampere no.

Osserva i "blocchi"(datapath), sono 3.
1) tensor e lo escludiamo
2) FP32 (fa solo quello)
3) FP32 in combinazione con gli interi.
https://i.postimg.cc/XY6XNMTF/ampere.png

Segui qua:
Abbiamo che solo un blocco fa FP32, quindi la 3080, risulta avere 4352 cuda + 4352 cuda.
4352 cuda fanno solo FP, i restanti, devono suddividere il carico con gli interi.

Su 100, mediamente gli interi variano da 36 a 40 o anche oltre.
Se ho 38 interi ad esempio, quasi tutto il "blocco" è occupato.

In parole povere su 8704 cuda, 3322 fanno interi, e 5382 fanno FP32

La tua 3080 con 38 interi (tomb raider esempio) ha 5382 FP x 1900 x2 = 20,4 TF + i restanti TOPS.

-----------------
La 3060 TI: sono 4836 cc = 2418 + 2418 (di cui 1838 interi)
2418-1838 = 580 fp.
2418+580= 2998 fp (perchè va come la 2080 super? Quanti cuda ha la 2080super? 3072.:p

Ci siamo?:sofico:

Lovelace dovrebbe condividere il funzionamento di ampere, quindi puoi pure utilizzare il ratio fp completo.


Di certo non te, ma molti sono rimasti "delusi" dalla 3080 quando nelle rece era più vicina del previsto alla 2080, per me invece è stato il salto maggiore che ci sia mai stato da nvidia.
Sorvolando sul fatto che questa volta era anche sul chip 102, ma ok.


Ok con il conteggio dei core, ma continuiamo a contare in base alla frequenza operativa.

Lasciamo da parte Turing, va bene, mi sembra che ci stiamo dicendo che la 3080 ha meno core (diciamo 5382) ed a 1900mhz ha circa 20TF .
Di conseguenza la stiamo classificando come 20.
Ok, peccato che quei 20 siano direttamente (linearmente) proporzionali ai 1900 che abbiamo usato per ottenerli e se va bene nel calcolo teorico dei tf, non lo puoi considerare in game.

Ora, se ti dessi una 3080super da 2500mhz, suppongo diresti che ha circa 27TF.
Quindi, tra le due ti aspetteresti un 35% di performance in più ed è la stessa linea logica che stiamo applicando per fare 4070vs.3090, ma è ovvio non sarà assolutamente così, tanto più se il risultato lo ottieni con una frequenza molto più elevata dove non ha riflessioni lineari.

Da possessore di 3080 che la spinge a quanto può, ti assicuro che cambia nulla tra 1900 e 1980. Ovviamente un conto sono +80mhz, un altro +600mhz, ma quello su cui stresso è che non c'è una riflessione diretta e lineare sulle performance in base alla frequenza, motivo per cui si suggerisce sempre downvolt e downclock (chi vuole).
Ora, se siamo d'accordo che non scala linearmente, lo stesso deve valere nei calcoli (dato che dipendono strettamente dalla frequenza).

Poi ci possono essere 300 motivi e magari ci sono "magie" architetturali che magari conosci te e sicuramente io no, ma che la 4070 va come la 3090 non è perché ha gli stessi TF dati dall'aumento di frequenza .

Forse sarà per la cache e allora va benissimo, ma quello è un altro tema e prescinde dai numeri dei TF.
Ovviamente parlando di gaming

mikael84
10-08-2022, 21:58
Di certo non te, ma molti sono rimasti "delusi" dalla 3080 quando nelle rece era più vicina del previsto alla 2080, per me invece è stato il salto maggiore che ci sia mai stato da nvidia.
Sorvolando sul fatto che questa volta era anche sul chip 102, ma ok.


Ok con il conteggio dei core, ma continuiamo a contare in base alla frequenza operativa.

Lasciamo da parte Turing, va bene, mi sembra che ci stiamo dicendo che la 3080 ha meno core (diciamo 5382) ed a 1900mhz ha circa 20TF .
Di conseguenza la stiamo classificando come 20.
Ok, peccato che quei 20 siano direttamente (linearmente) proporzionali ai 1900 che abbiamo usato per ottenerli e se va bene nel calcolo teorico dei tf, non lo puoi considerare in game.

Ora, se ti dessi una 3080super da 2500mhz, suppongo diresti che ha circa 27TF.
Quindi, tra le due ti aspetteresti un 35% di performance in più ed è la stessa linea logica che stiamo applicando per fare 4070vs.3090, ma è ovvio non sarà assolutamente così, tanto più se il risultato lo ottieni con una frequenza molto più elevata dove non ha riflessioni lineari.

Da possessore di 3080 che la spinge a quanto può, ti assicuro che cambia nulla tra 1900 e 1980. Ovviamente un conto sono +80mhz, un altro +600mhz, ma quello su cui stresso è che non c'è una riflessione diretta e lineare sulle performance in base alla frequenza, motivo per cui si suggerisce sempre downvolt e downclock (chi vuole).
Ora, se siamo d'accordo che non scala linearmente, lo stesso deve valere nei calcoli (dato che dipendono strettamente dalla frequenza).

Poi ci possono essere 300 motivi e magari ci sono "magie" architetturali che magari conosci te e sicuramente io no, ma che la 4070 va come la 3090 non è perché ha gli stessi TF dati dall'aumento di frequenza .

Forse sarà per la cache e allora va benissimo, ma quello è un altro tema e prescinde dai numeri dei TF.
Ovviamente parlando di gaming

Devi considerare lo scaling non lineare.
Ti ho fatto l'esempio dove la 3060ti a pari flops è uguale alla 2080 super.

Tu avevi detto, secondo me la 4080 farà massimo + 20 dalla 3080 perchè il clock non scala.
Bene.
Apri il link:
https://www.3dmark.com/spy/25686500

Test assurdo dove l'efficienza va letteralmente a farsi benedire. Con i cuda della 3090, fa 14261 a 2850. La 3090 fa circa 10000.
43% di performance su circa 50% di clock di differenza.

Questi sono clock che lovelace userà mediamente.:)

amon.akira
11-08-2022, 00:05
Di certo non te, ma molti sono rimasti "delusi" dalla 3080 quando nelle rece era più vicina del previsto alla 2080, per me invece è stato il salto maggiore che ci sia mai stato da nvidia.
Sorvolando sul fatto che questa volta era anche sul chip 102, ma ok.


Ok con il conteggio dei core, ma continuiamo a contare in base alla frequenza operativa.

Lasciamo da parte Turing, va bene, mi sembra che ci stiamo dicendo che la 3080 ha meno core (diciamo 5382) ed a 1900mhz ha circa 20TF .
Di conseguenza la stiamo classificando come 20.
Ok, peccato che quei 20 siano direttamente (linearmente) proporzionali ai 1900 che abbiamo usato per ottenerli e se va bene nel calcolo teorico dei tf, non lo puoi considerare in game.

Ora, se ti dessi una 3080super da 2500mhz, suppongo diresti che ha circa 27TF.
Quindi, tra le due ti aspetteresti un 35% di performance in più ed è la stessa linea logica che stiamo applicando per fare 4070vs.3090, ma è ovvio non sarà assolutamente così, tanto più se il risultato lo ottieni con una frequenza molto più elevata dove non ha riflessioni lineari.

Da possessore di 3080 che la spinge a quanto può, ti assicuro che cambia nulla tra 1900 e 1980. Ovviamente un conto sono +80mhz, un altro +600mhz, ma quello su cui stresso è che non c'è una riflessione diretta e lineare sulle performance in base alla frequenza, motivo per cui si suggerisce sempre downvolt e downclock (chi vuole).
Ora, se siamo d'accordo che non scala linearmente, lo stesso deve valere nei calcoli (dato che dipendono strettamente dalla frequenza).

Poi ci possono essere 300 motivi e magari ci sono "magie" architetturali che magari conosci te e sicuramente io no, ma che la 4070 va come la 3090 non è perché ha gli stessi TF dati dall'aumento di frequenza .

Forse sarà per la cache e allora va benissimo, ma quello è un altro tema e prescinde dai numeri dei TF.
Ovviamente parlando di gaming

tra 1980 e 1900 ci sta il 4% che tradotto sono su 60fps fai 62, grazie che non lo riesci neanche a misurare con precisione...sono talmente pochi che siamo anche nell ottica della tolleranza d errore.

sono sicuro però che se usi un timespy o un portroyal già lo rilevi quel 4%

Dono89
11-08-2022, 01:49
Devi considerare lo scaling non lineare.

Ti ho fatto l'esempio dove la 3060ti a pari flops è uguale alla 2080 super.



Tu avevi detto, secondo me la 4080 farà massimo + 20 dalla 3080 perchè il clock non scala.

Bene.

Apri il link:

https://www.3dmark.com/spy/25686500



Test assurdo dove l'efficienza va letteralmente a farsi benedire. Con i cuda della 3090, fa 14261 a 2850. La 3090 fa circa 10000.

43% di performance su circa 50% di clock di differenza.



Questi sono clock che lovelace userà mediamente.:)
Mi sto perdendo. Parliamo di bench/sintetici/rendering o parliamo di game?
Se parliamo di bench ok, se parliamo di game il discorso cambia.
Nessun titolo, e lo so perché l'ho testato in prima persona, ha vantaggi significativi ad aumentare di frequenza (motivo per cui alla fine mi son tenuto la 3080 anziché 3070ti). Se parliamo di altro allora non so. E il mio discorso comunque era diverso, era se consideriamo i tf come formula schietta dove la frequenza gioca un ruolo determinante, non va bene in quanto questa modalità di calcolo che sarà pure valida in teoria, si sposa poco con questo tipo di architettura


tra 1980 e 1900 ci sta il 4% che tradotto sono su 60fps fai 62, grazie che non lo riesci neanche a misurare con precisione...sono talmente pochi che siamo anche nell ottica della tolleranza d errore.

sono sicuro però che se usi un timespy o un portroyal già lo rilevi quel 4%

Ed è ciò che dico sopra. Parliamo di game o no?

Se parliamo di game non ha senso tirare fuori timespy, portroyal e simili, e se parliamo di game su ampere l'architettura fa scalare male la frequenza. Quindi dire che le schede hanno performance simili perché hanno stessi tf teorici è secondo me errato

mikael84
11-08-2022, 02:37
Mi sto perdendo. Parliamo di bench/sintetici/rendering o parliamo di game?
Se parliamo di bench ok, se parliamo di game il discorso cambia.
Nessun titolo, e lo so perché l'ho testato in prima persona, ha vantaggi significativi ad aumentare di frequenza (motivo per cui alla fine mi son tenuto la 3080 anziché 3070ti). Se parliamo di altro allora non so. E il mio discorso comunque era diverso, era se consideriamo i tf come formula schietta dove la frequenza gioca un ruolo determinante, non va bene in quanto questa modalità di calcolo che sarà pure valida in teoria, si sposa poco con questo tipo di architettura




Ed è ciò che dico sopra. Parliamo di game o no?

Se parliamo di game non ha senso tirare fuori timespy, portroyal e simili, e se parliamo di game su ampere l'architettura fa scalare male la frequenza. Quindi dire che le schede hanno performance simili perché hanno stessi tf teorici è secondo me errato

Ma quale frequenza hai aumentato di così eclatante nei game.:p 50-100mhz.

Il calcolo TF, non è indice di tutto, è potenza di calcolo in virgola mobile, dopo c'è il warp stall, rop's, geometria, cache.
Si presume che Lovelace sia sulla falsariga di Ampere, ampliato dalla cache e dal processo produttivo.

Se le due schede, mostrano potenze simili, va da se, che mediamente saranno in linea o quasi, dipende dal software.
Una scheda che produce 11k, e l'altra 11k in un sintetico che spreme le unità di calcolo, anche in game non è che ci saranno grossissimi stravolgimenti.
Se produco in totale 43tf (fp32 full) con la 4070 e con la 3090ti sono a 41, non è che nei game, ci sia un dislivello incredibile.:p

La 1070=980ti a pari TF (anzi sta spesso sopra)
La 3060ti = 2080super
La 3070 = 2080ti.

Attenzione però al game.
4070 60 RT core = 84 tf di picco.
3090ti 84 RT core = 81,9tf di picco a 1950mhz

Ecco, secondo te a numeri come la dobbiamo posizionare?, Ah già la 4070 ha gli RT core di 3° gen.

Ora lo so, che per te starà a cavallo tra 3070ti e 3080 e quel quasi 50% di clock, oltre alle ALU, si tradurrà in un 10%, però i numeri sono questi.;)

amon.akira
11-08-2022, 02:49
Mi sto perdendo. Parliamo di bench/sintetici/rendering o parliamo di game?
Se parliamo di bench ok, se parliamo di game il discorso cambia.
Nessun titolo, e lo so perché l'ho testato in prima persona, ha vantaggi significativi ad aumentare di frequenza (motivo per cui alla fine mi son tenuto la 3080 anziché 3070ti). Se parliamo di altro allora non so. E il mio discorso comunque era diverso, era se consideriamo i tf come formula schietta dove la frequenza gioca un ruolo determinante, non va bene in quanto questa modalità di calcolo che sarà pure valida in teoria, si sposa poco con questo tipo di architettura




Ed è ciò che dico sopra. Parliamo di game o no?

Se parliamo di game non ha senso tirare fuori timespy, portroyal e simili, e se parliamo di game su ampere l'architettura fa scalare male la frequenza. Quindi dire che le schede hanno performance simili perché hanno stessi tf teorici è secondo me errato

non è che scala male e che 80mhz su 2000 sono pochi, cioè vanno presi per quelli che sono...bisogna andare sui 100fps per prenderne 3-4, cioè non facciamo passare che 30tf ampere vs 60tf ada sia solo +20%

anche scalando male avrai almeno 50%

ancor piu visto che sono simili come fp32 condivise dove era giusto fare la proporzione con turing.

60*0.7=42
30*0.7=21 sempre 2x è

invece l esempio che facevi 1980 vs 1900 stai parlando di 24.1tf vs 23.1tf appunto il 4%
se da 60 hai fatto 62 ha scalato al 1:1 non male

se fai 10fps anche +20% è poco farai 12 e manco te ne accorgi, quindi è relativo.

esempio gioco mal ottimizzato...the medium rt max, secondo me con la 4090 se fa il doppio della 3090 forse arriva a 20fps XD

TigerTank
11-08-2022, 07:50
Ma sì, alla fine secondo me, se le ultime voci sono più veritiere, passeremo da schede che ipoteticamente dovevano avere consumi stratosferici ma anche prestazioni stratosferiche a schede che rientreranno negli stessi range di consumi di ampère e a prestazioni con soliti salti di generazione :D
Magari quello che cambierà stavolta è che ci sarà più stacco tra 4080 e 4090, con una Ti meglio posizionabile nel mezzo.
Tanto a vedere come va l'andazzo dei giochi secondo me faranno in tempo ad arrivare le 5000 prima che i giochi UE5 doventino una realtà consistente.

fraussantin
11-08-2022, 08:01
Ma sì, alla fine secondo me, se le ultime voci sono più veritiere, passeremo da schede che ipoteticamente dovevano avere consumi stratosferici ma anche prestazioni stratosferiche a schede che rientreranno negli stessi range di consumi di ampère e a prestazioni con soliti salti di generazione :D
Magari quello che cambierà stavolta è che ci sarà più stacco tra 4080 e 4090, con una Ti meglio posizionabile nel mezzo.
Tanto a vedere come va l'andazzo dei giochi secondo me faranno in tempo ad arrivare le 5000 prima che i giochi UE5 doventino una realtà consistente.

Che poi è cio che ci si sarebbe dovuto aspettare.

poi vedremo quanta differenza in prestazioni ci sarà.

Perche tanto le versioni spinte da 500 w non mancheranno

Dono89
11-08-2022, 09:14
Ma quale frequenza hai aumentato di così eclatante nei game.:p 50-100mhz.

Il calcolo TF, non è indice di tutto, è potenza di calcolo in virgola mobile, dopo c'è il warp stall, rop's, geometria, cache.
Si presume che Lovelace sia sulla falsariga di Ampere, ampliato dalla cache e dal processo produttivo.

Se le due schede, mostrano potenze simili, va da se, che mediamente saranno in linea o quasi, dipende dal software.
Una scheda che produce 11k, e l'altra 11k in un sintetico che spreme le unità di calcolo, anche in game non è che ci saranno grossissimi stravolgimenti.
Se produco in totale 43tf (fp32 full) con la 4070 e con la 3090ti sono a 41, non è che nei game, ci sia un dislivello incredibile.:p

La 1070=980ti a pari TF (anzi sta spesso sopra)
La 3060ti = 2080super
La 3070 = 2080ti.

Attenzione però al game.
4070 60 RT core = 84 tf di picco.
3090ti 84 RT core = 81,9tf di picco a 1950mhz

Ecco, secondo te a numeri come la dobbiamo posizionare?, Ah già la 4070 ha gli RT core di 3° gen.

Ora lo so, che per te starà a cavallo tra 3070ti e 3080 e quel quasi 50% di clock, oltre alle ALU, si tradurrà in un 10%, però i numeri sono questi.;)


Che i numeri siano questi non lo metto in dubbio.

La mia è solo una questione puramente matematica vs. di prestazioni reali dove per dire che due schede vanno uguali stiamo (per com'è la formula) assumendo che il rendimento in gioco aumenti 1:1 con la frequenza e ciò non accade, ma non è che non accade da 1900 a 1920, non accade oltre un tot (e questo è sempre valso con tutto l'hw, non solo con la gpu)

Chi ha ampere a 1800mhz rispetto chi la tiene a 2ghz (un po' sotto, ma semplifichiamo) non perde il 10% di perf, ma ha il 10% di tf in meno.
Se per dire che la 40x0 va come la 30x0 ci basiamo sul calcolo dei tf, allora stiamo dando per scontato che tra 1800 e 2000 la scheda prenda il 10% di frame, ma non è così.
Non ci piove che ci siano guadagni ad avere la 40x0 a 2500 o meglio a 3000 (voglio vedere se davvero il pl cala secondo i nuovi numeri come ci arrivano a 3000), ma questi ci sono per altri motivi ad esempio la cache, non di certo perché passa a causa del 50% di freq in più ad avere il 50% di tf rispetto le due schede.

Se la cache fa miracoli ben venga ed è giusto che sia così. Ma se la 4070 prende la 3080 (o la 90, non è che ci passi un abisso) non è per la frequenza. O meglio, la frequenza inciderà senza dubbio ma non per una banale moltiplicazione. Secondo me, ma su questo ne sai chiaramente più di me, stiamo un po' banalizzando il concetto basandoci sui numeri che poco sposano lo scenario reale.

Condivido molto tiger , questa gen sarà forse l'unica dove il salto 80/90 o 80/80ti potrà essere davvero utile, ma vuol dire andare oltre i mille. Anche no

Freisar
11-08-2022, 09:40
Non vi seguo e non vi voglio seguire nelle vostre pare mentali lol quando avrò sottomano le review delle schede giudicherò! Che sia amd o nvidia! Secondo me é perder tempo quello che fate voi!

Thunder-74
11-08-2022, 09:54
Non vi seguo e non vi voglio seguire nelle vostre pare mentali lol quando avrò sottomano le review delle schede giudicherò! Che sia amd o nvidia! Secondo me é perder tempo quello che fate voi!


E come lo giudichi il tempo per scrivere questo tuo post ? ;)


Inviato dal mio iPhone X utilizzando Tapatalk

amon.akira
11-08-2022, 10:25
Che i numeri siano questi non lo metto in dubbio.

La mia è solo una questione puramente matematica vs. di prestazioni reali dove per dire che due schede vanno uguali stiamo (per com'è la formula) assumendo che il rendimento in gioco aumenti 1:1 con la frequenza e ciò non accade, ma non è che non accade da 1900 a 1920, non accade oltre un tot (e questo è sempre valso con tutto l'hw, non solo con la gpu)

Chi ha ampere a 1800mhz rispetto chi la tiene a 2ghz (un po' sotto, ma semplifichiamo) non perde il 10% di perf, ma ha il 10% di tf in meno.
Se per dire che la 40x0 va come la 30x0 ci basiamo sul calcolo dei tf, allora stiamo dando per scontato che tra 1800 e 2000 la scheda prenda il 10% di frame, ma non è così.
Non ci piove che ci siano guadagni ad avere la 40x0 a 2500 o meglio a 3000 (voglio vedere se davvero il pl cala secondo i nuovi numeri come ci arrivano a 3000), ma questi ci sono per altri motivi ad esempio la cache, non di certo perché passa a causa del 50% di freq in più ad avere il 50% di tf rispetto le due schede.

Se la cache fa miracoli ben venga ed è giusto che sia così. Ma se la 4070 prende la 3080 (o la 90, non è che ci passi un abisso) non è per la frequenza. O meglio, la frequenza inciderà senza dubbio ma non per una banale moltiplicazione. Secondo me, ma su questo ne sai chiaramente più di me, stiamo un po' banalizzando il concetto basandoci sui numeri che poco sposano lo scenario reale.

Condivido molto tiger , questa gen sarà forse l'unica dove il salto 80/90 o 80/80ti potrà essere davvero utile, ma vuol dire andare oltre i mille. Anche no

ho fatto un test veloce su shadow

1635mhz (https://i.imgur.com/rjpZnvO.jpg) vs 1935mhz (https://i.imgur.com/MjdLO65.jpg) (+300mhz +18.3% clock perf +13.6%)

praticamente perdi 1/3 se questo si manterrebbe lineare (e non stiamo contando altre ottimizzazioni come cache rtcore etc...) dal 2x avresti +65% non di certo il 20%

Freisar
11-08-2022, 10:52
E come lo giudichi il tempo per scrivere questo tuo post ? ;)


Inviato dal mio iPhone X utilizzando Tapatalk

Parole sprecate :(

Ma non andiamo OT

mikael84
11-08-2022, 11:31
Che i numeri siano questi non lo metto in dubbio.

La mia è solo una questione puramente matematica vs. di prestazioni reali dove per dire che due schede vanno uguali stiamo (per com'è la formula) assumendo che il rendimento in gioco aumenti 1:1 con la frequenza e ciò non accade, ma non è che non accade da 1900 a 1920, non accade oltre un tot (e questo è sempre valso con tutto l'hw, non solo con la gpu)

Chi ha ampere a 1800mhz rispetto chi la tiene a 2ghz (un po' sotto, ma semplifichiamo) non perde il 10% di perf, ma ha il 10% di tf in meno.
Se per dire che la 40x0 va come la 30x0 ci basiamo sul calcolo dei tf, allora stiamo dando per scontato che tra 1800 e 2000 la scheda prenda il 10% di frame, ma non è così.
Non ci piove che ci siano guadagni ad avere la 40x0 a 2500 o meglio a 3000 (voglio vedere se davvero il pl cala secondo i nuovi numeri come ci arrivano a 3000), ma questi ci sono per altri motivi ad esempio la cache, non di certo perché passa a causa del 50% di freq in più ad avere il 50% di tf rispetto le due schede.

Se la cache fa miracoli ben venga ed è giusto che sia così. Ma se la 4070 prende la 3080 (o la 90, non è che ci passi un abisso) non è per la frequenza. O meglio, la frequenza inciderà senza dubbio ma non per una banale moltiplicazione. Secondo me, ma su questo ne sai chiaramente più di me, stiamo un po' banalizzando il concetto basandoci sui numeri che poco sposano lo scenario reale.

Condivido molto tiger , questa gen sarà forse l'unica dove il salto 80/90 o 80/80ti potrà essere davvero utile, ma vuol dire andare oltre i mille. Anche no

Ma è chiaro che non ci può essere uno scaling 1:1.
Scusami ma, nel tuo thread vendita, hai scritto 3070ti a 2ghz sta al 13% sotto una 3080.
Ora la 4070 avrà 7680 cuda totali vs 6144 della TI, parliamo del 25%, già scalando alla metà, hai recuperato il 13%.

Per farla più semplice, RTX 3060ti vs 3070 21% ALU, 13% performance
https://tpucdn.com/review/nvidia-geforce-rtx-3060-ti-founders-edition/images/relative-performance_2560-1440.png

Tra 4070 e 3070ti ci passa il 25% sul teorico, sarebbero circa 16%. Ecco che stando al tuo ragionamento (non il mio) saresti sopra la 3080.

Ah dimenticavo però, devi aggiungere il 50% di clock.

Quindi per un confronto di scaling, dovresti fare un test con la tua a 1300 vs 1950 e vedere quanto scala.
Se scala il 25% sei già sulla 3090ti.

Non vi seguo e non vi voglio seguire nelle vostre pare mentali lol quando avrò sottomano le review delle schede giudicherò! Che sia amd o nvidia! Secondo me é perder tempo quello che fate voi!

Allora tra 2/3 mesi devi leggere il thread ufficiale, e lasciar perdere il thread aspettando. Dove tra l'altro si sta parlando molto tecnico, non sono numeri tanto per. Solo ieri hai capito come funziona Ampere, dove in nessuna review del settore trovi. Se tu lo trovi sparar numeri o perdere tempo...

Si potrebbe parlare in modo tecnico molto ma molto più complesso di così, con numeri da farti girare la testa, è questo lo scopo del thread.

Cmq le prestazioni già si sanno, anche non ufficialmente. 4070 simil GA102 top, 4080 ben sopra, 4090 quasi 2x.

mikael84
11-08-2022, 11:36
ho fatto un test veloce su shadow

1635mhz (https://i.imgur.com/rjpZnvO.jpg) vs 1935mhz (https://i.imgur.com/MjdLO65.jpg) (+300mhz +18.3% clock perf +13.6%)

praticamente perdi 1/3 se questo si manterrebbe lineare (e non stiamo contando altre ottimizzazioni come cache rtcore etc...) dal 2x avresti +65% non di certo il 20%

Quindi, calcolando il 18% partendo da 1935, ci ritroviamo a 2300.
lui dice che a soli 2ghz in 1440p su una 3070ti e solo il 13% sotto una 3080.
Praticamente una 3070ti a 2300, andrebbe nel suo calcolo come la 3080.
Ora dobbiamo aggiungere il 22% di clock, e il 25% di ALU.

Bazzecole.:p
Questo è un conto suo, non mio.:p

craesilo
11-08-2022, 12:07
E come lo giudichi il tempo per scrivere questo tuo post ? ;)


Inviato dal mio iPhone X utilizzando Tapatalk

lascia perdere, fa centinaia di post -nonsochecomprare- pure altrove, ma da anni!!

Maury
11-08-2022, 12:42
@ mikael

Scusa mikael mi sono perso un passaggio, ma Lovelace per la gestione di fp + int segue la strada di Turing o di Ampere ?

I blocchi in Lov possono calcolarli entrambi o come in Ampere no ?

:)

mikael84
11-08-2022, 13:22
@ mikael

Scusa mikael mi sono perso un passaggio, ma Lovelace per la gestione di fp + int segue la strada di Turing o di Ampere ?

I blocchi in Lov possono calcolarli entrambi o come in Ampere no ?

:)

Premetto che non ho la microarchitettura in mano, anche se kopite spesso parla di int scorporate. Tuttavia siamo di fronte ad un Ampere 2.0
Se fosse un turing 2.0, una 4060 con 4608 cuda risulterebbe una Titan RTX turing a 2,8. ben più efficiente

O meglio, se prendiamo una 3090ti a 38 interi (quelli di shadow of tomb raider ad esempio), ci ritroveremmo con 6664 FP e 4088 INT@1800 da review.
Una 4070 avrebbe 7680 cuda + Interi @ 2,8.
Quindi un turing 2.0 lo escludo proprio.:)

Iceman69
11-08-2022, 13:35
Cmq le prestazioni già si sanno, anche non ufficialmente. 4070 simil GA102 top, 4080 ben sopra, 4090 quasi 2x.

Io al 2x ci credo poco, ma se sarà così, magari a 1500 euro una 4090 diventa estremamente interessante.
Se invece sarà come di consueto al massimo un 40% sopra mi interessa molto meno a sto giro e mi sa che aspetto.

Per me comunque la grossa incognita è la generazione di calore, già con le 3090 dissipatori di generose dimensioni facevano decisamente fatica a restare silenziosi e nel contempo a tenere la scheda a temperature accettabili, se aumenta si deve per forza passare al liquido e i costi iniziano a salire un po' troppo.

Tra un paio di mesi scopriremo tutto (magari un po' prima se siamo fortunati)

Dono89
11-08-2022, 13:47
Io al 2x ci credo poco, ma se sarà così, magari a 1500 euro una 4090 diventa estremamente interessante.

Se invece sarà come di consueto al massimo un 40% sopra mi interessa molto meno a sto giro e mi sa che aspetto.


Il 2x in termini di prestazioni reali NON ci sarà. Non c'è mai stato e mai ci sarà anche perché nvidia stessa non la farebbe uscire (si tirerebbe la zappa sui piedi per la prossima gen).

Quindi, calcolando il 18% partendo da 1935, ci ritroviamo a 2300.

lui dice che a soli 2ghz in 1440p su una 3070ti e solo il 13% sotto una 3080.

Praticamente una 3070ti a 2300, andrebbe nel suo calcolo come la 3080.

Ora dobbiamo aggiungere il 22% di clock, e il 25% di ALU.



Bazzecole.:p

Questo è un conto suo, non mio.:p

Non è nessun conto, io ho fatto una banale divisione tra una scheda e l'altra, dove una è un sample super fortunato che sale a oltre 2ghz e l'altra è una normale 3080, ovviamente nel calcolo non ha l'oc la 3080, mentre la 70ti si, come indicato.

Io non faccio conti tra interi/non interi/TF etc, dico solo che se ci basiamo sulla frequenza per dire che la 4070 andrà come la 3090, in quanto:
4070 = AxBxC = 35
3090 = AxBxC = 36
È sbagliato. Ma non perché lo dico io, ma perché questo modo di calcolare è troppo approssimativo se si vogliono sapere le performance reali in game dato che non tieni conto di mille fattori, architettura in primis. Ma di certo non devo essere io a insegnarti questo.

Ma è chiaro che non ci può essere uno scaling 1:1.

....

Quindi per un confronto di scaling, dovresti fare un test con la tua a 1300 vs 1950 e vedere quanto scala.
Se scala il 25% sei già sulla 3090ti.


1) se non ci può essere uno scaling 1:1 allora non ha senso contare i tf ed utilizzarli come metro di paragone tra 30x0 e 40x0
Perché se continuiamo a dire che l 40x0 va come la 30x0 perché consideriamo la moltiplicazione della frequenza dei core lo stiamo considerando 1:1

2) no, io ho detto che non scala "agli alti", punto di forza della 4000.
Da 1300 a 1500 ci sono vantaggi, così come da 1500 a 1700, ma sono pronto a scommettere (ma non lo sapremo mai) che i vantaggi da 1500 a 1800 sono molto più marcati rispetto 2000 a 2300, eppure questo aspetto non emerge dal calcolo dei TF. Che si sta usando da pagine per livellare la serie 4000.
Quei numeri (calcolo dei tf) sono drogati per le 4000 e molto più reali nelle 3000. Dico solo questo

amon.akira
11-08-2022, 14:07
Il 2x in termini di prestazioni reali NON ci sarà. Non c'è mai stato e mai ci sarà anche perché nvidia stessa non la farebbe uscire (si tirerebbe la zappa sui piedi per la prossima gen).


https://hexus.net/media/uploaded/2020/9/8ce864d6-c3bb-400b-ba68-b0970362407f.png

be dai c eravamo quasi anche ad occhio senza righello :p

doom eternal era un altro che scalava benessimo anche mi pare

Dono89
11-08-2022, 14:16
https://hexus.net/media/uploaded/2020/9/8ce864d6-c3bb-400b-ba68-b0970362407f.png

be dai c eravamo quasi anche ad occhio senza righello :p

doom eternal era un altro che scalava benessimo anche mi pare


Va beh, ma se la ragioniamo così addio.

Sono 3 titoli in croce scelto appositamente da nvidia. Il fatto che una vga va 2x l'altra non è perché lo fa in tomb raider e doom, ma deve farlo con un campione ampio. Non su tutti i titoli magari, ma sicuramente la maggior parte, ma non 3

Condivido anche doom, ma se prendiamo qualunque rece 2080vs3080 non c'è il 2x, mai (com'è giusto che sia, e la 3080 credo sia la 80 più spinta mai fatta)

amon.akira
11-08-2022, 14:19
Va beh, ma se la ragioniamo così addio.

Sono 3 titoli in croce ed nvidia friendly. Il fatto che una vga va 2x l'altra non è perché lo fa in tomb raider e doom, ma deve farlo con un campione ampio.

Condivido anche doom, ma se prendiamo qualunque rece 2080vs3080 non c'è il 2x, mai (com'è giusto che sia, e la 3080 credo sia la 80 più spinta mai fatta)

eh metti che il motore di doom veniva usato come l ue4 avresti avuto il 90% dei titoli che scalavano bene.

tu hai detto una cosa molto precisa

"Il 2x in termini di prestazioni reali NON ci sarà."

semplicemente non è vera, ma noi qui siamo anche realistici e parliamo anche di media, infatti prima ti dicevo che vuoi che non vada il 50% dal 2x? ma non catastrofico come dici tu, dal 2x al 20%

Dono89
11-08-2022, 14:27
eh metti che il motore di doom veniva usato come l ue4 avresti avuto il 90% dei titoli che scalavano bene.

tu hai detto una cosa molto precisa

"Il 2x in termini di prestazioni reali NON ci sarà."

semplicemente non è vera, ma noi qui siamo anche realistici e parliamo anche di media, infatti prima ti dicevo che vuoi che non vada il 50% dal 2x? ma non catastrofico come dici tu, dal 2x al 20%


Io non sono catastrofico, ma mi baso su ciò che ad oggi conosciamo. Si osanna la cache maggiorata senza sapere le conseguenze che avrà, mi sembra un po' riduttivo.
Io intendevo il 2x come media. Se su doom fa 2x e lo fa solo su doom e tomb raider, per me, quella scheda a prescindere dal nome/prezzo/colore, non fa il 2x.

Se quella scheda testata con un parco ampio ha di media il 2x, passando da 1.7x a 2.3x quella scheda fa il 2x, e mi dispiace, ma nonostante la possegga la 3080 NON fa il 2x, si avvicina alla metà, ovvero il 45% in 2k e qualcosa di più in 4K. È tanto, ma non è 2x.

Dai ragazzi, non nascondiamoci dietro un dito prendendo una slide fatta da nvidia per vendere un prodotto, ma discutiamo con oggettività, suvvia.

Ubro92
11-08-2022, 14:28
Non vorrei dire ma passare da 1500 a 1800 è il 20% in più di clock, passare da 2000 a 2300 è il 15%, se per estensione parliamo di 2700mhz e 3000mhz è l' 11% mi sembra normale che prendendo un campione di 300mhz cosi random non ha senso senza considerare da dove parti :sofico:

Comunque già nel passaggio Maxwell -> Pascal, si sono create condizioni simili, con Pascal che in media guadagnava +600/700mhz da Maxwell, circa il 40% in più di clock, e nelle medie tra 980 e 1070 in prestazioni ci passa il 30% di differenza.

Internamente tra maxwell e pascal non ci furono rivoluzioni, se prendi 980 e 1070 sono strutturalmente simili, la 1070 riesce a prendere la 980ti proprio per via del clock maggiore e la miglior compressione, con Lovelace per sopperire ai bus è stata ampliata enormemente la cache, una 4070 ha ben 49mb di cache contro i 6mb di una 3090ti e un clock di 800-1000mhz in più che corrisponde al 40-50% rispetto Ampere, ma per questo devi ringraziare il pp di samsung che non ha portato alcuna miglioria anche rispetto ai 16nm di TSMC in termini di clock.

amon.akira
11-08-2022, 14:31
Io non sono catastrofico, ma mi baso su ciò che ad oggi conosciamo. Si osanna la cache maggiorata senza sapere le conseguenze che avrà, mi sembra un po' riduttivo.
Io intendevo il 2x come media. Se su doom fa 2x e lo fa solo su doom e tomb raider, per me, quella scheda a prescindere dal nome/prezzo/colore, non fa il 2x.

Se quella scheda testata con un parco ampio ha di media il 2x, passando da 1.7x a 2.3x quella scheda fa il 2x, e mi dispiace, ma nonostante la possegga la 3080 NON fa il 2x, si avvicina alla metà, ovvero il 45% in 2k e qualcosa di più in 4K. È tanto, ma non è 2x.

Dai ragazzi, non nascondiamoci dietro un dito prendendo una slide fatta da nvidia per vendere un prodotto, ma discutiamo con oggettività, suvvia.

metro exodus 2x anche

https://www.kitguru.net/wp-content/uploads/2020/09/metro-2160-dxr.png

mikael84
11-08-2022, 15:14
Io al 2x ci credo poco, ma se sarà così, magari a 1500 euro una 4090 diventa estremamente interessante.
Se invece sarà come di consueto al massimo un 40% sopra mi interessa molto meno a sto giro e mi sa che aspetto.

Tempo fa, ti avevo fatto due calcoli, e mi dava circa 80-90%, ora che la scheda è stata provata su un campione, risulta fare 19000, mentre la 3090 10000. Quindi i leak riportano a quelle medie teoriche che avevo ipotizzato.
Però ovviamente, dopo ci sono svariati fattori di considerare, come la res, il tipo di motore.

Se la potenza è del 90%, e in tale gioco x a 1440p scala al 30%, sono altri fattori.
Già in RT arriviamo a picchi elevatissimi con PP scrausi.


Per me comunque la grossa incognita è la generazione di calore, già con le 3090 dissipatori di generose dimensioni facevano decisamente fatica a restare silenziosi e nel contempo a tenere la scheda a temperature accettabili, se aumenta si deve per forza passare al liquido e i costi iniziano a salire un po' troppo.

Tra un paio di mesi scopriremo tutto (magari un po' prima se siamo fortunati)

Si qua non posso che concordare, spero che i dissipatori siano decisamente migliori, con la 3090ti da 450 (TDP della 4090), solo l'AIO ha prodotto risultati davvero validi.

Vul
11-08-2022, 15:20
eh metti che il motore di doom veniva usato come l ue4 avresti avuto il 90% dei titoli che scalavano bene.

tu hai detto una cosa molto precisa

"Il 2x in termini di prestazioni reali NON ci sarà."

semplicemente non è vera, ma noi qui siamo anche realistici e parliamo anche di media, infatti prima ti dicevo che vuoi che non vada il 50% dal 2x? ma non catastrofico come dici tu, dal 2x al 20%

E tu hai risposto con una non-prova.

In media la 3080 andava il 65 % in piu della 2080.

Numero non piccolo tutto sommato, anche se l'aumento di energia medio era del 30% in gaming e del 70% in benchmark o furmark.

mikael84
11-08-2022, 15:33
Il 2x in termini di prestazioni reali NON ci sarà. Non c'è mai stato e mai ci sarà anche perché nvidia stessa non la farebbe uscire (si tirerebbe la zappa sui piedi per la prossima gen).



Non è nessun conto, io ho fatto una banale divisione tra una scheda e l'altra, dove una è un sample super fortunato che sale a oltre 2ghz e l'altra è una normale 3080, ovviamente nel calcolo non ha l'oc la 3080, mentre la 70ti si, come indicato.

Io non faccio conti tra interi/non interi/TF etc, dico solo che se ci basiamo sulla frequenza per dire che la 4070 andrà come la 3090, in quanto:
4070 = AxBxC = 35
3090 = AxBxC = 36
È sbagliato. Ma non perché lo dico io, ma perché questo modo di calcolare è troppo approssimativo se si vogliono sapere le performance reali in game dato che non tieni conto di mille fattori, architettura in primis. Ma di certo non devo essere io a insegnarti questo.




1) se non ci può essere uno scaling 1:1 allora non ha senso contare i tf ed utilizzarli come metro di paragone tra 30x0 e 40x0
Perché se continuiamo a dire che l 40x0 va come la 30x0 perché consideriamo la moltiplicazione della frequenza dei core lo stiamo considerando 1:1

2) no, io ho detto che non scala "agli alti", punto di forza della 4000.
Da 1300 a 1500 ci sono vantaggi, così come da 1500 a 1700, ma sono pronto a scommettere (ma non lo sapremo mai) che i vantaggi da 1500 a 1800 sono molto più marcati rispetto 2000 a 2300, eppure questo aspetto non emerge dal calcolo dei TF. Che si sta usando da pagine per livellare la serie 4000.
Quei numeri (calcolo dei tf) sono drogati per le 4000 e molto più reali nelle 3000. Dico solo questo

1)Sbagliato dove?
La potenza in virgola mobile dice che:
4070@2,8 raggiunge 43TF con 192kb l1
3090@ 1,9 raggiunge 40TF con 128kb di l1.

RT core
4070: 60RT core@ 2,8 producono 84TF di picco. in REV3 (probabili RT aggiornati e migliorati)
3090: 82RT core@1,9 producono 77,9TF di picco REV2

La potenza della 4070 è quella, poi la vedremmo sui giochi, ma la potenza è quella piaccia o meno.;)

Lo scaling qua non centra nulla.

-------------------------------------------

2) ok, abbiamo capito che una scheda potente x, non andrà come una potente y, perchè a te non torna.

Vorrei che tu mi spiegassi però perchè, le schede con la stessa potenza vanno mediamente uguali:
Partiamo
1060---980 (4,6tf vs 4,9)
1070---980ti (6,9 vs 6,6)

Attendo una spiegazione, visto i dislivelli tra cuda e clock)
RTX 3060 vs 2070 (scorporando gli interi a 38 int, sono 2222cc, va come la 2070)
RTX 3060ti- 2080 super (12tf circa a testa) vanno uguali.
RTX 3070- 2080ti (14-vs 15 stock) vanno uguali.

O anche tra AMD.
3080 vs 6800xt(entrambe medie di 20,5tf) vanno uguali
3090 vs 6900xt (variano di 1-2tf in base ai clock) vanno mediamente uguali.

Se ti va, spiegami, almeno come mai maxwell e pascal.:)

mikael84
11-08-2022, 15:54
eh metti che il motore di doom veniva usato come l ue4 avresti avuto il 90% dei titoli che scalavano bene.

tu hai detto una cosa molto precisa

"Il 2x in termini di prestazioni reali NON ci sarà."

semplicemente non è vera, ma noi qui siamo anche realistici e parliamo anche di media, infatti prima ti dicevo che vuoi che non vada il 50% dal 2x? ma non catastrofico come dici tu, dal 2x al 20%

Sottolineo che quello che hai riportato, è tra una scheda a circa 20tf vs una ad 11 (1,81x).

La 4090 sarà a 90TF@2750 (fp totali) vs 38 di una 3090@1800 (come da review).

Quindi 2,36x
20 / 2,36x = 8,47 che è il dato di una 2070 liscia.

3080 vs 2070 liscia=:sofico:
rullo di tamburi, ecco:
https://tpucdn.com/review/nvidia-geforce-rtx-3080-founders-edition/images/relative-performance_3840-2160.png

Dono89
11-08-2022, 15:59
1)Sbagliato dove?
La potenza in virgola mobile dice che:
4070@2,8 raggiunge 43TF con 192kb l1
3090@ 1,9 raggiunge 40TF con 128kb di l1.

RT core
4070: 60RT core@ 2,8 producono 84TF di picco. in REV3 (probabili RT aggiornati e migliorati)
3090: 82RT core@1,9 producono 77,9TF di picco REV2

La potenza della 4070 è quella, poi la vedremmo sui giochi, ma la potenza è quella piaccia o meno.;)

Lo scaling qua non centra nulla.

-------------------------------------------

2) ok, abbiamo capito che una scheda potente x, non andrà come una potente y, perchè a te non torna.

Vorrei che tu mi spiegassi però perchè, le schede con la stessa potenza vanno mediamente uguali:
Partiamo
1060---980 (4,6tf vs 4,9)
1070---980ti (6,9 vs 6,6)

Attendo una spiegazione, visto i dislivelli tra cuda e clock)
RTX 3060 vs 2070 (scorporando gli interi a 38 int, sono 2222cc, va come la 2070)
RTX 3060ti- 2080 super (12tf circa a testa) vanno uguali.
RTX 3070- 2080ti (14-vs 15 stock) vanno uguali.

O anche tra AMD.
3080 vs 6800xt(entrambe medie di 20,5tf) vanno uguali
3090 vs 6900xt (variano di 1-2tf in base ai clock) vanno mediamente uguali.

Se ti va, spiegami, almeno come mai maxwell e pascal.:)


1) io non ho mai detto che la potenza sia minore o maggiore dei tuoi calcoli. Che la potenza sia quella da te dichiarata per la 4070 non l'ho mai messo in dubbio. Ti sfido a trovare dove dico che non ha quei TF. Io dico che quei TF, non si riflettono 1:1 sui giochi dato che, per una banale questione matematica, sono dati dal prodotto di n contributi dove uno di questi è la frequenza e la frequenza oltre un tot non scala linearmente come invece la moltiplicazione (per una banale funzione matematica) fa. Tutto qui.

2) non è che non torna a me, non può tornare a nessuno non essendoci stati test ufficiali, te compreso :)
Te dici che la potenza teorica è quella? Ne sono convinto anche io
Andrà come la 3090? Non lo può sapere nessuno e se ci va non è per i 2500mhz (o meglio, anche), ma anche per la cache e tutto il resto cosa che nella formula non compare.

In altri termini (poi non so più come dirlo), un'auto a Diesel ha molta più accelerazione da 2500 a 3000 giri rispetto che 3000 a 3700 (senza fare i conti precisi). Qui è uguale e se diciamo che la potenza è data da giri per numero di cilindri tu dirai che un 3x3500 va come un 4x2600. Se la potenza è la stessa, perché il calcolo lo dice, non vuol dire che vada uguale.
Non a caso, una Ferrari per arrivare a 300km/h deve avere il triplo dei cavalli che ha una golf che arriva ai 200.

Mi scuso con gli ing meccanici che potrebbero esserci per le inesatte scritte, ma l'esempio credo sia chiaro a sufficienza :)


Lo scaling, per una scheda che a simile architettura passa da 2000 a 2500/3000 va contato eccome e come sappiamo tutti non è mai 1:1

Quindi o si considera la potenza teorica senza farla riflettere in game e allora sono assolutamente d'accorso nel dire che 4070 e 3090 hanno la stessa potenza, o se si considerano le prestazioni effettive non sono d'accordo. Non per nulla, ma perché si continua a fare il ragionamento forza bruta = prestazioni in game e almeno qui, converrai che non è assolutamente così

amon.akira
11-08-2022, 16:03
E tu hai risposto con una non-prova.

In media la 3080 andava il 65 % in piu della 2080.

Numero non piccolo tutto sommato, anche se l'aumento di energia medio era del 30% in gaming e del 70% in benchmark o furmark.

la frase era il 2x nei giochi reali non ci sarà, non il 2x come MEDIA nei giochi reali non ci sarà

poi un discorso è avere una scheda che potenzialmente può fare 2x, e li il merito/colpa è di nvidia, un altro è che uno sviluppatore sia capace di fargli fare 2x o meno, se uno ci riesce ci potrebbe riuscire anche un altro...quindi nvidia per far fare 2x a assassin creed deve fare una scheda almeno 3x per altri sviluppatori.

cmq tolto questo, io semplicemente detto che non era vero in senso assoluto e parlavo di medie 50% poco sopra, è logico che se vuoi 2x medio devi fare 2.5

se poi vuoi 2x nel peggior caso devi fare almeno 3x

sembra che stiamo spiegando l acqua calda.

quindi dite 4080 vs 3080 +20% medio? significherebbe pareggiare la 3090ti
tra qualche mese lo scopriremo

Dono89
11-08-2022, 16:09
la frase era il 2x nei giochi reali non ci sarà, non il 2x come MEDIA nei giochi reali non ci sarà

poi un discorso è avere una scheda che potenzialmente può fare 2x, e li il merito/colpa è di nvidia, un altro è che uno sviluppatore sia capace di fargli fare 2x o meno, se uno ci riesce ci potrebbe riuscire anche un altro...quindi nvidia per far fare 2x a assassin creed deve fare una scheda almeno 3x per altri sviluppatori.

cmq tolto questo, io semplicemente detto che non era vero in senso assoluto e parlavo di medie 50% poco sopra, è logico che se vuoi 2x medio devi fare 2.5

se poi vuoi 2x nel peggior caso devi fare almeno 3x

sembra che stiamo spiegando l acqua calda.

quindi dite 4080 vs 3080 +20% medio? significherebbe pareggiare la 3090ti
tra qualche mese lo scopriremo


Amon, non arrampicarti dietro la parola (importante per carità) omessa, son convinto che avessi capito benissimo il messaggio.

Il 2x non si intende mai su un titolo, con la luna allineata a Marte e giove. Si intende che una scheda testata su una suite di test in cui come risultato finale va il doppio di un'altra e non vuol dire avere il 3x, ma avere un summary che si aggira a quel livello. 3080 vs. 2080 è il 45% in 2k e arriviamo a circa il 60% se ci metti il 4k

Non ragioniamo come sopra che è stato riportato tomb raider. Ci mancava solo AC che le schede le mette a dormire...siamo realisti, nessuno è alle prime armi con il pc

mikael84
11-08-2022, 16:12
1) io non ho mai detto che la potenza sia minore o maggiore dei tuoi calcoli. Che la potenza sia quella da te dichiarata per la 4070 non l'ho mai messo in dubbio. Ti sfido a trovare dove dico che non ha quei TF. Io dico che quei TF, non si riflettono 1:1 sui giochi dato che, per una banale questione matematica, sono dati dal prodotto di n contributi dove uno di questi è la frequenza e la frequenza oltre un tot non scala linearmente come invece la moltiplicazione (per una banale funzione matematica) fa. Tutto qui.

2) non è che non torna a me, non può tornare a nessuno non essendoci stati test ufficiali, te compreso :)
Te dici che la potenza teorica è quella? Ne sono convinto anche io
Andrà come la 3090? Non lo può sapere nessuno e se ci va non è per i 2500mhz (o meglio, anche), ma anche per la cache e tutto il resto cosa che nella formula non compare.

In altri termini (poi non so più come dirlo), un'auto a Diesel ha molta più accelerazione da 2500 a 3000 giri rispetto che 3000 a 3700 (senza fare i conti precisi). Qui è uguale e se diciamo che la potenza è data da giri per numero di cilindri tu dirai che un 3x3500 va come un 4x2600. Se la potenza è la stessa, perché il calcolo lo dice, non vuol dire che vada uguale.
Non a caso, una Ferrari per arrivare a 300km/h deve avere il triplo dei cavalli che ha una golf che arriva ai 200.

Mi scuso con gli ing meccanici che potrebbero esserci per le inesatte scritte, ma l'esempio credo sia chiaro a sufficienza :)


Lo scaling, per una scheda che a simile architettura passa da 2000 a 2500/3000 va contato eccome e come sappiamo tutti non è mai 1:1

Quindi o si considera la potenza teorica senza farla riflettere in game e allora sono assolutamente d'accorso nel dire che 4070 e 3090 hanno la stessa potenza, o se si considerano le prestazioni effettive non sono d'accordo. Non per nulla, ma perché si continua a fare il ragionamento forza bruta = prestazioni in game e almeno qui, converrai che non è assolutamente così

Ok, hai capito che la 4070 ha la stessa potenza della 3090, poi saranno i giochi a parlare, ed è assolutamente vero.
Tecnicamente abbiamo 2 schede che esprimono la propria potenza, e come tale il riferimento è quello.:) Qua ci siamo, abbiamo solo la matematica.

Però, per i tuoi dubbi, io ho sprecato mezza tastiera, sul come è possibile che le schede di pari potenza con clock e cuda estremamente diversi, alla fine vanno uguali sul campo.
Su questo non mi hai risposto, vedi maxwell, o vedi AMD vs nvidia.:)

Dono89
11-08-2022, 16:26
Ok, hai capito che la 4070 ha la stessa potenza della 3090, poi saranno i giochi a parlare, ed è assolutamente vero.
Tecnicamente abbiamo 2 schede che esprimono la propria potenza, e come tale il riferimento è quello.:) Qua ci siamo, abbiamo solo la matematica.

Però, per i tuoi dubbi, io ho sprecato mezza tastiera, sul come è possibile che le schede di pari potenza con clock e cuda estremamente diversi, alla fine vanno uguali sul campo.
Su questo non mi hai risposto, vedi maxwell, o vedi AMD vs nvidia.:)


Non fare il furbetto :)

Io non ho mai obiettato il risultato dei calcoli (anche perché non ho le tue basi e sarebbe ridicolo discutere di questo) e che la 4070 avesse i TF da te dichiarati non l'ho mai messo in dubbio e non mi è chiaro solo ora.

Ma è tutt'ora oscuro, almeno a me, su che base diciamo che 4070 avrà stesse perf della 3090 quando non è stato pubblicato mezzo test che non sia leak.
Non ho detto io che la 4070 ammazza ampere.
Su che base lo dici se non un puro calcolo dei TF?
Penso di poter rispondere io: dal fatto che basta una 4070 per arrivare alla potenza di picco della top di gamma della serie 3000.

Sui risultati teorici d'accordo, ma se sono dati da un aumento della frequenza che scala male in game, ho delle riserve e anche grandi. Se poi dovesse esser così ben felice, ma i motivi saranno da ricercare altrove piuttosto che dai TF teorici.

(Sul fatto di amd vs. Nvidia. Sono architetture assolutamente differenti e anche in quel caso non è corretto fare confronti basandosi puramente sui TF)

mikael84
11-08-2022, 16:32
Esco totalmente dal comparto tecnico, e parlo da completo ignorante.
Sono andato a pescare le vecchie schede x70 ed ho notato che, prendendo come riferimento il 1440p che rappresenta tali schede ho notato che:

Maxwell: 970 vs 770 = 40%
https://tpucdn.com/review/msi-gtx-970-gaming/images/perfrel_2560.gif

Pascal: 1070 vs 970 = 62%
https://tpucdn.com/review/nvidia-geforce-rtx-3070-founders-edition/images/relative-performance_2560-1440.png

Turing: 2070 vs 1070 =39%
https://tpucdn.com/review/nvidia-geforce-rtx-2070-founders-edition/images/relative-performance_2560-1440.png

Ampere: 3070 vs 2070 = 49%

Lovelace quanto mi darà? :p
https://tpucdn.com/review/nvidia-geforce-rtx-3070-founders-edition/images/relative-performance_2560-1440.png

Dono89
11-08-2022, 16:48
Non lo so, ma qualcosa mi dice che nemmeno te hai i dati per dirlo, se non formule che per quanto utili non rappresentano la realtà o quantomeno non c'è la certezza solo perché 35 è un numero comune da entrambe le parti.


A dirla proprio tutta, ho seri dubbi ci sarà un salto forte come c'è stato con la serie 3000 (fino la 80), ma se ci diciamo che avrà il 30% 70 vs 70 sarà circa come la 3080, ma spingiamoci oltre.
Diciamo pure che arriva alla 80ti. Questo vale ovviamente in 2k (o simil dettagli).

Mettiamo anche che così fosse. Questo significa ammazzare ampere? Secondo me, no

E proprio perché usciamo dal tecnico, non consideriamo quanto la cache incida, quanto la frequenza scali, quanto compensa la cache con il bus ridotto ecc ecc

craesilo
11-08-2022, 16:50
Esco totalmente dal comparto tecnico, e parlo da completo ignorante.
Sono andato a pescare le vecchie schede x70 ed ho notato che, prendendo come riferimento il 1440p che rappresenta tali schede ho notato che:

Maxwell: 970 vs 770 = 40%
https://tpucdn.com/review/msi-gtx-970-gaming/images/perfrel_2560.gif

Pascal: 1070 vs 970 = 62%
https://tpucdn.com/review/nvidia-geforce-rtx-3070-founders-edition/images/relative-performance_2560-1440.png

Turing: 2070 vs 1070 =39%
https://tpucdn.com/review/nvidia-geforce-rtx-2070-founders-edition/images/relative-performance_2560-1440.png

Ampere: 3070 vs 2070 = 49%

Lovelace quanto mi darà? :p
https://tpucdn.com/review/nvidia-geforce-rtx-3070-founders-edition/images/relative-performance_2560-1440.png

sicuramente meno di pascal che è il mejo ma spero più di sturinglavandino :stordita:

amon.akira
11-08-2022, 17:05
Amon, non arrampicarti dietro la parola (importante per carità) omessa, son convinto che avessi capito benissimo il messaggio.

Il 2x non si intende mai su un titolo, con la luna allineata a Marte e giove. Si intende che una scheda testata su una suite di test in cui come risultato finale va il doppio di un'altra e non vuol dire avere il 3x, ma avere un summary che si aggira a quel livello. 3080 vs. 2080 è il 45% in 2k e arriviamo a circa il 60% se ci metti il 4k

Non ragioniamo come sopra che è stato riportato tomb raider. Ci mancava solo AC che le schede le mette a dormire...siamo realisti, nessuno è alle prime armi con il pc

purtroppo assassin creed fa media, stiamo parlando di medie, è inutile chiedere l impossibile...tu hai detto non esistono giochi che fanno 2x e mai ci saranno.

e poi qui nessuno qui sta dicendo 2x realisticamente, stiamo/sto dicendo che non sarà +20%, da 3080 e 2080 medio realistico stiamo a +60%


Mettiamo anche che così fosse. Questo significa ammazzare ampere? Secondo me, no


pensa che una x70 nuova consumando meno a toh 600euro fa come una 3080ti da 1200, se non l ammazza cosa fa?

Ubro92
11-08-2022, 17:12
pensa che una x70 nuova consumando meno a toh 600euro fa come una 3080ti da 1200, se non l ammazza cosa fa?

Svaluta a due spicci i GA102 profumatamente pagati, il che a molti non va giù e cercano di girarci intorno :stordita:

mikael84
11-08-2022, 17:25
sicuramente meno di pascal che è il mejo ma spero più di sturinglavandino :stordita:

Parlo seriamente, la potenza della 4070, almeno dalle specifiche, è in linea con la 3090/ti, il problema però, ora come ora è un altro.
Ovvero lo scaling alle basse res. La scheda potrebbe anche andarci al 60%, in 4k ed RT, ma in 1440p (dove è destinata), schede di un certo calibro non scalano per niente, se non in RT massiccio, no DLSS.

Purtroppo i giochi si sono fermati.

purtroppo assassin creed fa media, stiamo parlando di medie, è inutile chiedere l impossibile...tu hai detto non esistono giochi che fanno 2x e mai ci saranno.

e poi qui nessuno qui sta dicendo 2x realisticamente, stiamo/sto dicendo che non sarà +20%, da 3080 e 2080 medio realistico stiamo a +60%



pensa che una x70 nuova consumando meno a toh 600euro fa come una 3080ti da 1200, se non l ammazza cosa fa?

Poi al mercatino ti fanno scorporare l'iva e la 3080ti verrà 490 euro.:sofico:

Svaluta a due spicci i GA102 profumatamente pagati, il che a molti non va giù e cercano di girarci intorno :stordita:

Bingo.
Sperano che schede come la 4070 vadano come o peggio della 3080, costando uguale o di più, per giustificare Ampere.
E come vedi te la rigirano all'infinito.:)

amon.akira
11-08-2022, 17:34
Bingo.
Sperano che schede come la 4070 vadano come o peggio della 3080, costando uguale o di più, per giustificare Ampere.
E come vedi te la rigirano all'infinito.:)

capita ad ogni gen, e non sarà certo l ultima :D

Gello
11-08-2022, 17:38
https://c.tenor.com/gmJwR-cfdx8AAAAd/spin-the-wheel-bankruptcy.gif

Ubro92
11-08-2022, 17:47
Parlo seriamente, la potenza della 4070, almeno dalle specifiche, è in linea con la 3090/ti, il problema però, ora come ora è un altro.
Ovvero lo scaling alle basse res. La scheda potrebbe anche andarci al 60%, in 4k ed RT, ma in 1440p (dove è destinata), schede di un certo calibro non scalano per niente, se non in RT massiccio, no DLSS.

Purtroppo i giochi si sono fermati.

Li è anche questione di cpu, quest'ultima non è più un aspetto trascurabile neanche a 1440p.

Vedremo con raptor e Zen 4 come spingeranno a basse risoluzioni, già il 5800x3d ha dato bei risultati, considerando che perde potenza teorica a favore della cache aggiuntiva:

https://tpucdn.com/review/amd-ryzen-7-5800x3d/images/relative-performance-games-2560-1440.png

https://www.techpowerup.com/review/amd-ryzen-7-5800x3d/17.html

Dono89
11-08-2022, 18:18
Bingo.

Sperano che schede come la 4070 vadano come o peggio della 3080, costando uguale o di più, per giustificare Ampere.

E come vedi te la rigirano all'infinito.:)

Veramente tutta la discussione avuta (con scambi a mio avviso molto costruttivi) si riassume a questa bambinata?
Dimmi che non pensi davvero la cavolata che hai scritto, non ci voglio credere e non è da te.

Svaluta a due spicci i GA102 profumatamente pagati, il che a molti non va giù e cercano di girarci intorno :stordita:

Misà che sei fuori strada...non abbiamo più 14 anni.
Se manco qui si può fare una discussione costruttiva siamo davvero alla frutta.


Ultimo post fino le 5000, vedo non c'è modo di argomentare senza scendere nel ridicolo. Buona continuazione

mikael84
11-08-2022, 18:29
capita ad ogni gen, e non sarà certo l ultima :D

Lo credo bene.
Sarebbe un bel dramma altrimenti.:p

Nel tavolo di JHH, vicino al forno ci sono già i codici della serie 6000, lui sa già come far morire male anche queste schede e le prossime.:O

https://c.tenor.com/gmJwR-cfdx8AAAAd/spin-the-wheel-bankruptcy.gif

:asd: :asd: :asd:

Li è anche questione di cpu, quest'ultima non è più un aspetto trascurabile neanche a 1440p.

Vedremo con raptor e Zen 4 come spingeranno a basse risoluzioni, già il 5800x3d ha dato bei risultati, considerando che perde potenza teorica a favore della cache aggiuntiva:



Assolutamente, la CPU diventa molto importante. Sarà l'occasione per passare alle nuove CPU. Soprattutto in MP.
Oltre a questo però, il chip avrà sempre problemi a scalare, in quanto la scheda internamente verrà sfruttata meno, a partire dalla minor richiesta di banda, il warp stall, o le varie rop's, geometria.
Purtroppo qua, siamo indietro con i tempi a livello di giochi.

mikael84
11-08-2022, 18:51
Veramente tutta la discussione avuta (con scambi a mio avviso molto costruttivi) si riassume a questa bambinata?
Dimmi che non pensi davvero la cavolata che hai scritto, non ci voglio credere e non è da te.



Si lo penso, eccome se lo penso, a fine gen, il discorso torna sempre.:)
Cmq non era riferito principalmente a te o a te in generale, ma di chi non vuole accettare in nessun modo che il salto generazione ci sarà e colpirà Ampere.

Non lo so, ma qualcosa mi dice che nemmeno te hai i dati per dirlo, se non formule che per quanto utili non rappresentano la realtà o quantomeno non c'è la certezza solo perché 35 è un numero comune da entrambe le parti.


A dirla proprio tutta, ho seri dubbi ci sarà un salto forte come c'è stato con la serie 3000 (fino la 80), ma se ci diciamo che avrà il 30% 70 vs 70 sarà circa come la 3080, ma spingiamoci oltre.
Diciamo pure che arriva alla 80ti. Questo vale ovviamente in 2k (o simil dettagli).

Mettiamo anche che così fosse. Questo significa ammazzare ampere? Secondo me, no



Tu sai quanto sia disponibile, tanto che oggi, l'ho quasi tutta passata per rispondere a te... chi lo farebbe... in modo tecnico. addirittura ho fatto un post su Ampere che vale un articolo, a gratis, tutto per te. Ed anche per chi legge ovviamente.

Dici di essere stato contento, di aver avuto questo scambio, concordi su i numeri.
Dopo 2/3 pagine, te ne esci, con la classica frase, la 4070 andrà massimo come la 3080.
1 giorno intero per arrivare al punto di partenza che volevi tu, ovvero schede molto care e perf da 3080.

Nel post costruttivo, non hai neppure mai risposto alla questione maxwell/pascal., ma hai sempre rigirato la frittata, sino a giungere alla conclusione di partenza.;)

ste-87
11-08-2022, 19:09
Esco totalmente dal comparto tecnico, e parlo da completo ignorante.
Sono andato a pescare le vecchie schede x70 ed ho notato che, prendendo come riferimento il 1440p che rappresenta tali schede ho notato che:

Maxwell: 970 vs 770 = 40%
https://tpucdn.com/review/msi-gtx-970-gaming/images/perfrel_2560.gif

Pascal: 1070 vs 970 = 62%
https://tpucdn.com/review/nvidia-geforce-rtx-3070-founders-edition/images/relative-performance_2560-1440.png

Turing: 2070 vs 1070 =39%
https://tpucdn.com/review/nvidia-geforce-rtx-2070-founders-edition/images/relative-performance_2560-1440.png

Ampere: 3070 vs 2070 = 49%

Lovelace quanto mi darà? :p
https://tpucdn.com/review/nvidia-geforce-rtx-3070-founders-edition/images/relative-performance_2560-1440.png

possibile che dia un valore di ~60% considerando che le condizioni bene o male (semplificando molto) sono come quelle tra 970 e 1070? Frequenze molto più alte architettura migliorata e di base """""simile"""""

amon.akira
11-08-2022, 19:10
Ultimo post fino le 5000, vedo non c'è modo di argomentare senza scendere nel ridicolo. Buona continuazione

guarda non hai argomentato con nessun test, solo un "secondo me non scala perchè io non vedo differenze con 80mhz su 2000"

hai detto che i giochi scalano diversamente dai bench, prima ho testato tomb raider e con +18.3% di clock abbiamo ottenuto un +13.6% di performance

ora ho voluto provare un portroyal sempre con 300mhz di stacco

1950 vs 1650

https://www.3dmark.com/compare/pr/1692083/pr/1692095#

come vedi non siamo lontani dal gioco, +14.3% siamo nell ottica di 2/3 che se non ricordo male mikael disse un po di tempo fa.

poi ovviamente tutto può succedere, ma i conti puntano verso un dato, le gen precedenti ci insegnano che abbiamo avuto sempre almeno +40%

stiamo qui per discutere ma porta almeno una base, non solo per me è cosi e basta.

Maury
11-08-2022, 19:48
Premetto che non ho la microarchitettura in mano, anche se kopite spesso parla di int scorporate. Tuttavia siamo di fronte ad un Ampere 2.0
Se fosse un turing 2.0, una 4060 con 4608 cuda risulterebbe una Titan RTX turing a 2,8. ben più efficiente

O meglio, se prendiamo una 3090ti a 38 interi (quelli di shadow of tomb raider ad esempio), ci ritroveremmo con 6664 FP e 4088 INT@1800 da review.
Una 4070 avrebbe 7680 cuda + Interi @ 2,8.
Quindi un turing 2.0 lo escludo proprio.:)

Grazie Mikael :)

Sbaglio o in realtà la strada di Turing permetteva maggior sfruttamento dei cuda totali ? Evidentemente ad nVidia serviva scorporarne l'utilizzo in Ampere (uso pro ?) :confused:

mikael84
11-08-2022, 20:30
possibile che dia un valore di ~60% considerando che le condizioni bene o male (semplificando molto) sono come quelle tra 970 e 1070? Frequenze molto più alte architettura migliorata e di base """""simile"""""

Si teoricamente la strada è quella di Pascal, aumento CC x clock molto elevati, si parla di 2,8.
La 1070 prendeva la 980ti grazie al clock, mediamente erano a pari TF, mentre della 4070 ancora non abbiamo review, ma fa la stessa cosa sostanzialmente. Clock per CC, i rapporti sono quelli.
Stando agli ultimi leak, viene data proprio così
RTX 3070: 6681 / RTX4070 :11000 = 65%
https://i.postimg.cc/BbgfdwV8/ft.png

https://wccftech.com/nvidia-geforce-rtx-4070-2-8-ghz-clocks-285w-tgp-more-tflops-than-rtx-3090-ti/

Grazie Mikael :)

Sbaglio o in realtà la strada di Turing permetteva maggior sfruttamento dei cuda totali ? Evidentemente ad nVidia serviva scorporarne l'utilizzo in Ampere (uso pro ?) :confused:

La seconda. Praticamente essendo basate su applicazioni pro, hanno fatto questo giochetto, in modo che i pro potessero contare su tanti cuda, mentre i gamer, nello stesso momento sfruttare più cuda di turing, accedendo al secondo datapath, quello condiviso.

Turing rispetto ad Ampere soffriva ancora di più il sottosfruttamento delle ALU, e con Ampere hanno ampliato la l1 e la banda per metterci una pezza, anche se misera.
Lovelace, dovrebbe passare da 128kb a 192kb, migliorando ancora questa parte.:)

eXeS
11-08-2022, 21:04
Si teoricamente la strada è quella di Pascal, aumento CC x clock molto elevati, si parla di 2,8.
La 1070 prendeva la 980ti grazie al clock, mediamente erano a pari TF, mentre della 4070 ancora non abbiamo review, ma fa la stessa cosa sostanzialmente. Clock per CC, i rapporti sono quelli.
Stando agli ultimi leak, viene data proprio così
RTX 3070: 6681 / RTX4070 :11000 = 65%
https://i.postimg.cc/BbgfdwV8/ft.png

https://wccftech.com/nvidia-geforce-rtx-4070-2-8-ghz-clocks-285w-tgp-more-tflops-than-rtx-3090-ti/



La seconda. Praticamente essendo basate su applicazioni pro, hanno fatto questo giochetto, in modo che i pro potessero contare su tanti cuda, mentre i gamer, nello stesso momento sfruttare più cuda di turing, accedendo al secondo datapath, quello condiviso.

Turing rispetto ad Ampere soffriva ancora di più il sottosfruttamento delle ALU, e con Ampere hanno ampliato la l1 e la banda per metterci una pezza, anche se misera.
Lovelace, dovrebbe passare da 128kb a 192kb, migliorando ancora questa parte.:)

L'esempio 1070 vs 980ti calza a pennello, guarda qui, mi sono preso la briga di fare un gsheet con dei numeri che penso siano inequivocabili, e che dimostrano che se i rapporti tra le varie unità rimangono gli stessi, la previsione delle perf in funzione dei flops, che sono proporzionali a frequenza e numero shader, ci sta tutta.

https://i.postimg.cc/9FFFZSBf/Immagine-2022-08-11-215617.png (https://postimg.cc/JtvLWpvw)

Ma vediamo di descriverlo :cool:

Le righe interessanti sono quelle con le etichette

SP/TMU
SP/rops
TMU/rops

che sono i rapporti tra le varie unità.

Si vede chiaramente che tra GM200 (980ti) e GP104 (1070) i rapporti sono rimasti invariati.

Abbiamo quindi che se fosse per le sole unità, la 1070 sarebbe una 980ti*0,68 ma grazie alla frequenza maggiore diventa una 980ti*0,68*1,54 che diventa circa una 980ti*1,053 che è praticamente la differenza rilevata da computerbase.

Le frequenze sono quelle medie rilevate dallo stesso sito dopo 20 minuti.

Edit
https://docs.google.com/spreadsheets/d/1OiIX6f71vxLEVPQc-iLVgLu9PGU2akBk78RhGBWbOiY/edit?usp=sharing

Tody
11-08-2022, 21:23
Stando agli ultimi leak, viene data proprio così
RTX 3070: 6681 / RTX4070 :11000 = 65%

Turing rispetto ad Ampere soffriva ancora di più il sottosfruttamento delle ALU, e con Ampere hanno ampliato la l1 e la banda per metterci una pezza, anche se misera.
Lovelace, dovrebbe passare da 128kb a 192kb, migliorando ancora questa parte.:)
Ottime notizie Mikael! Considerando pure l'aumento di RAM come prestazioni si ha una scheda perfetta pure per il 4k. C'era il dubbio 10 o 12gb si sa qualcosa?
Poi bisogna vedere il prezzo di mercato che non esca un altro 499!!!(x2 nel reale)

mikael84
11-08-2022, 21:48
L'esempio 1070 vs 980ti calza a pennello, guarda qui, mi sono preso la briga di fare un gsheet con dei numeri che penso siano inequivocabili, e che dimostrano che se i rapporti tra le varie unità rimangono gli stessi, la previsione delle perf in funzione dei flops, che sono proporzionali a frequenza e numero shader, ci sta tutta.


Ma vediamo di descriverlo :cool:

Le righe interessanti sono quelle con le etichette

SP/TMU
SP/rops
TMU/rops

che sono i rapporti tra le varie unità.

Si vede chiaramente che tra GM200 (980ti) e GP104 (1070) i rapporti sono rimasti invariati.

Abbiamo quindi che se fosse per le sole unità, la 1070 sarebbe una 980ti*0,68 ma grazie alla frequenza maggiore diventa una 980ti*0,68*1,54 che diventa circa una 980ti*1,053 che è praticamente la differenza rilevata da computerbase.

Le frequenze sono quelle medie rilevate dallo stesso sito dopo 20 minuti.

Edit
https://docs.google.com/spreadsheets/d/1OiIX6f71vxLEVPQc-iLVgLu9PGU2akBk78RhGBWbOiY/edit?usp=sharing

Esatto exes, analisi perfetta, questo si chiama argomentare.:)
Quindi abbiamo visto che tutto torna.
Cambia un pelino sulle rop's, sono 88 vs 48 (la 1070 ha un GPC spento, le rop's sono solo per collegamento), ma si allineano anche qua.
Perfettamente uguali a stock.:)
https://i.postimg.cc/3R6kk1jb/rop-s.png

....
Con la 4070 vs 3090ti il rapporto è di 40% su ogni stadio:
CC 7680 vs 10752 40%- TMU di conseguenza 40%
rop's 80-112 (40%) - geometria 5-7 (40%)

Ogni stadio scala in modo uguale.

C'è l'incognita bus, con pascal coperto dalla miglior compressione, qua abbiamo 48mb di cache l2 ad altissima banda.:)


Ottime notizie Mikael! Considerando pure l'aumento di RAM come prestazioni si ha una scheda perfetta pure per il 4k. C'era il dubbio 10 o 12gb si sa qualcosa?
Poi bisogna vedere il prezzo di mercato che non esca un altro 499!!!(x2 nel reale)

Si parlava inizialmente di una declassazione a 10, poi smentita. Se mai ci sarà da 10, probabile per una 4060ti.
Prezzo attualmente si parla di quei valori, però tutto può essere. Quello purtroppo, solo nella conferenza lo sapremmo con certezza.

Per il resto, si sarà buona anche in 4k con la maggior parte dei giochi, anzi è proprio li che la scheda viene sfruttata al meglio.:)

Maury
11-08-2022, 22:31
Si teoricamente la strada è quella di Pascal, aumento CC x clock molto elevati, si parla di 2,8.
La 1070 prendeva la 980ti grazie al clock, mediamente erano a pari TF, mentre della 4070 ancora non abbiamo review, ma fa la stessa cosa sostanzialmente. Clock per CC, i rapporti sono quelli.
Stando agli ultimi leak, viene data proprio così
RTX 3070: 6681 / RTX4070 :11000 = 65%
https://i.postimg.cc/BbgfdwV8/ft.png

https://wccftech.com/nvidia-geforce-rtx-4070-2-8-ghz-clocks-285w-tgp-more-tflops-than-rtx-3090-ti/



La seconda. Praticamente essendo basate su applicazioni pro, hanno fatto questo giochetto, in modo che i pro potessero contare su tanti cuda, mentre i gamer, nello stesso momento sfruttare più cuda di turing, accedendo al secondo datapath, quello condiviso.

Turing rispetto ad Ampere soffriva ancora di più il sottosfruttamento delle ALU, e con Ampere hanno ampliato la l1 e la banda per metterci una pezza, anche se misera.
Lovelace, dovrebbe passare da 128kb a 192kb, migliorando ancora questa parte.:)

Mannaggia ai pro... mi chiedo cosa poteva veramente tirar fuori nVidia lato game se non doveva condividere la stessa base di gpu per game e ambito pro :)

Comunque le ultime voci su 4070 da 12 gb mi hanno rinvigorito, conto che anche la stessa 4060ti da 10 gb sarà una bella bombetta, sicuramente in grado di staccare nettamente una 3070.

mikael84
12-08-2022, 00:17
Mannaggia ai pro... mi chiedo cosa poteva veramente tirar fuori nVidia lato game se non doveva condividere la stessa base di gpu per game e ambito pro :)

Comunque le ultime voci su 4070 da 12 gb mi hanno rinvigorito, conto che anche la stessa 4060ti da 10 gb sarà una bella bombetta, sicuramente in grado di staccare nettamente una 3070.

Diciamo che è una coperta corta, perchè l'aggiunta delle INT complicava la grandezza del core, già molto esosa, ed allo stesso tempo i consumi. Certo le perf, salivano veramente tanto.
Di pro, rinunciando a rop's e geometria avresti dei die ben minori, con costi inferiori visto il wafer a 17k $.

Esempio:
Una Titan rtx da 270 watt (3070ti) da 754mm2, diverrebbe in 5nm circa 220mm2 (una x60). Quindi a 270 watt avresti prestazioni da 4070/3090ti.

I consumi rimarrebbero quelli della 4070 paventata, ma su un die di 220 vs 300mm2. Così però distruggi i pro.:)

Sulla 4070 da 12gb, concordo è assolutamente perfetta.:)

parcher
12-08-2022, 06:19
Intorno al 60% ed oltre tra 3080 e 4080.



Queste sono belle notizie, mi mancavano :mc:

StylezZz`
12-08-2022, 11:45
Svaluta a due spicci i GA102 profumatamente pagati, il che a molti non va giù e cercano di girarci intorno :stordita:

Eh si, 499!!!, vedremo...:asd:

Ubro92
12-08-2022, 13:24
Già mi immagino come all'epoca 499 e tutti delusi subito dopo... speriamo che mi sbagli dai :)All'epoca c'è stata una pandemia di mezzo dove anche il disinfettante per le mani è arrivato a 100€ 🤣

Inviato dal mio M2012K11AG utilizzando Tapatalk

Ale55andr0
12-08-2022, 13:45
All'epoca c'è stata una pandemia di mezzo dove anche il disinfettante per le mani è arrivato a 100€ 🤣

Inviato dal mio M2012K11AG utilizzando Tapatalk

la pandemia non c'entra nulla, ma gli scalper e il mining... di uno ci siamo liberati, per ora almeno, ma gli scalper non so....

Ale55andr0
12-08-2022, 13:47
D
Sulla 4070 da 12gb, concordo è assolutamente perfetta.:)


pensa che presa in giro per me che sulla x70 critico proprio la ram e ora finalmente ha un senso sta dannata fascia, e pensare che rifiutai 1000 euro per cedere la mia 3070, ma non si torvava nulla, quindi mi intascavo soldi ma restavo a piedi, invece pochi mesi dopo s'è sbloccato tutto :muro:

Ubro92
12-08-2022, 13:47
la pandemia non c'entra nulla, ma gli scalper e il mining... di uno ci siamo liberati, per ora almeno, ma gli scalper non so....

Pandemia per indicare tutto il pacchetto di concause che hanno fatto levitare i prezzi.

Inoltre anche la pandemia e relativi lockdown hanno influito, tieni presente che lavorando da casa in tanti hanno assemblato desktop, acquistato notebook, tablet... alzando la domanda, oltre a coloro che essendo impossibilitati a uscire si sono dati come hobby l'elettronica di consumo.

WarSide
12-08-2022, 13:49
la pandemia non c'entra nulla, ma gli scalper e il mining... di uno ci siamo liberati, per ora almeno, ma gli scalper non so....

Gli scalper posso pure scalperare stoc@zzo se c'è abbondanza di schede :D

Magari ci proveranno e, quando vedranno che ci sono più schede di quelle che riescono a comprare per manipolarne il prezzo, le rivenderanno perdendoci anche soldi :fuck:

Ubro92
12-08-2022, 13:55
Gli scalper posso pure scalperare stoc@zzo se c'è abbondanza di schede :D

Magari ci proveranno e, quando vedranno che ci sono più schede di quelle che riescono a comprare per manipolarne il prezzo, le rivenderanno perdendoci anche soldi :fuck:

Gli scalper sono sempre in agguato, ma la loro forza è l'indisponibilità di un bene, bisogna incrociare le dita sulla buona disponibilità delle GPU a scaffale.

StylezZz`
12-08-2022, 14:21
pensa che presa in giro per me che sulla x70 critico proprio la ram e ora finalmente ha un senso sta dannata fascia, e pensare che rifiutai 1000 euro per cedere la mia 3070, ma non si torvava nulla, quindi mi intascavo soldi ma restavo a piedi, invece pochi mesi dopo s'è sbloccato tutto :muro:

Se non è LHR allora puoi ancora sperare che risalga di valore con la prossima ondata di miners/guerra mondiale/covid variante omega etc...

Vul
12-08-2022, 14:21
L'esempio 1070 vs 980ti calza a pennello, guarda qui, mi sono preso la briga di fare un gsheet con dei numeri che penso siano inequivocabili, e che dimostrano che se i rapporti tra le varie unità rimangono gli stessi, la previsione delle perf in funzione dei flops, che sono proporzionali a frequenza e numero shader, ci sta tutta.

https://i.postimg.cc/9FFFZSBf/Immagine-2022-08-11-215617.png (https://postimg.cc/JtvLWpvw)

Ma vediamo di descriverlo :cool:

Le righe interessanti sono quelle con le etichette

SP/TMU
SP/rops
TMU/rops

che sono i rapporti tra le varie unità.

Si vede chiaramente che tra GM200 (980ti) e GP104 (1070) i rapporti sono rimasti invariati.

Abbiamo quindi che se fosse per le sole unità, la 1070 sarebbe una 980ti*0,68 ma grazie alla frequenza maggiore diventa una 980ti*0,68*1,54 che diventa circa una 980ti*1,053 che è praticamente la differenza rilevata da computerbase.

Le frequenze sono quelle medie rilevate dallo stesso sito dopo 20 minuti.

Edit
https://docs.google.com/spreadsheets/d/1OiIX6f71vxLEVPQc-iLVgLu9PGU2akBk78RhGBWbOiY/edit?usp=sharing

Comunque c'e` una cosa che non regge nel confronto maxwell-pascal: Maxwell usciva di fabbrica clockata mooolto conservativa, ma sappiamo tutti a che frequenze arrivava (anche + 50% in oc). Tanto che overclockata si vedevano spesso bench in cui era avanti alla 1080 base.

Pascal non e' mai salito come Maxwell, era clockato di fabbrica molto piu aggressivo e saliva (in termini relativi) di meno, e assoluti identici.

Vul
12-08-2022, 14:24
Gli scalper posso pure scalperare stoc@zzo se c'è abbondanza di schede :D

Magari ci proveranno e, quando vedranno che ci sono più schede di quelle che riescono a comprare per manipolarne il prezzo, le rivenderanno perdendoci anche soldi :fuck:

Sognare e' bello.

Ma la realta' e' che Maxwell e' stata l'ultima gen con volumi discreti alla release.

Ora, tra mining e gpu con chip grossi come padelle non si hanno piu certo i volumi di una volta, ergo non avverra' mai e poi mai che avremo volumi e prezzi decenti per i primi 6/12 mesi.

Chi si comprera' Ampere, specie usate, scontate nei prossimi mesi fara' un buon affare lato prestazioni/prezzo che secondo me non si vedra' per un bel po.

Ubro92
12-08-2022, 15:12
Comunque c'e` una cosa che non regge nel confronto maxwell-pascal: Maxwell usciva di fabbrica clockata mooolto conservativa, ma sappiamo tutti a che frequenze arrivava (anche + 50% in oc). Tanto che overclockata si vedevano spesso bench in cui era avanti alla 1080 base.

Pascal non e' mai salito come Maxwell, era clockato di fabbrica molto piu aggressivo e saliva (in termini relativi) di meno, e assoluti identici.

50% è esagerato.

Se prendiamo come riferimento la 980ti, la reference aveva un boost clock che oscillava tra 1150 e 1200mhz a seconda dell'ASIC, e in OC riuscivi a prendere mediamente i 1400mhz, quindi circa il 20-25% in più.

Ma parliamo della reference, nel caso delle custom come la mia Gigabyte xtreme già di fabbrica prende i 1430mhz, però i margini di OC sono pochi, puoi prendere al massimo i 1550mhz ma i consumi salgono in modo osceno siamo oltre i 350w per guadagnare si e no 3-4 fps su 60.

Lo sweet spot migliore è intorno ai 1480mhz in undervolt, mantenendosi sui 270w massimi.

Anche Pascal si occava bene alla fine prendeva i 2-2.1ghz, solo che non potevi mettere mano al bios e quindi overvoltare a differenza di maxwell, il che ovviamente ha gettato le basi per l'undervolt :D

mikael84
12-08-2022, 15:25
Maxwell aveva una caratteristica in OC come l'Asic.
Es: 980ti 62+ (che ho avuto): partiva da 1164 e inchiodava a 1400 giusti (20%).

Dopo c'erano le 69+ da 1202, le 74+ da 1215 e le top binning 82+ da 1240.
Ognuna mediamente permetteva di salire dal 20/25%.
Dopo c'erano altri fattori, come il liquido, che aiutava a tenere qualche pugno di mhz.

Pascal, es 1070: partiva da 1873 con il clock ballerino al contrario di maxwell, per via di temp/tdp.

pensa che presa in giro per me che sulla x70 critico proprio la ram e ora finalmente ha un senso sta dannata fascia, e pensare che rifiutai 1000 euro per cedere la mia 3070, ma non si torvava nulla, quindi mi intascavo soldi ma restavo a piedi, invece pochi mesi dopo s'è sbloccato tutto :muro:

Era anche ora.
il bello è che probabilmente si rischia la muffa con questo taglio, considerando le cache per bus.
La 4070ti se basta su AD103 avrebbe 16gb, un gran bel salto (salvo cache disabilitate).

Ubro92
12-08-2022, 15:54
Potrebbero anche farla a 224bit :sofico:

amon.akira
12-08-2022, 15:54
Comunque c'e` una cosa che non regge nel confronto maxwell-pascal: Maxwell usciva di fabbrica clockata mooolto conservativa, ma sappiamo tutti a che frequenze arrivava (anche + 50% in oc). Tanto che overclockata si vedevano spesso bench in cui era avanti alla 1080 base.

Pascal non e' mai salito come Maxwell, era clockato di fabbrica molto piu aggressivo e saliva (in termini relativi) di meno, e assoluti identici.

msi 1080 vs msi 980ti asic 95 (https://www.3dmark.com/compare/spy/4234700/spy/543078#)

il mio +34% me lo so preso, per pareggiarla a quanto dovevi mettere la 980ti a 1600 avresti avuto un incremento di clock dell 11% e non penso che guadagnavi 34% performance

Vash88
12-08-2022, 17:47
50% è esagerato.

Se prendiamo come riferimento la 980ti, la reference aveva un boost clock che oscillava tra 1150 e 1200mhz a seconda dell'ASIC, e in OC riuscivi a prendere mediamente i 1400mhz, quindi circa il 20-25% in più.

Ma parliamo della reference, nel caso delle custom come la mia Gigabyte xtreme già di fabbrica prende i 1430mhz, però i margini di OC sono pochi, puoi prendere al massimo i 1550mhz ma i consumi salgono in modo osceno siamo oltre i 350w per guadagnare si e no 3-4 fps su 60.

Lo sweet spot migliore è intorno ai 1480mhz in undervolt, mantenendosi sui 270w massimi.

Anche Pascal si occava bene alla fine prendeva i 2-2.1ghz, solo che non potevi mettere mano al bios e quindi overvoltare a differenza di maxwell, il che ovviamente ha gettato le basi per l'undervolt :D
La mia GTX 970 all'epoca con BIOS custom, scheda diversa lo so

Core: 1581 mhz
Mem: 8.0 ghz

2447 punti su 1080p extreme superposition

Daily tenuta a 1535 senza problemi, potrei salire con le memorie ancora qualcosina.

Il base clock era 1050 MHz, ovviamente le custom uscivano già più alte

Ubro92
12-08-2022, 18:22
Il chippone era più tosto da tenere su, ma in gran parte dipende dal silicio.

Io prima della 980ti avevo la 970 Strix quella con singolo connettore 8pin ed era cappata a 1.212, oltre i 1506mhz non andava, però rispetto i 1253mhz di fabbrica con l'OC ho guadagnato +250mhz che è il 20% esatto.

La 980ti già partiva spinta da 1430mhz in boost e l'oc è marginale, cioè puoi anche portarla a 1500-1525 cercando di ottimizzare al meglio, ma guadagni poco e nulla e qualunque mhz oltre i 1500 lo paghi in watt e calore, a 1550mhz e 1.25v sei a oltre 350w.

Diciamo che le custom di fine serie di Maxwell hanno spremuto per bene le GPU, già di fabbrica avevano clock molto vicini al muro di efficienza di Maxwell, in sostanza non è molto diverso da quello che stiamo vedendo ora.

devil_mcry
12-08-2022, 18:30
Il chippone era più tosto da tenere su, ma in gran parte dipende dal silicio.

Io prima della 980ti avevo la 970 Strix quella con singolo connettore 8pin ed era cappata a 1.212, oltre i 1506mhz non andava, però rispetto i 1253mhz di fabbrica con l'OC ho guadagnato +250mhz che è il 20% esatto.

La 980ti già partiva spinta da 1430mhz in boost e l'oc è marginale, cioè puoi anche portarla a 1500-1525 cercando di ottimizzare al meglio, ma guadagni poco e nulla e qualunque mhz oltre i 1500 lo paghi in watt e calore, a 1550mhz e 1.25v sei a oltre 350w.

Diciamo che le custom di fine serie di Maxwell hanno spremuto per bene le GPU, già di fabbrica avevano clock molto vicini al muro di efficienza di Maxwell, in sostanza non è molto diverso da quello che stiamo vedendo ora.

anche la mia 970 faceva i 1500+ in OC, gran scheda
non come ora che partono da 2000 e arrivano a 2100 :D

mikael84
12-08-2022, 18:57
Potrebbero anche farla a 224bit :sofico:

JHH può fare tutto, anche tagliarti un canale completo. :D

msi 1080 vs msi 980ti asic 95 (https://www.3dmark.com/compare/spy/4234700/spy/543078#)

Non è un problema per JHH. Può anche buttarti giù un canale intero volendo.:p

il mio +34% me lo so preso, per pareggiarla a quanto dovevi mettere la 980ti a 1600 avresti avuto un incremento di clock dell 11% e non penso che guadagnavi 34% performance

Beh, a pari microarchitettura, clock, cc (soprattutto) e stadi vari è la regola.
Se una sta a 2050 e l'altra a 1430...

Anche se prima con i vecchi opengl c'erano alcune anomalie, ma parliamo di anomalie, dove primeggiava perfino kepler. :D

Cmq, hanno aggiornato anche la AMD, da prendere con le pinze. Anche se, i 15k della 4080 dopo l'ultimo declassamento li vedo piuttosto difficili. in virtù del fatto che il clock pare essere più sui 2,8 che sui 3 (salvo le custom).
https://i.postimg.cc/TYp80K8D/test-2.png

bonzoxxx
12-08-2022, 19:48
Ellapeppa, tutto sto salto!?!?

bonzoxxx
12-08-2022, 21:50
a sto punto la mia idea di vendere la 3080 si rafforza..

Ale55andr0
12-08-2022, 23:10
Pandemia per indicare tutto il pacchetto di concause che hanno fatto levitare i prezzi.

Inoltre anche la pandemia e relativi lockdown hanno influito, tieni presente che lavorando da casa in tanti hanno assemblato desktop, acquistato notebook, tablet... alzando la domanda, oltre a coloro che essendo impossibilitati a uscire si sono dati come hobby l'elettronica di consumo.

si ma per fare lavori d'ufficio a casa non ti serve una 3080 :asd:

Se non è LHR allora puoi ancora sperare che risalga di valore con la prossima ondata di miners/guerra mondiale/covid variante omega etc...

non è LHR ma per allora faccio in tempo a crepare

Ubro92
12-08-2022, 23:16
si ma per fare lavori d'ufficio a casa non ti serve una 3080 :asd:



non è LHR ma per allora faccio in tempo a crepareDipende da che lavoro fai, e non vorrei dire ma in quel periodo una 1030 la pagavi 200€, persino le gt 710 avevano raggiunto soglie di 100€ e passa 🤣

Per tantissimi le apu sono state una manna dal cielo, ma anche le CPU con igp hanno avuto rincari importanti... Guarda ora i prezzi di 5600g/5700g praticamente li regalano.

Per non parlare dei notebook, un anno fa nella fascia dei 500€ ci trovavi celeron e athlon, ora 5500u/5700u...

Inviato dal mio M2012K11AG utilizzando Tapatalk

mikael84
12-08-2022, 23:59
Ellapeppa, tutto sto salto!?!?

Dopo Pascal, abbiamo un salto drastico di PP. 10nm samsung 3° gen (8lpp) vs 5nm mod di TSMC.

WarSide
13-08-2022, 00:29
Sognare e' bello.

Ma la realta' e' che Maxwell e' stata l'ultima gen con volumi discreti alla release.

Ora, tra mining e gpu con chip grossi come padelle non si hanno piu certo i volumi di una volta, ergo non avverra' mai e poi mai che avremo volumi e prezzi decenti per i primi 6/12 mesi.

Chi si comprera' Ampere, specie usate, scontate nei prossimi mesi fara' un buon affare lato prestazioni/prezzo che secondo me non si vedra' per un bel po.

Non è così. Nvidia ha oltremodo sovrastimato la domanda delle nuove schede (se fossi un investor nvidia farei una bella class action, dato che hanno continuato imperterriti a dire che il reparto gaming era esploso non a causa del mining) prenotando più linee di produzione di quelle effettivamente necessarie a TSMC.
Nvidia ha anche provato a "restituirle" a TSMC per non usarle, ma gli han risposto picche, quindi questa volta ci sarà più offerta che domanda. Gli scalper si mettano l'anima in pace. :D :D :D

Aggiungo che, con questi salti prestazionali, le 3xxx si svaluteranno un bel po' ed il mercato dell'usato sarà invaso. Quindi molti compreranno una 3xxx invece delle 4000.

fraussantin
13-08-2022, 06:55
Non è così. Nvidia ha oltremodo sovrastimato la domanda delle nuove schede (se fossi un investor nvidia farei una bella class action, dato che hanno continuato imperterriti a dire che il reparto gaming era esploso non a causa del mining) prenotando più linee di produzione di quelle effettivamente necessarie a TSMC.

Nvidia ha anche provato a "restituirle" a TSMC per non usarle, ma gli han risposto picche, quindi questa volta ci sarà più offerta che domanda. Gli scalper si mettano l'anima in pace. :D :D :D



Aggiungo che, con questi salti prestazionali, le 3xxx si svaluteranno un bel po' ed il mercato dell'usato sarà invaso. Quindi molti compreranno una 3xxx invece delle 4000.In ogni caso è ottimo , ma io prima di aver visto la scheda e poi nel caso averla comprata non vendo niente xD.

Tanto finche non esce la 4070 le 3080\s\ti\ non dovrebbero svalutarsi troppo.

Sempre se poi Nvidia non si inventa qualcos'altro per far salire la domanda o decide di investire quel silicio in altro.

Thunder-74
13-08-2022, 08:28
JHH può fare tutto, anche tagliarti un canale completo. :D



Beh, a pari microarchitettura, clock, cc (soprattutto) e stadi vari è la regola.
Se una sta a 2050 e l'altra a 1430...

Anche se prima con i vecchi opengl c'erano alcune anomalie, ma parliamo di anomalie, dove primeggiava perfino kepler. :D

Cmq, hanno aggiornato anche la AMD, da prendere con le pinze. Anche se, i 15k della 4080 dopo l'ultimo declassamento li vedo piuttosto difficili. in virtù del fatto che il clock pare essere più sui 2,8 che sui 3 (salvo le custom).
https://i.postimg.cc/TYp80K8D/test-2.png


Se ci mettiamo che i 15k della 4080 sono in dubbio, King Kong per la 4090. Mannaggia alla miseriaccia :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

Ubro92
13-08-2022, 08:50
Se ci mettiamo che i 15k della 4080 sono in dubbio, King Kong per la 4090. Mannaggia alla miseriaccia :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

Ma aldilà dello score leakkato che comunque è relativo visto che è un numero troppo preciso, non credo che la 4080 vada oltre un 25% da 3090/3090ti/4070.

Per chi ha GA102 pompato aspetterei la 4080ti francamente.

Lucageo
13-08-2022, 08:57
Attenzione, non dobbiamo commetere gli stessi errori di valutazione fatti quando c'è stato il passaggio dalla serie 2000 alla 3000.
Le considerazioni si faranno dati alla mano, non correre all'impazzata a vendere le vecchie, si fa per dire, schede ma ponderare bene le scelte.
Ricordiamoci che in ordine di presentazione e di vendita ci saranno subito le top di gamma (4090) più costose e poi le schede più vendibili (4080/4070/4060) a prezzi più umani.
Con le tempistiche parliamo di Ottobre/Novembre per le 4090 e probabilmente di Gennaio/Febbraio per le 4080 e varie...
Meglio investire sulle nuove CPU serie K (Raptor Lake) e le nuove Core-X (Sapphire Rapids) per gli HEDT.

eXeS
13-08-2022, 09:44
Dipende da che lavoro fai, e non vorrei dire ma in quel periodo una 1030 la pagavi 200€, persino le gt 710 avevano raggiunto soglie di 100€ e passa 🤣

Personalmente a questa cosa ho sempre fatto fatica a credere, bastava togliere la scheda dal fisso in ufficio, e installarla sul fisso a casa :D

Ubro92
13-08-2022, 10:00
Personalmente a questa cosa ho sempre fatto fatica a credere, bastava togliere la scheda dal fisso in ufficio, e installarla sul fisso a casa :D

E pure hai ragione :sofico:

Ginopilot
13-08-2022, 11:24
Non sottovalutate la stupidità dei miner.

devAngnew
13-08-2022, 11:53
Gli scalper sono sempre in agguato, ma la loro forza è l'indisponibilità di un bene, bisogna incrociare le dita sulla buona disponibilità delle GPU a scaffale.

Ma anche la produzione bassa (offerta, fa aumentare i prezzi), JHH mi sembra ci stia pensando... :sofico: anche se TSMC non ha problemi.

ste-87
13-08-2022, 11:58
Non è così. Nvidia ha oltremodo sovrastimato la domanda delle nuove schede (se fossi un investor nvidia farei una bella class action, dato che hanno continuato imperterriti a dire che il reparto gaming era esploso non a causa del mining) prenotando più linee di produzione di quelle effettivamente necessarie a TSMC.
Nvidia ha anche provato a "restituirle" a TSMC per non usarle, ma gli han risposto picche, quindi questa volta ci sarà più offerta che domanda. Gli scalper si mettano l'anima in pace. :D :D :D

Aggiungo che, con questi salti prestazionali, le 3xxx si svaluteranno un bel po' ed il mercato dell'usato sarà invaso. Quindi molti compreranno una 3xxx invece delle 4000.

speriamo sia così, c'è davvero bisogno che le cose tornino parecchio alla normalità

Ubro92
13-08-2022, 12:08
Ma anche la produzione bassa (offerta, fa aumentare i prezzi), JHH mi sembra ci stia pensando... :sofico: anche se TSMC non ha problemi.

Ma oramai gli ordini a TSMC li ha fatti, quindi vuole o non vuole vanno sfornati i chip XD

mikael84
13-08-2022, 12:32
Se ci mettiamo che i 15k della 4080 sono in dubbio, King Kong per la 4090. Mannaggia alla miseriaccia :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

Più che in dubbio.:)
Mediamente i leak ci portano sui 2,8 (che tabella PP alla mano, sono raggiungibili, dove avranno rivisto anche il circuito), ed applicandoli alla 4070 a livello teorico siamo mediamente a livello delle 3090/ti.

La 4090 avrebbe un ratio di ben 90TF vs 38 di una 3090 stock (136%).
Un 80% ci può stare, loro dicono 90 e vabbè, ci sono vari fattori.
Esempio, tra 3090 e 3060ti ci passa il 100-105% flops, e circa 65%.

Discorso 4080, no non ci siamo, c'è solo il 26% di ALU e relativi flops a pari clock, troppo poco.

Ieri sono usciti pure i leak più concreti su AMD e pare ci sia una variante con 80mb di l3 (320bit), questo significa che anche JHH lancerà una 4080ti su tali specifiche.:)

Ale55andr0
13-08-2022, 14:02
Aggiungo che, con questi salti prestazionali, le 3xxx si svaluteranno un bel po' ed il mercato dell'usato sarà invaso. Quindi molti compreranno una 3xxx invece delle 4000.


Dipende, chi ha una 3000 e la vede svalutata oltremodo può sempre tenersela e usarla fino alla ruggine che dare via il :ciapet: a un affarista....non è che se non svendi non puoi cmq prendere una 4000 e tenere la 3000

WarSide
13-08-2022, 14:10
Dipende, chi ha una 3000 e la vede svalutata oltremodo può sempre tenersela e usarla fino alla ruggine che dare via il :ciapet: a un affarista....non è che se non svendi non puoi cmq prendere una 4000 e tenere la 3000

Ci sono tanti miner e tanti professionisti che le venderanno. Io sto pensando di vendere la 3080 se le 4000 saranno potenti come dicono.

Di un FPS in più non me ne faccio nulla. Ridurre del 30% o più i tempi di generazione di un modello potrebbe portarmi a risparmi di tempo e denaro (=elettricità). Ci sono modelli che richiedono anche vari giorni per essere completati. Un 30 o 50% in meno di tempo necessario non è poca roba :oink: :oink: :oink:

Ma se i prezzi delle 4xxx saranno assurdi, potrei anche pensare di comprare un'altra 3080 (soprattutto se in saldo). Per fortuna i miei workload possono essere parallelizzabili :)

mikael84
13-08-2022, 15:25
Dipende, chi ha una 3000 e la vede svalutata oltremodo può sempre tenersela e usarla fino alla ruggine che dare via il :ciapet: a un affarista....non è che se non svendi non puoi cmq prendere una 4000 e tenere la 3000

JHH ha già i codici delle 6000. Lo sai che dalla prossima gen, con una densità di solo 1,5x (3nmE) vs i 5nm (4n) la 4080 diventa un chip da 250mm2 con + 15-18% di perf. (che diventano almeno 25 per chip full), solo shrinkando.:)

Non solo, se la x70 prende sempre i top chip della precedente generazione, tra 2 anni aspettati una 5070 simil 4090.

Ci sono tanti miner e tanti professionisti che le venderanno. Io sto pensando di vendere la 3080 se le 4000 saranno potenti come dicono.

Di un FPS in più non me ne faccio nulla. Ridurre del 30% o più i tempi di generazione di un modello potrebbe portarmi a risparmi di tempo e denaro (=elettricità). Ci sono modelli che richiedono anche vari giorni per essere completati. Un 30 o 50% in meno di tempo necessario non è poca roba :oink: :oink: :oink:

Ma se i prezzi delle 4xxx saranno assurdi, potrei anche pensare di comprare un'altra 3080 (soprattutto se in saldo). Per fortuna i miei workload possono essere parallelizzabili :)

Le perf, saranno elevate, oltre al PP, per la concorrenza agguerrita, basti vedere come si stanno scannando in ambiti CPU.
Lisa non sta a guardare con 12288 shader vs i 5120 di prima. Lo stesso nelle CPU, intel spara i clock grazie alla logica dei p core, AMD va oltre i 5nm che prendono il 15% di clock ed eleva il MT a clock ben più alti andando oltre i vecchi TDP.

In concorrenza non ci sarà più intel con più 5% IPC o nvidia con il 40% a gen.:)

Ubro92
13-08-2022, 18:07
Io spero anche per la bassa fascia ci siano finalmente schede nuove che ho dei amici che stanno ancora con una una 970 o 1050.

Quelle saranno le ultimissime ad arrivare, schede come 4060 e 4050 non è cosi assurdo che arrivino a metà 2023...

devAngnew
13-08-2022, 18:08
Ma oramai gli ordini a TSMC li ha fatti, quindi vuole o non vuole vanno sfornati i chip XD

Il problema è che avendo le proiezioni attuali in ambito gaming non rosee potrebbe avre fatto pochi ordini :(

Cmq AMD sarà alla gamescom possibile che nvidia non ci sarà ? Ricordo che furono presentatele 2080 ? O mi son perso qualche notizia ? :D

Ubro92
13-08-2022, 18:16
AMD dovrebbe presentare i Ryzen 7000, quindi ha senso la sua presenza.

Nvidia per la 4090 penso presenterà qualcosa verso fine settembre o ottobre, non credo abbia nulla da mostrare al gamescom.

mikael84
13-08-2022, 18:21
Io spero anche per la bassa fascia ci siano finalmente schede nuove che ho dei amici che stanno ancora con una una 970 o 1050.

I chip ci sono AD106-AD107, dopo la x70 debutterà AD106 con la 4060 e performance da GA104 full, che prenderà il posto in fascia bassa. A seguire le versioni TI, come la 4060ti (perf, almeno da 3080/12 in base al taglio).
La 4050, arriverà più avanti, ed è quella che ormai ha sostituito la x60 sui 2-279$.
Con le proposte di Intel, è probabile che a sto giro ci sia movimento anche prima.

mikael84
13-08-2022, 18:28
Il problema è che avendo le proiezioni attuali in ambito gaming non rosee potrebbe avre fatto pochi ordini :(

Cmq AMD sarà alla gamescom possibile che nvidia non ci sarà ? Ricordo che furono presentatele 2080 ? O mi son perso qualche notizia ? :D

Non ci sarà neppure AMD, la gamescon finisce il 28, AMD presenta il 29. Sarà un altro evento.:)

Ubro92
13-08-2022, 18:32
Non ci sarà neppure AMD, la gamescon finisce il 28, AMD presenta il 29. Sarà un altro evento.:)

A esserci ci sarà:

https://www.amd.com/en/events/gamescom-2022

Però vero che i ryzen saranno presentati il 29 in un altro evento.

Thunder-74
13-08-2022, 18:59
JHH ha già i codici delle 6000. Lo sai che dalla prossima gen, con una densità di solo 1,5x (3nmE) vs i 5nm (4n) la 4080 diventa un chip da 250mm2 con + 15-18% di perf. (che diventano almeno 25 per chip full), solo shrinkando.:)

Non solo, se la x70 prende sempre i top chip della precedente generazione, tra 2 anni aspettati una 5070 simil 4090.



Le perf, saranno elevate, oltre al PP, per la concorrenza agguerrita, basti vedere come si stanno scannando in ambiti CPU.
Lisa non sta a guardare con 12288 shader vs i 5120 di prima. Lo stesso nelle CPU, intel spara i clock grazie alla logica dei p core, AMD va oltre i 5nm che prendono il 15% di clock ed eleva il MT a clock ben più alti andando oltre i vecchi TDP.

In concorrenza non ci sarà più intel con più 5% IPC o nvidia con il 40% a gen.:)


Quanto mi piace la seconda parte del tuo post :fagiano: . Ricordatemi una cosa. NVidia al lancio della prima vga , menziona di solo le prestazioni di altri modelli che verranno lanciati a seguire, o parlerà solamente del modello lanciato? Per capire se ci riusciremo a fare un idea da subito della 4080 direttamente dalla bocca di Giacchetta.


Inviato dal mio iPhone X utilizzando Tapatalk

Ubro92
13-08-2022, 20:01
Si ma se saranno sotto i 300 euro ok se no penso che rimarranno con quelle schede ancora per un po.

Considera che già ora la 3060ti la trovi sotto i 500€ cosi come la 3060 la trovi sotto i 400€, anche lato AMD i prezzi sono già interessanti, una rx 6600 la trovi anche a 300€ e non è che abbia molto da invidiare alla 3060, cosi come la RX 6700xt si trova facilmente intorno ai 500€ oramai.

Con l'uscita delle intel che andranno a tallonare il target 3060/3060ti sicuro vedrai altre riduzioni.

Vinxi
13-08-2022, 20:10
Ragazzi scusate la domanda, ma parlando del mercato italiano, quando pensate che troveremo disponibili le 4070 potendole comprare più lenti di un bot?

Ho un'antica :D 770 e sto riflettendo se prendere una 3070 o aspettare ancora altri mesi per una 4070.

Grazie

fraussantin
13-08-2022, 20:26
Ma sono uscite la date? Perche la 3070 ho paura che uscirà a natale

Vinxi
13-08-2022, 20:29
No, nessuna data, chiedo a voi che sicuramente avete più esperienza di me.

Ovviamente nei mercati USA tutti gridano ad Ottobre/Novembre, ma poi volevo più o meno capire che stima c'è nel nostro di mercato, scalper permettendo.

Ale55andr0
13-08-2022, 20:30
Ragazzi scusate la domanda, ma parlando del mercato italiano, quando pensate che troveremo disponibili le 4070 potendole comprare più lenti di un bot?

Ho un'antica :D 770 e sto riflettendo se prendere una 3070 o aspettare ancora altri mesi per una 4070.

Grazie

Ti IMPONGO di non prendere quel roito immondo della 3070. 8gb di scheda oggi è da babbei

Vinxi
13-08-2022, 20:32
Ti IMPONGO di non prendere quel roito immondo della 3070. 8gb di scheda oggi è da babbei

Premesso che ti ringrazio per il consiglio, il solo problema è che non gioco da un paio d'anni :D
Con la 770 oramai non gira quasi più nulla, se si tratta di attendere ipoteticamente Natale, va bene, ma se parliamo di Marzo/Aprile 2023 :cry:

Ubro92
13-08-2022, 20:50
Premesso che ti ringrazio per il consiglio, il solo problema è che non gioco da un paio d'anni :D
Con la 770 oramai non gira quasi più nulla, se si tratta di attendere ipoteticamente Natale, va bene, ma se parliamo di Marzo/Aprile 2023 :cry:

Con la 3060ti risparmi 100-150€ e alla fine hai solo il 15% meno di prestazioni se devi acquistare ora, cercherei il miglior compromesso prezzo/prestazioni.

Però se puoi attendere qualche mese, aspetta l'uscita delle intel che potrebbero aiutare a ridurre i prezzi.


https://tpucdn.com/review/nvidia-geforce-rtx-3060-ti-founders-edition/images/relative-performance_2560-1440.png

fraussantin
13-08-2022, 20:54
Io adesso on andrei sotto la 3080. Specialmente per un ottica futura

Poi quel che sarà non possiamo saperlo.

Ubro92
13-08-2022, 21:00
Io adesso on andrei sotto la 3080. Specialmente per un ottica futura

Poi quel che sarà non possiamo saperlo.

Ma la 3080 costa da 800€ a salire, in ottica futura è un chip destinato a pesante svalutazione... Una 3060ti alla peggio la rivende e la perdita è molto minore :fagiano:
Poi considerando che parte da una 770, immagino che ha un enorme bagaglio di titoli da recuperare.

Vinxi
13-08-2022, 21:03
Ringrazio ovviamente tutti.

Come si nota dalla mia 770 :D, sono uno che generalmente non rivende e tende a tenere l'hardware per molto (troppo, speravo nel 2020) tempo.

In soldoni sarei una persona da 4070, ma se fra scalper, miners, prezzi quindi alti, rialzo dei prezzi delle 3000 perché poi sono le uniche che si trovano...

Capisco il discorso TSMC e che il mining è diminuito, ma fra uscita ritardata, mercato italiano e scenari vari, ho paura di rimanere un altro buon anno senza GPU.

Questo fermo restando che i prezzi delle xx80 e xx90 sono proibitivi per me.

Ubro92
13-08-2022, 21:11
Ringrazio ovviamente tutti.

Come si nota dalla mia 770 :D, sono uno che generalmente non rivende e tende a tenere l'hardware per molto (troppo, speravo nel 2020) tempo.

In soldoni sarei una persona da 4070, ma se fra scalper, miners, prezzi quindi alti, rialzo dei prezzi delle 3000 perché poi sono le uniche che si trovano...

Capisco il discorso TSMC e che il mining è diminuito, ma fra uscita ritardata, mercato italiano e scenari vari, ho paura di rimanere un altro buon anno senza GPU.

Questo fermo restando che i prezzi delle xx80 e xx90 sono proibitivi per me.

In quel caso allora o risparmi andando per 3060ti, o tagli la testa al toro e prendi la 3080.

La 3070 a mio parere non ha senso, non vale l'esborso in più rispetto la 3060ti e se proprio devi spendere conviene andare di 3080.

Vinxi
13-08-2022, 21:14
In quel caso allora o risparmi andando per 3060ti, o tagli la testa al toro e prendi la 3080.

La 3070 a mio parere non ha senso, non vale l'esborso in più rispetto la 3060ti e se proprio devi spendere conviene andare di 3080.

Capisco che intendi. Ma davvero la RAM della 3060ti/3070 è insufficiente oggi o in prospettiva a breve termine?
Una 3060ti riuscirà a farmi giocare per un 4-5 anni?

WarSide
13-08-2022, 21:18
Ringrazio ovviamente tutti.

In soldoni sarei una persona da 4070, ma se fra scalper, miners, prezzi quindi alti, rialzo dei prezzi delle 3000 perché poi sono le uniche che si trovano...

Capisco il discorso TSMC e che il mining è diminuito, ma fra uscita ritardata, mercato italiano e scenari vari, ho paura di rimanere un altro buon anno senza GPU.

I prezzi delle 3xxx stanno scendendo e, imho, continueranno a scendere. Non resterai un altro anno senza scheda di sicuro ;)

StylezZz`
13-08-2022, 21:19
Ti IMPONGO di non prendere quel roito immondo della 3070. 8gb di scheda oggi è da babbei

Sia chiaro, anche io avrei preferito almeno 10GB (dopo 2 gen con 8GB), ma la verità è che ''it just works'' :asd:

A 1440p è perfetta, solo Far Cry 6 crea problemi (chissà perchè...AMD ne sai qualcosa?)...ma poi chissenefrega, appena cominceranno a uscire i giochi UE5 diventerà un fermacarte, e non a causa della memoria.

Vinxi
13-08-2022, 21:20
I prezzi delle 3xxx stanno scendendo e, imho, continueranno a scendere. Non resterai un altro anno senza scheda di sicuro ;)
Nel senso che "male che vada" con le 4xxx le 3xxx si troveranno a poco da qui a qualche mese?

Ubro92
13-08-2022, 21:24
Nel senso che "male che vada" con le 4xxx le 3xxx si troveranno a poco da qui a qualche mese?

Nel senso che ogni mese ci sono lievi ribassi, poi da qui a dicembre dovrebbero uscire anche le intel, la A770 con 16GB dovrebbe avere prestazioni da 3060ti e bene o male imporsi sui 400$ quindi ci si aspetta altri ribassi da parte di amd e nvidia anche prima dell'uscita di 4060.

Inoltre vedremo come si imporrà il mercato con l'uscita di 4090 a ottobre/novembre.

Capisco che intendi. Ma davvero la RAM della 3060ti/3070 è insufficiente oggi o in prospettiva a breve termine?
Una 3060ti riuscirà a farmi giocare per un 4-5 anni?

Se non ce la fa la 3060ti non ci riesce neanche la 3070, con uno scarto del 15% non ci fai molto.
Gia se propendi per 3080 fai un boost decisamente più marcato parliamo di quasi il 40-50% in più da 3060ti.

Vinxi
13-08-2022, 21:28
Niente, mi pare di capire che la scelta più giusta sia sostanzialmente aspettare (ancora :cry: ), anche solo per considerare la 3060ti che fra qualche mese dovrebbe ancora calare di prezzo, o sentire le 4060/4070 quando escono.

Nel frattempo potrei concentrarmi su CPU/RAM/Scheda madre vista l'uscita della 13 generazione di Intel che pare più prossima. (anche lì, provengo da un 4770k :D)

fraussantin
13-08-2022, 21:42
Capisco che intendi. Ma davvero la RAM della 3060ti/3070 è insufficiente oggi o in prospettiva a breve termine?
Una 3060ti riuscirà a farmi giocare per un 4-5 anni?Dipende da quanto ti sai accontentare o quanto sei disposto ad abbassare i dettagli.

Cmq 4,5 anni sono tanti.

Ti conviene aspettare una 4070.
Ma se vedi una 4080 ad msrp ( visto che uscirà prima ) non esiterei troppo

Vinxi
13-08-2022, 21:53
Ti conviene aspettare una 4070.
Ma se vedi una 4080 ad msrp ( visto che uscirà prima ) non esiterei troppo
Se l'msrp della 4080 è 699€, tenendo presente che su Amazon ora una 3070 sta sui 700€, ci starebbe pure, ma siamo sicuri che ad Ottobre/Novembre sbarca una Gigabyte/ASUS/Qualsiasi 4080 a 700€ e la 3070 scende di botto?

Io è di questo che "ho paura", che il mercato europeo / italiano non reagisca esattamente come quello USA dove tutti sembrano pronti con i 699$ in mano a Ottobre.

Altra questione della 4080, ammesso che ci sia la combinazione, è l'alimentatore, io ho un AX860i, basterà? Anche per reggere "gli spike"?

fraussantin
13-08-2022, 22:06
Se l'msrp della 4080 è 699€, tenendo presente che su Amazon ora una 3070 sta sui 700€, ci starebbe pure, ma siamo sicuri che ad Ottobre/Novembre sbarca una Gigabyte/ASUS/Qualsiasi 4080 a 700€ e la 3070 scende di botto?

Io è di questo che "ho paura", che il mercato europeo / italiano non reagisca esattamente come quello USA dove tutti sembrano pronti con i 699$ in mano a Ottobre.

Altra questione della 4080, ammesso che ci sia la combinazione, è l'alimentatore, io ho un AX860i, basterà? Anche per reggere "gli spike"?No l'msrp sarà di 799 minimo. Imho .
Ma con quella secondo me davvero stai sereno 4,5 anni. Ue5 incluso.
Ma non si potrà mai sapere , ci sta che nvidia voglia ripercorrere il giochetto di ampere
. Più che altro metti in conto un nuovo alimentatote e eventualmente una CPU al passo se gia non hai aggiornato

Vinxi
13-08-2022, 22:10
No l'msrp sarà di 799 minimo. Imho .
Ma con quella secondo me davvero stai sereno 4,5 anni. Ie5 incluso.
Ma non si potrà mai sapere , ci sta che nvidia voglia ripercorrere il giochetto di ampere
. Più che altro metti in conto un nuovo alimentatote e eventualmente una CPU al passo se gia non hai aggiornato

Dovendo sicuramente cambiare CPU e tutti gli annessi, francamente se devo anche mettere in conto di cambiare sicuramente l'alimentatore preferisco a questo punto puntare su di una 4070 o 4060, tenermi l'alimentatore che ho, togliere 1 anno da quei 4-5 e rimandare anche il cambio alimentatore nel futuro.

Se poi il mio alimentatore non regge neanche la 4070 e la 4060 esce a febbraio/marzo davvero prendo ora una 3060ti.

Poi dipende, magari il mercato si trasforma e tutto torna a prezzi accettabili, ma se oltremanica parlano di "GPU Price Crash" io noto che i 700€ della 3070 che Amazon in Italia chiede ora venivano chiesti anche a Giugno/Luglio, sbaglio?

Per giochetto di ampere che si intende?

fraussantin
13-08-2022, 22:12
Per giochetto di ampere che si intende?

Ha fatto un msrp "basso" ma di fatto è durato 3 minuti eccetto quei pochi pezzi di FE che droppavano.

Al netto delle speculazioni , sono sempre costate mediamente 100 euro in più.

Vinxi
13-08-2022, 22:23
Comunque per la cpu non cambia tantissimo da 12 a 13 ed io ho comprato la 12 esima. Tutto dipende dal prezzo anche perchè all'inizio tutto non si trova facilmente.
Su questo non vorrei andare OT ma ho aperto un thread:
https://www.hwupgrade.it/forum/showthread.php?t=2966458
Anche perché ho dei buoni sconto su Mediaworld da utilizzare entro dicembre, e dato che non brilla per assortimento hardware starei pensando di prendere una Z690 da accoppiare ad una CPU di 12esima generazione (o 13esima prendendolo altrove quando sarà, però rischiando di non poter testare la scheda quando arriva).

Per l'alimentatore, se vecchio, va cambiato perchè si possono rompere se hanno oltre 10 anni e sono economici e li sforzi con schede grafiche energivore
Diciamo che economico proprio no, è un AX860i, all'epoca praticamente uno dei più importanti di Corsair, ed è del 2014. Chiedo da ignorante, davvero si porterà indietro qualcosa?

ste-87
13-08-2022, 22:37
Altra questione della 4080, ammesso che ci sia la combinazione, è l'alimentatore, io ho un AX860i, basterà? Anche per reggere "gli spike"?

guardando a delle prove pratiche e reali, non a calcoli fatti su basi approssimative ocalcoli di TDP astrusi, ho visto in giro alcuni sistemi con un 12900k+rtx 3090 girare tranquillamente con un 750W (ovviamente a quel punto si sceglie però un platinum per stare tranquilli)

e se non sbaglio proprio poche pagine fa ho letto di un utente del forum riportava che in uso gaming il suo sistema (sempre 12900k + 3090, se non ricordo male) in gaming restituiva un consumo medio di 530-550W dal suo alimentatore....

Thunder-74
13-08-2022, 23:01
Su questo non vorrei andare OT ma ho aperto un thread:
https://www.hwupgrade.it/forum/showthread.php?t=2966458
Anche perché ho dei buoni sconto su Mediaworld da utilizzare entro dicembre, e dato che non brilla per assortimento hardware starei pensando di prendere una Z690 da accoppiare ad una CPU di 12esima generazione (o 13esima prendendolo altrove quando sarà, però rischiando di non poter testare la scheda quando arriva).


Diciamo che economico proprio no, è un AX860i, all'epoca praticamente uno dei più importanti di Corsair, ed è del 2014. Chiedo da ignorante, davvero si porterà indietro qualcosa?


Il mio AX860i dopo tre mesi di uso, si ruppe portandosi dietro la mobo . Per questo non prendo in considerazione i Corsair. Mi fu cambiato a costo zero (pagai solo le spese di spedizione) e lo vendetti sigillato appena mi arrivò


Inviato dal mio iPhone X utilizzando Tapatalk

Ale55andr0
13-08-2022, 23:02
Premesso che ti ringrazio per il consiglio, il solo problema è che non gioco da un paio d'anni :D
Con la 770 oramai non gira quasi più nulla, se si tratta di attendere ipoteticamente Natale, va bene, ma se parliamo di Marzo/Aprile 2023 :cry:

resisti per l'amor del cielo! la ho io la 3070, non ho motivo di fuorviarti: non prendere questo aborto

Ringrazio ovviamente tutti.

Come si nota dalla mia 770 :D, sono uno che generalmente non rivende e tende a tenere l'hardware per molto (troppo, speravo nel 2020) tempo.

In soldoni sarei una persona da 4070, ma se fra scalper, miners, prezzi quindi alti, rialzo dei prezzi delle 3000 perché poi sono le uniche che si trovano...

Capisco il discorso TSMC e che il mining è diminuito, ma fra uscita ritardata, mercato italiano e scenari vari, ho paura di rimanere un altro buon anno senza GPU.

Questo fermo restando che i prezzi delle xx80 e xx90 sono proibitivi per me.


a maggior ragione NON prendere quella porcata della 3070 :read:

davide155
13-08-2022, 23:06
guardando a delle prove pratiche e reali, non a calcoli fatti su basi approssimative ocalcoli di TDP astrusi, ho visto in giro alcuni sistemi con un 12900k+rtx 3090 girare tranquillamente con un 750W (ovviamente a quel punto si sceglie però un platinum per stare tranquilli)

e se non sbaglio proprio poche pagine fa ho letto di un utente del forum riportava che in uso gaming il suo sistema (sempre 12900k + 3090, se non ricordo male) in gaming restituiva un consumo medio di 530-550W dal suo alimentatore....

Io col pc in firma, 12900k pesantemente occato, e la 3090 in downvolt ho un consumo di 650w massimo nei giochi e 110w in idle.
Ovviamente parlo di consumo a monte, cioè tutto il pc. La presa al muro per intenderci, quindi compreso di 3 ssd, 2 hdd, aquaero, pompa del liquido custom e 7 ventole.

Comunque il mio consiglio è di buttarsi su una ampere usata se si vuole dormire sereni senza mangiarsi il fegato nuovamente a ottobre. Si riesce a risparmiare svariati euro, e se si prende una vga di pochi mesi, siamo sicuri che non è stata usata per minare. Tanto comunque le 4000 avranno le stesse identiche peculiarità delle 3000, solo un pò di potenza in più. Ma quello che faranno le Lovelace, lo faranno anche le Ampere (dlss, ldsr, tensor core, rt core ecc).

Ubro92
13-08-2022, 23:21
Immagino ma per loro vogliono un cambiamento notevole tra la 1050 e 970 a 300 euro in giu però :)

Sui 300€ attualmente il best buy è la RX 6600 liscia, rispetto la 970 è praticamente un 2x di prestazioni:

https://tpucdn.com/review/powercolor-radeon-rx-6600-fighter/images/relative-performance_1920-1080.png

Vinxi
13-08-2022, 23:32
Continuando a ringraziare tutti faccio una riflessione / sfogo molto ignorante ai limiti dell'OT.

Capisco che non faccio upgrade dal 2014, ma non credo che si debba andare molto lontano come ultimo upgrade per dire che effettivamente "tutto questo stress" fra uscite, rumors, miners, scalpers, msrp "truccati", veramente tozza molto con una console a 500€ (per non dire la Xbox S a 250€) che magari con 150-200W e un pezzo unico ti fa giocare con un "gamepass" di 10€.

A conti fatti un "aborto" come una 3070 oggi costa 700€, l'msrp di una 4080, se tutto va bene, sarà 800€, una 4070 quindi sarà quanto, 600€?

Se poi devi accoppiare CPU/RAM/Scheda madre e probabilmente PSU (dubito che tutti abbiamo 700+W, e in molti si sono lamentati già del taglio dei processori 8th da Windows 11), veramente ci si domanda il come, almeno io. Questo tenendo presente che giocando, soprattutto oggigiorno, accendi un mostro magari di 5-600W per ore di gioco.

La 770 io la comprai a 350€, bei tempi veramente, stesso prezzo se non erro del 4770k.
Oggi con 350€ compri l'adesivo della 3060, con cui certamente non fai i 4-5 anni di una 4080, il 12700 si trova a 450-500€.

Sicuramente sbaglio qualcosa, anche se gioco su PC con alti e bassi dal '96, magari il 4770k + 770 oggi sarebbe un i5 e una 3060, però me lo domando.

mikael84
14-08-2022, 00:01
Quanto mi piace la seconda parte del tuo post :fagiano: . Ricordatemi una cosa. NVidia al lancio della prima vga , menziona di solo le prestazioni di altri modelli che verranno lanciati a seguire, o parlerà solamente del modello lanciato? Per capire se ci riusciremo a fare un idea da subito della 4080 direttamente dalla bocca di Giacchetta.


Inviato dal mio iPhone X utilizzando Tapatalk

Bella domanda con questo lancio frazionato. Di certo svelerà tutto ufficialmente, ed avremmo le idee più chiare, ma se manderà le classiche slide 1 settimana prima il lancio non si sa.:)


Il mio AX860i dopo tre mesi di uso, si ruppe portandosi dietro la mobo . Per questo non prendo in considerazione i Corsair. Mi fu cambiato a costo zero (pagai solo le spese di spedizione) e lo vendetti sigillato appena mi arrivò


Inviato dal mio iPhone X utilizzando Tapatalk

EVGA mi dovrebbe una mazzetta, nella moria dei corsair, ho consigliato a tutti la nascente EVGA che montava i superflowers.:) :p

amon.akira
14-08-2022, 00:08
Continuando a ringraziare tutti faccio una riflessione / sfogo molto ignorante ai limiti dell'OT.

Capisco che non faccio upgrade dal 2014, ma non credo che si debba andare molto lontano come ultimo upgrade per dire che effettivamente "tutto questo stress" fra uscite, rumors, miners, scalpers, msrp "truccati", veramente tozza molto con una console a 500€ (per non dire la Xbox S a 250€) che magari con 150-200W e un pezzo unico ti fa giocare con un "gamepass" di 10€.

A conti fatti un "aborto" come una 3070 oggi costa 700€, l'msrp di una 4080, se tutto va bene, sarà 800€, una 4070 quindi sarà quanto, 600€?

Se poi devi accoppiare CPU/RAM/Scheda madre e probabilmente PSU (dubito che tutti abbiamo 700+W, e in molti si sono lamentati già del taglio dei processori 8th da Windows 11), veramente ci si domanda il come, almeno io. Questo tenendo presente che giocando, soprattutto oggigiorno, accendi un mostro magari di 5-600W per ore di gioco.

La 770 io la comprai a 350€, bei tempi veramente, stesso prezzo se non erro del 4770k.
Oggi con 350€ compri l'adesivo della 3060, con cui certamente non fai i 4-5 anni di una 4080, il 12700 si trova a 450-500€.

Sicuramente sbaglio qualcosa, anche se gioco su PC con alti e bassi dal '96, magari il 4770k + 770 oggi sarebbe un i5 e una 3060, però me lo domando.

be un i7 12700k costa oggi 425euro, ma mesi fa spesso e volentieri l ho visto anche a 380, diciamo 400 è il suo prezzo. quindi un +50 rispetto al 4770k 2013

la 3070 ufficialmente dovrebbe costare 499$ vs i 399$ della 770 nel 2013 dai dopo 10anni 100dollari se ci pensi ci è andata anche bene :P

Vinxi
14-08-2022, 00:14
be un i7 12700k costa oggi 425euro, ma mesi fa spesso e volentieri l ho visto anche a 380, diciamo 400 è il suo prezzo. quindi un +50 rispetto al 4770k 2013

la 3070 ufficialmente dovrebbe costare 499$ vs i 399$ della 770 nel 2013 dai dopo 10anni 100dollari se ci pensi ci è andata anche bene :P

Riguardo il 12700k questo sarebbe l'andamento di Amazon
https://keepa.com/#!product/8-B09GYJ5P98
a occhio mi pare in media sui 470€. Se mi dici dove a 380 mi fai un piacere :D

Sicuramente le GPU sono quelle che "rompono di più l'incantesimo", il discorso è che attualmente come diceva fraussantin nessuno ci può assicurare che Nvidia non faccia il giochino degli ampere, quindi una 4070 a 499€ non ce l'assicura nessuno, e a conti fatti mentre le console, non sempre altrettanto in stock, rimanevano bene o male a 500€, le GPU 3000, quando in stock, hanno avuto i prezzi che conosciamo.

Se questo trend da 2/3 anni a questa parte continua, con il sale dell'inflazione messo sopra, gli msrp sono veramente favolette.

amon.akira
14-08-2022, 00:18
Riguardo il 12700k questo sarebbe l'andamento di Amazon
https://keepa.com/#!product/8-B09GYJ5P98
a occhio mi pare in media sui 470€. Se mi dici dove a 380 mi fai un piacere :D

Sicuramente le GPU sono quelle che "rompono di più l'incantesimo", il discorso è che attualmente come diceva fraussantin nessuno ci può assicurare che Nvidia non faccia il giochino degli ampere, quindi una 4070 a 499€ non ce l'assicura nessuno, e a conti fatti mentre le console, non sempre in stock, rimanevano bene o male a 500€, le GPU 3000, quando in stock, hanno avuto i prezzi triplicati. Se questo trend continua gli msrp sono veramente favolette.

il classico bpm, che sulle cpu è abbastanza forte come prezzi ma ora sta 430 quindi e in ottica raptorlake tra 2mesi non conviene imho

la ps5 digital ancora tuttoggi da 399 costa 670€ insomma dai meglio non tirare in ballo il discorso console

Vinxi
14-08-2022, 00:36
la ps5 digital ancora tuttoggi da 399 costa 670€ insomma dai meglio non tirare in ballo il discorso console

No infatti chiudo questa sottospecie di OT, fermo restando che ho visto tante persone comprare con un po' di pazienza la series X ai suoi 500€ sui semplici Amazon/Mediaworld.

Fermo restando che stiamo sempre paragonando un pezzo unico di 670€ ad una scheda video "aborto" che ne costa, da sola, 700€.

Va bene l'esperienza di costruirselo da solo, va bene la retrocompatibilità infinita, la possibilità di farci di tutto, il benchmarking e gli effetti visivi in più, ma "per la massa" sempre a Red Dead Redemption 2, Fifa 23 o a Far Cry 6 si sta giocando.

Se davvero era tutta colpa di miners e questi stanno crollando, mi domando se davvero Nvidia ce la farà a vendere così tanto a quei prezzi. Ma ripeto, sbaglierò io qualcosa.

amon.akira
14-08-2022, 00:40
No infatti chiudo questa sottospecie di OT, fermo restando che ho visto tante persone comprare con un po' di pazienza la series X ai suoi 500€ sui semplici Amazon/Mediaworld.

Fermo restando che stiamo sempre paragonando un pezzo unico di 670€ ad una scheda video "aborto" che ne costa, da sola, 700€.

Va bene l'esperienza di costruirselo da solo, va bene la retrocompatibilità infinita, la possibilità di farci di tutto, il benchmarking e gli effetti visivi in più, ma "per la massa" sempre a Red Dead Redemption 2, Fifa 23 o a Far Cry 6 si sta giocando.

Se davvero era tutta colpa di miners e questi stanno crollando, mi domando se davvero Nvidia ce la farà a vendere così tanto a quei prezzi. Ma ripeto, sbaglierò io qualcosa.

se vuoi giocare come le console una 3060ti è grasso che cola, già cosi le owni abbastanza :)

mikael84
14-08-2022, 01:07
No infatti chiudo questa sottospecie di OT, fermo restando che ho visto tante persone comprare con un po' di pazienza la series X ai suoi 500€ sui semplici Amazon/Mediaworld.

Fermo restando che stiamo sempre paragonando un pezzo unico di 670€ ad una scheda video "aborto" che ne costa, da sola, 700€.

Va bene l'esperienza di costruirselo da solo, va bene la retrocompatibilità infinita, la possibilità di farci di tutto, il benchmarking e gli effetti visivi in più, ma "per la massa" sempre a Red Dead Redemption 2, Fifa 23 o a Far Cry 6 si sta giocando.

Se davvero era tutta colpa di miners e questi stanno crollando, mi domando se davvero Nvidia ce la farà a vendere così tanto a quei prezzi. Ma ripeto, sbaglierò io qualcosa.

Ma guarda che la scheda video di quella console per "la massa "costa 3/400 euro (le 6600), non c'è bisogno di spendere 700 euro.
6600 liscia 300 euro nuova e via.

fraussantin
14-08-2022, 04:38
Su questo non vorrei andare OT ma ho aperto un thread:
https://www.hwupgrade.it/forum/showthread.php?t=2966458
Anche perché ho dei buoni sconto su Mediaworld da utilizzare entro dicembre, e dato che non brilla per assortimento hardware starei pensando di prendere una Z690 da accoppiare ad una CPU di 12esima generazione (o 13esima prendendolo altrove quando sarà, però rischiando di non poter testare la scheda quando arriva).


Diciamo che economico proprio no, è un AX860i, all'epoca praticamente uno dei più importanti di Corsair, ed è del 2014. Chiedo da ignorante, davvero si porterà indietro qualcosa?Per la cpu potresti anche valutare un 5800x una buona b550 e 32 giga ddr4 bdie 3600c16.

Ora come ora te li tirano dietro .
Vero che esce tutto nuovo , ma spenderesti il doppio , e secondo me non ha molto senso.

Per gli alimentatori c'è da capire come verrà gestito il connettore nuovo , ma tutti speriamo che sia solo un optional. In ogni caso non andrei sotto un 850 anche ae punti sulla fascia media


Ps viste le previsioni sul 7nm tsmc che prenderà polvere nei prossimi mesi ( e le consegne di steam deck ne sono la prova ) per cortesia, non FATE CAZZATE ( :asd:) .
Le ps5 imho entro pochi mesi ( max 2023) si troveranno a sconto con 2 casse di birra omaggio.

StylezZz`
14-08-2022, 09:32
Come si nota dalla mia 770 :D, sono uno che generalmente non rivende e tende a tenere l'hardware per molto (troppo, speravo nel 2020) tempo

La 770 che hai attualmente è la versione da 2GB o 4GB? Giochi a 1080p?

Se non hai grandi pretese una 3070 andrà bene anche per i prossimi 4/5 anni, quindi se la trovi a prezzo msrp io la prenderei, di più no.

craesilo
14-08-2022, 09:48
Continuando a ringraziare tutti faccio una riflessione / sfogo molto ignorante ai limiti dell'OT.

Capisco che non faccio upgrade dal 2014, ma non credo che si debba andare molto lontano come ultimo upgrade per dire che effettivamente "tutto questo stress" fra uscite, rumors, miners, scalpers, msrp "truccati", veramente tozza molto con una console a 500€ (per non dire la Xbox S a 250€) che magari con 150-200W e un pezzo unico ti fa giocare con un "gamepass" di 10€.

A conti fatti un "aborto" come una 3070 oggi costa 700€, l'msrp di una 4080, se tutto va bene, sarà 800€, una 4070 quindi sarà quanto, 600€?

Se poi devi accoppiare CPU/RAM/Scheda madre e probabilmente PSU (dubito che tutti abbiamo 700+W, e in molti si sono lamentati già del taglio dei processori 8th da Windows 11), veramente ci si domanda il come, almeno io. Questo tenendo presente che giocando, soprattutto oggigiorno, accendi un mostro magari di 5-600W per ore di gioco.

La 770 io la comprai a 350€, bei tempi veramente, stesso prezzo se non erro del 4770k.
Oggi con 350€ compri l'adesivo della 3060, con cui certamente non fai i 4-5 anni di una 4080, il 12700 si trova a 450-500€.

Sicuramente sbaglio qualcosa, anche se gioco su PC con alti e bassi dal '96, magari il 4770k + 770 oggi sarebbe un i5 e una 3060, però me lo domando.

una 3070 la trovi a meno di 600, anche se a quel punto è meglio la 60ti a 470 circa

TigerTank
14-08-2022, 09:56
Bella domanda con questo lancio frazionato. Di certo svelerà tutto ufficialmente, ed avremmo le idee più chiare, ma se manderà le classiche slide 1 settimana prima il lancio non si sa.:)

Mike ti vedo bello pompato! Secondo me non resisti ad aspettare le 4070 se hai titoli in arretrato che vorresti godere in 4K :D

Andy1111
14-08-2022, 10:15
Per le nuove GPU e CPU che siano Nvidia AMD o Intel aspettatevi un bel rincaro, inflazione materie prime e anche abbastanza importante il cambio euro dollaro a noi sfavorevole in questo periodo, rispetto ad un anno fa c'è un -13%

lordsnk
14-08-2022, 10:59
Ragazzi scusate la domanda, ma parlando del mercato italiano, quando pensate che troveremo disponibili le 4070 potendole comprare più lenti di un bot?

Ho un'antica :D 770 e sto riflettendo se prendere una 3070 o aspettare ancora altri mesi per una 4070.

Grazie

Se proprio non vuoi aspettare ti consiglio la rx 6700 10gb in offerta per pochi giorni ancora a 419,95€ + ss (pagabile anche in 3 rate con paypal) sul sito legato al drop nvidia.

mikael84
14-08-2022, 11:23
Cmq il thread non è consigli per gli acquisti.:)

Mike ti vedo bello pompato! Secondo me non resisti ad aspettare le 4070 se hai titoli in arretrato che vorresti godere in 4K :D

Caro Tiger, considera che io ho saltato una gen.:D

Thunder-74
14-08-2022, 12:32
Cmq il thread non è consigli per gli acquisti.:)



Caro Tiger, considera che io ho saltato una gen.:D


Alla fine Mike su quale sei più indirizzato ?


Inviato dal mio iPhone X utilizzando Tapatalk

Maury
14-08-2022, 13:04
Cmq il thread non è consigli per gli acquisti.:)



Caro Tiger, considera che io ho saltato una gen.:D

Preparati ad esclamare 'Signor Sulu: ci porti a velocità di curvatura' :p

mikael84
14-08-2022, 13:13
Alla fine Mike su quale sei più indirizzato ?


Inviato dal mio iPhone X utilizzando Tapatalk

4090TI HOF ln2. 2x16pin:)

Seriamente, mi basta una GPU del livello della 4070, e prenderei anche in considerazione GA102 ai prezzi livellati da Lovelace.
La 4080 potrei valutarla in base al prezzo.

Tu invece da buon porcellino, nella firma puoi anche scrivere RTX4090 incoming.:oink: :fiufiu:

Vinxi
14-08-2022, 13:37
Per le nuove GPU e CPU che siano Nvidia AMD o Intel aspettatevi un bel rincaro, inflazione materie prime e anche abbastanza importante il cambio euro dollaro a noi sfavorevole in questo periodo, rispetto ad un anno fa c'è un -13%

E’ questo lo scenario di cui “ho paura”, unito a miners, scalpers e quant’altro.

TigerTank
14-08-2022, 14:19
4090TI HOF ln2. 2x16pin:)

Seriamente, mi basta una GPU del livello della 4070, e prenderei anche in considerazione GA102 ai prezzi livellati da Lovelace.
La 4080 potrei valutarla in base al prezzo.

Tu invece da buon porcellino, nella firma puoi anche scrivere RTX4090 incoming.:oink: :fiufiu:

Mi sa che la prima opzione da valutare sarà eventualmente la 4080FE a prezzo di MSRP....ma bisognerà vedere quale sarà tale prezzo e quali saranno le disponibilità effettive di schede....augurando che Nvidia venda in italia quantitativi accettabili di schede invece che considerarci un mercato di poveri gamers di secondo piano o relegarci di nuovo come succursale di vendita tramite LDLC :muro:

Naaa, io credo che il buon Thunder punterà in primis su una 4080 con wubbo già montato o magari aspetterà le Ti :ciapet:
Le 4090 avrebbero senso solo se uscissero proprio dei giochi stratosferici da sbavo da 4K sparato ma io temo che il biennio 2022-2023 sarà alquanto scarno...a parte una prevalenza di remake e remastered di titoli "gloriosi".

In ogni caso ben venga un ridimensionamento dei TDP in una generazione in cui la questione dei costi per consumi energetici peserà non poco.

mikael84
14-08-2022, 15:16
Mi sa che la prima opzione da valutare sarà eventualmente la 4080FE a prezzo di MSRP....ma bisognerà vedere quale sarà tale prezzo e quali saranno le disponibilità effettive di schede....augurando che Nvidia venda in italia quantitativi accettabili di schede invece che considerarci un mercato di poveri gamers di secondo piano o relegarci di nuovo come succursale di vendita tramite LDLC :muro:

Naaa, io credo che il buon Thunder punterà in primis su una 4080 con wubbo già montato o magari aspetterà le Ti :ciapet:
Le 4090 avrebbero senso solo se uscissero proprio dei giochi stratosferici da sbavo da 4K sparato ma io temo che il biennio 2022-2023 sarà alquanto scarno...a parte una prevalenza di remake e remastered di titoli "gloriosi".

In ogni caso ben venga un ridimensionamento dei TDP in una generazione in cui la questione dei costi per consumi energetici peserà non poco.

Il problema della 4080, che almeno per ora non pare sto granchè, malgrado i grafici.
JHH vuole farti fare il salto ad ampio margine sui chipponi è palese, troppa differenza.
Il potenziale di quella scheda sarà il prezzo, o un declassamento della 4070.

Per fare un esempio:
C'è il 26% di ALU tra 4070-4080 più banda e cache per la 4080.
Il 26% esatto è tra 3060ti/3070ti, dove anch'essa ha molta più banda.

Tra le due schede ci passa il 20% in 1440p e 23 in UHD, mentre si arriva a picchi di 30% in UHD con RT attivo.:)


Cmq nel tuo caso, ad esempio, la 4070 non converrebbe, anche se più prestante ed equilibrata, rimarrebbe la soluzione più sensata.

Ubro92
14-08-2022, 15:40
Mi sa che la prima opzione da valutare sarà eventualmente la 4080FE a prezzo di MSRP....ma bisognerà vedere quale sarà tale prezzo e quali saranno le disponibilità effettive di schede....augurando che Nvidia venda in italia quantitativi accettabili di schede invece che considerarci un mercato di poveri gamers di secondo piano o relegarci di nuovo come succursale di vendita tramite LDLC :muro:

Naaa, io credo che il buon Thunder punterà in primis su una 4080 con wubbo già montato o magari aspetterà le Ti :ciapet:
Le 4090 avrebbero senso solo se uscissero proprio dei giochi stratosferici da sbavo da 4K sparato ma io temo che il biennio 2022-2023 sarà alquanto scarno...a parte una prevalenza di remake e remastered di titoli "gloriosi".

In ogni caso ben venga un ridimensionamento dei TDP in una generazione in cui la questione dei costi per consumi energetici peserà non poco.

Io sto aspettando Atomic Heart e System Shock, e mi incuriosiscono molto anche the lost wild e Avatar come grafica e openworld.

Thunder-74
14-08-2022, 17:15
Valuterò in base ai prezzi, certo è che vedere quel salto enorme tra 4080 e 4090 fa tanto sbavare . Se la 4090 verrà prezzata tipo 3090, potrei farci un pensierino, altrimenti si valuta la 4080 o si attende un ipotetica 4080ti su AD102 tagliuzzato (14k cuda).
Vediamo che ci dirà giacchetta malefica


Inviato dal mio iPhone X utilizzando Tapatalk

Arrow0309
14-08-2022, 17:22
Valuterò in base ai prezzi, certo è che vedere quel salto enorme tra 4080 e 4090 fa tanto sbavare . Se la 4090 verrà prezzata tipo 3090, potrei farci un pensierino, altrimenti si valuta la 4080 o si attende un ipotetica 4080ti su AD102 tagliuzzato (14k cuda).
Vediamo che ci dirà giacchetta malefica


Inviato dal mio iPhone X utilizzando Tapatalk

AD103 avrà un unica versione e full?

Alzatan
14-08-2022, 17:23
Sto seguendo il thread da moltissimo, e posto qui la mia modesta opinione personale... Secondo me gli upgrade di gpu, a meno di passioni per l'hardware o obiettivi di record sui bench, hanno senso solo saltando due gen mínimo.
Questa per esempio è la mia progressione degli ultimi 10 anni:
- gtx 670
- gtx 1060 6gb
- rtx 3080ti (sono diventato ricco nel frattempo)

Con questi "balzi" sono riuscito ad ottenere boost tangibili e a mantenermi sempre nei range 30-90 fps nei giochi del momento...
Se parliamo di 40% di miglioramento, parliamo ad esempio passare da 60fps a 84fps, direi non un miracolo. Soprattutto se la tecnologia aumenta le richieste e parliamo di passare da 40fps a 56...

My 2 cents

wulff73
14-08-2022, 17:38
Sto seguendo il thread da moltissimo, e posto qui la mia modesta opinione personale... Secondo me gli upgrade di gpu, a meno di passioni per l'hardware o obiettivi di record sui bench, hanno senso solo saltando due gen mínimo.
Questa per esempio è la mia progressione degli ultimi 10 anni:
- gtx 670
- gtx 1060 6gb
- rtx 3080ti (sono diventato ricco nel frattempo)

Con questi "balzi" sono riuscito ad ottenere boost tangibili e a mantenermi sempre nei range 30-90 fps nei giochi del momento...
Se parliamo di 40% di miglioramento, parliamo ad esempio passare da 60fps a 84fps, direi non un miracolo. Soprattutto se la tecnologia aumenta le richieste e parliamo di passare da 40fps a 56...

My 2 cents

Saltare 2 generazione di GPU è un po' troppo, vorrebbe dire cambiare scheda ogni 6 anni (coi cicli attuali biennali di uscita) ed il resto del PC non gli starebbe dietro quindi accollandosi nell'anno del cambio la spesa per un PC tutto nuovo. Io mi trovo bene a saltare una generazione di schede (con GPU di fascia alta si intende) a cambiare PC dopo un paio d'anni dall'acquisto della scheda salvando quello che si può salvare del vecchio PC (case, ssd, cavi, eventualmente l'alimentatore se non è troppo vecchio).
Imho per me chi ha ora una 3080/90 dovrebbe aspettare la prossima serie, non questa, che tanto non c'è nulla in giro a cui non si riesca a giocare bene e quando si starà a corto di potenza ci saranno la serie 5000 o la serie 8000 in giro.

TigerTank
14-08-2022, 17:59
Valuterò in base ai prezzi, certo è che vedere quel salto enorme tra 4080 e 4090 fa tanto sbavare . Se la 4090 verrà prezzata tipo 3090, potrei farci un pensierino, altrimenti si valuta la 4080 o si attende un ipotetica 4080ti su AD102 tagliuzzato (14k cuda).
Vediamo che ci dirà giacchetta malefica


Sì alla fine se la 4080 sarà un pò giù di tono e la 4090 troppo costosa, si potrà sempre aspettare le Ti...
Cosa peraltro già fatta da molti in passato.
Imho il punto di arrivo saranno i giochio UE5...con le 5000.

Il problema della 4080, che almeno per ora non pare sto granchè, malgrado i grafici.
JHH vuole farti fare il salto ad ampio margine sui chipponi è palese, troppa differenza.
Il potenziale di quella scheda sarà il prezzo, o un declassamento della 4070.

Per fare un esempio:
C'è il 26% di ALU tra 4070-4080 più banda e cache per la 4080.
Il 26% esatto è tra 3060ti/3070ti, dove anch'essa ha molta più banda.

Tra le due schede ci passa il 20% in 1440p e 23 in UHD, mentre si arriva a picchi di 30% in UHD con RT attivo.:)


Cmq nel tuo caso, ad esempio, la 4070 non converrebbe, anche se più prestante ed equilibrata, rimarrebbe la soluzione più sensata.

Eh sì alla fine sarà tutto relativo ai rapporti prezzi-prestazioni+vram delle fasce e relativamente dalla situazione da cui si parte per un upgrade.
Alla fine in passato è già capitato che in relazione al prezzo le x70 si siano dimostrate una scelta più conveniente :D

A questo giro abbiamo visto un margine risicato da 3080 a 3090, magari con le prossime succederà tra 4070 e 4080.

Bisognerà un pò analizzare cosa succederà perchè ad esempio a questo giro la 3080 12GB è la 3080 che avremmo desiderato tutti subito ma si sanno i vari motivi per cui sarebbe stato impossibile(non si sarebbe filato nessuno le Ti...e probabilmente molti anche le 3090).

Ubro92
14-08-2022, 19:05
Vabbè con ampere la 3080 è su base GA102, quindi non è propriamente la classica x80, infatti le differenze da 3080ti/3090 sono risicate...

In genere tra x70 e x80 c'è sempre stato uno stacco del 15-25% e con lovelace siamo in linea.

Tenendo conto che la 4070 tallona teoricamente una 3090ti, una 4080 dovrebbe andare un abbondante 40-50% in più di 3080 liscia, in proporzione è la stessa differenza che c'è tra 3060ti e 3080.

Però il punto focale è se concretamente si ha necessità dell'upgrade considerando anche i giochi in uscita, inoltre in tanti hanno pagato per le 3000 prezzi osceni e direi di tenersele finchè non si ha veramente esigenza di aggiornare mettendo temporaneamente la scimmia da parte.

amon.akira
14-08-2022, 20:02
se amd buttasse fuori la 4080ti-like potrebbe costringere nvidia ad anticiparla e sarebbe un bene, si era detto che c era una sku simile amd se nn sbaglio

TigerTank
14-08-2022, 20:32
Vabbè con ampere la 3080 è su base GA102, quindi non è propriamente la classica x80, infatti le differenze da 3080ti/3090 sono risicate...

In genere tra x70 e x80 c'è sempre stato uno stacco del 15-25% e con lovelace siamo in linea.

Tenendo conto che la 4070 tallona teoricamente una 3090ti, una 4080 dovrebbe andare un abbondante 40-50% in più di 3080 liscia, in proporzione è la stessa differenza che c'è tra 3060ti e 3080.

Però il punto focale è se concretamente si ha necessità dell'upgrade considerando anche i giochi in uscita, inoltre in tanti hanno pagato per le 3000 prezzi osceni e direi di tenersele finchè non si ha veramente esigenza di aggiornare mettendo temporaneamente la scimmia da parte.

Ti quoto al 100%, anche se ovviamente nel tuo caso spero salti fuori finalmente la tua occasione ottimale :cool:

fraussantin
14-08-2022, 20:40
Domanda cretina :

Ma queste nuove gpu di fascia alta verranno sfruttate a dovere dalle attuali piattaforme? Intendo am4 con almeno zen3 o Intel serie 10 e 11.

Io ho un 5800x e gioco in ultrawide 1440p e in 4k.Presto per saperlo , ma sono pronto a scommettere di si.

Cioè sicuramente con i nuovi e ddr5 si farà qualcosa in più , ma dubito che ci saranno differenze tangibili.

Ubro92
14-08-2022, 21:07
Ti quoto al 100%, anche se ovviamente nel tuo caso spero salti fuori finalmente la tua occasione ottimale :cool:

Più che altro incrocio le dita che tutto fili liscio senza strane sorprese, personalmente mi interessa il target della 4070/4060ti ma mi tengo aperto anche all'usato di ampere se becco buone occasioni.

Domanda cretina :

Ma queste nuove gpu di fascia alta verranno sfruttate a dovere dalle attuali piattaforme? Intendo am4 con almeno zen3 o Intel serie 10 e 11.

Io ho un 5800x e gioco in ultrawide 1440p e in 4k.

Piccoli vantaggi li avrai sempre con processori e memorie più veloci, ma a quelle risoluzioni il collo sta principalmente nella GPU, quindi non mi preoccuperei troppo.

Nel caso degli intel di 9/10a gen neanche il PCIe 3.0 è effettivamente un problema quindi non gli darei priorità, anche perchè le DDR5 sono alle prime sfornate.
Personalmente guardando intel attenderei meteor lake, questi 13k sono ancora a 10nm e non mi aspetto radicali cambiamenti dalla serie 12 se non in MT dato il raddoppio degli e-core, e anche per amd con i prossimi 7000 lascerei maturare un pò la piattaforma lato driver e bios.

mikael84
14-08-2022, 21:51
Valuterò in base ai prezzi, certo è che vedere quel salto enorme tra 4080 e 4090 fa tanto sbavare . Se la 4090 verrà prezzata tipo 3090, potrei farci un pensierino, altrimenti si valuta la 4080 o si attende un ipotetica 4080ti su AD102 tagliuzzato (14k cuda).
Vediamo che ci dirà giacchetta malefica


Inviato dal mio iPhone X utilizzando Tapatalk

Sicuramente la rilascerà, ma cercherà di rifilare quante x90 possibili.
Se andiamo a vedere, il best saranno le TI a sto giro. :)

se amd buttasse fuori la 4080ti-like potrebbe costringere nvidia ad anticiparla e sarebbe un bene, si era detto che c era una sku simile amd se nn sbaglio

Gli ultimi leak AMD parlano di una versione da 80mb, quindi 320bit, Anche li potrebbe starci, ma sembrano totalmente sballati.

AD103 avrà un unica versione e full?

No che full, al momento è piuttosto azzoppata. Potrebbe nascere una full in seguito ed una 4070ti.:)

Sì alla fine se la 4080 sarà un pò giù di tono e la 4090 troppo costosa, si potrà sempre aspettare le Ti...
Cosa peraltro già fatta da molti in passato.
Imho il punto di arrivo saranno i giochio UE5...con le 5000.



Eh sì alla fine sarà tutto relativo ai rapporti prezzi-prestazioni+vram delle fasce e relativamente dalla situazione da cui si parte per un upgrade.
Alla fine in passato è già capitato che in relazione al prezzo le x70 si siano dimostrate una scelta più conveniente :D

A questo giro abbiamo visto un margine risicato da 3080 a 3090, magari con le prossime succederà tra 4070 e 4080.

Bisognerà un pò analizzare cosa succederà perchè ad esempio a questo giro la 3080 12GB è la 3080 che avremmo desiderato tutti subito ma si sanno i vari motivi per cui sarebbe stato impossibile(non si sarebbe filato nessuno le Ti...e probabilmente molti anche le 3090).


La 3080 12 è quasi meglio delle vecchie TI, in quanto ha tutto il bus attivo, senza decurtazioni varie di bus.
Dalla prossima sarà ben diverso.
La 4080 rispetto alla 4090ti, in rapporto ad ampere non sarà neppure una 3070 liscia.

Oltre ai giochi, servirebbero anche monitor di livello, miniled, oled economici, altrimenti con i vari monitor IPS/VA, le schede non te le godi. Ti viene il vomito a passare da un pannello serio al monitor.:sofico:

devil_mcry
14-08-2022, 22:05
Sicuramente la rilascerà, ma cercherà di rifilare quante x90 possibili.
Se andiamo a vedere, il best saranno le TI a sto giro. :)



Gli ultimi leak AMD parlano di una versione da 80mb, quindi 320bit, Anche li potrebbe starci, ma sembrano totalmente sballati.



No che full, al momento è piuttosto azzoppata. Potrebbe nascere una full in seguito ed una 4070ti.:)




La 3080 12 è quasi meglio delle vecchie TI, in quanto ha tutto il bus attivo, senza decurtazioni varie di bus.
Dalla prossima sarà ben diverso.
La 4080 rispetto alla 4090ti, in rapporto ad ampere non sarà neppure una 3070 liscia.

Oltre ai giochi, servirebbero anche monitor di livello, miniled, oled economici, altrimenti con i vari monitor IPS/VA, le schede non te le godi. Ti viene il vomito a passare da un pannello serio al monitor.:sofico:

quoto, soprattutto in termini di hdr i giochi cambiano un casino, peccato che windows li supporti male

io gioco su un qn90b da 55” ed è fenomenale

amon.akira
14-08-2022, 22:12
quoto, soprattutto in termini di hdr i giochi cambiano un casino, peccato che windows li supporti male

io gioco su un qn90b da 55” ed è fenomenale

ma che supporta male, la colpa è dei pannelli, qui va tutto alla grande :asd:


Oltre ai giochi, servirebbero anche monitor di livello, miniled, oled economici, altrimenti con i vari monitor IPS/VA, le schede non te le godi. Ti viene il vomito a passare da un pannello serio al monitor.:sofico:

quoto alla grande

Wolf91
14-08-2022, 22:14
quoto, soprattutto in termini di hdr i giochi cambiano un casino, peccato che windows li supporti male

io gioco su un qn90b da 55” ed è fenomenale

Il problema non è Windows ma i pannelli finti HDR,e qui si apre un mondo ma si andrebbe O.T.

amon.akira
14-08-2022, 22:17
Il problema non è Windows ma i pannelli finti HDR,e qui si apre un mondo ma si andrebbe O.T.

esatto

Ubro92
14-08-2022, 22:49
Oltre ai giochi, servirebbero anche monitor di livello, miniled, oled economici, altrimenti con i vari monitor IPS/VA, le schede non te le godi. Ti viene il vomito a passare da un pannello serio al monitor.:sofico:

Da incorniciare questo post :sofico:

Infatti c'è da stendere un velo pietoso, è da anni che ci propinano IPS/VA con retroilluminazione Edge spacciandoli per top, quando a momenti persino le TV QLED economiche con retroilluminazione fald rendono meglio...

Personalmente i grigini degli IPS non riesco proprio più a tollerarli, attualmente ho un VA discreto (G34WQC) e penso di tenermelo stretto finchè non vedo effettivamente pannelli miniled o microled validi.

Il problema non è Windows ma i pannelli finti HDR,e qui si apre un mondo ma si andrebbe O.T.

Ma per avere una resa dell'HDR decente ti serve una retroilluminazione avanzata, qua rifilano la edge da anni e con quella farà sempre pena indipendentemente dalla bontà del pannello.
O si propende per un oled o bisogna incrociare le dita che arrivino quanto prima pannelli miniled o microled a prezzi accessibili.

Telstar
14-08-2022, 23:45
Sì alla fine se la 4080 sarà un pò giù di tono e la 4090 troppo costosa, si potrà sempre aspettare le Ti...
Cosa peraltro già fatta da molti in passato.


Infatti. Inizio ad avere qualche dubbio che la 4080 non sarà abbastanza per me.

mikael84
15-08-2022, 00:02
quoto, soprattutto in termini di hdr i giochi cambiano un casino, peccato che windows li supporti male

io gioco su un qn90b da 55” ed è fenomenale

ma che supporta male, la colpa è dei pannelli, qui va tutto alla grande :asd:



quoto alla grande

Da incorniciare questo post :sofico:

Infatti c'è da stendere un velo pietoso, è da anni che ci propinano IPS/VA con retroilluminazione Edge spacciandoli per top, quando a momenti persino le TV QLED economiche con retroilluminazione fald rendono meglio...

Personalmente i grigini degli IPS non riesco proprio più a tollerarli, attualmente ho un VA discreto (G34WQC) e penso di tenermelo stretto finchè non vedo effettivamente pannelli miniled o microled validi.



Ma per avere una resa dell'HDR decente ti serve una retroilluminazione avanzata, qua rifilano la edge da anni e con quella farà sempre pena indipendentemente dalla bontà del pannello.
O si propende per un oled o bisogna incrociare le dita che arrivino quanto prima pannelli miniled o microled a prezzi accessibili.

E' un discorso difficile da trattare in quanto sfocia per forza sull'OT, ma ci sono i thread appositi. Quello che conta in primis della GPU è ciò che vedo a schermo, poi i frame per goderlo al meglio.
Immaginiamo uno con una 4090 HOF su un 1440 IPS banale, vs uno con una 4070 miniled. Uno vede piattume sbiadito ad alti frame, l'altro avrà un'esperienza pazzesca con qualche frame in meno.
Anche per questo molti preferiscono le console, la master race con monitor da vomito vs pannelli decenti. :)

Chiudo l'OT, anche per valutare questi aspetti, visto quanto costano le schede attuali.

Sui pannelli sono più che a posto.

Monitor ho in arrivo il Dell oled e come 4k ho un c1 da 48.

Direi di si.

Telstar
15-08-2022, 00:24
Immaginiamo uno con una 4090 HOF su un 1440 IPS banale, vs uno con una 4070 miniled. Uno vede piattume sbiadito ad alti frame, l'altro avrà un'esperienza pazzesca con qualche frame in meno.

Scusa ma non ci sono grandi differenze tra un IPS "banale" e un miniled.
Oled e microled sono un'altra storia e consentono un HDR adeguato. In SDR su un "buon" pannello IPS si gioca benissimo.

Ubro92
15-08-2022, 01:24
Scusa ma non ci sono grandi differenze tra un IPS "banale" e un miniled.

Oled e microled sono un'altra storia e consentono un HDR adeguato. In SDR su un "buon" pannello IPS si gioca benissimo.Dipende cosa guardi... Come neri e contrasti c'è un abisso, ma anche rispetto a un pannello VA gli IPS hanno dei neri che sono dei grigi in realtà.

E devi sempre pregare di non beccare il pannello sfigato con glow eccessivo o bleed.

Tecnologicamente parlando é tra le periferiche che ha avuto meno sviluppo, soprattutto in confronto alle TV, quindi concordo con mikael a riguardo.

Poi che ci si gioca comunque benissimo dati gli ottimi tempi di risposta e l'ottima resa cromatica nessuno lo mette in dubbio, io stesso sto consigliando la serie 27GN850 che si trova spesso in sconto sui 280-300€.

Però se dovessi spendere cifre importanti sulla GPU, vorrei anche un pannello qualitativamente migliore, e c'è da dire che purtroppo anche gli oled per quanto belli non sono ideali per un uso PC data la presenza di molti elementi statici a schermo, quindi l'importanza di avere pannelli microled e miniled si fa sentire, o comunque l'abbandono della retroilluminazione Edge dovrebbe essere una priorità.


Inviato dal mio M2012K11AG utilizzando Tapatalk

mikael84
15-08-2022, 01:36
Scusa ma non ci sono grandi differenze tra un IPS "banale" e un miniled.
Oled e microled sono un'altra storia e consentono un HDR adeguato. In SDR su un "buon" pannello IPS si gioca benissimo.

Aspè per IPS banale intendo AHVA tipo il mio g-sync, PLS, AH-IPS, piuttosto diffusi. :p

Dipende cosa guardi... Come neri e contrasti c'è un abisso, ma anche rispetto a un pannello VA gli IPS hanno dei neri che sono dei grigi in realtà.

E devi sempre pregare di non beccare il pannello sfigato con glow eccessivo o bleed.

Tecnologicamente parlando é tra le periferiche che ha avuto meno sviluppo, soprattutto in confronto alle TV, quindi concordo con mikael a riguardo.

Poi che ci si gioca comunque benissimo dati gli ottimi tempi di risposta e l'ottima resa cromatica nessuno lo mette in dubbio, io stesso sto consigliando la serie 27GN850 che si trova spesso in sconto sui 280-300€.

Però se dovessi spendere cifre importanti sulla GPU, vorrei anche un pannello qualitativamente migliore, e c'è da dire che purtroppo anche gli oled per quanto belli non sono ideali per un uso PC data la presenza di molti elementi statici a schermo, quindi l'importanza di avere pannelli microled e miniled si fa sentire, o comunque l'abbandono della retroilluminazione Edge dovrebbe essere una priorità.


Inviato dal mio M2012K11AG utilizzando Tapatalk

Concordo appieno.

fraussantin
15-08-2022, 04:34
Prima o poi dovranno cedere e passare all'oled o simili anche sui semplici monitor.

Anche perche come tempi di risposta ( il marketing lo richiede) non dovrebbe essere migliore?

Il problema almeno per un vecchietto come me sarà la luminosità bianca e il forte contrasto che mi creerà stanchezza agli occhi. Gia lo fa il telefono che tengo in mano da quando è oled , e mi è toccato settarlo "alla carlona" con neri più ingrigiti e bianchi color papiro rendendo il display più osceno di un qualunque ips in giro. ( Tra l'altro la modalita notturna di xiaomi aggiunge anche una specie di bleed :asd:)

Gia molti monitor e tv economici , retroillumianti a led freddi o falsi warm mi danno fastidio.
( I warm stessi mi danno più fastidio delle vecchie lampade di 15 anni fa)

Cmq si è il motivo per cui non sento tutta sta fretta di cambiare il monitor 27 1440p che possiedo.

L'ideale sarebbe accoppiare una tv per giochi meno impegnativi e più da "guardare", ma non ho spazio nella stanza.

Tanto sarà questione di qualche altro anno e saranno tutti xled.

devil_mcry
15-08-2022, 07:21
Il problema non è Windows ma i pannelli finti HDR,e qui si apre un mondo ma si andrebbe O.T.

la mia è una tv da 2000 nits, il top qled
il problema è che windows 11 ha l’auto hdr

Asgard2022
15-08-2022, 08:22
Dipende cosa guardi... Come neri e contrasti c'è un abisso, ma anche rispetto a un pannello VA gli IPS hanno dei neri che sono dei grigi in realtà.

E devi sempre pregare di non beccare il pannello sfigato con glow eccessivo o bleed.

Tecnologicamente parlando é tra le periferiche che ha avuto meno sviluppo, soprattutto in confronto alle TV, quindi concordo con mikael a riguardo.

Poi che ci si gioca comunque benissimo dati gli ottimi tempi di risposta e l'ottima resa cromatica nessuno lo mette in dubbio, io stesso sto consigliando la serie 27GN850 che si trova spesso in sconto sui 280-300€.

Però se dovessi spendere cifre importanti sulla GPU, vorrei anche un pannello qualitativamente migliore, e c'è da dire che purtroppo anche gli oled per quanto belli non sono ideali per un uso PC data la presenza di molti elementi statici a schermo, quindi l'importanza di avere pannelli microled e miniled si fa sentire, o comunque l'abbandono della retroilluminazione Edge dovrebbe essere una priorità.


Inviato dal mio M2012K11AG utilizzando Tapatalk

Che poi io mi dico una cosa, come fate a uardare uno schermo super luminoso senza spaccarsi gli occhi? Io possiedo questo: Qled, ottima qualità ma è impossibile da giocare senza la modalità salva la vista.. dopo mezzora ti si fondono gli occhi.
https://i.postimg.cc/WbX2htFH/Immagine-2022-08-15-092146.jpg (https://postimg.cc/qz6fFJGs)

Lucageo
15-08-2022, 09:36
Giusto per non andare troppo OT attualmente io con un LG UltraGear 38GN950-B da 175 Hz (3140x1600p) penso che me lo farò andar bene per un bel pezzo.
Penso che gli UltraGear di LG siano tra i migliori in circolazione attualmente come compromesso prezzo/prestazioni.
Per le VGA alla fine niente di nuovo sotto il sole... abbiamo la nuova gen 4000 che non sono altro che delle 3000 potenziate ma senza nuove features aggiuntive.
Conviene ora acquistare una 3000 a prezzo conveniente e aspettare magari le versioni TI della 4000 con PCB e linee di produzione ottimizzate oppure saltare alla
prossima gen. 5000. Sembra invece che per AMD il salto prestazionale sarà molto più marcato.
Come già detto diverse volte meglio investire sulle nuova CPU serie K e serie Core-X in arrivo.
Io da felice possessore di un 10980XE passerò ai nuovi Sapphire Rapids con chipset W790 (evoluzione di X299).
Voi come la vedete ?

Ubro92
15-08-2022, 10:10
Se parliamo di piattaforme da gaming gli HEDT li vedo del tutto inutili, nel decennio dominato da intel dai 4c/8t desktop avevano un senso ma oggi decisamente no.

Senza contare che introducono spesso maggiori latenze, per una piattaforma da gioco già restando su 5800x e 12600K si ha un'ottimo reparto cpu, soprattutto a risoluzioni come 3440x1440 o 4K.

Per il resto vedremo nelle review come spingeranno la serie 13 e i 7000 a risoluzioni come 1080p/1440p, ma proprio la serie 13 di intel mi inscimmia meno di 0, però attendo le review per farmi un'idea più oggettiva.

Ubro92
15-08-2022, 10:17
Intanto sembra in produzione un nuovo SKU di 3080 12GB con +256cc:

https://i.postimg.cc/NjgTcXZP/Immagine.png

https://videocardz.com/newz/nvidia-reportedly-resumes-the-production-of-geforce-rtx-3080-12gb-gpus-after-stopping-it-2-months-ago

:sofico:

TigerTank
15-08-2022, 11:03
LOL....prima le sopprimono perchè fanno troppa autoconcorrenza alle solo più costose 3080Ti e ora le riesumano perchè la situazione si è ribaltata e hanno ancora tante gpu da smaltire :asd:
Imho comunque se tutti faranno come EVGA USA, andranno via come il pane anche se a fine generazione perchè a tanta gente questo non interessa, ma solo di prendere una buona vga ad un prezzo decente ora e magari poi tirare direttamente alle 5000.

Wolf91
15-08-2022, 11:11
Ma per avere una resa dell'HDR decente ti serve una retroilluminazione avanzata, qua rifilano la edge da anni e con quella farà sempre pena indipendentemente dalla bontà del pannello.
O si propende per un oled o bisogna incrociare le dita che arrivino quanto prima pannelli miniled o microled a prezzi accessibili.

Sul mio Predator CG7 se metto l'HDR 1000 al max su una schermata bianca,ti abbronzi... 😆

Se non gioco infatti abbasso, perché ti sfonda gli occhi

FrancoBit
15-08-2022, 11:14
Giusto per non andare troppo OT attualmente io con un LG UltraGear 38GN950-B da 175 Hz (3140x1600p) penso che me lo farò andar bene per un bel pezzo.
Penso che gli UltraGear di LG siano tra i migliori in circolazione attualmente come compromesso prezzo/prestazioni.
Per le VGA alla fine niente di nuovo sotto il sole... abbiamo la nuova gen 4000 che non sono altro che delle 3000 potenziate ma senza nuove features aggiuntive.
Conviene ora acquistare una 3000 a prezzo conveniente e aspettare magari le versioni TI della 4000 con PCB e linee di produzione ottimizzate oppure saltare alla
prossima gen. 5000. Sembra invece che per AMD il salto prestazionale sarà molto più marcato.
Come già detto diverse volte meglio investire sulle nuova CPU serie K e serie Core-X in arrivo.
Io da felice possessore di un 10980XE passerò ai nuovi Sapphire Rapids con chipset W790 (evoluzione di X299).
Voi come la vedete ?Stesso tuo monitor mi trovo benissimo, l'hai overclockato per portarlo da 160hz a 175? Io lo tengo a 120 coi 10bit colore. penso che prima della scheda video andrò a cambiare piattaforma, AMD o Intel vedremo anche in base a quando sarà necessario sostituire l'attuale 10700k con cui mi trovo bene. Magari inizierò a ragionare dalle ti in poi, sempre se avrò necessità in base ai giochi che usciranno. Visti i tanti rinvii sugli sviluppi non so quanti titoli esigenti usciranno nel breve termine.

Inviato dal mio M2101K9G utilizzando Tapatalk

mikael84
15-08-2022, 11:23
Raga con i monitor non andiamo tropo OT. :)

Intanto sembra in produzione un nuovo SKU di 3080 12GB con +256cc:



:sofico:

A gennaio 2022 ritorna in produzione la 3080 12gb, buono. Lancia 4090-4080-4070 e 3080 12gb. A quando una nuova 2080ti 12gb,:p

Fa sorridere, "la 3090 è tropo costosa da produrre", 6k$ il wafer, ora sta a 17..

FrancoBit
15-08-2022, 11:26
Raga con i monitor non andiamo tropo OT. :)



A gennaio 2022 ritorna in produzione la 3080 12gb, buono. Lancia 4090-4080-4070 e 3080 12gb. A quando una nuova 2080ti 12gb,:p

Fa sorridere, "la 3090 è tropo costosa da produrre", 6k$ il wafer, ora sta a 17..Pure le 2060 ha rinnovato e rimesso in vendita durante la gen ampère, che furbacchione 🤭

Inviato dal mio M2101K9G utilizzando Tapatalk

mikael84
15-08-2022, 11:33
Pure le 2060 ha rinnovato e rimesso in vendita durante la gen ampère, che furbacchione 🤭

Inviato dal mio M2101K9G utilizzando Tapatalk

Li però era in pieno periodo anomalo, dove un chip in più ci poteva pure stare qua siamo al lancio delle nuove.:p
Inoltre sembra quasi un pesce d'aprile, dove parla di prezzi, con la 4070 in giro, di che prezzi parliamo...:p

Telstar
15-08-2022, 11:52
Magari per i monitor proseguiamo qua, dove questo tipo di discussioni vengono affrontate spesso:
https://www.hwupgrade.it/forum/showthread.php?t=2786212


Io però preferisco i microled e non oled perché gli oled sono una transizione come i plasma dell epoca dei tv quando ci saranno microled probabilmente non converrà piu gli oled perché hanno il burn in. Magari sono migliorati ora ma il rischio c e e non costano poco.

Il prossimo aspetto altri 5 anni, gia passati 5, per uno che abbia micro led con lo stesso prezzo.

Si, ci vorranno almeno 5 anni per i polliciaggi piccoli e fino a 10 per un 38".

la mia è una tv da 2000 nits, il top qled
il problema è che windows 11 ha l’auto hdr

Veramente l'hdr si può disabilitare in windows11.

Giusto per non andare troppo OT attualmente io con un LG UltraGear 38GN950-B da 175 Hz (3140x1600p) penso che me lo farò andar bene per un bel pezzo.
Penso che gli UltraGear di LG siano tra i migliori in circolazione attualmente come compromesso prezzo/prestazioni.
Per le VGA alla fine niente di nuovo sotto il sole... abbiamo la nuova gen 4000 che non sono altro che delle 3000 potenziate ma senza nuove features aggiuntive.
Conviene ora acquistare una 3000 a prezzo conveniente e aspettare magari le versioni TI della 4000 con PCB e linee di produzione ottimizzate oppure saltare alla
prossima gen. 5000. Sembra invece che per AMD il salto prestazionale sarà molto più marcato.

Da possessore del 34GN850 non posso che essere d'accordo con te. E io me lo devo far durare anche 10 anni, per quando arriveranno i microled di grande formato.
Non ho preso il 38" proprio per non dover spingere troppo con le prossime gpu. Per come la vedo io, la 4080 sarà il minimo sindacale per 1440p RT on. AMD boh. Lato CPU AMD sta lavorando molto meglio, ma vedremo...

mikael84
15-08-2022, 12:14
A che prezzo l'hanno messo? Perchè me lo sono perso. Se no vuol dire che le nuove costeranno un po :)



Non ha un vero prezzo di listino, in quanto nvidia non la produce con la FE, però mediamente siamo sui 799$.

Maury
15-08-2022, 12:42
Questa è una brutta notizia, ma brutta brutta. Se nVidia ripropone una 3080 12 vuol dire che la piazza dopo la 4070, che pertanto costerà di più :rolleyes: e non credo che la 3080 12 costerà meno di 750 euro.

mikael84
15-08-2022, 12:51
Questa è una brutta notizia, ma brutta brutta. Se nVidia ripropone una 3080 12 vuol dire che la piazza dopo la 4070, che pertanto costerà di più :rolleyes: e non credo che la 3080 12 costerà meno di 750 euro.

Ma no:) AMD lancia la nuova serie a novembre. E navi33 gli starà già sopra. Questi rumors lasciano il tempo che trovano. Anche in caso di produzione il prezzo sarà adeguato.
Non è che se lancia una 2080ti 12 la prezza 1199$.:)

TigerTank
15-08-2022, 12:58
Questa è una brutta notizia, ma brutta brutta. Se nVidia ripropone una 3080 12 vuol dire che la piazza dopo la 4070, che pertanto costerà di più :rolleyes: e non credo che la 3080 12 costerà meno di 750 euro.

Naaaa, la notizia semplicemente dice che ora rimetterebbero in produzione le 3080 12GB stoppate un paio di mesi fà perchè hanno un esubero di GA102 da vendere. Probabilmente poi faranno per un pò il parallelo con le 4090 e secondo me 4080 e molto più probabilmente 4070 le vedremo piuttosto posticipate(intendendo a volumi rispetto al lancio) nel 2023 se dovranno smaltire prima le attuali eccedenze.
Alla fine non c'è neppure tutta sta fretta di lanciare le nuove visto che mancano nuovi giochi che possano essere un trampolino. Salvo le 4090 che servono a far cassa con gli enthusiast e con le quali possono abbondare di MSRP più che con le altre :fagiano:

mikael84
15-08-2022, 13:09
Naaaa, la notizia semplicemente dice che ora rimetterebbero in produzione le 3080 12GB stoppate un paio di mesi fà perchè hanno un esubero di GA102 da vendere. Probabilmente poi faranno per un pò il parallelo con le 4090 e secondo me 4080 e molto più probabilmente 4070 le vedremo piuttosto posticipate(intendendo a volumi rispetto al lancio) nel 2023 se dovranno smaltire prima le attuali eccedenze.
Alla fine non c'è neppure tutta sta fretta di lanciare le nuove visto che mancano nuovi giochi che possano essere un trampolino. Salvo le 4090 che servono a far cassa con gli enthusiast e con le quali possono abbondare di MSRP più che con le altre :fagiano:

Che generoso JHH, lasciare per mesi tutto il mercato a Lisa. Lo facevo più folle.:sofico:
Già sta vendendo molto meno, scontando di brutto tutto, tranne qua.:D

TigerTank
15-08-2022, 13:19
Che generoso JHH, lasciare per mesi tutto il mercato a Lisa. Lo facevo più folle.:sofico:
Già sta vendendo molto meno, scontando di brutto tutto, tranne qua.:D
Eh Mike alla fine se ci pensi se la sono anche un pò cercata :D
Stoppare le 3080 12GB 2 mesi fà per autoconcorrenza con le Ti e ora riproporle per esuberi di chip da vendere è un pò un pastrugno ma imho dove vendute scontate sono andate comunque out of stock.
Per cui imho può essere che facciano 4090 in primis, 4080 poi. Nel mentre le 3080 da "sbolognare" e che poi verranno soppiantate dalle 4070.
Io comunque penso anche che tantissima gente sia fanboy(o sia semplicemente abituata a livello di drivers e gestione, oltre che DLSS ed eventuale gsync) e se ha avuto sempre nvidia difficilmente acquisterebbe una AMD anche se avesse una temporanea prevalenza di mercato. E credo valga anche il viceversa. :D
Credo che qui i confini siano più netti rispetto all'ambito CPU.

Arrow0309
15-08-2022, 13:26
[... cut ...]



No che full, al momento è piuttosto azzoppata. Potrebbe nascere una full in seguito ed una 4070ti.:)


[... cut ...]

Ci ero arrivato a pensare alla 4070ti
Ma la full come la chiameranno?
Che solitamente le xx80ti sono gli scarti del chippone (ad102)
Tranne che non lo useranno solo per le Quadro

Arrow0309
15-08-2022, 13:38
Io ho avuto amd, anzi ati, una quindicina di anni fa ed anche processore. Ma avevo solo problemi all'epoca. Per quello ho preferito cambiare a da allora non ho avuto più problemi apparte qualche difetto nelle schede madri asus.

E chi se ne frega dei tuoi problemi che avevi 15 anni fa con le cpu.
Ma davvero?
Inutile dire che sei OT.

mikael84
15-08-2022, 13:39
Eh Mike alla fine se ci pensi se la sono anche un pò cercata :D
Stoppare le 3080 12GB 2 mesi fà per autoconcorrenza con le Ti e ora riproporle per esuberi di chip da vendere è un pò un pastrugno ma imho dove vendute scontate sono andate comunque out of stock.
Per cui imho può essere che facciano 4090 in primis, 4080 poi. Nel mentre le 3080 da "sbolognare" e che poi verranno soppiantate dalle 4070.
Io comunque penso anche che tantissima gente sia fanboy(o sia semplicemente abituata a livello di drivers e gestione, oltre che DLSS ed eventuale gsync) e se ha avuto sempre nvidia difficilmente acquisterebbe una AMD anche se avesse una temporanea prevalenza di mercato. E credo valga anche il viceversa. :D
Credo che qui i confini siano più netti rispetto all'ambito CPU.

Diciamo che continuerà come ora, ma con rivisitazione dei prezzi. Entrambi per vari motivi, lanceranno le GPU. Il problema è che quel PP tarocco ha troppi scarti ed è costretto a reintrodurre pure la 3080 12, considerando che è una Ampere che attualmente vende tanto.

Già sopra di questa non vende quasi nulla. Schede pro come le 3090ti, non sa più come sbarrazzarsene.
Ora una 4070 non la vedremmo prima di dicembre. Lisa lancia a novembre, ma anche qua bisogna vedere la disponibilità iniziale.:D

TigerTank
15-08-2022, 13:40
Diciamo che continuerà come ora, ma con rivisitazione dei prezzi. Entrambi per vari motivi, lanceranno le GPU. Il problema è che quel PP tarocco ha troppi scarti ed è costretto a reintrodurre pure la 3080 12, considerando che è una Ampere che attualmente vende tanto.

Già sopra di questa non vende quasi nulla. Schede pro come le 3090ti, non sa più come sbarrazzarsene.
Ora una 4070 non la vedremmo prima di dicembre. Lisa lancia a novembre, ma anche qua bisogna vedere la disponibilità iniziale.:D

Speriamo Mike perchè sai cosa? A me uno scenario del genere con una nuova produzione di 3080 12GB da smaltire, anche se scontate come quelle EVGA dei giorni scorsi, farebbe un pò preoccupare in termini di potenziale rialzo degli MSRP di lancio delle 4080 :mc:
Per dire: se continuo a piazzare una 3080 12GB a 800€ e vende, perchè ti dovrei mettere una 4080 a poco più invece che sparare un bel millino di MSRP di partenza?

Telstar
15-08-2022, 14:03
Io comunque penso anche che tantissima gente sia fanboy(o sia semplicemente abituata a livello di drivers e gestione, oltre che DLSS ed eventuale gsync) e se ha avuto sempre nvidia difficilmente acquisterebbe una AMD anche se avesse una temporanea prevalenza di mercato.

Presente!
Sono così abituato lato software che passare ad AMD mi spaventa. Dovrebbe avere almeno un 50% di vantaggio come prezzo/prestazioni per farsi seriamente considerare, e sarà impossibile.

FrancoBit
15-08-2022, 14:15
Io ho avuto amd, anzi ati, una quindicina di anni fa ed anche processore. Ma avevo solo problemi all'epoca. Per quello ho preferito cambiare a da allora non ho avuto più problemi apparte qualche difetto nelle schede madri asus.Son passati trent'anni vai sereno, AMD si è evoluta parecchio

Inviato dal mio M2101K9G utilizzando Tapatalk

Ubro92
15-08-2022, 14:40
Eh Mike alla fine se ci pensi se la sono anche un pò cercata :D
Stoppare le 3080 12GB 2 mesi fà per autoconcorrenza con le Ti e ora riproporle per esuberi di chip da vendere è un pò un pastrugno ma imho dove vendute scontate sono andate comunque out of stock.
Per cui imho può essere che facciano 4090 in primis, 4080 poi. Nel mentre le 3080 da "sbolognare" e che poi verranno soppiantate dalle 4070.
Io comunque penso anche che tantissima gente sia fanboy(o sia semplicemente abituata a livello di drivers e gestione, oltre che DLSS ed eventuale gsync) e se ha avuto sempre nvidia difficilmente acquisterebbe una AMD anche se avesse una temporanea prevalenza di mercato. E credo valga anche il viceversa. :D
Credo che qui i confini siano più netti rispetto all'ambito CPU.

Hanno voluto cavalcare l'onda del mining mostrando come motto "tanto vendo lo stesso" e ovviamente un'anomalia come quella del 2020-2021 non poteva di certo perdurare in eterno...

Ma stai sicuro che con i fatturati fatti nvidia non andrà di certo in banca rotta, alla fine queste 3080 continuano ad essere vendute a prezzi al di sopra dell'MSRP nonostante siamo a fine ciclo di produzione.

Riguardo AMD non mi farei troppi problemi soprattutto se con le 7000 recuperano il gap in RT, alla fine per il DLSS non è neanche un grosso problema visto che l'FSR 2.0 ha un'ottima resa, e ha il vantaggio di essere opensource e utilizzabile ovunque, persino su Maxwell puoi sfruttare l'FSR :sofico:

Lato driver le magagne sono ovunque ed è solo questione di fortuna, come funzionalità invece sia il pannello di controllo di AMD che di Nvidia a mio parere necessitano di miglioramenti, nvidia oramai saranno 20 anni che usa il medesimo pannello di controllo e AMD l'ha aggiornato spesso ma lo vedo sempre caotico e poco ordinato.

Speriamo Mike perchè sai cosa? A me uno scenario del genere con una nuova produzione di 3080 12GB da smaltire, anche se scontate come quelle EVGA dei giorni scorsi, farebbe un pò preoccupare in termini di potenziale rialzo degli MSRP di lancio delle 4080 :mc:
Per dire: se continuo a piazzare una 3080 12GB a 800€ e vende, perchè ti dovrei mettere una 4080 a poco più invece che sparare un bel millino di MSRP di partenza?

Ma tieni conto che con il silicio usato per produrre GA102 ci fa due 4070, è solo questione di rimanenze da smaltire.

devil_mcry
15-08-2022, 14:40
io non ho capito
la 3080 12gb è già in vendita cosa fanno?

Ubro92
15-08-2022, 14:50
io non ho capito
la 3080 12gb è già in vendita cosa fanno?

Prendono la 3080 12GB e gli sbloccano +256cc per un totale di 8960cc :fagiano:

In sostanza abbiamo per GA102:

3080 10GB
3080 12GB (8704cc)
3080 12GB (8960cc)
3080ti
3090
3090ti

Per chi si ricorda successe lo stesso con GT200:

GTX 260 192sp
GTX 260 216sp 65nm
GTX 260 216sp 55nm
GTX 275
GTX 280
GTX 285

mikael84
15-08-2022, 15:00
Ci ero arrivato a pensare alla 4070ti
Ma la full come la chiameranno?
Che solitamente le xx80ti sono gli scarti del chippone (ad102)
Tranne che non lo useranno solo per le Quadro

Premetto che prima bisogna vedere se veramente la 4080 avrà 4 TPC disabilitati, solitamente è raro che nvidia tagli anche i pixel.
In ogni caso col full ci puoi destinare le quadro, le 4080ti mobile (visto che li il chippone non lo possono usare), all'occorrenza creare qualche modello con le micron da 24 gb/s.
Al momento visti i costi, e dato un'occhiata ad AMD, preferisce venderti uno scarto massiccio.:)

Speriamo Mike perchè sai cosa? A me uno scenario del genere con una nuova produzione di 3080 12GB da smaltire, anche se scontate come quelle EVGA dei giorni scorsi, farebbe un pò preoccupare in termini di potenziale rialzo degli MSRP di lancio delle 4080 :mc:
Per dire: se continuo a piazzare una 3080 12GB a 800€ e vende, perchè ti dovrei mettere una 4080 a poco più invece che sparare un bel millino di MSRP di partenza?

Torniamo sempre li, sembra che è il primo cambio gen che vediamo.:p
La 780ti vendeva felice o le titan kepler, ma la 980 non l'ha prezzata a 899$.
La 980ti vendeva felice tra i 7-1000 euro, ma la 1080 non l'ha prezzata a 999$.

Intel ed AMD zen vendono bene, perchè ora cambiano tutto?
La geforce 2 vendeva bene, tanto valeva rimanere sempre con quella.:sofico:

JHH ha già stanziato 7 miliardi di $ per accaparrarsi i 5nm mod, che fa non vorrà venderle a pieno regime? Senza mining non può tirare la corda come vuole, lo sta pagando proprio ora, dove giusto le 3080 riesce a vendere, sopra nulla.

Va detto che i chip, vista la situazione possono aumentare di MSRP, in quanto sono più costosi da produrre, e la situazione non è delle migliori, ma bisogna vedere sino a che punto. La 3080 costava 699$ ed era un cut del chippone, poi tra mining e pandemia è stato un delirio.:)

I die costano di più, ma essendo più piccoli hai il doppio delle rese per wafer.

mikael84
15-08-2022, 15:01
Prendono la 3080 12GB e gli sbloccano +256cc per un totale di 8960cc :fagiano:

In sostanza abbiamo per GA102:

3080 10GB
3080 12GB (8704cc)
3080 12GB (8960cc)
3080ti
3090
3090ti

Per chi si ricorda successe lo stesso con GT200:

GTX 260 192sp
GTX 260 216sp 65nm
GTX 260 216sp 55nm
GTX 275
GTX 280
GTX 285

No aspè Ubro, forse non ci hanno capito nulla neppure loro a videocardz, ma la 3080 12 è già con 8960 cc.:)

https://www.techpowerup.com/gpu-specs/geforce-rtx-3080-12-gb.c3834

kiwivda
15-08-2022, 15:02
Prendono la 3080 12GB e gli sbloccano +256cc per un totale di 8960cc :fagiano:

In sostanza abbiamo per GA102:

3080 10GB
3080 12GB (8704cc)
3080 12GB (8960cc)
3080ti
3090
3090ti

Per chi si ricorda successe lo stesso con GT200:

GTX 260 192sp
GTX 260 216sp 65nm
GTX 260 216sp 55nm
GTX 275
GTX 280
GTX 285


Quando butti fuori una serie su un pp da schifo che non gli appartiene succede che ti ritrovi con un mare di merda rotta in magazzino e la tagli a più non posso per venderla come altro.


Ma per quanto riguarda AD102 si sa quale sarà il chip più completo per la serie gaming? E la sola cosa che mi interessa. Non vorrei ritrovarmi con una 4090 e scoprire che faranno al Ti di turno.

Ubro92
15-08-2022, 15:03
No aspè Ubro, forse non ci hanno capito nulla neppure loro a videocardz, ma la 3080 12 è già con 8960 cc.:)

https://www.techpowerup.com/gpu-specs/geforce-rtx-3080-12-gb.c3834

Allora come non detto, mi sa che a furia di tradurre da una lingua all'altra qualcosa si sia perso per strada :sofico:

mikael84
15-08-2022, 15:07
Quando butti fuori una serie su un pp da schifo che non gli appartiene succede che ti ritrovi con un mare di merda rotta in magazzino e la tagli a più non posso per venderla come altro.


Ma per quanto riguarda AD102 si sa quale sarà il chip più completo per la serie gaming? E la sola cosa che mi interessa. Non vorrei ritrovarmi con una 4090 e scoprire che faranno al Ti di turno.

Ed è proprio quello. Stando al rumor, JHH è pieno di scarti e deve venderli. Con GA102 ha tirato fuori 4 quadro, roba mai vista, con devastazioni assurde.

la 4090 liscia, dovrebbe avere 16384cc, la TI ancora non si sa di preciso.
Un rumor la dava come possibile 14848cc/320bit, ma non è sicuro sia la TI al 100%.

Allora come non detto, mi sa che a furia di tradurre da una lingua all'altra qualcosa si sia perso per strada :sofico:

Lo so, quelli fanno copia e incolla, e spesso uno neppure ci pensa.:p

devil_mcry
15-08-2022, 15:23
Prendono la 3080 12GB e gli sbloccano +256cc per un totale di 8960cc :fagiano:

In sostanza abbiamo per GA102:

3080 10GB
3080 12GB (8704cc)
3080 12GB (8960cc)
3080ti
3090
3090ti

Per chi si ricorda successe lo stesso con GT200:

GTX 260 192sp
GTX 260 216sp 65nm
GTX 260 216sp 55nm
GTX 275
GTX 280
GTX 285

No aspè Ubro, forse non ci hanno capito nulla neppure loro a videocardz, ma la 3080 12 è già con 8960 cc.:)

https://www.techpowerup.com/gpu-specs/geforce-rtx-3080-12-gb.c3834


eh infatti non capivo, la mia ha già 8960 cc

FrancoBit
15-08-2022, 16:20
Rispondevo ad uno di prima... dai arrow :)









Si lo so però mi ero ripromesso di non comprare piu amd da allora :D tanto poi i prezzi son quelli.Da azionista AMD non posso fare altro che consigliarti di dargli una nuova chance 🙈

Inviato dal mio M2101K9G utilizzando Tapatalk

fraussantin
15-08-2022, 16:47
Da azionista AMD non posso fare altro che consigliarti di dargli una nuova chance 🙈

Inviato dal mio M2101K9G utilizzando TapatalkConsiglio disinteressato ovviamente :asd:

Cmq amd vanno bene.
Qualche bug a sorpresa nei bios ci sta a alla fine fanno il loro dovere.

Maury
15-08-2022, 18:07
Ok tutto ma giacchetta non è che vuole limitarsi ad usare gpu di 'scarto' in esubero, le vuole vendere, e qui sta la questione. A gennaio la serie 40xx è fuori almeno sino alla 4070, ora... a chi le vende queste 3080 12 ? Le deve piazzare a meno delle 4070, ci troviamo quindi queste bestiole a quanti euro ?? 599 ? Certo che non sapendo il prezzo della 4070 è difficile inquadrare la destinazione

mikael84
15-08-2022, 18:25
Ok tutto ma giacchetta non è che vuole limitarsi ad usare gpu di 'scarto' in esubero, le vuole vendere, e qui sta la questione. A gennaio la serie 40xx è fuori almeno sino alla 4070, ora... a chi le vende queste 3080 12 ? Le deve piazzare a meno delle 4070, ci troviamo quindi queste bestiole a quanti euro ?? 599 ? Certo che non sapendo il prezzo della 4070 è difficile inquadrare la destinazione

No, il punto è molto semplice. Nvidia ha pagato tot wafer annui circa 1 miliardo di $, e la produzione continua. Il problema è che sceso il mining, la produzione continua ma non gliele compra più nessuno (metaforicamente si intende).

"there are simply too many cards to sell and too few customers interested in buying a high-end card just 2 months away from next-gen launch."

Abbiamo visto che con questo PP scadente le rese sono pessime, ma ormai a questo punto della produzione, sono più i chip puri che quelli gravemente fallati.
Se in un wafer gli escono quasi tutte 3090ti/3090 o max 3080ti, cerca di riciclarle in 3080/12 per venderne di più, in quanto sopra non vende niente.
Lo fa pur perdendoci, in quanto non ha soluzioni.
Gli sono rimasti giusto i gamers.

la situazione è proprio l'opposto di come la si dipinge.:)

Gello
15-08-2022, 18:28
Mercato OEM quindi preassemblati, se vuole giacchetta vende 3080 per altri 10 anni.

mikael84
15-08-2022, 18:49
Mercato OEM quindi preassemblati, se vuole giacchetta vende 3080 per altri 10 anni.

E'un problema pressochè iniziale, ha un contratto di 2 anni con samsung, per 15k wafer al mese. A breve sospende li e stampa via TSMC, quindi i chip samsung finiscono.:)
Solo che con il mining quei 15k wafer li polverizzava, ora smerciare quei wafer è ben più complesso.

Se ad ora ne consuma 12 su 15, quei 3 li rimangono, ed a fine contratto si ritroverà praticamente qualche mensilità di wafer da smaltire.
Ecco che infatti, parte con le fasce più elevate, e lo fa addirittura 1/2 mesi dopo, infatti si parla di ottobre.

TigerTank
15-08-2022, 18:51
Premetto che prima bisogna vedere se veramente la 4080 avrà 4 TPC disabilitati, solitamente è raro che nvidia tagli anche i pixel.
In ogni caso col full ci puoi destinare le quadro, le 4080ti mobile (visto che li il chippone non lo possono usare), all'occorrenza creare qualche modello con le micron da 24 gb/s.
Al momento visti i costi, e dato un'occhiata ad AMD, preferisce venderti uno scarto massiccio.:)



Torniamo sempre li, sembra che è il primo cambio gen che vediamo.:p
La 780ti vendeva felice o le titan kepler, ma la 980 non l'ha prezzata a 899$.
La 980ti vendeva felice tra i 7-1000 euro, ma la 1080 non l'ha prezzata a 999$.

Intel ed AMD zen vendono bene, perchè ora cambiano tutto?
La geforce 2 vendeva bene, tanto valeva rimanere sempre con quella.:sofico:

JHH ha già stanziato 7 miliardi di $ per accaparrarsi i 5nm mod, che fa non vorrà venderle a pieno regime? Senza mining non può tirare la corda come vuole, lo sta pagando proprio ora, dove giusto le 3080 riesce a vendere, sopra nulla.

Va detto che i chip, vista la situazione possono aumentare di MSRP, in quanto sono più costosi da produrre, e la situazione non è delle migliori, ma bisogna vedere sino a che punto. La 3080 costava 699$ ed era un cut del chippone, poi tra mining e pandemia è stato un delirio.:)

I die costano di più, ma essendo più piccoli hai il doppio delle rese per wafer.

Vero Mike, però questa generazione tra pandemìa, mining e scalpers a livelli anomali...è stata davvero strana con gente che ha comprato a cifre assurrde(e aumenti di MSRP in un secondo tempo, FE incluse...).......per cui auguriamoci che a fronte di quel che hai scritto e di un calo dei TDP effettivi rispetto a quelli dei primi rumors...non ci abbiano preso comunque troppo gusto a salassare la gente...che tanto comprerebbe lo stesso :D

Mercato OEM quindi preassemblati, se vuole giacchetta vende 3080 per altri 10 anni.
Ahahahah vuoi vedere che la 3080 tra parecchi anni ci sarà ancora e diventerà la nuova GT710? :sofico:

devil_mcry
15-08-2022, 18:51
Vero Mike, però questa generazione tra pandemìa, mining e scalpers a livelli anomali...è stata davvero strano e auguriamoci che a fronte di quelche hai scritto e di un calo dei TDP effettivi rispetto a quelli dei primi rumors...non ci abbiano preso troppo gusto a salassare la gente...che tanto comprerebbe lo stesso :D


Ahahahah vuoi vedere che la 3080 tra parecchi anni ci sarà ancora e diventerà la nuova GT710? :sofico:

almeno con la 3080 si gioca, con la gt710 no

Maury
15-08-2022, 18:53
No, il punto è molto semplice. Nvidia ha pagato tot wafer annui circa 1 miliardo di $, e la produzione continua. Il problema è che sceso il mining, la produzione continua ma non gliele compra più nessuno (metaforicamente si intende).

"there are simply too many cards to sell and too few customers interested in buying a high-end card just 2 months away from next-gen launch."

Abbiamo visto che con questo PP scadente le rese sono pessime, ma ormai a questo punto della produzione, sono più i chip puri che quelli gravemente fallati.
Se in un wafer gli escono quasi tutte 3090ti/3090 o max 3080ti, cerca di riciclarle in 3080/12 per venderne di più, in quanto sopra non vende niente.
Lo fa pur perdendoci, in quanto non ha soluzioni.
Gli sono rimasti giusto i gamers.

la situazione è proprio l'opposto di come la si dipinge.:)

Certo Mikael, ma giacchetta se non sta basso basso con i prezzi non ne vende una, è qui il dubbio, ma poco quanto ? Se non è concorrenziale con la gamma 40xx non ha molto mercato, nessuno la preferirebbe alla 4070.

Sempre che per davvero finiscano tutte in sistemi oem...

TigerTank
15-08-2022, 18:53
almeno con la 3080 si gioca, con la gt710 no

Sì certo, era una battuta intendendo tra 10 anni :D

devil_mcry
15-08-2022, 18:55
Sì certo, era una battuta intendendo tra 10 anni :D

si ma secondo me anche tra dieci anni ancora ci si gioca
con la gt710 non c'è mai stato il suo momento XD

devil_mcry
15-08-2022, 19:02
Certo Mikael, ma giacchetta se non sta basso basso con i prezzi non ne vende una, è qui il dubbio, ma poco quanto ? Se non è concorrenziale con la gamma 40xx non ha molto mercato, nessuno la preferirebbe alla 4070.

Sempre che per davvero finiscano tutte in sistemi oem...

Considera che non è così molti di voi hanno la vga da tanto però se guardi su reddit è pieno di gente che sta comprando ora una 3000

Chi per questi due anni è rimasto a piedi non ha voglia di aspettare, prendi una 3080 o 3080 ti 4-5 mesi prima e tra un 12-18 mesi la cambi senza troppe paranoie

TigerTank
15-08-2022, 19:04
si ma secondo me anche tra dieci anni ancora ci si gioca
con la gt710 non c'è mai stato il suo momento XD

Allora facciamo che nel 2030 la 3080 sarà quella che è oggi la gtx580, lanciata nel 2010 :sofico:

Considera che non è così molti di voi hanno la vga da tanto però se guardi su reddit è pieno di gente che sta comprando ora una 3000

Chi per questi due anni è rimasto a piedi non ha voglia di aspettare, prendi una 3080 o 3080 ti 4-5 mesi prima e tra un 12-18 mesi la cambi senza troppe paranoie

Ma infatti come avevo scritto a tante persone non interessano le successioni cronologiche delle generazioni e restano potenziali clienti per schede di fine serie se "smaltite" a prezzi più appetitosi, come alternativa all'usato. E si ritrovano comunque con una garanzia nuova di pacca.
Alla fine è una cosa che succede anche in molti altri settori dove la gente aspetta le novità, per acquistare le penultime a prezzo di saldo/sconto/MSRP :D

mikael84
15-08-2022, 19:06
Certo Mikael, ma giacchetta se non sta basso basso con i prezzi non ne vende una, è qui il dubbio, ma poco quanto ? Se non è concorrenziale con la gamma 40xx non ha molto mercato, nessuno la preferirebbe alla 4070.

Sempre che per davvero finiscano tutte in sistemi oem...

Ho fatto un post proprio sopra.
Non continuerà in eterno. Ha un contratto di 2 anni con samsung per 15k wafer al mese.
Il suo obbiettivo era terminare le scorte e spostarsi su TSMC e questo sarà.
Una volta terminate le produzioni bisogna vedere quanti wafer gli rimangono.

Doveva debuttare a settembre mediamente, e la 4070 l'ha fatta slittare a dicembre, proprio per avere tempo di smerciare le schede ampere.
Infatti sta già declassando i chip, anche puri, per metterli dove vende meglio (es 3080 12).

Se poi a dicembre, avrà ancora molti wafer, taglierà i prezzi di ampere, come ha fatto con le altre gen.

Ricorda che lui per contratto acquista tot, wafer, con samsung 15k al mese, quindi che ci sia mining o nulla, non cambia.
Col mining 15k li finivi in 5gg, esempio, ora ne finisce 10-12 su 15k al mese (sempre esempio).

fraussantin
15-08-2022, 19:06
Considera che non è così molti di voi hanno la vga da tanto però se guardi su reddit è pieno di gente che sta comprando ora una 3000



Chi per questi due anni è rimasto a piedi non ha voglia di aspettare, prendi una 3080 o 3080 ti 4-5 mesi prima e tra un 12-18 mesi la cambi senza troppe paranoieC'è anche un mercato non di esperti che si fanno il loro primo pc , magari i più giovani , magari si sono decisi adesso dopo le vacanze che gli sono a avanzati dei soldi o semplicemente inizia l'inverno.

Mancano ancora diversi mesi all'uscita delle 4070 ma anche delle 4080 . Non è che i negozi di pc chiudono per ferie fino ad allora.

Non vi ricordavate quanti compravano le 2080ti in estate prima di ampere?

devil_mcry
15-08-2022, 19:11
C'è anche un mercato non di esperti che si fanno il loro primo pc , magari i più giovani , magari si sono decisi adesso dopo le vacanze che gli sono a avanzati dei soldi o semplicemente inizia l'inverno.

Mancano ancora diversi mesi all'uscita delle 4070 ma anche delle 4080 . Non è che i negozi di pc chiudono per ferie fino ad allora.

Non vi ricordavate quanti compravano le 2080ti in estate prima di ampere?

Esatto, ma c'è anche chi non ha voglia di aspettare e al massimo cambia, chi non può aspettare e via dicendo

Una cosa non lede l'altra, tra l'altro questo casino di questi anni a me ha un po' messo l'ansia del "compra quando ti serve se c'è" perché a parte tutto visto cosa può capitare da qui a natale è ancora lunga :|

devil_mcry
15-08-2022, 19:37
Infatti io ho preso la cpu vecchia quanto sta per uscira la nuova proprio per meno sbattimenti. Ma la cosa che cambia di più è la gpu e dunque punto quella per come nuova :) ma capisco chi si accontenta.

io anche cambierò il mio 3900x per un 5950x ora che escono i nuovi, che comunque pare vadano un 30% abbondante in più