PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 [338] 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

Thunder-74
30-03-2022, 11:33
Il punto è proprio quello: abbiamo assistito a gente che ha speso anche 1800€ per una 3080, ok che con i propri soldi ognuno fa quello che vuole ma è oggettivamente troppo per una GPU e, viste le vendite, nulla vieta ar giacchetta-de-pelle di dire "sai che nova c'è? Ora metto la 4080 a 1199€ o addirittura 1399€ tanto vendiamo lo stesso" prova ne è la 3090ti che ha un prezzo fuori da ogni logica a meno che non si consideri una GPU pro, a quel punto potrebbe anche avere un senso come lo aveva la 3090.

Ma, secondo il mio modestissimo parere, è troppo e si è creato un precedente dannoso.


Su questo ti quoto in pieno. Deve sussistere un limite indipendentemente dalle possibilità di spesa, perché anch io credo che poi si sfori nell eccesso immotivato. 1800 euro per una 3080 rimane a scaffale per come la vedo io. Sul fatto che questo mercato malato, possa aver fatto da test sui futuri prezzi , è maleddamente vero ed è certo che vedremo un aumento dei prezzi. Quando uscì Turing vedemmo un incremento sostanziale. Si attribuiva al fatto che il chip era di nuova concezione con i tensor core e al fatto che per contrastare il mining avevano prodotto una valanga di Pascal rimaste poi in magazzino e per vendere queste, avevano differenziato i prezzi delle due famiglie . Da qui io mi aspettavo che ampere sarebbe stata salata, invece fu proposta ad un prezzo più basso rispetto alla 2080ti con prestazioni ben più interessanti . Speriamo che nvidia non faccia scappocciate a settembre e che voglia sorprendere tutti, in primis AMD. Difatti back jacket ama vantarsi dell efficienza ed economicità dei suoi prodotti. Vedremo.


Inviato dal mio iPhone X utilizzando Tapatalk

bonzoxxx
30-03-2022, 11:50
Efficienza ed economicità insomma, secondo giacchetta de pelle sicuro lo sono poi nella realtà sono dei forni a carbone soprattutto le ram senza mod, ci si possono cuocere le uova come al tempo delle mitiche GTX 480 :D:D:D

mikael84
30-03-2022, 12:09
Quanta cicca su quella Strix :oink:

Si leggevo del bios bloccato della HOF. Mi chiedo se mettere due connettori sia un eccesso di scrupolo o specchietto per le allodole, visto che altri modelli propongono stesso wattaggio con un solo connettore. Che sia rischioso avvicinarsi ai 525w con un solo connettore?

Ai 450 (3x8), 525 è con il pci express.:)
Cmq, bisogna dire che quelle schede andranno si a qualche smanettone della domenica, ma sono per azoto, i quali ricorreranno a mod hardware, shunt, bios da 1kw e varie.
Il bello è che per alimentare queste GPU ti serviranno, 6x8 pin, oppure un nativo, più un adattatore 3x8. :)

Io spero che le prestazioni RT non aumenteranno solo in proporzione all'aumento di potenza teorica computazionale ma anche in quota parte per aumento dell'efficienza. Un x2.2 x2.5 rispetto alla RX 6900 XT in raster sono anche troppi ma in RT non sono ancora sufficienti.
Inoltre bisognerà vedere FSR 2.0 come andrà ma soprattutto se troverà larga diffusione!

Hai detto bene, teorici, perchè con il MCM le latenze saranno superiori rispetto al monolitico, e servirà tanta cache e gruppi di shader, per cercare di sfruttare al meglio il tutto, con quante unità di calcolo attive ed in Idle (se il gruppo in idle deve attendere secoli per gli accessi vari, la parallelizzazione scende).
Sugli RT, non conosco ancora le modifiche, neppure quelle di nvidia, ma so che AMD ci sta lavorando seriamente.
Ad oggi una 6900xt può calcolare un picco di 46-47TF in RT, una 3070ti sta a 45 di solo RT core, no shader.


Sicuro che non comprerò mai una scheda che da 450 o 600W di TDP che siano, pertanto confido in AMD che riesca a fare qualcosa di performance ottimizzando i consumi.
Trovo strano che un'azienda come Nvidia, con le problematiche energetiche che stiamo incontrando non presti minima attenzione a tale aspetto!

E' una coperta corta, da una parte si vuole tanta potenza, dall'altra si è costretti ad "arrangiarsi", ormai tutti i nodi, offrono tanta densità, ma a guardarli bene, lato efficienza, sono solo delle migliorie.
Anche AMD non sarà molto meno energivora, prendi 2 6700xt (grandezza dei die) e mettile in MCM, + 384mb di cache.

La vedo davvero solo Pro, lato game mi sembra fuori target, infatti rimangono sullo scaffale da quanto leggo :)

Ho una percezione diversa relativa alla potenza di questa nuova scheda, non impressiona per niente, non basta un semplice 4070 per farla fuori ? :sofico:

E lo è in buona parte, 3090 e 3090ti sono le uniche con nvlink attivo, ovvero permette tramite questo connettore di raggiungere i 48gb per l'utilizzo di certi programmi. Per dire, una A6000 con 48gb di ram costa 6000 euro.

Lato lovelace, beh, AD103, è lo stesso della 3090ti fatto a 5nm (con meno bus ma + cache):)
Dopo se la 4070 sia full o una devastazione poco cambia, 2 ghz sui 5nm probabilmente saranno presi a soli 0,8v volendo.
Uno degli aspetti che faranno lievitare i consumi, saranno sicuramente i clock, e questi andranno a precludere l'efficienza totale che si avrebbe con un nodo simile.:)

Avrà valore per chi fa rendering dove i 24gb sono utili . Questa, come la 3090, è più da pro che da gaming . Lo abbiamo sempre detto. Per il gaming ampere si ferma con la 3080ti, dove anche una 3080 liscia da 12gb fa benissimo. Dipende solo dal prezzo di acquisto tra le due . A 719 la 3080 10gb rappresentava il non plus ultra del rapporto costo/prestazioni per il gaming .


Inviato dal mio iPhone X utilizzando Tapatalk

Verissimo.:)

Forse una delle poche frecce nell'arco della 3090Ti sono le Vram su un solo lato ed i sistemi di dissipazione migliorati, come nella TUF OC che ha un'unica placca di contatto e non 3 strati a panino come la 3090 liscia. Per il resto... aspettiamo la 4080/90.

Anche se non riesco a capire fino in fondo il senso di questa scheda. O le Lovelace non sono così dietro l'angolo, o il pp è finalmente affinato e questa doveva essere la 3090 fin dall'inizio e adesso provano a spennare gli ultimi polli, oppure stanno calibrando il tiro per vedere fin dove possono spennare con le prossime. Per fortuna ad adesso la scheda è ancora a scaffale.

Anche perché, nel mio disagio mentale, un pensiero ce l'ho pure fatto, ma anche adesso che finalmente ho un monitor degno di una 3090, questa scheda non mi risolve certo i problemi in 4k, dove non arrivo con la 3090 non ci arrivi manco con questa, quindi aspetto fiducioso di vedere se almeno con le 4000 i 60 fps minimi saranno garantiti.
Senza contare il discorso di WB e Backplate, che sicuramente non saranno compatibili.

Questa GPU, è stata lanciata per toccare con mano, ciò che sarà Lovelace, ed allo stesso tempo vedere la reazione degli enthusiast.
Sulla potenza, chiaramente, gode di rese migliori, è un full chip, attualmente utilizzato solo sulla A6000, ma rispetto alla 3090 liscia, bisogna contestualizzare il fatto che boosta già a 2ghz e non a 1750. Sotto OC, soprattutto a liquido, il divario si riduce.:)

kiwivda
30-03-2022, 12:47
Questa GPU, è stata lanciata per toccare con mano, ciò che sarà Lovelace, ed allo stesso tempo vedere la reazione degli enthusiast.
Sulla potenza, chiaramente, gode di rese migliori, è un full chip, attualmente utilizzato solo sulla A6000, ma rispetto alla 3090 liscia, bisogna contestualizzare il fatto che boosta già a 2ghz e non a 1750. Sotto OC, soprattutto a liquido, il divario si riduce.:)

Concordo, certo il divario delle recensioni che consiste in circa un 8% medio, di sicuro se fosse stato fatto in oc su entrambe le schede, chissà magari sarebbe un 4%.

Tuttavia faccio fatica a capire come una scheda simile possa far toccare con mano ciò che sarà Lovelace. Mi spiego. Non penso che una scheda da 550W con prestazioni che, da quel che pare, saranno la fascia media di Lovelace, possa essere un test sul campo, se così fosse, Lovelace allora sarà una mxxxa. Mi auguro vivamente che una 4070/Ti non arrivi a questi consumi con queste performance perché nel caso sarebbe involuzione più che evoluzione.

Io mi aspetto o performance simili con molta meno corrente o performance molto più alte con la stessa corrente fascia su fascia, sbaglio?

Telstar
30-03-2022, 13:51
Se nVidia o chi per esso pensa di replicare quanto vissuto con Ampere si sbaglia e non poco.

Ma Nvidia non l'ha mai pensato, vedi i prezzi delle founders. Sono stati i produttori terzi e poi a giro tutta la catena a gonfiare i prezzi a dismisura.

Telstar
30-03-2022, 13:52
Io mi aspetto o performance simili con molta meno corrente o performance molto più alte con la stessa corrente fascia su fascia, sbaglio?

Si, e un mix di entrambe le cose.

Ubro92
30-03-2022, 14:18
Comunque i prezzi già stanno calando molto, non siamo ancora ai livelli di MSRP ma da caseking si trovano disponibili:

3050ti a 370€
3060 a 470€
3060ti a 619€
3070ti a 839€

Penso che da qui fino all'uscita delle intel sarà tutto un lento abbassamento, non so se arriviamo all'MSRP ma già è un'ottima notizia, anche perchè non parliamo di schede prese sui canali telegram che durano 10sec ma di schede pronte e disponibili.
Anche da ePrice noto miglioramenti, anche se non ai livelli di caseking.

Anche sull'usato, non c'è più quell'assalto da avvoltoi su ogni chip, molte schede permangono invendute.

Maury
30-03-2022, 14:35
Ma Nvidia non l'ha mai pensato, vedi i prezzi delle founders. Sono stati i produttori terzi e poi a giro tutta la catena a gonfiare i prezzi a dismisura.

Certo, nVidia è uscita con degli MSRP addiritura assurdamente bassi. Però nulla le vieta di pensare che, dato il precedente, sia possibile alzare di molto il prezzo base... tanto la gente compra.

mikael84
30-03-2022, 14:53
Concordo, certo il divario delle recensioni che consiste in circa un 8% medio, di sicuro se fosse stato fatto in oc su entrambe le schede, chissà magari sarebbe un 4%.

A pari clock sono 2,44% di ALU in più e ram a 21 gb/s (anche per la liscia sono le 21, ma downclockate, ed ovviamente non salgono uguale).


Tuttavia faccio fatica a capire come una scheda simile possa far toccare con mano ciò che sarà Lovelace. Mi spiego. Non penso che una scheda da 550W con prestazioni che, da quel che pare, saranno la fascia media di Lovelace, possa essere un test sul campo, se così fosse, Lovelace allora sarà una mxxxa. Mi auguro vivamente che una 4070/Ti non arrivi a questi consumi con queste performance perché nel caso sarebbe involuzione più che evoluzione.

Forse mi sono spiegato male io, questa scheda è un test per il calibro delle nuove, tra cui, alimentazione, connettore new gen etc. Ora sappiamo che aspettarci su questo piano.:)
Su lovelace, chi arriverà a questi consumi, sarà la fascia enthusiast, magari la stessa 4090, che, come abbiamo visto, il connettore, altro non è che un 3x8.
AD103, il chip di fascia medio-alta, sarà una sorta di shrink di GA102 con bus più piccolo x 16gb e cache mastodontica.
Qua dipenderà dalla densità effettiva attuabile. Con un 2x (88mt per mm2), diverrà un chippetto da 320/350mm2 circa.
Per fare un rapporto samsung/tsmc bisogna fare troppi calcoli approssimativi, ma un 5nm in efficienza è mediamente un 7nm tsmc.
Come puoi vedere dal grafico teorico, il salto sarà bello elevato in efficienza, immagina di partire dall'equivalente 10nm TSMC, sino ai 5nm (che potrebbe essere 4nm, una sorta di 5nmP.
Per fare un esempio con AMD, questo sta tra sui 7nmP e 6nm
Mentre samsung 8LPP, clocka quanto un 16nm TSMC.:)
https://i.postimg.cc/dtXpGz07/tsmc.png


Io mi aspetto o performance simili con molta meno corrente o performance molto più alte con la stessa corrente fascia su fascia, sbaglio?

Si mediamente sarà così. Nell'equazione dei consumi, andrà calcolato anche il clock.
In ogni caso, se Big Lovelace sarà sui 450 di TDP, AD103, è quasi la metà di quest ultimo.:)

Comunque i prezzi già stanno calando molto, non siamo ancora ai livelli di MSRP ma da caseking si trovano disponibili:

3050ti a 370€
3060 a 470€
3060ti a 619€
3070ti a 839€

Penso che da qui fino all'uscita delle intel sarà tutto un lento abbassamento, non so se arriviamo all'MSRP ma già è un'ottima notizia, anche perchè non parliamo di schede prese sui canali telegram che durano 10sec ma di schede pronte e disponibili.
Anche da ePrice noto miglioramenti, anche se non ai livelli di caseking.

Anche sull'usato, non c'è più quell'assalto da avvoltoi su ogni chip, molte schede permangono invendute.

Vero
Da BPM c'è la 3070 manli (pcpartner come Zotac-inno3d) a 670. Se uno è proprio a piedi, non è così male.:)

kiwivda
30-03-2022, 15:27
Si mediamente sarà così. Nell'equazione dei consumi, andrà calcolato anche il clock.
In ogni caso, se Big Lovelace sarà sui 450 di TDP, AD103, è quasi la metà di quest ultimo.:)


Ah beh allora in questo caso se avessimo un AD103 che va come una 3090 a metà consumi, non resta che aspettare, e chissené della 3090TI :D

Maury
30-03-2022, 15:43
E lo è in buona parte, 3090 e 3090ti sono le uniche con nvlink attivo, ovvero permette tramite questo connettore di raggiungere i 48gb per l'utilizzo di certi programmi. Per dire, una A6000 con 48gb di ram costa 6000 euro.

Lato lovelace, beh, AD103, è lo stesso della 3090ti fatto a 5nm (con meno bus ma + cache):)
Dopo se la 4070 sia full o una devastazione poco cambia, 2 ghz sui 5nm probabilmente saranno presi a soli 0,8v volendo.
Uno degli aspetti che faranno lievitare i consumi, saranno sicuramente i clock, e questi andranno a precludere l'efficienza totale che si avrebbe con un nodo simile.:)


Se ipotizziamo un clock di 2.5 ghz c'è di che sfregarsi le manine...

Dai rossi c'è una 7700xt con le prestazioni da 6900xt a metà prezzo, così ho letto nel link che hai postato, i verdi non possono certo far finta di nulla, meglio per noi :sofico:

bonzoxxx
30-03-2022, 15:49
Le premesse sono molto buone..

Ubro92
30-03-2022, 15:57
Se i clock saranno soddisfacenti, la 3090 la prendi anche con un AD104 pompato senza scomodare AD103 XD

Riguardo navi 33 ha però una pecca, che potrebbe diventare un vantaggio, ovvero i 128bit di bus, quindi con la doppia densità puoi montare massimo 8GB, però se optano per il clamshell per tutta la lineaup possiamo aspettarci tagli di 16/24/32GB per i rispetti 128/192/256bit di bus :sofico:

kiwivda
30-03-2022, 16:28
Se i clock saranno soddisfacenti, la 3090 la prendi anche con un AD104 pompato senza scomodare AD103 XD


Questo avrebbe dell'incredibbbbbbile, ma se fosse così costerebbe quanto una 3080Ti oggi e non oso immaginare le altre :D :D

mikael84
30-03-2022, 16:45
Ah beh allora in questo caso se avessimo un AD103 che va come una 3090 a metà consumi, non resta che aspettare, e chissené della 3090TI :D

Beh, ma con i 5nm, non vedremmo di certo 1950mhz, parte dei consumi saranno recuperati con il clock, ma niente a che vedere con i 450watt, diventerà un mid chip.:)
Un 5nm quei clock magari li prende a 0,8v. Un grosso ruolo lo giocherà questo.
Se prendiamo il chip HPC, i flops sono aumentati del 2.4x al 40% e 3x al 70%, ma partiva già da una base di 7nm, quindi non ha potuto avere la stessa efficienza.:)

Se ipotizziamo un clock di 2.5 ghz c'è di che sfregarsi le manine...

Dai rossi c'è una 7700xt con le prestazioni da 6900xt a metà prezzo, così ho letto nel link che hai postato, i verdi non possono certo far finta di nulla, meglio per noi :sofico:

Il 30% di clock, lo prende già l'HPC, che è ben più complesso, quindi è lecito aspettarselo anche in game (a dire il vero, viene pure speculato dai più).
Sui rossi, sono speculazioni ovviamente, ma che possa andare come navi21 c'è la seria possibilità, considerando che con il 6nm, hanno tirato fuori clock sopra ai 2,8. Inoltre dovrebbe migliorare anche il RT.
Per l'appunto se una tale GPU, dovesse costare circa 599$, significa che pure la 4070 sarà mediamente allineata.:)

Se i clock saranno soddisfacenti, la 3090 la prendi anche con un AD104 pompato senza scomodare AD103 XD

Riguardo navi 33 ha però una pecca, che potrebbe diventare un vantaggio, ovvero i 128bit di bus, quindi con la doppia densità puoi montare massimo 8GB, però se optano per il clamshell per tutta la lineaup possiamo aspettarci tagli di 16/24/32GB per i rispetti 128/192/256bit di bus :sofico:

Il problema è che con la densità e le ram sempre più veloci, si stanno abbattendo i bus per la cache (visto che i collegamenti sono complessi), ma si sta arrivando al paradosso che poi bisognerà complicarsi la vita con il clamshell.:sofico:
L'unico modo è l'introduzione della quadrupla densità.

davide155
30-03-2022, 20:06
Vero

Da BPM c'è la 3070 manli (pcpartner come Zotac-inno3d) a 670. Se uno è proprio a piedi, non è così male.:)

Su bpm c'è pure la 3080ti manli a 1189euro.
Prezzo più basso sulla terra.
Assurdo come siano calate di prezzo nelle ultime 2 settimane.
Soprattutto la disponibilità, è aumentata a dismisura.
Adesso tutti i più grandi reseller hanno tante gpu disponibili.

Lorenzop1966
30-03-2022, 21:14
Non appena si saprà il prezzo delle nuove schede, che sarà alto, si venderanno le 3070/80/90.

floop
30-03-2022, 21:52
dite quindi di evitare a prendere una 3080 a 900/1k?

Lorenzop1966
30-03-2022, 21:53
dite quindi di evitare a prendere una 3080 a 900/1k?
Fossi in te la prenderei.

bonzoxxx
30-03-2022, 22:04
dite quindi di evitare a prendere una 3080 a 900/1k?

Dipende se ti serve davvero tanto perché sei completamente a piedi, viste le prestazioni delle nuove GPU, al netto dei prezzi che non si sanno, forse sarebbe buono aspettare e tamponare con una gpu temporanea.

Magari prendi una 3060ti se la trovi al drop, è decente e secondo me calerà poco nel mercato dell'usato da qui a qualche mese

floop
30-03-2022, 22:20
magari forse riesco a scendere a 850 alla fine non è di quelle versione top

bonzoxxx
30-03-2022, 22:33
850 non è male è molto vicino al prezzo msrp.

Dono89
31-03-2022, 06:41
magari forse riesco a scendere a 850 alla fine non è di quelle versione top


Una 3080 custom a 850 è da prendere senza troppi indugi

Da msrp sta a 100e in meno

kiwivda
31-03-2022, 07:55
Hanno droppato sul sito nvidia tramite LDLC tutte le serie 30, sono tutte sold out tranne la 3090Ti che epic fail!

MarkkJ
31-03-2022, 08:38
Hanno droppato sul sito nvidia tramite LDLC tutte le serie 30, sono tutte sold out tranne la 3090Ti che epic fail!

azz, su telegram non mi è arrivato nulla

bonzoxxx
31-03-2022, 08:39
azz, su telegram non mi è arrivato nulla

idem non ho nessuna notifica

davide155
31-03-2022, 08:57
magari forse riesco a scendere a 850 alla fine non è di quelle versione topCredo tu stia parlando di usato giusto?
In quel caso dipende che garanzia ha, se negozio fisico in italia oppure la devi rispedire all'estero (caseking ecc), in questo caso anche 850euro potrebbero esser tanti, ora come ora, coi prezzi in discesa libera.
Per 100euro in più prenderei una 3080 nuova e festa finita.
Le 3080 droppano giornalmente a 999 ho visto.
Ci sta che da qui a fine aprile dropperanno al prezzo che stavano a dicembre 2020, ovvero le tuf e strix a 899 su amazon italia.

StylezZz`
31-03-2022, 10:03
dite quindi di evitare a prendere una 3080 a 900/1k?

magari forse riesco a scendere a 850 alla fine non è di quelle versione top

Considerando che i prezzi scenderanno parecchio di qua a settembre, e che le nuove schede sono ormai dietro l'angolo...direi di evitare.

terranux
31-03-2022, 10:16
dite quindi di evitare a prendere una 3080 a 900/1k?
no và presa. chi ti dice che poi ci saranno a settembre? se poi è uguale o peggio che fai. se non hai un scheda prendila

Wolf91
31-03-2022, 10:22
dite quindi di evitare a prendere una 3080 a 900/1k?Se ti serve e soddisfa il tuo rapporto prestazioni/costo prendila,se aspetti il duemilamai non comprerai mai nulla.

All'uscita della nuova gen non è che esploderanno,mancano ancora tanti mesi,non è proprio dietro l'angolo,senza considerare se si riusciranno a prendere in tempi e costi ragionevoli.

razor820
31-03-2022, 11:53
Hanno droppato sul sito nvidia tramite LDLC tutte le serie 30, sono tutte sold out tranne la 3090Ti che epic fail!


Che prezzo?

amon.akira
31-03-2022, 12:35
Che prezzo?

ldlc fa solo i prezzi ufficiali sulle founders

Yota79
31-03-2022, 13:17
C'e sempre la 3090ti FE disponibile... :mc: :mc: :mc: :D :D :D

kiwivda
31-03-2022, 13:28
C'e sempre la 3090ti FE disponibile... :mc: :mc: :mc: :D :D :D

Ah quella non molla, è la regina dello scaffalehhhh! Poi ormai tra le nuove Intel e le Lovelace, io ho chiuso baracca.

Yota79
31-03-2022, 13:31
Ah quella non molla, è la regina dello scaffalehhhh! Poi ormai tra le nuove Intel e le Lovelace, io ho chiuso baracca.

A me fa sorridere il fatto che le altre sono tutte sparite sempre all'istante (sebbene la situazione stia migliorando) ma questa 3090ti con il 9% in più ad un prezzo del 35% in +.. manco chi ha i soldi ci è cascato.

Cioè una volta magari qualcuno con i soldi "da buttare" il cambio lo avrebbe fatto... ma qua a mio avviso è talmente alta la presa in giro (tra prezzo / prestazioni / consumi) che nemmeno chi fa lo sborone l'ha comprata! :stordita: :stordita:

McRooster23
31-03-2022, 13:55
Hanno droppato sul sito nvidia tramite LDLC tutte le serie 30, sono tutte sold out tranne la 3090Ti che epic fail!

Perdonami ma l'unico drop di cui c'è traccia in questi giorni è quello della 3090Ti.
Tu dove hai letto questa cosa?
Tra tutte le pagine twitter/telegram che seguo, nessuna ha riportato niente.

MarkkJ
31-03-2022, 14:00
Perdonami ma l'unico drop di cui c'è traccia in questi giorni è quello della 3090Ti.
Tu dove hai letto questa cosa?
Tra tutte le pagine twitter/telegram che seguo, nessuna ha riportato niente.
Infatti è parsa anche a me strana la cosa, pensavo al pesce d'aprile ma siamo il 31 marzo

mattxx88
31-03-2022, 14:22
Perdonami ma l'unico drop di cui c'è traccia in questi giorni è quello della 3090Ti.
Tu dove hai letto questa cosa?
Tra tutte le pagine twitter/telegram che seguo, nessuna ha riportato niente.

l'ultimo di drop delle "piccole" è stato il 22/02 hai ragione, l'altro giorno han droppato solo la 3090ti le altre erano gia sold out e lo sono rimaste:stordita:

Maury
31-03-2022, 14:30
C'e sempre la 3090ti FE disponibile... :mc: :mc: :mc: :D :D :D

Corrooooo :sofico:

Yota79
31-03-2022, 14:34
Corrooooo :sofico:

Dajeeeeeeeee

Cacciate sti 2200€... non fate i barboni. :D :D :D

mikael84
31-03-2022, 14:41
Su bpm c'è pure la 3080ti manli a 1189euro.
Prezzo più basso sulla terra.
Assurdo come siano calate di prezzo nelle ultime 2 settimane.
Soprattutto la disponibilità, è aumentata a dismisura.
Adesso tutti i più grandi reseller hanno tante gpu disponibili.

Non è male, anche se Manli da BPM non è che mi lasci tranquillo per la garanzia.
Cmq dovendo acquistare ora in fascia alta, valuterei solo la TI (a quei prezzi) o la 3080 12gb, per la memoria decente, nel caso la si tenga.

A me fa sorridere il fatto che le altre sono tutte sparite sempre all'istante (sebbene la situazione stia migliorando) ma questa 3090ti con il 9% in più ad un prezzo del 35% in +.. manco chi ha i soldi ci è cascato.

Cioè una volta magari qualcuno con i soldi "da buttare" il cambio lo avrebbe fatto... ma qua a mio avviso è talmente alta la presa in giro (tra prezzo / prestazioni / consumi) che nemmeno chi fa lo sborone l'ha comprata! :stordita: :stordita:

Bisogna anche sottolineare che quel 9/10% è ricavato per via del TDP (e bin buono). Se si possiede una buona 3090 liscia, a pari clock le differenze diventano risibili, sono appena il 2,4% di ALU in più, con scaling neppure lineare e ram a 21 senza downclock, come nella liscia per via del clamshell.

mattxx88
31-03-2022, 14:52
Bisogna anche sottolineare che quel 9/10% è ricavato per via del TDP (e bin buono). Se si possiede una buona 3090 liscia, a pari clock le differenze diventano risibili, sono appena il 2,4% di ALU in più, con scaling neppure lineare e ram a 21 senza downclock, come nella liscia per via del clamshell.

esatto, la mia 3090 shuntata è sopra a tutti i test 3d mark di guru3d https://www.guru3d.com/articles_pages/msi_geforce_rtx_3090_ti_suprim_x_review,22.html

le 3090ti hanno un bin superbo cmq

mikael84
31-03-2022, 15:11
esatto, la mia 3090 shuntata è sopra a tutti i test 3d mark di guru3d https://www.guru3d.com/articles_pages/msi_geforce_rtx_3090_ti_suprim_x_review,22.html

le 3090ti hanno un bin superbo cmq

Che per assurdo spesso sono più alti della norma.:p
Quella suprim dovrebbe boostare già sopra i 2ghz, le 3090 delle review, scendono anche a 1750mhz.
Per il resto sono binnatissime, ma anche le rese sicuramente sono migliorate.

mattxx88
31-03-2022, 15:15
Che per assurdo spesso sono più alti della norma.:p
Quella suprim dovrebbe boostare già sopra i 2ghz, le 3090 delle review, scendono anche a 1750mhz.
Per il resto sono binnatissime, ma anche le rese sicuramente sono migliorate.

esatto 1950 per la precisione

3090:
https://www.3dmark.com/spy/25996500

3090ti:
https://www.3dmark.com/spy/27236825

mettiamoci una piccola percentuale di errore nei benchmark..

mikael84
31-03-2022, 15:30
esatto 1950 per la precisione

3090:
https://www.3dmark.com/spy/25996500

3090ti:
https://www.3dmark.com/spy/27236825

mettiamoci una piccola percentuale di errore nei benchmark..

Avevo guardato il clock da qua, cmq poco cambia.
https://www.techpowerup.com/review/msi-geforce-rtx-3090-ti-suprim-x/39.html

Per il resto siamo li, differenze irrisorie, la 3090 del test ha un pelino in più di ram.
Questo a te poteva fare comodo, perchè sono 21 stock, non clamshell, quindi meglio occabili e da una base più elevata. Vedo raggiungere addirittura 24 gb/s.

mattxx88
31-03-2022, 16:46
Avevo guardato il clock da qua, cmq poco cambia.
https://www.techpowerup.com/review/msi-geforce-rtx-3090-ti-suprim-x/39.html

Per il resto siamo li, differenze irrisorie, la 3090 del test ha un pelino in più di ram.
Questo a te poteva fare comodo, perchè sono 21 stock, non clamshell, quindi meglio occabili e da una base più elevata. Vedo raggiungere addirittura 24 gb/s.

Tra figli e lavoro a me farebbe comodo del tempo libero ormai, altro che Mike :mc: :cry:
ormai gli upgrade sono dei meri sfizi di provare l'ultima uscita ahimè :)
una volta mi davano soddisfazione il buon Edo(ram) e Fabietto coi bench, era un bel battagliare :D

floop
31-03-2022, 16:51
Se ti serve e soddisfa il tuo rapporto prestazioni/costo prendila,se aspetti il duemilamai non comprerai mai nulla.

All'uscita della nuova gen non è che esploderanno,mancano ancora tanti mesi,non è proprio dietro l'angolo,senza considerare se si riusciranno a prendere in tempi e costi ragionevoli.

ma infatti come si parla qui pare che a maggio arrivano vagonate di 4070 che vanno come la 3090 a 500 euro lol

razor820
31-03-2022, 17:08
Ma poi di che stiamo a parlare.. Ci lamentiamo di una titan che costa 2.200€ quando fino a poco tempo fa un sacco di utenti compravano a 2000 euro 3080 usate..

Adesso ci lamentiamo pure che è in stock. Questo è inverosimile.
Tra L altro parlo per esperienza personale che solamente dopo 8 mesi dall uscita presi la 3080ti

E non è vero che con L uscita delle 40xx si troveranno 3080 a 500 euro.. Come infatti si vendevano 2080ti ultra sfruttate e con ventole rotte a 1000 euro fino a qualche mese fa.. purtroppo vittima un mio amico su questo forum :D

floop
31-03-2022, 17:20
Ma poi di che stiamo a parlare.. Ci lamentiamo di una titan che costa 2.200€ quando fino a poco tempo fa un sacco di utenti compravano a 2000 euro 3080 usate..

Adesso ci lamentiamo pure che è in stock. Questo è inverosimile.
Tra L altro parlo per esperienza personale che solamente dopo 8 mesi dall uscita presi la 3080ti

E non è vero che con L uscita delle 40xx si troveranno 3080 a 500 euro.. Come infatti si vendevano 2080ti ultra sfruttate e con ventole rotte a 1000 euro fino a qualche mese fa.. purtroppo vittima un mio amico su questo forum :D

si volevo dire, come dicono qua pare che dopodomani arrivano vagonate di vga nuove a poco lol forse solo ora si vedono più 3060 e 6600 ma non è la stessa cosa per le 3080 e 6800

Wolf91
31-03-2022, 17:35
ma infatti come si parla qui pare che a maggio arrivano vagonate di 4070 che vanno come la 3090 a 500 euro lolAppunto,se hai intenzione di sfruttarla da qui a fine anno,prendila ad occhi chiusi,sono 6 mesi mica 2 settimane,sempre se si riescono a prendere quasi subito.

Io la penso così,alla fine stanno anche calando,se avessi dovuto prenderla a 1300€ 1400€,ti avrei detto di aspettare.

Il discorso sta in poco posto,per te vale quella cifra,si o no,poi fai di conseguenza il resto sono pippe mentali.

mikael84
31-03-2022, 17:58
Tra figli e lavoro a me farebbe comodo del tempo libero ormai, altro che Mike :mc: :cry:
ormai gli upgrade sono dei meri sfizi di provare l'ultima uscita ahimè :)
una volta mi davano soddisfazione il buon Edo(ram) e Fabietto coi bench, era un bel battagliare :D

Ti capisco Matt.:)
Edo cmq è ancora attivo, certo posta solo qualche sporadico bench nel thread, a rivederlo con le prox.
Shunt e mod varie, sono troppo di nicchia. Teoricamente tu saresti pronto per fare l'ultimo step, l'azoto alla rsannino e barbonet.:read:
Difficile, perchè molti che si spingono sino a li, ci vivono da questo, per uno che vive di altro (se non ricordo male) è un problema con i tempi.

si volevo dire, come dicono qua pare che dopodomani arrivano vagonate di vga nuove a poco lol forse solo ora si vedono più 3060 e 6600 ma non è la stessa cosa per le 3080 e 6800

Diciamo che sei indeciso... la vuoi prendere però non parti convinto.:p
Premesso che ogni commento va rispettato, poi si può essere daccordo o meno, ma la situazione, se segui il thread è:
-settembre, debutto dei chip AD102.
- AD103, potrebbe debuttare a settembre, come uno, 2 mesi dopo.
- i chip sono stati svelati tramite hackeraggio, quindi affidabili.
- prezzi e disponibilità non si sanno, ma non ci sarà nessuna x70 a 999$ MSRP (al massimo per carenze varie), e lecito aspettarsi dei cambiamenti sul mercato.

Comprando ora, una 3080, puoi tranquillamente decidere di saltarlo Lovelace.;)

StylezZz`
31-03-2022, 19:33
ma infatti come si parla qui pare che a maggio arrivano vagonate di 4070 che vanno come la 3090 a 500 euro lol

Io intendevo dire che i prezzi delle attuali di qua a settembre caleranno ancora perchè devono fare spazio alle nuove, sono diminuiti i miners, sono diminuiti i clienti disposti a spendere 1000+ euro e di conseguenza anche gli scalpers, e la domanda è calata di brutto.

Se le nuove si troveranno a vagonate a prezzo msrp è un incognita, infatti io sono indeciso se prendere una 3000 appena scendono ancora, o una nuova 4000/AMD 7000 :boh:

Kaheleha
31-03-2022, 20:40
Per chi è interessato Amazon ha appena droppato una
Zotac - Scheda grafica GEFORCE RTX 3070 Ti OC
865€ venduta e spedita da loro

Wilde
31-03-2022, 21:24
Si cominciano a trovare delle 3600 con 2 ventole palit e manli a 450 (no oc)

Con poco meno di 500 euro si prende msi ventos.... sembra un prezzo "basso" ma parliamo sempre di scheda di fascia media

Chissa i prezzi delle nuove vga :mc:

caccapupu91
31-03-2022, 23:11
Da oggi pomeriggio c'è la Inno 3D 3060 a 555,56 euri by amazon (quella di hwupgrade ads)

e niente, non va più di moda :asd:

Goofy Goober
01-04-2022, 05:15
su bpm c'erano delle manli 3080 a 900, la 12gb a 1100 e la 3080ti a 1300, tutte versioni LHR.

Non male considerato chi può prenderle con piva, e tenendo presente che la Ti è in linea con quello che costava la 2080ti.
Ovviamente sono tutte schede a pcb reference design quindi senza OC.

Io intendevo dire che i prezzi delle attuali di qua a settembre caleranno ancora perchè devono fare spazio alle nuove, sono diminuiti i miners, sono diminuiti i clienti disposti a spendere 1000+ euro e di conseguenza anche gli scalpers, e la domanda è calata di brutto.

Se le nuove si troveranno a vagonate a prezzo msrp è un incognita, infatti io sono indeciso se prendere una 3000 appena scendono ancora, o una nuova 4000/AMD 7000 :boh:

Secondo me è probabile si ripeta lo scenario di lancio 3xxx, anche prima dell'ultima serie c'era un periodo di assestamento e di price drop delle 2xxx, poi appena uscite le nuove.... subito scomparse e cripto in impennata sul valore.

non ho sfera di cristallo ma è facile immaginarsi ETH (che ancora non viene aggiornato.... strano eh...) che sale velocemente all'arrivo delle 4xxx, che presumo non saranno lanciate con un limitatore all'hashrate :stordita:

McRooster23
01-04-2022, 09:21
Comunque lo store Nvidia ha disattivato le api che consentivano di visualizzare l'eventuale disponibilità delle schede ed il loro link su ldlc (quelle che usavano i bot telegram per intenderci).
Inoltre Marzo è stato il primo mese in assoluto (da quando nvidia vende su ldlc) a non avere nessun drop.

Se due indizi fanno una prova direi che la vendita delle FE serie 3000 è ufficialmente terminata.

Complimenti a chi ci è riuscito e in bocca a lupo per la serie 4000 a chi non ce l'ha fatta :asd:

MarkkJ
01-04-2022, 09:23
ma quindi il drop di ieri non è stato "tracciato" per quello?

Thunder-74
01-04-2022, 09:29
Arrivati ad aprile forse è il caso di aspettare le 4000 per settembre. Chi vorrà risparmiare, potrà trovare qualche ottimo usato di ampere.


Inviato dal mio iPhone X utilizzando Tapatalk

McRooster23
01-04-2022, 09:37
ma quindi il drop di ieri non è stato "tracciato" per quello?

Si, se c'è stato, non è stato tracciato per questo motivo.

Però continuo a non capire dove avete letto che ieri ci sarebbe stato un drop :asd:

Arrivati ad aprile forse è il caso di aspettare le 4000 per settembre

Secondo me per questo avrebbe senso smettere di vendere le FE 3000.
A questo punto conviene concentrare gli "sforzi" sulla serie nuova.

Kaheleha
01-04-2022, 10:01
Si, se c'è stato, non è stato tracciato per questo motivo.

Però continuo a non capire dove avete letto che ieri ci sarebbe stato un drop :asd:



Secondo me per questo avrebbe senso smettere di vendere le FE 3000.
A questo punto conviene concentrare gli "sforzi" sulla serie nuova.
A che scopo? nvidia comunque venderà sempre la serie 3000 fino alla messa in vendita della serie 4xxx e anche dopo, quindi non vedo l'interesse di arrestare la vendita delle attuali schede :)
ps per la cronaca le zotac 3070ti su amazon ieri erano disponibili 10 unità e stamattina ne è rimasta solo una
Quindi a maggior ragione che nvidia non smetterà di vendere queste vga

McRooster23
01-04-2022, 10:10
A che scopo? nvidia comunque venderà sempre la serie 3000 fino alla messa in vendita della serie 4xxx e anche dopo, quindi non vedo l'interesse di arrestare la vendita delle attuali schede :)
ps per la cronaca le zotac 3070ti su amazon ieri erano disponibili 10 unità e stamattina ne è rimasta solo una
Quindi a maggior ragione che nvidia non smetterà di vendere queste vga

Premetto che ho scritto "avrebbe senso smettere di vendere le FE 3000", quindi mi riferisco solo a quelle, non all'intera serie.
Inoltre ormai i prezzi sono quasi ad MSRP e continueranno a calare, quindi non ci sarebbe nemmeno tutta questa esigenza di aspettare i drop.

Sottolineo infine che sebbene possa sembrare così, non c'è nessuna conferma sulla cessazione della vendita delle FE, sono solo ipotesi.

HSH
01-04-2022, 11:09
A che scopo? nvidia comunque venderà sempre la serie 3000 fino alla messa in vendita della serie 4xxx e anche dopo, quindi non vedo l'interesse di arrestare la vendita delle attuali schede :)
ps per la cronaca le zotac 3070ti su amazon ieri erano disponibili 10 unità e stamattina ne è rimasta solo una
Quindi a maggior ragione che nvidia non smetterà di vendere queste vga

Zotac io le vedo sempre a 900€. ieri erano a meno?

MarkkJ
01-04-2022, 12:00
Zotac io le vedo sempre a 900€. ieri erano a meno?

sta a 792€ spedita su trovaprezzi, su Amazon era 829€ se non erro

Kaheleha
01-04-2022, 12:08
Zotac io le vedo sempre a 900€. ieri erano a meno?

In questo momento la zotac 3070ti trinity è a 865 venduta e spedita da Amazon

HSH
01-04-2022, 13:00
In questo momento la zotac 3070ti trinity è a 865 venduta e spedita da Amazon

appunto.. ancora fuori mercato sti prezzi, aspetto di trovarle a 600 e poi si vedrà :D

pakal77
01-04-2022, 13:52
Buongiorno io ho un bel dubbio ho 1000€ di buono amazon e volevo prendermi la 3080 ti o asus o evga, non ci sono mai riuscito a prenderle, da pochi giorni a questa parte noto che sono disponibili e non vanno via come prima.

So benissimo che il prezzo è ancora fuori dalla grazia di dio ma ho paura che se aspetto ancora cessa anche la dispo della serie 3 e ripartiamo con il calvario della 4 con le 3 che vanno fuori produzione....:muro:

volevo pigliare questa EVGA GeForce RTX 3080 Ti FTW3 ULTRA GAMING, 12G 1782€ su amazonia per via del buono...

certo che guardando i grafici prestazioni e calcolando i prezzi non conviene proprio una 3080 ti, conviene molto di piu la 3080 con 12gb.....https://www.hwupgrade.it/articoli/skvideo/6205/geforce-rtx-3080-12-gb-vs-rtx-3080-10-gb-e-rtx-3080-ti-come-cambiano-le-prestazioni_index.html#:~:text=La%20RTX%203080%2012%20GB%20%C3%A8%20il%206%25%20circa%20pi%C3%B9,margine%20in%20pi%C3%B9%20in%204K.


edit: mi sa che mi butto su questa MSI GeForce RTX 3080 Gaming Z Trio 12G LHR 1.432,29 calcolando sempre buono amazon

fraussantin
01-04-2022, 14:10
Buongiorno io ho un bel dubbio ho 1000€ di buono amazon e volevo prendermi la 3080 ti o asus o evga, non ci sono mai riuscito a prenderle, da pochi giorni a questa parte noto che sono disponibili e non vanno via come prima.

So benissimo che il prezzo è ancora fuori dalla grazia di dio ma ho paura che se aspetto ancora cessa anche la dispo della serie 3 e ripartiamo con il calvario della 4 con le 3 che vanno fuori produzione....:muro:

volevo pigliare questa EVGA GeForce RTX 3080 Ti FTW3 ULTRA GAMING, 12G 1782€ su amazonia per via del buono...

certo che guardando i grafici prestazioni e calcolando i prezzi non conviene proprio una 3080 ti, conviene molto di piu la 3080 con 12gb.....https://www.hwupgrade.it/articoli/skvideo/6205/geforce-rtx-3080-12-gb-vs-rtx-3080-10-gb-e-rtx-3080-ti-come-cambiano-le-prestazioni_index.html#:~:text=La%20RTX%203080%2012%20GB%20%C3%A8%20il%206%25%20circa%20pi%C3%B9,margine%20in%20pi%C3%B9%20in%204K.


edit: mi sa che mi butto su questa MSI GeForce RTX 3080 Gaming Z Trio 12G LHR 1.432,29 calcolando sempre buono amazonPer me sono prezzi da follia ora a fine carriera .

Se il buono non scade , tienilo per qualcos'altro.

Imho è

Maury
01-04-2022, 14:28
Buongiorno io ho un bel dubbio ho 1000€ di buono amazon e volevo prendermi la 3080 ti o asus o evga, non ci sono mai riuscito a prenderle, da pochi giorni a questa parte noto che sono disponibili e non vanno via come prima.

So benissimo che il prezzo è ancora fuori dalla grazia di dio ma ho paura che se aspetto ancora cessa anche la dispo della serie 3 e ripartiamo con il calvario della 4 con le 3 che vanno fuori produzione....:muro:

volevo pigliare questa EVGA GeForce RTX 3080 Ti FTW3 ULTRA GAMING, 12G 1782€ su amazonia per via del buono...

certo che guardando i grafici prestazioni e calcolando i prezzi non conviene proprio una 3080 ti, conviene molto di piu la 3080 con 12gb.....https://www.hwupgrade.it/articoli/skvideo/6205/geforce-rtx-3080-12-gb-vs-rtx-3080-10-gb-e-rtx-3080-ti-come-cambiano-le-prestazioni_index.html#:~:text=La%20RTX%203080%2012%20GB%20%C3%A8%20il%206%25%20circa%20pi%C3%B9,margine%20in%20pi%C3%B9%20in%204K.


edit: mi sa che mi butto su questa MSI GeForce RTX 3080 Gaming Z Trio 12G LHR 1.432,29 calcolando sempre buono amazon

Tieniti il buono, quella non è neanche una TI, fossi in te aspetterei le 4000 o al limite prenderei una 3080 solo se si avvicina di molto al MSRP. ;)

StylezZz`
01-04-2022, 14:37
ma ho paura che se aspetto ancora cessa anche la dispo della serie 3 e ripartiamo con il calvario della 4 con le 3 che vanno fuori produzione....:muro:

Fin quando le nuove non verranno annunciate puoi stare sereno che non ci saranno problemi di disponibilità delle 3000, salvo cataclismi o guerra nucleare.

Perora tieniti il buono, e punta a una 3080 10GB, lascia perdere la 12GB.

bonzoxxx
01-04-2022, 14:40
Concordo, 3080 10GB e via non andare oltre, imho

Kaheleha
01-04-2022, 14:55
Buongiorno io ho un bel dubbio ho 1000€ di buono amazon e volevo prendermi la 3080 ti o asus o evga, non ci sono mai riuscito a prenderle, da pochi giorni a questa parte noto che sono disponibili e non vanno via come prima.

So benissimo che il prezzo è ancora fuori dalla grazia di dio ma ho paura che se aspetto ancora cessa anche la dispo della serie 3 e ripartiamo con il calvario della 4 con le 3 che vanno fuori produzione....:muro:

volevo pigliare questa EVGA GeForce RTX 3080 Ti FTW3 ULTRA GAMING, 12G 1782€ su amazonia per via del buono...

certo che guardando i grafici prestazioni e calcolando i prezzi non conviene proprio una 3080 ti, conviene molto di piu la 3080 con 12gb.....https://www.hwupgrade.it/articoli/skvideo/6205/geforce-rtx-3080-12-gb-vs-rtx-3080-10-gb-e-rtx-3080-ti-come-cambiano-le-prestazioni_index.html#:~:text=La%20RTX%203080%2012%20GB%20%C3%A8%20il%206%25%20circa%20pi%C3%B9,margine%20in%20pi%C3%B9%20in%204K.


edit: mi sa che mi butto su questa MSI GeForce RTX 3080 Gaming Z Trio 12G LHR 1.432,29 calcolando sempre buono amazon
Io con un 2080 starei buono buono e terrei il voucher per quando usciranno le 4xxx e poi valuti.
Altrimenti lo usi per altro e quando escono le 4xxx cerchi una 3xxx usata.
Però con una 2080 io non mi porrei nemneno il dubbio se cambiarla o no.

bonzoxxx
01-04-2022, 14:58
Credevo fossi a piedi.. se hai una 2080 e il buono non scade tienilo li in attesa di tempi migliori

mefistole1978
01-04-2022, 15:07
Buonasera Ragazzi! chiedo a voi esperti un consiglio... ho visto che i prezzi stanno scendendo e volevo prendere una asus rtx 3080 strix che sta sulle 1100€. La domanda è: che faccio, passo da una attuale msi 2080ti lightning z a una 3080? che nè pensate? so' matto?:muro:

Grazie a tutti!!;)

MarkkJ
01-04-2022, 15:09
Buonasera Ragazzi! chiedo a voi esperti un consiglio... ho visto che i prezzi stanno scendendo e volevo prendere una asus rtx 3080 strix che sta sulle 1100€. La domanda è: che faccio, passo da una attuale msi 2080ti lightining z a una 3080? che nè pensate? so' matto?:muro:

Grazie a tutti!!;)

io aspetterei le 4000 ormai, anche perchè la 2080 TI regge ancora bene ( io ho una 2080 normale )

Goofy Goober
01-04-2022, 15:12
edit: mi sa che mi butto su questa MSI GeForce RTX 3080 Gaming Z Trio 12G LHR 1.432,29 calcolando sempre buono amazon

La 3080 da 12gb non la pagherei più di 1000/1100. Buono o non buono.

Ne ho presa una reference (Manli LHR) a 910 euro 3 settimane fa.

Se non hai urgenze e il buono non scade, puoi anche tenerlo e tentare la fortuna con le 4xxx, se escono le 4080 scalperizzate a 2000 e ne becchi qualcuna su amazon, puoi sempre prenderla spendendo solo 1000

Maury
01-04-2022, 15:28
Con 1000 euro di sicuro prendi almeno una 4070 che ci palleggia con la 3080, basta avere pazienza che dopotutto non manca molto.

XEV
01-04-2022, 15:39
Con 1000 euro di sicuro prendi almeno una 4070 che ci palleggia con la 3080, basta avere pazienza che dopotutto non manca molto.

dolce amaro; pagare una x70 1000euro ma purtroppo in quest anno ci siamo "abituati" a vedere questo, anche su altre cose.

Maury
01-04-2022, 15:45
dolce amaro; pagare una x70 1000euro ma purtroppo in quest anno ci siamo "abituati" a vedere questo, anche su altre cose.

Sono ottimista, costerà meno :)

In ogni caso non farei leva sulla sigla ma sulle prestazioni, che si preannunciano notevoli, per la 4070 si parla di battere la 3090TI...

pakal77
01-04-2022, 19:51
Grazie per le risposte, la situazione geopolitica mondiale non gioca a nostro favore. Covid Shenzen in lock down, Guerra, Gas, materie prime ecc ecc anche se riescono a far uscire la serie 4000 ci saranno pochi pezzi e quei pochi andranno a skalpers e miners, nel frattempo queste poche 3000 che si vedono ora a breve termineranno, non credo assolutamente che vedremo mai una 3080 ti a prezzo di mercato.

Secondo me rimarrà il prezzo alto per poi scomparire per le 4000, l’unica cosa che avrebbe senso e’ prendersi una 3080 usata per chi fortunato riuscirà a upgradare.

Per natura sono pessimista :D

MarkkJ
01-04-2022, 20:17
Grazie per le risposte, la situazione geopolitica mondiale non gioca a nostro favore. Covid Shenzen in lock down, Guerra, Gas, materie prime ecc ecc anche se riescono a far uscire la serie 4000 ci saranno pochi pezzi e quei pochi andranno a skalpers e miners, nel frattempo queste poche 3000 che si vedono ora a breve termineranno, non credo assolutamente che vedremo mai una 3080 ti a prezzo di mercato.

Secondo me rimarrà il prezzo alto per poi scomparire per le 4000, l’unica cosa che avrebbe senso e’ prendersi una 3080 usata per chi fortunato riuscirà a upgradare.

Per natura sono pessimista :D

in realtà la 3080 TI è venduta online a meno della Founder :D

pakal77
01-04-2022, 20:47
in realtà la 3080 TI è venduta online a meno della Founder :D

Si vero su bpm la manli costa meno della Founders…incredibile

kiwivda
01-04-2022, 21:14
Si vero su bpm la manli costa meno della Founders…incredibile

E ci mancherebbe.

mikael84
02-04-2022, 00:33
Si vero su bpm la manli costa meno della Founders…incredibile

Ci mancherebbe, la FE è superiore.;)

29Leonardo
02-04-2022, 07:50
fa talmente schifo che è andata a ruba :asd:

pakal77
02-04-2022, 09:22
Ci mancherebbe, la FE è superiore.;)

:asd:

pakal77
02-04-2022, 09:23
Ragazzi, se volte prendere una scheda video fatelo ora perché con il lockdown di Shenzhen , le fabbriche sono ferme così come i porti per le spedizioni. Per ora prevista una settimana, ma è altamente probabile che estenderanno il blocco. Sono sicuro che le scorte accumulate finiranno e i prezzi torneranno a salire .
Fate voi


Inviato dal mio iPhone X utilizzando Tapatalk

leggo ora il tuo commento la penso come te :D

pakal77
02-04-2022, 09:29
col millino Amazzonia mi sa che vado prprio di 3080 10GB.....paragonata alla 2080s cmq va una trentina di FPS in piu, per 100/200€ ci può stare come upgrade...le altre due le vedo troppo overpriced, che dite?

la serie 4000 per il momento non la prendo in considerazione

Gainward Scheda Grafica Nvidia GeForce RTX 3080 Phantom+ 10Go 1132€
Scheda grafica Nvidia Zotac GeForce RTX 3080 Amp Holo LHR 10Go 1196€ (a Gennaio stava a 1869€ :asd:)
MSI GeForce RTX 3080 Gaming Z Trio 12G LHR 1432€
EVGA GeForce RTX 3080 Ti FTW3 ULTRA GAMING, 12G-P5-3967-KR 1782€

bonzoxxx
02-04-2022, 17:26
https://youtu.be/lvTaIvrdwbs

Il macellaio è tornato:D:D

Però come dicevo parecchi post fa, dei copper shim fatti bene risolvono definitivamente il problema temperature.
Solo che costano una fucilata...

davide155
02-04-2022, 21:22
https://youtu.be/lvTaIvrdwbs

Il macellaio è tornato:D:D

Però come dicevo parecchi post fa, dei copper shim fatti bene risolvono definitivamente il problema temperature.
Solo che costano una fucilata...

Nulla di trascendentale...
Mettendo le gelid solution si ha lo stesso guadagno (forse di più) con soli 12€ di spesa. Soprattutto quel pezzo di rame non è malleabile come dei pads, quindi quando vai a stringere tutte le viti, rischi che quello spessore sulle vram faccia flettere troppo il pcb e creare problemi a lungo andare tra tempo e temperature.

bonzoxxx
02-04-2022, 21:52
Sotto eth con ottima ventilazione le mie stanno a 80 gradi, in game senza OC ma con case chiusoe ventola auto sfioro i 90.

Senza cambiare i pad i 110 gradi li avevo praticamente sempre.

Cmq il prezzo per quello shim è assurdamente alto

Ubro92
02-04-2022, 22:01
Nulla di trascendentale...

Mettendo le gelid solution si ha lo stesso guadagno (forse di più) con soli 12€ di spesa. Soprattutto quel pezzo di rame non è malleabile come dei pads, quindi quando vai a stringere tutte le viti, rischi che quello spessore sulle vram faccia flettere troppo il pcb e creare problemi a lungo andare tra tempo e temperature.Più che altro rischi il botto se tocca qualche contatto 🤣

Inviato dal mio M2012K11AG utilizzando Tapatalk

mikael84
03-04-2022, 00:10
:asd:

Ti farà pur ridere, ma la manli (scarti della pcpartners), ha un misero TDP/PL da 350w, contro i 400 della FE, ed alimentazione misera rispetto a quest' ultima, senza considerare i chip non bin.
Le FE, da qualche anno sono sempre state sopra ad alcune schede, anzi prima avevano un centone di differenza.

pakal77
03-04-2022, 05:45
Ti farà pur ridere, ma la manli (scarti della pcpartners), ha un misero TDP/PL da 350w, contro i 400 della FE, ed alimentazione misera rispetto a quest' ultima, senza considerare i chip non bin.
Le FE, da qualche anno sono sempre state sopra ad alcune schede, anzi prima avevano un centone di differenza.

Sapevo che facevano schifo ma non a questi livelli…pensa te :eek:

davide155
03-04-2022, 11:36
Sotto eth con ottima ventilazione le mie stanno a 80 gradi, in game senza OC ma con case chiusoe ventola auto sfioro i 90.



Senza cambiare i pad i 110 gradi li avevo praticamente sempre.



Cmq il prezzo per quello shim è assurdamente altoLa mia fe appena presa e messa nel case aveva le memorie a 105 gradi fisso in gioco. La gpu invece era sui 70gradi.
Col liquido e pad gelid non vedo più di 48 gradi :D

mikael84
03-04-2022, 11:40
Sapevo che facevano schifo ma non a questi livelli…pensa te :eek:

Schifo schifo no, ad avercela nel case.:p
Diciamo che le FE, non sono più le classiche schede di una volta, sono una buona via di mezzo.

eXeS
03-04-2022, 12:06
Sapevo che facevano schifo ma non a questi livelli…pensa te :eek:
Sarò io di bocca buona, ma tra una manli 3080 ti a 1172 e una asus strix a 1600 pepite, la manli tutta la vita, quasi il 40% di differenza di prezzo, per una differenza irrisoria mentre giochi :D

Maury
03-04-2022, 12:35
Ma perché dite che fa schifo? Povera Manli :p

Alla fine ha la base che nVidia richiede per usare le sue gpu, non è che vanno al di sotto dei requisiti minimi imposti :confused:

Non saranno avveniristiche ma funzionano perfettamente :)

terranux
03-04-2022, 12:54
Ma perché dite che fa schifo? Povera Manli :p

Alla fine ha la base che nVidia richiede per usare le sue gpu, non è che vanno al di sotto dei requisiti minimi imposti :confused:

Non saranno avveniristiche ma funzionano perfettamente :)

non fanno schifo .hanno il difetto delle ventole rumorose e bostano come le altre. ecco .il tdp è più basso è vero ma questa generazione tanto clock non lo prende nessuna.

bonzoxxx
03-04-2022, 12:54
La mia fe appena presa e messa nel case aveva le memorie a 105 gradi fisso in gioco. La gpu invece era sui 70gradi.
Col liquido e pad gelid non vedo più di 48 gradi :D

48 gradi... Madò...

mikael84
03-04-2022, 13:05
Ma perché dite che fa schifo? Povera Manli :p

Alla fine ha la base che nVidia richiede per usare le sue gpu, non è che vanno al di sotto dei requisiti minimi imposti :confused:

Non saranno avveniristiche ma funzionano perfettamente :)

Ma infatti, non capisco neppure l'uso del termine "schifo".
Si parlava di costi minori della manli rispetto alla FE, e come detto ci può stare, in quanto la FE è superiore. Rispetto alle schede di fascia bassa della serie, è sopra, tanto che con turing costava 100$ in più.
La manli ha lo stesso chip della 3080ti, ma con bin 0, TDP/PL da 350w (questo potrebbe costringere a downclockare troppo).
Per il resto va bene, rimane sempre una 3080ti (magari ce l'avessi).:p

Ci sono sempre state le custom serie, e le schede di fascia bassa della stessa serie, con delle limitazioni.
Inno3d-manli-pny, sono sempre state fasce low cost della serie, ma non certo da buttare.

Iceman69
03-04-2022, 14:47
Ma infatti, non capisco neppure l'uso del termine "schifo".
Si parlava di costi minori della manli rispetto alla FE, e come detto ci può stare, in quanto la FE è superiore. Rispetto alle schede di fascia bassa della serie, è sopra, tanto che con turing costava 100$ in più.
La manli ha lo stesso chip della 3080ti, ma con bin 0, TDP/PL da 350w (questo potrebbe costringere a downclockare troppo).
Per il resto va bene, rimane sempre una 3080ti (magari ce l'avessi).:p

Ci sono sempre state le custom serie, e le schede di fascia bassa della stessa serie, con delle limitazioni.
Inno3d-manli-pny, sono sempre state fasce low cost della serie, ma non certo da buttare.

Ma non è una questione di prestazioni e basta, le Malli come le Zotac sono schede costruite male, rumorose e mal dissipate, una volta avevo preso una Zotac, mi è durata nel case 2 giorni, poi mi dava troppo fastidio il rumore e la ho restituita, rumore sia dalle ventole che dalla circuiteria, pessima, da tutti i punti di vista. Se si vuol risparmiare meglio farlo su qualcosa d'altro.

razor820
03-04-2022, 15:37
Il problema di alcune schede rimane L affidabilità... Perché vuoi o non vuoi son tutti forni e oltre determinati rpm son tutti elicotteri..
A prescindere dal prezzo, manli, zotic, pny e via dicendo son tutti simili.. Io generalmente preferisco sborsare quei 200 euro in più e prendere una strix, tuf, evga, msi. E a questo giro FE. Che posso dire sia a livello di costruzione e materiali altro che mid range..

Rimango dell idea che queste schede devono essere liquidate o pesantemente downvoltate ad aria e montate in case giganti..

Tornando al discorso manli, la prenderei nel caso la vendessero su Amazon.. Ma se si rompe e L ho comprata in altri store in questo caso bpm? Alleluja

mikael84
03-04-2022, 15:43
Ma non è una questione di prestazioni e basta, le Malli come le Zotac sono schede costruite male, rumorose e mal dissipate, una volta avevo preso una Zotac, mi è durata nel case 2 giorni, poi mi dava troppo fastidio il rumore e la ho restituita, rumore sia dalle ventole che dalla circuiteria, pessima, da tutti i punti di vista. Se si vuol risparmiare meglio farlo su qualcosa d'altro.

Il problema di alcune schede rimane L affidabilità... Perché vuoi o non vuoi son tutti forni e oltre determinati rpm son tutti elicotteri..
A prescindere dal prezzo, manli, zotic, pny e via dicendo son tutti simili.. Io generalmente preferisco sborsare quei 200 euro in più e prendere una strix, tuf, evga, msi. E a questo giro FE. Che posso dire sia a livello di costruzione e materiali altro che mid range..

Rimango dell idea che queste schede devono essere liquidate o pesantemente downvoltate ad aria e montate in case giganti..

Tornando al discorso manli, la prenderei nel caso la vendessero su Amazon.. Ma se si rompe e L ho comprata in altri store in questo caso bpm? Alleluja

Pensate che mi hanno messo la faccina ridente, quando ho detto che la fe è superiore.:p
Se ne spendi 1200, meglio spenderne 1400 per una più seria e con garanzia sicura.
Concordo con razor, sul "al massimo da amazon".

Ale55andr0
03-04-2022, 17:45
Ma infatti, non capisco neppure l'uso del termine "schifo".
Si parlava di costi minori della manli rispetto alla FE, e come detto ci può stare, in quanto la FE è superiore. Rispetto alle schede di fascia bassa della serie, è sopra, tanto che con turing costava 100$ in più.
La manli ha lo stesso chip della 3080ti, ma con bin 0, TDP/PL da 350w (questo potrebbe costringere a downclockare troppo).
Per il resto va bene, rimane sempre una 3080ti (magari ce l'avessi).:p

Ci sono sempre state le custom serie, e le schede di fascia bassa della stessa serie, con delle limitazioni.
Inno3d-manli-pny, sono sempre state fasce low cost della serie, ma non certo da buttare.

Ma infatti, datela a me sta schifosa Manli 3080ti!

Anzi, son generoso, lasciate perdere la 3080Ti, datemi una 4080ti della Manli, non voglio mettervi fretta ragazzi, non scapicollatavi, posso resistere! :)

Goofy Goober
03-04-2022, 18:37
Cmq se interessa appena riesco faccio la recensione della mia Manli 3080 12gb da poveri e sfigatz, per la quale ho speso ben 380 euro di waterblock panino della EK :asd:

Il dissipatore 3 fan comunque non era rumoroso quando ho fatto la prova banchetto per vedere se funzionava regolare. Ma non ho altre 3080 custom con cui paragonarla. Nel complesso del mio pc risulta un pelo più rumorosa sotto carico delle P14 BioniX che ho sul rad frontale.
Sicuramente leggermente più rumorosa dell'ultima custom seria che ho avuto, una FTW2. Ma liquidando sempre le gpu non mi sono fatto particolari problemi di scelta se non sul costo (sapendo poi di dover sborsare per il wubbo...).

Quando ho tempo metto anche le foto del pcb e dissipatore smontati.

29Leonardo
03-04-2022, 19:23
Ma come azz fa un waterblock a costare piu di una gpu mid livel :fagiano:

Goofy Goober
03-04-2022, 19:32
Ma come azz fa un waterblock a costare piu di una gpu mid livel :fagiano:

Già imbarazzanti EK ormai, e io gli vado dietro ovviamente...:help: anche se tecnicamente il vector2 equivale a comprarne due di waterblock da 190 l'uno...

Thunder-74
03-04-2022, 19:36
Ma come azz fa un waterblock a costare piu di una gpu mid livel :fagiano:


EK è uscita di senno per certi versi . Comunque propone varie alternative , quello a guscio unico se lo fa pagare ed ora che ha aggiunto il backplate attivo, ancora di più . C è da dire che i BP attivo serve giusto con la 3090 che ha la vram dietro.
Io di EK classico pagato sulle 230 compreso di backplate normale. Ci sono altre marche più economiche , ma bisogna vedere se lo fanno per il modello di vga che si acquista


Inviato dal mio iPhone X utilizzando Tapatalk

pakal77
03-04-2022, 19:49
A proposito di schifo :D
Per quanto gioco io che va molto a periodi ho preso la Zotac 3080 10GB su Amazon utilizzando il buono…passando dalla 2080S ho preso una trentina di Frames su RDR2…mi accontento, poi quando saremo inondati di 4080 vedremo il da farsi prima però devo aggiornare a brevissimo con un 12700k che ho ancora un 4820k sotto le chiappe :)

https://i.postimg.cc/K4YR17MW/503-E6634-97-FA-4-FCE-9-C63-6-DF4-FFE9-DCA5.jpg (https://postimg.cc/K4YR17MW)

https://i.postimg.cc/fSkL1Zss/C18-A7-A7-F-24-B1-46-E0-A217-61818-CA0059-C.jpg (https://postimg.cc/fSkL1Zss)

https://i.postimg.cc/grBr8wy2/F0-BAE581-6619-418-A-804-B-030-A0-C0-E3-FA4.jpg (https://postimg.cc/grBr8wy2)

fraussantin
04-04-2022, 06:36
Al momento siamo inondati di 3090ti su ldlc a prendere polvere da ieri sera

I tempi stanno cambiando cara Nvidia ... :asd:

Ps tanto le venderanno cmq , anche se è una scheda nosense

Dono89
04-04-2022, 07:01
A proposito di schifo :D
Per quanto gioco io che va molto a periodi ho preso la Zotac 3080 10GB su Amazon utilizzando il buono…passando dalla 2080S ho preso una trentina di Frames su RDR2…mi accontento, poi quando saremo inondati di 4080 vedremo il da farsi prima però devo aggiornare a brevissimo con un 12700k che ho ancora un 4820k sotto le chiappe :)

https://i.postimg.cc/K4YR17MW/503-E6634-97-FA-4-FCE-9-C63-6-DF4-FFE9-DCA5.jpg (https://postimg.cc/K4YR17MW)

https://i.postimg.cc/fSkL1Zss/C18-A7-A7-F-24-B1-46-E0-A217-61818-CA0059-C.jpg (https://postimg.cc/fSkL1Zss)

https://i.postimg.cc/grBr8wy2/F0-BAE581-6619-418-A-804-B-030-A0-C0-E3-FA4.jpg (https://postimg.cc/grBr8wy2)


Vedrai quando cambierai cpu

A me in certi giochi ha preso anche il 20%
Da 3600 a 5800x

pakal77
04-04-2022, 07:18
Vedrai quando cambierai cpu

A me in certi giochi ha preso anche il 20%
Da 3600 a 5800x

Ottimo sono indeciso tra i9-12900k oppure i7-12700kf :muro:

bonzoxxx
04-04-2022, 07:22
I7, lascia stare quel forno di i9.

Se posso consigliarti, non è il migliore dei momenti per aggiornare mobo e cpu, se riesci aspetta raptor lake o AM5

davide155
04-04-2022, 09:24
Ottimo sono indeciso tra i9-12900k oppure i7-12700kf :muro:

Se lo usi solo per giocare vai di 12700. Te lo dice un possessore di 12900.

Se poi sei malato come me che vuoi il top del top allora vai di 12900. A patto però di avere un buon dissipatore.
Anche se c'è gente nel thread degli alder lake che li raffredda con dei D15.
A maggior ragione se giochi e basta il 12900k in game consuma 140w.

StylezZz`
04-04-2022, 10:18
Ottimo sono indeciso tra i9-12900k oppure i7-12700kf :muro:

Io prenderei 12600k, non serve andare oltre.

HSH
04-04-2022, 10:26
Io prenderei 12600k, non serve andare oltre.

quoto e non serve nemmeno il dh15 , basta il U12s

Ubro92
04-04-2022, 13:43
Io prenderei 12600k, non serve andare oltre.

Si infatti è la cpu più bilanciata in giro.

Lato performance prende pure il 3900x, non c'è manco bisogno di overclock, anzi un pò di undervolt e fila via tranquillo senza smanettare più di tanto.

Unico inghippo sono le memorie, e ora come ora, conviene rimanere con le DDR4.

pakal77
04-04-2022, 15:55
I7, lascia stare quel forno di i9.

Se posso consigliarti, non è il migliore dei momenti per aggiornare mobo e cpu, se riesci aspetta raptor lake o AM5


Ho letto che lga1700 durerà tre generazioni quindi anche raptor sarà supportato, considera che non cambio cpu spesso ho ancora la 4820k , :asd: prendo il 12700

Chiudo OT

Scusate

FrancoBit
04-04-2022, 16:23
Ho letto che lga1700 durerà tre generazioni quindi anche raptor sarà supportato, considera che non cambio cpu spesso ho ancora la 4820k , :asd: prendo il 12700

Chiudo OT

Scusate

Ocio Alder e Raptor potranno "alloggiare" sullo stesso socket o motherboard, come ad esempio la 10 e la 11 su z490 e z590. Però Meteor (la 14esima) probabile che non sarà compatibile con le mother di Alder e/o Raptor.

Kostanz77
04-04-2022, 16:26
passando a 12700K la mia 3080Ti ha guadagnato 30-35 fps a 3440x1440p


Inviato dal mio iPhone utilizzando Tapatalk Pro

Ale55andr0
04-04-2022, 16:29
passando a 12700K la mia 3080Ti ha guadagnato 30-35 fps a 3440x1440p


Inviato dal mio iPhone utilizzando Tapatalk Pro

da quale cpu? :)

ray_hunter
04-04-2022, 16:34
da quale cpu? :)

A parte che dire che si guadagnano 30-35 fps senza specificare il gioco non ha alcun senso... E' assolutamente dipendente dagli fps di base.
Passare da 175 a 210 fps è il 20%, passare da 35 a 70fps è il 100% di fps in più!

bonzoxxx
04-04-2022, 16:52
Ho letto che lga1700 durerà tre generazioni quindi anche raptor sarà supportato, considera che non cambio cpu spesso ho ancora la 4820k , :asd: prendo il 12700

Chiudo OT

Scusate

Da quello che ho letto z690 dovrebbe essere comptibile con 12th e 13th e basta :)

Cmq 12700 ottima cpu

passando a 12700K la mia 3080Ti ha guadagnato 30-35 fps a 3440x1440p

Dipende da quale cpu avevi, a quella risoluzione conta tanto di più la GPU e lo so perché gioco alla stessa res.

alethebest90
04-04-2022, 17:03
[OT]

Kostanz77
04-04-2022, 17:22
Da quello che ho letto z690 dovrebbe essere comptibile con 12th e 13th e basta :)

Cmq 12700 ottima cpu



Dipende da quale cpu avevi, a quella risoluzione conta tanto di più la GPU e lo so perché gioco alla stessa res.


Da R9 3900X e in giochi tipo Cold War, War Zone


Inviato dal mio iPhone utilizzando Tapatalk Pro

Ubro92
04-04-2022, 22:32
Da R9 3900X e in giochi tipo Cold War, War Zone


Inviato dal mio iPhone utilizzando Tapatalk Pro

Ma quei giochi sono molto cpu dipendenti non c'è da sorprendersi, in condizioni normali e a risoluzioni 1440p+ difficile notare grosse differenze.

Nel suo caso ha un batusto 4820k, che ora è decisamente obsoleto va meno anche di un Ryzen 3100.

Poi per carità x79 è stata una fantastica piattaforma anche io ho un 3930K, ma ha ormai fatto il suo corso, pure prendendo il top come l'E5-1680v2 non c'è niente da fare rispetto anche a un 5600x...

Quella 3080 urge di un cambio cpu.

mikael84
04-04-2022, 23:56
Interessante notare un PCB FE della 3090TI, pronto per Lovelace.
https://i.postimg.cc/dVLSMP3L/ref.png



Vedrai quando cambierai cpu

A me in certi giochi ha preso anche il 20%
Da 3600 a 5800x

Che ti dicevo.;)

WarSide
04-04-2022, 23:59
Interessante notare un PCB FE della 3090TI, pronto per Lovelace.
https://i.postimg.cc/dVLSMP3L/ref.png


Quelli sono i punti dove attaccare direttamente la trifase? :stordita:

mikael84
05-04-2022, 00:01
Al momento siamo inondati di 3090ti su ldlc a prendere polvere da ieri sera

I tempi stanno cambiando cara Nvidia ... :asd:

Ps tanto le venderanno cmq , anche se è una scheda nosense

Tra 5 mesi, diventa AD103 con clock ben più bassi.
l'unico vero uso sensato di quella scheda è nvlink, per 48gb in dual, ed anche programmi pro che necessitano di tale ram.
In ogni caso, per questioni di ram ed nvlink bastava la vecchia.:)

Quelli sono i punti dove attaccare direttamente la trifase? :stordita:

:D
Significa che AD102 FE, sarà tarato mediamente a 450watt. Con 4VRM anzichè 3 delle vecchie FE.:)
Tuttavia ci sono custom, pronte per infilare 2 connettori.

fraussantin
05-04-2022, 05:48
Interessante notare un PCB FE della 3090TI, pronto per Lovelace.
https://i.postimg.cc/dVLSMP3L/ref.png





Che ti dicevo.;)Quindi confermato il design a camino anche per i 600W .

Speriamo lavorino meglio sulla pasta termica sia di ram che GPU perché vedo problematica la gestione.

Poi vorrei capire , già la parte delle tracce dove passa la corrente scaldava parecchio sulla 3080\90 liscia , su queste e poi su lovelace arriverà a sciogliersi?

Chi vivrà vedrà ...

Spero vivamente che sulle x80 ci sia il chip 104 tagliato meno energivoro magari full.
Quelli sono i punti dove attaccare direttamente la trifase? :stordita::asd:


Ps edit pero non vedo lo spazio per il doppio connettore a 12 pin , che sia a sandwich in parallelo?

mikael84
05-04-2022, 12:04
Quindi confermato il design a camino anche per i 600W .

Speriamo lavorino meglio sulla pasta termica sia di ram che GPU perché vedo problematica la gestione.

Poi vorrei capire , già la parte delle tracce dove passa la corrente scaldava parecchio sulla 3080\90 liscia , su queste e poi su lovelace arriverà a sciogliersi?

Chi vivrà vedrà ... Ps edit pero non vedo lo spazio per il doppio connettore a 12 pin , che sia a sandwich in parallelo?

Il connettore attualmente, altro non è che un 3x8 quindi 450watt.
Ci sono PCB però, già pronti per il doppio connettore, come questo FTW3 (ma non è l'unico)
https://i.postimg.cc/WbTXxN7N/ftw.png

Con i 2 connettori fisici, hanno fatto la HOF, ma sempre bloccata a 525 con PL attivo, però per azotatori il limite di alimentazione è maggiore una volta sbloccata.:)



Spero vivamente che sulle x80 ci sia il chip 104 tagliato meno energivoro magari full.
:asd:

Spero di no...altrimenti andresti peggio della 3080 o quasi.
https://i.postimg.cc/Y9T0zd9J/prezzi.png

bonzoxxx
05-04-2022, 12:09
chissà se faranno le FE e, nel caso, se saranno altrettanto buone come le attuali..

mikael84
05-04-2022, 12:17
chissà se faranno le FE e, nel caso, se saranno altrettanto buone come le attuali..

Quella di su, dovrebbe essere una FE pronta per la serie Lovelace.
Dal PCB si nota come sia pensata per i 450watt, ma la decurtazione, potrebbe anche far pensare a modelli da 600 completi (4x8 praticamente).
Questa dovrebbe "ospitare" sia 4080 che 4090.

bonzoxxx
05-04-2022, 12:24
Quella di su, dovrebbe essere una FE pronta per la serie Lovelace.
Dal PCB si nota come sia pensata per i 450watt, ma la decurtazione, potrebbe anche far pensare a modelli da 600 completi (4x8 praticamente).
Questa dovrebbe "ospitare" sia 4080 che 4090.

Il PCB della 3090ti intendi?

mikael84
05-04-2022, 12:37
Il PCB della 3090ti intendi?

Si.

Bloodline Limit
05-04-2022, 14:28
Volevo condividere con voi una botta di :ciapet: di poco fa.
Sconto 20% sul warehouse :D

https://i.ibb.co/yqzDzBw/1.png

Presa senza pensarci due volte, senza nemmeno il tempo di rifletterci su.

Sto valutando se effettivamente con l'avvento della serie 4000 sia comunque, nonostante l'ottimo prezzo, un acquisto sensato.
Sento parlare di prestazioni raddoppiate, performance assurde e via dicendo... magari con la stessa cifra tra non molto avrei potuto prendere molto di meglio?
Booooh :fagiano:
Non ho una scheda video decente per ora, non ne ho estrema necessità, avrei aspettato con calma l'occasione per comprarla al giusto prezzo... che si è presentata poco fa.
Non nego però che ho il dubbio se sia appunto sensato data l'uscita delle tanto decantate rtx4000 :doh:

Maury
05-04-2022, 14:39
Volevo condividere con voi una botta di :ciapet: di poco fa.
Sconto 20% sul warehouse :D

https://i.ibb.co/yqzDzBw/1.png

Presa senza pensarci due volte, senza nemmeno il tempo di rifletterci su.

Sto valutando se effettivamente con l'avvento della serie 4000 sia comunque, nonostante l'ottimo prezzo, un acquisto sensato.
Sento parlare di prestazioni raddoppiate, performance assurde e via dicendo... magari con la stessa cifra tra non molto avrei potuto prendere molto di meglio?
Booooh :fagiano:
Non ho una scheda video decente per ora, non ne ho estrema necessità, avrei aspettato con calma l'occasione per comprarla al giusto prezzo... che si è presentata poco fa.
Non nego però che ho il dubbio se sia appunto sensato data l'uscita delle tanto decantate rtx4000 :doh:

Per 600 euro hai fatto benissimo, goditela :)

mikael84
05-04-2022, 15:01
Volevo condividere con voi una botta di :ciapet: di poco fa.
Sconto 20% sul warehouse :D



Presa senza pensarci due volte, senza nemmeno il tempo di rifletterci su.

Sto valutando se effettivamente con l'avvento della serie 4000 sia comunque, nonostante l'ottimo prezzo, un acquisto sensato.
Sento parlare di prestazioni raddoppiate, performance assurde e via dicendo... magari con la stessa cifra tra non molto avrei potuto prendere molto di meglio?
Booooh :fagiano:
Non ho una scheda video decente per ora, non ne ho estrema necessità, avrei aspettato con calma l'occasione per comprarla al giusto prezzo... che si è presentata poco fa.
Non nego però che ho il dubbio se sia appunto sensato data l'uscita delle tanto decantate rtx4000 :doh:

A quel prezzo l'avrei presa senza neppure pensarci (+40% dalla mia), buono per te.:)
Le nuove quando usciranno si valuteranno, in rapporto prezzi/disponibilità.
Per ora al massimo, si possono ipotizzare le performance, conoscendo i chip, altro non si sa.

HSH
05-04-2022, 15:22
ma su tutto quello che compri da warehouse c'è il 20%?

Bloodline Limit
05-04-2022, 15:31
no solo su alcuni prodotti

HSH
05-04-2022, 15:46
no solo su alcuni prodotti

avevo trovato una 3060ti a buon prezzo ma neanche il tempo di compraprla ed era sparita :mad:

StylezZz`
05-04-2022, 21:31
Chi ha detto che lo SLI è morto? :asd:

https://www.youtube.com/watch?v=q9w3PEVwezw

Thunder-74
05-04-2022, 21:39
Chi ha detto che lo SLI è morto? :asd:

https://www.youtube.com/watch?v=q9w3PEVwezw


Sembra di stare in una segheria hahahah


Inviato dal mio iPhone X utilizzando Tapatalk

Andy1111
05-04-2022, 22:06
Tra 5 mesi, diventa AD103 con clock ben più bassi.
l'unico vero uso sensato di quella scheda è nvlink, per 48gb in dual, ed anche programmi pro che necessitano di tale ram.
In ogni caso, per questioni di ram ed nvlink bastava la vecchia.:)



:D
Significa che AD102 FE, sarà tarato mediamente a 450watt. Con 4VRM anzichè 3 delle vecchie FE.:)
Tuttavia ci sono custom, pronte per infilare 2 connettori.

Nuovo Rumor non molto bello

https://www.hardwaretimes.com/nvidia-rtx-4090-power-consumption-450w-for-the-gpu-40w-for-memory-rest-for-pcb-etc-report/

https://www.igorslab.de/wo-die-600-watt-der-nvidia-geforce-rtx-4090-eigentlich-herkommen-eine-schaetzung-von-gpu-und-komponenten/

https://338855-1043895-2-raikfcquaxqncofqfm.stackpathdns.com/wp-content/uploads/2022/04/Table-2.png

fraussantin
05-04-2022, 23:09
avevo trovato una 3060ti a buon prezzo ma neanche il tempo di compraprla ed era sparita :mad:

ma chi è quello sxxxmo che va a rendere una gpu adesso?

strana come cosa , a meno che non sia una scheda rotta

mikael84
06-04-2022, 00:28
Nuovo Rumor non molto bello

https://www.hardwaretimes.com/nvidia-rtx-4090-power-consumption-450w-for-the-gpu-40w-for-memory-rest-for-pcb-etc-report/

https://www.igorslab.de/wo-die-600-watt-der-nvidia-geforce-rtx-4090-eigentlich-herkommen-eine-schaetzung-von-gpu-und-komponenten/



Sono speculazioni di Igor, su come potrebbe essere ripartita la potenza di un 600watt.
Infatti, ho fatto notare io stesso, come i PCB decurtati, possano rappresentare ciò che sarà lovelace, (non la totale compatibilità ovvio).

Quello che sappiamo attualmente di questo connettore, è che, è tarato per 450watt, non a caso le schede da azoto, ne usano 2, con TDP/PL sotto i 600watt (525watt).
Il connettore finale, stando ai requisiti, dovrebbe essere un 4x8 nativo e garantire tutti i 600 watt.
La 3090ti oltre che un fail, è stato più che altro un esperimento, o meglio, ci danno un esempio su ciò che sarà lovelace, ma con delle limitazioni.
I dissi sono pronti, i PCB saranno simili, ma al completo.
Se guardiamo la suprim, mancano totalmente i condensatori di potenza.
https://i.postimg.cc/8zccHMWW/pcb3.png

Scusa il paint, fatto in 2 secondi.:p


Attualmente, ciò che sappiamo di sicuro, è che Hopper, per 3x flops, ha preso il 75% dei consumi, partendo però dai 7nm.

keyvan
06-04-2022, 04:02
Domanda semplice semplice, ma che cavolo ci devono fare con tutta sta potenza? giocare? no vi prego, editiong video? come se non ci fossero già delle schede super adatte, veramente non riesco a capire.:confused:

Dono89
06-04-2022, 06:43
Editing video non credo proprio.

Gaming. Ha preso piede ed è esploso, questo è un dato di fatto.

Tempo fa (non più di 3 anni) una fascia alta costava 500euro. Ora a 500euro di prendi la media (3070).
C'è da dire che i salti generazionali sono aumentati molto, giustamente.
C'è domanda, arriva l'offerta

Andy1111
06-04-2022, 06:58
Sono speculazioni di Igor, su come potrebbe essere ripartita la potenza di un 600watt.
Infatti, ho fatto notare io stesso, come i PCB decurtati, possano rappresentare ciò che sarà lovelace, (non la totale compatibilità ovvio).

Quello che sappiamo attualmente di questo connettore, è che, è tarato per 450watt, non a caso le schede da azoto, ne usano 2, con TDP/PL sotto i 600watt (525watt).
Il connettore finale, stando ai requisiti, dovrebbe essere un 4x8 nativo e garantire tutti i 600 watt.
La 3090ti oltre che un fail, è stato più che altro un esperimento, o meglio, ci danno un esempio su ciò che sarà lovelace, ma con delle limitazioni.
I dissi sono pronti, i PCB saranno simili, ma al completo.
Se guardiamo la suprim, mancano totalmente i condensatori di potenza.
https://i.postimg.cc/8zccHMWW/pcb3.png

Scusa il paint, fatto in 2 secondi.:p


Attualmente, ciò che sappiamo di sicuro, è che Hopper, per 3x flops, ha preso il 75% dei consumi, partendo però dai 7nm.
Non devi scusarti ci mancherebbe , però Hopper se non sbaglio è stato fatto coi 4N , processo personalizzato sui 4 per Nvidia

https://www.tomshardware.com/news/tsmc-to-boost-4nm-and-5nm-output-by-25-percent


https://www.hardwaretimes.com/tsmc-details-3nm-process-node-slated-for-h2-2022-3d-packaging-and-post-silicon-technologies/

keyvan
06-04-2022, 11:31
Editing video non credo proprio.

Gaming. Ha preso piede ed è esploso, questo è un dato di fatto.

Tempo fa (non più di 3 anni) una fascia alta costava 500euro. Ora a 500euro di prendi la media (3070).
C'è da dire che i salti generazionali sono aumentati molto, giustamente.
C'è domanda, arriva l'offerta

Verissimo quello che dici Dono e ci mancherebbe , ma io faccio un altra riflessione, di solito una scheda video per giocare di fascia alta serve per avere le massime prestazioni e lo dico da possessore di un rtx 3080 ti, ma la domanda è dove sono questi giochi ? 4 su 5 sono baggati o mal ottimizzati, con una scheda come la mia raggiungi già oltre 200 fps in full hd in qualsiasi gioco competitivo, quindi la domanda, a cosa serve andare oltre ? già ci si è resi contro che i monitor 360hz non vanno bene, e ti dirò di più , per l'occhio umano non esiste la differenza tra un 240 hz ed un 360hz ammesso che funzioni bene quanto un 240hz, davvero non capisco che senso ha andare oltre, a me sembra avere un auto che viaggia a 500km?h ma non esiste la strada per sfruttare una macchina del genere.

mikael84
06-04-2022, 11:47
Non devi scusarti ci mancherebbe , però Hopper se non sbaglio è stato fatto coi 4N , processo personalizzato sui 4 per Nvidia

https://www.tomshardware.com/news/tsmc-to-boost-4nm-and-5nm-output-by-25-percent


https://www.hardwaretimes.com/tsmc-details-3nm-process-node-slated-for-h2-2022-3d-packaging-and-post-silicon-technologies/

Hopper è fatto sui 4N, ma potrebbe essere utilizzato anche per Lovelace.
Proprio loro lo riportavano.
https://www.hardwaretimes.com/nvidia-rtx-4090-to-draw-up-to-600w-power-at-max-not-800-900w-may-leverage-4nm-node-from-tsmc-report/

"Other than that, the two graphics architectures have the same floorplan, and it won’t be surprising if NVIDIA uses the N4 node for the AD102 as well. Looking at NVIDIA’s spending on foundry costs over the past months, it’s looking more and more likely that Lovelace will be an N4 die. Either way, the PPA difference between N5 and N4 is minimal at best, and shouldn’t affect the final product or performance."

Un pò come nvidia aveva utilizzato i 12, non cambiando praticamente nulla, sia in densità che in performance (salvo l'utilizzo di monoliti).

Ciò che abbiamo visto (e qua non siamo sulle speculazioni), che Hopper ha portato un +30% di clock, ed utilizzato una densità del 50% più elevata, di soli 98mt/mm2.
Da considerare però, che in ambito HPC si è passati dai 7nm di TSMC ai 4 (che sono 5 alla fine), mentre Lovelace, passerà dagli 8nm (10nm samsung) ai 4/5nm di TSMC.
Addirittura Ampere HPC usa una densità di 65mt/mm2, mentre samsung 8nm si ferma a 61 massimi (di cui ampere gaming ne usa 44).

MarkkJ
06-04-2022, 15:54
Drop di 3070/80 TI FE da Nvidia UK

AceGranger
06-04-2022, 15:58
Domanda semplice semplice, ma che cavolo ci devono fare con tutta sta potenza? giocare? no vi prego, editiong video? come se non ci fossero già delle schede super adatte, veramente non riesco a capire.:confused:

tutto cio che funziona con CUDA :stordita: ?

HSH
06-04-2022, 17:03
Drop di 3070/80 TI FE da Nvidia UK

see ciao, come ci si compra in uk con le sterline...

keyvan
06-04-2022, 20:01
tutto cio che funziona con CUDA :stordita: ?

Non credo sinceramente, per quello di sicuro non si compra la serie rtx ma altro.

quequ
06-04-2022, 21:12
sbagliato thread

AceGranger
06-04-2022, 21:17
Non credo sinceramente, per quello di sicuro non si compra la serie rtx ma altro.

credi male.

McRooster23
06-04-2022, 21:55
see ciao, come ci si compra in uk con le sterline...

Non si può proprio comprare, a prescindere dalle sterline.
Se provi a cliccare sul link del drop il sito rifiuta la connessione a chiunque sia fuori dal Regno Unito.

keyvan
06-04-2022, 22:26
credi male.

ok.

antimo78
08-04-2022, 22:36
giusto per capire ma le nuove vga serie 4000 quando arriveranno?:confused:

davide155
08-04-2022, 22:44
giusto per capire ma le nuove vga serie 4000 quando arriveranno?:confused:

Ufficialmente a settembre

Kostanz77
09-04-2022, 17:33
Ufficialmente a settembre


Ufficiale o ufficioso?


Inviato dal mio iPhone utilizzando Tapatalk Pro

HSH
09-04-2022, 21:21
Non si può proprio comprare, a prescindere dalle sterline.
Se provi a cliccare sul link del drop il sito rifiuta la connessione a chiunque sia fuori dal Regno Unito.

e allora a cosa serve come informazione? :D

davide155
09-04-2022, 21:26
Ufficiale o ufficioso?


Inviato dal mio iPhone utilizzando Tapatalk ProDopo l'attacco hacker di LAPSU$ ai danni di nvidia e le ultime news rilevate direttamente dalle stringhe di hwinfo sicuramente usciranno quest'anno.
Ufficialmente non c'è nulla di rivelato da nvidia, ma ormai sappiamo pure come saranno fatte e come andranno, la presentazione è imminente. Parlano tutti i leaker di q3 2022. Proprio come Ampere.

SinapsiTXT
10-04-2022, 22:12
Dopo l'attacco hacker di LAPSU$ ai danni di nvidia e le ultime news rilevate direttamente dalle stringhe di hwinfo sicuramente usciranno quest'anno.
Ufficialmente non c'è nulla di rivelato da nvidia, ma ormai sappiamo pure come saranno fatte e come andranno, la presentazione è imminente. Parlano tutti i leaker di q3 2022. Proprio come Ampere.

Quello che ci chiediamo tutti è se Nvidia a sto giro ha dei volumi significativi o rilascerà questa nuove gpu con i contagocce (con la conseguenza di far lievitare il MSRP come con la serie 3000).

davide155
10-04-2022, 22:29
Quello che ci chiediamo tutti è se Nvidia a sto giro ha dei volumi significativi o rilascerà questa nuove gpu con i contagocce (con la conseguenza di far lievitare il MSRP come con la serie 3000).Continueremo a chiedercelo almeno fino a settembre :)

pakal77
14-04-2022, 16:11
Voglio proprio vedere adesso con il casino a Shanghai quante schede di serie 4000 arriveranno....:asd:
Peccato anche per le Big Island di Tianshu Zhixin che ha annunciato mercoledì 31 marzo che sta per avviare la “produzione di massa” e la “consegna commerciale” che a quanto pare è paragonabile alle Nvidia RTX 3080 e 3090

MarkkJ
14-04-2022, 16:15
Voglio proprio vedere adesso con il casino a Shanghai quante schede di serie 4000 arriveranno....:asd:
Peccato anche per le Big Island di Tianshu Zhixin che ha annunciato mercoledì 31 marzo che sta per avviare la “produzione di massa” e la “consegna commerciale” che a quanto pare è paragonabile alle Nvidia RTX 3080 e 3090
PD :rolleyes:

mikael84
14-04-2022, 16:43
prende sempre più piede l'ipotesi dei 20/18A per nvidia MCM del 2024.

Densità massima sui 300 ed over.
https://338855-1043895-2-raikfcquaxqncofqfm.stackpathdns.com/wp-content/uploads/2022/04/f48737c8-7918-4d18-a531-a537f42acfac.jpg

A livello di performance, potrebbero essere ottimi, rispetto alle altre fonderie.
Da notare Samsung.
Anche se, sono conti senza oste.
https://338855-1043895-2-raikfcquaxqncofqfm.stackpathdns.com/wp-content/uploads/2022/04/dd512691-d970-4ce7-81d3-40ed4e2d5d88-1024x576.jpg

pakal77
16-04-2022, 09:24
https://i.postimg.cc/c1KBQyyw/2-E71-B1-AF-E8-C9-48-E0-83-F3-DD810999854-B.jpg (https://postimg.cc/kDmSmH5g)
https://www.nvidia.com/it-it/geforce/graphics-cards/30-series/back-in-stock/?ncid=afm-chs-44270&ranMID=44270&ranEAID=TnL5HPStwNw&ranSiteID=TnL5HPStwNw-4VyKO99RRa_20IdGc1WxvA

Che ne pensate ?

Thunder-74
16-04-2022, 09:46
https://i.postimg.cc/c1KBQyyw/2-E71-B1-AF-E8-C9-48-E0-83-F3-DD810999854-B.jpg (https://postimg.cc/kDmSmH5g)
https://www.nvidia.com/it-it/geforce/graphics-cards/30-series/back-in-stock/?ncid=afm-chs-44270&ranMID=44270&ranEAID=TnL5HPStwNw&ranSiteID=TnL5HPStwNw-4VyKO99RRa_20IdGc1WxvA

Che ne pensate ?


Di per se ottimo prezzo. È il momento che potrebbe essere sbagliato. Se si può aspettare, io attenderei la serie nuova.


Inviato dal mio iPad utilizzando Tapatalk

devAngnew
16-04-2022, 10:37
Voglio proprio vedere adesso con il casino a Shanghai quante schede di serie 4000 arriveranno....:asd:
Peccato anche per le Big Island di Tianshu Zhixin che ha annunciato mercoledì 31 marzo che sta per avviare la “produzione di massa” e la “consegna commerciale” che a quanto pare è paragonabile alle Nvidia RTX 3080 e 3090

Cioè mi stai dicendo che stanno facendo uno sgambetto agli yankee :eek: con la scusa ... :asd: :sofico:

Thunder-74
16-04-2022, 10:37
La serie nuova probabilmente non si troverà e avrà prezzi folli.

Se uno ha bisogno è meglio che compri ora e che ne approfitti, perché con la situazione geopolitica mondiale e il covid alla nuova ribalta in Cina la vedo buia sia per disponibilità che per i prezzi.


Difatti ho scritto se uno può attendere, quindi se non è alla canna del gas :D . Da non escludere poi gli affari che si potrebbero fare con gli inscimmiati che venderanno prima per evitare di perderci troppo. Anche se io non venderei prima di avere la nuova nel case.


Inviato dal mio iPad utilizzando Tapatalk

pakal77
16-04-2022, 10:50
Di per se ottimo prezzo. È il momento che potrebbe essere sbagliato. Se si può aspettare, io attenderei la serie nuova.


Inviato dal mio iPad utilizzando Tapatalk

Tu dici che con quello che sta succedendo in Cina ci saranno le 4000 abbordabili? Per me sarà peggio del lancio delle 3000, a meno che non le faranno subito castrate per Mining quelle per la
Massa

Thunder-74
16-04-2022, 11:02
Tu dici che con quello che sta succedendo in Cina ci saranno le 4000 abbordabili? Per me sarà peggio del lancio delle 3000, a meno che non le faranno subito castrate per Mining quelle per la
Massa


Purtroppo la situazione è incerta per n motivi e non è facile prendere una decisione in merito. Io ragionerei in base alla reale necessità: se mi fossi trovato in una condizione di dover acquistare perché magari ero rimasto con l integrata o con una vga di rilego non sufficiente per l uso, acquisterei ora, mentre se fossi stato con una scheda in grado di assolvere dignitosamente al compito senza eccellere, attenderei rischiando. Comunque da nVidia a evga sono arrivate comunicazione che stanno facendo il restock di ampere. Si trovano di più grazie ai mercati chiusi della Russia e Bielorussia ed a un calo generale della domanda. Possibile anche che possa continuare a scendere di prezzo ancora, certo non baserei la decisione di acquisto su quest ultimo punto: se ti serve prendila amen se dovesse trovarsi fra 20 giorni a 50 euro meno


Inviato dal mio iPhone X utilizzando Tapatalk

Besk
16-04-2022, 19:52
Si vede una discreta disponibilità di custom.
Secondo voi FE ormai non ne usciranno più?

Thunder-74
16-04-2022, 20:24
Si vede una discreta disponibilità di custom.
Secondo voi FE ormai non ne usciranno più?


Credo di no.


Inviato dal mio iPhone X utilizzando Tapatalk

mikael84
17-04-2022, 16:37
Piccola panoramica su Lovelace, aggiornata:
AD102:
144 SM/192 rop's full 4090ti (si parla anche di possibile sigla 5xxx)
4090: 16/17k cuda
4080: 14/15 k cuda
Die stimato: 611mm2, transistor 45/50mld.

https://cdn.substack.com/image/fetch/f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fbucketeer-e05bbc84-baa3-437e-9518-adb32be77984.s3.amazonaws.com%2Fpublic%2Fimages%2Fdcc2794c-0990-4910-92d6-4c7bf66d9a05_1024x597.jpeg

AD:103 (potrebbe essere solo note 4090/ti)
10752 cuda
die 380mm2

https://cdn.substack.com/image/fetch/f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fbucketeer-e05bbc84-baa3-437e-9518-adb32be77984.s3.amazonaws.com%2Fpublic%2Fimages%2Fc6c112c5-ba1d-4f52-9eaa-c35a59d1e463_1024x869.jpeg

AD 104 (potrebbe essere la 4070)
Die 311mm2
7680 cc

https://cdn.substack.com/image/fetch/f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fbucketeer-e05bbc84-baa3-437e-9518-adb32be77984.s3.amazonaws.com%2Fpublic%2Fimages%2F124dc03a-abbd-45e2-9798-466ca279f916_933x1024.jpeg

AD 106
203mm2
https://cdn.substack.com/image/fetch/f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fbucketeer-e05bbc84-baa3-437e-9518-adb32be77984.s3.amazonaws.com%2Fpublic%2Fimages%2Fb9ad37db-8849-4b7d-a59b-0e97ec1ffb22_1024x682.jpeg

Cache circa 18mm2 x 32mb.
Dimensioni SM, dovrebbero essere più grandi del 10%, tra TC, cache l1, ed RT rev 3.

Oltre ai dettagli, c'è un problema non da poco.
Ancora rimane il dubbio di AD103, non è detto al 100% che veda il desk, ma che possa essere adottato per i note, come GA103 (che inizialmente doveva essere il die della 3080).
In questi casi, la 4070 diverrebbe AD104 (come da tradizione), con perf da GA102.

Buona Pasqua ovviamente.:cincin:

davide155
17-04-2022, 18:26
Mikael ma la 4090ti avrà i famosi 18500 cuda cores? vedendo la 4090 liscia a 17k cuda....
Perché mi ricordo si parlava di quella cifra per la top di gamma.
Ovviamente sempre secondo i leak.

Lorenzop1966
17-04-2022, 19:22
L'incremento c'è rispetto alla 3080, a mio modesto avviso non ci sono software da poterla sfruttare. Sicuramente avrà prezzi proibitivi.

mikael84
17-04-2022, 19:32
Mikael ma la 4090ti avrà i famosi 18500 cuda cores? vedendo la 4090 liscia a 17k cuda....
Perché mi ricordo si parlava di quella cifra per la top di gamma.
Ovviamente sempre secondo i leak.

Si, il chip completo avrà 144 SM, ovvero 18432 cuda.
Dopo si prospettano due cut, di cui uno massiccio per la 4080

Rimane da chiarire però il chip AD103, che potrebbe essere destinato ai top per notebook, come GA103 (3080ti), e di conseguenza la 4070 scalerebbe al chip AD104 (GA102) praticamente.

Andy1111
17-04-2022, 19:50
Buona Pasqua ovviamente.:cincin:

Buona Pasqua anche a te e a tutti del forum.

Cmq hai scordato un particolare importante :

We expect Nvidia to go as high as 350W or even 400W for the top AD104 desktop GPU with GDDR6X.

Quindi una X070 con probabilmente 12gb consumerà tra i 350/400W e andrà circa come una 3090 forse , quindi da una 3070 a una X070 ci sarà un 40% in più circa, se ho fatto bene i conti ..... il tutto su un nodo a 4N (personalizzato) di TSMC, che è sempre un 5 ma porta con se sempre qualche piccolo vantaggio.

Se questo si avvicina alla realtà aspettatevi una X080 FE (custom avrà consumi più alti) a 500 W e una X090 a circa 550/600W

https://semianalysis.substack.com/p/nvidia-ada-lovelace-leaked-specifications?s=r

mikael84
17-04-2022, 20:21
Buona Pasqua anche a te e a tutti del forum.

Cmq hai scordato un particolare importante :

We expect Nvidia to go as high as 350W or even 400W for the top AD104 desktop GPU with GDDR6X.

Quindi una X070 con probabilmente 12gb consumerà tra i 350/400W e andrà circa come una 3090 forse , quindi da una 3070 a una X070 ci sarà un 40% in più circa, se ho fatto bene i conti ..... il tutto su un nodo a 4N (personalizzato) di TSMC, che è sempre un 5 ma porta con se sempre qualche piccolo vantaggio.

Se questo si avvicina alla realtà aspettatevi una X080 FE (custom avrà consumi più alti) a 500 W e una X090 a circa 550/600W

https://semianalysis.substack.com/p/nvidia-ada-lovelace-leaked-specifications?s=r

No dei consumi non ne ho proprio parlato in generale, però basta farsi due calcoli. AD102 viene dato per un 12pin da 600watt (adattatore 4x8).
AD104 è speculativo, ma basta farsi due calcoli, è 2 GPC in meno, rispetto la metà di AD102.

Secondo Igor, il chip di punta dovrebbe stare a 450 watt, levando ram, circuiterie, perdite etc. Quindi 38watt per GPC all'incirca.
AD104 con 7 GPC con calibrazione clock più o meno identica, si porterebbe a 188 + PCB e ram (quindi si i consumi potrebbero essere elevati anche con questo modello).
Considera che è un calcolo molto semplicistico, ci sono anche altri aspetti, come il controller di memoria.
Già la 3070ti ci arriva a 300.
Tuttavia, 400 watt è lecito aspettarseli da AD103, non da AD104.


I consumi con un PP del genere aumentano per forza, se la piccola efficienza te la giochi con i clock (il solo HPC ha preso il 30% di clock).
Per farti un esempio, AMD sta sui 7nmp, guarda cosa offre in più:p , però potresti mettere navi 21 in un 350mm2 (considerando che la densità utilizzata sia circa il 50% in più).
https://images.anandtech.com/doci/15219/wikichip_tsmc_logic_node_q2_2019.png

Sicuramente nvidia avrà bisogno di rivedere la microarchitettura e la sua efficienza nella prox gen.

Cmq, se fosse così, potrebbe anche allinearsi lo scenario:
4070-7700 sulla mid.:)

davide155
17-04-2022, 20:55
Quindi una X070 con probabilmente 12gb consumerà tra i 350/400W e andrà circa come una 3090 forse ,



https://semianalysis.substack.com/p/nvidia-ada-lovelace-leaked-specifications?s=r

Questo però non fa ben sperare. O meglio, il consumo maggiore porta Ada sullo stesso livello di Ampere per quanto riguarda le performance/watt.
Perché una 3090fe ha un pl di 350w, e se la futura 4070 andrà quanto una 3090 consumando uguale, non vedo quanto possa essere appetibile. Ok le performance in RT saranno sicuramente migliori, come le performance a basse risoluzioni, grazie alla mega cache, però boh..... Non mi fa strappare i capelli questa futura generazione.
Cioè aumentano le prestazioni per buona parte grazie a consumi ben maggiori. E se parliamo della 4090/ti, parliamo di ben 200/250w in più, che porca miseria non sono assolutamente pochi!

fraussantin
17-04-2022, 21:13
Buona Pasqua anche a te e a tutti del forum.



Cmq hai scordato un particolare importante :



We expect Nvidia to go as high as 350W or even 400W for the top AD104 desktop GPU with GDDR6X.



Quindi una X070 con probabilmente 12gb consumerà tra i 350/400W e andrà circa come una 3090 forse , quindi da una 3070 a una X070 ci sarà un 40% in più circa, se ho fatto bene i conti ..... il tutto su un nodo a 4N (personalizzato) di TSMC, che è sempre un 5 ma porta con se sempre qualche piccolo vantaggio.



Se questo si avvicina alla realtà aspettatevi una X080 FE (custom avrà consumi più alti) a 500 W e una X090 a circa 550/600W



https://semianalysis.substack.com/p/nvidia-ada-lovelace-leaked-specifications?s=r

Che la x70 andrà più o meno come una 3080ti , forse la 90 ( che poi sono tutte lì ) ci sta , più o meno è sempre stato così , ma che consumi di più mi sembra strano soprattutto con meno RAM.

Rimane il nodo prezzo.

Perché se anche quello si dovesse avvicinare a quello delle 3080 attuali se non peggio sarebbe un problema.

mikael84
17-04-2022, 21:26
Questo però non fa ben sperare. O meglio, il consumo maggiore porta Ada sullo stesso livello di Ampere per quanto riguarda le performance/watt.
Perché una 3090fe ha un pl di 350w, e se la futura 4070 andrà quanto una 3090 consumando uguale, non vedo quanto possa essere appetibile. Ok le performance in RT saranno sicuramente migliori, come le performance a basse risoluzioni, grazie alla mega cache, però boh..... Non mi fa strappare i capelli questa futura generazione.
Cioè aumentano le prestazioni per buona parte grazie a consumi ben maggiori. E se parliamo della 4090/ti, parliamo di ben 200/250w in più, che porca miseria non sono assolutamente pochi!

E' tutto da vedere, i consumi mi sembrano leggermente sparati.
https://www.igorslab.de/wp-content/uploads/2022/04/Table-2.png

Secondo Igor AD102 dovrebbe arrivare sino a 600watt.
450 watt di GPU.
Sono 12 GPC compresa la cache, ipotizziamo per GPC (12) 37,5w).

Ora passiamo ad AD103: 37,5 watt x 7 GPC 262,5 watt più circuiteria e ram (che sono minori), qua 350-400 watt possono starci.

AD104, è meno della metà di AD102.
Se avesse 6 GPC e 192 bit, dovrebbe avere mediamente un consumo GPU di 225 watt, però i GPC sono 5 e non 6. Quindi 37,5 x 5 circa 188 watt + circuiteria e ram (ram che scenderebbe da 40 a 20watt).
Per concludere dovrebbe essere un chip da 210 watt + circuiteria.
Da considerare che la circuiteria, non sarà mai così esosa.

Per avere consumi così, alti, devono fare come la 3090ti, ovvero impostare un TDP capace di farla toccare clock stabilmente molto alti.:)

Un chip da 300mm2, non arriverà a 400watt, a meno di non volercelo portare per forza.:p

davide155
17-04-2022, 22:12
Comunque a scanso di equivoci io parlavo di board power, non solo di chip power.

Questa immagine è bellissima però......anche se è una immagine fatta ad hoc per comparare le ipotetiche grandezze dei chip....


https://cdn.substack.com/image/fetch/f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fbucketeer-e05bbc84-baa3-437e-9518-adb32be77984.s3.amazonaws.com%2Fpublic%2Fimages%2Fe4d46186-41cd-477a-8aaa-019eb4cde502_1024x791.png

mikael84
17-04-2022, 22:37
Comunque a scanso di equivoci io parlavo di board power, non solo di chip power.

Questa immagine è bellissima però......anche se è una immagine fatta ad hoc per comparare le ipotetiche grandezze dei chip....



E' appunto, infatti ho scorporato, ho messo circuiteria e ram a parte.:)
Se AD104 è meno della metà, difficilmente arriverà a valori di 3x8pin, considera che avrà 60-80 watt tra circuiteria e ram.
Se arriveranno a tanto, 2 sono le cose:
1)AD102 (chippone) downclockerà a bestia
2)AD104 verrà stirato al limite, fregandosene completamente dell'efficienza, già orrenda.
A transistor (regola importante) sarà inferiore di GA102.

Da sottolineare che c'è anche AD103, quello potrebbe essere più esoso, ma verrà portato anche nel desktop, quindi sarà fortemente scalabile.

Sulla scala del die, beh, considera che dovrebbe essere circa il 50% sopra i 7nm e il 70-80% sopra Ampere.
GA102 ha 28,4mld di transistor con densità di 44mt x mm2.
Lovelace avrà almeno 75 mtransistor x mm2. A pari die, fatti due calcoli.:p

Telstar
17-04-2022, 23:04
di conseguenza la 4070 scalerebbe al chip AD104 (GA102) praticamente.

Speriamo di no, e neppure questi ipotetici 400W

amon.akira
18-04-2022, 01:30
Si, il chip completo avrà 144 SM, ovvero 18432 cuda.
Dopo si prospettano due cut, di cui uno massiccio per la 4080

Rimane da chiarire però il chip AD103, che potrebbe essere destinato ai top per notebook, come GA103 (3080ti), e di conseguenza la 4070 scalerebbe al chip AD104 (GA102) praticamente.

ci metterei la firma, almeno ripeteremmo la medesima situazione, +15% tra la x90 e x80 e prezzo/consumi renderebbero la x80 la vera flagship come ora.

mikael84
18-04-2022, 02:01
Speriamo di no, e neppure questi ipotetici 400W

Speculazioni e basta.
"Simultaneously, Nvidia GPUs tend to have the 104 designs have similar performance to the prior generation 102. If this trend keeps up, the cost/performance should be excellent. In fact, it may even have more as Nvidia likely pumps clocks a decent amount to hit above 3090 performance levels. We expect Nvidia to go as high as 350W or even 400W for the top AD104 desktop GPU with GDDR6X. As such, we expect this will be the GPU most enthusiasts end up purchasing. The GPU can also be highly efficient, which we expect without G6X memory and with clocks pulled back a bit. It should perform admirably in the ~90W to ~135W laptop arena as well."

Praticamente dice che nvidia con le gddr6x (come la 3070ti), potrebbe arrivare anche a 350-400watt, pompandola sino a battere la 3090 (2,5ghz). Chiaro che se la devi pompare talmente tanto vai a perdere l'efficienza.
Allo stesso tempo, un chip base girerebbe su notebook.
Nella versione notebook, useranno anche il più complesso AD103, rientrando in 150 watt, scendendo un pochino con i clock.

Il tutto sta li alla fine.:)

ci metterei la firma, almeno ripeteremmo la medesima situazione, +15% tra la x90 e x80 e prezzo/consumi renderebbero la x80 la vera flagship come ora.

Si, diciamo che potrebbero essere previste già di base grosse decurtazioni. Un 5nm(4nm) over 610, con 6 canali cache da ben 16mb, sicuramente avrà in produzione chip con partizioni l2 fallate.
Potrebbero esserci anche modelli con 2 partizioni, e di conseguenza, si è costretti a buttare 32mb di cache e passare a 256bit, disabilitando qualche GPC.
1 canale è praticamente sicuro, e su 12 GPC (che sono davvero tantissimi su un monolitico) potrebbero "moncherizzarlo" abbastanza. :)
In ogni caso, come GA012 saranno tutti basati sul chippone, quindi le perf, saranno vicine. La differenza la faranno i TDP impostati, come la 3090ti.:)

Telstar
18-04-2022, 13:08
Nella versione notebook, useranno anche il più complesso AD103, rientrando in 150 watt, scendendo un pochino con i clock.

Il tutto sta li alla fine.:)


Probabilmente le tweakeranno per battere la concorrenza rossa (come al solito).
Fino ad allora sono tutte speculazioni. CMQ almeno i chip midrange sembrano scalare bene.

Andy1111
18-04-2022, 16:25
Sicuramente dopo questa generazione dovranno sistemare il packaging e la cache, anche in ottica MCM :

While AMD is not as good as Nvidia in many elements of design, we believe they are undoubtably better in some areas such as cache and packaging. We believe much of this stems from their CPU team’s pedigree. AMD is very good at making extremely dense high-performance caches for GPUs as shown by their Infinity Cache. In fact, in our final die size estimates, Nvidia’s 96MB of L2 is still nowhere near as dense as AMD’s 96MB of L3 Infinity Cache.

Questo mi era sfuggito :

With this cache configuration, we can calculate the theoretical cache bandwidth with these figures. AMD has 1.99TB/s Infinity Cache bandwidth on Navi 21 at 1.94GHz. If we assume Nvidia is running at the same 1.94GHz on AD102, then they will be able to achieve 5.96TB/s of bandwidth at their L2. Clocks will differ in the end products, but we expect somewhere around 2.25GHz will be realistic for Ada in desktop. We expect RDNA3 to clock above 2.5GHz on desktop.

mikael84
18-04-2022, 18:06
Probabilmente le tweakeranno per battere la concorrenza rossa (come al solito).
Fino ad allora sono tutte speculazioni. CMQ almeno i chip midrange sembrano scalare bene.

Si al momento si. Almeno i particolari, tutto il resto dovrebbe essere confermato.:)

Sicuramente dopo questa generazione dovranno sistemare il packaging e la cache, anche in ottica MCM :

While AMD is not as good as Nvidia in many elements of design, we believe they are undoubtably better in some areas such as cache and packaging. We believe much of this stems from their CPU team’s pedigree. AMD is very good at making extremely dense high-performance caches for GPUs as shown by their Infinity Cache. In fact, in our final die size estimates, Nvidia’s 96MB of L2 is still nowhere near as dense as AMD’s 96MB of L3 Infinity Cache.

Questo mi era sfuggito :

With this cache configuration, we can calculate the theoretical cache bandwidth with these figures. AMD has 1.99TB/s Infinity Cache bandwidth on Navi 21 at 1.94GHz. If we assume Nvidia is running at the same 1.94GHz on AD102, then they will be able to achieve 5.96TB/s of bandwidth at their L2. Clocks will differ in the end products, but we expect somewhere around 2.25GHz will be realistic for Ada in desktop. We expect RDNA3 to clock above 2.5GHz on desktop.

Nvidia è da anni che lavora al MCM, ma ancora non l'ha realizzato probabilmente ha ancora qualche problema di parallelizzazione. Considerando l'MCM compute molto più semplice, mi aspettavo che iniziassero da Hopper, ma a quanto pare il GH102 è stato cancellato. Il problema inizialmente era dovuto alle latenze. In fatti sono curioso di vedere AMD cosa combina, considerando che anche il banco di prova CDNA è una dual gpu, non MCM.
https://i.postimg.cc/Pf3T1g8B/ctp.png


Allora, sul livello l2 vs l3, Ampere attualmente ha latenze l2 quasi pari alla l3 di AMD, di conseguenza ha dovuto optare sulla grandezza e larghezza di banda di quest' ultima, perchè c'è un problema che si chiama warp stall severo, purtroppo ereditato dal compute per una questione di accesso ai registri.

Il gigathread manda i dati ai rispettivi warp (AD102 ne avrà 576:D ), e tutti (in maniera semplicistica) cercheranno di lavorare, ma spesso gran parte rimane in idle, in attesa di dati, o facendo altro.
Dentro il warp è stato introdotto un independent sheduler, per evitare pure i frazionamenti dei gruppi di 4 fp. Ovvero warp al lavoro, 4 lavorano, 4 in idle, 4 in coda.

La derivazione compute, ha fatto perdere della efficacia complessiva ai warp, in quanto da maxwell e pascal, venivano processate contemporaneamente 32fp con 512 istruzioni per cuda, ora solo 16 con 1024 istruzioni, ma queste non possono sopperire allo stallo.

Avere il doppio dei warp a parità di cuda, fa si che la percentuale di utilizzo sia ben minore, quindi l'unica soluzione e cercare di dargli quanta più banda, e con minor latenze possibili.
Di l3 si parlava già ai tempi del pre hopper MCM
https://br.atsit.in/it/wp-content/uploads/2021/12/la-misteriosa-nvidiagpu-npotrebbe-essere-lhopper-gh100-di-nuova-generazione-sotto-mentite-spoglie-con-134-sm-8576-core-e-larghezza-di-banda-di-268-tb-s-benchmark-delle-prestazioni-simulati-mostr-2.jpg

La fortuna di ampere/turing, sono le migliorie interne a livello di L1/L0 e le operazioni INT contemporanee, ma pecca molto nell'elaborazione warp.
Il tutto si amplifica per operazioni RT, dove il chip necessità di utilizzare in parte tutte le risorse, aumentando ancora le latenze.

Riguardo i clock, si 2,25/2,5ghz saranno mediamente i valori in base ai TDP.
I VRM saranno gli UPI piombati, quindi poco margine.
A 2,25ghz, non potrebbe prendere la 3090.;)

Maury
19-04-2022, 14:00
AD 104 per una ipotetica 4070 da soli 7680 cc non è un pò fiacco ?, se non ricordo male si parlava di una 4060 a tallonare una 3090, ora ci vuole la 4070, siamo stati ridimensionati mi sa :p

Ubro92
19-04-2022, 14:10
AD 104 per una ipotetica 4070 da soli 7680 cc non è un pò fiacco ?, se non ricordo male si parlava di una 4060 a tallonare una 3090, ora ci vuole la 4070, siamo stati ridimensionati mi sa :p

Se usano AD103 per il mobile, per forza di cose passi ad AD104 per la 4070 che comunque dovrebbe andare come 3090ti, a seguire il cut con l'eventuale 4060ti che tallonerebbe 3080.

In sostanza si replicherebbe ciò che è avvenuto per ampere con 3060 e 3060ti, ripresentandosi lo stacco di performance tra 4060 e 4060ti, ma l'eventuale 4060 ricavata da AD106 andrebbe comunque come 3070/2080ti e con 12GB di vram quindi il chip rimane appetibile.

mikael84
19-04-2022, 15:02
AD 104 per una ipotetica 4070 da soli 7680 cc non è un pò fiacco ?, se non ricordo male si parlava di una 4060 a tallonare una 3090, ora ci vuole la 4070, siamo stati ridimensionati mi sa :p

Beh ridimensionati è dire poco, anche se ancora non è del tutto deciso.
Fa pensare il fatto che l'ipotetica 4070 se la vedrebbe alla pari con la 7700xt di AMD.
Questo chip ha come obbiettivo GA102 e 3080/ti varie in base al clock, troppo poco stacco sui chip minori rispetto ai chip top.
La x70 è sempre stata 1/2 del chippone, o qualche volta poco più, qua siamo quasi a livelli da x60 (1/3).

Se usano AD103 per il mobile, per forza di cose passi ad AD104 per la 4070 che comunque dovrebbe andare come 3090ti, a seguire il cut con l'eventuale 4060ti che tallonerebbe 3080.

Troppo ottimista mi sa, la 3090ti, solo pe flops, la prenderesti a 2,8 almeno (43 vs 43tf).:p


In sostanza si replicherebbe ciò che è avvenuto per ampere con 3060 e 3060ti, ripresentandosi lo stacco di performance tra 4060 e 4060ti, ma l'eventuale 4060 ricavata da AD106 andrebbe comunque come 3070/2080ti e con 12GB di vram quindi il chip rimane appetibile.

AD106 avrà 8gb.:)
Da considerare anche eventuali cut di entrambe i chip, vedi 3070 iniziale e 3060 liscia.
Saltando AD103 le fasce minori non avrebbero tutto sto salto, anzi pare proprio definire un salto gigante tra x80 e chip midrange.

Maury
19-04-2022, 15:48
Beh ridimensionati è dire poco, anche se ancora non è del tutto deciso.
Fa pensare il fatto che l'ipotetica 4070 se la vedrebbe alla pari con la 7700xt di AMD.
Questo chip ha come obbiettivo GA102 e 3080/ti varie in base al clock, troppo poco stacco sui chip minori rispetto ai chip top.
La x70 è sempre stata 1/2 del chippone, o qualche volta poco più, qua siamo quasi a livelli da x60 (1/3).



Quello che mi lascia peplesso a questo punto è l'inqadramento della 4060, andrebbe come una 3070TI ? Troppo poco, quando oggi una 3060TI è piuttosto vicina ad una 3070.
Spero che non sia questa la realtà, perchè di botto la 4070 ha perso ogni interesse da parte mia, lo step dopo, 4080 costerà molto ma molto...

nessuno29
19-04-2022, 15:59
Certo che Nvidia da Turing in poi le x60 le sta proprio umiliando...

mikael84
19-04-2022, 16:16
Quello che mi lascia peplesso a questo punto è l'inqadramento della 4060, andrebbe come una 3070TI ? Troppo poco, quando oggi una 3060TI è piuttosto vicina ad una 3070.
Spero che non sia questa la realtà, perchè di botto la 4070 ha perso ogni interesse da parte mia, lo step dopo, 4080 costerà molto ma molto...

Lo spero, per me sarebbe pure un upgrade bello sensato, per chi ha dalla 3070 in su, non così eclatante.
in questo caso, significherebbe anche abbandonare il suffisso TI.
Mi sarei aspettato per logica, una 9200 cc, cut AD103.

Da quello che si legge, pare inoltre che ci siano 2 4090, una full (ti), ed una bella cuttata (16-17k), più un cut più aggressivo per cache fallata (4080).
Un 2x in CC tra x80 e x70 è pazzesco.

Cmq entro maggio, dovremmo avere la panoramica completa.

Certo che Nvidia da Turing in poi le x60 le sta proprio umiliando...

Con Ampere, almeno ha mantenuto 1/3 dei cuda dal chippone.
Qua siamo ad 1/4 preciso, e sarebbe anche un downgrade lato ram (infatti sarebbe più x50).

Vediamo l'evolversi.

davide155
19-04-2022, 20:01
Ma secondo quale logica (parlo seriamente e serenamente) ad103 dovrebbe andare solo ed esclusivamente su notebook? Cioè perché non introdurlo anche su desktop per frammentare più equamente l'offerta? Così avremmo si una 4070 più vicina alla 4080, ed un bel salto poi per una eventuale 4090ti full mega pawa chip.
Stessa cosa è successa per ampere a quanto ricordo. O sbaglio?
Perché?

mikael84
19-04-2022, 21:07
Ma secondo quale logica (parlo seriamente e serenamente) ad103 dovrebbe andare solo ed esclusivamente su notebook? Cioè perché non introdurlo anche su desktop per frammentare più equamente l'offerta? Così avremmo si una 4070 più vicina alla 4080, ed un bel salto poi per una eventuale 4090ti full mega pawa chip.
Stessa cosa è successa per ampere a quanto ricordo. O sbaglio?
Perché?

E' una possibilità che stanno riportando tutte le fonti. Infatti viene indicata come RTX 4070 AD104-400 12gb.
Anche nell' ultimo riepilogo aggiornato si sottolinea:
https://semianalysis.substack.com/p/nvidia-ada-lovelace-leaked-specifications?s=r

"It’s important to note that GA103 never came to desktop and is only available on the top end of laptop GPU, so this could happen again with the Ada generation."

Infatti GA103 è stato completamente dedicato ai notebook ed alla quadro mobile. Successivamente lo hanno decurtato per alcune 3060ti desk che viene utilizzato in alcune zotac.

L'ipotesi andrebbe pure ad allinearsi alla 7700xt di AMD, che sarebbero a questo punto equivalenti.

Naturalmente, io lo riporto per info, di certo al 100% non c'è nulla.;)

davide155
19-04-2022, 21:48
Si si certo capisco, ma non comprendo il perché di nvidia di lasciare quel chip ad appannaggio solo dei notebook. È sprecatissimo per me. O meglio, perché non metterlo sia su notebook che su desktop.....
Sicuramente ci sono delle scelte ben precise.

mikael84
20-04-2022, 00:40
Si si certo capisco, ma non comprendo il perché di nvidia di lasciare quel chip ad appannaggio solo dei notebook. È sprecatissimo per me. O meglio, perché non metterlo sia su notebook che su desktop.....
Sicuramente ci sono delle scelte ben precise.

Qua potrebbero rientrare anche scelte societarie. Era lo stesso scenario pre Ampere.
GA103 con 7680cc, doveva essere il chip della 3080 liscia (con lo stesso bus), poi tale chip, fu cancellato (verso metà maggio), e riapparve come chip mobile (era già disegnato ovviamente).
Questo chip, stranamente è dannatamente grande, un chip da 496mm2, contro i 392mm2 della 3070ti, segno che hanno ripreso il progetto base per il notebook.
La 3080 fu tagliata a pennello vs la 6800xt.

Ora non sappiamo la sorte di AD103, potrebbe essere utilizzato in desk come no, oppure come possibile refresh di serie.:)

ninja750
20-04-2022, 09:37
Certo che Nvidia da Turing in poi le x60 le sta proprio umiliando...


Con Ampere, almeno ha mantenuto 1/3 dei cuda dal chippone.
Qua siamo ad 1/4 preciso, e sarebbe anche un downgrade lato ram (infatti sarebbe più x50).

Vediamo l'evolversi.

GTX960 wannabe :cool:

Alfhw
20-04-2022, 10:34
Ma LDLC non fa più drop di Nvidia Founders? L'ultimo è stato 2 mesi fa.
O forse le Founders sono fuori produzione?

MarkkJ
20-04-2022, 10:41
Ma LDLC non fa più drop di Nvidia Founders? L'ultimo è stato 2 mesi fa.
O forse le Founders sono fuori produzione?

sembra di no, su Telegram ho visto solo su siti DE e UK

mikael84
20-04-2022, 11:37
GTX960 wannabe :cool:

GTX 960 sempre 1/3 delle ALU (1024 vs 3072). La 950 aveva 1/4.
GTX 1060: 1280cc/ 3840cc big pascal (1/3)
Ampere: 3584cc (3060) 10752 (big )
Con turing stessa cosa, ma ne hanno fatto due per la questione RT. La classica x60 sarebbe sempre 1/3.

Nel pre Maxwell il margine era ancora minore, ma li non si era ancora verificato il salto di una fasciam tanto che la x80 era il chippone, e la x70 era il suo cut (quella che oggi è la x80ti).:)

Thunder-74
20-04-2022, 12:24
Articolo interessante in merito ai consumi delle VGA e dei picchi che possono essere 3 volte superiori al consumo della scheda stessa per 100ms. Picchi che nell'ipotesi dei 600w delle top della prossima gen, arriverebbe a a 1800w... tutto questo sarebbe perfettamente gestito dal nuovo standard ATX 3.0

Le schede grafiche PCIe Gen 5.0 possono avere "escursioni di potenza" fino a 1800 W, ma gli alimentatori ATX 3.0 possono far funzionare il tuo PC senza intoppi (https://wccftech.com/atx-3-0-power-supply-standard-pcie-gen-5-0-up-to-1800w-power-excursions-next-gen-graphics-cards/)

Maury
20-04-2022, 13:05
Una 4070 con 7680 cc torna un minimo interssante se può godere di un clock di almeno 2600 mhz, ma sarà fattibile salire così tanto ?

Sembra strano che nVidia voglia stare così bassa con 4060 e 4070, se le voci su AMD sono vere in raster le rosse andranno veramente forte.

scorpion73
20-04-2022, 16:16
Articolo interessante in merito ai consumi delle VGA e dei picchi che possono essere 3 volte superiori al consumo della scheda stessa per 100ms. Picchi che nell'ipotesi dei 600w delle top della prossima gen, arriverebbe a a 1800w... tutto questo sarebbe perfettamente gestito dal nuovo standard ATX 3.0

Le schede grafiche PCIe Gen 5.0 possono avere "escursioni di potenza" fino a 1800 W, ma gli alimentatori ATX 3.0 possono far funzionare il tuo PC senza intoppi (https://wccftech.com/atx-3-0-power-supply-standard-pcie-gen-5-0-up-to-1800w-power-excursions-next-gen-graphics-cards/)

Se fosse vero ti obbligherebbero a cambiare la PSU, ergo altre spese.
Grazie ma anche no.

mikael84
20-04-2022, 16:17
Articolo interessante in merito ai consumi delle VGA e dei picchi che possono essere 3 volte superiori al consumo della scheda stessa per 100ms. Picchi che nell'ipotesi dei 600w delle top della prossima gen, arriverebbe a a 1800w... tutto questo sarebbe perfettamente gestito dal nuovo standard ATX 3.0

Le schede grafiche PCIe Gen 5.0 possono avere "escursioni di potenza" fino a 1800 W, ma gli alimentatori ATX 3.0 possono far funzionare il tuo PC senza intoppi (https://wccftech.com/atx-3-0-power-supply-standard-pcie-gen-5-0-up-to-1800w-power-excursions-next-gen-graphics-cards/)

:mc: :mc: :mc: :mc: e tanto pure.
Devono venderli questi alimentatori a cavo nativo, stop.
Sono contro gli adattatori, ma neppure li vietano in quanto rispettano pienamente le specifiche, addirittura AWG20.

Chiudo OT.


Una 4070 con 7680 cc torna un minimo interssante se può godere di un clock di almeno 2600 mhz, ma sarà fattibile salire così tanto ?

Sembra strano che nVidia voglia stare così bassa con 4060 e 4070, se le voci su AMD sono vere in raster le rosse andranno veramente forte.

Il clock dipende dal PP, dalla microarchitettura, dall'utilizzo dei transistor (implementando transistor più lenti con meno dispersione di corrente in parti meno sensibili e transistor più rapidi, con una dispersione elevata in altre aree). Ad esempio AMD lavorando sulla dispersione, clock gating etc, ha guadagnato il 17%. Infine dal TDP e dal clock che può essere raggiunto in base al blocco dei VRM.

Quindi viene difficile sapere con certezza, quanto possano boostare e quanto possano raggiungere. Io mi terrei tra i 2,2/2,5, magari 2,2 boost base.
Ad oggi il chip HPC ha preso quasi il 30% di clock a tot. TDP, ma quei clock li prendeva in OC facilmente a 16nm.:)

Circa AD103, dovremmo aspettare almeno maggio per saperne di più, per ora il primo in fase avanzata è AD102.
Sulla 4070, fa riflettere che impostata così, andrebbe alla pari, o in linea perfetta con la 7700xt di AMD.

ultimate trip
20-04-2022, 16:48
Lo spero, per me sarebbe pure un upgrade bello sensato, per chi ha dalla 3070 in su, non così eclatante.
....

Vediamo l'evolversi.

ma se dovessi ipotizzare la 4080 quanto farà più della 3080? un 40/50%? ciao

amon.akira
20-04-2022, 17:18
ma se dovessi ipotizzare la 4080 quanto farà più della 3080? un 40/50%? ciao

sulla carta dovremmo essere a 70% a pari clock, poi tra migliorie cache e clock...se il tdp permette avremo titoli quasi 2x e titoli magari +50 o giu di li

imho ^^'

ultimate trip
20-04-2022, 17:51
sulla carta dovremmo essere a 70% a pari clock, poi tra migliorie cache e clock...se il tdp permette avremo titoli quasi 2x e titoli magari +50 o giu di li

imho ^^'

un po' come 2080 e 3080 allora. be mi sembra molto buono allora, avevo capito fosse meno

XEV
20-04-2022, 19:22
Ma LDLC non fa più drop di Nvidia Founders? L'ultimo è stato 2 mesi fa.
O forse le Founders sono fuori produzione?

se cerchi pcb founders, lo puoi trovare anche ad esempio nelle pny

mikael84
20-04-2022, 20:25
ma se dovessi ipotizzare la 4080 quanto farà più della 3080? un 40/50%? ciao

La 4080 non è stata ancora descritta, in quanto cut pesante di AD102, per ora si parla di 14/15k cuda.
Una 3080 produce 31,3TF a 1,8ghz.
Una 4080 ipotizzando 15k cuda a 2,25 (potrebbe anche essere una sorta di base boost), supererebbe i 67TF.
Mediamente per flops, ci passano su 30/33% teorici, 20% effettivi, quindi potremmo stimare anche un 70%.
Se sono 14000k 60% circa.

Da vedere anche il clock, che potrebbe essere compreso tra i 2,2 e 2,5.

Da valutare la gestione del warp stall, con le cache a banda 5x, l1 maggiorata (migliora la gestione errori in accesso dei warp liberi) , gli RT 3.0, affamati di cache e altri particolari.

Attenzione: i picchi si riferiscono a res elevate, non in 1080p/1440p, li si scende di molto in base ai giochi ed alle cpu.:)

ultimate trip
20-04-2022, 20:34
molto interessante. ho preso un monitor 4k da poco e qualche pensierino mi sta venendo. ce da dire che la 3080 si comporta sempre bene

mikael84
20-04-2022, 20:47
sulla carta dovremmo essere a 70% a pari clock, poi tra migliorie cache e clock...se il tdp permette avremo titoli quasi 2x e titoli magari +50 o giu di li

imho ^^'


Ci saranno anche quei titoli, magari unreal engine dx11.:p
Debuttando prima degli unreal engine 5, probabile che ne possano trarre beneficio, ed ottimizzare meglio il tutto per le nuove. Sfruttare le cache, vorrebbe dire lavorare a metà latenza (50% accessi), e l'occupazione della GPU sarebbe maggiore.
Se potessi aprire un task manager in stile CPU, su certi giochi, in stile ubisoft, ci sarebbe da ridere.:sofico:

molto interessante. ho preso un monitor 4k da poco e qualche pensierino mi sta venendo. ce da dire che la 3080 si comporta sempre bene

Beh considera che la 3090 mediamente gli sta avanti del 25%, ed ha 10752 cc a 1950/2 ghz costanti.:)

amon.akira
20-04-2022, 20:52
molto interessante. ho preso un monitor 4k da poco e qualche pensierino mi sta venendo. ce da dire che la 3080 si comporta sempre bene

a 4k fidati avremo bisogno di 4000 5000 6000 :p

mikael84
20-04-2022, 21:21
a 4k fidati avremo bisogno di 4000 5000 6000 :p

Con AD102, cominceranno a martellare sempre più con gli 8k ready, sicuramente vedremmo varie prove. Penso sia uno degli slogan di JHH.:D

amon.akira
20-04-2022, 21:38
Con AD102, cominceranno a martellare sempre più con gli 8k ready, sicuramente vedremmo varie prove. Penso sia uno degli slogan di JHH.:D

li non mi fregano, resto 4k XD

ultimate trip
22-04-2022, 07:51
li non mi fregano, resto 4k XD

passando da 2k a 4k cmq il colpo d'occhio è stato evidente e chiaramente ora mi sembra una definizione ottima.
il problema sarà quando vedrò gli 8k, credo cmq che tra ingrandimento dei monitor e distanza desktop sempre ravvicinata la differenza si noterà

kiwivda
22-04-2022, 09:17
molto interessante. ho preso un monitor 4k da poco e qualche pensierino mi sta venendo. ce da dire che la 3080 si comporta sempre bene

Guarda io sno passato da 3 settimane da 1080P a 4K, il salto è stato enorme, e non sono mai stato così contento della 3090. Quello che di sicuro non cambierò a breve sarà il 10900k che con questo monitor a decisamente perso di importanza rispetto alla GPU.

XEV
22-04-2022, 09:37
il 1080p gia rispetto al 1440p è un francobollo, facendo sempre i dovuti paragoni 24 -> 27'

29Leonardo
22-04-2022, 10:18
il 1080p gia rispetto al 1440p è un francobollo, facendo sempre i dovuti paragoni 24 -> 27'

Non è che ci sia tanta differenza tra un 24 fhd e un 27 qhd alle giuste distanze, ma anche a livello di grandezza non è che 3" pollici fanno sembrare il fhd un francobollo, potrei capire se lo confrotassi con un 30" UWFHD ma di certo non con un 27...

ray_hunter
22-04-2022, 10:45
Io sulle perf reali delle 4000 sono scettico spt in ambito ray tracing.
In molti giochi in raster la GPU sta al 99/100% mentre spt con GI in RT vedo GPU che sta tra l'80 e il 90% e ancor più negli ambienti aperti, mentre al chiuso la GPU viene sfruttata meglio.
Questo mi fa pensare di essere spesso CPU limited pur avendo un 5800X che viaggia a ~4800Mhz.
Per sfruttare una scheda che va il 50% della mia servirebbe una CPU che abbia il doppio del perf single core...
Oppure magari è un limite dovuta alla scarsa efficienza nel ricostruire le strutture BVH da parte dei motori e nel relativo carico alle CPU.

Guardando la demo di Matrix in UE5 mi sembra che le premesse in tal senso siano ancora peggiori di quel che si è visto nei giochi...

nessuno29
22-04-2022, 11:46
Io sulle perf reali delle 4000 sono scettico spt in ambito ray tracing.
In molti giochi in raster la GPU sta al 99/100% mentre spt con GI in RT vedo GPU che sta tra l'80 e il 90% e ancor più negli ambienti aperti, mentre al chiuso la GPU viene sfruttata meglio.
Questo mi fa pensare di essere spesso CPU limited pur avendo un 5800X che viaggia a ~4800Mhz.
Per sfruttare una scheda che va il 50% della mia servirebbe una CPU che abbia il doppio del perf single core...
Oppure magari è un limite dovuta alla scarsa efficienza nel ricostruire le strutture BVH da parte dei motori e nel relativo carico alle CPU.

Guardando la demo di Matrix in UE5 mi sembra che le premesse in tal senso siano ancora peggiori di quel che si è visto nei giochi...

Non credo sia la cpu il problema, anche perché in RT si fanno la metà degli fps.

Gello
22-04-2022, 11:57
[cut]

Guardando la demo di Matrix in UE5 mi sembra che le premesse in tal senso siano ancora peggiori di quel che si è visto nei giochi...

Non funziona proprio cosi', cmq se hai la ram a 3200 come in firma, di certo ne hai ancora parecchio di margine da tirar fuori da quel sistema.

Reiscritto sperando a sto giro di riuscire a cambiare sta Titan Pascal con una 4080, target 1440p@270hz ovviamente :)

ray_hunter
22-04-2022, 13:14
Non funziona proprio cosi', cmq se hai la ram a 3200 come in firma, di certo ne hai ancora parecchio di margine da tirar fuori da quel sistema.

Reiscritto sperando a sto giro di riuscire a cambiare sta Titan Pascal con una 4080, target 1440p@270hz ovviamente :)

I margini di miglioramento con RAM più spinte sono nella maggior parte marginali. Se poi per te tirar fuori un 5% in più è tanto allora abbiamo due criteri di valutazione diversi!

ray_hunter
22-04-2022, 13:16
Non credo sia la cpu il problema, anche perché in RT si fanno la metà degli fps.

Ma hai letto quello che ho scritto?
Non solo digital foundry ma anche HWU ha denotato un drastico aumento del carico della CPU in RT. Se cominci a usare dlss e similare la GPU spesso non è sfruttata al massimo in attesa dei calcoli delle strutture per il calcolo delle BVH

Gello
22-04-2022, 13:34
I margini di miglioramento con RAM più spinte sono nella maggior parte marginali. Se poi per te tirar fuori un 5% in più è tanto allora abbiamo due criteri di valutazione diversi!

Ritenta sarai piu' fortunato

ray_hunter
22-04-2022, 18:29
https://www.youtube.com/watch?v=IVtjAiWA_io&ab_channel=thegamrone

ti linko il primo che ho trovato. Il miglioramento è nettamente inferiore al mio GENEROSO 5%... Altro che!

Le 3200 CL14 sono state definite lo sweet spot per queste cpu.
Le prestazioni della RAM dipendono sia dal fattore velocità che tempo di accesso

Gello
22-04-2022, 19:15
Assolutamenteno ma non e' questa la sede, buon week end, stop ot :)

carloUba
23-04-2022, 08:13
https://www.youtube.com/watch?v=IVtjAiWA_io&ab_channel=thegamrone

ti linko il primo che ho trovato. Il miglioramento è nettamente inferiore al mio GENEROSO 5%... Altro che!

Le 3200 CL14 sono state definite lo sweet spot per queste cpu.
Le prestazioni della RAM dipendono sia dal fattore velocità che tempo di accesso

Ho cambiato diverse ram nella speranza di trovare la combinazione e giusta che portasse un guadagno nell'uso reale del PC.
Ho lasciato perdere altro che 5%
Alla fine nei benchmark qualcosa cambia ma poco o nulla.
Credo sia più pippe per chi fa OC che vantaggi reali per chi poi il PC lo usa.

ray_hunter
23-04-2022, 10:44
Ho cambiato diverse ram nella speranza di trovare la combinazione e giusta che portasse un guadagno nell'uso reale del PC.
Ho lasciato perdere altro che 5%
Alla fine nei benchmark qualcosa cambia ma poco o nulla.
Credo sia più pippe per chi fa OC che vantaggi reali per chi poi il PC lo usa.

Quel 5% era decisamente generoso. La cosa trova pieno riscontro nelle varie review!

XEV
23-04-2022, 18:15
Non è che ci sia tanta differenza tra un 24 fhd e un 27 qhd alle giuste distanze, ma anche a livello di grandezza non è che 3" pollici fanno sembrare il fhd un francobollo, potrei capire se lo confrotassi con un 30" UWFHD ma di certo non con un 27...

io notai molta differenza, e non potrei mai tornarci indietro

scorpion73
27-04-2022, 12:03
https://videocardz.com/newz/nvidia-reportedly-testing-900w-graphics-card-with-full-next-gen-ada-ad102-gpu

RTX 4080 will use AD103 chips, build with 16G GDDR6X, have a similar TGP to GA102.

A me sembra molto basso il numero dei CUDA per una 4080, poi certo dipende sempre dalle prestazioni.

Se come si diceva le rtx 4000 non useranno la PCI Ex 5 ma solo la PCI Ex 4 come interfaccia, inoltre, mi chiedo se sia comunque possibile il discorso dei picchi di alimentazione..

mikael84
27-04-2022, 12:12
https://videocardz.com/newz/nvidia-reportedly-testing-900w-graphics-card-with-full-next-gen-ada-ad102-gpu

RTX 4080 will use AD103 chips, build with 16G GDDR6X, have a similar TGP to GA102.

A me sembra molto basso il numero dei CUDA per una 4080, poi certo dipende sempre dalle prestazioni.

Se come si diceva le rtx 4000 non useranno la PCI Ex 5 ma solo la PCI Ex 4 come interfaccia, inoltre, mi chiedo se sia comunque possibile il discorso dei picchi di alimentazione..

Vedi, allora tutto torna a come dicevo io inizialmente.
-GA103 era pensato per la 3080, poi adattato ai note (non a caso il core è troppo grande per i 256bit).
-AD103 può essere benissimo usato per la x80 come si faceva un tempo.

Un'altra cosa, non ci saranno x70 da 400watt, in quanto facendo tutti i calcoli per GPC era impossibile.

Questa era l'ipotesi iniziale.

Questa situazione mi piace di più, in quanto si potrà ricavare anche una 4070ti da AD103 e diminuirà i costi di x80

scorpion73
27-04-2022, 12:52
Vedi, allora tutto torna a come dicevo io inizialmente.
-GA103 era pensato per la 3080, poi adattato ai note (non a caso il core è troppo grande per i 256bit).
-AD103 può essere benissimo usato per la x80 come si faceva un tempo.

Un'altra cosa, non ci saranno x70 da 400watt, in quanto facendo tutti i calcoli per GPC era impossibile.

Questa era l'ipotesi iniziale.

Questa situazione mi piace di più, in quanto si potrà ricavare anche una 4070ti da AD103 e diminuirà i costi di x80

Bisogna però vedere le prestazioni quanto saranno lontane da una attuale 3090

Andy1111
27-04-2022, 13:18
Vedi, allora tutto torna a come dicevo io inizialmente.
-GA103 era pensato per la 3080, poi adattato ai note (non a caso il core è troppo grande per i 256bit).
-AD103 può essere benissimo usato per la x80 come si faceva un tempo.

Un'altra cosa, non ci saranno x70 da 400watt, in quanto facendo tutti i calcoli per GPC era impossibile.

Questa era l'ipotesi iniziale.

Questa situazione mi piace di più, in quanto si potrà ricavare anche una 4070ti da AD103 e diminuirà i costi di x80

Per tenere i consumi più bassi sulla 4070 useranno le GDDR6, chissà quanto limiterà questa scelta parlando di banda, si parla anche di clock a 2,2 contro i 2,5 di rdna3 su mcm, mentre il monolitico 7700XT starà sui 2,7/2,8 di clock, gli dovranno tirare il collo per stargli dietro? visto che facilmente la sua concorrente sarà la 7800 liscia (mcm)
Danno la 4080 a 350W con 16 di GDDR6X e un 50% in più di cuda core ecc ecc, rispetto alla 4070 con 300W, mi sembra leggermente sottostimato, io ci aggiungerei almeno 50W in più

Bisogna però vedere le prestazioni quanto saranno lontane da una attuale 3090

Per ora i rumor danno la 4070 al livello circa della 3090

kiwivda
27-04-2022, 15:46
Secondo me la 4080 sarà su AD103 cut con eventuale TI con AD103 full e la 4090/Titan saranno su AD104 cut e poi magari full con versione Ti o potremmo anche non vedere mai un AD102 full in ambito gaming.
Le serie inferiori potrebbero essere la 4070 sul AD104 cut e eventuale Ti sul AD104 full con il miglioramento delle rese, e poi con gli scarti faranno 4060/TI con AD104 Supercut e AD103 o giù di li.

D'altro canto anche adesso su GA102 il chip full non si è visto e forse non lo si vedrà mai, la 3090Ti è stata la solita caxxata buttata li che poi in realtà manco funziona, e se anche dovesse funzionare dubito che vedrà il mercato visto che tra 6 mesi sarebbe EOL istantaneo.

Lato prezzi io mi aspetto:
4090/Titan 1999$ -> Streetprice 2800€
4080 999$ -> Streetprice 1800€
4070 699$ -> Streetprice 1200€
4060TI 499$ -> Streetprice 800€
4060 399$ -> Streetprice 600€

Sempre che escano tutte LHR (e che LHR non venga bucato), che Eth passi a PoS e che il mercato crypto si sgonfi, se no tanti auguri.

Lo dissi.

mikael84
27-04-2022, 15:47
Bisogna però vedere le prestazioni quanto saranno lontane da una attuale 3090

Il chip è praticamente lo stesso della 3090ti, cambierà il clock (più elevato).
A livello di pro, ha una grossa cache l2, ad ampia BW per migliorare il warp stall (uno dei difetti di ampere), una l1/shared da 192kb vs 128kb.
Di contro ha un bus più piccolo.
La differenza la faranno soprattutto il clock ed i giochi. Anche il RT è affamato di cache, soprattutto quando deve suddividere le risorse.

Per tenere i consumi più bassi sulla 4070 useranno le GDDR6, chissà quanto limiterà questa scelta parlando di banda, si parla anche di clock a 2,2 contro i 2,5 di rdna3 su mcm, mentre il monolitico 7700XT starà sui 2,7/2,8 di clock, gli dovranno tirare il collo per stargli dietro? visto che facilmente la sua concorrente sarà la 7800 liscia (mcm).

Le memorie consumano tutte 2,5 watt a modulo come max a stock, più che altro cambia la base su cui viene installato (ad esempio la 3070ti eredita il pcb di GA102), il controller (questo si) ed il TDP dedicato.
Con il nuovo PP (10nm ram), pare che riescano a farci stare 2gb su 3,5w.

Per semplicità è meglio cmq utilizzare le 6 lisce, tanto samsung almeno le 18 le ha.:) Anche per (e soprattutto) per i costi.:p


Danno la 4080 a 350W con 16 di GDDR6X e un 50% in più di cuda core ecc ecc, rispetto alla 4070 con 300W, mi sembra leggermente sottostimato, io ci aggiungerei almeno 50W in più

Ci può stare, analizzando le unità di calcolo in stile AD102, che ha calcolato igor, dovrebbero essere 260 watt solo li, più quei 100 watt tra circuiteria, ram etc.
Ciò che conterà sarà il TDP e come vengono stirate.
Ad esempio, 3080/3080ti, hanno TDP bassi (oddio bassi per come dovrebbero), ma sotto test, downclockano a 1750, i chip minori stanno tranquillamente a 1900.



Per ora i rumor danno la 4070 al livello circa della 3090

Qua dipenderà molto dal clock, il 2,2/2,25 potrebbe essere il base boost. L'obbiettivo è cmq GA102, come navi33, navi21.
Sicuramente a 1440p, potrebbe anche sorprendere GA102, per la sua versatilità a livello di latenze.
Certo che se mettessero l'hardware sheduler come AMD, alle basse res, sarebbe un passo enorme avanti.

WarSide
27-04-2022, 15:49
Secondo me la 4080 sarà su AD103 cut con eventuale TI con AD103 full e la 4090/Titan saranno su AD104 cut e poi magari full con versione Ti o potremmo anche non vedere mai un AD102 full in ambito gaming.
Le serie inferiori potrebbero essere la 4070 sul AD104 cut e eventuale Ti sul AD104 full con il miglioramento delle rese, e poi con gli scarti faranno 4060/TI con AD104 Supercut e AD103 o giù di li.

D'altro canto anche adesso su GA102 il chip full non si è visto e forse non lo si vedrà mai, la 3090Ti è stata la solita caxxata buttata li che poi in realtà manco funziona, e se anche dovesse funzionare dubito che vedrà il mercato visto che tra 6 mesi sarebbe EOL istantaneo.

Lato prezzi io mi aspetto:
3090/Titan 1999$ -> Streetprice 2800€
3080 999$ -> Streetprice 1800€
3070 699$ -> Streetprice 1200€
3060TI 499$ -> Streetprice 800€
3060 399$ -> Streetprice 600€

Sempre che escano tutte LHR (e che LHR non venga bucato), che Eth passi a PoS e che il mercato crypto si sgonfi, se no tanti auguri.

Dai, se le crypto si calmano o passano a PoS, per me non ci saranno più i bagarini. Con venti di guerra e gas ed energia che salgono a ritmi assurdi, la gente farà ancora più pressione su ETH per finalizzare il passaggio.

Per me ci sarà un periodo dell'oro con una invasione di scede video usate questa estate. A meno di urgenze di lavoro, io consiglierei a tutti di aspettare qualche mese prima di comprare.

floop
27-04-2022, 16:28
Dai, se le crypto si calmano o passano a PoS, per me non ci saranno più i bagarini. Con venti di guerra e gas ed energia che salgono a ritmi assurdi, la gente farà ancora più pressione su ETH per finalizzare il passaggio.



Per me ci sarà un periodo dell'oro con una invasione di scede video usate questa estate. A meno di urgenze di lavoro, io consiglierei a tutti di aspettare qualche mese prima di comprare.Dici?

Inviato dal mio GM1900 utilizzando Tapatalk

WarSide
27-04-2022, 16:35
Dici?

Inviato dal mio GM1900 utilizzando Tapatalk

Con il costo attuale dell'energia e con ETH a 3k già adesso in tutta europa non ha senso minare. Tolto ETH, cosa mini con le schede video? Ravencoin? Non sono di gran lunga profitable :stordita:

floop
27-04-2022, 17:13
Con il costo attuale dell'energia e con ETH a 3k già adesso in tutta europa non ha senso minare. Tolto ETH, cosa mini con le schede video? Ravencoin? Non sono di gran lunga profitable :stordita:

speriamo!
nell'altra casa ho un pc con una gtx970 che volevo cambiare

mikael84
27-04-2022, 19:47
Lo dissi.

Il full chip era la Titan.:)
Cmq con la doppia densità, si avrà la possibilità di metterci pure 48gb.
La quadro l6000 con chip full, dovrebbe passare da 300 a 375watt (EPS), questo fa anche pensare male, sul fatto che siano stirati male a livello di efficienza.

Se fosse confermato, avremmo dei salti solo sul chippone e piccolissimi sugli altri. Una 4080 su chip minore, l'avevo sempre ipotizzata, però da 8 GPC (12300k cuda). Il che avrebbe seguito le linee guida nvidia. con GA102 praticamente chiuso.

Sinceramente non capisco neppure la scelta di rimanere sul monolitico, infatti non a caso, pare destinare il chippone agli ultra enthusiast a costi e consumi altissimi, ed a tutti gli altri chippetti sui 3-370mm2, che sarebbero fasce medio-medio basse.

scorpion73
27-04-2022, 21:00
Lo dissi.

Tu hai detto su AD103 cut, ma non può essere cut sennò va come una 3090.
Staremo a vedere, può anche darsi che tirino fuori una 4080 a 14k core.
Se tirano fuori una 3080 su AD103 temo che saremo fortemente delusi e non ci sarà quel divario di prestazioni da spingere all'upgrade.
Specie per chi ha già una 3080ti e non vuole svenarsi dietro a nuove PSU o sistemi altisonanti di raffreddamento per quella follia da 600W che corrisponde alla 4080ti/4090.