PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 [337] 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

scorpion73
01-03-2022, 12:49
Raga forse vi sfugge una cosa.
Questo è un thread tecnico di GPU nvidia, dove si dovrebbe appunto parlare in modo tecnico delle GPU.
Tutto il resto dovrebbe stare fuori (le problematiche, le conosciamo tutti).
Se la 4090 avrà specifiche troppo esose, sta all'utente valutare il daffarsi, in ambito tecnico questo è e questo si accetta. Ci saranno le altre fasce.
Nella mia firma, non vedi GPU da 500watt.;)

Siamo in una situazione di PP, dove all'aumentare della densità, non corrisponde un aumento degno in efficienza, e si cercano dei compromessi.
L'alternativa era creare un chippino da 450mm2 con 12000k cc, +30/40% andando bene, e via, però mi pare tu abbia letteralmente storto il naso all'idea di una soluzione simile.

I chipponi, ci tengo a ricordarlo, nascono soprattutto per il campo professionale, gli scarti vengono relegati ai gamers, altrimenti non avresti mai visto una 2080ti.;)
Con i 3nm, non credere che sarà meglio. +70% densità, -25% efficienza.


Scusa ma parlare di efficienza a dir poco disastrosa e consumo esagerato non è secondo te una cosa tecnica?
Sul fatto che tecnicamente questo è e questo si accetta, grazie ma anche no. Il Questo è mi va bene ma lo posso criticare perché tecnicamente mi pare abbia degli svantaggi e poi perché la discussione tecnica non la puoi vedere solo da un lato ma la devi sempre comunque vedere immersa in un dato contesto a 360 gradi. Si considerano tutti gli aspetti.
Anche perché le fasce più basse non sappiamo se portano un boost rispetto alle fasce più alte di ampere e se non fosse così, a parità di consumo intendo, non sono upgrade di niente a mio parere. Ergo se vuoi upgradare devi andare su consumi maggiori. Questo tecnicamente sarà commentabile e criticabile no?


Inviato dal mio iPhone utilizzando Tapatalk de

mikael84
01-03-2022, 15:17
Scusa ma parlare di efficienza a dir poco disastrosa e consumo esagerato non è secondo te una cosa tecnica?

Ni, l'efficienza non ottimale è data dal PP (che per carità è eccellente, ma problematico se rapportato alla densità che verrà utilizzata), dalla microarchitettura, dal tipo di ram, controller esoso (come quello delle g6x) e dalla derivazione pro, dove nvidia si è buttata su un die monolitico molto grande.


Sul fatto che tecnicamente questo è e questo si accetta, grazie ma anche no.

Giustamente, ti compri una scheda di fascia inferiore. Di una scheda pensata per il pro, con esosissime connessioni nvlink, non te ne fai nulla, ne tanto meno ci lavori.
Volevi la 4090 con consumi da 250/300watt, bene, nvidia in base al PP ed alla microarchitettura, doveva tirare fuori un chippino da 12000 cuda (AD104 praticamente), però dopo ti saresti lamentato che il balzo sarebbe minimo.
E' una coperta corta.


Il Questo è mi va bene ma lo posso criticare perché tecnicamente mi pare abbia degli svantaggi e poi perché la discussione tecnica non la puoi vedere solo da un lato ma la devi sempre comunque vedere immersa in un dato contesto a 360 gradi. Si considerano tutti gli aspetti.

Questi sono discorsi che riguardano il contorno della GPU.
Cosa intendi per parlare a 360°? Di guerre, pandemia e di ripercussioni? Anche no (almeno non qua), di elettricità che aumenta? di aumento del calore, aumento dell'alimentazione, di case più areati? Questo si, negli appositi thread, ma a dire il vero, se ne parla sempre.:)


Anche perché le fasce più basse non sappiamo se portano un boost rispetto alle fasce più alte di ampere e se non fosse così, a parità di consumo intendo, non sono upgrade di niente a mio parere. Ergo se vuoi upgradare devi andare su consumi maggiori.

Ecco, per i fatti spiegati sopra.
Tralasciando il fatto che i consumi reali neppure li conosciamo, per darti un chip a 350 watt, devi scendere a compromessi, considerando in primis che il chippone è pensato per ambiti pro.

Con Pascal era diverso, l'efficienza era migliore, e ci si è fermati ad un 471mm2, ora con un chip così, forse ci metti 12000 cuda, considerando pure che i collegamenti ora sono più esosi, tra la complessità rop's, cache.


Questo tecnicamente sarà commentabile e criticabile no?


Inviato dal mio iPhone utilizzando Tapatalk de

Certo che puoi criticarla, ma devi anche calcolare tutto.
Ogni microarchitettura viene rinnovata ogni 2 gen solitamente, non si può fare dall'oggi al domani.
Si potrebbe criticare la microarchitettura in se, e su questo mi sono sempre sbizzarrito, in quanto secondo la mia conoscenza, certi chip potevano essere bilanciati meglio, ma io non sono nessuno. Posso solo lamentarmi e criticare.:p

mikael84
01-03-2022, 19:32
Scusate il doppio post, riporto qualche rumors aggiornato, secondo la fuga di notizie dall'hack nvidia

https://twitter.com/kopite7kimi/status/1498642578052612096

In realtà, sono quelli già specificati da me.:D

1° chip: 144 SM = 18432CC
2° chip : 96 SM = 12288CC
3° chip : 48 SM = 6144CC
4: chip: 32 SM = 4096CC

Da vedere dove sarà collocata la 4080 e la 4070

bonzoxxx
01-03-2022, 19:52
Scusate il doppio post, riporto qualche rumors aggiornato, secondo la fuga di notizie dall'hack nvidia

https://twitter.com/kopite7kimi/status/1498642578052612096

In realtà, sono quelli già specificati da me.:D

1° chip: 144 SM = 18432CC
2° chip : 96 SM = 12288CC
3° chip : 48 SM = 6144CC
4: chip: 32 SM = 4096CC

Da vedere dove sarà collocata la 4080 e la 4070

Ammazza c'avevi preso alla grande.

Quindi il cippone avrà l'80% in più di core rispetto al GA102, sticazzi....

mikael84
01-03-2022, 20:01
Ammazza c'avevi preso alla grande.

Quindi il cippone avrà l'80% in più di core rispetto al GA102, sticazzi....

Si, bello massiccio. A sto giro però, c'è da aspettarsi anche un deciso balzo di clock. Clock ormai fermo da Pascal per vari motivi.

bonzoxxx
01-03-2022, 20:10
Si, bello massiccio. A sto giro però, c'è da aspettarsi anche un deciso balzo di clock. Clock ormai fermo da Pascal per vari motivi.

Quindi un raddoppio delle prestazioni brute ci sta, che non significa il doppio dei frame intendo come TFlops.

Per alcuni sarà difficile tenere a bada la scimmia, già mi vedo orde di miners entusiasti per i 200Mh/s e più sotto ETH.. :muro:

WarSide
01-03-2022, 20:17
Si, bello massiccio. A sto giro però, c'è da aspettarsi anche un deciso balzo di clock. Clock ormai fermo da Pascal per vari motivi.

Per me sarà massiccio l'aumento di prezzi :stordita:

bonzoxxx
01-03-2022, 20:20
Per me sarà massiccio l'aumento di prezzi :stordita:

C'è il rischio di un MSRP da 999€ per la 4080, imho.. ma è un mio pensiero non voglio scatenare il panico e non ho alcuna fonte per affermarlo

mikael84
01-03-2022, 20:28
Quindi un raddoppio delle prestazioni brute ci sta, che non significa il doppio dei frame intendo come TFlops.

Per alcuni sarà difficile tenere a bada la scimmia, già mi vedo orde di miners entusiasti per i 200Mh/s e più sotto ETH.. :muro:

Beh si, se prendiamo una 3090 (in FP grezze), ha circa 40TF ad un clock di 1900. Il chippone full a soli 2,2ghz avrà proprio 80TF, a 2,5ghz 90TF.
La 3080 arriva a 30-33 ( 33 a 1900), il chippetto a 54-61 (clock tra 2,2/2,5).

Quindi già questo sarà un bel passo avanti. Considerando anche i sicuri 16gb.

La velocità ram potrebbe non differire molto, anche i bus dovrebbero rimanere uguali, nvidia a sto giro dovrebbe integrare una sorta di cache l3 per sgravare la banda.
Non so quanto possa migliorare le prestazioni in mining.:)


Per me sarà massiccio l'aumento di prezzi :stordita:

Di base sicuramente saranno un tantino più elevati, poi ci penserà la situazione (che speriamo migliori).:p

bonzoxxx
01-03-2022, 20:31
Beh si, se prendiamo una 3090 (in FP grezze), ha circa 40TF ad un clock di 1900. Il chippone full a soli 2,2ghz avrà proprio 80TF, a 2,5ghz 90TF.
La 3080 arriva a 30-33 ( 33 a 1900), il chippetto a 54-61 (clock tra 2,2/2,5).

Quindi già questo sarà un bel passo avanti. Considerando anche i sicuri 16gb.

La velocità ram potrebbe non differire molto, anche i bus dovrebbero rimanere uguali, nvidia a sto giro dovrebbe integrare una sorta di cache l3 per sgravare la banda.
Non so quanto possa migliorare le prestazioni in mining.:)


Non che mi interessi :D se scala come scala la 3090 vs 3080 potremmo davvero vedere i 200Mh/s ma è pure probabile che le GPU escano tutte LHR, chi lo sa..

scorpion73
01-03-2022, 20:47
Scusate il doppio post, riporto qualche rumors aggiornato, secondo la fuga di notizie dall'hack nvidia

https://twitter.com/kopite7kimi/status/1498642578052612096

In realtà, sono quelli già specificati da me.:D

1° chip: 144 SM = 18432CC
2° chip : 96 SM = 12288CC
3° chip : 48 SM = 6144CC
4: chip: 32 SM = 4096CC

Da vedere dove sarà collocata la 4080 e la 4070


Correggimi se sbaglio ma quelli sono i massimi dei chip giusto? Quindi la 4080 potrebbe essere anche un cut del primo chip a 15k cuda (o giù di lì non ho fatto il conto preciso in base al bus).
Il chip da 12288 lo vedo più per una 3070ti.
Poi mi sbaglierò, chi vivrà vedrà ma da 96SM a 144SM di spazio per un cut ce ne sta a iosa e dubito che nvidia non lo sfrutti per almeno tre schede..

Comunque lo stesso contenuto sta in un articolo su videocardz che dopo una prima tabella riporta a fondo articolo che il secondo chip non è 96SM ma 84SM che significa 10k cuda come dicevo io.


Inviato dal mio iPhone utilizzando Tapatalk

Ubro92
01-03-2022, 21:02
Scusate il doppio post, riporto qualche rumors aggiornato, secondo la fuga di notizie dall'hack nvidia

https://twitter.com/kopite7kimi/status/1498642578052612096

In realtà, sono quelli già specificati da me.:D

1° chip: 144 SM = 18432CC
2° chip : 96 SM = 12288CC
3° chip : 48 SM = 6144CC
4: chip: 32 SM = 4096CC

Da vedere dove sarà collocata la 4080 e la 4070

La cosa più logica per come verranno distribuiti i chip é questa:

1° chip: 144 SM = 18432CC -> 4080ti - 4090
2° chip : 96 SM = 12288CC -> 4070 - 4080
3° chip : 48 SM = 6144CC -> 4060 - 4060ti
4: chip: 32 SM = 4096CC -> 4050 - 4050ti

Considerando l'aumento del clock, già il chip full con 48sm andrebbe a tallonare l'attuale 3080...

L'eventuale 4080 con 96sm avrebbe ampissimi margini rispetto la 3090...

In sostanza si ripristinerebbero le precedenti gerarchie viste con Pascal, Turing e Maxwell.

Fatto sta, che potrebbero anche tagliare tutti i chip per presentarsi con le super un anno dopo xD





Inviato dal mio M2012K11AG utilizzando Tapatalk

mikael84
01-03-2022, 21:13
Non che mi interessi :D se scala come scala la 3090 vs 3080 potremmo davvero vedere i 200Mh/s ma è pure probabile che le GPU escano tutte LHR, chi lo sa..

Si, l'aumento è stato di quasi 200gb/s di BW. Con Lovelace, samsung dovrebbe avere sino a 24gb/s, ma il principale partner rimane Micron. Quindi bisogna vedere se ci saranno a disposizione reali aumenti. Cambierà la cache in stile AMD.

Correggimi se sbaglio ma quelli sono i massimi dei chip giusto? Quindi la 4080 potrebbe essere anche un cut del primo chip a 15k cuda (o giù di lì non ho fatto il conto preciso in base al bus).
Il chip da 12288 lo vedo più per una 3070ti.
Poi mi sbaglierò, chi vivrà vedrà ma da 96SM a 144SM di spazio per un cut ce ne sta a iosa e dubito che nvidia non lo sfrutti per almeno tre schede..

Comunque lo stesso contenuto sta in un articolo su videocardz che dopo una prima tabella riporta a fondo articolo che il secondo chip non è 96SM ma 80SM che significa 10k cuda come dicevo io.


Inviato dal mio iPhone utilizzando Tapatalk

Si , la 4080 ancora non è stata collocata.
In un ipotetico cut in stile Ampere, avrebbe circa 15360-16896CC su 320/384bit, quindi 20/24gb.
Rimane però l'ipotesi Chip medio da 12288. Chip che tra l'altro se la giocherebbe con navi 32.

Una 4070/ti con 12288CC, sinceramente mi sembra davvero troppo come balzo.
Lo so che può sembrare poco, ma la 4080 è quasi sempre stata 2/3 del chippone, solo con Ampere è stata un'eccezione.

Ubro92
01-03-2022, 21:35
Anche se qui si parla di specifiche leggermente diverse e un ulteriore chip con AD103:

https://twitter.com/davideneco25320/status/1498735616346972164

https://videocardz.com/newz/nvidia-geforce-rtx-40-ada-gpu-architecture-specs-allegedly-leaked-up-to-144-streaming-multiprocessors

https://i.postimg.cc/SxtfRQ1y/image.png

mikael84
02-03-2022, 00:10
Anche se qui si parla di specifiche leggermente diverse e un ulteriore chip con AD103:

https://twitter.com/davideneco25320/status/1498735616346972164

https://videocardz.com/newz/nvidia-geforce-rtx-40-ada-gpu-architecture-specs-allegedly-leaked-up-to-144-streaming-multiprocessors



Si, ho letto ora, entrambi dicono di aver visto i dati. Kopite è sempre stato tra i più affidabili, anche 3dcenter ha riportato le sue dichiarazioni.
https://www.3dcenter.org/
Videocardz e wccftech, hanno copiato sto tipo.

Domani vedremmo che conferma Kopite, che è tra le fonti più affidabili nvidia.:)

Cmq, se fosse come dice lui, avremmo praticamente un chippone quasi 2x sulle altre.:p
X03 quindi sarebbe per forza X70, ed un quasi shrink di GA102 con meno bus ed nvlink, il chip x04 uno shrink di GA104 e l'x06 una quasi 3060ti con più clock.

Praticamente un balzo pazzesco sulla enthusiast, pochissima roba sulle fasce inferiori.

Se, e dico se, è come dice lui, la 4080 e 4070 sono segnate.
Vediamo la risposta di Kopite.:)

Thunder-74
02-03-2022, 07:45
Si, ho letto ora, entrambi dicono di aver visto i dati. Kopite è sempre stato tra i più affidabili, anche 3dcenter ha riportato le sue dichiarazioni.
https://www.3dcenter.org/
Videocardz e wccftech, hanno copiato sto tipo.

Domani vedremmo che conferma Kopite, che è tra le fonti più affidabili nvidia.:)

Cmq, se fosse come dice lui, avremmo praticamente un chippone quasi 2x sulle altre.:p
X03 quindi sarebbe per forza X70, ed un quasi shrink di GA102 con meno bus ed nvlink, il chip x04 uno shrink di GA104 e l'x06 una quasi 3060ti con più clock.

Praticamente un balzo pazzesco sulla enthusiast, pochissima roba sulle fasce inferiori.

Se, e dico se, è come dice lui, la 4080 e 4070 sono segnate.
Vediamo la risposta di Kopite.:)

Credo che da sabato sapremo tante cose...

NVIDIA Data Breach Aftermath Diventa più serio, gli hacker fanno nuove richieste

LINK (https://www.guru3d.com/news-story/nvidia-data-breach-aftermath-gets-more-serioushackers-make-new-demand.html)

Ubro92
02-03-2022, 08:32
Si, ho letto ora, entrambi dicono di aver visto i dati. Kopite è sempre stato tra i più affidabili, anche 3dcenter ha riportato le sue dichiarazioni.

https://www.3dcenter.org/

Videocardz e wccftech, hanno copiato sto tipo.



Domani vedremmo che conferma Kopite, che è tra le fonti più affidabili nvidia.:)



Cmq, se fosse come dice lui, avremmo praticamente un chippone quasi 2x sulle altre.:p

X03 quindi sarebbe per forza X70, ed un quasi shrink di GA102 con meno bus ed nvlink, il chip x04 uno shrink di GA104 e l'x06 una quasi 3060ti con più clock.



Praticamente un balzo pazzesco sulla enthusiast, pochissima roba sulle fasce inferiori.



Se, e dico se, è come dice lui, la 4080 e 4070 sono segnate.

Vediamo la risposta di Kopite.:)Si ma una 4070 con 84 SM sarebbe esagerata, passerebbe la 3090 di oltre il 25%...

Se fossero confermati quei tagli considerati gli aumenti di clock dovremmo avere questo scenario:


AD103 84 SM -> +25% da 3090

AD104 60 SM -> +15% da 3080

AD106 36 SM -> -5% da 3070

AD107 24 SM -> += 3060


AD102 per una questione di powelimit, probabile che avrà strozzature sul clock quindi non credo in un 2x matematico a meno di essere sotto liquido, dovrebbe andare un +70-80% da 3090 simile a quanto visto con Titan XP rispetto a 980ti.

Inoltre si sta ragionando su chip full, ma ci saranno sicuramente tagli, anche con le nuove info ritengo altamente probabile che si abbia questa gerarchia:

AD102 -> 4090 - 4080TI - 4080S
AD103 -> 4080 - 4070S
AD104 -> 4070 - 4060TI
AD106 -> 4060S - 4060
AD107 -> 4050 - 4050TI






Inviato dal mio M2012K11AG utilizzando Tapatalk

Thunder-74
02-03-2022, 08:41
Si ma una 4070 con 84 SM sarebbe esagerata, passerebbe la 3090 di oltre il 25%...

Se fossero confermati quei tagli considerati gli aumenti di clock dovremmo avere questo scenario:


AD103 84 SM -> +25% da 3090

AD104 60 SM -> +15% da 3080

AD106 36 SM -> -5% da 3070

AD107 24 SM -> += 3060


AD102 per una questione di powelimit, probabile che avrà strozzature sul clock quindi non credo in un 2x matematico a meno di essere sotto liquido, dovrebbe andare un +70-80% da 3090 simile a quanto visto con Titan XP rispetto a 980ti.

Inoltre si sta ragionando su chip full, ma ci saranno sicuramente tagli, anche con le nuove info ritengo altamente probabile che si abbia questa gerarchia:

AD102 -> 4090 - 4080TI - 4080S
AD103 -> 4080 - 4070S
AD104 -> 4070 - 4060TI
AD106 -> 4060S - 4060
AD107 -> 4050 - 4050TI






Inviato dal mio M2012K11AG utilizzando Tapatalk


Io credo che la 4080 sarà basata sul AD102 decurtato e con bus da 320, come è stato con Ampere .
Possibile che vedremo un bel balzo in avanti nelle medesime fasce . Non dimentichiamoci di AMD che sembra poter proporre un ottimo RDNA3 .


Inviato dal mio iPhone X utilizzando Tapatalk

scorpion73
02-03-2022, 08:44
Si ma una 4070 con 84 SM sarebbe esagerata, passerebbe la 3090 di oltre il 25%...

Se fossero confermati quei tagli considerati gli aumenti di clock dovremmo avere questo scenario:


AD103 84 SM -> +25% da 3090

AD104 60 SM -> +15% da 3080

AD106 36 SM -> -5% da 3070

AD107 24 SM -> += 3060


AD102 per una questione di powelimit, probabile che avrà strozzature sul clock quindi non credo in un 2x matematico a meno di essere sotto liquido, dovrebbe andare un +70-80% da 3090 simile a quanto visto con Titan XP rispetto a 980ti.

Inoltre si sta ragionando su chip full, ma ci saranno sicuramente tagli, anche con le nuove info ritengo altamente probabile che si abbia questa gerarchia:

AD102 -> 4090 - 4080TI - 4080S
AD103 -> 4080 - 4070S
AD104 -> 4070 - 4060TI
AD106 -> 4060S - 4060
AD107 -> 4050 - 4050TI






Inviato dal mio M2012K11AG utilizzando Tapatalk

Ma tutta la gamma Lovelace avrà un boost di prestazioni, quindi io non mi scandalizzerei di vedere le percentuali che tu affermi.
D'altro canto, sulla top la percentuale è enorme, si rifletterà anche dietro.

Mi posso sbagliare, ma se la 4060 tallonerà la 3080 o la passerà pure, per me sarà possibile una 4080 su cut di AD102 intorno ai 15k cuda e una 4070ti, che non vedo sul tuo schema, basata su full 103.
Io personalmente non credo alla 4080 sui 10k cuda, secondo me ne avrà di più, anche perché comunque in genere la 4080ti è uno "scarto" della 4090 (o ex Titan che dir si voglia), non gli si è mai discostata molto.
Se fai una 4080 sul 103 apri a una 4080ti sui 15k cuda, che si discosterebbe molto di più dai 18k cuda full chip (o quasi).
Poi oh, vedremo che dicono, magari sabato sapremo qualcosa di più... :)

Thunder-74
02-03-2022, 09:06
Ma tutta la gamma Lovelace avrà un boost di prestazioni, quindi io non mi scandalizzerei di vedere le percentuali che tu affermi.
D'altro canto, sulla top la percentuale è enorme, si rifletterà anche dietro.

Mi posso sbagliare, ma se la 4060 tallonerà la 3080 o la passerà pure, per me sarà possibile una 4080 su cut di AD102 intorno ai 15k cuda e una 4070ti, che non vedo sul tuo schema, basata su full 103.
Io personalmente non credo alla 4080 sui 10k cuda, secondo me ne avrà di più, anche perché comunque in genere la 4080ti è uno "scarto" della 4090 (o ex Titan che dir si voglia), non gli si è mai discostata molto.
Se fai una 4080 sul 103 apri a una 4080ti sui 15k cuda, che si discosterebbe molto di più dai 18k cuda full chip (o quasi).
Poi oh, vedremo che dicono, magari sabato sapremo qualcosa di più... :)


Anche perché tra AD102 e AD103 c è un divario enorme che lascia parecchi chip intermedi . Nel mezzo una 4080 ci sta tutta


Inviato dal mio iPhone X utilizzando Tapatalk

scorpion73
02-03-2022, 09:27
Anche perché tra AD102 e AD103 c è un divario enorme che lascia parecchi chip intermedi . Nel mezzo una 4080 ci sta tutta


Inviato dal mio iPhone X utilizzando Tapatalk

Esattamente, è quello che penso io.

davide155
02-03-2022, 10:49
Se manterranno la stessa percentuale di differenza fra i chip avremo di nuovo le 4080-4080ti-4090 in un fazzoletto di percentuale.
Faccio notare come la mia 3090fe appena montata andava 1000 punti più lenta nel timespy rispetto alla mia 3080 SuprimX con curva ottimizzata. Quindi è tutto dire.
Se già la 4080 avrà 16gb di vram sarà di nuovo la killer gpu presa d'assalto da tutti i bagarini maledetti. La 4090 non se la inculerà nessuno perché troppo energivora in rapporto alle reali prestazioni date rispetto alla 4080.

Thunder-74
02-03-2022, 12:19
Schemino riassuntivo... la cache è spaventosa :sofico:

https://i.imgur.com/cmaEH0O.png

fraussantin
02-03-2022, 12:37
Schemino riassuntivo... la cache è spaventosa :sofico:

https://i.imgur.com/cmaEH0O.pngAda 103 sarà la 4070?

Thunder-74
02-03-2022, 12:43
Ada 103 sarà la 4070?

ancora non si sa ...

Ubro92
02-03-2022, 13:17
Se manterranno la stessa percentuale di differenza fra i chip avremo di nuovo le 4080-4080ti-4090 in un fazzoletto di percentuale.
Faccio notare come la mia 3090fe appena montata andava 1000 punti più lenta nel timespy rispetto alla mia 3080 SuprimX con curva ottimizzata. Quindi è tutto dire.
Se già la 4080 avrà 16gb di vram sarà di nuovo la killer gpu presa d'assalto da tutti i bagarini maledetti. La 4090 non se la inculerà nessuno perché troppo energivora in rapporto alle reali prestazioni date rispetto alla 4080.

Motivo per cui dubito che alla prima sfornata facciano una 4080 su AD102.

Più che altro perchè l'eventuale 4070 con 84SM sarebbe un mostro, eclisserebbe la 3090 anche oltre il 25%...

Di solito la x70 ha sempre rincorso la x80ti con il solito altarino, qui siamo a un altro livello, a meno ovviamente di un CUT a 68-72SM...

Poi faccio notare che anche tra 2080ti e 2080s sulla carta c'è una differenza abominevole, ma in game tutto questo stacco non c'è XD

Fare una 4080 dal chippone, come successo con ampere, renderebbe i chip TI e x90 insensati e quelli inferiori troppo power rispetto la precedente gen...

kiwivda
02-03-2022, 14:25
Motivo per cui dubito che alla prima sfornata facciano una 4080 su AD102.

Più che altro perchè l'eventuale 4070 con 84SM sarebbe un mostro, eclisserebbe la 3090 anche oltre il 25%...

Di solito la x70 ha sempre rincorso la x80ti con il solito altarino, qui siamo a un altro livello, a meno ovviamente di un CUT a 68-72SM...

Poi faccio notare che anche tra 2080ti e 2080s sulla carta c'è una differenza abominevole, ma in game tutto questo stacco non c'è XD

Fare una 4080 dal chippone, come successo con ampere, renderebbe i chip TI e x90 insensati e quelli inferiori troppo power rispetto la precedente gen...

Secondo me la 4080 sarà su AD103 cut con eventuale TI con AD103 full e la 4090/Titan saranno su AD104 cut e poi magari full con versione Ti o potremmo anche non vedere mai un AD102 full in ambito gaming.
Le serie inferiori potrebbero essere la 4070 sul AD104 cut e eventuale Ti sul AD104 full con il miglioramento delle rese, e poi con gli scarti faranno 4060/TI con AD104 Supercut e AD103 o giù di li.

D'altro canto anche adesso su GA102 il chip full non si è visto e forse non lo si vedrà mai, la 3090Ti è stata la solita caxxata buttata li che poi in realtà manco funziona, e se anche dovesse funzionare dubito che vedrà il mercato visto che tra 6 mesi sarebbe EOL istantaneo.

Lato prezzi io mi aspetto:
3090/Titan 1999$ -> Streetprice 2800€
3080 999$ -> Streetprice 1800€
3070 699$ -> Streetprice 1200€
3060TI 499$ -> Streetprice 800€
3060 399$ -> Streetprice 600€

Sempre che escano tutte LHR (e che LHR non venga bucato), che Eth passi a PoS e che il mercato crypto si sgonfi, se no tanti auguri.

Thunder-74
02-03-2022, 14:25
Motivo per cui dubito che alla prima sfornata facciano una 4080 su AD102.

Più che altro perchè l'eventuale 4070 con 84SM sarebbe un mostro, eclisserebbe la 3090 anche oltre il 25%...

Di solito la x70 ha sempre rincorso la x80ti con il solito altarino, qui siamo a un altro livello, a meno ovviamente di un CUT a 68-72SM...

Poi faccio notare che anche tra 2080ti e 2080s sulla carta c'è una differenza abominevole, ma in game tutto questo stacco non c'è XD

Fare una 4080 dal chippone, come successo con ampere, renderebbe i chip TI e x90 insensati e quelli inferiori troppo power rispetto la precedente gen...

Non lo darei per scontato che la 4080 non sia basata su AD102, per vari motivi:
1) già visto con Ampere che la 3080 era basata sul chippone
2) può spacciare la 4090 successivamente come ha fatto con la 3090 a fronte di una quantità superiore di Vram anche se la differenza di prestazioni sono risicate.
3) deve rispondere ad AMD su tutte le fasce e sulla carta RDNA3 sembra essere veloce
4) riduzione sprechi di chip AD102 non adatti per la top di gamma con i 18k cuda.

Sostanzialmente se lancia per prima la 4080, sicuramente sarà su AD102 cuttato. Se lancerà prima la 4090, potrebbe attendere la concorrenza per decidere se la 4080 basarla su AD103 in base alle performaces di AMD nella medesima fascia. Ma mi sentirei di scartare la seconda ipotesi apriori.

bonzoxxx
02-03-2022, 14:35
Sostanzialmente se lancia per prima la 4080, sicuramente sarà su AD102 cuttato. Se lancerà prima la 4090, potrebbe attendere la concorrenza per decidere se la 4080 basarla su AD103 in base alle performaces di AMD nella medesima fascia. Ma mi sentirei di scartare la seconda ipotesi apriori.

Anche secondo me la 4080 sarà un AD102 cuttato e AD103 probabilmente per la 4070.

mikael84
02-03-2022, 14:43
Si ma una 4070 con 84 SM sarebbe esagerata, passerebbe la 3090 di oltre il 25%...

Se fossero confermati quei tagli considerati gli aumenti di clock dovremmo avere questo scenario:


AD103 84 SM -> +25% da 3090

AD104 60 SM -> +15% da 3080

AD106 36 SM -> -5% da 3070

AD107 24 SM -> += 3060

Non avrebbe senso la 4080 così. soprattutto se l'architettura non riuscisse a clockare molto alto.
La 4080 non può essere una 3080ti clockata e con meno bus.
Quel chip così, avrebbe senso per una 4070ti.
Considerando che ora la 3080 è pure stata rimpiazzata dalla 3080 12gb che avrebbe quasi le stesse specifiche.

Inoltre la differenza con il chippone sarebbe imbarazzante.
Poi tutto può essere...


AD102 per una questione di powelimit, probabile che avrà strozzature sul clock quindi non credo in un 2x matematico a meno di essere sotto liquido, dovrebbe andare un +70-80% da 3090 simile a quanto visto con Titan XP rispetto a 980ti.

Inoltre si sta ragionando su chip full, ma ci saranno sicuramente tagli, anche con le nuove info ritengo altamente probabile che si abbia questa gerarchia:



Certo che ci saranno tagli.

Cmq tra 3080ti e 4080ti , ipotizzando 2 TPC disabilitati, e con clock da review, la prima (1750 circa) totalizza 35,8 TF grezzi (solo FP), una 4080ti a "soli" 2ghz la doppierebbe.



Schemino riassuntivo... la cache è spaventosa :sofico:



Pazzesco, da 1 a 16mb e non immagino la l3 allora.
Praticamente si punta tutto sulle cache, anzichè la potenza di calcolo.
Fanno un uber chippone, e gli altri shrink clockati.

https://i.postimg.cc/6555SX5T/AD192.png

Cmq tra l'altro 192 rop's e 12 primitive.

Anche perché tra AD102 e AD103 c è un divario enorme che lascia parecchi chip intermedi . Nel mezzo una 4080 ci sta tutta


Inviato dal mio iPhone X utilizzando Tapatalk

Si, ma il problema è dove collocarlo, ci sono già 5 chip

mikael84
02-03-2022, 14:53
Non lo darei per scontato che la 4080 non sia basata su AD102, per vari motivi:
1) già visto con Ampere che la 3080 era basata sul chippone
2) può spacciare la 4090 successivamente come ha fatto con la 3090 a fronte di una quantità superiore di Vram anche se la differenza di prestazioni sono risicate.
3) deve rispondere ad AMD su tutte le fasce e sulla carta RDNA3 sembra essere veloce
4) riduzione sprechi di chip AD102 non adatti per la top di gamma con i 18k cuda.

Sostanzialmente se lancia per prima la 4080, sicuramente sarà su AD102 cuttato. Se lancerà prima la 4090, potrebbe attendere la concorrenza per decidere se la 4080 basarla su AD103 in base alle performaces di AMD nella medesima fascia. Ma mi sentirei di scartare la seconda ipotesi apriori.

Esatto, se gli ha calibrati casì, JHH si aspetta un navi32 (il chip mid MCM ) non troppo potente, o con tali prestazioni.
Impensabile vedere una 4080 con i cuda più o meno allineati alla 3080 attuale. Di cui la sola forza sarebbe la cache ed il clock, considerando anche il bus minore di base per RT.

Mentre tra 3080ti e 4080ti ci passerebbe un 2x di differenza a soli 2ghz.

Motivo per cui dubito che alla prima sfornata facciano una 4080 su AD102.

Più che altro perchè l'eventuale 4070 con 84SM sarebbe un mostro, eclisserebbe la 3090 anche oltre il 25%...

Potrebbe essere la 4070ti, mentre la 4070 uno scarto.
Se guardiamo AMD, già navi 33 dovrebbe andare quanto navi21.


Di solito la x70 ha sempre rincorso la x80ti con il solito altarino, qui siamo a un altro livello, a meno ovviamente di un CUT a 68-72SM...

Non sempre. Cmq se dovessimo prendere il chip dopo, ovvero il chip X04, la x70 sarebbe declassata a 192bit (ok le cache).


Poi faccio notare che anche tra 2080ti e 2080s sulla carta c'è una differenza abominevole, ma in game tutto questo stacco non c'è XD

Beh il 25% di calcolo, che non sempre si traduce in un aumento lineare.:)



Fare una 4080 dal chippone, come successo con ampere, renderebbe i chip TI e x90 insensati e quelli inferiori troppo power rispetto la precedente gen...

Come fare la 4080 con il chippino.:p

Thunder-74
02-03-2022, 15:51
Comunque è ufficiale, scimmia per la 4080, così , a scatola chiusa :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

mikael84
02-03-2022, 16:07
Comunque è ufficiale, scimmia per la 4080, così , a scatola chiusa :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

Aspetta prima di vedere cosa sia:p
Ormai JHH è capace di tutto.:sofico:

scorpion73
02-03-2022, 16:20
Dovete considerare anche che COMUNQUE la top di gamma renderà iper ridicola la 3090 attuale.
Per cui mi sento di dire che questa "ridicolizzazione" avverrà su tutte le fasce.
Non ha senso fare una fascia uber che va un 100% in più dell'attuale top e una fascia pure top 4080 che va un 20% in più dell'attuale top, il divario è troppo.
E non basare una top sul 384 bit mi sembra sinceramente fare una marcia indietro, un downgrade "estetico" a cui non penso nvidia punta.
Specie se AMD tira fuori un chip veloce.

ninja750
02-03-2022, 16:24
Dovete considerare anche che COMUNQUE la top di gamma renderà iper ridicola la 3090 attuale.

se i leak sono veri ad essere ridicoli saranno i consumi, cioè sarebbe incomprabile qualunque cosa dalla 4070 in su. quindi speriamo siano fake e che stiano lavorando anche e soprattutto su questo aspetto

mikael84
02-03-2022, 16:38
Dovete considerare anche che COMUNQUE la top di gamma renderà iper ridicola la 3090 attuale.
Per cui mi sento di dire che questa "ridicolizzazione" avverrà su tutte le fasce.
Non ha senso fare una fascia uber che va un 100% in più dell'attuale top e una fascia pure top 4080 che va un 20% in più dell'attuale top, il divario è troppo.
E non basare una top sul 384 bit mi sembra sinceramente fare una marcia indietro, un downgrade "estetico" a cui non penso nvidia punta.
Specie se AMD tira fuori un chip veloce.

Infatti mi rifiuto di pensare che la 4080 sia stampata col chippetto, ovvero le stesse ALU di una 3080ti.
Fosse stata come ipotizzavo, e come confermava ieri Kopite a 12500cc ci poteva pure stare, ma così è decisamente troppo il dislivello.

Purtroppo non sappiamo neppure con tutti i transistor che spenderanno per le cache, quanto riusciranno a tararla ad 1v circa. Fossero 2,2 solo, a parità di cuda l'aumento non sarebbe certo eclatante.

Ubro92
02-03-2022, 16:57
Io sinceramente su un 5nm mi aspetto almeno 2.4-2.5ghz :sofico:

Se parliamo dei soliti 2-2.2ghz i margini sono deludenti, si deve solo sperare che scalino bene... Ma con un clock del genere le AMD metterebbero molta ansia XD

scorpion73
02-03-2022, 17:16
se i leak sono veri ad essere ridicoli saranno i consumi, cioè sarebbe incomprabile qualunque cosa dalla 4070 in su. quindi speriamo siano fake e che stiano lavorando anche e soprattutto su questo aspetto

Sui consumi ridicoli siamo perfettamente d'accordo: se leggi qualche mio post fa ho scritto chiaramente che una VGA da 600W non ci entra nel mio case, anche se fosse 3X la 3090. E questo indipendentemente dal prezzo. C'è un limite.
Una 4080 sui 450W forse però non si discosterebbe più di tanto dagli attuali consumi limite di una supercustom: dipende sempre poi dal picco ma fino a li forse si riesce ad arrivare. Come limite estremo, sopra no però.
In ogni caso resta da vedere anche l'aspetto del calore prodotto perché non voglio trasformare il case in un altoforno.
Ma quando usciranno le recensioni o dati più certi potremo riparlare meglio e con più certezza di questa cosa.

Questo è però un discorso differente: nella discussione si parlava solo di taraggio delle schede in funzione dei cuda in base ai leak usciti da poco.

Poi è ovvio che l'aspetto legato all'acquisto tiene conto anche di molti altre fattori, ma non si parlava di questo aspetto, sul quale ripeto entra in gioco, e non come secondario, anche il fattore di cui parli te.

Thunder-74
02-03-2022, 17:51
Sui consumi ridicoli siamo perfettamente d'accordo: se leggi qualche mio post fa ho scritto chiaramente che una VGA da 600W non ci entra nel mio case, anche se fosse 3X la 3090. E questo indipendentemente dal prezzo. C'è un limite.
Una 4080 sui 450W forse però non si discosterebbe più di tanto dagli attuali consumi limite di una supercustom: dipende sempre poi dal picco ma fino a li forse si riesce ad arrivare. Come limite estremo, sopra no però.
In ogni caso resta da vedere anche l'aspetto del calore prodotto perché non voglio trasformare il case in un altoforno.
Ma quando usciranno le recensioni o dati più certi potremo riparlare meglio e con più certezza di questa cosa.

Questo è però un discorso differente: nella discussione si parlava solo di taraggio delle schede in funzione dei cuda in base ai leak usciti da poco.

Poi è ovvio che l'aspetto legato all'acquisto tiene conto anche di molti altre fattori, ma non si parlava di questo aspetto, sul quale ripeto entra in gioco, e non come secondario, anche il fattore di cui parli te.

Sicuramente anche la top di gamma non arriverà a 600w, perchè sicuramente le nuove adotteranno il il nuovo connettore che raggiunge proprio i 600w e sapendo che comunque si mantiene un certo margine di sicurezza, direi che al max la top potrà rasentare i 500/550w. Aspettarsi i 400/450w sulle 4080, ci sta tutto. Come dicevo, credo che vedremo parecchie 4090 con AIO

mikael84
02-03-2022, 19:39
Io sinceramente su un 5nm mi aspetto almeno 2.4-2.5ghz :sofico:

Se parliamo dei soliti 2-2.2ghz i margini sono deludenti, si deve solo sperare che scalino bene... Ma con un clock del genere le AMD metterebbero molta ansia XD

Si pure io mi aspetto quei valori. Probabilmente 2,2 sarà il boost base.:)

Sicuramente anche la top di gamma non arriverà a 600w, perchè sicuramente le nuove adotteranno il il nuovo connettore che raggiunge proprio i 600w e sapendo che comunque si mantiene un certo margine di sicurezza, direi che al max la top potrà rasentare i 500/550w. Aspettarsi i 400/450w sulle 4080, ci sta tutto. Come dicevo, credo che vedremo parecchie 4090 con AIO

La 3090ti doveva essere proprio lo standard delle nuove, quindi sarà sicuramente 450+ pci express (magari 420 sulla 4080).:)

Thunder-74
03-03-2022, 07:27
La guida alla progettazione dell'ATX versione 3.0 rivela i dettagli del cavo del connettore PCIe 5.0, fino a 600 W di alimentazione in ingresso per le GPU di nuova generazione


LINK (https://wccftech.com/atx-version-3-0-design-guide-pcie-gen-5-connector-cable-up-to-600w-power/)

scorpion73
03-03-2022, 11:25
Prevedo che per le attuali PSU verranno prodotti cavi da tre connettori 8 pin a unico connettore 16 pin, ovviamente AWG 16, sul modello di quanto fatto da Seasonic con i cavi a 12 pin delle ampere (che partivano da due connettori 8 pin).

Thunder-74
03-03-2022, 11:58
Prevedo che per le attuali PSU verranno prodotti cavi da tre connettori 8 pin a unico connettore 16 pin, ovviamente AWG 16, sul modello di quanto fatto da Seasonic con i cavi a 12 pin delle ampere (che partivano da due connettori 8 pin).

il problema è che non si potrà attingere fino a 600 watt con adattatori, oltre ai 450w ottenibili da tre cavi da 150w 8pin, ma anche esistesse un adattatore 4 cavi 8pin, mancherebbero sempre i contatti dei 4 pin supplementari del nuovo connettore, che veicolano varie info tra le quali l'ok a poter attingere a 600w

A meno che non si inventano qualcosa per eludere il controllo della scheda video..

EDIT:
ANZI da quello che leggo , senza contatti (sense0 e sense1) non vengono erogati più di 150 w:

Secondo le diapositive pubblicate dal leaker @momom_us , il cavo supporterà fino a 600W di potenza nella sua configurazione completa. Inoltre, saranno supportate le modalità 450W, 300W e 150W.

I documenti definiscono la configurazione binaria dei segnali delle bande laterali Sense0 e Sense1. Con entrambi i segnali collegati a terra, la GPU si alimenterà con 375 W di potenza e una potenza massima sostenuta di 600 W. Se questi segnali sono aperti, la GPU riceverà inizialmente 100 W, con un massimo di 150 W durante il carico


https://i.imgur.com/tfkNcPj.png


FONTE (https://videocardz.com/newz/pcie-gen5-12vhpwr-power-connector-to-feature-150w-300w-450w-and-600w-settings)

WarSide
03-03-2022, 12:38
Vedessero di darsi una calmata però. Ho cambiato l'ali l'anno scorso sperando durasse almeno 3 anni. :muro:

Adesso ci sono in ballo le specifiche PCIe5.0 e quelle ATX12VO. Ma non potrebbero decidersi e fare tutti i dannati cambi assieme?

Finisce che ogni 1/2 anni tocca cambiare per forza ali per fare upgrade.:muro: :muro:

Fabio1987
03-03-2022, 13:08
ragazzi ma ci sono tempistiche certe sulla data di presentazione delle nuove nvidia? che la curiosità mi sta mangiando vivo...

Ale55andr0
03-03-2022, 13:25
Infatti mi rifiuto di pensare che la 4080 sia stampata col chippetto, ovvero le stesse ALU di una 3080ti.
.

chiamalo chippetto :sofico:


Praticamente si punta tutto sulle cache, anzichè la potenza di calcolo.



uhm, avran preso spunto da qualcuno :D

scorpion73
03-03-2022, 13:46
il problema è che non si potrà attingere fino a 600 watt con adattatori, oltre ai 450w ottenibili da tre cavi da 150w 8pin, ma anche esistesse un adattatore 4 cavi 8pin, mancherebbero sempre i contatti dei 4 pin supplementari del nuovo connettore, che veicolano varie info tra le quali l'ok a poter attingere a 600w

A meno che non si inventano qualcosa per eludere il controllo della scheda video..

EDIT:
ANZI da quello che leggo , senza contatti (sense0 e sense1) non vengono erogati più di 150 w:

Secondo le diapositive pubblicate dal leaker @momom_us , il cavo supporterà fino a 600W di potenza nella sua configurazione completa. Inoltre, saranno supportate le modalità 450W, 300W e 150W.

I documenti definiscono la configurazione binaria dei segnali delle bande laterali Sense0 e Sense1. Con entrambi i segnali collegati a terra, la GPU si alimenterà con 375 W di potenza e una potenza massima sostenuta di 600 W. Se questi segnali sono aperti, la GPU riceverà inizialmente 100 W, con un massimo di 150 W durante il carico


https://i.imgur.com/tfkNcPj.png


FONTE (https://videocardz.com/newz/pcie-gen5-12vhpwr-power-connector-to-feature-150w-300w-450w-and-600w-settings)

https://itigic.com/it/maximum-power-of-each-power-supply-wire/

Qui dice :

"un cavo PCI-Express a 8 pin dall'alimentatore è in grado di fornire in sicurezza fino a 288 watt, mentre un connettore a 8 pin può fornire fino a 216 watt.
In ogni caso, quando parliamo di cavi PCIe per la manutenzione di una scheda grafica - poiché è l'elemento che consuma di più in un PC, anche più del processore - la nostra raccomandazione è di calcolare circa 12.5 W per pin del connettore, ovvero, un connettore PCIe a 8 pin può fornire da solo fino a 100 W di potenza. Il massimo come abbiamo mostrato sopra è molto più alto di questo, ma con quel valore puoi sempre essere sicuro di evitare qualsiasi tipo di problema dovuto a sovraccarico o riscaldamento."

Quindi se fanno cavi che sopportano la tensione in teoria ci arrivi con tre cavi a 600W perché quella dei 150W è solo una raccomandazione, probabilmente per gestire i cavi AWG 20 o AWG 18. Ovviamente la scheda deve essere predisposta a ricevere quelle quantità di corrente.
Anche perché il cavo 12 pin eroga 450W (se non erro, non so se sono anche di più) ma con DUE connettori e non con tre, basta vedere i cavi Seasonic, che non sono adattatori ma cavi che partono direttamente dalla PSU, e sono ovviamente AWG 16

https://i.ibb.co/BtrYWYm/pin.jpg (https://imgbb.com/)

Non so cosa ne pensa chi ne capisce più di me, ma a vedere questo mi sa tanto di markettata sto connettore nuovo, almeno per la gestione della corrente.
L'unico vero problema potrebbe essere la storia dei contatti dei 4 pin supplementari del nuovo connettore, che secondo me sono fatti apposta per evitare adattatori che altrimenti, stando all'articolo sopra riportato, sarebbero più che fattibili.

bonzoxxx
03-03-2022, 14:15
Semplice, metteranno 2 connettori nuovi, facile... :doh:

kiwivda
03-03-2022, 15:01
Alla fine vedrete che dopo neanche 4 anni di onorato servizio mi toccherà cambiare il Seasonic SSR-1000TR senza motivo :doh: per colpa di una marchettata solo per prendere la 4090 o il chippone di turno.

Ubro92
03-03-2022, 15:59
Alla fine vedrete che dopo neanche 4 anni di onorato servizio mi toccherà cambiare il Seasonic SSR-1000TR senza motivo :doh: per colpa di una marchettata solo per prendere la 4090 o il chippone di turno.

Vabbè ci sono sempre gli adattatori, ma di solito quando c'è un cambio di standard gli stessi produttori realizzano soluzioni custom con i vecchi connettori che con i nuovi.
E anche nvidia in realtà ha inserito nelle scatole delle FE l'apposito adattatore.

mikael84
03-03-2022, 16:09
chiamalo chippetto :sofico:

Rispetto al chippone lo sarà, a specifiche praticamente sarà quasi la metà.:)




uhm, avran preso spunto da qualcuno :D

La cache purtroppo è l'unico modo per massimizzare la parallelizzazione e sgravare la banda, ma non solo, aiuta notevolmente le operazioni di RT BVH.
In realtà, ci sarebbe da affrontare un argomento ben più complesso come il Warp stall. Ia 4090 avrà ben 576 warp da gestire, se ls BW sarà limitata, si ritroverà svariati warp e thread in attesa.
Una L2 così ampia, riesce a soddisfare al meglio i warp in attesa a latenze migliori che passare dalla ram.

Spesso si ragiona in potenza totale assoluta, poi vai a vedere il reale utilizzo, e vedi un'allocazione SM del 80%, con questi che lavorano alla metà pure, in quanto si generano troppi stalli per via delle nuove richieste negate da latenze ed accessi troppo lenti.:)

https://itigic.com/it/maximum-power-of-each-power-supply-wire/

Qui dice :

"un cavo PCI-Express a 8 pin dall'alimentatore è in grado di fornire in sicurezza fino a 288 watt, mentre un connettore a 8 pin può fornire fino a 216 watt.
In ogni caso, quando parliamo di cavi PCIe per la manutenzione di una scheda grafica - poiché è l'elemento che consuma di più in un PC, anche più del processore - la nostra raccomandazione è di calcolare circa 12.5 W per pin del connettore, ovvero, un connettore PCIe a 8 pin può fornire da solo fino a 100 W di potenza. Il massimo come abbiamo mostrato sopra è molto più alto di questo, ma con quel valore puoi sempre essere sicuro di evitare qualsiasi tipo di problema dovuto a sovraccarico o riscaldamento."

Quindi se fanno cavi che sopportano la tensione in teoria ci arrivi con tre cavi a 600W perché quella dei 150W è solo una raccomandazione, probabilmente per gestire i cavi AWG 20 o AWG 18. Ovviamente la scheda deve essere predisposta a ricevere quelle quantità di corrente.
Anche perché il cavo 12 pin eroga 450W (se non erro, non so se sono anche di più) ma con DUE connettori e non con tre, basta vedere i cavi Seasonic, che non sono adattatori ma cavi che partono direttamente dalla PSU, e sono ovviamente AWG 16



Si l'EPS ha 4 linee da 6 A per 288watt, l'AWG18 8pin mediamente a 216 viste le 3 linee.
Teoricamente basterebbe pilotare i VRM ed i connettori con lo standard AWG18.
L'AWG20 è attualmente lo standard principale, in quanto non tutti gli ALI supportano l'AWG18.
Fa un pò ridere ora come ora, visto che gli ALI di qualità, cominciano ad introdurre anche i 16.
Purtroppo gli ALI vecchi, soprattutto low cost non supportavano tale cablaggio, tanto che molti ALI, applicavano un'isolamento più spesso, in modo che il cavo sembrasse avere fili più spessi.
Per dire, qua non c'era certo il limite dei 150watt.
https://www.techpowerup.com/review/amd-r9-295-x2/22.html

Thunder-74
03-03-2022, 17:24
Io credo che il nuovo connettore serva a fare un punto zero ed evitare così ali/cavi non idonei ad erogare tutta la corrente che richiederanno certe vga. Definendo un nuovo standard eviti che alcune case si illuminino a giorno la sera :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

Ubro92
03-03-2022, 17:47
Io credo che il nuovo connettore serva a fare un punto zero ed evitare così ali/cavi non idonei ad erogare tutta la corrente che richiederanno certe vga. Definendo un nuovo standard eviti che alcune case si illuminino a giorno la sera :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

Vabbè diciamo che anche il circuito è più pulito, piuttosto che mettere 3x8 se non 4x8pin per le super-custom :sofico:

Thunder-74
03-03-2022, 18:09
Vabbè diciamo che anche il circuito è più pulito, piuttosto che mettere 3x8 se non 4x8pin per le super-custom :sofico:


Ma te le immagini con 4 connettori da 8pin . Che poi anche a livello visivo si percepirebbe quanto sia energivora , invece con quel connettorino sembrerà più parca :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

Ubro92
03-03-2022, 18:15
Ma te le immagini con 4 connettori da 8pin . Che poi anche a livello visivo si percepirebbe quanto sia energivora , invece con quel connettorino sembrerà più parca :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

Ma non c'è bisogno di immaginare eccola qua in tutto il suo splendore "R9 295X2 Devil 13"

https://www.techpowerup.com/201564/powercolor-radeon-r9-295x2-devil13-up-close

Direi che l'impatto visivo rispetto ai nuovi standard sia decisamente diverso XD

scorpion73
03-03-2022, 19:10
Ma non c'è bisogno di immaginare eccola qua in tutto il suo splendore "R9 295X2 Devil 13"

https://www.techpowerup.com/201564/powercolor-radeon-r9-295x2-devil13-up-close

Direi che l'impatto visivo rispetto ai nuovi standard sia decisamente diverso XD


Ma senza andare troppo in là basta la hd6990 di amd


Inviato dal mio iPhone utilizzando Tapatalk

scorpion73
03-03-2022, 19:11
Rispetto al chippone lo sarà, a specifiche praticamente sarà quasi la metà.:)





La cache purtroppo è l'unico modo per massimizzare la parallelizzazione e sgravare la banda, ma non solo, aiuta notevolmente le operazioni di RT BVH.
In realtà, ci sarebbe da affrontare un argomento ben più complesso come il Warp stall. Ia 4090 avrà ben 576 warp da gestire, se ls BW sarà limitata, si ritroverà svariati warp e thread in attesa.
Una L2 così ampia, riesce a soddisfare al meglio i warp in attesa a latenze migliori che passare dalla ram.

Spesso si ragiona in potenza totale assoluta, poi vai a vedere il reale utilizzo, e vedi un'allocazione SM del 80%, con questi che lavorano alla metà pure, in quanto si generano troppi stalli per via delle nuove richieste negate da latenze ed accessi troppo lenti.:)



Si l'EPS ha 4 linee da 6 A per 288watt, l'AWG18 8pin mediamente a 216 viste le 3 linee.
Teoricamente basterebbe pilotare i VRM ed i connettori con lo standard AWG18.
L'AWG20 è attualmente lo standard principale, in quanto non tutti gli ALI supportano l'AWG18.
Fa un pò ridere ora come ora, visto che gli ALI di qualità, cominciano ad introdurre anche i 16.
Purtroppo gli ALI vecchi, soprattutto low cost non supportavano tale cablaggio, tanto che molti ALI, applicavano un'isolamento più spesso, in modo che il cavo sembrasse avere fili più spessi.
Per dire, qua non c'era certo il limite dei 150watt.
https://www.techpowerup.com/review/amd-r9-295-x2/22.html


I seasonic prime (non solo i px ma penso anche quelli del 2019) penso siano almeno awg 18 sbaglio?


Inviato dal mio iPhone utilizzando Tapatalk

Thunder-74
03-03-2022, 19:48
Ma non c'è bisogno di immaginare eccola qua in tutto il suo splendore "R9 295X2 Devil 13"

https://www.techpowerup.com/201564/powercolor-radeon-r9-295x2-devil13-up-close

Direi che l'impatto visivo rispetto ai nuovi standard sia decisamente diverso XD


Avevo rimosso dalla memoria . Mamma mia


Inviato dal mio iPhone X utilizzando Tapatalk

mikael84
03-03-2022, 19:57
Io credo che il nuovo connettore serva a fare un punto zero ed evitare così ali/cavi non idonei ad erogare tutta la corrente che richiederanno certe vga. Definendo un nuovo standard eviti che alcune case si illuminino a giorno la sera :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk


I seasonic prime (non solo i px ma penso anche quelli del 2019) penso siano almeno awg 18 sbaglio?

Esatto, anche se tutto ciò riguarderà il chippone, le fasce sotto, soprattutto dei partner saranno a cablaggio normale.

Inoltre potrebbe anche semplificare la ripartizione, non avendo troppi cavi da gestire.:)


Inviato dal mio iPhone utilizzando Tapatalk

Assolutamente si, qualcuno ha pure qualche AWG16, ma in media sono AWG18:) .

caccapupu91
03-03-2022, 23:54
altro che doppia gpu, si va di PSU sli :asd:

Maury
04-03-2022, 06:51
Ragazzi è impensabile che sua necessario per forza cambiare la psu vuol dire che nvidia al day one vende 3 schede, non sono scemi. Al 100 % ci saranno alternative, adattatore o schede con attacchi classici.

Giovamas
04-03-2022, 07:01
I seasonic prime (non solo i px ma penso anche quelli del 2019) penso siano almeno awg 18 sbaglio?


Inviato dal mio iPhone utilizzando Tapatalk

awg18. spero davvero di non doverlo cambiare in ogni caso resto su seasonic. mai un problema

fraussantin
04-03-2022, 07:18
Ma te le immagini con 4 connettori da 8pin . Che poi anche a livello visivo si percepirebbe quanto sia energivora , invece con quel connettorino sembrerà più parca :fagiano:


Inviato dal mio iPhone X utilizzando TapatalkBeh bisogna sapersela vendere ...

Immaginala con 4 cavi sleeve RGB che mandano il flusso energetico aumentando di intensità in base alla potenza ...


"UNA PUTENNZA MAI VISTA"

Marketing del futuro.

PS con le bollette che arriveranno mi sa dovranno darsi una regolata con i consumi.

scorpion73
04-03-2022, 08:14
PS con le bollette che arriveranno mi sa dovranno darsi una regolata con i consumi.

Temo che a loro delle nostre bollette freghi poco se non nulla...

29Leonardo
04-03-2022, 09:10
Ragazzi è impensabile che sua necessario per forza cambiare la psu vuol dire che nvidia al day one vende 3 schede, non sono scemi. Al 100 % ci saranno alternative, adattatore o schede con attacchi classici.

Wut? Stanno vendendo schede a 2000€, figurati se chi gliele compra a sti prezzi si fa il problema di cambiare psu :asd:

Beh bisogna sapersela vendere ...

Immaginala con 4 cavi sleeve RGB che mandano il flusso energetico aumentando di intensità in base alla potenza ...


"UNA PUTENNZA MAI VISTA"

Marketing del futuro.

PS con le bollette che arriveranno mi sa dovranno darsi una regolata con i consumi.


Una roba tipo il flusso catalizzatore :asd:

leone93
04-03-2022, 21:11
Primo drop nvidia lcdc( spagna e francia ) che ignoro, sfinito dai troppi fallimenti. Ora mi ricarico per i drop delle 4000

Alfhw
04-03-2022, 22:02
Primo drop nvidia lcdc( spagna e francia ) che ignoro, sfinito dai troppi fallimenti. Ora mi ricarico per i drop delle 4000

Quale drop? C'è stato un drop oggi? :confused:

McRooster23
04-03-2022, 22:11
Quale drop? C'è stato un drop oggi? :confused:

Si ma solo "estero", quindi non c'era modo per noi di parteciparvi.
Diciamo che quella di non provarci non è stata proprio una "scelta" :asd:

scorpion73
05-03-2022, 20:53
https://br.atsit.in/it/?p=137191

"GIGABYTE ha condiviso il comunicato stampa ufficiale del suo primo alimentatore PCIe 5.0, l’UD1000GM PG5 e include alcune nuove informazioni sui modi in cui le schede grafiche di nuova generazione possono essere collegate agli alimentatori. Una parte del comunicato stampa sembra confermare che saranno ampiamente disponibili 3 adattatori da 8 pin a 16 pin, un’alternativa al nuovo cavo a 16 pin che può fornire fino a 600 watt tramite un singolo cavo. L’alimentatore UD1000GM di GIGABYTE dispone anche di quattro connettori PCIe a 8 pin oltre al connettore 12VHPWR a 16 pin, secondo il foglio delle specifiche."

Ergo i nuovi PSU non saranno necessari per alimentare le nuove RTX.

Mi aspetto quindi un cavo da tre connettori e termina col singolo 16 pin, in totale analogia a quanto visto con il connettore delle FE ampere.

mikael84
06-03-2022, 16:03
Pare che la 3090ti debutti il 29 marzo, e che i problemi fossero (chi l'avrebbe detto:doh: ) delle memorie.
Micron che in questa GPU, doveva lanciare la doppia densità ed i 21 gb/s.

Considerando che Micron è la principale partner di nvidia, fa bene nvidia a utilizzare grossissime porzioni di cache per Lovelace.

Entrando un pò sul tecnico, nvidia ha latenze di ben oltre 200ns sulla BW e circa 140ns sulla l2 (ora che verrà aumentata probabilmente di più, a aumenterà anche la banda).
Per un confronto, la L3 di AMD sta poco sopra la l2, e la sua l2 ha accesso dimezzato rispetto la l2 di nvidia, questo ovviamente spiega anche il vantaggio alle basse res.

Sicuramente nvidia avrà bisogno di risolvere il problema del warp stall. e il lavoro mi pare intelligente.

bonzoxxx
10-03-2022, 07:27
A proprosito di memoria, ieri con Wolfenstein 2: the new colossus mi è apparso il messaggio di errore che la memoria video era finita :eek: :eek:

Vabbè che gioco a cannone a 3440x1440 però cribbio...

Le nuove oltre alla mega cache si setteranno sui 16GB di vram?

mikael84
10-03-2022, 11:57
A proprosito di memoria, ieri con Wolfenstein 2: the new colossus mi è apparso il messaggio di errore che la memoria video era finita :eek: :eek:

Vabbè che gioco a cannone a 3440x1440 però cribbio...

Le nuove oltre alla mega cache si setteranno sui 16GB di vram?

Hai messo il paging?

Cmq le soluzioni saranno 5, rispettivamente 20-24 per il chippone, 16gb per il chip AD103 e 12 per il chip AD104 (questa avrà perf. da 3080/ti). Gli altri 2 avranno 8GB, ma fasce inferiori alla tua.:)

Intanto, prima GPU 3090ti con connettore 16pin.
https://videocardz.com/newz/galax-geforce-rtx-3090-ti-boomstar-pictured-with-pcie-gen5-power-connector

bonzoxxx
10-03-2022, 12:04
Hai messo il paging?

Cmq le soluzioni saranno 5, rispettivamente 20-24 per il chippone, 16gb per il chip AD103 e 12 per il chip AD104 (questa avrà perf. da 3080/ti). Gli altri 2 avranno 8GB, ma fasce inferiori alla tua.:)

Intanto, prima GPU 3090ti con connettore 16pin.
https://videocardz.com/newz/galax-geforce-rtx-3090-ti-boomstar-pictured-with-pcie-gen5-power-connector

No, ho 128GB di ram non mi serve il paging :D :D :D

Cmq sia oggi controllo, credo di averlo attivato ma a dimensione fissa

McRooster23
10-03-2022, 12:05
Hai messo il paging?

Cmq le soluzioni saranno 5, rispettivamente 20-24 per il chippone, 16gb per il chip AD103 e 12 per il chip AD104 (questa avrà perf. da 3080/ti). Gli altri 2 avranno 8GB, ma fasce inferiori alla tua.:)

Intanto, prima GPU 3090ti con connettore 16pin.
https://videocardz.com/newz/galax-geforce-rtx-3090-ti-boomstar-pictured-with-pcie-gen5-power-connector

Continua a sembrarmi la scheda più inutile di sempre.
La si troverà se va bene a 3000€ ad Aprile... E qualche mese dopo usciranno le nuove che costeranno meno e andranno di più :confused:

mikael84
10-03-2022, 12:18
No, ho 128GB di ram non mi serve il paging :D :D :D

Cmq sia oggi controllo, credo di averlo attivato ma a dimensione fissa

128gb? :p Ma lo usi per altro spero.:asd:


Continua a sembrarmi la scheda più inutile di sempre.
La si troverà se va bene a 3000€ ad Aprile... E qualche mese dopo usciranno le nuove che costeranno meno e andranno di più :confused:

Marketing. Anche per fare da apripista al connettore che adotteranno le nuove GPU.
Un pò come AMD che revisiona le sue, mettendo ram più veloci.
Questa gen. ormai è bella che andata.

bonzoxxx
10-03-2022, 12:41
128gb? :p Ma lo usi per altro spero.:asd:
yep, virtualizzazione, ramdisk, ecc.

LkMsWb
10-03-2022, 14:34
No, ho 128GB di ram non mi serve il paging :D :D :D

Cmq sia oggi controllo, credo di averlo attivato ma a dimensione fissa

Se non l'hai attivato potrebbe essere quella la causa, anche con 2TB di ram un minimo di paging certi software lo richiedono :(

bonzoxxx
10-03-2022, 15:12
Se non l'hai attivato potrebbe essere quella la causa, anche con 2TB di ram un minimo di paging certi software lo richiedono :(

Ho appena controllato, 38GB di file di swap gestiti automaticamente dal sistema.

Beh c'è da dire che WII:NC è bello pesantino e a 3440x1440 nel livello di new york si vede che sono arrivato a tappo.

Cmq ben vengano 16GB di ram video, credo che per il 4K siano necessari

Telstar
11-03-2022, 11:15
eh si, di certo la prossima scheda che prendo dovrà avere almeno 16gb

ChioSa
11-03-2022, 11:26
eh si, di certo la prossima scheda che prendo dovrà avere almeno 16gbSe minatori e scalper te lo consentiranno :asd:

Inviato dal mio MI 9 utilizzando Tapatalk

mikael84
11-03-2022, 14:56
Ho appena controllato, 38GB di file di swap gestiti automaticamente dal sistema.

Beh c'è da dire che WII:NC è bello pesantino e a 3440x1440 nel livello di new york si vede che sono arrivato a tappo.

Cmq ben vengano 16GB di ram video, credo che per il 4K siano necessari

eh si, di certo la prossima scheda che prendo dovrà avere almeno 16gb

16gb li avrà il secondo chip (probabile 4070ti), il chippone 20-24gb
https://i.postimg.cc/0jZXL7C8/ad100.png

Interessante anche il terzo chip, praticamente GA102 con 12gb.
Gli altri sono da da 8gb, rispettivamente 4° chip, like GA104, 5° like GA106 o poco più.

Cmq facendo qualche proporzione, il chippone dovrebbe essere
144 SM -576 warp (12 primitive/24cull)- 192 rop's -384bit - 96mb l2 e 192mb l3.
https://i.postimg.cc/3d2cfVSq/sm-love.png (https://postimg.cc/3d2cfVSq)

Ale55andr0
11-03-2022, 15:36
gli 8gb andrebbero vietati per legge, e puniti con l'ergastolo

Maury
11-03-2022, 15:47
Che possibilità ci sono che la 4070 venga fatta con AD104 ? (spero di no)

mikael84
11-03-2022, 16:23
gli 8gb andrebbero vietati per legge, e puniti con l'ergastolo

Vista la complessità dei controller e la densità in netta crescita rispetto a l'efficienza, si punta alle cache, di conseguenza per bypassare i bus, ci vorrebbe la quadrupla densità o il clamshell (ma è troppo gravoso su chip di fascia bassa).
Cmq, in questo caso, parliamo di chip di fascia bassa/medio-bassa.

Un'altra soluzione, è rappresentato dal MCM con 2 stack da 256 bit.

Che possibilità ci sono che la 4070 venga fatta con AD104 ? (spero di no)

Sinceramente mi pare troppo scarsa per essere una 4070.
Se prendiamo il chip full, e le confrontiamo a livello di boost base (1710 vs 2200 circa), le perf in virgola mobile, sarebbero identiche alla 3080 12gb, ma con un bus nettamente più piccolo e con poca cache.
Probabile una situazione simile:
https://i.postimg.cc/JzpFFvLH/ad104.png

https://i.postimg.cc/Y9T0zd9J/prezzi.png

davide155
11-03-2022, 19:33
Qui tra carburanti alle stelle, shortage di chip, guerra sull'orlo della crisi mondiale, gas rari come kripton e xenon usati per la litografia che venivano fatti per il 50% in ucraina..... La vedo buia parecchio per queste rtx 4000.
Più passa il tempo e più credo arriveranno come delle bastonate nelle gengive queste schede. Con la speranza ovviamente che la prima a scomparire sia proprio la guerra, ma non lo vedo bene per niente questo lancio.

Maury
12-03-2022, 07:37
Vista la complessità dei controller e la densità in netta crescita rispetto a l'efficienza, si punta alle cache, di conseguenza per bypassare i bus, ci vorrebbe la quadrupla densità o il clamshell (ma è troppo gravoso su chip di fascia bassa).
Cmq, in questo caso, parliamo di chip di fascia bassa/medio-bassa.

Un'altra soluzione, è rappresentato dal MCM con 2 stack da 256 bit.



Sinceramente mi pare troppo scarsa per essere una 4070.
Se prendiamo il chip full, e le confrontiamo a livello di boost base (1710 vs 2200 circa), le perf in virgola mobile, sarebbero identiche alla 3080 12gb, ma con un bus nettamente più piccolo e con poca cache.
Probabile una situazione simile:
https://i.postimg.cc/JzpFFvLH/ad104.png

https://i.postimg.cc/Y9T0zd9J/prezzi.png

Più che altro se la 4070 si basa su AD103 non rimane poco margine per inserire i modelli superiori? Penso a 4070 TI, 4080, 4080TI, 4090 e 4090TI.

Quello scenario è spettacolare ma temo un pelino ottimistico, una 4060 pari ad una 3090 TI in RT ? Dove firmo ? :D

ste-87
12-03-2022, 11:38
Quello scenario è spettacolare ma temo un pelino ottimistico, una 4060 pari ad una 3090 TI in RT ? Dove firmo ? :D

se segue l'andamento dei prezzi di questa gen sarà comunque una scheda da 650-750€ street price, non è che ci sia così tanto da esserne entusiasti considerando che il chip xx60 solitamente è considerata la entry level della fascia media :(

mikael84
12-03-2022, 12:08
Più che altro se la 4070 si basa su AD103 non rimane poco margine per inserire i modelli superiori? Penso a 4070 TI, 4080, 4080TI, 4090 e 4090TI.

Quello scenario è spettacolare ma temo un pelino ottimistico, una 4060 pari ad una 3090 TI in RT ? Dove firmo ? :D

I nomi son supposti, bisogna vedere alla fine, se saranno TI o lisci.
Per come sono tagliati, è impensabile vederli per fasce superiori.
Sugli RT core non abbiamo ancora dati, per poter fare qualche stima, anche il chip HPC non li avrà.
Sappiamo che sono affamatissimi di cache, per questo potrebbero aver stimato questi dati.


Facendo finta che siano uguali a livello di ratio, potrebbe esserci una situazione simile:
Raster
3080ti: 10240 (x bbase) 34TF
4060: 7680 (2,2 circa) 33,7TF

RT
RTX 3080: 68 RT core (1710) /58TF
3080TI: 80 RT core((1665mhz)/ 66TF (di picco)
4060: 60 RT core (2,2ghz) 66TF
3090TI: 84RT core (1860) 78TF

Se ipotizziamo un 2,2 di boost base, quel chip avrebbe la potenza di una 3080ti mediamente, ma un bus misero e livelli di cache miseri, questo soprattutto alle alte res, potrebbe essere un problema.

nessuno29
12-03-2022, 13:01
Più che altro se la 4070 si basa su AD103 non rimane poco margine per inserire i modelli superiori? Penso a 4070 TI, 4080, 4080TI, 4090 e 4090TI.

Quello scenario è spettacolare ma temo un pelino ottimistico, una 4060 pari ad una 3090 TI in RT ? Dove firmo ? :D

Prima di firmare aspetterei i prezzi ahah

DarkNiko
12-03-2022, 13:20
Con il caro bolletta elettrica, per non parlare dei prezzi non ancora noti delle VGA, ma comunque non inferiori alla generazione precedente, ci si rivede (se siamo ancora vivi :fuck:) tra qualche anno.

Ubro92
12-03-2022, 13:31
Con il caro bolletta elettrica, per non parlare dei prezzi non ancora noti delle VGA, ma comunque non inferiori alla generazione precedente, ci si rivede (se siamo ancora vivi :fuck:) tra qualche anno.

Vabbè... a pari performance con le 4000 c'è un netto calo di consumi quasi un dimezzamento grazie ai 5nm.

Ovvio che sui chipponi, con tutta quella densità si sale di consumi ma c'è praticamente un 2x dalla precedente gen...

Maury
12-03-2022, 13:45
se segue l'andamento dei prezzi di questa gen sarà comunque una scheda da 650-750€ street price, non è che ci sia così tanto da esserne entusiasti considerando che il chip xx60 solitamente è considerata la entry level della fascia media :(

Non mi aspetto prezzi bassi sicuramente, il consiglio di aspettare a firmare è sacrosanto :muro: Certo, fosse 650 o 700 € , sullo scaffale, facciamo bingo. ...

I nomi son supposti, bisogna vedere alla fine, se saranno TI o lisci.
Per come sono tagliati, è impensabile vederli per fasce superiori.
Sugli RT core non abbiamo ancora dati, per poter fare qualche stima, anche il chip HPC non li avrà.
Sappiamo che sono affamatissimi di cache, per questo potrebbero aver stimato questi dati.


Facendo finta che siano uguali a livello di ratio, potrebbe esserci una situazione simile:
Raster
3080ti: 10240 (x bbase) 34TF
4060: 7680 (2,2 circa) 33,7TF

RT
RTX 3080: 68 RT core (1710) /58TF
3080TI: 80 RT core((1665mhz)/ 66TF (di picco)
4060: 60 RT core (2,2ghz) 66TF
3090TI: 84RT core (1860) 78TF

Se ipotizziamo un 2,2 di boost base, quel chip avrebbe la potenza di una 3080ti mediamente, ma un bus misero e livelli di cache miseri, questo soprattutto alle alte res, potrebbe essere un problema.

3080ti: 10240 (x bbase) 34TF *
4060: 7680 (2,2 circa) 33,7TF

Questi numeri fanno spavento, in ogni caso il cambio tra le due gen è netto. :)

La possibile 4060 ha solo un limite, la ram da 12 gb, altrimenti era perfetta.

Al di la del numero di cuda e del clock, a tuo avviso, l'IPC cambia in qualcosa o rimane simile tra le tue gpu ?

* Il dato in TF della 3080Ti non è un pò basso ? di boost non arrivano stabilmente almeno ai 2 ghz ?

Ale55andr0
12-03-2022, 13:56
12gb van benone, è il bus a 192 che è anacronistico nel 2022 (si si, lo so cache maggiorata e ram cloccate più in alto ma non si può vedere uguale quel numeretto :rolleyes: ..). Avevamo il 256 bit anche 20 anni fa :asd:

DarkNiko
12-03-2022, 14:20
Vabbè... a pari performance con le 4000 c'è un netto calo di consumi quasi un dimezzamento grazie ai 5nm.

Ovvio che sui chipponi, con tutta quella densità si sale di consumi ma c'è praticamente un 2x dalla precedente gen...

Francamente valuto altro ma giustamente ognuno ha le sue necessità o sfizi. :)

Maury
12-03-2022, 14:38
12gb van benone, è il bus a 192 che è anacronistico nel 2022 (si si, lo so cache maggiorata e ram cloccate più in alto ma non si può vedere uguale quel numeretto :rolleyes: ..). Avevamo il 256 bit anche 20 anni fa :asd:

Si non sono male 12 certo, ma io ne voglio 16 al prossimo giro, maggior tutela per le uber texture... :D

Ubro92
12-03-2022, 15:16
Si non sono male 12 certo, ma io ne voglio 16 al prossimo giro, maggior tutela per le uber texture... :DSi ma parliamo di una x60...
In questo target vanno piu che bene... Esattamente come gli 8gb per le x50.

Vedremo cosa farà AMD considerando che navi 33 ha un bus a 128bit, e forse andranno di configurazione a conchiglia, altrimenti é come avere una 6900xt con 8gb 🤣


Inviato dal mio M2012K11AG utilizzando Tapatalk

mikael84
12-03-2022, 15:39
Non mi aspetto prezzi bassi sicuramente, il consiglio di aspettare a firmare è sacrosanto :muro: Certo, fosse 650 o 700 € , sullo scaffale, facciamo bingo. ...



3080ti: 10240 (x bbase) 34TF *
4060: 7680 (2,2 circa) 33,7TF

Questi numeri fanno spavento, in ogni caso il cambio tra le due gen è netto. :) * Il dato in TF della 3080Ti non è un pò basso ? di boost non arrivano stabilmente almeno ai 2 ghz ?

Gli ho calcolati tramite il boost base che sulla 3080ti è basso.
Considera che da review, la 3080ti sta sui 1700/1750, ma in base al modello può lavorare a clock più elevati ovviamente, ma questo vale anche per le Lovelace, dove potrebbero operare a 2,4-2,5.
Certo la 3080ti rimane più muscle in base al clock.



La possibile 4060 ha solo un limite, la ram da 12 gb, altrimenti era perfetta.

La ram per tale scheda è buona. Considerando che neppure la 3080 li ha...:)



Al di la del numero di cuda e del clock, a tuo avviso, l'IPC cambia in qualcosa o rimane simile tra le tue gpu ?



A parità di calcolo si, perchè si va ad affrontare un discorso un pò complesso, come il warp stall, ovvero quei thread liberi che aspettano di elaborare dalla ram e quelli in coda.
Avere registri più ampi, L1 più ampie, l2 ed l3, evitano il cache miss, e consentono di lavorare con tempi di attesa decisamente inferiori.
Un pò come ha fatto Maxwell con Kepler.
Per dire una l2, ha accesso a circa 140ns, una ddr ben oltre i 200. Se non bastasse la l2, c'è la l3, che dovrebbe essere 2x la l2.

Di contro però, hai un bus più piccolo.
Una 4060 con un bus da 192bit e ipotetiche g6 a 18 gb/s avrebbe solo 432 gb/s contro il quasi tb/s di una 3080ti.

12gb van benone, è il bus a 192 che è anacronistico nel 2022 (si si, lo so cache maggiorata e ram cloccate più in alto ma non si può vedere uguale quel numeretto :rolleyes: ..). Avevamo il 256 bit anche 20 anni fa :asd:

Se metti il 256 bit, crei molta più complessità, oltre ad adattare le cache. Devi anche rientrare in die, consumi e costi.:)

Ale55andr0
12-03-2022, 21:21
Se metti il 256 bit, crei molta più complessità, oltre ad adattare le cache. Devi anche rientrare in die, consumi e costi.:)

e chi ha detto 256? con 12gb 384, è ovvio :O

tanto so 5nani e le fanno costare un rene uguale

"Una 4060 con un bus da 192bit e ipotetiche g6 a 18 gb/s avrebbe solo 432 gb/s contro il quasi tb/s di una 3080ti."

appunto. 192bit sono ridicoli

Telstar
13-03-2022, 00:06
Le xx60 sono sempre state castrate da qualche parte :)

mikael84
13-03-2022, 00:35
e chi ha detto 256? con 12gb 384, è ovvio :O

tanto so 5nani e le fanno costare un rene uguale

"Una 4060 con un bus da 192bit e ipotetiche g6 a 18 gb/s avrebbe solo 432 gb/s contro il quasi tb/s di una 3080ti."

appunto. 192bit sono ridicoli

Non devi guardare la pura BW, ma l'impatto delle cache.

Siamo abituati a catalogare i chip per la potenza di calcola teorica e BW massima, ma non è tutto, se si entra nel profondo.
Se prendiamo una 3090 con 328 warp (questo alla fine è essenziale, l'SM è il raggruppamento), durante il calcolo, succede che 1/2- 1/3 dei warp può rimanere in idle, in attesa dei dati dalla cache o dalla memoria.
Più il tempo di attesa è lungo, più i thread del warp rimangono inattivi.
Avere delle cache intermedie, fa si che i warp vengano utilizzati al meglio e più velocemente, migliorando le fasi di stallo ed in coda.

Chiaro, che da una x60 non ci si può aspettare un 1/1 con una scheda di fascia enthusiast. Non è l'obbiettivo della scheda.

La 6900xt (salvo rt) non mi pare così scarsa rispetto alle nvidia. Pensa che RDNA3 avrà il 256bit solo sulle top e 192 sulla semitop..:)

Thunder-74
13-03-2022, 08:30
Non devi guardare la pura BW, ma l'impatto delle cache.

Siamo abituati a catalogare i chip per la potenza di calcola teorica e BW massima, ma non è tutto, se si entra nel profondo.
Se prendiamo una 3090 con 328 warp (questo alla fine è essenziale, l'SM è il raggruppamento), durante il calcolo, succede che 1/2- 1/3 dei warp può rimanere in idle, in attesa dei dati dalla cache o dalla memoria.
Più il tempo di attesa è lungo, più i thread del warp rimangono inattivi.
Avere delle cache intermedie, fa si che i warp vengano utilizzati al meglio e più velocemente, migliorando le fasi di stallo ed in coda.

Chiaro, che da una x60 non ci si può aspettare un 1/1 con una scheda di fascia enthusiast. Non è l'obbiettivo della scheda.

La 6900xt (salvo rt) non mi pare così scarsa rispetto alle nvidia. Pensa che RDNA3 avrà il 256bit solo sulle top e 192 sulla semitop..:)


Sicuramente nVidia con la cache che implementerà su Lovelace, recupererà il gap che aveva con AMD sulle res più basse , proprio per il discorso che facevi. Comunque sulla carta tanta roba . Ora trapelano voci di possibili 800w sull ipotetica 4090ti. Follia per un pc consumer anche se enthusiast.


Inviato dal mio iPhone X utilizzando Tapatalk

caccapupu91
13-03-2022, 10:14
Quindi una 4060 potrebbe essere un degno erede spirituale della 970 :oink:


al suo msrp :asd:

albero77
13-03-2022, 10:38
Con il caro bolletta elettrica, per non parlare dei prezzi non ancora noti delle VGA, ma comunque non inferiori alla generazione precedente, ci si rivede (se siamo ancora vivi :fuck:) tra qualche anno.

Si certo spendiamo 2k per una scheda video e poi il problema sarebbe la bolletta dell'elettricità. Un pò come chi compra la Ferrari e non i soldi per il carburante:asd: :asd: :asd:

nessuno29
13-03-2022, 10:45
Si certo spendiamo 2k per una scheda video e poi il problema sarebbe la bolletta dell'elettricità. Un pò come chi compra la Ferrari e non i soldi per il carburante:asd: :asd: :asd:

Una cosa sono 2k per una vga altri sono 300k per una ferrari, è più probabile che l'appassionato di videogiochi stia comunque attento ai consumi rispetto ad uno che può permettersi auto di lusso. Il paragone non regge, specialmente se consideri che in estate questi 800watt dopo una partitella serale di 3 4 ore ti ha portato la stanza a 35 gradi a meno che non usi un condizionatore che aumenta i consumi a 2500watt ahah

albero77
13-03-2022, 11:04
Una cosa sono 2k per una vga altri sono 300k per una ferrari, è più probabile che l'appassionato di videogiochi stia comunque attento ai consumi rispetto ad uno che può permettersi auto di lusso. Il paragone non regge, specialmente se consideri che in estate questi 800watt dopo una partitella serale di 3 4 ore ti ha portato la stanza a 35 gradi a meno che non usi un condizionatore che aumenta i consumi a 2500watt ahahCi vediamo d1, vi aspetto con le vostre bestemmie varie in quanto non sarete riusciti ad accaparrarvi la scheda...Storia già vista e rivista ahahaha

Inviato dal mio RMX2202 utilizzando Tapatalk

DarkNiko
13-03-2022, 11:26
Si certo spendiamo 2k per una scheda video e poi il problema sarebbe la bolletta dell'elettricità. Un pò come chi compra la Ferrari e non i soldi per il carburante:asd: :asd: :asd:

Quanta superficialità nel tuo commento, come se tu conoscessi le mie abitudini arrogandoti un diritto (che non hai e non avrai mai) di giudicare i comportamenti altrui.

Premesso che non devo dare conto a te del mio operato, ho avuto una Titan X serie Maxwell acquistata nel 2015 e sostituita dalla 3090 a Novembre 2020, dopo 5 anni e mezzo di onorato servizio.
Ho speso 2000 € dopo 5 anni, non ho cambiato di certo VGA ogni volta che ne usciva una superiore e altrettanto farò con la serie 4xxx che salterò alla grande.

Ho fatto sacrifici (forse questa parola a te è sconosciuta), non cago soldi la mattina e per tua informazione non posso permettermi la Ferrari e trovo il tuo paragone assolutamente fuori luogo.

Non sta scritto da nessuna parte che se uno spende 2000 euro per una scheda video allora può permettersi di spendere e spandere a proprio piacimento, non è assolutamente scontato.

Sinceramente tra la bolletta del gas che mi è raddoppiata, quella della luce quasi triplicata e una VGA che già di suo sta di picco sui 450W, tale è il consumo massimo della 3090 in firma, una futura VGA con picchi di consumo sui 600W, quali che siano le prestazioni, per me sta bene dove sta.

Il mio intervento precedente non era e non è per scoraggiarne l'acquisto, visto che ognuno col proprio denaro fa quello che vuole. Ho solamente sottolineato un aspetto non così secondario che andrebbe preso seriamente in considerazione, tutto qui. Se poi vuoi far finta di niente, che i rincari su tutto non esistano e che è giusto pagare il doppio di prima, è un tuo libero pensiero che rispetto ma non condivido assolutamente.

Saluti. :)

fraussantin
13-03-2022, 11:26
Si certo spendiamo 2k per una scheda video e poi il problema sarebbe la bolletta dell'elettricità. Un pò come chi compra la Ferrari e non i soldi per il carburante:asd: :asd: :asd:Come se non ci fossero quelli che si comprano le auto sportive ( non la Ferrari ovviamente che è un paragone nosense) e poi hanno problemi con i consumi.

mikael84
13-03-2022, 12:34
Sicuramente nVidia con la cache che implementerà su Lovelace, recupererà il gap che aveva con AMD sulle res più basse , proprio per il discorso che facevi.

Questo in parte aiuta, ma il vero collo di bottiglia è soprattutto lo sheduler software di nvidia e non hardware come AMD:)


Comunque sulla carta tanta roba . Ora trapelano voci di possibili 800w sull ipotetica 4090ti. Follia per un pc consumer anche se enthusiast.


Inviato dal mio iPhone X utilizzando Tapatalk

Si però si parla di 450w sulla 4080, 600 sulla 4090 e 800 sulla 4090ti. Beh il chip è lo stesso.:)
E' come dire 3080 a 320watt e 3090ti a 720watt.

Per 800watt dovrebbero fare un chip apposito e 2 connettori da 16pin. Queste cose, al massimo potrebbero riguardare gli azotatori, ed impostare realmente bios così nelle varie Kingpin, HOF.

L'OC sarà uguale, non saranno quei 256cc a consumare 200watt.:p , lo stesso chip della 4090ti verrà messo nelle schede pro, attualmente alimentate da un solo connettore EPS.

Già ora abbiamo bios da 1000watt, quello cambia alla fine.:)

Thunder-74
13-03-2022, 15:23
Questo in parte aiuta, ma il vero collo di bottiglia è soprattutto lo sheduler software di nvidia e non hardware come AMD:)



Si però si parla di 450w sulla 4080, 600 sulla 4090 e 800 sulla 4090ti. Beh il chip è lo stesso.:)
E' come dire 3080 a 320watt e 3090ti a 720watt.

Per 800watt dovrebbero fare un chip apposito e 2 connettori da 16pin. Queste cose, al massimo potrebbero riguardare gli azotatori, ed impostare realmente bios così nelle varie Kingpin, HOF.

L'OC sarà uguale, non saranno quei 256cc a consumare 200watt.:p , lo stesso chip della 4090ti verrà messo nelle schede pro, attualmente alimentate da un solo connettore EPS.

Già ora abbiamo bios da 1000watt, quello cambia alla fine.:)


Difatti stona il consumo se paragonato a quello della 4080.


Inviato dal mio iPhone X utilizzando Tapatalk

mikael84
13-03-2022, 16:12
Difatti stona il consumo se paragonato a quello della 4080.


Inviato dal mio iPhone X utilizzando Tapatalk

infatti pare un numero messo così tanto per.

https://videocardz.com/newz/nvidia-geforce-rtx-4090-class-gpu-with-600w-tgp-has-reportedly-been-confirmed
"Previous reports indicated that NVIDIA “Ada” GA102 GPU is targeting a TGP of 450W, 650W and even 850W. The last number specifically might be overestimated or simply refers to some type of special edition graphics card that we know nothing about yet."

Le schede saranno da 450+PL probabilmente, magari potranno esserci GPU con bios supersparato quello si.

Anche 600watt a connettore singolo è un bel problema, ad igor sopra i 700 non gli ha retto per il calore.
Questo significa che se tu gli dai 600watt di TDP, ti ritroverai micropicchi ben più alti da gestire.

Vorrei anche vedere un PCB reference a fasi r22/r15 gestire un simile carico.

Thunder-74
14-03-2022, 07:31
infatti pare un numero messo così tanto per.

https://videocardz.com/newz/nvidia-geforce-rtx-4090-class-gpu-with-600w-tgp-has-reportedly-been-confirmed
"Previous reports indicated that NVIDIA “Ada” GA102 GPU is targeting a TGP of 450W, 650W and even 850W. The last number specifically might be overestimated or simply refers to some type of special edition graphics card that we know nothing about yet."

Le schede saranno da 450+PL probabilmente, magari potranno esserci GPU con bios supersparato quello si.

Anche 600watt a connettore singolo è un bel problema, ad igor sopra i 700 non gli ha retto per il calore.
Questo significa che se tu gli dai 600watt di TDP, ti ritroverai micropicchi ben più alti da gestire.

Vorrei anche vedere un PCB reference a fasi r22/r15 gestire un simile carico.

Da quello che emerge, tra watt impegnati e sezioni di alimentazione che devono gestire il tutto, sembra sempre più assottigliarsi la differenza di schede reference/FE e custom.

Maury
14-03-2022, 10:59
Gli ho calcolati tramite il boost base che sulla 3080ti è basso.
Considera che da review, la 3080ti sta sui 1700/1750, ma in base al modello può lavorare a clock più elevati ovviamente, ma questo vale anche per le Lovelace, dove potrebbero operare a 2,4-2,5.
Certo la 3080ti rimane più muscle in base al clock.


La ram per tale scheda è buona. Considerando che neppure la 3080 li ha...:)

A parità di calcolo si, perchè si va ad affrontare un discorso un pò complesso, come il warp stall, ovvero quei thread liberi che aspettano di elaborare dalla ram e quelli in coda.
Avere registri più ampi, L1 più ampie, l2 ed l3, evitano il cache miss, e consentono di lavorare con tempi di attesa decisamente inferiori.
Un pò come ha fatto Maxwell con Kepler.
Per dire una l2, ha accesso a circa 140ns, una ddr ben oltre i 200. Se non bastasse la l2, c'è la l3, che dovrebbe essere 2x la l2.

Di contro però, hai un bus più piccolo.
Una 4060 con un bus da 192bit e ipotetiche g6 a 18 gb/s avrebbe solo 432 gb/s contro il quasi tb/s di una 3080ti.




Lovelace alla fine migliora Ampere andando a lavorare su più parti, data la base, ottima a mio avviso, non è male per nulla :)

I 12 GB di 4060 sono in assoluto ottimi, la presenza dei 16 GB la rendeva perfetta, riferito alla mia esigenza, li avesse avuti era la mia prossima VGA, mi toccherà puntare alla 4070, di cui però temo il costo...

Discorso BUS, AMD 192 bit li userà per la fascia medio alta, consederando che nVidia ha una migliore compressione, perchè dvrebbe essere così penalizzante ?
Ricordo che mi dicesti che la banda serve fino ad un certo punto, e che aumentarne i clock spesso aiuta ma grazie alle lantenza che si abbassano.

Di mio posso dire che overcloccando di oltre 1000 mhz la ram della 3070 non ho preso praticamente 1 fps :eek:

mikael84
14-03-2022, 12:17
Da quello che emerge, tra watt impegnati e sezioni di alimentazione che devono gestire il tutto, sembra sempre più assottigliarsi la differenza di schede reference/FE e custom.

Si ormai le FE sono tra le migliori, tanto da far impallidire sul piano elettrico diverse custom serie, vedi ripartizione, qualità dei materiali-vrm.
Le custom serie però offrono dissipazione migliore e bios migliori.



Lovelace alla fine migliora Ampere andando a lavorare su più parti, data la base, ottima a mio avviso, non è male per nulla :)

I 12 GB di 4060 sono in assoluto ottimi, la presenza dei 16 GB la rendeva perfetta, riferito alla mia esigenza, li avesse avuti era la mia prossima VGA, mi toccherà puntare alla 4070, di cui però temo il costo...

Beh si torna sempre li alla fine, però il cut di AD103, potrebbe essere davvero interessante. Cuda da 3080 ma ben più clockata e con 16gb.


Discorso BUS, AMD 192 bit li userà per la fascia medio alta, consederando che nVidia ha una migliore compressione, perchè dvrebbe essere così penalizzante ?


E' proprio questo che sto dicendo, ormai vista la densità enorme a scapito dell'efficienza, ai produttori conviene più puntare sulle cache che sui bus. Quindi tramite le loro prove, avranno appurato di non avere grossi colli di bottiglia.
Il problema dei bus piccoli è uno attualmente, ovvero ti impone certi tagli di ram, fin quando non implementeranno la quadrupla densità, ovvero 16gb anche su bus da 128bit senza clamshell.


Ricordo che mi dicesti che la banda serve fino ad un certo punto, e che aumentarne i clock spesso aiuta ma grazie alle lantenza che si abbassano.

Di mio posso dire che overcloccando di oltre 1000 mhz la ram della 3070 non ho preso praticamente 1 fps :eek:

Se il chip non soffre di colli di bottiglia lato BW, i guadagni saranno miseri, lo dimostra appunto la 3070ti.
Nel tuo caso sei passato da 0,28ns a 0,25ns e probabilmente guadagnato uno sputo sui tempi di accesso. Malgrado le vram abbiano latenze spaventose, i tempi di accesso nella gpu sono bibblici, ben oltre i 200ns.

Per monitorare la porzione di bus, lancia un gioco, tramite GPU-Z, controlla in AVG il memory controller load, ed osserva la gestione di banda, spesso si sta sul 30-50%.
Tieni presente che per nvidia o un qualsiasi produttore, per cercare di sfruttare decentemente il chip, servirebbe almeno un utilizzo costanze di oltre il 60% di banda.

Se prendi una 3080ti con 912 gb/s (teorici, non sono effettivi ricordiamolo, la banda vera è diversa) al 60%, servirebbe almeno un teorico di 550 gb/s circa. Lavorando di meno, la scheda rimane per più tempo sottoutilizzata.

Quindi possiamo concludere con, la BW non è mai un serio problema per chip, anzi.
Overclockare, migliora le latenze e fa in modo che i warp liberi anzichè attendere 300 cicli ne attendano 290.:p

Qua entrano in ballo le cache di lovelace.:)

bonzoxxx
14-03-2022, 12:48
Mi hai fatto venire una voglia matta di vendere la 3080 e aspettare la 4070, una scimmia pazzesca mi hai fatto venire... ti odio mikael, con affetto però :D :D

scorpion73
14-03-2022, 13:48
Mi hai fatto venire una voglia matta di vendere la 3080 e aspettare la 4070, una scimmia pazzesca mi hai fatto venire... ti odio mikael, con affetto però :D :D

Goditi quello che hai, dammi retta.... che non è poco...

Dono89
14-03-2022, 14:00
Mi hai fatto venire una voglia matta di vendere la 3080 e aspettare la 4070, una scimmia pazzesca mi hai fatto venire... ti odio mikael, con affetto però :D :D


Credo che chiunque ne capisce un minimo, dopo aver letto il suo ultimo post, non può non essere con la scimmia in spalla in attesa di settembre 😂

MarkkJ
14-03-2022, 14:47
mi accontento anche di una 4060 o 4060 Ti

Ubro92
14-03-2022, 15:16
mi accontento anche di una 4060 o 4060 TiCome gran parte dell'utenza, in realtà neanche la 4050 mi farebbe schifo 🤣

Inviato dal mio M2012K11AG utilizzando Tapatalk

Maury
14-03-2022, 15:22
Beh si torna sempre li alla fine, però il cut di AD103, potrebbe essere davvero interessante. Cuda da 3080 ma ben più clockata e con 16gb.

E' proprio questo che sto dicendo, ormai vista la densità enorme a scapito dell'efficienza, ai produttori conviene più puntare sulle cache che sui bus. Quindi tramite le loro prove, avranno appurato di non avere grossi colli di bottiglia.
Il problema dei bus piccoli è uno attualmente, ovvero ti impone certi tagli di ram, fin quando non implementeranno la quadrupla densità, ovvero 16gb anche su bus da 128bit senza clamshell.

Se il chip non soffre di colli di bottiglia lato BW, i guadagni saranno miseri, lo dimostra appunto la 3070ti.
Nel tuo caso sei passato da 0,28ns a 0,25ns e probabilmente guadagnato uno sputo sui tempi di accesso. Malgrado le vram abbiano latenze spaventose, i tempi di accesso nella gpu sono bibblici, ben oltre i 200ns.

Per monitorare la porzione di bus, lancia un gioco, tramite GPU-Z, controlla in AVG il memory controller load, ed osserva la gestione di banda, spesso si sta sul 30-50%.
Tieni presente che per nvidia o un qualsiasi produttore, per cercare di sfruttare decentemente il chip, servirebbe almeno un utilizzo costanze di oltre il 60% di banda.

Se prendi una 3080ti con 912 gb/s (teorici, non sono effettivi ricordiamolo, la banda vera è diversa) al 60%, servirebbe almeno un teorico di 550 gb/s circa. Lavorando di meno, la scheda rimane per più tempo sottoutilizzata.

Quindi possiamo concludere con, la BW non è mai un serio problema per chip, anzi.
Overclockare, migliora le latenze e fa in modo che i warp liberi anzichè attendere 300 cicli ne attendano 290.:p

Qua entrano in ballo le cache di lovelace.:)

Grazie :)

Proverò a fare la prova che consigli sulle memorie!

mikael84
14-03-2022, 15:30
Mi hai fatto venire una voglia matta di vendere la 3080 e aspettare la 4070, una scimmia pazzesca mi hai fatto venire... ti odio mikael, con affetto però :D :D

:D


Come gran parte dell'utenza, in realtà neanche la 4050 mi farebbe schifo 🤣

Inviato dal mio M2012K11AG utilizzando Tapatalk

Per chi è rimasto su gen vecchie, è tutto buono:D , anche per chi come me è rimasto su chip di fascia medio-alta turing.:)

Per dire, ipotizzando un BBase a 2,2ghz AD106 con il 4° chip, avrebbe la stessa potenza di calcolo della 3070 liscia (almeno nel full).
Il 5° la stessa della 3060 liscia, e già per te sarebbe un salto decente.
Unico difetto gli 8gb.
AD104 sarebbe ottimo anche per me, ma sinceramente preferirei fare il salto diretto ad AD103, magari il cut.:)

Ubro92
14-03-2022, 15:44
Dipende tutto dai prezzi, personalmente preferirei volare "basso" verso AD104 però se i prezzi saranno fattibili, ovviamente, si alza l'asticella :sofico:

mikael84
14-03-2022, 16:25
Grazie :)

Proverò a fare la prova che consigli sulle memorie!

;)

Dipende tutto dai prezzi, personalmente preferirei volare "basso" verso AD104 però se i prezzi saranno fattibili, ovviamente, si alza l'asticella :sofico:

Si, chip e memoria è molto equilibrato, ed anzi, ci starebbe benissimo anche un cut a 5GPC, con gli stessi cuda della 3070 (con il clock maggiorato però).

Telstar
14-03-2022, 16:32
mi accontento anche di una 4060 o 4060 Ti

Io no, mai preso una scheda della serie 60.

McRooster23
14-03-2022, 16:52
Non se se avete letto, ma il parlamento europeo ha da pochi minuti bocciato la proposta di bannare il mining PoW (Proof of Work) in Europa.

A questo punto si spera che Ethereum completi la migrazione in PoS (Proof of Stake) prima dell'uscita della serie 4000.
(Cosa che non eliminerebbe di certo il mining, ma che sicuramente ridurrebbe il fenomeno.)

Ubro92
14-03-2022, 19:15
Io no, mai preso una scheda della serie 60.Bah, onestamente non trovo molto senso parlare di x60 o x70 o x80, personalmente guardo solo i bench se le prestazioni soddisfano ben venga la 4060.

Una 4060 like 3080, é un ottimo upgrade per tantissimi, rispetto la tua 2070 é quasi un 2x 🤣

Inviato dal mio M2012K11AG utilizzando Tapatalk

nessuno29
14-03-2022, 19:20
Non se se avete letto, ma il parlamento europeo ha da pochi minuti bocciato la proposta di bannare il mining PoW (Proof of Work) in Europa.

A questo punto si spera che Ethereum completi la migrazione in PoS (Proof of Stake) prima dell'uscita della serie 4000.
(Cosa che non eliminerebbe di certo il mining, ma che sicuramente ridurrebbe il fenomeno.)

Finché non si trova quella nuova su cui speculare.

Telstar
14-03-2022, 21:47
Bah, onestamente non trovo molto senso parlare di x60 o x70 o x80, personalmente guardo solo i bench se le prestazioni soddisfano ben venga la 4060.

Una 4060 like 3080, é un ottimo upgrade per tantissimi, rispetto la tua 2070 é quasi un 2x ��


Si, anche io.
E un 2x di upgrade su una scheda video per me è pochino. A questa gen avrei dovuto prendere una 3080ti, ma ho lasciato perdere per ovvie ragioni.

Poi, probabilmente la 4060ti non uscirà insieme alle altre, ma qualche mese dopo con le altre Ti e non ho nessuna intenzione di aspettare oltre al day1 :)
Edit: devo anche risolvere il discorso monitor e se sceglierò il 38" serve guardare i bench in 4k e credo che la 4070 sia proprio il minimo sindacale.

Bloodline Limit
15-03-2022, 08:22
un povero cristo con un case itx dovrà farsi il segno della croce per far stare quei fornetti ad una temperatura decente :help:

Spider-Mans
15-03-2022, 14:38
Qui tra carburanti alle stelle, shortage di chip, guerra sull'orlo della crisi mondiale, gas rari come kripton e xenon usati per la litografia che venivano fatti per il 50% in ucraina..... La vedo buia parecchio per queste rtx 4000.
Più passa il tempo e più credo arriveranno come delle bastonate nelle gengive queste schede. Con la speranza ovviamente che la prima a scomparire sia proprio la guerra, ma non lo vedo bene per niente questo lancio.

aggiungi la nuova esplosione covid in asia ..con cina e sud corea che registrano boom di contagi..chiusura in cina di fabbriche tra cui foxcon

razor820
15-03-2022, 14:53
aggiungi la nuova esplosione covid in asia ..con cina e sud corea che registrano boom di contagi..chiusura in cina di fabbriche tra cui foxcon


Certo che le notizie che girano in rete sono alquanto comiche.. Boom di casi in Cina 5.000 casi di mal di gola su una popolazione di 1 miliardo circa e chiudono tutto?
Quando in Italia ne abbiamo 40.000 su 55 milioni??

Sono due anni che in Italia ci rifilano la solita minestra. Ancora ci danno peso i notiziari?

Il problema resta la mancanza di risorse..
Che poi sinceramente in questi ultime settimane non ho mai visto così tante schede video in circolazione. Caseking è letteralmente inondato. 3080ti tu fa 1600 euro

FrancoBit
15-03-2022, 15:02
Certo che le notizie che girano in rete sono alquanto comiche.. Boom di casi in Cina 5.000 casi di mal di gola su una popolazione di 1 miliardo circa e chiudono tutto?
Quando in Italia ne abbiamo 40.000 su 55 milioni??

Sono due anni che in Italia ci rifilano la solita minestra. Ancora ci danno peso i notiziari?

Il problema resta la mancanza di risorse..
Che poi sinceramente in questi ultime settimane non ho mai visto così tante schede video in circolazione. Caseking è letteralmente inondato. 3080ti tu fa 1600 euro

Si vero sono ci sono più schede e io prezzi sono decisamente in calo. Su Casek ho visto anche 3070ti custom sui 900-950. Ho visto anche una tuf 3080 intorno ai 1100

Thunder-74
15-03-2022, 15:14
Ragazzi, se volte prendere una scheda video fatelo ora perché con il lockdown di Shenzhen , le fabbriche sono ferme così come i porti per le spedizioni. Per ora prevista una settimana, ma è altamente probabile che estenderanno il blocco. Sono sicuro che le scorte accumulate finiranno e i prezzi torneranno a salire .
Fate voi


Inviato dal mio iPhone X utilizzando Tapatalk

scorpion73
15-03-2022, 17:01
Ragazzi, se volte prendere una scheda video fatelo ora perché con il lockdown di Shenzhen , le fabbriche sono ferme così come i porti per le spedizioni. Per ora prevista una settimana, ma è altamente probabile che estenderanno il blocco. Sono sicuro che le scorte accumulate finiranno e i prezzi torneranno a salire .
Fate voi


Inviato dal mio iPhone X utilizzando Tapatalk

Come se adesso fossero bassi...:asd: :asd:

In ogni caso, non conviene prendere una scheda video ampere adesso a sei mesi da Lovelace... se qualcuno proprio vuole spendere da 1 a 2 carte è meglio secondo me che aspetta settembre a questo punto, no?

Anche perché chi doveva prendere una scheda di fascia alta l'ha già presa, e passare adesso da 3070/3080 a 3080ti, a mio avviso, non ha senso...

Poi ovviamente sono opinioni...

davide155
15-03-2022, 17:08
Come se adesso fossero bassi...:asd: :asd:



In ogni caso, non conviene prendere una scheda video ampere adesso a sei mesi da Lovelace... se qualcuno proprio vuole spendere da 1 a 2 carte è meglio secondo me che aspetta settembre a questo punto, no?



Anche perché chi doveva prendere una scheda di fascia alta l'ha già presa, e passare adesso da 3070/3080 a 3080ti, a mio avviso, non ha senso...



Poi ovviamente sono opinioni...Quelli che adesso vorrebbero prendere una ampere sono quelli che fin'ora non sono riusciti a prenderla a causa di mille motivi che ormai tutti sappiamo.
Credi che con Lovelace ce la facciano a prenderla a settembre, soprattutto a prezzi umani?
La pandemia non è scomparsa, ed in più nel mezzo c'è una maledetta guerra.
Credi davvero che coloro che non sono riusciti fin'ora a prendere una gpu ci riusciranno a settembre? :asd:

Thunder-74
15-03-2022, 17:17
Come se adesso fossero bassi...:asd: :asd:

In ogni caso, non conviene prendere una scheda video ampere adesso a sei mesi da Lovelace... se qualcuno proprio vuole spendere da 1 a 2 carte è meglio secondo me che aspetta settembre a questo punto, no?

Anche perché chi doveva prendere una scheda di fascia alta l'ha già presa, e passare adesso da 3070/3080 a 3080ti, a mio avviso, non ha senso...

Poi ovviamente sono opinioni...

Quelli che adesso vorrebbero prendere una ampere sono quelli che fin'ora non sono riusciti a prenderla a causa di mille motivi che ormai tutti sappiamo.
Credi che con Lovelace ce la facciano a prenderla a settembre, soprattutto a prezzi umani?
La pandemia non è scomparsa, ed in più nel mezzo c'è una maledetta guerra.
Credi davvero che coloro che non sono riusciti fin'ora a prendere una gpu ci riusciranno a settembre? :asd:

Esatto, il mio consiglio era per le persone che sono rimaste ferme in attesa di vedere i prezzi di ampere scendere visto il trend, non certo per chi ha nel case una VGA "attuale".

scorpion73
15-03-2022, 17:19
Quelli che adesso vorrebbero prendere una ampere sono quelli che fin'ora non sono riusciti a prenderla a causa di mille motivi che ormai tutti sappiamo.
Credi che con Lovelace ce la facciano a prenderla a settembre, soprattutto a prezzi umani?
La pandemia non è scomparsa, ed in più nel mezzo c'è una maledetta guerra.
Credi davvero che coloro che non sono riusciti fin'ora a prendere una gpu ci riusciranno a settembre? :asd:

Non lo so se ce la faranno o meno, probabilmente no.
Ma investire un bel po di soldi adesso su una tecnologia che verrà sostituita fra sei mesi non mi pare la mossa migliore. Almeno secondo me, visto che i prezzi di adesso tutto sono meno che umani per le ampere (costassero 800€ non ti direi la stessa cosa).
Anche a costo di aspettare di più a mio avviso è meglio, sennò fra sei mesi quelle due carte te ne valgono la metà.
Poi ognuno fa quel che vuole coi suoi soldi...

Thunder-74
15-03-2022, 17:25
Non lo so se ce la faranno o meno, probabilmente no.
Ma investire un bel po di soldi adesso su una tecnologia che verrà sostituita fra sei mesi non mi pare la mossa migliore. Almeno secondo me, visto che i prezzi di adesso tutto sono meno che umani per le ampere (costassero 800€ non ti direi la stessa cosa).
Anche a costo di aspettare di più a mio avviso è meglio, sennò fra sei mesi quelle due carte te ne valgono la metà.
Poi ognuno fa quel che vuole coi suoi soldi...

la vedo come te, ma molti magari sono fermi con serie 1000 e magari voglio prendere ampere aspettando che magari possa scendere di un altro po'. con Lovelance non sappiamo cosa aspettarci, sia a rese che prezzi.
Adesso sembra un "buon" momento per prendere una serie 3000

mikael84
15-03-2022, 17:37
la vedo come te, ma molti magari sono fermi con serie 1000 e magari voglio prendere ampere aspettando che magari possa scendere di un altro po'. con Lovelance non sappiamo cosa aspettarci, sia a rese che prezzi.
Adesso sembra un "buon" momento per prendere una serie 3000

Ora qualcosa si può reperire, soprattutto in fascia mid, compreso AMD, chi ha proprio necessità, almeno non è costretto a prendere una 1650 a 450 euro (situazione di qualche mese fa).
Se si è in una posizione da poter aspettare, meglio lasciare stare, soprattutto considerando che il pre-lovelace sarà l'estate, dove si giocherà meno per molti fattori.
Mi son fatto un giro su trovaprezzi, ed anche li sorge un problema, tutti shop dubbi (salvo il solo bpm per conoscenza) con le peggio schede, dalle manli, alla inno 3d, a qualche palit, amazon pur avendo qualcosa spara ancora il millino per delle 3070.

Quelli che adesso vorrebbero prendere una ampere sono quelli che fin'ora non sono riusciti a prenderla a causa di mille motivi che ormai tutti sappiamo.
Credi che con Lovelace ce la facciano a prenderla a settembre, soprattutto a prezzi umani?
La pandemia non è scomparsa, ed in più nel mezzo c'è una maledetta guerra.
Credi davvero che coloro che non sono riusciti fin'ora a prendere una gpu ci riusciranno a settembre? :asd:

Dipende, se la situazione sarà quella di qualche mese fa, bel problema, se sarà più verso quella attuale, ben diverso.
Non ne farei un dramma a spendere 800 euro per una 4070.:)

davide155
15-03-2022, 17:41
Non lo so se ce la faranno o meno, probabilmente no.

Ma investire un bel po di soldi adesso su una tecnologia che verrà sostituita fra sei mesi non mi pare la mossa migliore. Almeno secondo me, visto che i prezzi di adesso tutto sono meno che umani per le ampere (costassero 800€ non ti direi la stessa cosa).

Anche a costo di aspettare di più a mio avviso è meglio, sennò fra sei mesi quelle due carte te ne valgono la metà.

Poi ognuno fa quel che vuole coi suoi soldi...Guarda, se avevi detto, aspettate settembre e vi prendete una ampere alla metà del prezzo, nuova o usata, ti avrei detto, cazzo si!
Ma aspettare lovelace per poi rischiare di rimanere per l'ennesima volta a bocca asciutta o peggio, dover pagare 3mila euro una gpu, anche no. Ed il rischio che accada è altissimo viste le densità dei chip e la scarsità delle materie prime che impervia da 2 anni. Aggiungiamoci una pandemia ancora viva più che mai, ed una guerra ed il cocktail è servito.
Poi stiamo parlando di ampere, non di kepler. Sono schede con le contropalle. Una 3080 ti fa giocare alla maggior parte dei giochi ad altissimo livello per i prossimi 3 anni almeno. I 4k ce li hanno in tre gatti, il resto è ancora in 1080 e 2k ad esagerare.
Adesso se si ha fortuna si riescono a beccare delle lhr a 1000euro usate o giù di li. Che per me sono un bestbuy. Poi nexths aveva fino a settimana scorsa le 3080 gigabyte a 1190€ nuove, rimaste li per svariati giorni.
3080ti e 3090 rimangono troppo overpriced per la pochissima differenza che restituiscono. E lo dico da ex possessore di 3080 e nuovo possessore di 3090.

razor820
15-03-2022, 17:48
Aspettare lovelace con la
Sicurezza di prenderla al day one a prezzo migliori di questi equivale a buttarsi dal 4 piano e sperare di uscirne con una slogatura..

Chi non ha una scheda video questo è il miglior momento di un periodo brutto. Si trova qualcosa ma non a prezzi assurdi..

Io ho preso una 3080ti dopo quasi un anno dall uscita delle serie 3xxx
Ancora ci sono un sacco di persone che sono senza scheda o che non hanno potuto upgradare.

Se fossi in loro, comprerei ora è non aspetterei altri 6 mesi giocando in fullhd o meno per poi vedere le 40xx solamente su subito al triplo del prezzo normale...

davide155
15-03-2022, 17:50
Ora qualcosa si può reperire, soprattutto in fascia mid, compreso AMD, chi ha proprio necessità, almeno non è costretto a prendere una 1650 a 450 euro (situazione di qualche mese fa).

Se si è in una posizione da poter aspettare, meglio lasciare stare, soprattutto considerando che il pre-lovelace sarà l'estate, dove si giocherà meno per molti fattori.

Mi son fatto un giro su trovaprezzi, ed anche li sorge un problema, tutti shop dubbi (salvo il solo bpm per conoscenza) con le peggio schede, dalle manli, alla inno 3d, a qualche palit, amazon pur avendo qualcosa spara ancora il millino per delle 3070.







Dipende, se la situazione sarà quella di qualche mese fa, bel problema, se sarà più verso quella attuale, ben diverso.

Non ne farei un dramma a spendere 800 euro per una 4070.:)Mike l'hai detto tu stesso che dopo 1 anno e 6 mesi abbiamo ancora le 3070 a mille euro e credi che venderanno le 4070 a 800 euro? :D
Lo sai come si dice a firenze vero? Chi visse sperando morì...... :sofico:

mikael84
15-03-2022, 18:07
Mike l'hai detto tu stesso che dopo 1 anno e 6 mesi abbiamo ancora le 3070 a mille euro e credi che venderanno le 4070 a 800 euro? :D
Lo sai come si dice a firenze vero? Chi visse sperando morì...... :sofico:

Ti fixo:p
Beh, se guardiamo il solo amazon, la situazione non è che sia cambiata molto, ma se si vuol rischiare, ora come ora, ho visto una x70 su bpm a 750.
Con Lovelace, difficile fare previsioni, tre 6 mesi tutto può essere.
Per chi è senza scheda, e non vuole completare il tuo detto:sofico: , ha la possibilità di comprare qualcosa di decente.
Per ora si sta passando dal 2x al 1,5 x MSRP.

Certo che i tempi cambiano, 6 mesi prima del lancio delle nuove, la gente vendeva subito tutto per evitare le svalutazioni, ora ci si compra la gen vecchia a 1,5/2 il prezzo.:p

devAngnew
15-03-2022, 18:18
A proposito ci sono novità circa la gestione o meno in hardware del BHV nella next gen ? :D
Ultimamente non seguo molto.
thanks

davide155
15-03-2022, 18:37
Ti fixo:p

Beh, se guardiamo il solo amazon, la situazione non è che sia cambiata molto, ma se si vuol rischiare, ora come ora, ho visto una x70 su bpm a 750.

Con Lovelace, difficile fare previsioni, tre 6 mesi tutto può essere.

Per chi è senza scheda, e non vuole completare il tuo detto:sofico: , ha la possibilità di comprare qualcosa di decente.

Per ora si sta passando dal 2x al 1,5 x MSRP.



Certo che i tempi cambiano, 6 mesi prima del lancio delle nuove, la gente vendeva subito tutto per evitare le svalutazioni, ora ci si compra la gen vecchia a 1,5/2 il prezzo.:pÈ passato talmente tanto tempo che mi sembrava già due anni :D

Bloodline Limit
15-03-2022, 19:09
ragazzi sono davvero incerto sulla strada da percorrere... sto per fare una nuova build con il fractal torrent nano

sto seriamente pensando se potrei avere problemi di temperature considerati gli ipotetici TDP...

WarSide
15-03-2022, 19:14
ragazzi sono davvero incerto sulla strada da percorrere... sto per fare una nuova build con il fractal torrent nano

sto seriamente pensando se potrei avere problemi di temperature considerati gli ipotetici TDP...

Io sinceramente comprerei prima la scheda video e poi tutto il resto. :stordita:

Telstar
15-03-2022, 19:46
Credi che con Lovelace ce la facciano a prenderla a settembre, soprattutto a prezzi umani?

Sì, una founders, dal sito nvidia USA.
Non ci ho neppure provato a prendere una Ampere, non solo per i prezzi ma per i consumi e ovviamente non punto alla 4080. Forse ci sarei riuscito, ma non mi andava di fare lo scalper o di vendere la mia 2070 a più di quanto l'avevo pagata.

mikael84
15-03-2022, 20:12
A proposito ci sono novità circa la gestione o meno in hardware del BHV nella next gen ? :D
Ultimamente non seguo molto.
thanks

Devi chiedere nel thread AMD:p , nvidia è da turing che lo integra negli RT core.;)

È passato talmente tanto tempo che mi sembrava già due anni :D

Vero, sarà la situazione, tra chi attende e chi per miracolo l'ha presa. Ampere resterà nella storia (anche nella mia, visto che probabilmente sarà il primo chip mai provato).:asd:

scorpion73
15-03-2022, 21:08
Guarda, se avevi detto, aspettate settembre e vi prendete una ampere alla metà del prezzo, nuova o usata, ti avrei detto, cazzo si!
Ma aspettare lovelace per poi rischiare di rimanere per l'ennesima volta a bocca asciutta o peggio, dover pagare 3mila euro una gpu, anche no. Ed il rischio che accada è altissimo viste le densità dei chip e la scarsità delle materie prime che impervia da 2 anni. Aggiungiamoci una pandemia ancora viva più che mai, ed una guerra ed il cocktail è servito.
Poi stiamo parlando di ampere, non di kepler. Sono schede con le contropalle. Una 3080 ti fa giocare alla maggior parte dei giochi ad altissimo livello per i prossimi 3 anni almeno. I 4k ce li hanno in tre gatti, il resto è ancora in 1080 e 2k ad esagerare.
Adesso se si ha fortuna si riescono a beccare delle lhr a 1000euro usate o giù di li. Che per me sono un bestbuy. Poi nexths aveva fino a settimana scorsa le 3080 gigabyte a 1190€ nuove, rimaste li per svariati giorni.
3080ti e 3090 rimangono troppo overpriced per la pochissima differenza che restituiscono. E lo dico da ex possessore di 3080 e nuovo possessore di 3090.


Ma aspettare sei mesi significa anche questo: prendere le ampere usate sul mercatino a prezzi che potrebbero essere più ragionevoli.
Vuol dire non buttare ora 2000€; sul nuovo per poi trovarsi fra sei mesi con la scheda che vale meno della metà, quando la stessa scheda fra sei mesi la trovi poco usata a meno di 1000€.
Con Lovelace sempre sullo sfondo per valutare le effettive disponibilità.
Boh con tutto il rispetto ma dire che è il momento giusto per prendere una scheda a 1,5x il prezzo, quindi tremendamente overpriced di suo (non è 2x ma da 2x a 1,5x io tutta sta convienienza francamente non ce la vedo) quando fra sei mesi la prendi a meno e potrai comunque se ti dice culo valutare, sempre con 2k al massimo , anche la 4080 che andrà il doppio, boh continuo a pensare che non mi pare proprio per niente una gran mossa..


Inviato dal mio iPhone utilizzando Tapatalk

devAngnew
16-03-2022, 11:22
A proposito ci sono novità circa la gestione o meno in hardware del BHV nella next gen ? :D
Ultimamente non seguo molto.
thanks

Devi chiedere nel thread AMD:p , nvidia è da turing che lo integra negli RT core.;)


cut

Io non parlavo dell'attraversamento del BHV che funziona tramite rt core (come giustamente dici) ma della costruzione e del bilanciamento del BHV fatto dal driver. ( pag 30 turing white paper). :p

Wolf91
20-03-2022, 11:07
Intanto sul sito di EVGA.COM stanno uscendo a raffica RTX 3000 di tutti i tipi a mrsp,e il sito EU out of stock di tutto come sempre

Besk
20-03-2022, 21:41
Io sono in coda da più di un anno per una 3080 e una 3080ti

mikael84
22-03-2022, 14:53
JHH oggi svelerà Hopper, inizia il GTC.

https://www.youtube.com/watch?v=39ubNuxnrK8&ab_channel=NVIDIA


A quanto pare usa addirittura il 4nm (n5 migliorato in tutto)

https://i.postimg.cc/zX5SqWSY/density.png

FP64 1:1 praticamente.

https://i.postimg.cc/nrVzPH7g/fp64.png

nico88desmo
22-03-2022, 15:59
JHH oggi svelerà Hopper, inizia il GTC.

https://www.youtube.com/watch?v=39ubNuxnrK8&ab_channel=NVIDIA


A quanto pare usa addirittura il 4nm (n5 migliorato in tutto)

https://i.postimg.cc/zX5SqWSY/density.png

FP64 1:1 praticamente.

https://i.postimg.cc/nrVzPH7g/fp64.png

Sembrava strano mantenessero ancora il rapporto 1:2 ;)

Comunque con la presentazione di oggi, impressionante vedere come nVidia stia creando il suo sistemata GPU + CPU + NIC; e oltre all'HW, tutto il SW che ci sta dietro

mikael84
22-03-2022, 17:16
Sembrava strano mantenessero ancora il rapporto 1:2 ;)

Comunque con la presentazione di oggi, impressionante vedere come nVidia stia creando il suo sistemata GPU + CPU + NIC; e oltre all'HW, tutto il SW che ci sta dietro

Sinceramente la trovavo una strana trovata un 1:1
Infatti secondo anandtech, sarà sempre 2:1, solo via tensor si potrà avere un 1:1;)

https://www.anandtech.com/show/17327/nvidia-hopper-gpu-architecture-and-h100-accelerator-announced

Se confermate, le rese non saranno ottime, parliamo di 16896cc su 18400cc.


Notavo però, come i tensor siano 2x più grandi e dal doppio ratio.
Grazie a clock ben più elevati, si arriva a ben 1024 fp16, contro i 300 di Ampere.
Di conseguenza, paradossalmente, le Lovelace, dividendo il tensor, si ritroveranno i valori di Ampere HPC.

per il resto concordo appieno.:)

Spero che vengano pubblicati i dev, per vedere la struttura interna degli SM.

Impressionante anche nvlink 900 gb/s.
https://i.postimg.cc/hjxcGtQz/dev.png

nico88desmo
22-03-2022, 17:38
Sinceramente la trovavo una strana trovata un 1:1
Infatti secondo anandtech, sarà sempre 2:1, solo via tensor si potrà avere un 1:1;)

https://www.anandtech.com/show/17327/nvidia-hopper-gpu-architecture-and-h100-accelerator-announced

Se confermate, le rese non saranno ottime, parliamo di 16896cc su 18400cc.


Notavo però, come i tensor siano 2x più grandi e dal doppio ratio.
Grazie a clock ben più elevati, si arriva a ben 1024 fp16, contro i 300 di Ampere.
Di conseguenza, paradossalmente, le Lovelace, dividendo il tensor, si ritroveranno i valori di Ampere HPC.

per il resto concordo appieno.:)

Spero che vengano pubblicati i dev, per vedere la struttura interna degli SM.
Impressionante anche nvlink 900 gb/s.




Hai ragione ;) per come l'aveva presentata sembrava avere un rapporto 1:1.

Comunque ecco il link...
https://developer.nvidia.com/blog/nvidia-hopper-architecture-in-depth/

Buona lettura ;)

mikael84
22-03-2022, 17:44
Hai ragione ;) per come l'aveva presentata sembrava avere un rapporto 1:1.

Comunque ecco il link...
https://developer.nvidia.com/blog/nvidia-hopper-architecture-in-depth/

Buona lettura ;)

Ottimo, ora mi faccio 2 orette di palestra, poi lo leggo con calma. :)
Cmq, ho dato uno sguardo veloce al SM, ed alla fine, poche variazione, se non nella struttura a 32fp, 256kb (su 192kb, ma a metà fp) di cache e la tensor cache, che vedrò bene sta sera.

Densità cmq, non elevatissima, 98mt x mm2.

scorpion73
24-03-2022, 17:14
https://videocardz.com/newz/geforce-rtx-3090-ti-graphics-cards-are-bundled-with-3x8-pin-to-pcie-gen5-16-pin-power-adapters

Questo pone fine a qualsiasi dubbio sulla necessità del cambio alimentatore, a meno che uno non voglia suicidarsi e comprarsi una 4090, che è altra roba..
Ma per la 4080, che si vocifera possa avere un TDP di 450W come la 3090ti, può bastare anche questo.

bonzoxxx
24-03-2022, 17:16
https://videocardz.com/newz/geforce-rtx-3090-ti-graphics-cards-are-bundled-with-3x8-pin-to-pcie-gen5-16-pin-power-adapters

Questo pone fine a qualsiasi dubbio sulla necessità del cambio alimentatore, a meno che uno non voglia suicidarsi e comprarsi una 4090, che è altra roba..
Ma per la 4080, che si vocifera possa avere un TDP di 450W come la 3090ti, può bastare anche questo.

Come dissi tempo fa, un connettore da triplo 8 a 12+4, meglio cosi va tanto lo SLI è roba passata a meno di non prendere 2 4090..

Bene, non c'è necessità impellente di cambiare alimentatore anche se dopo 9 anni forse è il caso di mandare in pensione il mio :D

scorpion73
24-03-2022, 17:19
Altre news:

https://global.techradar.com/it-it/news/nvidia-rtx-4080-e-altre-gpu-lovelace-potrebbero-arrivare-prima-del-previsto

Mi sa che a sto giro con AMD sarà una bella battaglia.

scorpion73
24-03-2022, 17:21
anche se dopo 9 anni forse è il caso di mandare in pensione il mio :D

Forse il tuo è ora di pensionarlo indipendentemente dalla serie 4000... :D :D

bonzoxxx
24-03-2022, 17:41
Forse il tuo è ora di pensionarlo indipendentemente dalla serie 4000... :D :D

Eh si ci stavo pensando, è un thortech thunderbolt 800W con display per il consumo in tempo reale, una cosa da nerd che non ti dico :D :D :D

nessuno29
24-03-2022, 17:56
Eh si ci stavo pensando, è un thortech thunderbolt 800W con display per il consumo in tempo reale, una cosa da nerd che non ti dico :D :D :D

Se funziona bene... Era costoso o sbaglio?

bonzoxxx
24-03-2022, 18:06
Se funziona bene... Era costoso o sbaglio?

Parecchio. E' 80 plus gold, ha retto tutti i sistemi che ho avuto, dai 920 a 4.6ghz, poi 2600K a 5 e passa ghz, 3770K, 8350, 3950K a 5Ghz con la 480 sotto custom, 960T sbloccato a 6 core, 4770K, 4790, 3600 e ora 5900X... madò quanto tempo speso appresso..

https://hwbot.org/submission/2247994_bonzoxxx_cpu_frequency_core_i7_2600k_5346.35_mhz/

Telstar
24-03-2022, 19:12
Forse il tuo è ora di pensionarlo indipendentemente dalla serie 4000... :D :D

Il mio HXi850 funziona da 10 anni. Ma non è stato acceso ogni giorno.

scorpion73
24-03-2022, 19:17
Il mio HXi850 funziona da 10 anni. Ma non è stato acceso ogni giorno.


Si ma dopo un po’ di tempo le psu perdono e non riescono a fornire la stessa tensione stabile di prima causa usura.
Dopo un certo numero di ore che il pc è stato acceso è meglio cambiare per evitare possibili problemi di tensione e stabilità.
E noi che giochiamo comunque non lo teniamo acceso poco..


Inviato dal mio iPhone utilizzando Tapatalk

mikael84
24-03-2022, 19:39
https://videocardz.com/newz/geforce-rtx-3090-ti-graphics-cards-are-bundled-with-3x8-pin-to-pcie-gen5-16-pin-power-adapters

Questo pone fine a qualsiasi dubbio sulla necessità del cambio alimentatore, a meno che uno non voglia suicidarsi e comprarsi una 4090, che è altra roba..
Ma per la 4080, che si vocifera possa avere un TDP di 450W come la 3090ti, può bastare anche questo.

Ma era naturale:)
La 4080 non è neppure detto che abbia un TDP di 450.


Il mio HXi850 funziona da 10 anni. Ma non è stato acceso ogni giorno.

Si ma dopo un po’ di tempo le psu perdono e non riescono a fornire la stessa tensione stabile di prima causa usura.
Dopo un certo numero di ore che il pc è stato acceso è meglio cambiare per evitare possibili problemi di tensione e stabilità.
E noi che giochiamo comunque non lo teniamo acceso poco..


Inviato dal mio iPhone utilizzando Tapatalk

Si, come per i consumi delle GPU, noi tramite software non possiamo vedere i picchi più piccoli e brevi, come quelli sotto i 100ms.
Quando si comincia a superare il 70% del carico, sono più frequenti delle cadute sotto la soglia di 11,4v, toccando addirittura 11,1 (tu nel software vedi sempre 12.1 o 11,9). Questo causa delle problematiche ai condensatori secondari con le loro tensioni fluttuanti. E se questi hanno perso efficienza, come gli ali molto vecchi, gettano la spugna.

Gli ALI con il connettore nativo, potrebbero essere un buon upgrade, soprattutto per chi ha ALI di 10 anni.

Ubro92
24-03-2022, 19:57
Il mio ha 10 anni di garanzia, e ne rimangono 2 :sofico:
Appena saranno disponibili inizio a valutare i vari PSU con i nuovi connettori per GPU e mobo nativi XD

bonzoxxx
24-03-2022, 20:21
Per questo tendo a prendere ali sovradimenzionati, cosi lavorano sempre al 50-60%

FrancoBit
25-03-2022, 08:20
https://www.igorslab.de/en/new-details-about-nvidia-geforce-rtx-4090-to-24-gb-gddr6x-and-a-clever-voltage-converter-orgy/

Qualche altra news interessante. PS liberate spazio nei case che pare saranno dei bei mattoni :sofico:

mikael84
25-03-2022, 11:54
https://www.igorslab.de/en/new-details-about-nvidia-geforce-rtx-4090-to-24-gb-gddr6x-and-a-clever-voltage-converter-orgy/

Qualche altra news interessante. PS liberate spazio nei case che pare saranno dei bei mattoni :sofico:

Si formalità...:)
Certo da MPS ad Upi non è un grande salto in avanti (sono proprio quelli sostituiti da EVGA inizialmente). Ora cmq, serviranno 4 VRM, 3 per la GPU, uno per la memoria (salvo che uno non si occupi di entrambe 4+4).
La vecchia FE aveva MPS che potevano gestire sino a 10 fasi simultaneamente, più un Upi per la ram.

Anche le g6x saranno la norma, avendo accordi principali con Micron.

Bloodline Limit
25-03-2022, 12:47
sono un po ignorante in materia...
ricapitolando potranno essere piu grandi della norma ed avere tranquillamente un tdp da 450w in su per la fascia medio/alta?

stavo pensando di passare ad un itx, ma se questo è l'andazzo... me la faccio passare la voglia :p

Telstar
25-03-2022, 13:16
Quando si comincia a superare il 70% del carico, sono più frequenti delle cadute sotto la soglia di 11,4v, toccando addirittura 11,1 (tu nel software vedi sempre 12.1 o 11,9). Questo causa delle problematiche ai condensatori secondari con le loro tensioni fluttuanti. E se questi hanno perso efficienza, come gli ali molto vecchi, gettano la spugna.

Gli ALI con il connettore nativo, potrebbero essere un buon upgrade, soprattutto per chi ha ALI di 10 anni.

Come l'altro utente anche io prendo sempre ali sovradimensionato, e salvo rari casi, sta sul 40% di carico, lo so perché la ventola non si accende se non quando gioco.
Un buon ali ha 10 anni di vita reali secondo me e a me mancano ancora 3-4. CMQ il discorso connettore gpu potrebbe in effetti spingermi ad un cambio.

bonzoxxx
25-03-2022, 14:04
Ero io quello dell'ali sovradimensionato:)

Stavo pensando anche io ad un alimentatore semi-fanless, che modello hai? Quale potrebbe essere un buon ali da prendere?

scorpion73
25-03-2022, 14:56
Mi sa la 3080 aorus master ha 3,5 slot ma non sono sicuro.

mikael84
25-03-2022, 15:20
Mi sa la 3080 aorus master ha 3,5 slot ma non sono sicuro.

Si la master e la xtreme.
Cmq si parla anche di 4 slot, come già fatto per la 3070 noctua.

Telstar
25-03-2022, 17:03
Ero io quello dell'ali sovradimensionato:)

Stavo pensando anche io ad un alimentatore semi-fanless, che modello hai? Quale potrebbe essere un buon ali da prendere?

Io ho un Corsair HXi 850, come si legge dalla firma. Non so se lo fanno ancora, ma se dovessi prenderne uno oggi mi orienterei tra 850 e 1000W, titanium e possibilmente semi-fanless.

bonzoxxx
25-03-2022, 17:19
Idem, la cosa più rumorosa del mio pc è proprio l'alimentatore, conto di cambiare la ventola con una noctua da 14 se ci sta.

FreeMan
25-03-2022, 18:35
STOP OT!! su alimentatori e tutto quello che non è una VGA

>bYeZ<

Telstar
25-03-2022, 19:14
Il mod ha ragione. Per tornare IT, voglio aggiungere che la potenza dell'ali va rapportata al PC che si ha, considerando anche le vga attuali e in divenire, che sono sempre più energivore nonostante i PP più raffinati.

Ubro92
25-03-2022, 20:36
Il mod ha ragione. Per tornare IT, voglio aggiungere che la potenza dell'ali va rapportata al PC che si ha, considerando anche le vga attuali e in divenire, che sono sempre più energivore nonostante i PP più raffinati.Insomma alla fine se hai il braccino corto consumi e spendi sempre quelle cifre 🤣

Ad102 é un chip over, per la plebe bastano e avanzano i chip ad104 e ad106 che stanno abbondantemente sotto i 250w...

Oserei dire che persino AD107 farebbe la gioia di molti con performance da 3060.

Forse solo il full chip ad104 potrebbe superare questa soglia soprattutto se bello cloccato.

Lo smanettone di turno alla fine tra sli, Crossfire e dual GPU ha sempre goduto di alti consumi e calore.

Inviato dal mio M2012K11AG utilizzando Tapatalk

mikael84
26-03-2022, 02:00
Il mod ha ragione. Per tornare IT, voglio aggiungere che la potenza dell'ali va rapportata al PC che si ha, considerando anche le vga attuali e in divenire, che sono sempre più energivore nonostante i PP più raffinati.

Con la prossima gen, spero che JHH abbia messo a puntino la microarchitettura interna. Anche avendo accesso ai 20A (2nm Intel), ed MCM, dovrà trovare una soluzione, altrimenti la situazione non potrà che peggiorare.:p



Forse solo il full chip ad104 potrebbe superare questa soglia soprattutto se bello cloccato.


Da notare che, pur essendo chip HPC, hopper boosta a + 26%, rispetto Ampere 7nm (ma usa una densità molto elevata) x 700watt, mentre il modello pci e, viene dato per soli 350w a + 17% ed un GPC e mezzo devastato (stile 3080), segno che si potrà trovare un ottimo compromesso smanettandoci su.
Facendo due calcoli, si dovrebbero raggiungere i 2,5ghz, ma già a 2,2, si potrebbe trovare un buon compromesso. 2ghz magari, li prendi già a 0,8v, con un ottima efficienza.

Legolas84
26-03-2022, 09:36
Ciao Mike, tu che sei sempre ben informato e sul pezzo.... per la prossima gen secondo te, prendendo a riferimento gli stessi consumi della 3080 (che per me sono il massimo accettabile), che incremento di prestazioni ci si può aspettare?

;)

Telstar
26-03-2022, 11:47
Con la prossima gen, spero che JHH abbia messo a puntino la microarchitettura interna. Anche avendo accesso ai 20A (2nm Intel), ed MCM, dovrà trovare una soluzione, altrimenti la situazione non potrà che peggiorare.:p

Peggiorare? E io che speravo la 4070 avesse consumi paragonabili alla 2070...

OrazioOC
26-03-2022, 12:17
Onestamente, AD102 con quel tdp può rimanere dov'è, inutile sventolare un possibile x2.5/3 di performance rispetto ad Ampere per poi avere il doppio dei consumi su un nodo molto più avanzato.
C'è qualcosa di profondamente sbagliato nei valori presenti negli ultimi rumors sulla nextgen.:rolleyes:

WarSide
26-03-2022, 14:48
Onestamente, AD102 con quel tdp può rimanere dov'è, inutile sventolare un possibile x2.5/3 di performance rispetto ad Ampere per poi avere il doppio dei consumi su un nodo molto più avanzato.
C'è qualcosa di profondamente sbagliato nei valori presenti negli ultimi rumors sulla nextgen.:rolleyes:

Però potrebbe esserci un risvolto positivo. Se consumano un botto potrebbero non essere appetibili per chi vuole usarle per minare. :stordita:

scorpion73
26-03-2022, 14:56
Si la master e la xtreme.
Cmq si parla anche di 4 slot, come già fatto per la 3070 noctua.


4 slot resta dove sta. Dai una simile roba non si può vedere dentro a un case.
Temo che Lovelace possa essere un altro Fermi..


Inviato dal mio iPhone utilizzando Tapatalk

mikael84
26-03-2022, 15:56
Ciao Mike, tu che sei sempre ben informato e sul pezzo.... per la prossima gen secondo te, prendendo a riferimento gli stessi consumi della 3080 (che per me sono il massimo accettabile), che incremento di prestazioni ci si può aspettare?

;)

Non ho mezzi per fare stime precise su questo punto.
350watt potrebbe pure essere il TDP della 4080, della quale, non si conoscono neppure i tagli.
potrebbe essere 75/80%, nei casi peggiori 60%.

Peggiorare? E io che speravo la 4070 avesse consumi paragonabili alla 2070...

Parlavo della prossima gen, 2024.:p
La 4070 potrebbe essere un cut di AD103, ma non aspettarti gli stessi consumi. Buona parte dei vantaggi dei 5nm in efficienza, nvidia l'ha utilizzato per clockare.:)


Onestamente, AD102 con quel tdp può rimanere dov'è, inutile sventolare un possibile x2.5/3 di performance rispetto ad Ampere per poi avere il doppio dei consumi su un nodo molto più avanzato.
C'è qualcosa di profondamente sbagliato nei valori presenti negli ultimi rumors sulla nextgen.:rolleyes:

Qua c'è sempre un malinteso dei vari rumors.
Un conto sono le specifiche teoriche, un conto le performance effettive.
Se (dopo aver visto hopper), ipotizziamo un 2,5 (contro i 1900 di ampere su chip full), vengono fuori 2,25 X di TF, che se va bene si traducono in 75/80% sul campo. A questo andrà valutato l'IPC.

E' vero che il salto nodo è importante, ma l'efficienza ormai è sempre peggio, a scapito della densità.

4 slot resta dove sta. Dai una simile roba non si può vedere dentro a un case.
Temo che Lovelace possa essere un altro Fermi..


Inviato dal mio iPhone utilizzando Tapatalk

Ma non sarà la norma, oggi già si sforano i 500watt con alcune 3090, e lecito aspettarsi di sforare i 600 con alcune 4090 custom d'elite.:)

OrazioOC
26-03-2022, 16:34
Qua c'è sempre un malinteso dei vari rumors.
Un conto sono le specifiche teoriche, un conto le performance effettive.
Se (dopo aver visto hopper), ipotizziamo un 2,5 (contro i 1900 di ampere su chip full), vengono fuori 2,25 X di TF, che se va bene si traducono in 75/80% sul campo. A questo andrà valutato l'IPC.

E' vero che il salto nodo è importante, ma l'efficienza ormai è sempre peggio, a scapito della densità.


Ti quoto ma a malincuore, purtroppo c'è un limite a tutto, sicuramente nella
fascia enthusiast l'asticella di questo limite è molto alta, ma già 2 anni fa al lancio di Ampere la gente mugugnava parecchio sui consumi della 3090(e lo fa tutt'ora vedasi la 3090 ti), ma ad oggi è proprio fuori luogo presentarsi con una scheda si enthusiast ma da gaming(quindi ad uso non professionale) che ha consumi da dual gpu di gpu di fascia alta di precedente generazione.

Ma non è un problema solo di fascia alta, l'asticella la possono alzare di riflesso anche in segmenti più bassi, già nvidia in questa gen non ha più schede come la vecchia gtx 1650 con tdp di 75w, rischiamo di ritrovarci una rtx 4050 con tdp vicini ai 200w, roba da vecchia gtx 1080 o rtx 2080.:mbe:

A pensarci, è anche fuori contesto un trend del genere, si punta al risparmio energetico su molti settori mentre sulle gpu e cpu questi se ne sbattono così?:rolleyes:

Ubro92
26-03-2022, 18:03
Ti quoto ma a malincuore, purtroppo c'è un limite a tutto, sicuramente nella

fascia enthusiast l'asticella di questo limite è molto alta, ma già 2 anni fa al lancio di Ampere la gente mugugnava parecchio sui consumi della 3090(e lo fa tutt'ora vedasi la 3090 ti), ma ad oggi è proprio fuori luogo presentarsi con una scheda si enthusiast ma da gaming(quindi ad uso non professionale) che ha consumi da dual gpu di gpu di fascia alta di precedente generazione.



Ma non è un problema solo di fascia alta, l'asticella la possono alzare di riflesso anche in segmenti più bassi, già nvidia in questa gen non ha più schede come la vecchia gtx 1650 con tdp di 75w, rischiamo di ritrovarci una rtx 4050 con tdp vicini ai 200w, roba da vecchia gtx 1080 o rtx 2080.:mbe:



A pensarci, è anche fuori contesto un trend del genere, si punta al risparmio energetico su molti settori mentre sulle gpu e cpu questi se ne sbattono così?:rolleyes:Beh non vorrei dire ma questa gen si é trovata in piena pandemia e con uno shortage di materie prime...

Tutto il settore low end si é concentrato sulle soluzioni mobile, e infatti tutti i chip a basso consumo li trovi lì...

Il settore desktop si é concentrato su GA102 con 10.000 ricicli... E su GA104, addirittura la 3050 desktop é ricavata dagli scarti delle 3060 e non da GA107 come per il mobile 🤣

Nella prossima gen già una banale 4060 potrebbe competere con una 3080 consumando meno della metà e con 12gb, non so cosa ci sia da lamentarsi.

Le dual GPU sono morte e hanno ben pensato di fare un mega chippone per competere con l'mcm di AMD e parliamo di un salto di performance persino più elevato del salto Maxwell-> Pascal...

Inviato dal mio M2012K11AG utilizzando Tapatalk

Telstar
26-03-2022, 18:08
E' vero che il salto nodo è importante, ma l'efficienza ormai è sempre peggio, a scapito della densità.

Ma perchè? Se con Ampere potevamo dare la colpa al PP di Samsung con LL e hopper no...
Fino a Turing nvidia è sempre stata campione di IPC, o PPW se vogliamo.

bonzoxxx
26-03-2022, 18:09
Però potrebbe esserci un risvolto positivo. Se consumano un botto potrebbero non essere appetibili per chi vuole usarle per minare. :stordita:

Dipende, se una ipotetica 4080 fa 200Mh/s sotto eth con 300-350W andrebbe cmq il doppio di una 3080 consumando meno in rapporto.

I miner prendono come metro di paragone l'efficienza, se una GPU consuma 400W ma fa metti 250Mh/s tanto meglio.

OrazioOC
26-03-2022, 18:11
Nella prossima gen già una banale 4060 potrebbe competere con una 3080 consumando meno della metà e con 12gb, non so cosa ci sia da lamentarsi.

Inviato dal mio M2012K11AG utilizzando Tapatalk

O magari consumare come una 3070 per andare poco di più, un po' come successo per la 3060 vs 2070.:rolleyes:

Ubro92
26-03-2022, 18:18
O magari consumare come una 3070 per andare poco di più, un po' come successo per la 3060 vs 2070.:rolleyes:Peccato che la 3060 sia prodotta con gli 8nm di Samsung che sono pessimi e non così distanti dai precedenti 12nm di tsmc.

Se queste ampere fossero state prodotte con i 7nm di tsmc la situazione sarebbe stata ben diversa sia in termni di clock che consumi...

Con la prossima gen già il solo stacco di pp tra ampere e Lovelace é abissale...

Inviato dal mio M2012K11AG utilizzando Tapatalk

OrazioOC
26-03-2022, 18:22
Peccato che la 3060 sia prodotta con gli 8nm di Samsung che sono pessimi e non così distanti dai precedenti 12nm di tsmc.

Se queste ampere fossero state prodotte con i 7nm di tsmc la situazione sarebbe stata ben diversa sia in termni di clock che consumi...

Con la prossima gen già il solo stacco di pp tra ampere e Lovelace é abissale...

Inviato dal mio M2012K11AG utilizzando Tapatalk

Sarà, ma se il buongiorno si vede dal mattino, anche in questa gen punteranno ad alzare il tdp per fascia a discapito dell'efficienza. :rolleyes:

Ubro92
26-03-2022, 18:23
Sarà, ma se il buongiorno si vede dal mattino, anche in questa gen punteranno ad alzare il tdp per fascia a discapito dell'efficienza. :rolleyes:Insomma parliamo di un 2x di prestazioni invece del classico 30-60%...

Se parliamo di efficienza il discorso dovresti farlo sui consumi a pari prestazioni, e hai quasi un dimezzamento teorico.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Andy1111
26-03-2022, 18:24
https://wccftech.com/nvidia-geforce-rtx-4090-rtx-4080-pcb-ad102-ada-lovelace-gpu-24-gb-gddr6x-memory-600w-tdp/

Ricordatevi che con ampere la X080 è stata spostata sul 102 per essere più competitiva, e sembra che anche nella prossima generazione sarà così quindi 400W minimo parlando della FE ci saranno sicuramente

Insomma parliamo di un 2x di prestazioni invece del classico 30-60%...

Se parliamo di efficienza il discorso dovresti farlo sui consumi a pari prestazioni, e hai quasi un dimezzamento teorico.

Inviato dal mio M2012K11AG utilizzando Tapatalk

Per ora i rumor parlano di un aumento tra il 60%-80%

https://wccftech.com/rumor-amds-mcm-based-rdna3-rx-7000-gpus-will-be-more-power-efficient-than-nvidia-rtx-4000-gpus-and-could-even-offer-higher-performance/

mikael84
26-03-2022, 20:32
Ti quoto ma a malincuore, purtroppo c'è un limite a tutto, sicuramente nella
fascia enthusiast l'asticella di questo limite è molto alta, ma già 2 anni fa al lancio di Ampere la gente mugugnava parecchio sui consumi della 3090(e lo fa tutt'ora vedasi la 3090 ti), ma ad oggi è proprio fuori luogo presentarsi con una scheda si enthusiast ma da gaming(quindi ad uso non professionale) che ha consumi da dual gpu di gpu di fascia alta di precedente generazione.

Ma non è un problema solo di fascia alta, l'asticella la possono alzare di riflesso anche in segmenti più bassi, già nvidia in questa gen non ha più schede come la vecchia gtx 1650 con tdp di 75w, rischiamo di ritrovarci una rtx 4050 con tdp vicini ai 200w, roba da vecchia gtx 1080 o rtx 2080.:mbe:

A pensarci, è anche fuori contesto un trend del genere, si punta al risparmio energetico su molti settori mentre sulle gpu e cpu questi se ne sbattono così?:rolleyes:

Oltre al rapporto densità/efficienza, molti sottovalutano anche il comparto di alimentazione piuttosto esoso, non tanto le GPU in se, oltre alle fasce che sono salite.
Qui abbiamo Pascal GTX 1080: 314mm2 (ovvero un chip di fascia bassa, spacciato per alta), consumi da 980 medi, boost clock + 42/45%.
https://i.postimg.cc/sg3zMDMH/gtx1080.png

Qua abbiamo una 3060: 274mm2, boost clock 0 (anzi in OC clockano meno):p
https://i.postimg.cc/qMbw31qf/3060.png

Abbiamo circa 10 watt in più dalle ram, più qualche watt dalla circuiteria.
Già da queste cose, vedi 15 watt solo tra ram e alimentazione.

Considera però, che 1080 e 3060 sono praticamente stessa fascia a livello di core.
La sostituta della 1650, a questo giro è stata dedicata ai soli notebook, hanno giusto tagliuzzata GA106.

Con la 3090 minimo 150watt sono di alimentazione e ram.:)

Ma perchè? Se con Ampere potevamo dare la colpa al PP di Samsung con LL e hopper no...
Fino a Turing nvidia è sempre stata campione di IPC, o PPW se vogliamo.

Sempre per il rapporto, densità, clock.
l'8nm è inferiore ai 7nm di TSMC (anche samsung 7nm lo è), ma i 5nm (4nm) sono solo un'aggiornamenti dei 7 in termini di efficienza e potenza.

Devi considerare un fattore, ovvero che vai quasi a raddoppiare il chip ed allo stesso tempo vai a clockarlo, alla fine è una coperta corta.
Ciò che guadagni in efficienza, lo perdi stirandolo, oppure adatti il tutto.

Se tu ampere lo stampavi sui 7nm di samsung, avresti avuto più o meno questa situazione:
prendiamo una 3070: lanciamola a 210watt (di cui 155 GPU, 55 il resto)
Shrinkiamola a 7nm samsung, hai due possibilità circa:
1) i 210 watt scendono a 180-175 watt (a questo aggiungi meno complessità PCB e perdite, e magari riesci a rientrare a 160 watt.
2) sempre 210 watt ma anzichè tenerla a 1900 in DC, la tieni a 2100.

Con i 5nm LPP, possiamo simulare una 3070 a 105watt GPU più circuiteria (130-140 watt), oppure una 3070 a 2300 circa.
I samsung 5nm LPP per dire, sono simili ai 7nmp di TSMC.

Pascal per dire, è stato una sorta di quasi shrink, ma con un +42/45% di clock, è come dire che una 3070 ti sarebbe consumata uguale, con qualche cuda in più, ma a 2800.:)

https://wccftech.com/nvidia-geforce-rtx-4090-rtx-4080-pcb-ad102-ada-lovelace-gpu-24-gb-gddr6x-memory-600w-tdp/

Ricordatevi che con ampere la X080 è stata spostata sul 102 per essere più competitiva, e sembra che anche nella prossima generazione sarà così quindi 400W minimo parlando della FE ci saranno sicuramente



Per ora i rumor parlano di un aumento tra il 60%-80%



60 no, ma 80% sulla base teorica dei flops (salvo IPC), ci può stare. Siamo a 2,25x, solitamente lo scaling è di circa 20% su 32/33% teorico, a pari arch.

scorpion73
28-03-2022, 20:54
https://videocardz.com/newz/asus-announces-price-cuts-of-up-to-25-in-april-for-geforce-rtx-30-gpus


Inviato dal mio iPhone utilizzando Tapatalk

OrazioOC
28-03-2022, 20:58
https://videocardz.com/newz/asus-announces-price-cuts-of-up-to-25-in-april-for-geforce-rtx-30-gpus


Inviato dal mio iPhone utilizzando Tapatalk

Finita la pacchia, ma ne devono ancora mangiare di pastasciutta o macedonia questi, si sono abituati troppo bene sono mining, ma ora che sono rimasti solo i gamer(e manco tutti eh, perchè di gente con 3070/3080 o equivalente amd ce ne sono) è il momento che si diano una regolata, tanto chi ha tirato dritto con gpu di 5 anni fa come una gtx 1060 può anche aspettare 1/2 mesi per vedere la serie 3000 finalmente al loro prezzo di listino. Era ora.:D

davide155
28-03-2022, 21:15
Finita la pacchia, ma ne devono ancora mangiare di pastasciutta o macedonia questi, si sono abituati troppo bene sono mining, ma ora che sono rimasti solo i gamer(e manco tutti eh, perchè di gente con 3070/3080 o equivalente amd ce ne sono) è il momento che si diano una regolata, tanto chi ha tirato dritto con gpu di 5 anni fa come una gtx 1060 può anche aspettare 1/2 mesi per vedere la serie 3000 finalmente al loro prezzo di listino. Era ora.:DAspetta a cantare vittoria.
Vale solo per il suolo americano e dal prossimo mese.
Comunque i prezzi stanno scendendo parecchio. Il problema è che ancora non si trovano ste schede. È una situazione assurda. Nonostante ne abbiano vendute a milioni, che abbiano infranto ogni record, ancora non si riesce ad andare in negozio e trovarle a scaffale.

OrazioOC
28-03-2022, 21:23
Aspetta a cantare vittoria.
Vale solo per il suolo americano e dal prossimo mese.
Comunque i prezzi stanno scendendo parecchio. Il problema è che ancora non si trovano ste schede. È una situazione assurda. Nonostante ne abbiano vendute a milioni, che abbiano infranto ogni record, ancora non si riesce ad andare in negozio e trovarle a scaffale.

Chiaro che tutto può succedere ma l'inversione di tendenza è chiara, siamo ancora lontani dalla situazione che avevamo 2 anni fa, ma ci stiamo ritornando.
Con la nuova gen che incombe tra 6 mesi, intel che a breve debutterà finalmente con le ARC, e il mining in affanno, finalmente ci saranno occasioni per tornare a parlare di pc gaming anche a prezzi democratici.:D

Lorenzop1966
28-03-2022, 21:54
Le nuove schede avranno costi stellari altro che prezzi democratici.

alethebest90
29-03-2022, 07:48
Aspetta a cantare vittoria.
Vale solo per il suolo americano e dal prossimo mese.
Comunque i prezzi stanno scendendo parecchio. Il problema è che ancora non si trovano ste schede. È una situazione assurda. Nonostante ne abbiano vendute a milioni, che abbiano infranto ogni record, ancora non si riesce ad andare in negozio e trovarle a scaffale.

se parli di negozi fisici non credo ci sia qualcuno sano di mente che riempe gli scaffali con vga prossime alla pensione e per lo piu con prezzi lievemente in discesa..

ma d'altronde se gli allert dei vari tracker fanno ancora migliaia di visualizzazioni fa pensare che la riccerca è ancora molto competitiva

scorpion73
29-03-2022, 07:48
Guarda, se le nuove schede avranno prezzi stellari, visto che consumano e scaldano come una centrale termonucleare possono tranquillamente restare lì. Le ampere saranno buone ancora per un bel pò secondo me..


Inviato dal mio iPhone utilizzando Tapatalk

mikael84
29-03-2022, 11:32
Oggi avremmo un piccolo assaggio di Lovelace, dovrebbero recensire le 3090ti.
Cmq https://videocardz.com/newz/nvidia-geforce-rtx-3090-ti-costs-1999-usd-3dmark-performance-leaked

scorpion73
29-03-2022, 11:37
1999$ di prezzo di lancio.
Per me, stanno fuori di melone completamente.
500$ sono ingiustificati come differenza di prezzo dalla versione base, visto l'incremento di performance assolutamente risibile.
La cosa giusta era quella che si vociferava prima: prezzo come la 3090 base e taglio per quest'ultima, visto anche che questa ti è un "esercizio" per la nuova serie.
In questo modo quanto cazzo costeranno le 4000?
Nonsense veramente....

Thunder-74
29-03-2022, 12:03
1999$ di prezzo di lancio.
Per me, stanno fuori di melone completamente.
500$ sono ingiustificati come differenza di prezzo dalla versione base, visto l'incremento di performance assolutamente risibile.
La cosa giusta era quella che si vociferava prima: prezzo come la 3090 base e taglio per quest'ultima, visto anche che questa ti è un "esercizio" per la nuova serie.
In questo modo quanto cazzo costeranno le 4000?
Nonsense veramente....

Vedremo che ci riserverà il futuro modo PC... e pesare che in questi giorni mi sto divertendo un mondo con un porting di un titolo studiato per una scatoletta piccola e nera da due lire... God of War ... sicuramente su PC è tanta roba, ma era godibilissimo anche su console, come godibilissimo è stato The Last of US 2 finito una settimana fa.

Immagine da una scatoletta che fa miracoli in 1080p... hahahahahah
https://i.imgur.com/0SuVdWSl.jpg

McRooster23
29-03-2022, 13:47
Confermato che le 3090ti saranno presenti al prossimo drop su LDLC.
Il prezzo di vendita (spedizione esclusa) sarà pari a €2249.

Non riesco davvero a capire come si possa sborsare una cifra simile per una scheda che fra qualche mese verrà surclassata da una che costerà meno della metà.

bonzoxxx
29-03-2022, 13:49
Ne venderanno a mucchi..

bagnino89
29-03-2022, 13:58
Vedremo che ci riserverà il futuro modo PC... e pesare che in questi giorni mi sto divertendo un mondo con un porting di un titolo studiato per una scatoletta piccola e nera da due lire... God of War ... sicuramente su PC è tanta roba, ma era godibilissimo anche su console, come godibilissimo è stato The Last of US 2 finito una settimana fa.

Immagine da una scatoletta che fa miracoli in 1080p... hahahahahah

Vero, quanto rosico a non avere i TLOU su PC...

McRooster23
29-03-2022, 14:02
Eccola appena droppata, calda calda :D

FrancoBit
29-03-2022, 14:04
Eccola appena droppata, calda calda :D

Un'offerta che non si può rrrrifiutare :oink:

mikael84
29-03-2022, 14:18
Certo che le rese cominciano ad essere ottime, binnatissime.
https://i.postimg.cc/3wVS2qgJ/bin.png

Le ram tengono addirittura i 24 gb/s.

Interessante notare, come alcuni PCB abbiano i fori per il secondo connettore.
Cmq il connettore è da 450watt gira e rigira, per adattarsi allo standard.
https://i.postimg.cc/DfBCgmQM/pcb.png

ev978
29-03-2022, 14:40
Un'offerta che non si può rrrrifiutare :oink:

... e infatti dopo più di mezz'ora è ancora disponibile.
Chissà come mai :boh:

Dono89
29-03-2022, 14:42
La scheda consuma 500w. Solo lei

mikael84
29-03-2022, 14:54
La scheda consuma 500w. Solo lei

Diciamo che di base hanno TDP molto elevati, anche per tenere i clock elevati a stock. Con il PL, niente che non si sia già visto con le lisce (salvo le 2x8pin).
https://tpucdn.com/review/msi-geforce-rtx-3090-ti-suprim-x/images/tdp-adjustment-limit.png

StylezZz`
29-03-2022, 14:58
2249 euro, e non riesce nemmeno a tenere i 60fps in 4k su Cyberpunk :asd:

Kaheleha
29-03-2022, 15:25
Confermato che le 3090ti saranno presenti al prossimo drop su LDLC.
Il prezzo di vendita (spedizione esclusa) sarà pari a €2249.

Non riesco davvero a capire come si possa sborsare una cifra simile per una scheda che fra qualche mese verrà surclassata da una che costerà meno della metà.
Su questo ho forti dubbi

Maury
29-03-2022, 15:52
E' solo un esercizio di stile che porta Ampere all'estremo, un pezzo da collezione diciamo.

Senza senso sicuramente, ma qualcuno per pochi FPS in più farà la pazzia, perchè di questo si tratta :D

McRooster23
29-03-2022, 16:15
Su questo ho forti dubbi

Secondo me anche una 4070 gli starà davanti, che di certo costerà a listino meno di 1125€

nessuno29
29-03-2022, 16:30
2249 euro, e non riesce nemmeno a tenere i 60fps in 4k su Cyberpunk :asd:

Con Rt su psycho e dlss quality ne fa poco più della metà :D, costa 500 euro più della sorella che con le stesse impostazioni di fps ne fa poco più della metà, e costa un migliaio di euro in più della sorellina che sempre con le stesse impostazioni ne fa poco poco più della metà :D

mikael84
29-03-2022, 16:52
E' solo un esercizio di stile che porta Ampere all'estremo, un pezzo da collezione diciamo.

Senza senso sicuramente, ma qualcuno per pochi FPS in più farà la pazzia, perchè di questo si tratta :D

Che poi saranno i prezzi pazzi, ma a listino costa meno della Titan RTX turing, Con la differenza che questa è binnatissima, particolarmente clockata e disponibile in custom.:)
Considerando l'nvlink, è una scheda pro a tutti gli effetti, oltre che da gioco.

Thunder-74
29-03-2022, 19:03
Che poi saranno i prezzi pazzi, ma a listino costa meno della Titan RTX turing, Con la differenza che questa è binnatissima, particolarmente clockata e disponibile in custom.:)
Considerando l'nvlink, è una scheda pro a tutti gli effetti, oltre che da gioco.


Per me subisci quel malefico fascino del full chip, di la verità :)

Comunque i 500 euro in più, oltre alle vram più costose, stanno anche nel bin del chip.

EDIT:

Mike sentiti male... GALAX RTX 3090 Ti HOF da 1200w

https://i.imgur.com/fSphy7O.png

LINK (https://www.guru3d.com/news-story/galax-rtx-3090-ti-hof-gets-two-16-pin-connectors-from-(thats-1200w-input-capability).html)

Ubro92
29-03-2022, 19:14
Per me subisci quel malefico fascino del full chip, di la verità :)

Comunque i 500 euro in più, oltre alle vram più costose, stanno anche nel bin del chip.

Inviato dal mio iPhone X utilizzando Tapatalk

Ha un MSRP del 50% in più della 3090.
Con tutto il bin di questo mondo ma no :fagiano:

Thunder-74
29-03-2022, 19:34
Ha un MSRP del 50% in più della 3090.
Con tutto il bin di questo mondo ma no :fagiano:

sfondi una porta aperta, per me anche la 3090 è sempre stata un senza senso ambito gaming.

mikael84
29-03-2022, 20:10
Per me subisci quel malefico fascino del full chip, di la verità :)

Comunque i 500 euro in più, oltre alle vram più costose, stanno anche nel bin del chip.

EDIT:

Mike sentiti male... GALAX RTX 3090 Ti HOF da 1200w



LINK (https://www.guru3d.com/news-story/galax-rtx-3090-ti-hof-gets-two-16-pin-connectors-from-(thats-1200w-input-capability).html)

Beh thunder, tra appassionati non possiamo negare.:p
Cmq potenzialmente può erogare 1200 (600x2), ma è bloccata a 525 watt .
Alla fine questo cavo, serve giusto per eludere i 3x8, troppo ingombranti. Finchè sei tarato al'AWG20 malgrado il cavo...

Guarda che roba la strix, 28 fasi, 3 vrm per 8 e 1 per le 4 fasi ram.
https://www.techpowerup.com/review/asus-geforce-rtx-3090-ti-strix-lc/4.html

Raven
29-03-2022, 20:24
Ne venderanno a mucchi..

beh, dai... i "fessi" ci sono, ok, ma non fino a questo punto! :asd:

davide155
29-03-2022, 20:35
Per me subisci quel malefico fascino del full chip, di la verità :)

Comunque i 500 euro in più, oltre alle vram più costose, stanno anche nel bin del chip.

EDIT:

Mike sentiti male... GALAX RTX 3090 Ti HOF da 1200w

https://i.imgur.com/fSphy7O.png

LINK (https://www.guru3d.com/news-story/galax-rtx-3090-ti-hof-gets-two-16-pin-connectors-from-(thats-1200w-input-capability).html)Occhio che quei 1200w sono teorici perché hanno dovuto usare due 12pin per non usare quasi il 100% dell'ipotetico singolo connettore.

"In terms of power restrictions, the GALAX RTX 3090 Ti HOF technically has a power limit of 480 W, but a unique BIOS-based P-mode activates 516 W power limits"

Dono89
29-03-2022, 20:50
Che flop comunque, ancora disponibile la founder su ldlc dopo svariate ore.

Sicuramente si sapeva che non sarebbe andata a ruba come la 3070, ma vederla durare ore e ore liberamente come pre pandemia fa strano

Gringo [ITF]
29-03-2022, 21:02
Che flop comunque, ancora disponibile la founder su ldlc dopo svariate ore.

Sicuramente si sapeva che non sarebbe andata a ruba come la 3070, ma vederla durare ore e ore liberamente come pre pandemia fa strano

Non è che fa strano e che il prezzo e effettivamente tosto stavolta, considerando il tutto, e una founder non una Asus Luciette, vedremo i prezzi di quelle, probabilmente stanno attendendo quelli, per poi scannarsi.

Di sicuro le prossime RTX 40xx partiranno da sopra questi prezzi, nvidia ha detto che conviveranno, significa che se la 4080 va come una 3090 TI costerà uguale e la 4090 partirà do oltre, anche con le FE.

Dono89
29-03-2022, 21:22
;47796575']Non è che fa strano e che il prezzo e effettivamente tosto stavolta, considerando il tutto, e una founder non una Asus Luciette, vedremo i prezzi di quelle, probabilmente stanno attendendo quelli, per poi scannarsi.

Di sicuro le prossime RTX 40xx partiranno da sopra questi prezzi, nvidia ha detto che conviveranno, significa che se la 4080 va come una 3090 TI costerà uguale e la 4090 partirà do oltre, anche con le FE.


Si, ma se quests costa 2200e una asus con lucine non la prendi a meno di 2500.
Per una scheda video....

Per me si aspettavano un'accoglienza diversa, dopotutto li abbiamo abituati noi a seguire h24 i bot per acquistare queste schede

La serie 4000 sarà costosissima. Dopo aver visto quanto gli utenti son disposti a spendere difficile riavremo una serie come la 3000 (considerando 60ti, 70 e 80 con l'asterisco)

Gringo [ITF]
29-03-2022, 21:30
Il rapporto prezzo potenza diventerà sempre più agganciato, quindi finiremo indipendentemente dal modello / Hardware si pagherà il valore di Benchmark / Hash.

Se la 3090 TI va 2200
La 4090 è circa il 35/40% più performante la pagherai il 40% in più.

Mettiamo che un Gamer si sia messo un limite tipo 1999€ è logico che le 3090 non ci stanno e queste vanno 2200€ di certo la gente non ci si tuffa, a me servirebbe e ci stò ancora pensando, volevo la Asus Lucette a 1850€ ma quasi quasi prendo questa a questo livello, il soldino non mi manca e come si vede in firma sono con il culo a terra con la VGA......, son con la GT-710 da oltre 8 mesi ormai, e vorrei riaprire le attività, e intel TARDA TROPPO ORMAI, non sono nemmeno più convinto che a maggio arrivino le "Alchemist".

Telstar
29-03-2022, 21:36
La serie 4000 sarà costosissima.

smettetela di darvi la zappa sui piedi.

bonzoxxx
29-03-2022, 21:38
Se la serie 4000 sarà costosissima e ipoteticamente LHR o cmq non appetibile ai miners, probabilmente rimarrà sugli scaffali come questa 3090ti.

Mo vabbè che vabbè ma c'è un limite a tutto

mikael84
29-03-2022, 23:58
Occhio che quei 1200w sono teorici perché hanno dovuto usare due 12pin per non usare quasi il 100% dell'ipotetico singolo connettore.

"In terms of power restrictions, the GALAX RTX 3090 Ti HOF technically has a power limit of 480 W, but a unique BIOS-based P-mode activates 516 W power limits"

Non è altro che un 3x8 miniaturizzato, sempre con le regole AWG20.
Puntare su 600 watt anche a cavo singolo è azzardato, chi dice, che tutti gli ALI siano in AWG16 (i VRM divideranno sempre in 3x150 watt)...:)



;47796575']Non è che fa strano e che il prezzo e effettivamente tosto stavolta, considerando il tutto, e una founder non una Asus Luciette, vedremo i prezzi di quelle, probabilmente stanno attendendo quelli, per poi scannarsi.

Di sicuro le prossime RTX 40xx partiranno da sopra questi prezzi, nvidia ha detto che conviveranno, significa che se la 4080 va come una 3090 TI costerà uguale e la 4090 partirà do oltre, anche con le FE.

Ammazza che ottimismo:D
Tralasciando che la 4080 andrà decisamente di più, o meglio i chip sono stati svelati.
AD103 che dovrebbe equipaggiare le 4070/ti, sarà uno shrink di GA102, con meno bus, la parte più gravosa. Ovviamente i clock saranno ben più alti, quindi ti lascio immaginare.
Volendo essere realmente, ma realmente pessimisti, la 4080, costerà 999$ :)

;47796599']Il rapporto prezzo potenza diventerà sempre più agganciato, quindi finiremo indipendentemente dal modello / Hardware si pagherà il valore di Benchmark / Hash.

Se la 3090 TI va 2200
La 4090 è circa il 35/40% più performante la pagherai il 40% in più.

Mettiamo che un Gamer si sia messo un limite tipo 1999€ è logico che le 3090 non ci stanno e queste vanno 2200€ di certo la gente non ci si tuffa, a me servirebbe e ci stò ancora pensando, volevo la Asus Lucette a 1850€ ma quasi quasi prendo questa a questo livello, il soldino non mi manca e come si vede in firma sono con il culo a terra con la VGA......, son con la GT-710 da oltre 8 mesi ormai, e vorrei riaprire le attività, e intel TARDA TROPPO ORMAI, non sono nemmeno più convinto che a maggio arrivino le "Alchemist".

Ma no...:p ammazza che catastrofismo.:D

Tralasciando che la 4090 andrà molto di più (sono stati già rivelati i chip tramite attacco hacker), non è che ogni scheda scalerà così.
la 3090ti è una scheda pro, ex titan, selezionata e con un cavo new gen, paradossalmente costa meno della Titan RTX turing (2500$). Il problema sono stati i prezzi pazzi di questa gen, come quando compravi una Vega64 a 1000/1200 euro.:)

Se sei costretto a comprare, prendi una 3080 da BPM e via.:)


smettetela di darvi la zappa sui piedi.

Bravo
Per dire da AMD ci si aspetta questo, ed nvidia dovrà rispondere:
https://www.hardwaretimes.com/the-first-batch-of-radeon-rx-7700-xts-are-about-to-be-tested-by-amd-faster-than-the-rx-6900-xt-at-nearly-half-the-price-report/

Thunder-74
30-03-2022, 07:45
Beh thunder, tra appassionati non possiamo negare.:p
Cmq potenzialmente può erogare 1200 (600x2), ma è bloccata a 525 watt .
Alla fine questo cavo, serve giusto per eludere i 3x8, troppo ingombranti. Finchè sei tarato al'AWG20 malgrado il cavo...

Guarda che roba la strix, 28 fasi, 3 vrm per 8 e 1 per le 4 fasi ram.
https://www.techpowerup.com/review/asus-geforce-rtx-3090-ti-strix-lc/4.html

Quanta cicca su quella Strix :oink:

Si leggevo del bios bloccato della HOF. Mi chiedo se mettere due connettori sia un eccesso di scrupolo o specchietto per le allodole, visto che altri modelli propongono stesso wattaggio con un solo connettore. Che sia rischioso avvicinarsi ai 525w con un solo connettore?

ray_hunter
30-03-2022, 07:45
Non è altro che un 3x8 miniaturizzato, sempre con le regole AWG20.
Puntare su 600 watt anche a cavo singolo è azzardato, chi dice, che tutti gli ALI siano in AWG16 (i VRM divideranno sempre in 3x150 watt)...:)





Ammazza che ottimismo:D
Tralasciando che la 4080 andrà decisamente di più, o meglio i chip sono stati svelati.
AD103 che dovrebbe equipaggiare le 4070/ti, sarà uno shrink di GA102, con meno bus, la parte più gravosa. Ovviamente i clock saranno ben più alti, quindi ti lascio immaginare.
Volendo essere realmente, ma realmente pessimisti, la 4080, costerà 999$ :)


Ma no...:p ammazza che catastrofismo.:D

Tralasciando che la 4090 andrà molto di più (sono stati già rivelati i chip tramite attacco hacker), non è che ogni scheda scalerà così.
la 3090ti è una scheda pro, ex titan, selezionata e con un cavo new gen, paradossalmente costa meno della Titan RTX turing (2500$). Il problema sono stati i prezzi pazzi di questa gen, come quando compravi una Vega64 a 1000/1200 euro.:)

Se sei costretto a comprare, prendi una 3080 da BPM e via.:)




Bravo
Per dire da AMD ci si aspetta questo, ed nvidia dovrà rispondere:
https://www.hardwaretimes.com/the-first-batch-of-radeon-rx-7700-xts-are-about-to-be-tested-by-amd-faster-than-the-rx-6900-xt-at-nearly-half-the-price-report/

Io spero che le prestazioni RT non aumenteranno solo in proporzione all'aumento di potenza teorica computazionale ma anche in quota parte per aumento dell'efficienza. Un x2.2 x2.5 rispetto alla RX 6900 XT in raster sono anche troppi ma in RT non sono ancora sufficienti.
Inoltre bisognerà vedere FSR 2.0 come andrà ma soprattutto se troverà larga diffusione!

Sicuro che non comprerò mai una scheda che da 450 o 600W di TDP che siano, pertanto confido in AMD che riesca a fare qualcosa di performance ottimizzando i consumi.
Trovo strano che un'azienda come Nvidia, con le problematiche energetiche che stiamo incontrando non presti minima attenzione a tale aspetto!

FrancoBit
30-03-2022, 08:30
E comunque stamattina la schedona è ancora disponibile... Mi sarei aspettato anche un "fake" out of stock, invece è possibile che non se la caghino proprio..

Maury
30-03-2022, 08:56
Che poi saranno i prezzi pazzi, ma a listino costa meno della Titan RTX turing, Con la differenza che questa è binnatissima, particolarmente clockata e disponibile in custom.:)
Considerando l'nvlink, è una scheda pro a tutti gli effetti, oltre che da gioco.

La vedo davvero solo Pro, lato game mi sembra fuori target, infatti rimangono sullo scaffale da quanto leggo :)

Ho una percezione diversa relativa alla potenza di questa nuova scheda, non impressiona per niente, non basta un semplice 4070 per farla fuori ? :sofico:

McRooster23
30-03-2022, 09:12
non basta un semplice 4070 per farla fuori ? :sofico:

È proprio quello il punto. Se anche Nvidia dovesse alzare i prezzi di listino portando la 4070 sui 750€, avremmo comunque una scheda che va più o meno quanto la 3090Ti ma costando precisamente un terzo (750 * 3 = 2250).
La 4070 avrebbe inoltre, a suo favore, tutta la serie di migliorie e novità previste dalla serie nuova.

Secondo me sta 3090Ti a Settembre non varrà più di 700/800€ usata ed è per questo che è ancora lì :asd:

Maury
30-03-2022, 09:34
È proprio quello il punto. Se anche Nvidia dovesse alzare i prezzi di listino portando la 4070 sui 750€, avremmo comunque una scheda che va più o meno quanto la 3090Ti ma costando precisamente un terzo (750 * 3 = 2250).
La 4070 avrebbe inoltre, a suo favore, tutta la serie di migliorie e novità previste dalla serie nuova.

Secondo me sta 3090Ti a Settembre non varrà più di 700/800€ usata ed è per questo che è ancora lì :asd:

Quoto, non ha davvero molte freccie dalla sua parte questa 3090TI, nVidia lo sa, qualcuna la venderà pure, con un guadagno per pezzo esagerato.

Certo che a tempo debito vederla dietro ad una 4070 nei bench farà un certo effetto... :)

Thunder-74
30-03-2022, 09:39
Avrà valore per chi fa rendering dove i 24gb sono utili . Questa, come la 3090, è più da pro che da gaming . Lo abbiamo sempre detto. Per il gaming ampere si ferma con la 3080ti, dove anche una 3080 liscia da 12gb fa benissimo. Dipende solo dal prezzo di acquisto tra le due . A 719 la 3080 10gb rappresentava il non plus ultra del rapporto costo/prestazioni per il gaming .


Inviato dal mio iPhone X utilizzando Tapatalk

Legolas84
30-03-2022, 09:55
Avrà valore per chi fa rendering dove i 24gb sono utili . Questa, come la 3090, è più da pro che da gaming . Lo abbiamo sempre detto. Per il gaming ampere si ferma con la 3080ti, dove anche una 3080 liscia da 12gb fa benissimo. Dipende solo dal prezzo di acquisto tra le due . A 719 la 3080 10gb rappresentava il non plus ultra del rapporto costo/prestazioni per il gaming .


Inviato dal mio iPhone X utilizzando Tapatalk


Si la 3080 è davvero il top di questa gen&hellip; spero in una scheda simile anche nella prossima&hellip;.


Inviato dal mio iPhone utilizzando Tapatalk Pro

kiwivda
30-03-2022, 10:05
Forse una delle poche frecce nell'arco della 3090Ti sono le Vram su un solo lato ed i sistemi di dissipazione migliorati, come nella TUF OC che ha un'unica placca di contatto e non 3 strati a panino come la 3090 liscia. Per il resto... aspettiamo la 4080/90.

Anche se non riesco a capire fino in fondo il senso di questa scheda. O le Lovelace non sono così dietro l'angolo, o il pp è finalmente affinato e questa doveva essere la 3090 fin dall'inizio e adesso provano a spennare gli ultimi polli, oppure stanno calibrando il tiro per vedere fin dove possono spennare con le prossime. Per fortuna ad adesso la scheda è ancora a scaffale.

Anche perché, nel mio disagio mentale, un pensiero ce l'ho pure fatto, ma anche adesso che finalmente ho un monitor degno di una 3090, questa scheda non mi risolve certo i problemi in 4k, dove non arrivo con la 3090 non ci arrivi manco con questa, quindi aspetto fiducioso di vedere se almeno con le 4000 i 60 fps minimi saranno garantiti.
Senza contare il discorso di WB e Backplate, che sicuramente non saranno compatibili.

bonzoxxx
30-03-2022, 10:43
Anche se non riesco a capire fino in fondo il senso di questa scheda. O le Lovelace non sono così dietro l'angolo, o il pp è finalmente affinato e questa doveva essere la 3090 fin dall'inizio e adesso provano a spennare gli ultimi polli, oppure stanno calibrando il tiro per vedere fin dove possono spennare con le prossime. Per fortuna ad adesso la scheda è ancora a scaffale.

This. Mi hai letto nel pensiero.

Per me, i 750 euro della 3080 sono stati anche troppi (non odiatemi, è per introdurre il discorso), cifra che ho recuperato in parte vendendo la vecchia e minando un pochino di eth a tempo perso. Ma pensare di andare oltre questa cifra per giocare è, secondo il mio modestissimo parere, follia pura anche considerando i titoli disponibili al momento.

Spero che Lovelace non alzi troppo i prezzi altrimenti non ne usciamo.

Thunder-74
30-03-2022, 10:56
This. Mi hai letto nel pensiero.

Per me, i 750 euro della 3080 sono stati anche troppi (non odiatemi, è per introdurre il discorso), cifra che ho recuperato in parte vendendo la vecchia e minando un pochino di eth a tempo perso. Ma pensare di andare oltre questa cifra per giocare è, secondo il mio modestissimo parere, follia pura anche considerando i titoli disponibili al momento.

Spero che Lovelace non alzi troppo i prezzi altrimenti non ne usciamo.


Siamo nella fascia enthusiast, quindi il discorso che fai sul pagare 750 euro una vga per giocare diventa un NI. Nel senso che per un appassionato di HW che si avvicina a questa fascia, non esiste solo il gioco, ma subisce il fascino di questo mondo/hobby, arrivando a spendere più del necessario . Ripeto, visto il passato e sopratutto Turing , i 719 della 3080 erano stra ottimi. Poi per giocare possiamo fare discorsi di tutti i tipi , anche prendere in considerazione le scatolette che quando hanno un prezzo consono, ti permettono con poco di godere di titoli
sviluppati bene lato artistico/ ludico.

Ovviamente il pc è il pc, però sempre testa sulle spalle e non arrivare a vendere i reni per una vga ;)


Inviato dal mio iPhone X utilizzando Tapatalk

bonzoxxx
30-03-2022, 11:02
Siamo nella fascia enthusiast, quindi il discorso che fai sul pagare 750 euro una vga per giocare diventa un NI. Nel senso che per un appassionato di HW che si avvicina a questa fascia, non esiste solo il gioco, ma subisce il fascino di questo mondo/hobby, arrivando a spendere più del necessario . Ripeto, visto il passato e sopratutto Turing , i 719 della 3080 erano stra ottimi. Poi per giocare possiamo fare discorsi di tutti i tipi , anche prendere in considerazione le scatolette che quando hanno un prezzo consono, ti permettono con poco di godere di titoli
sviluppati bene lato artistico/ ludico.

Ovviamente il pc è il pc, però sempre testa sulle spalle e non arrivare a vendere i reni per una vga ;)

Inviato dal mio iPhone X utilizzando Tapatalk

Il punto è proprio quello: abbiamo assistito a gente che ha speso anche 1800€ per una 3080, ok che con i propri soldi ognuno fa quello che vuole ma è oggettivamente troppo per una GPU e, viste le vendite, nulla vieta ar giacchetta-de-pelle di dire "sai che nova c'è? Ora metto la 4080 a 1199€ o addirittura 1399€ tanto vendiamo lo stesso" prova ne è la 3090ti che ha un prezzo fuori da ogni logica a meno che non si consideri una GPU pro, a quel punto potrebbe anche avere un senso come lo aveva la 3090.

Ma, secondo il mio modestissimo parere, è troppo e si è creato un precedente dannoso.

Maury
30-03-2022, 11:25
Per quanto mi riguarda le vacche grasse sono finite, la ricerca spasmodica delle vga a qualunque cifra era figlo di un momento particolare, covid, quarantene, lockdown, mining furioso ecc. Non gli capita più, già ora è tutto scemato, ci sono le schede, i prezzi sono buoni ma rimangono in ogni caso disponibili a lungo.

Se nVidia o chi per esso pensa di replicare quanto vissuto con Ampere si sbaglia e non poco.

bonzoxxx
30-03-2022, 11:32
Per quanto mi riguarda le vacche grasse sono finite, la ricerca spasmodica delle vga a qualunque cifra era figlo di un momento particolare, covid, quarantene, lockdown, mining furioso ecc. Non gli capita più, già ora è tutto scemato, ci sono le schede, i prezzi sono buoni ma rimangono in ogni caso disponibili a lungo.

Se nVidia o chi per esso pensa di replicare quanto vissuto con Ampere si sbaglia e non poco.

Vedremo, se il mining si fermerà/rallenterà, se le 4000 saranno disponibili, se intel e AMD forniranno valide alternative, ci sono tanti se da mettere in conto :)