PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 [190] 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466

Andy1111
18-06-2020, 19:54
Cyberpunk 2077 arriverà il 19 novembre 2020

Non è che le ampere le vedremo a novembre? :read:

OrazioOC
18-06-2020, 20:03
Cyberpunk 2077 arriverà il 19 novembre 2020

Non è che le ampere le vedremo a novembre? :read:

A differenza della cd project, nvidia campa vendendo schede video, già settembre sarebbe il periodo ideale, oltre ti scontri con le console.

Gello
18-06-2020, 20:05
Una novità c'è, ovvero un processore separato, che potrebbe essere la causa del TDP molto elevato.

https://www.hwupgrade.it/immagini/nvidia-rtx-3080-3090-traversal-coprocessor.png

Bisogna chiarire 2 cose.
Le varie testate, pensano ad un lavoro distaccato degli RT core, ma questo produrrebbe troppo overhead per essere sensato, in più questi devono lavorare a stretto contato con INT, FP e cache.

[cut]

Aggiungo, che 3mtransistor li hanno schede da 75watt. e grandezza che dovrebbe essere di 216mm2.

Roba pazzesca comunque, con quello che stanno spingendo in deep learning e quant'altro, qua c'e' il "rischio" che fra 10 anni ci sfornino una piattaforma totale su scheda e addio cpu/mobo e minchiate varie, capito perche' Intel si mette di corsa a fare VGA ...

Provocazione, perche' comunque Intel viene a fare soldi a palate in un mercato con due players con un rischio pari a zero (vedi OEM), pero' Nvidia diventera' sempre piu' gigante fra i top dei semiconduttori...

DarkNiko
18-06-2020, 20:55
Cyberpunk 2077 arriverà il 19 novembre 2020

Non è che le ampere le vedremo a novembre? :read:

Magari a Novembre tirano fuori le Ti. :asd:

TigerTank
18-06-2020, 21:10
Una novità c'è, ovvero un processore separato, che potrebbe essere la causa del TDP molto elevato.

https://www.hwupgrade.it/immagini/nvidia-rtx-3080-3090-traversal-coprocessor.png

Bisogna chiarire 2 cose.
Le varie testate, pensano ad un lavoro distaccato degli RT core, ma questo produrrebbe troppo overhead per essere sensato, in più questi devono lavorare a stretto contato con INT, FP e cache.

A me sembra di vedere il primo prototipo MCM per AI.

Nel disegno di sopra possiamo notare 36 puntini.:sofico:
Bene, questi non sono puntini ma mini core AI
https://i.postimg.cc/m2dx6YR0/usa.png

Ogni core integra 16 PE (Processing Elements), un core risk-VR (warp), una cache dati e 100 gb/s di I/O.
Il micro processore dovrebbe sforare i 3m transistor grazie ai WGRS ed ai 512 PE.

Questo è letteralmente votato al'AI, bisogna vedere se nvidia lo adatterà anche al RT, cercando di massimizzare le prestazioni del nucleo centrale, dove alloggiano gli RT core nei vari warp, dentro i GPC.

Il chip dovrebbe essere questo, quindi senza RT core interni, per l'overhead immenso.

Aggiungo, che 3mtransistor li hanno schede da 75watt. e grandezza che dovrebbe essere di 216mm2.

Secondo me separano su pcb secondario la sezione di alimentazione, concentrando su quello primario gpu, quel chip e la vram.
Sono proprio curioso di vedere il pcb completo, se appunto sarà diviso in due parti ed in tal caso come saranno connessi tra loro.
Magari già le Founder's alla fine saranno spettacolari di loro...delle custom originali :D
E quel chip spiegherebbe anche il perchè delle ventole su 2 lati in quella strana configurazione del dissipatore a panino.

P.S. E di conseguenza sarà anche curioso vedere come riprogetteranno le solite custom.

Thunder-74
18-06-2020, 23:06
Secondo me separano su pcb secondario la sezione di alimentazione, concentrando su quello primario gpu, quel chip e la vram.
Sono proprio curioso di vedere il pcb completo, se appunto sarà diviso in due parti ed in tal caso come saranno connessi tra loro.
Magari già le Founder's alla fine saranno spettacolari di loro...delle custom originali :D
E quel chip spiegherebbe anche il perchè delle ventole su 2 lati in quella strana configurazione del dissipatore a panino.

P.S. E di conseguenza sarà anche curioso di vedere come riprogetteranno le solite custom.


Certo è che su alcune schede madri possono essere incompatibili queste schede a panino. Soprattutto le mATX . Problemi con dissipatori extra large ... sarà da vedere ...


Inviato dal mio iPhone X utilizzando Tapatalk

mikael84
18-06-2020, 23:27
Roba pazzesca comunque, con quello che stanno spingendo in deep learning e quant'altro, qua c'e' il "rischio" che fra 10 anni ci sfornino una piattaforma totale su scheda e addio cpu/mobo e minchiate varie, capito perche' Intel si mette di corsa a fare VGA ...

Provocazione, perche' comunque Intel viene a fare soldi a palate in un mercato con due players con un rischio pari a zero (vedi OEM), pero' Nvidia diventera' sempre piu' gigante fra i top dei semiconduttori...

Intel sta puntando forte al deep learning, e la sorpresa potrebbe essere proprio il suo MCM. Conosco bene l'architettura a core di Intel, ma non ancora, come intende suddividere le risorse DNN.
Il monolitico tesla, si è rilevato troppo problematico, rese drammatiche e chi ben sopra gli 800mm2, ecco che con Hopper dovrebbe dare una sterzata.
Con lo standard DXG2 intel può arrivare a 8196 shader con 4 chip.

Nvidia con questo coprocessore può calcolare altre 128tops INT8, le stesse di una 2080ti/quadro RTX6000/8000, in un chip minuscolo, considerando, che il prototipo da 216mm2 è tarato a 16nm, quindi sarà più piccolo.

AMD, parla di 100tops, roba che fa una turing mid, non vedo nessun chip pensato per tale scopo.:)

Secondo me separano su pcb secondario la sezione di alimentazione, concentrando su quello primario gpu, quel chip e la vram.
Sono proprio curioso di vedere il pcb completo, se appunto sarà diviso in due parti ed in tal caso come saranno connessi tra loro.
Magari già le Founder's alla fine saranno spettacolari di loro...delle custom originali :D
E quel chip spiegherebbe anche il perchè delle ventole su 2 lati in quella strana configurazione del dissipatore a panino.

P.S. E di conseguenza sarà anche curioso di vedere come riprogetteranno le solite custom.

Ma infatti, sopratutto le custom multifase. O chi vuole liquidare.:)

Il chip è quello. 128tops INT8, sono gli stessi della quadro rtx 6/8000 e 2080ti, mica noccioline. Saranno contenti i puristi del raster.:sofico:

Questo spiegherebbe anche il TDP pazzesco, considerando anche il passaggio ai 7 raster per la prima volta.

Il PCB, il mese prossimo, siamo alle fasi finali.:)

fraussantin
19-06-2020, 05:20
P.S. E di conseguenza sarà anche curioso di vedere come riprogetteranno le solite custom.

Forse metteranno entrambi i chip dalla stessa parte su un PCB piú lungo e un dissipatore tradizionale a 3 ventole con un doppio heatsink .

Boh a me pare sempre e cmq la soluzione piú semplice.
Certo è che su alcune schede madri possono essere incompatibili queste schede a panino. Soprattutto le mATX . Problemi con dissipatori extra large ... sarà da vedere ...


Inviato dal mio iPhone X utilizzando Tapatalk



Guardando questa foto ,che forse é l'unica vera assieme a quella dei dissipatori nella scatola a me non sembra che ci sia lo spazio per dissipare roba dietro

Il pcb sta tutto alla fine con sopra questa copertura ( in plastica? ) Non ci vedo nessun "panino" o ingombri strani , se non la ventola superiore in pull invece che messa sotto in push. Dico plastica per via della pellicola trasparente , sull'alluminio hanno usato quelle blu
E cmq anche se fosse alluminio non é collegata a nessuna pipe che sono tutte sotto al pcb, sarebbe passivo e per dissipare un chip del genere non penso proprio che basterebbe https://uploads.tapatalk-cdn.com/20200619/0fe09aa72d74a4f7ba9a6778114c50da.jpg
Guardando adesso il dissipatore , questo che vediamo é il lato che sta sotto nel case non mi sembra di intravedere niente che faccia pensare al panino.
https://uploads.tapatalk-cdn.com/20200619/cf21a254c1938d53de1569602202340d.jpg
PS ma in quale foto é stato visto il chip dietro , me la la sono persa , ho visto solo i rendering.

Sono curioso di capire come verrebbe dissipato .


Pps altro dubbio , se ci saranno moduli di RAM anche dietro, e ci saranno sicuramente su titan e modelli quadro non ci rimane spazio per coprocessori trasversali. Neppure a fare PCB tradizionali. A meno che non usino hbm.

Mah...

Giovamas
19-06-2020, 06:55
Cyberpunk 2077 arriverà il 19 novembre 2020

Non è che le ampere le vedremo a novembre? :read:

per come la penso io se ne infiaschiano.. appena sono pronti escono ;) :)

Nurabsa
19-06-2020, 09:14
cut
Con reshade non invecchia mai.:p

mai usato :p
prova un 65" 4k hdr crysis3 sembra un film lens flare sul casco della nanotuta da smascellarsi.
cambiando display ho scoperto l importanza del rapporto inch-res

edit
speriamo che intel si dia una mossa con le sue vga :D
un terzo incomodo potrebbe innescare una bella competitività. speriamo

Non puoi paragonare materiali, tecnologie ed epoche diverse mettendo sul piatto solo gli euro. Come se qui qualcuno ti facesse notare che negli anni 60 una 500 costava 400 mila lire ed oggi con quella cifra non ci prendi nemmeno 2 cerchi in lega della nuova 500. Mi spiace che i nostalgici abbiano questa percezione sul valore degli oggetti.

ti seguo nella parte iniziale gf106 era un altra era geologica - 1gb per una schedina a quei tempi e per quel prezzo era troppo errore mai piu rifatto al quartier generale-

Rapporto soldi materiali credo che mille euro valgano oggi come valevano nel 2015. ci compri le stesse cose eccetto multivrm purtroppo.
Capisco le variazioni entro le 100€ ma qui si è passati a vendere una 500 sporting per una m5 per usare il gergo motoristico.
Nvidia ha un nome ormai la 2080ti costa piu di 1k è giustificato perche è una casa che puo permettersi di prezzare come vuole. anche qui purtroppo.

Thunder-74
19-06-2020, 09:23
Forse metteranno entrambi i chip dalla stessa parte su un PCB piú lungo e un dissipatore tradizionale a 3 ventole con un doppio heatsink .

Boh a me pare sempre e cmq la soluzione piú semplice.




Guardando questa foto ,che forse é l'unica vera assieme a quella dei dissipatori nella scatola a me non sembra che ci sia lo spazio per dissipare roba dietro

Il pcb sta tutto alla fine con sopra questa copertura ( in plastica? ) Non ci vedo nessun "panino" o ingombri strani , se non la ventola superiore in pull invece che messa sotto in push. Dico plastica per via della pellicola trasparente , sull'alluminio hanno usato quelle blu
E cmq anche se fosse alluminio non é collegata a nessuna pipe che sono tutte sotto al pcb, sarebbe passivo e per dissipare un chip del genere non penso proprio che basterebbe https://uploads.tapatalk-cdn.com/20200619/0fe09aa72d74a4f7ba9a6778114c50da.jpg
Guardando adesso il dissipatore , questo che vediamo é il lato che sta sotto nel case non mi sembra di intravedere niente che faccia pensare al panino.
https://uploads.tapatalk-cdn.com/20200619/cf21a254c1938d53de1569602202340d.jpg
PS ma in quale foto é stato visto il chip dietro , me la la sono persa , ho visto solo i rendering.

Sono curioso di capire come verrebbe dissipato .


Pps altro dubbio , se ci saranno moduli di RAM anche dietro, e ci saranno sicuramente su titan e modelli quadro non ci rimane spazio per coprocessori trasversali. Neppure a fare PCB tradizionali. A meno che non usino hbm.

Mah...

Verissimo, dalle foto sembra come dici, ma allora mi chiedo il secondo PCB come è messo e come la ventola posteriore agisce. Perchè se metti i due pcb allineanti, devi avere dei dissipatori a sandwich e quindi e quindi ingombro oltre il canonico profilo posteriore del pcb. Oppure i pcb sono sfalsati ottendendo un effetto a "X" tra pcb e ventole (non so se sono stato chiaro), ma dalle foto sembra un solo pcb e per logica corto con una fine a V per permettere di installare un delle ventole.
Sempre più convinto che qualcosa non torna e che molti sono dei samples in fase di studio su come progettare questa nuova serie 3000. Non mi stupirei se fosse stato proprio Black Jacket a divulgarli, per farsi due risate... L'ultima volta ha fatto il siparietto da casa sua , "sfornando" una mezza dozzina di CHIP Ampere ...

thunderforce83
19-06-2020, 09:53
Una novità c'è, ovvero un processore separato, che potrebbe essere la causa del TDP molto elevato.

https://www.hwupgrade.it/immagini/nvidia-rtx-3080-3090-traversal-coprocessor.png

Bisogna chiarire 2 cose.
Le varie testate, pensano ad un lavoro distaccato degli RT core, ma questo produrrebbe troppo overhead per essere sensato, in più questi devono lavorare a stretto contato con INT, FP e cache.

A me sembra di vedere il primo prototipo MCM per AI.

Nel disegno di sopra possiamo notare 36 puntini.:sofico:
Bene, questi non sono puntini ma mini core AI
https://i.postimg.cc/m2dx6YR0/usa.png

Ogni core integra 16 PE (Processing Elements), un core risk-VR (warp), una cache dati e 100 gb/s di I/O.
Il micro processore dovrebbe sforare i 3m transistor grazie ai WGRS ed ai 512 PE.

Questo è letteralmente votato al'AI, bisogna vedere se nvidia lo adatterà anche al RT, cercando di massimizzare le prestazioni del nucleo centrale, dove alloggiano gli RT core nei vari warp, dentro i GPC.

Il chip dovrebbe essere questo, quindi senza RT core interni, per l'overhead immenso.

Aggiungo, che 3mtransistor li hanno schede da 75watt. e grandezza che dovrebbe essere di 216mm2.
quindi l'arcano mistero e' risolto, praticamente la nuova scheda avra' queste caratteristiche? mitico Mikael!non ti nego che entro su questo forum sopratutto per leggere te:D
ma comunque sono fonti certe? cioe' da dove sono trapelate queste info? se cosi' fosse prepariamoci ad un bel salto di prestazioni...ecco perche' credo proprio che i prezzi aumenteranno...non puoi mettere tutto sto ben di dio e chiedere meno di prima,comunque spero che le varie testate si sbaglino:O e che mi sbagli pure io riguardo ai prezzi...

OrazioOC
19-06-2020, 10:49
https://videocardz.com/newz/rumored-geforce-rtx-3090-and-rtx-3080-specifcations-emerge

Specifiche sempre più confermate.

Andy1111
19-06-2020, 12:06
https://videocardz.com/newz/rumored-geforce-rtx-3090-and-rtx-3080-specifcations-emerge

Specifiche sempre più confermate.

We expect next-generation Ampere to feature at least 18 Gbps memory chips though.

ma le avete mai viste?

It is simply too early and based on the most recent information we have, the cards have not even entered a mass-production yet.

mi sa che le custom prima di novembre non le vedremo proprio

https://aibusiness.com/author.asp?section_id=796&doc_id=761641

Leggete la parte sotto :

The biggest challenge with designing GDDR6 memory systems is related to the much higher data rates that the devices run at.....................

altro che 1200€ a scheda per ste memorie che ancora non si trovano molto.

Thunder-74
19-06-2020, 12:38
Riassumendo le ultime indiscrezioni...

https://i.imgur.com/hdkXv5a.png

argez
19-06-2020, 12:39
https://videocardz.com/newz/rumored-geforce-rtx-3090-and-rtx-3080-specifcations-emerge

Specifiche sempre più confermate.

Si son sprecati a mettere 1gb di vram in più sulla Ti...nel caso in cui fosse confermata...

fraussantin
19-06-2020, 12:49
Riassumendo le ultime indiscrezioni...



https://i.imgur.com/hdkXv5a.pngCi corre troppo poco tra la 3080 e la 3080ti .

Se fosse cosí ho paura che non potrà costare troppo meno

OrazioOC
19-06-2020, 12:52
Ci corre troppo poco tra la 3080 e la 3080ti .

Se fosse cosí ho paura che non potrà costare troppo meno

3080 come sostituta della 2080 ti per prezzo e 3090 come sostituta effettiva della 2080 ti, easy. :D

fraussantin
19-06-2020, 12:55
3080 come sostituta della 2080 ti per prezzo e 3090 come sostituta effettiva della 2080 ti, easy. :D:asd: :doh:

Mi sa che a sto giro rasenta il millozzo la 3080 . Poi forse calerà..

Della 3070 non si sa nulla.

Che arrivi in ritardo come le x60?

Crysis90
19-06-2020, 12:55
3080 come sostituta della 2080 ti per prezzo e 3090 come sostituta effettiva della 2080 ti, easy. :D

Come sempre.
Nulla di nuovo.
Senza concorrenza in quelle fasce di prezzo, non cambierà MAI nulla.

E per chi pensa che RDNA2 possa cambiare qualcosa, secondo me rimarrà deluso (Vega insegna).

OrazioOC
19-06-2020, 13:17
:asd: :doh:

Mi sa che a sto giro rasenta il millozzo la 3080 . Poi forse calerà..

Della 3070 non si sa nulla.

Che arrivi in ritardo come le x60?

3070 vera sostituta della 2080/super, e dubito tantissimo che costerà anche solo come la 2070 super, non meno di 599 dollari.

TigerTank
19-06-2020, 13:43
Comunque boh, dopo aver letto anche i vari post sopra compresi quelli in risposta al mio, a me sembrerebbe strano che dopo delle Founders con doppia ventola in sostituzione al precedente blower singolo, ora la facciano di nuovo sempre da 2 slot classici ma con singola ventola e per di più appunto non radiale...cioè che non spinga l'aria lungo il pcb.
Staremo a vedere quando il capellone di Nexus apparirà con un video di smontaggio chirurgico(di solito è uno tra i primi) :sofico:

razor820
19-06-2020, 13:58
La serie founder 3x con una ventola sarebbe ridicolo. Inversamente potrebbe essere interessante se il prezzo fosse inferiore alla precedente serie per poi poterla liquidare

mikael84
19-06-2020, 14:27
quindi l'arcano mistero e' risolto, praticamente la nuova scheda avra' queste caratteristiche? mitico Mikael!non ti nego che entro su questo forum sopratutto per leggere te:D
ma comunque sono fonti certe? cioe' da dove sono trapelate queste info? se cosi' fosse prepariamoci ad un bel salto di prestazioni...ecco perche' credo proprio che i prezzi aumenteranno...non puoi mettere tutto sto ben di dio e chiedere meno di prima,comunque spero che le varie testate si sbaglino:O e che mi sbagli pure io riguardo ai prezzi...

Il micro chip è quello, non ci sono dubbi, ed è stato costruito qualche mese fa con un PP vecchio a 16nm.:)
Ovviamente, se l'adotteranno o meno, lo vedremmo il mese prossimo. :)
Con TDP così alti, non è certo da escludere.

We expect next-generation Ampere to feature at least 18 Gbps memory chips though.

ma le avete mai viste?

It is simply too early and based on the most recent information we have, the cards have not even entered a mass-production yet.

mi sa che le custom prima di novembre non le vedremo proprio


altro che 1200€ a scheda per ste memorie che ancora non si trovano molto.

Samsung ha solo le HC16, quelle montate nelle 2080 super (downclockate per giunta) e su alcune 2070 super.
Anche una MSI 2080ti le ha messe.

Micron, principale partner, ha ottenuto la certificazione poco fa.

Tuttavia c'è un'azienda che ha le 18 gb/s, la vecchia Rambus, ma le sue ram sono in commercio da tempo, non rientrando con gli accordi con nvidia come hynix.
Le 18 gb/s per averle di base, occorre che tutti i produttori le abbiano. Potrebbe farcela samsung, micron dovrebbe correre veramente.

Comunque boh, dopo aver letto anche i vari post sopra compresi quelli in risposta al mio, a me sembrerebbe strano che dopo delle Founders con doppia ventola in sostituzione al precedente blower singolo, ora la facciano di nuovo sempre da 2 slot classici ma con singola ventola e per di più appunto non radiale...cioè che non spinga l'aria lungo il pcb.
Staremo a vedere quando il capellone di Nexus apparirà con un video di smontaggio chirurgico(di solito è uno tra i primi) :sofico:

lo vedremmo prima, se aspettiamo il capellone, avremmo già le review :)


Si son sprecati a mettere 1gb di vram in più sulla Ti...nel caso in cui fosse confermata...

il gb in meno era dovuto alla devastazione di una partizione cache, se la devastazione non ci sarà, il chip guadagnerà cache l2, 1gb di ram e 8 rop's.

TigerTank
19-06-2020, 14:29
lo vedremmo prima, se aspettiamo il capellone, avremmo già le review :)

Ahahah è che lui proprio smonta i dissipatori scardinando anche le parti incollate :asd:

mattxx88
19-06-2020, 14:50
Ovviamente, se l'adotteranno o meno, lo vedremmo il mese prossimo. :)


:confused: :confused: che c'è il mese prossimo??

mikael84
19-06-2020, 15:00
Ahahah è che lui proprio smonta i dissipatori scardinando anche le parti incollate :asd:

Quello si, scommetto che non vede l'ora.:D
I dettagli li vedremmo già prima.

:confused: :confused: che c'è il mese prossimo??

Ora stanno lavorando proprio sul finale del progetto, dal mese prossimo, nvidia avrà probabilmente già i primi sample funzionanti, compreso il dissipatore finale.
Agosto dovrebbe essere speso per bios e driver.:)

parcher
19-06-2020, 15:48
Riassumendo le ultime indiscrezioni...

https://i.imgur.com/hdkXv5a.png

La 3090/3080TI attizza molto... :fiufiu:

thunderforce83
19-06-2020, 16:24
Il micro chip è quello, non ci sono dubbi, ed è stato costruito qualche mese fa con un PP vecchio a 16nm.:)
Ovviamente, se l'adotteranno o meno, lo vedremmo il mese prossimo. :)
Con TDP così alti, non è certo da escludere.

per quale motivo e' stato ingegnerizzato un sample a 16nm? non mi torna qualcosa...
dallo schema si evince qualcosa in particolare rispetto alla passata generazione?l architettura e' stata stravolta o solo affinata? in pratica il chip che va a coadiuvare il chip video racchiude la parte parte dei mos fet ecc? insomma sei riuscito a capire piu' o meno come e' strutturata tutta la scheda futura? certo che c'e' un grande dubbio su questa gddr6x e sopratutto sul reale processo produttivo che utilizzeranno per ogni chip...

Telstar
19-06-2020, 16:36
A differenza della cd project, nvidia campa vendendo schede video, già settembre sarebbe il periodo ideale, oltre ti scontri con le console.

Proprio per questo usciranno a settembre-ottobre.

mikael84
19-06-2020, 16:37
per quale motivo e' stato ingegnerizzato un sample a 16nm? non mi torna qualcosa...
dallo schema si evince qualcosa in particolare rispetto alla passata generazione?l architettura e' stata stravolta o solo affinata? in pratica il chip che va a coadiuvare il chip video racchiude la parte parte dei mos fet ecc? insomma sei riuscito a capire piu' o meno come e' strutturata tutta la scheda futura? certo che c'e' un grande dubbio su questa gddr6x e sopratutto sul reale processo produttivo che utilizzeranno per ogni chip...

La prima versione di quel chip è stata costruita a 16nm. Un chip da oltre 3mtransistor e 216mm2.
Chiaro che se abbinato al chip da ampere da 7nm, anche quello seguirà a ruota.:)
Potenza di quel piccoletto in TOPS pari ad una quadro rtx 6/8000 e 2080ti.

Sulle ram, ho fatto il punto sopra, le ddr6x non mi risultano proprio.:)

OrazioOC
19-06-2020, 16:39
Proprio per questo usciranno a settembre-ottobre.

Anche perchè turing è in giro da 2 anni, chi voleva una rtx 2000 di tempo per prendersela ne ha avuto parecchio :asd:.

thunderforce83
19-06-2020, 18:48
La prima versione di quel chip è stata costruita a 16nm. Un chip da oltre 3mtransistor e 216mm2.
Chiaro che se abbinato al chip da ampere da 7nm, anche quello seguirà a ruota.:)
Potenza di quel piccoletto in TOPS pari ad una quadro rtx 6/8000 e 2080ti.

Sulle ram, ho fatto il punto sopra, le ddr6x non mi risultano proprio.:)
secondo me il salto sara' notevole, superiore a quello dalla serie 1xxx a 2xxx...
Anche perchè turing è in giro da 2 anni, chi voleva una rtx 2000 di tempo per prendersela ne ha avuto parecchio :asd:.
secondo me e' pure tardi per sbarazzarsene, a meno che non sia a prezzo da saldo, oppure non si trova il classico pollo da spennare che non sa nulla di nulla delle nuove che escono:D. Aspetto questa nuova generazione da mesi, infatti mi sono dotato di muletto gia' parecchio tempo fa' e sinceramente mi ha dato molte piu' soddisfazioni questa piccola 1660S e non la 2080ti che avevo prima:D.
questa gen prendero' la meno costosa della famiglia,la 3080, e secondo me la1000euro parte facile facile gia' cosi':D :sofico:

OrazioOC
19-06-2020, 19:14
secondo me e' pure tardi per sbarazzarsene, a meno che non sia a prezzo da saldo, oppure non si trova il classico pollo da spennare che non sa nulla di nulla delle nuove che escono:D. Aspetto questa nuova generazione da mesi, infatti mi sono dotato di muletto gia' parecchio tempo fa' e sinceramente mi ha dato molte piu' soddisfazioni questa piccola 1660S e non la 2080ti che avevo prima:D.
questa gen prendero' la meno costosa della famiglia,la 3080, e secondo me la1000euro parte facile facile gia' cosi':D :sofico:

I prezzi di "late-turing" sono tutt'altro che invitanti, la stessa 1660 super che citi si trova a 270/280 euro su amazon, quando nel pre pandemia era veramente facile trovare delle buone dual fan msi/gigabyte a 230/240 euro spedita.
Non è saggio investire quasi 600 euro su una 2070 super oggi sapendo che la sostituta arriverà a fine estate/inizio autunno.

E chi ha una 1070/1080/ti arrivato a questo punto guarda ad ampere non a turing.
3080 costerà tanto, ma quelle specifiche ricalcano la 2080 ti in salsa ampere, 4352 cc sono tanti se consideriamo l'aumento di ipc e frequenze, oltre all'upgrade lato unità rt.

thunderforce83
19-06-2020, 20:55
I prezzi di "late-turing" sono tutt'altro che invitanti, la stessa 1660 super che citi si trova a 270/280 euro su amazon, quando nel pre pandemia era veramente facile trovare delle buone dual fan msi/gigabyte a 230/240 euro spedita.
Non è saggio investire quasi 600 euro su una 2070 super oggi sapendo che la sostituta arriverà a fine estate/inizio autunno.

E chi ha una 1070/1080/ti arrivato a questo punto guarda ad ampere non a turing.
3080 costerà tanto, ma quelle specifiche ricalcano la 2080 ti in salsa ampere, 4352 cc sono tanti se consideriamo l'aumento di ipc e frequenze, oltre all'upgrade lato unità rt.

effettivamente ho notato che sono aumentati i prezzi...ma credo sia dovuto piu' ad un effetto pandemia e la carenza di alcuni componenti e sopratutto le linee intasate di foxcon e partner varii, ma considera sempre che la 1660s e' una scheda entry level a cui molti si rivolgono...un cippetto poco costoso, un conto e' 250euro di 1660s un conto 1250euro di 2080ti a fine vita

mikael84
20-06-2020, 15:54
secondo me il salto sara' notevole, superiore a quello dalla serie 1xxx a 2xxx...



Quello dipenderà da vari fattori, come clock, memorie e migliorie interne.
Dovrebbero aumentare la l1 e la l2.
Uno dei freni è proprio la dimensione cache di 96kb per SM, considerando che 64kb servono per load store e 32 per la l1.
Portando la l1 a 128kb (come con volta), nvidia può di fatto raddoppiare la BW l1 e l'ampiezza.
Su Turing non c'è questo.
https://devblogs.nvidia.com/wp-content/uploads/2017/05/image13.png

thunderforce83
20-06-2020, 16:38
Quello dipenderà da vari fattori, come clock, memorie e migliorie interne.
Dovrebbero aumentare la l1 e la l2.
Uno dei freni è proprio la dimensione cache di 96kb per SM, considerando che 64kb servono per load store e 32 per la l1.
Portando la l1 a 128kb (come con volta), nvidia può di fatto raddoppiare la BW l1 e l'ampiezza.
Su Turing non c'è questo.
https://devblogs.nvidia.com/wp-content/uploads/2017/05/image13.png

effettivamente credo che a 7nm lato cache ed altre ottimizzazioni varie siano dovute, ma sicuramente ci saranno...
senza esagerare credo che la prossima generazione arrivi tranquillamente ad un piu 50% come ha fatto turing, visto che nvidia puo' dare l'ennesimo schiaffo tecnologico ad amd ed avere 2/3schede molto piu' potenti per far vedere che lei e' sempre la piu' avanzata sul fronte gpu, e sappiamo bene che a livello di marketing questo da moltissimi vantaggi.
Molto interessante il riassunto fatto su questa pagina, in cui praticamente si parla dell'improbabile veridicita' del rumor sulla 3090, in effetti se si legge in primis l'utilizzo della doppia gpu adesso sarebbe superfluo, eppoi comunque molto difficile da gestire in tutto...

https://global.techradar.com/en-za/news/i-wouldnt-bet-on-an-nvidia-geforce-rtx-3090-appearing

NAP.
20-06-2020, 16:52
Ma voi credete davvero in un'uscita a settembre? Se fosse così quando le presentano? Mi sembra strano non si abbia ne una data ne un evento cui ce lo si può aspettare

Andy1111
20-06-2020, 18:29
Ma voi credete davvero in un'uscita a settembre? Se fosse così quando le presentano? Mi sembra strano non si abbia ne una data ne un evento cui ce lo si può aspettare

A fine settembre qualche slide a ottobre le FE e le custom a novembre poi magari dico una cavolata ma questa è la mia idea, sono partiti in ritardo e ancora le devono produrre.

OrazioOC
21-06-2020, 08:50
https://videocardz.com/newz/nvidia-geforce-rtx-3080-ti-3090-ampere-3dmark-time-spy-score-leaks

Prendetelo con le ganasce, neanche con le pinze. :asd:

Thunder-74
21-06-2020, 08:50
Viviamo di Rumors...

Nel database 3DMark è stata individuata una scheda grafica GeForce sconosciuta che offre un aumento delle prestazioni del 30% rispetto all'attuale ammiraglia.

Il risultato del benchmark individuato da Rogame nel database 3DMark è nascosto (privato), il che significa che il risultato non è visibile al pubblico e non può essere collegato. Se il risultato mostrava una scheda grafica che era già stata rilasciata, è probabile che 3DMark avrebbe contrassegnato correttamente il risultato con il nome del modello di scheda grafica. Questo non era il caso di questa voce, poiché probabilmente dice solo VGA generica, ma rivela anche chi era il produttore e, in questo caso, era NVIDIA Corporation.

La scheda grafica individuata dal leaker ha un boost clock da 1935 MHz e un clock di memoria da 6000 MHz. Non siamo sicuri del motivo per cui il software 3DMark elenca la memoria come 6 GHz, per RTX 2080 Ti si dice 1750 MHz (moltiplicato per 8 per una velocità di 14 Gbps). Questa voce a 6 GHz potrebbe confermare che il tipo di memoria non viene rilevato dal software ed è davvero la prossima variante GDDR6X, tuttavia, non ha senso se lo moltiplichiamo per 2 (12 Gbps) o 4 (24 Gbps).

Il risultato mette la scheda grafica al 31% in più rispetto alla GeForce RTX 2080 Ti di serie. Il percorso di aggiornamento del 30% per le serie successive è un aumento medio delle prestazioni per generazione. Pertanto, si prevede che il modello elencato sia effettivamente RTX 3080 Ti o come lo chiamano gli altri leaker, RTX 3090.

https://cdn.videocardz.com/1/2020/06/NVDIA-GeForce-RTX-30-Ampere-3DMark-1.png

https://cdn.videocardz.com/1/2020/06/NVDIA-GeForce-RTX-30-Ampere-3DMark-2.png

FONTE (https://videocardz.com/newz/nvidia-geforce-rtx-3080-ti-3090-ampere-3dmark-time-spy-score-leaks)

amon.akira
21-06-2020, 09:55
la 3080ti? penso sarebbe una 3080 con quel punteggio, altrimenti non avrebbe senso.

TigerTank
21-06-2020, 09:58
Se fosse la 3080 a default sarebbe gran cosa :)

amon.akira
21-06-2020, 10:00
Se fosse la 3080 sarebbe gran cosa :)

sarebbe il giusto... nuovo nodo, ipc migliorato, tdp maggiorato XD

fraussantin
21-06-2020, 10:06
Se ti danno una GPU a 1000\1100 euro che va il 30% in più di una che costava 1400 sembra quasi un affare :doh:

Giovamas
21-06-2020, 10:09
quella è una 3080 raga

TigerTank
21-06-2020, 10:26
Se ti danno una GPU a 1000\1100 euro che va il 30% in più di una che costava 1400 sembra quasi un affare :doh:

Eh c'è da augurarsi che le 3080 non abbiano quel prezzo di lancio o mi dispiace ma visti i tempi attuali di rincari vari...mi tengo quella che ho adesso ad oltranza e amen :D

sarebbe il giusto... nuovo nodo, ipc migliorato, tdp maggiorato XD

E auguriamoci un buon margine di OC per divertirsi un pò e, spremere un pò più di framerate soprattutto se fossero carucce.

Thunder-74
21-06-2020, 10:39
Paragonate il punteggio alla founders , non alla stra pompata in testa .... più 30% .... quella è una 3090/3080ti con clock a riposo... spero


Inviato dal mio iPhone X utilizzando Tapatalk

TigerTank
21-06-2020, 10:47
Paragonate il punteggio alla founders , non alla stra pompata in testa .... più 30% .... quella è una 3090/3080ti con clock a riposo... spero


Inviato dal mio iPhone X utilizzando Tapatalk

Se così fosse, probabilmente avremmo lo stesso stacco che c'è tra 1080Ti e 2080Ti ma ad un probabile costo ancora più alto...
Tralasciando la questione RT.

ultimate trip
21-06-2020, 11:19
quella è una 3080 raga

e che farebbe +50% rispetto alla 2080/S? non è un po' troppo come salto considerando anche che in RT faranno nettamente meglio rispetto alla serie 2000? per me è la ti

Thunder-74
21-06-2020, 11:36
Se così fosse, probabilmente avremmo lo stesso stacco che c'è tra 1080Ti e 2080Ti ma ad un probabile costo ancora più alto...
Tralasciando la questione RT.

Si Tiger, io mi aspetto una cosa del genere... in Raster +30/40% tra le due e tanta roba in Ray Tracing.

Mettiamoci che probabilmente è un sample , quindi magari il clock è conservativo, drivers poco maturi... diciamo che un 40% ci può stare rispetto alla founders. Sarebbe veramente bello se fosse la 3080. Salto notevole tipo Maxwell /Pascal, ma ne dubito. Comunque ricordo un "discorso" analogo di Mike in proposito.

Aggiungo riepilogo indiscrezioni attuali:

https://i.imgur.com/xy9QSUE.png

Ubro92
21-06-2020, 11:51
Bhè la 2080ti è molto strozzata sul PL.
Se queste turing non hanno limitazioni grosse, considerato il TDP, lo stacco potrebbe essere simile a 980ti VS 1080ti quindi anche del 60-65%

amon.akira
21-06-2020, 11:51
è una 3080 al 100% x me, quel +30% dalla founder con pari cuda ci sta alla grande, poi c'è default e default...se queste nascono già piu spinte energeticamente, si potranno spingere meno... almeno ad aria.

Thunder-74
21-06-2020, 11:53
è una 3080 al 100% x me, quel +30% dalla founder con pari cuda ci sta alla grande, poi c'è default e default...se queste nascono già piu spinte energeticamente, si potranno spingere meno... almeno ad aria.

Auguriamocelo... vedo però sul web tutti indicarla come 3090/3080ti...

Ubro92
21-06-2020, 11:55
è una 3080 al 100% x me, quel +30% dalla founder con pari cuda ci sta alla grande, poi c'è default e default...se queste nascono già piu spinte energeticamente, si potranno spingere meno... almeno ad aria.

Sempre da vedere...
Dato il TDP i dissipatori devono essere per forza più spinti delle precedenti, e ci saranno anche le custom che a loro volta saranno leggermente più spinte a default.

Probabile che vedremo soluzioni a 2.5 slot e belle pesanti :fagiano:

mikael84
21-06-2020, 12:02
https://videocardz.com/newz/nvidia-geforce-rtx-3080-ti-3090-ampere-3dmark-time-spy-score-leaks

Prendetelo con le ganasce, neanche con le pinze. :asd:

Potrebbe essere qualche primo ES.
Non a senso però parlare di percentuali visto i clock degli ES, basti vedere la memoria che riportano 12gb/s, un freno a mano tirato per un chip del genere.
Quella sarà minimo a 16 gb/s.

OrazioOC
21-06-2020, 12:05
Potrebbe essere qualche primo ES.
Non a senso però parlare di percentuali visto i clock degli ES, basti vedere la memoria che riportano 12gb/s, un freno a mano tirato per un chip del genere.
Quella sarà minimo a 16 gb/s.

Potrebbe benissimo essere un errore di lettura in quel caso, ma comunque staremo a vedere, da qui a settembre potremmo vederne delle belle. :asd:

Thunder-74
21-06-2020, 12:08
Potrebbe essere qualche primo ES.
Non a senso però parlare di percentuali visto i clock degli ES, basti vedere la memoria che riportano 12gb/s, un freno a mano tirato per un chip del genere.
Quella sarà minimo a 16 gb/s.

Quindi anche tu credi sia una 3080ti/3090 ...

thunderforce83
21-06-2020, 12:12
https://videocardz.com/newz/nvidia-geforce-rtx-3080-ti-3090-ampere-3dmark-time-spy-score-leaks

Prendetelo con le ganasce, neanche con le pinze. :asd:

aaaa che bello:D questo si che e' un bel modo per dire buona domenica:sofico:
comunque la 3080 con cavolo ragazzi! non puo' mai essere...una 3080 che supera la vecchia top della passata gen in enginnering sample non penso proprio...poi a vedere il clock bassissimo queste sono solo delle prove quindi deduco che si tratta del chip full, in modalita' relax,giusto per fare qualche test a livello di software ecc...non oso immaginare questo chip alla massima potenza e con tutte le ottimizzazioni del caso...sicuramente sara' almeno la 3080ti ma comunque siamo di fronte ad un balzo NOTEVOLE secondo me...mi sa tanto che e' il momento giusto per passare ad una bella LG OLED55CX6LA che di potenza c'e' ne sara' molta! :D :) :sofico: :oink:

mikael84
21-06-2020, 12:15
Potrebbe benissimo essere un errore di lettura in quel caso, ma comunque staremo a vedere, da qui a settembre potremmo vederne delle belle. :asd:

No, sono i primi test di convalida, di certo non sparano i clock inizialmente:)

Quindi anche tu credi sia una 3080ti/3090 ...

Si fa pensare a qualche primo sample di prova a clock bassi. Anche ga100 girava in es a 1100. Idem le ram a 6000.

La 3080 è essenzialmente in raster una 2080ti, con qualche probabile miglioria alla cache l1/l2, più clock di GPU e ram superiori.
la 3080ti gli starà un 20% sopra.

In raster non mi aspetto miracoli.:(

Thunder-74
21-06-2020, 12:40
No, sono i primi test di convalida, di certo non sparano i clock inizialmente:)



Si fa pensare a qualche primo sample di prova a clock bassi. Anche ga100 girava in es a 1100. Idem le ram a 6000.

La 3080 è essenzialmente in raster una 2080ti, con qualche probabile miglioria alla cache l1/l2, più clock di GPU e ram superiori.
la 3080ti gli starà un 20% sopra.

In raster non mi aspetto miracoli.:(


Stesso tuo pensiero .... vabbè già so come andrà a finire ... :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

Crysis90
21-06-2020, 12:48
Se fosse la 3080 a default sarebbe gran cosa :)
Non per i nostri portafogli. :(
quella è una 3080 raga
Da quel che ne sappiamo, può anche essere un emerito fake. :D

TigerTank
21-06-2020, 12:56
Credo che ormai se l'andazzo sarà quello di turing, nulla sarà più portafogli-friendly...

I bei tempi delle x80 a 500€ sono ormai estinti.

ste-87
21-06-2020, 13:14
Credo che ormai se l'andazzo sarà quello di turing, nulla sarà più portafogli-friendly...

I bei tempi delle x80 a 500€ sono ormai estinti.

siamo d'accordo...tanto ormai il mercato gli da ragione ad ogni aumento di prezzo, chi farebbe il contrario al loro posto? ma passare dai 500 ai molto probabili 900 SE fosse davvero la 3080 liscia lascia fa riflettere, è "solo" un aumento dell'80% del prezzo a parità di fascia, niente di che... :mc:

poi di sicuro ci sarà chi esce col ragionamento "eh ma a 900€ e fa il 30% in più della 2080Ti a 1200€ è un affare!!!11!1" che non vede neanche più in là del suo naso a mio modo di vedere, dato che con questo ragionamento si da modo a loro di continuare ad alzare i prezzi ad ogni serie e la prossima "4080" invece che a 900 la trovi a 1100 :doh:

---

comunque tralasciando il discorso prezzi, spero sia davvero una 3080 liscia lato prestazioni con frequenze rilevate male, se fosse la TI un misero 31% tra cambio pp, architettura, IPC e quant'altro ci vuoi mettere mi sembra davvero sotto tono anche se poi diventasse un 40% (da Ti a TI) con l'arrivo dei driver appositi

DarkNiko
21-06-2020, 13:20
Mi spiegate, sempre "cum grano salis", perché una eventuale Titan Ampére abbia una banda passante minore pur montando le GDDR6X della eventuale 3090 (o 3080 Ti) ? E' solo una questione legata al clock delle memorie ?

DarkNiko
21-06-2020, 13:23
comunque tralasciando il discorso prezzi, spero sia davvero una 3080 liscia lato prestazioni con frequenze rilevate male, se fosse la TI un misero 31% tra cambio pp, architettura, IPC e quant'altro ci vuoi mettere mi sembra davvero sotto tono anche se poi diventasse un 40% (da Ti a TI) con l'arrivo dei driver appositi

Sotto tono ? Forse hai ragione, però allora mi/ti domando: di quant'è il divario tra una 980Ti e una 1080Ti ? Non mi sembra che le percentuali siano così diverse. A conti fatti c'è un 50% in più di prestazioni, non è poco, ma non è il doppio, se è questo ciò che uno cerca. Anche tra 1080Ti e 2080Ti la percentuale è sempre sul 50%

Andy1111
21-06-2020, 13:40
Sotto tono ? Forse hai ragione, però allora mi/ti domando: di quant'è il divario tra una 980Ti e una 1080Ti ? Non mi sembra che le percentuali siano così diverse. A conti fatti c'è un 50% in più di prestazioni, non è poco, ma non è il doppio, se è questo ciò che uno cerca. Anche tra 1080Ti e 2080Ti la percentuale è sempre sul 50%

mi sa che ti sbagli qua una 1080 TI reference contro una 2080 TI custom quindi una 1080 ti custom va molto di più di una reference monoventola, 50% non esiste proprio.

https://tpucdn.com/review/asus-geforce-rtx-2080-ti-matrix/images/relative-performance_3840-2160.png

E ho messo una 2080 TI custom bella spinta se andiamo a vedere la FE è ancora meno

https://tpucdn.com/review/nvidia-geforce-rtx-2080-ti-founders-edition/images/relative-performance_3840-2160.png

Jeetkundo
21-06-2020, 13:51
quella è una 3080 ragaCi metterei subito la firma! Ma sembra troppo bello per essere vero

Inviato dal mio LYA-L09 utilizzando Tapatalk

slide1965
21-06-2020, 13:59
faccio il nostradamus de "noiartri", sperando di sbagliarmi e augurandomi che l'incremento sia assai piu ampio:
prestazioni 3080=2080ti
prestazioni 3080ti=+30/35% dalla 2080ti/3080
:read: :stordita:

amon.akira
21-06-2020, 14:03
faccio il nostradamus de "noiartri", sperando di sbagliarmi e augurandomi che l'incremento sia assai piu ampio:
prestazioni 3080=2080ti
prestazioni 3080ti=+30/35% dalla 2080ti/3080
:read: :stordita:

significa che svaluteranno meno le vecchie, le 2080ti 800usate dopo 2anni dai non è male, e con 1gb in piu :asd:

ste-87
21-06-2020, 14:08
Sotto tono ? Forse hai ragione, però allora mi/ti domando: di quant'è il divario tra una 980Ti e una 1080Ti ? Non mi sembra che le percentuali siano così diverse. A conti fatti c'è un 50% in più di prestazioni, non è poco, ma non è il doppio, se è questo ciò che uno cerca. Anche tra 1080Ti e 2080Ti la percentuale è sempre sul 50%

infatti mi aspetto/spero ci sia un salto almeno del 50%...già i prezzi lievitano per fascia ad ogni uscita, se poi si stà tra un 35 masismo 40% risicato anche con un salto pp oltre al cambio architettura siamo davvero alla frutta...io almeno la vedo così :boh:

TigerTank
21-06-2020, 14:22
significa che svaluteranno meno le vecchie, le 2080ti 800usate dopo 2anni dai non è male, e con 1gb in piu :asd:

Poi ci penseranno i drivers e relative "ottimizzazioni" :fagiano:
Scherzi a parte, io credo che con titoli tipo Cyberpunk sarò l'ambito RT a creare il divario prestazionale "psicologico".

mikael84
21-06-2020, 14:37
Stesso tuo pensiero .... vabbè già so come andrà a finire ... :fagiano:


Inviato dal mio iPhone X utilizzando Tapatalk

Bisogna vedere clock ram e vram ed IPC.
https://www.hwupgrade.it/forum/showpost.php?p=46844548&postcount=47706

Il lavoro sulla l1, dovrebbe essere realtà, questo significherebbe aumento BW e dimensione. Ricordiamo che Haswell e zen 2 hanno tratto dei grossi benefici proprio da qua.:)



Da quel che ne sappiamo, può anche essere un emerito fake. :D

O è fake, o è un es downclock, visto le rma.
Se andiamo a vedere, flops per flops è pari alla KIP a 2300 ed oltre.



comunque tralasciando il discorso prezzi, spero sia davvero una 3080 liscia lato prestazioni con frequenze rilevate male, se fosse la TI un misero 31% tra i

Una TI a clock da es. Anche ga100 girava in es a 1100

Mi spiegate, sempre "cum grano salis", perché una eventuale Titan Ampére abbia una banda passante minore pur montando le GDDR6X della eventuale 3090 (o 3080 Ti) ? E' solo una questione legata al clock delle memorie ?

Perchè la Titan usa ram da 17 gb/s a doppia densità (1 chip 2 gb), la 3080ti usa ram che non esistono a 21 gb/s.

Si le ram a 21 gb/s gddr6x non esistono è pura fantasia.

Attualmente samsung e micron vanno a 16, rambus a 18, ma nessuno se l'è mai cagata.

slide1965
21-06-2020, 15:11
Poi ci penseranno i drivers e relative "ottimizzazioni" :fagiano:
Scherzi a parte, io credo che con titoli tipo Cyberpunk sarò l'ambito RT a creare il divario prestazionale "psicologico".
concordo:rolleyes:
significa che svaluteranno meno le vecchie, le 2080ti 800usate dopo 2anni dai non è male, e con 1gb in piu :asd:
:stordita:

mikael84
21-06-2020, 15:18
Poi ci penseranno i drivers e relative "ottimizzazioni" :fagiano:
Scherzi a parte, io credo che con titoli tipo Cyberpunk sarò l'ambito RT a creare il divario prestazionale "psicologico".

Penso che JHH, nelle slide, neppure sbandiererà la potenza raster, magari l'accennerà solo. Immagino varie slide, dove si vedranno certe percentuali assurde tutte in RT e deep learning. Probabilmente vedremmo minecraft girare degnamente.:p

Cmq non c'è bisogno di azzoppare turing per il RT, ci ha già pensato JHH all'uscita.

devAngnew
21-06-2020, 18:10
Penso che JHH, nelle slide, neppure sbandiererà la potenza raster, magari l'accennerà solo. Immagino varie slide, dove si vedranno certe percentuali assurde tutte in RT e deep learning. Probabilmente vedremmo minecraft girare degnamente.:p

Cmq non c'è bisogno di azzoppare turing per il RT, ci ha già pensato JHH all'uscita.

Bhe, allora speriamo che non sia cosi, perchè a detta di Nvidia gli stream processor per il raytracing servono eccome, visto che rt core calcola solo se ci sono o meno le collisione con le geometrie. :D

https://iili.io/JLzvXs.png

mikael84
21-06-2020, 18:18
Bhe, allora speriamo che non sia cosi, perchè a detta di Nvidia gli stream processor per il raytracing servono eccome, visto che rt core calcola solo se ci sono o meno le collisione con le geometrie. :D



La potenza raster ci sarà, e magari ci sorprenderà pure, però probabilmente si focalizzerà sul RT, non su un probabile +40% raster.:)

Crysis90
21-06-2020, 20:14
Se andiamo a vedere, flops per flops è pari alla KIP a 2300 ed oltre.




Mi sembra tanto un +30% a quelle frequenze sinceramente, tenendo di conto che la 3080 avrebbe lo stesso identico numero di SP della 2080 Ti.

IMHO, non ha senso.

mikael84
21-06-2020, 20:21
Mi sembra tanto un +30% a quelle frequenze sinceramente, tenendo di conto che la 3080 avrebbe lo stesso identico numero di SP della 2080 Ti.

IMHO, non ha senso.

Il rapporto flops è inteso su una simil full 3080ti con 5376/5248cc.
Naturalmente è troppo presto, quello o è fake o è un es a basso clock (vedi ram).:)

DarkNiko
21-06-2020, 20:29
@mikael84

Grazie. ;)

NAP.
21-06-2020, 20:30
Se fosse la 3080 sarebbe un bel salto, se è la TI no

Nurabsa
22-06-2020, 08:08
nel computo di tutte le migliorie andra tanto forte da giustificare il cambio.
Non penso di rivedere il gap prestazionale visto tra 28/16 quei tempi non ritorneranno.
Ammesso che sia il sample che andra in produzione con quella simpatica r al posto della vecchia g è bene prepararsi cifre a tre zeri su una 3080 FE.
Per una buona custom chiedere a findomestic

argez
22-06-2020, 08:41
nel computo di tutte le migliorie andra tanto forte da giustificare il cambio.
Non penso di rivedere il gap prestazionale visto tra 28/16 quei tempi non ritorneranno.
Ammesso che sia il sample che andra in produzione con quella simpatica r al posto della vecchia g è bene prepararsi cifre a tre zeri su una 3080 FE.
Per una buona custom chiedere a findomestic


Ecco continuate a prepararvi... voglio vedere giustificandogli questi prezzi assurdi dove arriveremo.

Nurabsa
22-06-2020, 09:28
Ecco continuate a prepararvi... voglio vedere giustificandogli questi prezzi assurdi dove arriveremo.

mi trovi in linea -di pensiero-
seguo con piacere le news da 5 anni niente di piu. sempre piu felice del mio mostro copper aluminium oldpp

fraussantin
22-06-2020, 09:28
Ecco continuate a prepararvi... voglio vedere giustificandogli questi prezzi assurdi dove arriveremo.Il dissipatore più caro di sempre :asd:

TigerTank
22-06-2020, 09:53
mi trovi in linea -di pensiero-
seguo con piacere le news da 5 anni niente di piu. sempre piu felice del mio mostro copper aluminium oldpp

Ciao Nurabsa! Dai però, è ora di un bell'upgrade e di approdare anche al ray tracing :cool: :D

Crysis90
22-06-2020, 10:33
Ecco continuate a prepararvi... voglio vedere giustificandogli questi prezzi assurdi dove arriveremo.

Infatti non sono minimamente giustificabili.

Ma la colpa è della concorrenza, che continua a restare TROPPO indietro ormai da 4 anni. :muro:

mikael84
22-06-2020, 10:39
Esce anche la versione pcie di ampere HPC.
TDP ridotto da 400 a 250watt.
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/53450-a100-pcie-nvidia-ga100-gpu-kommt-auch-als-pci-express-variante.html

AceGranger
22-06-2020, 10:47
Esce anche la versione pcie di ampere HPC.
TDP ridotto da 400 a 250watt.
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/53450-a100-pcie-nvidia-ga100-gpu-kommt-auch-als-pci-express-variante.html

e stessi TFlops;

per buona pace degli sveglioni che non volevano capire che i 400W della versione mezzanino erano obbligati dalla presenza di tutti quei canali nVlink e da un throughput totale della GPU superiore.

Ubro92
22-06-2020, 10:50
nel computo di tutte le migliorie andra tanto forte da giustificare il cambio.
Non penso di rivedere il gap prestazionale visto tra 28/16 quei tempi non ritorneranno.
Ammesso che sia il sample che andra in produzione con quella simpatica r al posto della vecchia g è bene prepararsi cifre a tre zeri su una 3080 FE.
Per una buona custom chiedere a findomestic

In realtà è un bene, i 28nm sono rimasti più tempo del previsto sul mercato, se nvidia non avesse tirato fuori maxwell e se la stessa architettura non fosse stata molto propensa a salire di clock rispetto a kepler sarebbe stata molto strozzata, in stile Turing...

Infatti nel passaggio ai 16nm nvidia campò di rendita, internamente Pascal è un Maxwell 1 a 1, non ci sono neanche incrementi di ipc, le migliorie sono prettamente date dai clock notevolmente superiori e dalla maggior densità di cc.

Poi per i chip finali è troppo presto, forse per la fine del mese potremmo iniziare a vedere qualcosa ma per gli ES effettivi se ne parla a fine luglio...

OrazioOC
22-06-2020, 10:52
e stessi TFlops;

per buona pace degli sveglioni che non volevano capire che i 400W della versione mezzanino erano obbligati dalla presenza di tutti quei canali nVlink e da un throughput totale della GPU superiore.

Con buona pace di chi pensava che l'80% dei transistors rispetto alla vecchia architettura li ha presi cambiandole il nome. :asd:

Turing sui 7nm è terrificante altro che. :asd:

mikael84
22-06-2020, 11:00
Con buona pace di chi pensava che l'80% dei transistors rispetto alla vecchia architettura li ha presi cambiandole il nome. :asd:

Turing sui 7nm è terrificante altro che. :asd:

Siamo vicini al 160% di transistor.:p

Ale55andr0
22-06-2020, 12:22
Infatti non sono minimamente giustificabili.

Ma la colpa è della concorrenza, che continua a restare TROPPO indietro ormai da 4 anni. :muro:

no, la colpa è di chi compra. Se gliele lasci sullo scaffale (non è il pane da mettere a tavola) o abbassi i prezzi o abbassi i prezzi, concorrenza o meno

fraussantin
22-06-2020, 12:28
no, la colpa è di chi compra. Se gliele lasci sullo scaffale (non è il pane da mettere a tavola) o abbassi i prezzi o abbassi i prezzi, concorrenza o menoNon si tratta solo di abbassare i prezzi , ma anche di fare prodotti più economici.

Per esempio una gtx 1880 senza rtx a 450 dollari poteva benissimo coesistere con le Turing classiche.

dovahkiin
22-06-2020, 12:29
The A100 PCIe has a TDP of 250W.
According to ComputeBase who quotes NVIDIA, the card does indeed have lower TDP specs.
For comparison, the SXM variant has a TDP of 400W.
However, despite the lower TDP of the PCIe model, NVIDIA says that the peak power for both models is the same, only during a sustained load will provide 10 to 50% lower performance than SXM4 based variant.

https://videocardz.com/newz/nvidia-announces-a100-pcie-accelerator

Ale55andr0
22-06-2020, 12:40
Non si tratta solo di abbassare i prezzi , ma anche di fare prodotti più economici.

Per esempio una gtx 1880 senza rtx a 450 dollari poteva benissimo coesistere con le Turing classiche.

se non gliele compri i prodotti sono più economici di conseguenza in tutta la lineaup, non sparisce la suddivisione in fasce, quindi avrai anche il prodotto di base in un contesto che comunque vedrà prezzi mediamente più calmierati in ogni segmento coperto

AceGranger
22-06-2020, 12:45
no, la colpa è di chi compra. Se gliele lasci sullo scaffale (non è il pane da mettere a tavola) o abbassi i prezzi o abbassi i prezzi, concorrenza o meno

se offre prestazioni per le quali vale la pena spendere non capisco dove sia il problema;
che tu non le ritenga tali è un'altro paio di maniche e un tuo problema.


anche perchè, se guardo dall'altra parte, trovo solo roba meno potente, driver demmerda e supporto quasi nullo ;).

argez
22-06-2020, 12:46
no, la colpa è di chi compra. Se gliele lasci sullo scaffale (non è il pane da mettere a tavola) o abbassi i prezzi o abbassi i prezzi, concorrenza o meno

Condivido. Certo se quegli stronzi di amd avessero fatto meno cartello con rdna magari la cresta l'avrebbero già abbassata per la prossima generazione.
Speriamo solo di tornare al 2006 quando tutti compravano la 360 per giocare a cod. Magari si danno una calmata sia con i prezzi del hw che con quelli del sw.

Ale55andr0
22-06-2020, 12:58
se offre prestazioni per le quali vale la pena spendere non capisco dove sia il problema;
che tu non le ritenga tali è un'altro paio di maniche e un tuo problema.
.

non ero io che mi lagnavo del prezzo e tiravo fuori sulla concorrenza eh, rispondevo a chi lo faceva dicendo cosa serve per vedere scendere i prezzi :read: . Ergo cambia quote (e magari tono...)

Ale55andr0
22-06-2020, 13:03
Condivido. Certo se quegli stronzi di amd avessero fatto meno cartello con rdna magari la cresta l'avrebbero già abbassata per la prossima generazione.
Speriamo solo di tornare al 2006 quando tutti compravano la 360 per giocare a cod. Magari si danno una calmata sia con i prezzi del hw che con quelli del sw.


quegli "stronzi" fanno cartello perchè magari gli è più conveniente non abbassare i prezzi visto che comunque sono più bassi a pari segmento e se tanto l'utente medio in caso di tagli importanti e reazione della rivale dice "ottimo, così prendo una verde a 50 euro in meno" :asd:

AceGranger
22-06-2020, 13:05
non ero io che mi lagnavo del prezzo e tiravo fuori sulla concorrenza eh :read: . Ergo cambia quote (e magari tono...)

perchè che tono è :mbe:

mica è un crimine avere un problema con i prezzi.

era un tu generico che seguiva i quote, se ti turba edito con una cosa piu generica :stordita:

fraussantin
22-06-2020, 13:06
quegli "stronzi" fanno cartello perchè magari gli è più conveniente non abbassare i prezzi visto che comunque sono più bassi a pari segmento e se tanto l'utente medio in caso di tagli importanti e reazione della rivale dice "ottimo, così prendo una verde a 50 euro in meno" :asd:

Lo dicevano anche per le CPU , e adesso tutti comprano ryzen.

Tu digli ad amd di fare una bella scheda a buon prezzo e vedrai che la vende.

Ale55andr0
22-06-2020, 13:07
perchè che tono è :mbe:

mica è un crimine avere un problema con i prezzi.

il problema è che il problema è tuo, non mio, vediamo se è più chiaro così

Ale55andr0
22-06-2020, 13:09
Lo dicevano anche per le CPU , e adesso tutti comprano ryzen.

Tu digli ad amd di fare una bella scheda a buon prezzo e vedrai che la vende.

Ovvio. Ma quello fa ti vendere qualche vga in più, non crea stravolgimenti di mercato con un abbassamento del prezzo medio dell'intero settore vga...per quello come detto servono mosse forti da parte dell'utenza, non delle aziende che non stanno li' a fare il comodo nostro

amon.akira
22-06-2020, 13:10
se non gliele compri i prodotti sono più economici di conseguenza in tutta la lineaup, non sparisce la suddivisione in fasce, quindi avrai anche il prodotto di base in un contesto che comunque vedrà prezzi mediamente più calmierati in ogni segmento coperto

diciamo che il prezzo della 2080ti fosse stato 700euro, ci sarebbe sempre stato l alessandro di turno che può spendere max 300euro, ma che vuole comunque il top e continuerebbe a dire...non gliele comprate cosi abbassano a 300.

(sostituite le cifre con prezzi a piacere, il risultato non cambia).


comunque tra un po sarà veramente quello il prezzo della 2080ti forse anche meno...quindi potete comprarla, ma ovviamente si vorrà la 3080ti a 700

AceGranger
22-06-2020, 13:12
Ovvio. Ma quello fa ti vendere qualche vga in più, non crea stravolgimenti di mercato con un abbassamento del prezzo medio dell'intero settore vga...per quello come detto servono mosse forti da parte dell'utenza, non delle aziende che non stanno li' a fare il comodo nostro

Ryzen ha fatto abbassare tutta la fascia consumer e HEDT di Intel;

le GPU, semplicemente, non sono all'altezza della concorrenza, ne piu ne meno, e la gente acquista quello che c'è.

Ale55andr0
22-06-2020, 13:17
diciamo che il prezzo della 2080ti fosse stato 700euro, ci sarebbe sempre stato l'alessandro di turno che può spendere max 300euro, ma che vuole comunque il top e continuerebbe a dire...non gliele comprate cosi abbassano a 300.

(sostituite le cifre con prezzi a piacere, il risultato non cambia).


comunque tra un po sarà veramente quello il prezzo della 2080ti forse anche meno...quindi potete comprarla, ma ovviamente si vorrà la 3080ti a 700

beh, ma l'alessandro di turno da solo non fa il mercato, ci sarà sempre il singolo che si lagna ma parla da se', è un goccia nell'oceano :). Nel caso specifco poi, se il nome non l'hai scelto a caso con me hai sbagliato in pieno visto che non ho mai chiesto ne preteso prestazioni da supertop a 300 :asd:
Imho già che ci sono le fasce top dovrebbero essere sui 500-600 come "una volta", diciamo la suddivisione che avevamo ai tempo di 680 e 7970, con il resto delle fasce a scalare

Ale55andr0
22-06-2020, 13:20
Ryzen ha fatto abbassare tutta la fascia consumer e HEDT di Intel;

le GPU, semplicemente, non sono all'altezza della concorrenza, ne piu ne meno, e la gente acquista quello che c'è.

AMD non ha stra-venduto nemmeno quando dava le prestazioni di fascia titan a 400euro (290) o ai tempi della 4870/4890 che nel rapporto prezzo prestazioni annichilivano la concorrenza (e non si poteva nemmeno usare la scusa dei consumi li')..ergo nel caso delle gpu il discorso è ben più ampio del semplicistico "prodotto buono a prezzo buono" e via alle vendite stellari. Semplicemente il fattore "playstation" sul mercato delle gpu è molto, molto più forte che nel mercato cpu (e si' che intel stravende uguale allo stato attuale..pensa te)

amon.akira
22-06-2020, 13:21
beh, ma l'alessandro di turno, da solo non fa il mercato, ci sarà sempre il singolo che si lagna ma parla da se :). Nel caso specifco poi, se il nome non l'hai scelto a caso con me hai sbagliato in pieno visto che non ho mai chiesto ne preteso prestazioni da supertop a 300 :asd:
Imho già che ci sono le fasce top dovrebbero essere sui 500-600 come "una volta", diciamo la suddivisione che avevamo ai tempo di 680 e 7970, con il resto delle fasce a scalare

all epoca sentito già dire in giro che 700 per una scheda video era una follia, quindi nulla è cambiato...basta comprare nella propria fascia di prezzo...se nella propria fascia di prezzo non c'è incremento prestazionale, tanto meglio aspetti la prossima serie e hai risparmiato ulteriormente allungando la vita della scheda video.

che poi con la 1080 se giochi a 1080p fai piu frame di una 2080ti a 4k, quindi potresti aspettare fino alla ps6 in teoria.

Ale55andr0
22-06-2020, 13:26
all epoca sentito già dire in giro che 700 per una scheda video era una follia, quindi nulla è cambiato...basta comprare nella propria fascia di prezzo...se nella propria fascia di prezzo non c'è incremento prestazionale, tanto meglio aspetti la prossima serie e hai risparmiato ulteriormente allungando la vita della scheda video.

che poi con la 1080 se giochi a 1080p fai piu frame di una 2080ti a 4k, quindi potresti aspettare fino alla ps6 in teoria.


Non capisco perchè parli di me, io non devo cambiare vga :D


Poi...sui 700, beh infatti sforano la fascia dei 5-600 :D, ma da li' a dire che i sono quello che vuole le prestazioni top ma non posso/voglio spendere più di 300 è un arrotondamento un tantinello "menestrellato" diciamo :sofico:

amon.akira
22-06-2020, 13:36
Non capisco perchè parli di me, io non devo cambiare vga :D


Poi...sui 700, beh infatti sforano la fascia dei 5-600 :D, ma da li' a dire che i sono quello che vuole le prestazioni top ma non posso/voglio spendere più di 300 è un arrotondamento un tantinello "menestrellato" diciamo :sofico:

era un discorso generico, non fossilizziamoci su 700 600 300 o alessandro :D

mi riferivo al fatto, non compriamo cosi abbassano...visto che già vendono schede da 100 a 1000 e c'è un modello ogni 100euro. ci sono anche le console che sono convenienti eh

scorpion73
22-06-2020, 13:38
Boh io resto sempre dell'idea che se tu vendi a prezzi più bassi un prodotto di qualità ne vendi il triplo, e anche gente che normalmente si farebbe una scheda di fascia più bassa, di fronte ad un prezzo aggressivo (ovviamente non uguale a quello della fascia inferiore, ma più aggressivo di quelli attuali) secondo me sarebbe spinta a fare uno sforzo in più e prendersi una VGA più potente.
E Nvidia non solo recupererebbe quel margine, ma secondo me cosi' facendo ne farebbe molto di più.
Ma sono solo mie opinioni, ovviamente.

Ale55andr0
22-06-2020, 13:58
era un discorso generico, non fossilizziamoci su 700 600 300 o alessandro :D

mi riferivo al fatto, non compriamo cosi abbassano...visto che già vendono schede da 100 a 1000 e c'è un modello ogni 100euro. ci sono anche le console che sono convenienti eh

Si, ma il divario prestazionale è meno favorevole rispetto al passato. La quasi top di gamma 2080 andava quanto la top precedente in pratica e a costi simili...mentre la quasi top di gamma 290 la ex top 7970 se la mangiava e la prendevi a 400, non a 550...è indubbio che da' un paio di anni a pari costo, in proporzione, si sta ottenendo via via sempre meno, non è che se posso spendere 500 ho quello che avevo in passato: ieri avevo il top con 500, oggi ho già una vga già di compromesso non è lo stesso eh... spendo uguale si' e resto nella mia zona comfort-portafoglio, ma di fatto ho di meno rispetto ai tempi migliori...
Quanto alle console, beh, le console però non sono in competizione commerciale coi PC. E' un mondo diverso, e se da un lato spendi meno per la macchina dall'altro spendi più per i giochi, inoltre col PC "fai tutto".

AceGranger
22-06-2020, 14:11
Si, ma il divario prestazionale è meno favorevole rispetto al passato. La quasi top di gamma 2080 andava quanto la top precedente in pratica e a costi simili...mentre la quasi top di gamma 290 la ex top 7970 se la mangiava e la prendevi a 400, non a 550...è indubbio che da' un paio di anni a pari costo, in proporzione, si sta ottenendo via via sempre meno, non è che se posso spendere 500 ho quello che avevo in passato: ieri avevo il top con 500, oggi ho già una vga già di compromesso non è lo stesso eh... spendo uguale si' e resto nella mia zona comfort-portafoglio, ma di fatto ho di meno rispetto ai tempi migliori...
Quanto alle console, beh, le console però non sono in competizione commerciale coi PC. E' un mondo diverso, e se da un lato spendi meno per la macchina dall'altro spendi più per i giochi, inoltre col PC "fai tutto".

magari ho capito male io i modelli ma da qui la differenza fra la 7970 GHz e la 290X è il 33%

https://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/7/


che è la differenza fra la 1080Ti e 2080Ti FE, il 35%

https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/

con la 2080Ti che ha aggiunto RT core, Tensor e nVlink e driver migliori.


nVIida ha semplicemente allargato il suo bacino di utenza ( ufficialmente ) a cui vendere una determinata GPU, da di piu e si fa pagare di piu.

Gello
22-06-2020, 14:14
Boh io resto sempre dell'idea che se tu vendi a prezzi più bassi un prodotto di qualità ne vendi il triplo, e anche gente che normalmente si farebbe una scheda di fascia più bassa, di fronte ad un prezzo aggressivo (ovviamente non uguale a quello della fascia inferiore, ma più aggressivo di quelli attuali) secondo me sarebbe spinta a fare uno sforzo in più e prendersi una VGA più potente.
E Nvidia non solo recupererebbe quel margine, ma secondo me cosi' facendo ne farebbe molto di più.
Ma sono solo mie opinioni, ovviamente.

Le opinioni personali ci possono stare, specialmente se esposte educatamente, dicendo cosi' pero' stai implicitamente sostenendo di saperne di piu' dei Financial Analyst di Nvidia prima, dei director poi per poi finire con CFO e CEO, per carita' abbiamo gia avuto diversi esempi di come aziende leader nella new economy, fossero totalmente distaccati dalla realta' e hanno distrutto imperi in poco tempo ma qua siamo in un regime di semi monopolio.

Visto come lavorano a livello ingegneristico io mi fiderei anche di quello finanziario, se prezzano come prezzano e se segmentano come fanno, credo lo facciano per massimizzare ogni tipo di margine su ogni fascia sempre cercando di smaltire tutto quello che riescono a produrre a seconda dei vari tagli.

Poi per carita' ogni tanto qualche minchiata la faranno pure...

amon.akira
22-06-2020, 14:19
Si, ma il divario prestazionale è meno favorevole rispetto al passato. La quasi top di gamma 2080 andava quanto la top precedente in pratica e a costi simili...mentre la quasi top di gamma 290 la ex top 7970 se la mangiava e la prendevi a 400, non a 550...è indubbio che da' un paio di anni a pari costo, in proporzione, si sta ottenendo via via sempre meno, non è che se posso spendere 500 ho quello che avevo in passato: ieri avevo il top con 500, oggi ho già una vga già di compromesso non è lo stesso eh... spendo uguale si' e resto nella mia zona comfort-portafoglio, ma di fatto ho di meno rispetto ai tempi migliori...
Quanto alle console, beh, le console però non sono in competizione commerciale coi PC. E' un mondo diverso, e se da un lato spendi meno per la macchina dall'altro spendi più per i giochi, inoltre col PC "fai tutto".

certo presi la 290 msi a 400euro appena uscita e l ho tenuta 2anni, ma venivo dalla 7950 a 200euro e poi passai alla 980ti a 700...come vedi l escalation c'è se necessiti di prestazioni subito senza aspettare che diventino "abbordabili"

non dovrebbe essere un pro che la 1080ti fa come la 2080? ti diventa piu longeva e il rapporto tempo/costo migliore, puoi vederla anche al contrario che tecnologicamente ci sia un freno e che per produrre prodotti migliori richiedono costi maggiori.
tutti cartelli tutti complottisti...ad amd non gli piacerebbe rubare gli utenti di nvidia e prendersi il malloppo? se c'è cosi tanto margine di guadagno dovrebbe essere facile ridurre il prezzo e starci dentro alla grande.

Ale55andr0
22-06-2020, 14:39
magari ho capito male io i modelli ma da qui la differenza fra la 7970 GHz e la 290X è il 33%

https://www.computerbase.de/2013-10/...9-290x-test/7/


che è la differenza fra la 1080Ti e 2080Ti FE, il 35%

https://www.computerbase.de/2018-09/...080-ti-test/3/

con la 2080Ti che ha aggiunto RT core, Tensor e nVlink e driver migliori.



ehm... si'... ma... io la 1080ti mica l'ho vista prezzata a oltre 1279 cartoni al lancio come la 2080ti....infatti ho messo in piazza la 2080 che con 700-800 euro da più o meno quel che avevi con 700-800 con la serie precedente, ah no hai il plus di 3gb in meno :asd: (e non ho nemmeno visto la 290 andare uguale a pari costo con la 7950 e con meno ram :asd: vabò dai, c'è anche un rtx inutile coi motori che effettivamente lo useranno in modo adeguato in futuro :sofico:). Ripeto: oggi in proporzione si offre sempre meno a cifre sempre più alte

nVIida ha semplicemente allargato il suo bacino di utenza ( ufficialmente ) a cui vendere una determinata GPU, da di piu e si fa pagare di piu.

che ha allargato qualcosa è sicuro, ma non è il bacino dell'utenza, è un'altra parte del corpo dell'utenza :asd:

Andy1111
22-06-2020, 14:57
magari ho capito male io i modelli ma da qui la differenza fra la 7970 GHz e la 290X è il 33%

https://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/7/


che è la differenza fra la 1080Ti e 2080Ti FE, il 35%

https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/3/

con la 2080Ti che ha aggiunto RT core, Tensor e nVlink e driver migliori.


nVIida ha semplicemente allargato il suo bacino di utenza ( ufficialmente ) a cui vendere una determinata GPU, da di piu e si fa pagare di piu.

Per cortesia non paragoniamo una 1080 TI Blower con una 2080 TI FE biventola

quegli "stronzi" fanno cartello perchè magari gli è più conveniente non abbassare i prezzi visto che comunque sono più bassi a pari segmento e se tanto l'utente medio in caso di tagli importanti e reazione della rivale dice "ottimo, così prendo una verde a 50 euro in meno" :asd:

sante parole dai a sto giro forse si raggiunge i 1500€

AceGranger
22-06-2020, 14:58
ehm... si'... ma... io la 1080ti mica l'ho vista prezzata a oltre 1279 cartoni al lancio come la 2080ti....infatti ho messo in piazza la 2080 che con 700-800 euro con da più o meno quel che avevi con 700-800 con la serie precedente, ah no hai il plus di 3gb in meno :asd: (e non ho nemmeno visto la 290 andare uguale a pari costo con la 7950 e con meno ram :asd: vabò dai, c'è anche un rtx inutile coi motori che effettivamente lo useranno in modo adeguato in futuro :sofico:). Ripeto: oggi in proporzione si offre sempre meno a cifre sempre più alte



che ha allargato qualcosa è sicuro, ma non è il bacino dell'utenza, è un'altra parte del corpo dell'utenza :asd:

tu la guardi solo dal tuo punto di vista, che non è l'unico ;).

DuttZ
22-06-2020, 15:03
beh, ma l'alessandro di turno da solo non fa il mercato, ci sarà sempre il singolo che si lagna ma parla da se', è un goccia nell'oceano :). Nel caso specifco poi, se il nome non l'hai scelto a caso con me hai sbagliato in pieno visto che non ho mai chiesto ne preteso prestazioni da supertop a 300 :asd:
Imho già che ci sono le fasce top dovrebbero essere sui 500-600 come "una volta", diciamo la suddivisione che avevamo ai tempo di 680 e 7970, con il resto delle fasce a scalareLa 5870 la comprai a 350€ nuova

DuttZ
22-06-2020, 15:06
all epoca sentito già dire in giro che 700 per una scheda video era una follia, quindi nulla è cambiato...basta comprare nella propria fascia di prezzo...se nella propria fascia di prezzo non c'è incremento prestazionale, tanto meglio aspetti la prossima serie e hai risparmiato ulteriormente allungando la vita della scheda video.

che poi con la 1080 se giochi a 1080p fai piu frame di una 2080ti a 4k, quindi potresti aspettare fino alla ps6 in teoria.Quoto, ho una Vega 56 pulse e in fhd faccio un casino di fps abbinato ad un 3570k a 4.2 😅

Ale55andr0
22-06-2020, 15:59
tu la guardi solo dal tuo punto di vista, che non è l'unico ;).


no, io guardo ai fatti, e quelli non sono un punto di vista:

1080ti: 699 al lancio

2080 liscia: prezzo simile, prestazioni simili, 3 gb in meno 3 anni dopo o giu' di li: sticazzi O_O. Dov'è stata l'evoluzione di fascia? nel fatto che siccome ci han messo il 2 davanti e nessun "ti" dietro ora ho le stesse prestazioni della top precedente con la fascia medioalta? (allo stesso prezzo della top di gamma di prima :muro:)

AceGranger
22-06-2020, 16:09
no, io guardo ai fatti, e quelli non sono un punto di vista

sono i "tuoi" fatti, perchè il "miei" fatti dicono che con al 2080Ti rispetto alla 1080Ti ho avuto il boost del 30% dato dai CUDA + il boost del 40% dato dagli RT core + il doppio della Vram con nVlink + i driver certificati + i Tensor.
per il tuo punto di vista non vale quei soldi, per il mio punto di vista li vale tutti.


quello che conta per nVidia è vendere, ha semplicemente ampliato il bacino e aumentato la redditivita, perchè se perde te come cliente che non compra una 2080Ti, guadagna me come cliente che gliene ho prese 2 e il futuro punta tutto verso una sempre piu progressiva perdita di importanza delle CPU; quindi preparati perchè ho idea che non avrai piu le TOP gamma a prezzi "consumer"

Ale55andr0
22-06-2020, 16:23
sono i "tuoi" fatti, perchè il "miei" fatti dicono che con al 2080Ti rispetto alla 1080Ti ho avuto il boost del 30% dato dai CUDA + il boost del 40% dato dagli RT core + il doppio della Vram con nVlink + i driver certificati + i Tensor.
per il tuo punto di vista non vale quei soldi, per il mio punto di vista li vale tutti.


per la matematica (fatti) costa di più a pari segmento occupato: la top di gamma. Che la cifra richiesta per te sia poca o tanta per una top di gamma lo decidi tu, nessuno ha detto il contrario. Ma il mio discorso, che a sto punto non capisco se non capisci o fai finta di è che che la fasce di prezzo si siono ridefinite peggiorando il rapporto fra le prestazioni e il costo rispetto a prima ed è innegabile. Non è un punto di vista ne' un parere personale, ne una supposizione ma un fatto, senza se senza ma. E qui chiudo che sennò divento ridondante.

amon.akira
22-06-2020, 16:28
per la matematica (fatti) costa di più a pari segmento occupato: la top di gamma. Che la cifra richiesta per te sia poca o tanta per una top di gamma lo decidi tu, nessuno ha detto il contrario. Ma il mio discorso, che a sto punto non capisco se non capisci o fai finta di è che che la fasce di prezzo si siono ridefinite peggiorando il rapporto fra le prestazioni e il costo rispetto a prima ed è innegabile. Non è un punto di vista ne' un parere personale, ne una supposizione ma un fatto, senza se senza ma. E qui chiudo che sennò divento ridondante.

dai le prestazioni non sono tanto male :sofico:

https://i.imgur.com/jR3Wh30.jpg

AceGranger
22-06-2020, 16:39
per la matematica (fatti) costa di più a pari segmento occupato: la top di gamma. Che la cifra richiesta per te sia poca o tanta per una top di gamma lo decidi tu, nessuno ha detto il contrario. Ma il mio discorso, che a sto punto non capisco se non capisci o fai finta di è che che la fasce di prezzo si siono ridefinite peggiorando il rapporto fra le prestazioni e il costo rispetto a primaed è innegabile. Non è un punto di vista ne' un parere personale, ne una supposizione ma un fatto, senza se senza ma. E qui chiudo che sennò divento ridondante.

e io ti ho spiegato il motivo...
tu continui a valutare la GPU solo lato gaming, cosa che non è piu cosi; quello che ha aggiunto ( e ti fa pagare ) tu lo vedi solo in minima parte.
quindi si, hai ragione, lato gaming tu ci hai smenato, mentre io lato Pro ci ho guadagnato; nVidia si è fatta 2 calcoli e ha fissato il prezzo pensando che le perdite dei gamer le avrebbe coperte e ampliate con i pro ( e a giudicare dai fatturati credo ci abbia preso... )

magari sbagliero, ma mettetevi l'animo in pace, le GPU top continueranno a costare tanto, perchè il target non è piu solo il gamer;

gaming e pro stanno diventando una cosa sola, l'anteprima dell'UE5 è un assaggio ( mi sto riferendo al come è stato fatto, alla parte tecnica )

mikael84
22-06-2020, 16:51
per la matematica (fatti) costa di più a pari segmento occupato: la top di gamma. Che la cifra richiesta per te sia poca o tanta per una top di gamma lo decidi tu, nessuno ha detto il contrario. Ma il mio discorso, che a sto punto non capisco se non capisci o fai finta di è che che la fasce di prezzo si siono ridefinite peggiorando il rapporto fra le prestazioni e il costo rispetto a prima ed è innegabile. Non è un punto di vista ne' un parere personale, ne una supposizione ma un fatto, senza se senza ma. E qui chiudo che sennò divento ridondante.

Alessandro, ti darei pure ragione, ma ormai dovete capire che il mercato gaming deriva da quello pro, con prezzi fuori dagli standard purtroppo.
I costi di una 2080ti non sono paragonabili a quelli della 1080ti, ed nvidia cerca di vendere ad alto margine. Non ti venderà mai una gpu come una VII dove 3/4 di costo sono memorie, sopratutto in totale monopolio.

Con Ampere potrebbe essere peggio.

dai le prestazioni non sono tanto male :sofico:

https://i.imgur.com/jR3Wh30.jpg

:p

mircocatta
22-06-2020, 18:22
Lo dicevano anche per le CPU , e adesso tutti comprano ryzen.

Tu digli ad amd di fare una bella scheda a buon prezzo e vedrai che la vende.


Certo, queste 5700 potrebbero esser vendute ad un 100€ in meno continuando a creare profitto, ma da qui a dire che AMD non ha fatto nulla per smuovere il mercato ce ne passa.
Ha costretto l'uscita delle super e un abbassamento dei prezzi (le 2060 a 400€ e 2070 a 540€ Ve le siete scordate?), È stato un buon passo nella giusta direzione imho

Raven
22-06-2020, 18:49
Ma il mio discorso, che a sto punto non capisco se non capisci o fai finta di è che che la fasce di prezzo si siono ridefinite peggiorando il rapporto fra le prestazioni e il costo rispetto a prima ed è innegabile.

Le schede basate su chip GeForce 2 GTS hanno una grande limitazione proprio nel costo d'acquisto, portato in questi giorni sulla soglia delle 800.000 lire di listino.

amarcord... il prezzo era ritenuto scandaloso... eppure con 400 euro ci si portava a casa la top di gamma... :fagiano:

fraussantin
22-06-2020, 19:31
Certo, queste 5700 potrebbero esser vendute ad un 100€ in meno continuando a creare profitto, ma da qui a dire che AMD non ha fatto nulla per smuovere il mercato ce ne passa.
Ha costretto l'uscita delle super e un abbassamento dei prezzi (le 2060 a 400€ e 2070 a 540€ Ve le siete scordate?), È stato un buon passo nella giusta direzione imho

A me risulta che con le super Nvidia ha elegantemente aumentato i prezzi. ( Dovete considerare il fattore temporale)

Passato un anno ci si aspetta con una linea nuova ( famoso refrash) un aumento prestazionale su ogni fascia senza aumenti di prezzo .

Lei invece si è inventata un sistema per sbolognarsi gli scarti e far salire di prezzo ogni fascia. ( Aumentando ovviamente anche le prestazioni )

La 2070 S dopo 1 anno dalla 2070 costava ben di più, si è quasi una 2080 ma sempre un centone in più dovevi cacciare.. ( ora un po' meno )
La 2060S aumenta rispetto alla 2060 2 giga di RAM e il chip un po' meno cuttato ma va a costare quasi quanto una 2070
,perchè 400 euro col binocolo ne prendi una decente. Ne servono minimo 450 470 quando con 519 prendevi un anno prima la 2070.( Presa io a novembre 2018)

Il tempo conta tanto nel valutare il prezzo.

Nvidia è furba ! Ma questo lo sappiamo tutti.

The_SaN
22-06-2020, 19:32
Boh io resto sempre dell'idea che se tu vendi a prezzi più bassi un prodotto di qualità ne vendi il triplo, e anche gente che normalmente si farebbe una scheda di fascia più bassa, di fronte ad un prezzo aggressivo (ovviamente non uguale a quello della fascia inferiore, ma più aggressivo di quelli attuali) secondo me sarebbe spinta a fare uno sforzo in più e prendersi una VGA più potente.
E Nvidia non solo recupererebbe quel margine, ma secondo me cosi' facendo ne farebbe molto di più.
Ma sono solo mie opinioni, ovviamente.

Purtroppo non è un argomento che sta in piedi, e ti spiego il perchè: aumenti di poco il margine a fronte di un aumento enorme dei costi di produzione. Aziende come nVidia e Apple basano il loro business sulla percentuale di margine, non sul valore totale (che poi è alto lo stesso dato che sono prodotti premium molto richiesti).

Per questo tempo fa ho detto che le 5700XT di AMD erano "geniali", anche se alcuni mi hanno dato addosso. Dal punto di vista aziendale, ovvio, perchè una scheda da 250mm² venduta ad oltre 400 euro è un'inchiappettata per l'utente finale. Però hanno prezzato il prodotto in modo da obbligare nVidia a scalare un chip in fascia medio/alta, perdendoci parte del margine. AMD invece, di margine ne aveva davvero molto.

Ma tornando al discorso principale, l'obiettivo di un'azienda è trovare il giusto bilancio tra margine e costi operazionali, quindi molte volte non conviene vendere di più. Hai più costi di produzione, costi di RMA, meno soldi da investire in R&D. L'unico vero vantaggio è che hai più fatturato, con ovvie conseguenze sui prestiti bancari.



Edit: ovviamente il discorso è molto più ampio, ad esempio il costo di R&D si diluisce con un maggior numero di vendite, ma includere tutte le variabili renderebbe il tutto più confuso.

Crysis90
22-06-2020, 21:26
no, la colpa è di chi compra.

Il tuo ragionamento non potrebbe essere più sbagliato, caro mio.

La colpa sarebbe di compra se e solo se l'articolo in questione non permettesse di avere prestazioni superiori alla concorrenza e/o comunque un qualche tipo di vantaggio tecnologico tangibile nel suo utilizzo, sempre rispetto alla concorrenza.

Non si può incolpare chi pretende il meglio, altrimenti chiunque compri una scheda di fascia dai 600 euro in su (o una CPU dalla stessa cifra in su) sarebbe un "complice del sistema".

Ma non è così in questo caso, dato che rispetto al top di gamma della concorrenza, l'attuale top di gamma NVidia offre performances nettamente superiori.

Poi ripeto che i prezzi a cui siamo arrivati nel 2020 sono folli, ma la colpa non può certo essere di NVidia o di chi vuole comprare l'hardware migliore su piazza.

L'esempio perfetto per il ragionamento che fai tu è Apple, che da un decennio vende smartphone che tecnicamente non hanno nulla di superiore alla concorrenza a prezzi mediamente nettamente superiori solo perchè loro si fanno pagare il logo.
Un IPhone top di gamma è sempre costato di listino almeno 100/200 euro sopra un Samsung o un Huawei top di gamma, benchè questi ultimi sotto tanti aspetti siano spesso ad un livello di performances anche superiori.
Ecco, se vuoi incolpare qualcuno incolpa quel tipo di acquirente.
Ma non chi compra qualcosa che da effettivamente un tangibile vantaggio prestazionale/tecnologico. :read:

thunderforce83
22-06-2020, 21:48
dai le prestazioni non sono tanto male :sofico:

https://i.imgur.com/jR3Wh30.jpg
vanno quasi uguale dai... :D :D :D :D
Alessandro, ti darei pure ragione, ma ormai dovete capire che il mercato gaming deriva da quello pro, con prezzi fuori dagli standard purtroppo.
I costi di una 2080ti non sono paragonabili a quelli della 1080ti, ed nvidia cerca di vendere ad alto margine. Non ti venderà mai una gpu come una VII dove 3/4 di costo sono memorie, sopratutto in totale monopolio.

Con Ampere potrebbe essere peggio.



:p

esattamente! se costeranno uguale alla scorsa generazione stappo una bottiglia:)

NAP.
22-06-2020, 22:38
Secondo me tutto dipende dalle scatolette, se costano 500€ non potranno mai prezzare una 3080 a 800€ perché i prossimi giochi PC non avranno un vantaggio tecnico così superiore rispetto alle scatolette e se ti fai due conti alla fine ti compri la scatoletta, il vantaggio dovrà essere davvero tangibile per giustificare la differenza di prezzo, secondo me per via delle scatolette si riazzerano i conti

devAngnew
22-06-2020, 22:49
Alessandro, ti darei pure ragione, ma ormai dovete capire che il mercato gaming deriva da quello pro, con prezzi fuori dagli standard purtroppo.
I costi di una 2080ti non sono paragonabili a quelli della 1080ti, ed nvidia cerca di vendere ad alto margine. Non ti venderà mai una gpu come una VII dove 3/4 di costo sono memorie, sopratutto in totale monopolio.

Con Ampere potrebbe essere peggio.


Non mi sembra che le gpu precedenti non derivassero dalle pro, il fatto è che nvidia vuole far pagare la sua segmentazione dei prodotti a chi non ne ha bisogno ossia la maggioranza. Non mettiamo in mezzo poi tensor etc. etc. altrimenti a quest'ora con tutte le novità a cominciare dal TL hardware a quest'ora le gpu costerebbero milioni. @Ale55andr0 ha ragione.

mikael84
22-06-2020, 23:38
vanno quasi uguale dai... :D :D :D :D


esattamente! se costeranno uguale alla scorsa generazione stappo una bottiglia:)

Mah ci credo poco, in monopolio poi. Ci sarebbe RDNA2, ma difficilmente con quei driver, si porterà dietro utenti nvidia enthusiast, andasse anche il 20% in più.
Inoltre nvidia sta cercando molto i pro.

Secondo me tutto dipende dalle scatolette, se costano 500€ non potranno mai prezzare una 3080 a 800€ perché i prossimi giochi PC non avranno un vantaggio tecnico così superiore rispetto alle scatolette e se ti fai due conti alla fine ti compri la scatoletta, il vantaggio dovrà essere davvero tangibile per giustificare la differenza di prezzo, secondo me per via delle scatolette si riazzerano i conti

Le scatolette non centrano nulla col mondo pc/pro.

Non mi sembra che le gpu precedenti non derivassero dalle pro, il fatto è che nvidia vuole far pagare la sua segmentazione dei prodotti a chi non ne ha bisogno ossia la maggioranza.

Cosa avevano di pro, maxwell e pascal, se non i driver.:p i chip pro sono usciti pure dopo.
Turing come ampere deriverà dalle quadro.

Le differenze stanno magari nei chip tesla, ma queste non centrano nulla.
Anche Pascal aveva un chip tesla HPC, con NVLINK, shader con fp32 ed fp16, ma non era certo pensato per il gaming.



Non mettiamo in mezzo poi tensor etc. etc. altrimenti a quest'ora con tutte le novità a cominciare dal TL hardware a quest'ora le gpu costerebbero milioni. @Ale55andr0 ha ragione.

Tensor ed nvlink, oltre ad occupare 100mm2 d'area, sono utilizzati specificatamente dai pro, non certo in raster.
Nvlink offre un collegamento esoso, molto veloce, per collegare due schede in pro e raddoppiare la memoria.

Pascal con 100mm2 ci fai 1 GPC e mezzo.;)

I tensor che potrebbero ereditare le GPU ampere saranno doppi in peso, nonchè nvlink.;)

Free Gordon
23-06-2020, 01:27
le GPU, semplicemente, non sono all'altezza della concorrenza, ne piu ne meno, e la gente acquista quello che c'è.

Fino alla 2070 super AMD è concorrenziale.

Restano fuori schede da 600€ in sù.. non è proprio la base del mercato eh :sofico: Saranno un 10% delle schede discrete vendute...

Free Gordon
23-06-2020, 01:32
Mi sembra tanto un +30% a quelle frequenze sinceramente, tenendo di conto che la 3080 avrebbe lo stesso identico numero di SP della 2080 Ti.
IMHO, non ha senso.

Perché non ha senso?

E' la 3080Ti che nel TS sta a un +30% dalla 2080Ti founders...:fagiano:

Mi pare un risultato in linea con le proiezioni, non ci vedo nulla di strano :)

Free Gordon
23-06-2020, 01:34
Il rapporto flops è inteso su una simil full 3080ti con 5376/5248cc.
Naturalmente è troppo presto, quello o è fake o è un es a basso clock (vedi ram).:)


Perché pensi che la 3080Ti farà tanto di più del 30% rispetto alla 2080Ti?

Potrebbe arrivare a un 40-45%.. ma non penso proprio che vedremo di più.

Ubro92
23-06-2020, 07:18
Ma in media in ogni gen il salto di IPC e densità di cc alza le performance rispetto la gen precedente tra il 30 e il 50%.

Poi entra il discorso clock dove a seconda dell'architettura, del silicio e del pp si hanno incrementi maggiori.

Da quello che si legge, i rumors parlano di un miglioramento di IPC del 15-20% probabilmente per la diversa struttura della cache, e la densità di cc é stata incrementata di circa il 25% quindi a pari clock siamo sul 30-35% medio di performance in più.

Poi dipende dal pp se utilizzeranno i 7nm si avrá un ulteriore boost dato dai clock, così come nel caso delle memorie a 18 gbps.

Poi ovviamente dipende anche dalla fascia di solito in proporzione i chip che ne guadagnano di più sono quelli di fascia media come x60 e x70 che non a caso sono anche quelli con maggior competizione sul mercato.

Ma sul fronte prestazioni mi farei pochi problemi oramai i chip sono tarati con il contagocce semmai RDNA2 diventerà competitivo uscirà magicamente un chip più spinto in stile 780ti 😂

Inviato dal mio Redmi Note 4 utilizzando Tapatalk

Nurabsa
23-06-2020, 07:58
Esce anche la versione pcie di ampere HPC.
TDP ridotto da 400 a 250watt.
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/53450-a100-pcie-nvidia-ga100-gpu-kommt-auch-als-pci-express-variante.html

250 è un punto fermo. da tatuare per che crede nel fantawattaggio consumer
Tra picchi e oscillazioni gia cosi puo mettere in crisi una psu medio piccola

In realtà è un bene, i 28nm sono rimasti più tempo del previsto sul mercato, se nvidia non avesse tirato fuori maxwell e se la stessa architettura non fosse stata molto propensa a salire di clock rispetto a kepler sarebbe stata molto strozzata, in stile Turing...

Infatti nel passaggio ai 16nm nvidia campò di rendita, internamente Pascal è un Maxwell 1 a 1, non ci sono neanche incrementi di ipc, le migliorie sono prettamente date dai clock notevolmente superiori e dalla maggior densità di cc.

Poi per i chip finali è troppo presto, forse per la fine del mese potremmo iniziare a vedere qualcosa ma per gli ES effettivi se ne parla a fine luglio...
pienamente d accordo.
una gm200 dai 1400 in su non ha nulla da invidiare alla 1080 liscia.
Ragionamento per cui non cambio vga, prestazioni di una gp104 dopata e un abisso di tempo trascorso -nel mondo vga-.
all epoca sentito già dire in giro che 700 per una scheda video era una follia, quindi nulla è cambiato...basta comprare nella propria fascia di prezzo...se nella propria fascia di prezzo non c'è incremento prestazionale, tanto meglio aspetti la prossima serie e hai risparmiato ulteriormente allungando la vita della scheda video.

che poi con la 1080 se giochi a 1080p fai piu frame di una 2080ti a 4k, quindi potresti aspettare fino alla ps6 in teoria.
un aumento di prezzo farà sempre -giustamente- storcere il naso.
Oggi si è andati oltre si è aggiunto uno zero non solo alla top ma pure alla middle.
Aspettare con una grossa vga nel case non poi cosi male. c'è troppa frenesia comprarivendi forse :)

Non mi sembra che le gpu precedenti non derivassero dalle pro, il fatto è che nvidia vuole far pagare la sua segmentazione dei prodotti a chi non ne ha bisogno ossia la maggioranza. Non mettiamo in mezzo poi tensor etc. etc. altrimenti a quest'ora con tutte le novità a cominciare dal TL hardware a quest'ora le gpu costerebbero milioni. @Ale55andr0 ha ragione.

:asd:
-tema sollevato da ale giustissimo-

fraussantin
23-06-2020, 08:09
250 è un punto fermo. da tatuare per che crede nel fantawattaggio consumer

Tra picchi e oscillazioni gia cosi puo mettere in crisi una psu medio piccolao-

Una psu medio-piccola di buona fattura è in condizioni di supportare picchi anche del 30-50% in più della sua potenza nominale .

Ovviamente devono essere picchi non lo standard.

Se vedi i test di falco ti rendi conto di quanto riesce a sforare prima di mandarle in blocco.

Detto questo , per quanto costano un Gold da 650\750 ormai sarebbe d'obbligoc, soprattutto se si guarda a schede di questo livello e prezzo.

devAngnew
23-06-2020, 09:31
Secondo me tutto dipende dalle scatolette, se costano 500€ non potranno mai prezzare una 3080 a 800€ perché i prossimi giochi PC non avranno un vantaggio tecnico così superiore rispetto alle scatolette e se ti fai due conti alla fine ti compri la scatoletta, il vantaggio dovrà essere davvero tangibile per giustificare la differenza di prezzo, secondo me per via delle scatolette si riazzerano i conti



Le scatolette non centrano nulla col mondo pc/pro.

:mbe:
Invece penso abbia ragione NAP, tanto è vero che qui escluso qualche utente nessuno è orientato ad un uso pro delle schede video. Percio il maggior concorrente delle gpu desktop "gaming" sono proprio le scatolette che a quanto ne sappiamo avranno titoli in 4k anche upscalati con algoritmi simili a DLSS.


Cosa avevano di pro, maxwell e pascal, se non i driver.:p i chip pro sono usciti pure dopo.
Turing come ampere deriverà dalle quadro.

Le differenze stanno magari nei chip tesla, ma queste non centrano nulla.
Anche Pascal aveva un chip tesla HPC, con NVLINK, shader con fp32 ed fp16, ma non era certo pensato per il gaming.

Tensor ed nvlink, oltre ad occupare 100mm2 d'area, sono utilizzati specificatamente dai pro, non certo in raster.
Nvlink offre un collegamento esoso, molto veloce, per collegare due schede in pro e raddoppiare la memoria.

Pascal con 100mm2 ci fai 1 GPC e mezzo.;)

I tensor che potrebbero ereditare le GPU ampere saranno doppi in peso, nonchè nvlink.;)

Appunto eri tu se non ricordo male che confrontavi i chip HPC e quadro per capire i derivati gaming o sbaglio.
E ancora una volta le parti pro/HPC nel segmento che alla maggioranza interesse frega niente è solo zavorra "costosa".

mircocatta
23-06-2020, 10:13
Secondo me tutto dipende dalle scatolette, se costano 500€ non potranno mai prezzare una 3080 a 800€ perché i prossimi giochi PC non avranno un vantaggio tecnico così superiore rispetto alle scatolette e se ti fai due conti alla fine ti compri la scatoletta, il vantaggio dovrà essere davvero tangibile per giustificare la differenza di prezzo, secondo me per via delle scatolette si riazzerano i conti

che è esattamente quello che dico/penso da 3 mesi a questa parte :oink:

già ieri sono spuntati su amazon francese dei prezzi assurdi, 399€ per la versione digital della ps4, chi me/ce lo fa fare di spendere il doppio di un intera console per una scheda video con cui giocare 3-4 giochi l'anno con qualche dettaglio trascurabile in più e frame rate più alto? ripeto: pagare il DOPPIO solo la vga, roba fuori di testa imho
e qui mi riallaccio alla dichiarazione di amd* che, a detta sua, con rdna2 vorrebbe scuotere il mercato come ha fatto in quello cpu.


*anche amd non ci farebbe una figura bellissima se venderà su desktop una gpu da anche solo 64CU a 800€, quando il suo stesso hardware verrà venduto in una console che interamente ne costa la metà (anche se parliamo di una gpu da 36cu, gpu che in una console intera credo rappresenti un, massimo, 20-25% del costo totale, no?)

neanche a farlo apposta :asd:
https://www.youtube.com/watch?v=MjspmguJuaE&pp=wgIECgIIAQ%3D%3D

Ubro92
23-06-2020, 10:27
che è esattamente quello che dico/penso da 3 mesi a questa parte :oink:



già ieri sono spuntati su amazon francese dei prezzi assurdi, 399€ per la versione digital della ps4, chi me/ce lo fa fare di spendere il doppio di un intera console per solo la scheda video per giocare 3-4 giochi l'anno con qualche dettaglio trascurabile in più e frame rate più alto? ripeto: pagare il DOPPIO solo la vga, roba fuori di testa imhoPer giocare non ti serve una GPU da 1000€, e i dettagli delle console sono da sempre simili a quelli di un PC di fascia media... Nella prossima gen sarà ai livelli di un chippetto come 3060 se non meno...

Poi devi accettare anche l'ecosistema software delle console, che economicamente con online a pagamento e giochi più costosi e da vedere se nel concreto risparmi.

Nel tuo caso vedendo la firma sei principalmente strozzato dal 3770K quindi dovresti in primis aggiornare la CPU e successivamente la grafica, ma dipende dalle tue esigenze se giochi 3-4 titoli l'anno e accetti i limiti dell'ecosistema console, le console possono essere interessanti.

Personalmente le uniche console che valuto sono quelle portatili come la Nintendo Switch e relative esclusive, per il resto preferisco l'ecosistema PC che tra l'altro permette di portarsi sempre dietro la galleria di giochi su notebook, tablet (steam link)...





Inviato dal mio Redmi Note 4 utilizzando Tapatalk

Crysis90
23-06-2020, 10:28
Perché non ha senso?

E' la 3080Ti che nel TS sta a un +30% dalla 2080Ti founders...:fagiano:

Mi pare un risultato in linea con le proiezioni, non ci vedo nulla di strano :)

Non ha senso che quella sia una 3080 perchè avrebbe lo stesso n° di SP della 2080 Ti e anche le stesse frequenze, come fa ad andare più veloce del 30%????? :confused: :rolleyes:

Al massimo quello del rumor può essere il risultato di una 3080 Ti o 3090 o come diavolo hanno intenzione di chiamare la fascia più alta con questa nuova generazione.

Ubro92
23-06-2020, 10:33
Non ha senso che quella sia una 3080 perchè avrebbe lo stesso n° di SP della 2080 Ti e anche le stesse frequenze, come fa ad andare più veloce del 30%????? :confused: :rolleyes:



Al massimo quello del rumor può essere il risultato di una 3080 Ti o 3090 o come diavolo hanno intenzione di chiamare la fascia più alta con questa nuova generazione.Perché probabilmente é stata rivista la cache e abbiamo miglioramenti di IPC, qualche rumor di alcuni giorni fa quantificava un miglioramento del 15-20%, inoltre probabilmente i boost clock max erano superiori che però non sono stati rilevati.

Infatti anche la 3070 é quantificata per andare un -5% da 2080ti e considerate le differenze da 3080 non é strano vedere un +30 da 2080ti.

Inviato dal mio Redmi Note 4 utilizzando Tapatalk

maxmix65
23-06-2020, 10:42
Buongiorno a tutti..
https://i.postimg.cc/CRMStBTk/Eb-JQe-Qj-XQAEb1u-Q.jpg (https://postimg.cc/CRMStBTk)

:D :D :p

AceGranger
23-06-2020, 11:07
Fino alla 2070 super AMD è concorrenziale.


arriva fino alla 2070 e tu la vedi solo lato gaming, io la vedo anche lato Pro e non è concorrenziale.


Restano fuori schede da 600€ in sù.. non è proprio la base del mercato eh :sofico: Saranno un 10% delle schede discrete vendute...

le schede da 500 a 900 euro sono il 22% del mercato, e di quel 22% AMD detiene il 3,5%.
le schede da + di 900 euro sono il 2% e AMD ha ovviamente lo 0%.

numericamente nVidia vende piu 2080Ti che AMD di 5500XT....

sopra i 550€

2070S - 17,2%
2080S - 4,8%
2080TI - 2,8%

Radeon VII 0,8%

sotto i 450€

2070 - 3,3%
2060S - 6,8%
2060 - 2,4%

5700XT - 14%
5700 - 6,8%

e ci si dimentica sempre che i chip delle GPU desktop dalla x080 in giu finiscono nei anche nei portatili ( che non rientrano in questi dati e che numericamente saranno sicuramente elevati ), e si vendono praticamente solo portatili con GPU nVidia, visto che il grosso sono portatili per il lavoro.


per quello che nVidia sta puntando molto nel mercato Pro; basta vedere quanto a speso per il brand STUDIO...


EDIT: i dati sono di Mindfactory del Q1 2020

majinbu7
23-06-2020, 11:33
Bah...io so solo che dopo una brutta esperienza con la Radeon VII, spero proprio che BigNavi faccia scintille ad un buon prezzo per far abbassare un pò la cresta ad nvidia e riprovare una AMD, ma ho moooooooolta paura per la questione driver, ancor oggi hanno problemi con le RDNA :muro:

devAngnew
23-06-2020, 11:37
che è esattamente quello che dico/penso da 3 mesi a questa parte :oink:

già ieri sono spuntati su amazon francese dei prezzi assurdi, 399€ per la versione digital della PS5, chi me/ce lo fa fare di spendere il doppio di un intera console per una scheda video con cui giocare 3-4 giochi l'anno con qualche dettaglio trascurabile in più e frame rate più alto? ripeto: pagare il DOPPIO solo la vga, roba fuori di testa imho
e qui mi riallaccio alla dichiarazione di amd* che, a detta sua, con rdna2 vorrebbe scuotere il mercato come ha fatto in quello cpu.


*anche amd non ci farebbe una figura bellissima se venderà su desktop una gpu da anche solo 64CU a 800€, quando il suo stesso hardware verrà venduto in una console che interamente ne costa la metà (anche se parliamo di una gpu da 36cu, gpu che in una console intera credo rappresenti un, massimo, 20-25% del costo totale, no?)

neanche a farlo apposta :asd:
https://www.youtube.com/watch?v=MjspmguJuaE&pp=wgIECgIIAQ%3D%3D

:O

Per giocare non ti serve una GPU da 1000€, e i dettagli delle console sono da sempre simili a quelli di un PC di fascia media... Nella prossima gen sarà ai livelli di un chippetto come 3060 se non meno...

Poi devi accettare anche l'ecosistema software delle console, che economicamente con online a pagamento e giochi più costosi e da vedere se nel concreto risparmi.

Nel tuo caso vedendo la firma sei principalmente strozzato dal 3770K quindi dovresti in primis aggiornare la CPU e successivamente la grafica, ma dipende dalle tue esigenze se giochi 3-4 titoli l'anno e accetti i limiti dell'ecosistema console, le console possono essere interessanti.

Personalmente le uniche console che valuto sono quelle portatili come la Nintendo Switch e relative esclusive, per il resto preferisco l'ecosistema PC che tra l'altro permette di portarsi sempre dietro la galleria di giochi su notebook, tablet (steam link)...





Inviato dal mio Redmi Note 4 utilizzando Tapatalk


Qui si stà discutendo, che i costi sono lievitati in maniera imbarazzante, per avere cosa, un utilizzo pro che fanno in pochi. Finiamola di spostare l'obiettivo del discorso.
I giochi console una volta costavano tanto, oggi si vedono offerte spesso e volentieri, anche migliori che su pc. Per l'online, i pc hanno ancora dei vantaggi, ma ciò non ha nulla a che vedere con i costi hardware fuori controllo.

mikael84
23-06-2020, 11:48
Perché pensi che la 3080Ti farà tanto di più del 30% rispetto alla 2080Ti?

Potrebbe arrivare a un 40-45%.. ma non penso proprio che vedremo di più.

No, per me una top andrà un 20% in più della 3080, e la 3080 è una 2080ti a 7nm gira e rigira. Quindi la differenza la farà l'IPC cache, clock gpu e ram più veloci, nonchè una nuova compressione.;)

250 è un punto fermo. da tatuare per che crede nel fantawattaggio consumer
Tra picchi e oscillazioni gia cosi puo mettere in crisi una psu medio piccola



Top di gamma e psu medio piccola... più che altro è importante la qualità, se le oscillazioni sono troppo elevati, tali da scendere a 11,1v, che solo un oscilloscopio vede.:)

:mbe:
Invece penso abbia ragione NAP, tanto è vero che qui escluso qualche utente nessuno è orientato ad un uso pro delle schede video. Percio il maggior concorrente delle gpu desktop "gaming" sono proprio le scatolette che a quanto ne sappiamo avranno titoli in 4k anche upscalati con algoritmi simili a DLSS.

Le scatolette saranno hardware di fascia bassa con Ampere e bignavi. Se ora AMD con i 7nm ti vende un 250mm2 a 399/449$, fatti due calcoli.:)


Appunto eri tu se non ricordo male che confrontavi i chip HPC e quadro per capire i derivati gaming o sbaglio.
E ancora una volta le parti pro/HPC nel segmento che alla maggioranza interesse frega niente è solo zavorra "costosa".

Si, perchè alcune cose saranno simili, vedi i nuovi tensor, gli aumenti l1/l2, la micro architettura generale.
Ad esempio Turing è quasi simile a volta in micro architettura, solo che naturalmente, anzichè le fp64, ha gli rt core, ha la metà dei tensor, ha meno l1, non ha i P.E.

La "zavorra"di turing, come ampere, saranno i tensor e gli RT core, se non il trasversal coprocessor, ma è tutta roba che ti serve in ambito RT.
Di certo da ampere non prenderà il bus a 6144bit (768bit ddr), le 192 rop's per i collegamenti, i 48mb di cache (saranno al massimo 12):)

Vul
23-06-2020, 11:50
Ma di che cosa stiamo parlando?

Si, su pc hai una varietà di offerta e convenienza per i giochi superiori.

Ma con 40euro l'anno (preso in offerta) PS+ me ne regala almeno 24, tantissimi tripla A.

Ma poi parliamo di 10/20% di prezzo di differenza su pc di cosa...Quando gpu di fascia media costano quanto una console.

I prezzi delle gpu sono astronomici da anni, tranne per un breve periodo in cui si sono trovate le polaris 570/580 sotto i 150 euro da 8gb a fine ciclo non ho mai visto schede convenienti o acquistabili dai tempi di Maxwell. Nè in casa Nvidia nè in quella AMD.

La 5700/2060 super sarebbero signore gpu a 250 euro, ma ne costa 100 in piu.

E alla prossima gen ci rifileranno le prestazioni da 2060 super a 330 euro, e quelle da 5700 a 280 euro. Se va bene.

Visto che Nvidia ha offerto la serie 2000 ad un rapporto prestazioni/prezzo praticamente invariato da Pascal (10/15 % piu conveniente...dopo oltre 2 anni...e i prezzi sono ancora quelli).

Ubro92
23-06-2020, 11:51
I giochi console una volta costavano tanto, oggi si vedono offerte spesso e volentieri, anche migliori che su pc. Per l'online, i pc hanno ancora dei vantaggi, ma ciò non ha nulla a che vedere con i costi hardware fuori controllo.

Ribadisco il discorso, se accetti i limiti dell'ecosistema console prenditi una console se per le tue esigenze va bene, ma in termini di dettaglio sarai ai livelli di una GPU di fascia media come la 3060 ma anche meno probabilmente, sopratutto con RT attivo...

Per giocare non ti serve una GPU da 1000€, quindi nessuno ti obbliga a spendere quelle cifre, voglio anche capire che concettualmente possa non piacere la cosa ed è soggettiva in quanto nel mercato pro al contrario è una mossa decisamente positiva.

Però se devo essere onesto 10 anni fa con un chip di fascia media non maxavi nulla in 1080p, oggi con un chippetto medio giochi dignitosamente anche a 1440p...

Persino notebook sotto i 1000€ con 1660ti ma anche 1650 in FHD si tira su senza problemi quasi tutto...

Penso che data l'assenza di competizione nella fascia alta TI/Titan, nvidia ha convertito le stesse pensando a un mercato più ampio visto che tralasciando gli appassionati di HW che rappresentano una nicchia nessuno spende più di 600€ di GPU e altrettanti 7-1000€+ per monitor 4K o 3440x1440+ ...

Sopratutto considerando l'enorme svalutazione di questi chip dopo un paio d'anni con l'uscita delle nuove...

Ma di che cosa stiamo parlando?

Si, su pc hai una varietà di offerta e convenienza per i giochi superiori.

Ma con 40euro l'anno (preso in offerta) PS+ me ne regala almeno 24, tantissimi tripla A.

Ma poi parliamo di 10/20% di prezzo di differenza su pc di cosa...Quando gpu di fascia media costano quanto una console.

I prezzi delle gpu sono astronomici da anni, tranne per un breve periodo in cui si sono trovate le polaris 570/580 sotto i 150 euro da 8gb a fine ciclo non ho mai visto schede convenienti o acquistabili dai tempi di Maxwell. Nè in casa Nvidia nè in quella AMD.

La 5700/2060 super sarebbero signore gpu a 250 euro, ma ne costa 100 in piu.

E alla prossima gen ci rifileranno le prestazioni da 2060 super a 330 euro, e quelle da 5700 a 280 euro. Se va bene.

Visto che Nvidia ha offerto la serie 2000 ad un rapporto prestazioni/prezzo praticamente invariato da Pascal (10/15 % piu conveniente...dopo oltre 2 anni...e i prezzi sono ancora quelli).

Su PC ci sono spesso offerte nei negozi di key a prezzi ridicoli, oltre alla grossa mole di titoli regalati, sopratutto steam dove nel caso di remake spesso li regala se hai il titolo originale in libreria, per non parlare di Epic che da più di un anno sta regalando giochi anche grossi oltre a servizi come Uplay+ o Orgin Access, cosi come la stessa piattaforma di Microsoft sono presenti anche su pc, quindi proprio in termini di convenienza rimane la piattaforma più economica sul fronte software.

Inoltre una 2060 liscia al suo esordio costava sui 300-350€ che poi ora ci siano dei rincari dovuti anche al periodo è un discorso a sè e nella fascia sui 250€ c'è la 1660s che rimane una soluzione validissima. E non vedo come una GPU analoga alla 2060 possa costare oltre i 300€ e tra l'altro non ci sono neanche rumor e speculazioni sui chip inferiori alla x80 sui prezzi visto che usciranno solo successivamente, forse nel periodo invernale...

AceGranger
23-06-2020, 12:13
Qui si stà discutendo, che i costi sono lievitati in maniera imbarazzante, per avere cosa, un utilizzo pro che fanno in pochi. Finiamola di spostare l'obiettivo del discorso.


questa direi che è una tua convinzione; credo che nVidia sappia molto bene a chi vende, quante ne vende e perchè...

nVidia è nota per non regalare MAI NULLA.... in una sola gen va a investire un botto nel brand STUDIO ( che è trasversale e comprende sia QUADRO che Geforce ), certifica parzialmente i driver Geforce e in piu lascia sbloccate feature come la memoria condivisa che avrebbe potuto BENISSIMO lasciare bloccate, bè non sono cose a caso...

AceGranger
23-06-2020, 13:00
Sono ignorante in materia ma queste feature che lascia sbloccate mi suona tanto come meno lavoro per loro, non devono modificare niente, e una scusa per alzare i prezzi, mi verrebbe quasi da dire che a pensare male si fa peccato ma spesso ci si indovina.

Al massimo è il contrario, se le lasci sbloccate devi garantire che funzionino a ogni release di driver; a bloccarle è un attimo.

E non è che se hai la scusa allora automaticamente vendi... hanno venduto meno GPU ai gamer e piu ai Pro, ne piu ne meno; la Titan l'hanno totalmente levata dal mercato consumer e messa ad un prezzo per soli Pro.

Ale55andr0
23-06-2020, 14:17
https://wccftech.com/rumor-alleged-spec-sheet-of-an-nvidia-rtx-3080-ti-leaked-shows-up-to-23-tflops-of-peak-graphics-horsepower/

Thunder-74
23-06-2020, 14:25
https://wccftech.com/rumor-alleged-spec-sheet-of-an-nvidia-rtx-3080-ti-leaked-shows-up-to-23-tflops-of-peak-graphics-horsepower/

la faccio più facile, i rumors si baserebbero su questa immagine:

https://i.imgur.com/BdGcCNMl.jpg


Chip che doveva essere della TITAN...

mikael84
23-06-2020, 14:28
https://wccftech.com/rumor-alleged-spec-sheet-of-an-nvidia-rtx-3080-ti-leaked-shows-up-to-23-tflops-of-peak-graphics-horsepower/

Beh quello che mi aspetto sinceramente, anzi forse così, sarebbe davvero tanta roba.
I TF nvidia vengono calcolati tramite base boost, significherebbe 2200 in BB, ed oltre in boost per tensione.
L'es girava a 1950.


la faccio più facile, i rumors si baserebbero su questa immagine:


Chip che doveva essere della TITAN...

18 gb/s per ora li ha solo la rambus, ma potrebbe pure essere, anche micron ha ufficializzato la doppia densità dopo averla vista nei chip di AMD.
E' due anni che ci lavora.

Cmq riguardo la Titan, è indifferente, il punto di battaglia suo saranno i 24gb. :)

Thunder-74
23-06-2020, 14:35
Beh quello che mi aspetto sinceramente, anzi forse così, sarebbe davvero tanta roba.
I TF nvidia vengono calcolati tramite base boost, significherebbe 2200 in BB, ed oltre in boost per tensione.
L'es girava a 1950.




18 gb/s per ora li ha solo la rambus, ma potrebbe pure essere, anche micron ha ufficializzato la doppia densità dopo averla vista nei chip di AMD.
E' due anni che ci lavora.

diciamo che non rispecchia per alcune cose i precedenti rumors, ma almeno sulla Vram è più realistica. Possibile che possano fare una 3080ti così e una 3090/Titan con la sola differenza del doppio della Vram?

Ton90maz
23-06-2020, 14:35
Per giocare non ti serve una GPU da 1000€, e i dettagli delle console sono da sempre simili a quelli di un PC di fascia media... Nella prossima gen sarà ai livelli di un chippetto come 3060 se non meno...

Poi devi accettare anche l'ecosistema software delle console, che economicamente con online a pagamento e giochi più costosi e da vedere se nel concreto risparmi.Il problema è che 7 anni fa le console erano sotto chippettini da 150-180 euro, invece la 3060 quanto costerà?
Pure le console saliranno di prezzo ma sicuramente non in modo proporzionale.



Ribadisco il discorso, se accetti i limiti dell'ecosistema console prenditi una console se per le tue esigenze va bene, ma in termini di dettaglio sarai ai livelli di una GPU di fascia media come la 3060 ma anche meno probabilmente, sopratutto con RT attivo...

Per giocare non ti serve una GPU da 1000€, quindi nessuno ti obbliga a spendere quelle cifre, voglio anche capire che concettualmente possa non piacere la cosa ed è soggettiva in quanto nel mercato pro al contrario è una mossa decisamente positiva.

Però se devo essere onesto 10 anni fa con un chip di fascia media non maxavi nulla in 1080p, oggi con un chippetto medio giochi dignitosamente anche a 1440p...10 anni fa su console se i giochi arrivavano a 720p era già tanto. 1080p era una risoluzione decisamente "premium". 7 anni fa (standard console 900p-1080p a 30 fps) si maxava quasi sempre e a 60 fps. Adesso bisognerebbe maxare in UHD a 60 fps, per fare un parallelismo con le console.




Secondo me tutto dipende dalle scatolette, se costano 500€ non potranno mai prezzare una 3080 a 800€ perché i prossimi giochi PC non avranno un vantaggio tecnico così superiore rispetto alle scatolette e se ti fai due conti alla fine ti compri la scatoletta, il vantaggio dovrà essere davvero tangibile per giustificare la differenza di prezzo, secondo me per via delle scatolette si riazzerano i contiOppure non compri nulla e fai floppare la generazione di schede, ma l'utente pc medio non è così sgamato. Ho di quegli screen da far accapponare la pelle tanto è ridicolo il livello di informazione.

AceGranger
23-06-2020, 14:42
diciamo che non rispecchia per alcune cose i precedenti rumors, ma almeno sulla Vram è più realistica. Possibile che possano fare una 3080ti così e una 3090/Titan con la sola differenza del doppio della Vram?

si perchè quella differenza di Vram varra i 1000 euro in piu che chiederanno; mi aspetto un prezzo in linea con l'attuale a 2400 euro; in nVlink diventano 48Gb.

devAngnew
23-06-2020, 14:45
Ribadisco il discorso, se accetti i limiti dell'ecosistema console prenditi una console se per le tue esigenze va bene, ma in termini di dettaglio sarai ai livelli di una GPU di fascia media come la 3060 ma anche meno probabilmente, sopratutto con RT attivo...

Per giocare non ti serve una GPU da 1000€, quindi nessuno ti obbliga a spendere quelle cifre, voglio anche capire che concettualmente possa non piacere la cosa ed è soggettiva in quanto nel mercato pro al contrario è una mossa decisamente positiva.

Però se devo essere onesto 10 anni fa con un chip di fascia media non maxavi nulla in 1080p, oggi con un chippetto medio giochi dignitosamente anche a 1440p...

Persino notebook sotto i 1000€ con 1660ti ma anche 1650 in FHD si tira su senza problemi quasi tutto...

Penso che data l'assenza di competizione nella fascia alta TI/Titan, nvidia ha convertito le stesse pensando a un mercato più ampio visto che tralasciando gli appassionati di HW che rappresentano una nicchia nessuno spende più di 600€ di GPU e altrettanti 7-1000€+ per monitor 4K o 3440x1440+ ...

Sopratutto considerando l'enorme svalutazione di questi chip dopo un paio d'anni con l'uscita delle nuove...



Su PC ci sono spesso offerte nei negozi di key a prezzi ridicoli, oltre alla grossa mole di titoli regalati, sopratutto steam dove nel caso di remake spesso li regala se hai il titolo originale in libreria, per non parlare di Epic che da più di un anno sta regalando giochi anche grossi oltre a servizi come Uplay+ o Orgin Access, cosi come la stessa piattaforma di Microsoft sono presenti anche su pc, quindi proprio in termini di convenienza rimane la piattaforma più economica sul fronte software.

Inoltre una 2060 liscia al suo esordio costava sui 300-350€ che poi ora ci siano dei rincari dovuti anche al periodo è un discorso a sè e nella fascia sui 250€ c'è la 1660s che rimane una soluzione validissima. E non vedo come una GPU analoga alla 2060 possa costare oltre i 300€ e tra l'altro non ci sono neanche rumor e speculazioni sui chip inferiori alla x80 sui prezzi visto che usciranno solo successivamente, forse nel periodo invernale...

Il discorso, ribadisco e chiudo "non c'è bisogno di 1500 euro per giocare" è lontano dal concetto espresso, in quanto si sta parlando che oggi per avere le stesse performance (top gamma) di qualche anno fa ci vogliono il triplo dei soldi.



questa direi che è una tua convinzione; credo che nVidia sappia molto bene a chi vende, quante ne vende e perchè...

nVidia è nota per non regalare MAI NULLA.... in una sola gen va a investire un botto nel brand STUDIO ( che è trasversale e comprende sia QUADRO che Geforce ), certifica parzialmente i driver Geforce e in piu lascia sbloccate feature come la memoria condivisa che avrebbe potuto BENISSIMO lasciare bloccate, bè non sono cose a caso...


Non è una mia convinzione e lo sai, non sono la maggioranza coloro che usano la s. video per uso grafico 3D.

mikael84
23-06-2020, 14:45
diciamo che non rispecchia per alcune cose i precedenti rumors, ma almeno sulla Vram è più realistica. Possibile che possano fare una 3080ti così e una 3090/Titan con la sola differenza del doppio della Vram?

Beh Thunder, delle volte me ne vergogno pure io a commentare certe cose, perchè appunto rumors.:)
Anche JHH non penso sia molto contento, di queste notizie.:p

Cmq il chip dovrebbe essere quello, ormai penso non ci siano dubbi, essendo un 7 GPC, quindi un chip da 448 bit, ma con 2 canali non collegati, a livello di BW e ram potrebbe benissimo utilizzare il collegamento full.
Sul chip finale, anche li potrebbe starci, per distanziare la 3080 (dove siamo appena al 23% sulle ALU).
Alla fine la differenza con la Titan sarà dato dalla ram.
Male andando levano 128/256cc, ma male andando a livello di calcolo.

I chip puri cmq li avranno per la quadro.:)

Crysis90
23-06-2020, 14:47
Perché probabilmente é stata rivista la cache e abbiamo miglioramenti di IPC, qualche rumor di alcuni giorni fa quantificava un miglioramento del 15-20%, inoltre probabilmente i boost clock max erano superiori che però non sono stati rilevati.



Niente di tutto ciò è mai accaduto se guardi le ultime 3/4 generazioni, con il modello XX80 della nuova serie che andava sempre ad affiancare il modello XX80 Ti di quella precedente a livello di prestazioni.
C'è sempre corso un + o - 5%, in base al gioco.

IMHO, tornate coi piedi per terra e siate realistici.
Vi ricordo che NVidia non ha alcun motivo di spingere così tanto in aumento di performances con la nuova generazione a causa della mancanza di concorrenza sulla fascia più alta.

Ubro92
23-06-2020, 14:50
Il problema è che 7 anni fa le console erano sotto chippettini da 150-180 euro, invece la 3060 quanto costerà?
Pure le console saliranno di prezzo ma sicuramente non in modo proporzionale.



PS4 uscii molto tardi e vecchia, con internamente una gpu simile alla 7790 quando in ambito pc furono annunciate da poco le 290/290x.

Con la PS4 Pro e Xbox Scorpio già il tiro fu decisamente alzato con GPu del calibro di RX 570 e 580 ma miracoli rispetto a un pc analogo non ne ho visti.

Ora con le prossime avremo GPU RDNA2 che saranno comunque chip di fascia media, e che oltre alla 3060 ci saranno anche le relative proposte di AMD, e di norma proprio la fascia x60 è quella più combattuta, dove nvidia in questa gen se l'è giocata con le GTX 1660ti e 1650 poi variate con le super all'arrivo della serie 5000 di AMD.

Quindi non credo minimamente che non ci sarà nulla di competitivo sopratutto in quella fascia... Ma non sappiamo nulla se Nvidia riproporrà delle GTX con sola potenza raster o se vorrà giocarsela lasciando i tensor core anche sulle entry level sotto la 3060 quindi eliminando del tutto le GTX.

Niente di tutto ciò è mai accaduto se guardi le ultime 3/4 generazioni, con il modello XX80 della nuova serie che andava sempre ad affiancare il modello XX80 Ti di quella precedente a livello di prestazioni.
C'è sempre corso un + o - 5%, in base al gioco.

IMHO, tornate coi piedi per terra e siate realistici.
Vi ricordo che NVidia non ha alcun motivo di spingere così tanto in aumento di performances con la nuova generazione a causa della mancanza di concorrenza sulla fascia più alta.

Se nvidia ha intenzione di diversificare il mercato pro da quello consumer, non è strano che la 3080 arrivi a quel target di prestazioni rispetto la 2080ti considerando che si basa su GA102 rispetto alle precedenti gen, il punto semmai è che avremo minori differenze prestazionali tra 3080 e 3080ti e ancora non è chiaro cosa sia in realtà la 3090 considerando che la Titan sembra appurato montare memorie a doppia densità ed essere completamente sbloccata, se 3080ti e 3090 coesisteranno significa che la ti avrà un cut a metà strada tra 3080 e 3090 (forse full sbloccata senza memorie a doppia densità)

slide1965
23-06-2020, 14:56
Scusate ma parlare di console nel thread delle 3000 è al limite dell’offensivo....:D
se uno si pone il problema tra console e 3080 c’è qualcosa che non quadra.
Utenze diverse , esigenze diverse, prestazioni enormemente diverse , siamo su 2 mondi opposti.

AceGranger
23-06-2020, 14:57
Non è una mia convinzione e lo sai, non sono la maggioranza coloro che usano la s. video per uso grafico 3D.

numericamente come persone fisiche no, ma chi lo fa come me di lavoro non ne prende 1.

ne ho prese io 2 che sono in fase di test... e non ho ancora iniziato la migrazione al GPGPU... ti assicuro che nei forum di grafica ne vedo molti che gia sono su GPU, piu delle 2080Ti che vedo qui o sui forum di hardware concorrenti.

mikael84
23-06-2020, 15:00
Scusate ma parlare di console nel thread delle 3000 è al limite dell’offensivo....:D
se uno si pone il problema tra console e 3080 c’è qualcosa che non quadra.
Utenze diverse , esigenze diverse, prestazioni enormemente diverse , siamo su 2 mondi opposti.

Da mettere in prima pagina. Come se nvidia con la 3080/ti mirasse alle scatolette.:p

parcher
23-06-2020, 15:21
la faccio più facile, i rumors si baserebbero su questa immagine:

https://i.imgur.com/BdGcCNMl.jpg



BOOM :sofico:

NAP.
23-06-2020, 15:52
Il discorso e' semplice, prendiamo le console attuali e una 2080ti, e diciamo che vogliamo giocare a control, adesso giocare a control su pc con una 2080ti e' tutto un altro mondo, sia per dettagli che per performance e per il raytracing, che se te lo giochi su una xbox one x te le sogni, allora ti fai due conti e dici "ehi che fico control mo quasi quasi ce li spendo 1200 eurozzi per una 2080ti", con le nuove scatolette si riazzerano i conti, innanzitutto ci sono i soliti trattamenti elitari del tipo fifa21 che su pc usa come base le versioni per console vecchie, poi le nuove console offriranno 4k, ray tracing, buone performance soprattutto all'inizio, e mettiamo che costano 500euro, mi dici facendoti due conti perche' mai dovresti spende 1200euro di 3080ti per un misero 30% sulla 2080 ma soprattutto differenze intangibili con le conole nuove? per questo vi dico che il primo competitor di queste schede saranno Sony e Microsoft, e a sto giro vedremo un calo prezzi, a meno che le console non avranno prezzi alti tipo oltre i 600euro, in quel caso siamo tutti nella merda

fraussantin
23-06-2020, 16:10
Il discorso e' semplice, prendiamo le console attuali e una 2080ti, e diciamo che vogliamo giocare a control, adesso giocare a control su pc con una 2080ti e' tutto un altro mondo, sia per dettagli che per performance e per il raytracing, che se te lo giochi su una xbox one x te le sogni, allora ti fai due conti e dici "ehi che fico control mo quasi quasi ce li spendo 1200 eurozzi per una 2080ti", con le nuove scatolette si riazzerano i conti, innanzitutto ci sono i soliti trattamenti elitari del tipo fifa21 che su pc usa come base le versioni per console vecchie, poi le nuove console offriranno 4k, ray tracing, buone performance soprattutto all'inizio, e mettiamo che costano 500euro, mi dici facendoti due conti perche' mai dovresti spende 1200euro di 3080ti per un misero 30% sulla 2080 ma soprattutto differenze intangibili con le conole nuove? per questo vi dico che il primo competitor di queste schede saranno Sony e Microsoft, e a sto giro vedremo un calo prezzi, a meno che le console non avranno prezzi alti tipo oltre i 600euro, in quel caso siamo tutti nella merdaLa 3080ti non ha senso si essere paragonata alle console

Figurati se l'utente che spende solitamente 1500 euro per una GPU va a giocare a 30 fps su una scatoletta.

Le console tufferanno sull'utenza in fascia bassa quello da 1660S o al massimo da 2070.

Fermo restando che chi gioca al PC solitamente il PC se lo tiene affiancato alle console non è che se lo vende e se non sarà quest'anno sarà il prossimo e aggiornerà pure quello alla prima occasione.

Certo Microsoft sta facendo veramente di tutto per affiliare l'utenza Windows alla nuova Xbox , e il pass "semigratis" è lì per quello.

Un po' ci spero che l'utenza media passi su console, potrebbe essere la volta che Nvidia e AMD creino almeno una fascia media a prezzi umani.

Per la master race non ci sono speranze.

mikael84
23-06-2020, 16:10
Il discorso e' semplice, prendiamo le console attuali e una 2080ti, e diciamo che vogliamo giocare a control, adesso giocare a control su pc con una 2080ti e' tutto un altro mondo, sia per dettagli che per performance e per il raytracing, che se te lo giochi su una xbox one x te le sogni, allora ti fai due conti e dici "ehi che fico control mo quasi quasi ce li spendo 1200 eurozzi per una 2080ti", con le nuove scatolette si riazzerano i conti, innanzitutto ci sono i soliti trattamenti elitari del tipo fifa21 che su pc usa come base le versioni per console vecchie, poi le nuove console offriranno 4k, ray tracing, buone performance soprattutto all'inizio, e mettiamo che costano 500euro, mi dici facendoti due conti perche' mai dovresti spende 1200euro di 3080ti per un misero 30% sulla 2080 ma soprattutto differenze intangibili con le conole nuove? per questo vi dico che il primo competitor di queste schede saranno Sony e Microsoft, e a sto giro vedremo un calo prezzi, a meno che le console non avranno prezzi alti tipo oltre i 600euro, in quel caso siamo tutti nella merda

Che vada il 30% in base ad un es dubbio, non ci metterei la mano sul fuoco.
Fifa 21, debutterà insieme alle console vecchie, non ci saranno ancora le nuove.
L'errore che si fa sempre, è accostare le scatolette ai chip che ci sono ora.

Volendo ti potrei rigirare la domanda, e chiederti, come mai una ps4 pro costi
circa 400 euro, quando da 4 anni a questa parte, la scheda relativa, superiore, costava 120-140 euro...;)

Sulle nuove scatolette, non serve per forza la 3080ti, basterà una 3060, ed una CPU mediamente recente.
Chi chiede la 3080/ti ha target gaming/pro diversi da quelli del consolaro.

mattxx88
23-06-2020, 16:14
Chi chiede la 3080/ti ha target gaming/pro diversi da quelli del consolaro.

attento a usare questi termini in un contesto storico delicato come il nostro

#ConsoleLivesMatter

fraussantin
23-06-2020, 16:15
Fifa 21, debutterà insieme alle console vecchie, non ci saranno ancora le nuove.

.

Da quello che ho capito i giochi in uscita sulle vecchie ( tipo cyberpunk ) saranno da subito giocabili sulle nuove a prestazioni migliori senza attendere l'eventuale remastered.
O almeno ho capito così dalle dichiarazioni di CDP.
Quindi è probabile che tramite patch sistemino velocemente almeno le prestazioni di certi giochi limitati su oldgen

In ogni caso vale quanto detto sopra.

Ton90maz
23-06-2020, 16:24
PS4 uscii molto tardi e vecchia, con internamente una gpu simile alla 7790 quando in ambito pc furono annunciate da poco le 290/290x.

Con la PS4 Pro e Xbox Scorpio già il tiro fu decisamente alzato con GPu del calibro di RX 570 e 580 ma miracoli rispetto a un pc analogo non ne ho visti.

Ora con le prossime avremo GPU RDNA2 che saranno comunque chip di fascia media, e che oltre alla 3060 ci saranno anche le relative proposte di AMD, e di norma proprio la fascia x60 è quella più combattuta, dove nvidia in questa gen se l'è giocata con le GTX 1660ti e 1650 poi variate con le super all'arrivo della serie 5000 di AMD.

Quindi non credo minimamente che non ci sarà nulla di competitivo sopratutto in quella fascia... Ma non sappiamo nulla se Nvidia riproporrà delle GTX con sola potenza raster o se vorrà giocarsela lasciando i tensor core anche sulle entry level sotto la 3060 quindi eliminando del tutto le GTX.



La ps4 era vecchia più o meno (non sono pochi mesi a fare la differenza) quanto sarà vecchia la ps5 con rdna2 all'uscita. La 7790 non somigliava per niente all'apu della ps4. Anticipava gcn 2 ma con solo 2 ace, aveva la metà delle interfacce di memoria, meno rops, meno cu. Tutta un'altra cosa ma il punto non è questo.

Tutte le console hanno sempre usato chip, al massimo, assimilabili alla fascia media. La differenza starà tutta nel prezzo relativo.

mikael84
23-06-2020, 16:25
attento a usare questi termini in un contesto storico delicato come il nostro

#ConsoleLivesMatter

:sofico:


Cmq direi di chiuderla con le console in generale, i confronti si faranno quando debutteranno i chip di fascia medio- medio-bassa ampere e AMD.

Ora cerchiamo di vedere questo GA102.:)

Thunder-74
23-06-2020, 16:37
:sofico:


Cmq direi di chiuderla con le console in generale, i confronti si faranno quando debutteranno i chip di fascia medio- medio-bassa ampere e AMD.

Ora cerchiamo di vedere questo GA102.:)

Accendo e confermo...

slide1965
23-06-2020, 16:44
Il discorso e' semplice, prendiamo le console attuali e una 2080ti, e diciamo che vogliamo giocare a control, adesso giocare a control su pc con una 2080ti e' tutto un altro mondo, sia per dettagli che per performance e per il raytracing, che se te lo giochi su una xbox one x te le sogni, allora ti fai due conti e dici "ehi che fico control mo quasi quasi ce li spendo 1200 eurozzi per una 2080ti", con le nuove scatolette si riazzerano i conti, innanzitutto ci sono i soliti trattamenti elitari del tipo fifa21 che su pc usa come base le versioni per console vecchie, poi le nuove console offriranno 4k, ray tracing, buone performance soprattutto all'inizio, e mettiamo che costano 500euro, mi dici facendoti due conti perche' mai dovresti spende 1200euro di 3080ti per un misero 30% sulla 2080 ma soprattutto differenze intangibili con le conole nuove?
con le nuove scatolette non si riazzera nulla purtroppo, se ad ogni next gen si riazzerassero i conti avrei gia abbandonato il pc da tempo, la realtà è che nonostante le ottimizzazioni, ci sara, come sempre è stato , un abisso a livello di perfomance, dettagli e framerate, se paragoniamo le console ai pc top di gamma le differenze sono e saranno lampanti,non intangibili, come è sempre stato, possono mettere tutte le esclusive che vogliono.
Che poi sia giusto o sbagliato inseguire le performance su pc ai costi attuali è un discorso su cui non mi infilo perchè ognuno fa come gli pare

Giovamas
23-06-2020, 17:20
:sofico:


Cmq direi di chiuderla con le console in generale, i confronti si faranno quando debutteranno i chip di fascia medio- medio-bassa ampere e AMD.

Ora cerchiamo di vedere questo GA102.:)

quotone :) :D

devAngnew
23-06-2020, 17:37
numericamente come persone fisiche no, ma chi lo fa come me di lavoro non ne prende 1.

ne ho prese io 2 che sono in fase di test... e non ho ancora iniziato la migrazione al GPGPU... ti assicuro che nei forum di grafica ne vedo molti che gia sono su GPU, piu delle 2080Ti che vedo qui o sui forum di hardware concorrenti.

Ed quello che ho cercato di esprimere, le persone come te che producono CG o anche grafica 3d in real time è un'affare, per la maggioranza che ne fa uso gaming, come qui sul forum, no :)

FreeMan
23-06-2020, 18:29
Stop OT su console ecc

>bYeZ<

Crysis90
23-06-2020, 19:49
#ConsoleLivesMatter

Sarò razzista, ma......anche no!!!!! :asd: :asd:

thunderforce83
24-06-2020, 11:39
quindi ricapitoliamo gli ultimi rumor piu' attendibili....

Modello: Geforce RTX 3080 Ti Founders Edition
GPU: GA102-400-A1 con 5.376 core CUDA, boost clock 2.2 GHz e 21 Teraflops FP32
VRAM: Samsung GDDR6 da 12 GB con 18 Gbps (18,0 GHz effettivi), bus di memoria 384 bit, larghezza di banda di memoria 863 GB / s
Produzione: 7 nanometri
TDP: 320 watt


se le informazioni saranno confermate avremo un salto spaventoso...non capisco come fate a dire per il misero +30% ma io qui vedo 21teraflops che sono quasi il doppio rispetto alla 2080ti (13.5teraflops) quindi sinceramente alla luce dell aumento di clock ragguardevole e raddoppio della banda passante credo che rispetto a pascal e turing che su molti fronti si equivalevano qui siamo ad un netto salto generazionale...io credo che vedremo un salto notevole.

Rassegnamoci al fatto che sicuramente il costo aumenta per chi vuole questa belva...secondo me ci sara' un miglioramento sui costi
nella fascia mid level dove magari anche amd riuscira' ad arrivare e quindi sul segmento 3060/70/80...ma nella fascia top (3080ti/3090) credo che i costi aumenteranno perche' sicuramente nvidia pure a sto giro sara' inarrivabile.

Thunder-74
24-06-2020, 11:54
quindi ricapitoliamo gli ultimi rumor piu' attendibili....

Modello: Geforce RTX 3080 Ti Founders Edition
GPU: GA102-400-A1 con 5.376 core CUDA, boost clock 2.2 GHz e 21 Teraflops FP32
VRAM: Samsung GDDR6 da 12 GB con 18 Gbps (18,0 GHz effettivi), bus di memoria 384 bit, larghezza di banda di memoria 863 GB / s
Produzione: 7 nanometri
TDP: 320 watt


se le informazioni saranno confermate avremo un salto spaventoso...non capisco come fate a dire per il misero +30% ma io qui vedo 21teraflops che sono quasi il doppio rispetto alla 2080ti (13.5teraflops) quindi sinceramente alla luce dell aumento di clock ragguardevole e raddoppio della banda passante credo che rispetto a pascal e turing che su molti fronti si equivalevano qui siamo ad un netto salto generazionale...io credo che vedremo un salto notevole.

Rassegnamoci al fatto che sicuramente il costo aumenta per chi vuole questa belva...secondo me ci sara' un miglioramento sui costi
nella fascia mid level dove magari anche amd riuscira' ad arrivare e quindi sul segmento 3060/70/80...ma nella fascia top (3080ti/3090) credo che i costi aumenteranno perche' sicuramente nvidia pure a sto giro sara' inarrivabile.


Quel 30 percento alla fine potrebbe essere frutto di un modello di 3080ti ES con freq. rilassate come si diceva... oppure era una 3080...
comunque sono ancora tutti rumors ...


Inviato dal mio iPad utilizzando Tapatalk

thunderforce83
24-06-2020, 12:02
Quel 30 percento alla fine potrebbe essere frutto di un modello di 3080ti ES con freq. rilassate come si diceva... oppure era una 3080...
comunque sono ancora tutti rumors ...


Inviato dal mio iPad utilizzando Tapatalk

infatti se parliamo di un modello nerfato o enginnering sample lo posso anche capire...ma leggendo qua e la i rumor parlano di 21/23 teraflop, parliamo di numeri spaventosi...se poi consideriamo che le schede boostano a 2200 di default e magari trovi un chip riuscito spingibile a 2400/2500mhz si arriva facile facile a 25teraflop...certamente sono sempre rumor ma comunque diventano voci confermate sempre piu' spesso e qualcosa mi dice che questa volta il salto sara' molto marcato, ma di contro per mettere le mani su questo chip top di gamma bisognera' tirare fuori un bel po' di quattrini...

Thunder-74
24-06-2020, 12:13
infatti se parliamo di un modello nerfato o enginnering sample lo posso anche capire...ma leggendo qua e la i rumor parlano di 21/23 teraflop, parliamo di numeri spaventosi...se poi consideriamo che le schede boostano a 2200 di default e magari trovi un chip riuscito spingibile a 2400/2500mhz si arriva facile facile a 25teraflop...certamente sono sempre rumor ma comunque diventano voci confermate sempre piu' spesso e qualcosa mi dice che questa volta il salto sara' molto marcato, ma di contro per mettere le mani su questo chip top di gamma bisognera' tirare fuori un bel po' di quattrini...

la cosa che noto è che VideoCardz non ha riportato questo rumors, indice che non crede molto alla fonte.

amon.akira
24-06-2020, 12:14
la 2080ti nn è 13.5tf...quello è il base clock
la mia x esempio è 17tf



5376x2200x2=23tf

mircocatta
24-06-2020, 12:32
quindi ricapitoliamo gli ultimi rumor piu' attendibili....

Modello: Geforce RTX 3080 Ti Founders Edition
GPU: GA102-400-A1 con 5.376 core CUDA, boost clock 2.2 GHz e 21 Teraflops FP32
VRAM: Samsung GDDR6 da 12 GB con 18 Gbps (18,0 GHz effettivi), bus di memoria 384 bit, larghezza di banda di memoria 863 GB / s
Produzione: 7 nanometri
TDP: 320 watt


se le informazioni saranno confermate avremo un salto spaventoso...non capisco come fate a dire per il misero +30% ma io qui vedo 21teraflops che sono quasi il doppio rispetto alla 2080ti (13.5teraflops) quindi sinceramente alla luce dell aumento di clock ragguardevole e raddoppio della banda passante credo che rispetto a pascal e turing che su molti fronti si equivalevano qui siamo ad un netto salto generazionale...io credo che vedremo un salto notevole.



tralasciando che si, sarà un bel salto, ma la 2080ti non ha 13.5tflops, quello è calcolato con un boost clock misero di 1545mhz, quando in realtà in game rulla oltre i 1900mhz se non sbaglio, che sono oltre i 16,5 tflops

e infatti il 30% in più di performance ci può stare tranquillamente, tra 16.5 e 21 ci scappa il 28% in più. aggiungi le varie migliorie architetturali ed eccoti il 30% presunto


bisognerà vedere se il boost clock sarà già il limite del chip (cioè la frequenza a cui effettivamente girerà in game, 2.2ghz) o se invece è un dato messo li quasi "a caso" come lo era fino a turing

Vul
24-06-2020, 13:08
La ps4 era vecchia più o meno (non sono pochi mesi a fare la differenza) quanto sarà vecchia la ps5 con rdna2 all'uscita. La 7790 non somigliava per niente all'apu della ps4. Anticipava gcn 2 ma con solo 2 ace, aveva la metà delle interfacce di memoria, meno rops, meno cu. Tutta un'altra cosa ma il punto non è questo.

Tutte le console hanno sempre usato chip, al massimo, assimilabili alla fascia media. La differenza starà tutta nel prezzo relativo.

Ma isomma eh..La PS4 aveva una apu che combinava una cpu vecchia di 2 anni pensata per consumi bassi e laptop con una scheda video di fascia medio bassa, sempre vecchia di due anni.

La PS5 avrà una cpu di fascia media desktop (o comunque adattissima al gaming come ryzen 3600) e una gpu che sarà piu potente di qualsiasi cosa AMD offra al momento sul mercato.

Stai confrontando due scenari molto differenti.

Paragonandolo al 2013, la PS4 sarebbe uscita con Fury ed una cpu molto piu carrozzata (non AMD all'epoca quindi :D)).

Free Gordon
24-06-2020, 13:45
Non ha senso che quella sia una 3080 perchè avrebbe lo stesso n° di SP della 2080 Ti e anche le stesse frequenze, come fa ad andare più veloce del 30%????? :confused: :rolleyes:

Al massimo quello del rumor può essere il risultato di una 3080 Ti o 3090 o come diavolo hanno intenzione di chiamare la fascia più alta con questa nuova generazione.


Non so che versione sia di GA102 (dato che tutte le schede verranno dallo stesso chip...) però se anche fosse una cut da 4600sp, ne avrebbe un po' di più del TU102 e sarebbe più veloce in clock. :)
Ci può stare un +30%..

Il vero problema semmai è che tutti i chip saranno GA102, quindi delle bestie da 650mmq cuttate o meno (o giù di lì).

Free Gordon
24-06-2020, 13:51
arriva fino alla 2070 e tu la vedi solo lato gaming, io la vedo anche lato Pro e non è concorrenziale.

certo, si sta parlando di quello, mica del pro.



le schede da 500 a 900 euro sono il 22% del mercato, e di quel 22% AMD detiene il 3,5%.
le schede da + di 900 euro sono il 2% e AMD ha ovviamente lo 0%.
numericamente nVidia vende piu 2080Ti che AMD di 5500XT....
sopra i 550€
2070S - 17,2%
2080S - 4,8%
2080TI - 2,8%

Radeon VII 0,8%

sotto i 450€
2070 - 3,3%
2060S - 6,8%
2060 - 2,4%

5700XT - 14%
5700 - 6,8%

e ci si dimentica sempre che i chip delle GPU desktop dalla x080 in giu finiscono nei anche nei portatili ( che non rientrano in questi dati e che numericamente saranno sicuramente elevati ), e si vendono praticamente solo portatili con GPU nVidia, visto che il grosso sono portatili per il lavoro.
per quello che nVidia sta puntando molto nel mercato Pro; basta vedere quanto a speso per il brand STUDIO...
EDIT: i dati sono di Mindfactory del Q1 2020

Cioè sotto i 450€ AMD vende il 21% di schede mentre Nvidia il 13..?
Quindi AMD vende molto di più di Nvidia da Navi in giù? (parlando di discrete)

Come mai non ci sono le 5600 e le 5500 e le relative Nvidia?

Dove lo vedi che le >500€ sono il 22% del mercato?

ninja750
24-06-2020, 13:58
nella fascia top (3080ti/3090) credo che i costi aumenteranno perche' sicuramente nvidia pure a sto giro sara' inarrivabile.

d'altra parte finché vende fa bene con questa politica, ogni anno saggia quanto le persone sono disposte a spendere +20% un anno +20% un altro e così via siamo arrivati ai 1250€ di oggi per una 2080ti facciamo un altro +20% arriviamo a 1500€.. ora ok magari negli usa dove saranno 1500$ ma forse non sanno che lo stipendio medio europeo non può valere la VGA di un pc, disastro peggiore nelle fasce media e bassa dove il prezzo conta ancora di più

thunderforce83
24-06-2020, 13:58
la 2080ti nn è 13.5tf...quello è il base clock
la mia x esempio è 17tf



5376x2200x2=23tf

infatti:D se la tua arriva a 17 questa da 21/23 arrivera' a 30 Teraflop facile facile:sofico:

AceGranger
24-06-2020, 14:01
Cioè sotto i 450€ AMD vende il 21% di schede mentre Nvidia il 13..?
Quindi AMD vende molto di più di Nvidia da Navi in giù? (parlando di discrete)


dipende da come dividi la classifica.

nVidia vende piu 2070s che AMD di 5700XT, se le 2070S le metti in quella fascia vende di piu, se le togli vende di meno.




Come mai non ci sono le 5600 e le 5500 e le relative Nvidia?


ci sono tutte, ho scritto le principali perchè si parlava di quella fascia

https://www.3dcenter.org/artikel/mindfactory-grafikkarten-retail-verkaufsreport-q12020


5600 e 5500 sono rispettivamente l'1,5 e 2,1%.


Dove lo vedi che le >500€ sono il 22% del mercato?


sempre dalla classifica li sopra.

ninja750
24-06-2020, 14:06
EDIT: i dati sono di Mindfactory del Q1 2020

ma non si è detto che "quei numeri sono carta straccia perchè non ci si può basare sui dati di vendita di un solo shop in una sola nazione" altrimenti risulta che AMD venda 87% di CPU contro il 13% di intel? (https://www.tweaktown.com/news/73040/mindfactory-data-amd-is-outselling-and-smashing-intel-87-to-just-13/index.html?utm_source=dlvr.it&utm_medium=facebook&fbclid=IwAR3PLEZU6p2j9zo_PgSv23bO4--ebXiuoskXwYFiVyikOFsECC4cLTxqufg)

amon.akira
24-06-2020, 14:14
infatti:D se la tua arriva a 17 questa da 21/23 arrivera' a 30 Teraflop facile facile:sofico:

per arrivare a 30tf dovrebbe boostare a 2.800mhz

Gello
24-06-2020, 14:16
Stop OT su console ecc

>bYeZ<

Friendly reminder :sofico:

thunderforce83
24-06-2020, 14:25
per arrivare a 30tf dovrebbe boostare a 2.800mhz



io altro modo per spiegare un dimezzamento del processo produttivo/ottimizzazione/aumento bus memorie...

aspettiamoci un miglioramento del 100% su alcuni titoli per la next gen :oink:

AceGranger
24-06-2020, 14:33
ma non si è detto che "quei numeri sono carta straccia perchè non ci si può basare sui dati di vendita di un solo shop in una sola nazione" altrimenti risulta che AMD venda 87% di CPU contro il 13% di intel? (https://www.tweaktown.com/news/73040/mindfactory-data-amd-is-outselling-and-smashing-intel-87-to-just-13/index.html?utm_source=dlvr.it&utm_medium=facebook&fbclid=IwAR3PLEZU6p2j9zo_PgSv23bO4--ebXiuoskXwYFiVyikOFsECC4cLTxqufg)

non si è detto chi ?

e infatti è esattamente cosi, AMD vende l'87% delle CPU ma nel MERCATO RETAIL, che nel caso delle CPU è una fetta piccola rispetto alle vagonate di CPU che vende Intel con i contratti OEM, sopratutto nei notebook; se vuoi contare le GPU agli OEM sicuro la situazione di AMD peggiora alla grande; d'altra parte i fatturati dell'una e dell'altra sono noti.

Free Gordon
24-06-2020, 14:40
dipende da come dividi la classifica.

https://ibb.co/X4n6vM7

AMD ha più del 30% delle revenue, avendo solo Navi10-14 tra i chip nuovi, non mi pare male.

Free Gordon
24-06-2020, 14:42
ma non si è detto che "quei numeri sono carta straccia perchè non ci si può basare sui dati di vendita di un solo shop in una sola nazione" altrimenti risulta che AMD venda 87% di CPU contro il 13% di intel?

E' abbastanza realistico andare a vedere certi dati secondo me.
Le vendite reali nei negozi, sono importanti e sono dati chiari soprattutto...

OrazioOC
24-06-2020, 14:45
Vabbe' mindfactory :rolleyes: , è come cercare di determinare il market share della pasta più venduta basandomi sulle vendite del supermercato sottocasa. :asd:
Mindfactory è stato tirato fuori dai reddit amd perchè quei dati solleticavano la fantasia di qualche fanboy, ma non è che mindfactory sia utile e rappresentativo per determinare l'andamento del mercato. :rolleyes:

mikael84
24-06-2020, 14:48
la 2080ti nn è 13.5tf...quello è il base clock
la mia x esempio è 17tf



5376x2200x2=23tf

tralasciando che si, sarà un bel salto, ma la 2080ti non ha 13.5tflops, quello è calcolato con un boost clock misero di 1545mhz, quando in realtà in game rulla oltre i 1900mhz se non sbaglio, che sono oltre i 16,5 tflops

e infatti il 30% in più di performance ci può stare tranquillamente, tra 16.5 e 21 ci scappa il 28% in più. aggiungi le varie migliorie architetturali ed eccoti il 30% presunto


bisognerà vedere se il boost clock sarà già il limite del chip (cioè la frequenza a cui effettivamente girerà in game, 2.2ghz) o se invece è un dato messo li quasi "a caso" come lo era fino a turing

Occhio raga, qua vale un ragionamento inverso.:)
La 2080ti chip non A, ha un boost base di 1545 a 250 watt su 6 raster (41w x 6 motori + nvlink). Mentre la FE in boost base va a 1635 a 260.

i valori delle ampere andrebbero interpretati in base boost, non in boost per tensione.

Con tsmc 7nm si possono prendere dal 30 al 35% di clock, quindi dei base a 2000/2200 sarebbero davvero oro, perchè significherebbero boost per tensione da 2300/2400.:)

Una 2080ti a 7nm TSMC dovrebbe consumare 170watt.

quindi ricapitoliamo gli ultimi rumor piu' attendibili....

Modello: Geforce RTX 3080 Ti Founders Edition
GPU: GA102-400-A1 con 5.376 core CUDA, boost clock 2.2 GHz e 21 Teraflops FP32
VRAM: Samsung GDDR6 da 12 GB con 18 Gbps (18,0 GHz effettivi), bus di memoria 384 bit, larghezza di banda di memoria 863 GB / s
Produzione: 7 nanometri
TDP: 320 watt


se le informazioni saranno confermate avremo un salto spaventoso...non capisco come fate a dire per il misero +30% ma io qui vedo 21teraflops che sono quasi il doppio rispetto alla 2080ti (13.5teraflops) quindi sinceramente alla luce dell aumento di clock ragguardevole e raddoppio della banda passante credo che rispetto a pascal e turing che su molti fronti si equivalevano qui siamo ad un netto salto generazionale...io credo che vedremo un salto notevole.

Rassegnamoci al fatto che sicuramente il costo aumenta per chi vuole questa belva...secondo me ci sara' un miglioramento sui costi
nella fascia mid level dove magari anche amd riuscira' ad arrivare e quindi sul segmento 3060/70/80...ma nella fascia top (3080ti/3090) credo che i costi aumenteranno perche' sicuramente nvidia pure a sto giro sara' inarrivabile.

Quello è, o un fake o un ES a basso clock, guarda le memorie:p

AceGranger
24-06-2020, 14:48
Vabbe' mindfactory :rolleyes: , è come cercare di determinare il market share della pasta più venduta basandomi sulle vendite del supermercato sottocasa. :asd:
Mindfactory è stato tirato fuori dai reddit amd perchè quei dati solleticavano la fantasia di qualche fanboy, ma non è che mindfactory sia utile e rappresentativo per determinare l'andamento del mercato. :rolleyes:

MindFactory è uno dei piu grossi retailer ed è un buon metro di misura; certo ci saranno delle variazioni % ma quello si puo tranquillamente assodare come andamento di vendita generale; e se guardi le macro % non sono dissimili da quelle di JPR


anche perchè vedendo i fatturati, non vedo dove stiano le vendite di GPU AMD; come le vende in nero ?

OrazioOC
24-06-2020, 14:55
MindFactory è uno dei piu grossi retailer ed è un buon metro di misura; certo ci saranno delle variazioni % ma quello si puo tranquillamente assodare come andamento di vendita generale; e se guardi le macro % non sono dissimili da quelle di JPR


anche perchè vedendo i fatturati, non vedo dove stiano le vendite di GPU AMD; come le vende in nero ?

E' grosso, ma ci sono delle oscillazioni importanti tra paesi e paesi in fatto di disponibilità, vedasi in cina dove ancora intel ma soprattutto nvidia stravendono.
E questo è un discorso applicato solo per il diy, perchè come hai detto te 2 post sopra, negli oem è tutta un'altra storia.:rolleyes:

ninja750
24-06-2020, 15:02
se vuoi contare le GPU agli OEM sicuro la situazione di AMD peggiora alla grande

quante 2080s e 2080ti montano gli OEM? penso montino più 5500 o 1650

mi sembra assurdo non ci siano dati di market share veri con il numero di chip venduti globalmente

Telstar
24-06-2020, 15:06
MindFactory è uno dei piu grossi retailer ed è un buon metro di misura

Sarebbero più utili i dati di newegg o di amazon, comunque non sono dati inutili.

Ton90maz
24-06-2020, 15:09
Ma isomma eh..La PS4 aveva una apu che combinava una cpu vecchia di 2 anni pensata per consumi bassi e laptop con una scheda video di fascia medio bassa, sempre vecchia di due anni.

La PS5 avrà una cpu di fascia media desktop (o comunque adattissima al gaming come ryzen 3600) e una gpu che sarà piu potente di qualsiasi cosa AMD offra al momento sul mercato.

Stai confrontando due scenari molto differenti.

Paragonandolo al 2013, la PS4 sarebbe uscita con Fury ed una cpu molto piu carrozzata (non AMD all'epoca quindi :D)).No perchè bobcat e jaguar non sono la stessa cosa, o potremmo dire che ps5 ha una cpu vecchia di 3 anni e mezzo.
Gcn 1 e la roba presente nella ps4 non sono la stessa cosa o potremmo dire che ps5 ha una 5700 di un anno e mezzo prima.


Gli scenari sono molto differenti per altri motivi, non perchè "ps4 era vecchia". Pure zen 2 è una cpu laptop a basso consumo, occupa pure circa la stessa superficie dei cluster jaguar a 28 nm. Soltanto che l'industria del silicio è andata avanti più dello sviluppo delle cpu e con meno di mezzo centimetro quadrato di silicio oggi porti a casa una cpu definibile buona.

Più potente perchè rosy bindi e co. non hanno presentato alcuna "7970", non è che servisse una fury per fare la ps5 dell'epoca (che in proporzione a bw e die oggi sarebbe una navi da oltre 100 CU e bus da 6000 e passa bit).

mikael84
24-06-2020, 15:16
Non so che versione sia di GA102 (dato che tutte le schede verranno dallo stesso chip...) però se anche fosse una cut da 4600sp, ne avrebbe un po' di più del TU102 e sarebbe più veloce in clock. :)
Ci può stare un +30%..

Il vero problema semmai è che tutti i chip saranno GA102, quindi delle bestie da 650mmq cuttate o meno (o giù di lì).

Il chip, salvo smentite finali sarà da 4352cc, ovvero quanto la 2080ti, ma con 2 partizioni l2 laserate.
Sulle prestazioni 3dmark, ancora è tutto dire, considerando che l'es, o il fake, veniva visto con memorie da 12gb/s.

Ci sono anche altri parametri che bisognerà inquadrare meglio, come il presunto 1:1 cache registri load store/l1, già visto in volta, ma non in turing.
Questo dovrebbe aumentare la l1, e la sua BW (cpu come haswell e zen hanno fatto la fortuna qui).
Ampere qua aumenta di brutto.

infatti:D se la tua arriva a 17 questa da 21/23 arrivera' a 30 Teraflop facile facile:sofico:

Nei bench ci sono utenti che hanno superato i 19tf.:)
Una 3080, stesso chip potrebbe boostare anche in base per tensione (1/1,068v) a quel valore.

fraussantin
24-06-2020, 15:19
MindFactory è uno dei piu grossi retailer ed è un buon metro di misura; certo ci saranno delle variazioni % ma quello si puo tranquillamente assodare come andamento di vendita generale; e se guardi le macro % non sono dissimili da quelle di JPR


anche perchè vedendo i fatturati, non vedo dove stiano le vendite di GPU AMD; come le vende in nero ?Piú che altro mindfactory mi pare sia tedesco e in Germania( ma anche in Francia) amd vende tanto e bene da anni anche perché é piú competitiva con i prezzi.
Se non sbaglio anche ai tempi di zen1 sbancava la.
Cmq anche in Italia sta vendendo benissimo lato CPU , se guardi la classifica Amazon Italia la prima CPU Intel sta al 20' posto ed é un 9600k.

https://www.amazon.it/gp/bestsellers/pc/460080031/ref=zg_m_bs__nav_pc_1_pc

In America idem https://www.amazon.com/Best-Sellers-Computers-Accessories-Computer-Components/zgbs/pc/193870011/ref=zg_m_bs__nav_pc_1_pc

AceGranger
24-06-2020, 15:46
quante 2080s e 2080ti montano gli OEM? penso montino più 5500 o 1650

mi sembra assurdo non ci siano dati di market share veri con il numero di chip venduti globalmente

si, quelli di JPR che danno a nVidia una % maggiore ( visto che vende molto piu agli OEM ) ;)

thunderforce83
24-06-2020, 21:53
Nei bench ci sono utenti che hanno superato i 19tf.:)
Una 3080, stesso chip potrebbe boostare anche in base per tensione (1/1,068v) a quel valore.

se questo ormai obsoleto a 12nm che alla fine sarebbe un 16nm ottimizzato e' arrivato dai 13.5tf nominali ai 19tf credo che il prossimo gioiellino superera' tranquillamente i 30tf visto che e' accreditato in via nominale di default di ben 21/23tf...io penso che ne vedremo delle belle...

NAP.
24-06-2020, 22:07
Alla fine dicevano che la legge di moore era morta ma non mi sembra

amon.akira
24-06-2020, 22:47
se questo ormai obsoleto a 12nm che alla fine sarebbe un 16nm ottimizzato e' arrivato dai 13.5tf nominali ai 19tf credo che il prossimo gioiellino superera' tranquillamente i 30tf visto che e' accreditato in via nominale di default di ben 21/23tf...io penso che ne vedremo delle belle...

30 no, ma 25 si...quella con 5376cuda...poi è relativa come unità di misura..a noi (a me :asd: ) interessa l RT

NAP.
24-06-2020, 22:52
30 no, ma 25 si...quella con 5376cuda...poi è relativa come unità di misura..a noi (a me :asd: ) interessa l RT

ovviamente, sara' interessante in questo caso vedere se siano riusciti ad offrire la possibilita' di usufruire il ray tracing a costo quasi zero rispetto al raster a parita' di risoluzione

amon.akira
24-06-2020, 23:02
ovviamente, sara' interessante in questo caso vedere se siano riusciti ad offrire la possibilita' di usufruire il ray tracing a costo quasi zero rispetto al raster a parita' di risoluzione

secondo me si, anche perchè il raster è diventato anch'esso pesante a certi livelli, qui si salirà piu in rt e meno in raster e le differenze si assottiglieranno...ovviamente potrebbero rimarcarsi qualora i giochi spingessero anzitempo sul rendering rt...e li hai voglia a spingere :D

mikael84
24-06-2020, 23:36
se questo ormai obsoleto a 12nm che alla fine sarebbe un 16nm ottimizzato e' arrivato dai 13.5tf nominali ai 19tf credo che il prossimo gioiellino superera' tranquillamente i 30tf visto che e' accreditato in via nominale di default di ben 21/23tf...io penso che ne vedremo delle belle...

30 su azoto:D , dovresti avere un picco, almeno a liquido di 2800.:D

Cmq se introducono i valori di IPC sulla l1/l2, potrà sembrare strano, ma a pari cuda, si guadagneranno prestazioni, che sui sintetici difficilmente vedi.
Se pensi ad haswell vs sandy, e zen 2 vs zen+, potrai notare come la l1, non è da assecondare.:)

amon.akira
24-06-2020, 23:50
30 su azoto:D , dovresti avere un picco, almeno a liquido di 2800.:D

Cmq se introducono i valori di IPC sulla l1/l2, potrà sembrare strano, ma a pari cuda, si guadagneranno prestazioni, che sui sintetici difficilmente vedi.
Se pensi ad haswell vs sandy, e zen 2 vs zen+, potrai notare come la l1, non è da assecondare.:)

esatto, che è quello che c interessa :D

mikael84
25-06-2020, 00:13
esatto, che è quello che c interessa :D

:D Ovviamente.
Peccato non poterlo sfruttarlo tutto in raster per dei limiti.
Pensa che la 3080ti potrà memorizzare via sfu 168 rop's, ma ne potrà elaborare 96, se a 384bit, altrimenti 88.
Il raddoppio rop's/l2 è stato uno dei veri punti di forza di maxwell.

thunderforce83
25-06-2020, 00:45
30 su azoto:D , dovresti avere un picco, almeno a liquido di 2800.:D

Cmq se introducono i valori di IPC sulla l1/l2, potrà sembrare strano, ma a pari cuda, si guadagneranno prestazioni, che sui sintetici difficilmente vedi.
Se pensi ad haswell vs sandy, e zen 2 vs zen+, potrai notare come la l1, non è da assecondare.:)

per ogni generazione c'e' stato sempre un salto ragguardevole. Credo che a questo giro ancora di piu' visto che l'affinamento e' molto marcato e nonostante tutto c'e' un' aumento del consumo di corrente...solitamente nvidia e' molto parca a consumi quindi o nvidia si e' rammollita e vuole tirare fuori una scheda senza troppi avanzamenti tecnologici, oppure vuole spremere al limite tutta la nuova architettura con raytracing connesso...mi spiace ragazzi ma stavolta non sono d'accordo con voi...se una 2080ti riesce a passare da 13.5 a 17 senza troppi sforzi non capisco perche' la nuova (tiratissima dal punto di vista energetico) e con un PP di ultima generazione non debba fare ancora meglio, ovviamente parliamo di supposizioni, e' tutto in forse,ma se ci pensiamo bene 320watt, 7nm, architettura perfezionata...non dico nulla dai, semplicemente ne vedremo delle belle :D

amon.akira
25-06-2020, 00:58
:D Ovviamente.
Peccato non poterlo sfruttarlo tutto in raster per dei limiti.
Pensa che la 3080ti potrà memorizzare via sfu 168 rop's, ma ne potrà elaborare 96, se a 384bit, altrimenti 88.
Il raddoppio rop's/l2 è stato uno dei veri punti di forza di maxwell.

pensi a una 3080ti a 384bit?

io dico
320bit 3080
352bit 3080ti
384bit 3090

e titan solo x la doppia densità? se cosi fosse farebbe pensare a ottime rese e quindi rimango fiducioso sul prezzo, nonchè ci sarà meno distacco anche con la 3080.

The_SaN
25-06-2020, 01:02
Secondo me 3080ti e 3090 sono la stessa scheda, che avrà 12GB/384bit.
La 3080 la vedrei bene 10GB/320bit.
TITAN 24GB e nuovo record dei prezzi :asd:

amon.akira
25-06-2020, 01:05
Secondo me 3080ti e 3090 sono la stessa scheda, che avrà 12GB/384bit.
La 3080 la vedrei bene 10GB/320bit.
TITAN 24GB e nuovo record dei prezzi :asd:

dici che abbandonano il nome storico Ti sulla "top" gaming, potrebbe essere però non so se è meglio x noi...sarebbe na scusa x beccarsi un piccolo cut a qualche dollaro in meno, insomma piu scelta meglio è :D

mikael84
25-06-2020, 01:29
per ogni generazione c'e' stato sempre un salto ragguardevole. Credo che a questo giro ancora di piu' visto che l'affinamento e' molto marcato e nonostante tutto c'e' un' aumento del consumo di corrente...solitamente nvidia e' molto parca a consumi quindi o nvidia si e' rammollita e vuole tirare fuori una scheda senza troppi avanzamenti tecnologici, oppure vuole spremere al limite tutta la nuova architettura con raytracing connesso...mi spiace ragazzi ma stavolta non sono d'accordo con voi...se una 2080ti riesce a passare da 13.5 a 17 senza troppi sforzi non capisco perche' la nuova (tiratissima dal punto di vista energetico) e con un PP di ultima generazione non debba fare ancora meglio, ovviamente parliamo di supposizioni, e' tutto in forse,ma se ci pensiamo bene 320watt, 7nm, architettura perfezionata...non dico nulla dai, semplicemente ne vedremo delle belle :D

Dei 320 watt non è confermato nulla cmq, sono solo rumors.
Potrebbero pero entrare in ballo alcune variabili, come:
-il primo passaggio a 7 rasterizzatori (pensa che verrebbe fuori 45w per raster, gli stessi di una 1080 per dire ).
Nvlink maggiorato.
cache molto grandi, che costringono ad elevare il tdp per clockare.
possibilità di un transversal coprocessor che, per come è studiato offre la potenza in TOPS di una 2080ti.

E' ancora tutto da vedere su questo punto.

pensi a una 3080ti a 384bit?

io dico
320bit 3080
352bit 3080ti
384bit 3090

e titan solo x la doppia densità? se cosi fosse farebbe pensare a ottime rese e quindi rimango fiducioso sul prezzo, nonchè ci sarà meno distacco anche con la 3080.

Diciamo che la possibilità c'è. Seguendo lo schema (speculato ovviamente), un rasterizzatore, ovvero quello che porta i cuda da 4608 a 5376cc è a vuoto, ovvero non ha collegamento.
Quindi, anche avendo rese non ottimali, non è detto che vai a laserare una partizione di un altro GPC. Si potrebbero laserare anche 128/256cc.
La differenza per nvidia, la farà la doppia densità.:)

Cercheranno in tutti i modi, di farci passare un 20% tra x80 e x80ti.

Sulla 3090, solo rumors, secondo me introdotto in quanto AMD chiamerà la sua top 6900, e magari si aspettano le stesse prestazioni.
X90 nvidia l'ha utilizzato solo per dual gpu.
Non penso nvidia rinunci al brand titan.
Separare la 3080ti dalla 3090 per bus, avrebbe poco senso.:)

ninja750
25-06-2020, 11:07
Alla fine dicevano che la legge di moore era morta ma non mi sembra

in realtà si.. siamo vicini alla morte della legge

se guardi il grosso dei miglioramenti della futura gen (ma anche di questa attuale) non sono tanto di architettura in se o ""di ipc"" passatemi il termine ma di ingrandire sempre di più il chip ficcandoci più transistor possibili, ergo consumi contenuti solo grazie a nuovi PP e prestazioni poco superiori a pari frequenza+numerosp o chiamateli come volete tra una gen e la successiva

quello di cui siamo sicuri al 100%:

1) non potremo andare avanti con nuovi PP all'infinito per noti motivi
2) non potremo conseguentemente aumentare all'infinito il die size per noti motivi

il ristagno prestazionale di questi anni in ambito gpu ne è la prova, si potranno raddoppiare o triplicare nel giro di 4 anni ma poi? arriveremo ai limiti di cui sopra

thunderforce83
25-06-2020, 13:40
Dei 320 watt non è confermato nulla cmq, sono solo rumors.
Potrebbero pero entrare in ballo alcune variabili, come:
-il primo passaggio a 7 rasterizzatori (pensa che verrebbe fuori 45w per raster, gli stessi di una 1080 per dire ).
Nvlink maggiorato.
cache molto grandi, che costringono ad elevare il tdp per clockare.
possibilità di un transversal coprocessor che, per come è studiato offre la potenza in TOPS di una 2080ti.

E' ancora tutto da vedere su questo punto.
infatti e' ancora tutto da vedere...ma non credi che un'ottimizzazione cosi' spinta del PP ed un aumento notevole dei consumi con un miglioramento dell architettura non corrisponda con un balzo notevole? ovviamente e' tutto da prendere con le pinze...non sappiamo quanto c'e' di vero in questi rumor, ma se fosse cosi' non credi pure tu che il balzo sara' ragguardevole?

Nurabsa
26-06-2020, 08:41
:D Ovviamente.
Peccato non poterlo sfruttarlo tutto in raster per dei limiti.
Pensa che la 3080ti potrà memorizzare via sfu 168 rop's, ma ne potrà elaborare 96, se a 384bit, altrimenti 88.
Il raddoppio rop's/l2 è stato uno dei veri punti di forza di maxwell.

384/96/12 maxwell 2.0 era lo stato dell arte aggiungiamo la delta color compression ecco spiegato perche va ancora bene oggi. molto ben bilanciato

I miglioramenti L1 sono importanti tanto quanto quelli in L2.
Ben prima di haswell -2006 sembra ieri come passa il tempo- grazie a merom tutt oggi lavoro con un portatile di 13 anni che se non avesse 4mb di L2 oggi potrei usare come fermacarte :)

AceGranger
26-06-2020, 10:25
Non penso nvidia rinunci al brand titan.



magari si tengono Titan solo per la derivata A100 HPC da 3000/3500 euro.

mikael84
26-06-2020, 11:40
infatti e' ancora tutto da vedere...ma non credi che un'ottimizzazione cosi' spinta del PP ed un aumento notevole dei consumi con un miglioramento dell architettura non corrisponda con un balzo notevole? ovviamente e' tutto da prendere con le pinze...non sappiamo quanto c'e' di vero in questi rumor, ma se fosse cosi' non credi pure tu che il balzo sara' ragguardevole?

Per le prestazioni massime, bisognerà vedere i clock di funzionamento effettivi. L'IPC centra, ma a sto giro non ci sarà un mero cambio micro architetturale, solo ottimizzazioni precise.:)

384/96/12 maxwell 2.0 era lo stato dell arte aggiungiamo la delta color compression ecco spiegato perche va ancora bene oggi. molto ben bilanciato

I miglioramenti L1 sono importanti tanto quanto quelli in L2.
Ben prima di haswell -2006 sembra ieri come passa il tempo- grazie a merom tutt oggi lavoro con un portatile di 13 anni che se non avesse 4mb di L2 oggi potrei usare come fermacarte :)

La l2 di maxwell diede un grosso aiuto alla richiesta di load e texture, nonchè un impatto devastante via BW. Da segnalare anche il raddoppio delle istruzioni per cuda.

magari si tengono Titan solo per la derivata A100 HPC da 3000/3500 euro.

Si, potrebbero fare anche così, magari laserando un altro canale ram, per 32gb. Con tutti quei canali a vuoto è possibile.
La 3090 però, la trovo stana come soluzione a doppia densità. A me sembra più un nome messo così, in quanto anche AMD si chiamerà x90. Oltre 2000 euro un chip da derivazione gaming (sigla), fa strano.

Acme
26-06-2020, 13:45
magari si tengono Titan solo per la derivata A100 HPC da 3000/3500 euro.
Ci sono rumors su una possibile quadro con ga102 in tutto il suo splendore.

48 GB*7552 cuda*672 tensor* 472 tmu*96 rops*1500 MHz*
45 mld transistor.

Immagino il costo di questo mostro se esiste veramente.

AceGranger
26-06-2020, 14:25
Ci sono rumors su una possibile quadro con ga102 in tutto il suo splendore.

48 GB*7552 cuda*672 tensor* 472 tmu*96 rops*1500 MHz*
45 mld transistor.

Immagino il costo di questo mostro se esiste veramente.

Come Quadro ci vedrei meglio il chip con RT core, perche in campo grafico danno un boost che quando va male è del 40%.

mikael84
26-06-2020, 14:28
Ci sono rumors su una possibile quadro con ga102 in tutto il suo splendore.

48 GB*7552 cuda*672 tensor* 472 tmu*96 rops*1500 MHz*
45 mld transistor.

Immagino il costo di questo mostro se esiste veramente.

Totalmente fake, e te lo spiego subito.
GA102 avrà 5376cc non 7552cc, che solo il chip A100 nella sua versione con l'ottavo GPC può dare.
I tensor sono 4 per SM, un chip da 7552 cc, avrebbe 472 tensor core.


Le rop's di A100 sono 192 non 96 (96 significano 6 collegamenti /384bit/ 6 raster full).

Per 48gb su un ga102 e 96 rop's dovresti utilizzare un modulo a conchiglia ram ad 8 bit, ovvero 4gb per canale, come la rtx8000.:)

1500 è una frequenza da HPC, le quadro avranno i core RT.

Acme
26-06-2020, 14:45
Come Quadro ci vedrei meglio il chip con RT core, perche in campo grafico danno un boost che quando va male è del 40%.

Vero, mi erano sfuggite.

Shading Units
7552
TMUs
472
ROPs
96
SM Count
118
Tensor Cores
672
RT Cores
168
L1 Cache
192 KB per SM
L2 Cache
6144 KB
Max. TDP
320 W

Ho un dubbio, si possono avere più di 300w con questa elettronica, 150w il pcie +75w gli 8pin che solitamente sono 2.
Dove prendono l'energia mancante?

Andy1111
26-06-2020, 14:53
Vero, mi erano sfuggite.

Shading Units
7552
TMUs
472
ROPs
96
SM Count
118
Tensor Cores
672
RT Cores
168
L1 Cache
192 KB per SM
L2 Cache
6144 KB
Max. TDP
320 W

Ho un dubbio, si possono avere più di 300w con questa elettronica, 150w il pcie +75w gli 8pin che solitamente sono 2.
Dove prendono l'energia mancante?

l'8 pin è 150W 2 sono 300W e 75 è il PCIE mentre il 6 pin se non erro è 75W

Acme
26-06-2020, 14:55
Totalmente fake, e te lo spiego subito.
GA102 avrà 5376cc non 7552cc, che solo il chip A100 nella sua versione con l'ottavo GPC può dare.
I tensor sono 4 per SM, un chip da 7552 cc, avrebbe 472 tensor core.


Le rop's di A100 sono 192 non 96 (96 significano 6 collegamenti /384bit/ 6 raster full).

Per 48gb su un ga102 e 96 rop's dovresti utilizzare un modulo a conchiglia ram ad 8 bit, ovvero 4gb per canale, come la rtx8000.:)

1500 è una frequenza da HPC, le quadro avranno i core RT.

L'ho detto che era un rumors e mi fa piacere che ci sia tu che ne capisce con i rapporti cosi da poterci sviare da voli pindarici.
Quindi la futura 3080/3090/titan sarà la massima declinazione di ga102?

AceGranger
26-06-2020, 14:57
Vero, mi erano sfuggite.

Shading Units
7552
TMUs
472
ROPs
96
SM Count
118
Tensor Cores
672
RT Cores
168
L1 Cache
192 KB per SM
L2 Cache
6144 KB
Max. TDP
320 W

Ho un dubbio, si possono avere più di 300w con questa elettronica, 150w il pcie +75w gli 8pin che solitamente sono 2.
Dove prendono l'energia mancante?

no è il contrario;

75W il PCI-EX
75W il 6 Pin
150W 8 Pin

Acme
26-06-2020, 15:04
l'8 pin è 150W 2 sono 300W e 75 è il PCIE mentre il 6 pin se non erro è 75W

Dubbio dissolto.

Thx

mikael84
26-06-2020, 15:16
L'ho detto che era un rumors e mi fa piacere che ci sia tu che ne capisce con i rapporti cosi da poterci sviare da voli pindarici.
Quindi la futura 3080/3090/titan sarà la massima declinazione di ga102?

Si ma hai fatto bene a postarlo, poi se ne discute.:)
Basta soffermarsi sui rapporti, e ne basta uno.
I tensor sono 4 x SM (SM 64 cc).
Per 672 tensor dovresti avere 10752 cuda in 168 SM.
168 SM x 4 = 10752cc.

Anche i cc sono da tesla, ti propongo una versione a cazzum, moddata da me in 2 secondi.:p
https://i.postimg.cc/3rSdLD2x/fake.png

Come puoi vedere ho dovuto buttare giù quasi tutta la cache e le rop's per il collegamento.
Abbattendo per forza 3 stack, ma facendo così scendi a 24 gb.

Un altro fattore riguarda gli RT core, questi nel chip tesla non ci stanno, così come non ci sono i polymorph engine, necessari.

Lo stesso gli RT core, che sono 168, questo significa avere 168sm e 10752cc, come la tara fatta con i tensor.:)


Diciamo che non torna un parametro.

mikael84
26-06-2020, 15:36
Il chip ga102, dovrebbe essere questo.

5376 cc totali /384 bit e 12gb ram in single, 24 in doppia e 48 a conchiglia.
https://i.postimg.cc/PJbQdrTJ/chip.png

84 RT core
336 tensor core.
cache l2, sarà sicuramente ampliata da 6mb a 12mb.
48 Polymorph engine a 5 stadi di pipeline
7 raster a 3 stadi.

Andy1111
26-06-2020, 16:33
Il chip ga102, dovrebbe essere questo.

5376 cc totali /384 bit e 12gb ram in single, 24 in doppia e 48 a conchiglia.
https://i.postimg.cc/PJbQdrTJ/chip.png

84 RT core
336 tensor core.
cache l2, sarà sicuramente ampliata da 6mb a 12mb.
48 Polymorph engine a 5 stadi di pipeline
7 raster a 3 stadi.

scusa ma una 2080 TI ha : (correggimi se sbaglio ho guardato qua https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305 )

68 RTcore quindi 16 in più
544 Tensore Core perchè dici che ga102 avrà 336 tensore core?

mikael84
26-06-2020, 16:59
scusa ma una 2080 TI ha : (correggimi se sbaglio ho guardato qua https://www.techpowerup.com/gpu-specs/geforce-rtx-2080-ti.c3305 )

68 RTcore quindi 16 in più
544 Tensore Core perchè dici che ga102 avrà 336 tensore core?

Bella osservazione, di questo ne avevo parlato già alcune volte.
Qua o nvidia ha volutamente o non volutamente cannato, e neppure le review si sono accorte.

I dati vengono calcolati su base volta, che ha 8 tensor per SM, questo non è così per Turing, in quanto ne ha solo 4.
https://developer.nvidia.com/blog/wp-content/uploads/2018/09/image11.jpg

Di conseguenza la 2080ti ha 276 tensor core.
Come vedi i dati sono dimezzati.;)
https://images.anandtech.com/graphs/graph13346/100943.png

amon.akira
26-06-2020, 17:33
Bella osservazione, di questo ne avevo parlato già alcune volte.
Qua o nvidia ha volutamente o non volutamente cannato, e neppure le review si sono accorte.

Di conseguenza la 2080ti ha 276 tensor core.


hanno sbagliato anche qua
https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf

dicono 8 x sm (544)

mikael84
26-06-2020, 17:46
hanno sbagliato anche qua
https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf

dicono 8 x sm (544)

Si le testate hanno copiato quelli.
Turing 4 x sm
https://developer.nvidia.com/blog/wp-content/uploads/2018/09/image11.jpg

volta 8xsm
https://developer.nvidia.com/blog/wp-content/uploads/2017/05/image3.png

La 2080ti ha i tensor fisici di quelli sbandierati sulla 2060 super.

Nurabsa
28-06-2020, 08:56
cut
84 RT core
336 tensor core.
cache l2, sarà sicuramente ampliata da 6mb a 12mb.
48 Polymorph engine a 5 stadi di pipeline
7 raster a 3 stadi.

cosi fosse sono numeri da cpu manca poco e superano l ottimo 5820k.
Una falcata lunga 10 anni come passare da core2duo ad haswell

Thunder-74
29-06-2020, 11:13
... osp..sbagliato thread.. :fagiano:

EDIT: visto che questa mattina ho sbagliato a postare qui, riempio questo spazio commentando la notizia del prezzo della PS5 senza BD di 399 euro...
beh mi sento di dire che tutto sommato il mondo console non si vede "purgato" con il cambio generazione come avviene da queste parti e comunque, anche se con HW non si avvicina ad Ampere, il rapporto prezzo/prestazioni è ottimo...
... fatelo con 400 euro un pc con Ryzen/VGA analoga/DDR/nvme ecc.. .... costa poco più delle cuffie da gioco che uso (ASTRO A50).... "fan..lo"... :mad:

LINK (https://www.techpowerup.com/269181/sony-playstation-5-hardware-pricing-and-availability-leaked-eur100-premium-for-bd-drive)

niky89
30-06-2020, 12:12
499
Fonti Ufficiali o Certe: NESSUNA

amon.akira
30-06-2020, 13:09
499
Fonti Ufficiali o Certe: NESSUNA

esatto, secondo me conservativo sarà 499 quella senza bd e 549 con bd

purtroppo se ne riparlerà a fine luglio dopo la conferenza microsoft...aspetterà di sentire il prezzo della rivale. so jappi che ci vuoi fa

mikael84
30-06-2020, 14:28
Dai che ora arriva anche Intel via MCM.

Questo è per HPC, ma il modello a 2, potrebbe già giocarsela con una 3080/ti. Il problema è che si parla del 2021, con Ampere per ora sola.
Nvidia dovrebbe passare al MCM con Hopper, il monolitico per rese comincia a diventare un problema.

https://i.postimg.cc/yN2p9CzR/mcm.png

nico88desmo
30-06-2020, 15:24
Dai che ora arriva anche Intel via MCM.

Questo è per HPC, ma il modello a 2, potrebbe già giocarsela con una 3080/ti. Il problema è che si parla del 2021, con Ampere per ora sola.
Nvidia dovrebbe passare al MCM con Hopper, il monolitico per rese comincia a diventare un problema.

https://i.postimg.cc/yN2p9CzR/mcm.png

Interessante ;)

La cosa che più mi incuriosisce sarà la gestione della cache e la velocità di comunicazione del bus utilizzato per i moduli mcm.
Lato computazionale credo che sia più facile espandere la cosa... però se non gli si da da mangiare alle varie unità, siamo punto e a capo ;)