PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 [138] 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466

Giovamas
15-06-2017, 16:16
Io ho ancora da capire cosa sia 'sto mining....:D

CiccoMan
15-06-2017, 16:40
Io ho ancora da capire cosa sia 'sto mining....:D

minning ... è una parola italiana inglesizzata che deriva da minne ... do you Know ? :sofico: :oink:

bagnino89
15-06-2017, 16:46
minning ... è una parola italiana inglesizzata che deriva da minne ... do you Know ? :sofico: :oink:
Magari!

TigerTank
15-06-2017, 17:10
Io ho ancora da capire cosa sia 'sto mining....:D

In pratica un business sempre più grande per fare cryptomoneta, con il moltiplicarsi di mining cloud e hardware dedicato. Per cui non mi stupisce che anche nvidia voglia farsi la propria fetta con delle gpu dedicate :D

Vul
15-06-2017, 17:11
In pratica un business sempre più grande per fare cryptomoneta, con il moltiplicarsi di mining cloud e sempre più hardware dedicato. Per cui non mi stupisce che anche nvidia voglia farsi la propria fetta con delle gpu dedicate :D

Ne vende a gozzilioni di gpu per il mining Nvidia eh.

Ale55andr0
15-06-2017, 18:05
Che cazzo. Dovevo prendere la msi 1080 gaming x Plus a 520 quando potevo. Zio cistio, tutto per sti rompicoglioni dei minatori e sta vega del cazzo che esce nel duemila mai :doh: BESTIA io che ho voluto aspettare a tutti i costi per vederla cacata fuori. Ci marcisco fino a fine anno con la r5 230 :muro:

Ubro92
15-06-2017, 18:15
Che cazzo. Dovevo prendere la msi 1080 gaming x Plus a 520 quando potevo. Zio cistio, tutto per sti rompicoglioni dei minatori e sta vega del cazzo che esce nel duemila mai :doh: BESTIA io che ho voluto aspettare a tutti i costi per vederla cacata fuori. Ci marcisco fino a fine anno con la r5 230 :muro:

"Campa cavallo che l'erba cresce" :D

Gello
15-06-2017, 18:34
Si direi che ci hai ufficialemente stracciato i coglioni :sofico:

LurenZ87
15-06-2017, 18:48
Che cazzo. Dovevo prendere la msi 1080 gaming x Plus a 520 quando potevo. Zio cistio, tutto per sti rompicoglioni dei minatori e sta vega del cazzo che esce nel duemila mai :doh: BESTIA io che ho voluto aspettare a tutti i costi per vederla cacata fuori. Ci marcisco fino a fine anno con la r5 230 :muro:

:rotfl: :rotfl: :rotfl: :rotfl: :rotfl: :rotfl:

devil_mcry
15-06-2017, 19:02
Dal piu' fanboy rosso al piu' fanboy verde ti han detto tutti che la scheda video e il pc te li dovevi comprare un anno fa senza star fermo un anno a guardare un muro :>

Ma uno che per un anno sta senza VGA la usa solo per bench secondo me. Non resisti un anno senza giocare se sei gamer...

bagnino89
15-06-2017, 19:22
Ma uno che per un anno sta senza VGA la usa solo per bench secondo me. Non resisti un anno senza giocare se sei gamer...

Effettivamente.

Ale55andr0
15-06-2017, 19:37
Si direi che ci hai ufficialemente stracciato i coglioni :sofico:

Ma chi te conosce, è la prima volta che ti leggo :O



...i bench? Manco li installo, li considero una sporcatura nell'hdd. Cmq le 1080 "primo prezzo" stan sempre nei 470 e dintorni. Vediamo se l'uscita della vega pro fra qualche settimana, farà muovere anche nvidia con qualche teasing alla stampa su volta...per la serie "anche oggi gioco il prossimo anno" :asd:

Legolas84
15-06-2017, 19:40
Ma chi te conosce, è la prima volta che ti leggo :O



Ma lascia perdere... Gello è uno della vecchia guardia, uno dei pochi utenti rimasti che vale....

Questi commenti sono più adatti all'altro thread...




Inviato dal mio iPhone utilizzando Tapatalk Pro

aled1974
15-06-2017, 19:45
Ma uno che per un anno sta senza VGA la usa solo per bench secondo me. Non resisti un anno senza giocare se sei gamer...

no ma uno dei suoi soldi e della sua vita alla fin fine può fare quello che vuole, anche contro il parere/suggerimento del mondo intero :mano:

basta però che non si continui in tutti i thread a ripetere ad libitum tutta una pletora di parolacce variamente indirizzate come sta avvenendo se non da un anno, sicuramente da mesi

questo è un forum, ovvero un luogo di tutti per tutti, non casa sua

my 2 cents


2. Inserire nei messaggi insulti di alcun tipo; il destinatario può essere un utente del forum, un personaggio pubblico e/o privato o una personalità giuridica. Alla stessa stregua è vietato inserire messaggi diffamatori con a tema personaggi pubblici e/o privati, o società e/o aziende.
In una discussione in un forum è possibile che i toni si possano esasperare, giungendo all'offesa. E' bene impostare il dialogo su un forum seguendo lo stesso stile che terremmo in una discussione di persona. Vi sono livelli differenti di offesa, benché a priori sia bene evitarle: sarà discrezione del moderatore valutare la portata della sanzione da applicare a chi utilizza un linguaggio offensivo nei propri messaggi. La critica di un'idea altrui non deve mai diventare occasione di insulto o ingiuria.

ciao ciao

Ale55andr0
15-06-2017, 19:46
Ma lascia perdere... Gello è uno della vecchia guardia, uno dei pochi utenti rimasti che vale....

Questi commenti sono più adatti all'altro thread...




Inviato dal mio iPhone utilizzando Tapatalk Pro

So chiama battuta. Rilassati :read:

Lunar Wolf
15-06-2017, 20:32
Ma lascia perdere... Gello è uno della vecchia guardia, uno dei pochi utenti rimasti che vale....

Questi commenti sono più adatti all'altro thread...




Inviato dal mio iPhone utilizzando Tapatalk Pro
:)


Infatti con questi commenti utili rendi anche questo thread come l'altro ;)

Byez

Giovamas
15-06-2017, 21:12
In pratica un business sempre più grande per fare cryptomoneta, con il moltiplicarsi di mining cloud e hardware dedicato. Per cui non mi stupisce che anche nvidia voglia farsi la propria fetta con delle gpu dedicate :D

ah ok mi sono informato un poco dato che mi avete incuriosito :D ma preferisco stendere il signore delle ceneri o un cyberdemone che fare mining :cool:

Gello
15-06-2017, 21:14
:vicini:

TigerTank
15-06-2017, 21:19
Ne vende a gozzilioni di gpu per il mining Nvidia eh.

Vero, ma adesso si specializza anche in quel settore :D

ah ok mi sono informato un poco dato che mi avete incuriosito :D ma preferisco stendere il signore delle ceneri o un cyberdemone che fare mining :cool:

Idem :huh:

Lunar Wolf
15-06-2017, 21:23
ah ok mi sono informato un poco dato che mi avete incuriosito :D ma preferisco stendere il signore delle ceneri o un cyberdemone che fare mining :cool:
Io non riesco a capire tutti quei calcoli a cosa servono precisamente ... Chiudo ot

illidan2000
16-06-2017, 08:46
ah ok mi sono informato un poco dato che mi avete incuriosito :D ma preferisco stendere il signore delle ceneri o un cyberdemone che fare mining :cool:

il mining lo fai mentre non giochi. (quando lavori, di notte, ecc...)

Vul
16-06-2017, 11:19
cmq a me queste schede per mining sanno di bufala.

Bestio
16-06-2017, 11:24
LE 1060 3gb sono praticamente sparite, e quelle poche disponibili sono praticamente raddoppiate! :doh:
Mi sa che dobbiamo andare tutti a metter su una miniera in Russia (o dove la corrente costa meno... :asd: )

Bestio
16-06-2017, 11:28
Sta cosa del mining è senza senso.
Cioè individualmente il senso lo ha visto che i guadagni sono maggiori dei costi e la gente ci guadagna, ma dal punto di vista economico si spreca un sacco di energia per non concludere assolutamente nulla.

Beh questa potenza di calcolo che il mining mette a disposizione verrà usata per qualcosa... ma anche io vorrei capire cosa. :asd:

Hadar
16-06-2017, 11:36
Se lo fanno ci sarà un motivo

Vul
16-06-2017, 11:45
ci sono vari tipi di coin e tecnologie.

alcune sono semplicemente monete (bitcoin o litecoin, monero, zcash).

alcune sono piattaforme di storage, ad esempio sia. paghi in siacoin per mettere in storage i tuoi dati a prezzi molto ma molto più bassi di un amazon o un azure.

altre sono piattaforme per fare smart contracts, ovvero contratti (no notai, no tasse, ecc).

altre sono piattaforme di calcolo scientifico, paghi in una moneta per fare i tuoi calcoli che sul tuo hardware ci metteresti mesi.

poi ci sono piattaforme per il rendering di video e 3d..

poi ci sono tecnologie come ethereum, golem, sonm, che sono fondamentalmente dei supercomputer globali.

poi ci sono piattaforme come lisk che sono più incentrate sul deployment di app javascript (praticamente i miner hanno delle macchine virtuali su cui fanno deployment della tua app).

altre sono monete trust, come ripple, servono come intermedio finanziario. Io banca voglio da te banca 100 milioni di dollari, e te ne voglio dare xx di euro. Tu banca mi dai l'equivalentedi 100 milioni di dollari in ripple che io compro con i miei euro. Dopodichè rivendo i miei ripple sul mercato per dollari (in linea molto generale, non è proprio così).

Alcune hanno la possibilità di rivoluzionare l'informatica (e già lo stanno facendo) e la tecnologia.

Moltissime di queste app e coin (non tanto quelle da me citate) sono inutili/scam o faranno una finaccia.

Piuttosto che minare, se avete qualche migliaio d'euro da buttare vi conviene prendervi dei bitcoin e qualcuna delle top 20 altcoin sul mercato. Potreste avere 5-10x a natale. O perdere il 90 % di ciò che avete investito. Nessuno lo sa, ma l'interesse per le criptovalute e il loro potenziale è immenso. Ormai ci stanno dentro da microsoft a goldman sachs.

Vul
16-06-2017, 11:57
Bitcoin è una moneta manipolata dai cinesi fondamentalmente in quanto possiedono il 40 % dell'hashrate totale.

Quindi ti fanno pagare molti soldi per fare le transazioni.

Comunque sono problemi che dovrebbero essere risolti ad agosto.

Bitcoin comunque è tecnologia "vecchia".

Mini-Me
16-06-2017, 17:31
Grazie Vul tutto interessantissimo, devo assolutamente approfondire soprattutto per curiosità

beatl
16-06-2017, 19:25
Ogni nazione fra un po' avrà la sua cryptomoneta d'elezione... la Cina ha il bitcoin, i russi sembra vogliano mettere le mani su ethereum...

Non è una bolla... è il futuro che si evolve proprio sotto i nostri occhi.

Molto molto interessante e stuzzicante ... devo approfondire

fraussantin
16-06-2017, 20:10
Ogni nazione fra un po' avrà la sua cryptomoneta d'elezione... la Cina ha il bitcoin, i russi sembra vogliano mettere le mani su ethereum...

Non è una bolla... è il futuro che si evolve proprio sotto i nostri occhi.
E tutto questo serve solo ad alimentare la malavita, gli evasori, e degradare le economie locali.

Boh... Prenderanno provvedimenti prima o poi, ma come al solito sarà troppo tardi.

Giovamas
16-06-2017, 20:55
Ogni nazione fra un po' avrà la sua cryptomoneta d'elezione... la Cina ha il bitcoin, i russi sembra vogliano mettere le mani su ethereum...

Non è una bolla... è il futuro che si evolve proprio sotto i nostri occhi.

in Israele nascono come funghi i siti ed agenzie che fanno le conversioni e beh immaginavo che c'era qualcosa sotto.. ripeto per me la video card serve per il gaming, non riesco a pensare ad altri usi. torno dalla sister friede sperando sia la volta buona! Boss bastardissimo:D

bagnino89
16-06-2017, 21:01
E tutto questo serve solo ad alimentare la malavita, gli evasori, e degradare le economie locali.

Boh... Prenderanno provvedimenti prima o poi, ma come al solito sarà troppo tardi.

Quoto, è un fenomeno che va arrestato quanto prima, dato che serve principalmente ad alimentare commercio illegale di armi, droghe, prodotti contraffatti, ecc.

beatl
16-06-2017, 21:51
http://www.guru3d.com/news-story/upcoming-geforce-gtx-cards-use-gddr5x-not-hbm2.html

Hadar
16-06-2017, 21:56
http://www.guru3d.com/news-story/upcoming-geforce-gtx-cards-use-gddr5x-not-hbm2.html

L'avevo letta, ma non l'ho postata per un semplice motivo: Fudzilla :stordita:

beatl
16-06-2017, 22:12
L'avevo letta, ma non l'ho postata per un semplice motivo: Fudzilla :stordita:

Ass ... anche questo è vero

Free Gordon
17-06-2017, 01:56
Come fanno a non farsi beccare quei maledetti che usano i ransomware per chiedere riscatti alla gente..?

Se non sbaglio si fanno pagare proprio in Bitcoin..

Gello
17-06-2017, 12:40
Siete nel thread sbagliato, pero' se volete vi lascio il mio Iban...

Legolas84
17-06-2017, 13:24
Siete nel thread sbagliato, pero' se volete vi lascio il mio Iban...



Quoto, forse bisognerebbe fare un thread proprio dedicato al mining visto che molti utenti sono interessati. :)


Inviato dal mio iPhone utilizzando Tapatalk Pro

Legolas84
17-06-2017, 13:53
...hanno appena annunciato le nuove Nvidia da mining a dire il vero...

Ma forse è il thread dellle nuove VGA da benchmark di Gello e Legolas questo e non me ero accorto...

Inviato dal mio WAS-LX1A utilizzando Tapatalk

Scusami campione... sono VGA o sono schede da calcolo? Perchè questo è il thread delle nuove VGA.... :rolleyes:

Gello
17-06-2017, 13:56
Thread di VGA non di finanza, non mi sembra difficile da capire.

Hadar
17-06-2017, 14:06
Se anche fosse, non mi sembra che le schede professionali siano OT.

Posso capire che l'argomento ti infastidisca perché fa salire i prezzi delle schede da gaming, ma non è che siccome non ti piace non se ne può parlare, spero.

Non credo che il thread sia tuo, se ti annoia un argomento passa oltre, no?

Poi per carità c'è gente che contesta i vaccini, tutti può essere.

Ma il mining sta spazzando il settore con la delicatezza di un uragano, sarebbe assurdo non parlarne in un forum di schede grafiche...

...e non credo cmq che le Tesla siano Off Tipic, suvvia.



Inviato dal mio WAS-LX1A utilizzando Tapatalk
Non fa una piega

Legolas84
17-06-2017, 14:11
Se anche fosse, non mi sembra che le schede professionali siano OT.

Posso capire che l'argomento ti infastidisca perché fa salire i prezzi delle schede da gaming, ma non è che siccome non ti piace non se ne può parlare, spero.

Non credo che il thread sia tuo, se ti annoia un argomento passa oltre, no?

Poi per carità c'è gente che contesta i vaccini, tutti può essere.

Ma il mining sta spazzando il settore con la delicatezza di un uragano, sarebbe assurdo non parlarne in un forum di schede grafiche...

...e non credo cmq che le Tesla siano Off Tipic, suvvia.



Inviato dal mio WAS-LX1A utilizzando Tapatalk


Finchè si parla di schede PRO per capirne e studiarne l'architettura visto che poi si rifletterà completamente nelle schede GeForce è un conto.... ma farsi una pagina parlando di mining che con le nuove schede video NVIDIA non centra una mazza è un altro.

Il thread non è mio ma le regole vanno rispettate, punto. Questo anche se la sezione è abbandonata a se stessa.

Per questo vi ho consigliato di fare un thread dedicato... non perchè non voglio che parliate di questa cosa, ci mancherebbe. L'ho fatto solo per cercare di tenere un pò in ordine il tutto. Quindi dai diamoci un taglio ;)

Vul
17-06-2017, 14:35
Finchè si parla di schede PRO per capirne e studiarne l'architettura visto che poi si rifletterà completamente nelle schede GeForce è un conto.... ma farsi una pagina parlando di mining che con le nuove schede video NVIDIA non centra una mazza è un altro.

Il thread non è mio ma le regole vanno rispettate, punto. Questo anche se la sezione è abbandonata a se stessa.

Per questo vi ho consigliato di fare un thread dedicato... non perchè non voglio che parliate di questa cosa, ci mancherebbe. L'ho fatto solo per cercare di tenere un pò in ordine il tutto. Quindi dai diamoci un taglio ;)

Che ti piaccia o meno con le gpu non si gioca e basta :)

Il mining è tanto rilevante quanto il gaming o il deep learning. Se non ti interessa uno degli aspetti lo ignori, tutto lì, non mi pare difficile.

Non è che stabilisci tu di che aspetto si parli di una gpu.

Ah, non mi risulta ci sia alcuna regola che specifichi che si può parlare solo di gpu e gaming, anzi, non mi pare sia mai successo.

Il punto è che l'argomento non piace a x persone che vogliono sapere se fa 75 o 85 fps su Tomb Raider 4k e basta.

Due pesi due misure.

fraussantin
17-06-2017, 15:02
Quoto, forse bisognerebbe fare un thread proprio dedicato al mining visto che molti utenti sono interessati. :)


Inviato dal mio iPhone utilizzando Tapatalk Pro
Dubito che i colonnelli approverebbero un 3d del genere.

FreeMan
17-06-2017, 15:10
Quoto, forse bisognerebbe fare un thread proprio dedicato al mining visto che molti utenti sono interessati. :)


Inviato dal mio iPhone utilizzando Tapatalk Pro

ma anche no

e ora stop OT

>bYeZ<

Nurabsa
17-06-2017, 15:12
[OT]

Crysis90
20-06-2017, 17:03
http://wccftech.com/nvidia-volta-v100-gpu-tesla-v100-pci-express-announced/

Pronti per la Grande V???? :cool:

appleroof
20-06-2017, 17:06
http://wccftech.com/nvidia-volta-v100-gpu-tesla-v100-pci-express-announced/

Pronti per la Grande V???? :cool:

mi accontento anche della piccola v :D mi aspetto un 100% sulla 980ti :cool:

killeragosta90
20-06-2017, 18:38
mi accontento anche della piccola v :D mi aspetto un 100% sulla 980ti :cool:

....e siamo in due ;)

TigerTank
20-06-2017, 21:02
mi accontento anche della piccola v :D mi aspetto un 100% sulla 980ti :cool:

Mmh mi sa che il 100% dalla gtx980Ti lo si avrà con il chippone Volta.
Le piccole v probabilmente andranno: x70 un 50%(circa quanto la 1080Ti) in più e la x80 un 75-80% in più dela 980Ti.

Psycho77
20-06-2017, 21:14
Se tutto va secondo i piani una gtx 2070 dovrebbe pareggiare una gtx 1080 ti,come è successo da maxwell a pascal.
Sta Volta dovrebbe buttare giù i muri in idle.:D

AceGranger
20-06-2017, 21:54
Mmh mi sa che il 100% dalla gtx980Ti lo si avrà con il chippone Volta.
Le piccole v probabilmente andranno: x70 un 50%(circa quanto la 1080Ti) in più e la x80 un 75-80% in più dela 980Ti.

P100 vs V100, a parita di TDP, sono il 40% in piu di potenza.


teoricamente, compatibilmente con i cut possibili dei chip la 2070, 2080 e 2080Ti potrebbero avere lo stesso incremento di potenza a parita di TDP.

Arrow0309
20-06-2017, 22:12
A qualcuno risulta che la nuova Titan Volta uscirebbe in pcie 4.0?

mikael84
20-06-2017, 22:53
Mmh mi sa che il 100% dalla gtx980Ti lo si avrà con il chippone Volta.
Le piccole v probabilmente andranno: x70 un 50%(circa quanto la 1080Ti) in più e la x80 un 75-80% in più dela 980Ti.

Il vantaggio principale sarà lato dx12.
Pascal ha un contatore per warp, e dil calcolo parallelo spezzetta il warp in piccoli thread, lasciando vari thread in idle o in buffer.
Ecco che applicare le dx12 su Pascal, porta solo peggioramenti, a meno di non programmarlo bene via driver.
Volta, può eseguire qualsiasi thread parallelo, indipendentemente dal warp.

AMD invece può eseguire calcoli paralleli, ma l'elaborato passa per lo shader core, creando spesso errori di rendering e latenze alte.
AMD si è nvidizzata con Vega implementando il conservative (già in uso con Maxwell-Pascal).

In sintesi, il vero vantaggio delle due architetture sarà basato sulle dx12.:)

Hadar
21-06-2017, 00:35
Il vantaggio principale sarà lato dx12.
Pascal ha un contatore per warp, e dil calcolo parallelo spezzetta il warp in piccoli thread, lasciando vari thread in idle o in buffer.
Ecco che applicare le dx12 su Pascal, porta solo peggioramenti, a meno di non programmarlo bene via driver.
Volta, può eseguire qualsiasi thread parallelo, indipendentemente dal warp.

AMD invece può eseguire calcoli paralleli, ma l'elaborato passa per lo shader core, creando spesso errori di rendering e latenze alte.
AMD si è nvidizzata con Vega implementando il conservative (già in uso con Maxwell-Pascal).

In sintesi, il vero vantaggio delle due architetture sarà basato sulle dx12.:)

In poche parole consigli di lasciare perdere pascal e puntare su Vega o Volta a questo punto per i giochi futuri?:confused:

TigerTank
21-06-2017, 06:42
Il vantaggio principale sarà lato dx12.
Pascal ha un contatore per warp, e dil calcolo parallelo spezzetta il warp in piccoli thread, lasciando vari thread in idle o in buffer.
Ecco che applicare le dx12 su Pascal, porta solo peggioramenti, a meno di non programmarlo bene via driver.
Volta, può eseguire qualsiasi thread parallelo, indipendentemente dal warp.

AMD invece può eseguire calcoli paralleli, ma l'elaborato passa per lo shader core, creando spesso errori di rendering e latenze alte.
AMD si è nvidizzata con Vega implementando il conservative (già in uso con Maxwell-Pascal).

In sintesi, il vero vantaggio delle due architetture sarà basato sulle dx12.:)

In una dimensione futura dove magari molti decideranno di appoggiarsi a Vulkan come motore di gioco? :sofico:
Eheheh speriamo che finalmente saltino fuori le concrete potenzialità delle dx12.

devil_mcry
21-06-2017, 06:45
In una dimensione futura dove magari molti decideranno di appoggiarsi a Vulkan come motore di gioco? :sofico:
Eheheh speriamo che finalmente saltino fuori le concrete potenzialità delle dx12.



Purtroppo dubito. Sony non usa Vulkan ma qualcosa di proprietario e l'unico motore che ad oggi ne fa uso è l'ID Tech 6 che però anche se usato su xbox one non credo faccia uso di Vulkan.

Almeno che non prenda fortemente piede Linux per il gaming dubito che le DX vengano spodestate.

TigerTank
21-06-2017, 07:01
Purtroppo dubito. Sony non usa Vulkan ma qualcosa di proprietario e l'unico motore che ad oggi ne fa uso è l'ID Tech 6 che però anche se usato su xbox one non credo faccia uso di Vulkan.

Almeno che non prenda fortemente piede Linux per il gaming dubito che le DX vengano spodestate.

Vedremo un pò come andrà, in autunno usciranno un pò di titoli interessanti(o comunque alcuni nuovi mattoni di riferimento) tipo il nuovo Dishonored, il nuovo COD, l'ennesimo Assassin's Creed, Wolfenstein 2(che dovrebbe avere supporto a Vulkan), un altro titolo sulla Terra di Mezzo, The Evil Within 2, Star Wars Battlefront 2, un nuovo Need for Speed e un certo Vampyr che dal video per ora mi ha preso bene. Insomma ci sarà pane per vga :D
E qualcosa mi dice che il nuovo Far Cry del 2018 sarà il "titolo lancio" delle Volta.

Legolas84
21-06-2017, 07:57
In poche parole consigli di lasciare perdere pascal e puntare su Vega o Volta a questo punto per i giochi futuri?:confused:



PASCAL è comunque la miglior architettura per schede video che abbiamo a disposizione... poi ovvio che le nuove architetture porteranno miglioramenti...

Volta sarà semplicemente un miglioramento dell'ottimo Pascal... Vega ha molto lavoro da fare visto che parte da basi più labili...


Inviato dal mio iPhone utilizzando Tapatalk Pro

Hadar
21-06-2017, 09:58
è una domanda seria? :stordita:
Che c'è che non ti convince riguardo la mia domanda? 🤔
Fino a due mesi si leggeva che le Pascal andavano benissimo in dx12, da quando hanno annunciato Volta si parla invece di miglioramenti proprio su quelle librerie

Legolas84
21-06-2017, 10:09
Che c'è che non ti convince riguardo la mia domanda? 🤔
Fino a due mesi si leggeva che le Pascal andavano benissimo in dx12, da quando hanno annunciato Volta si parla invece di miglioramenti proprio su quelle librerie



Secondo me sbagli ad interpretare le parole di mikael... Pascal è una grandissima architettura, ma è ovvio che VOLTA sarà ancora meglio...

Però questo non significa che Pascal non vada bene, anzi....


Inviato dal mio iPhone utilizzando Tapatalk Pro

mikael84
21-06-2017, 11:03
In poche parole consigli di lasciare perdere pascal e puntare su Vega o Volta a questo punto per i giochi futuri?:confused:

No, sto semplicemente dicendo che con Volta ci sarà più flessibilità sul calcolo parallelo, così come anche Vega aggiungerà il conservative che integra già Pascal (ed anche maxwell, anche se leggermente differente).
E' normale che ad ogni generazione si fanno dei passi avanti, ma di certo se guardi questo non giocherai mai, considerando che dopo Volta, già si parlerà di altro.:)

Nurabsa
21-06-2017, 11:42
si ma l architettura che ha stravolto da kepler non è pascal. E' maxwell.
Da pascal in poi cambio pp ma base maxwell. Quindi non è che tutte le generazioni siano rivoluzionarie, volta affina semplicemente pascal.

Quando rivedremo un' architettura profondamente stravolta non è dato sapere

mikael84
21-06-2017, 14:08
si ma l architettura che ha stravolto da kepler non è pascal. E' maxwell.
Da pascal in poi cambio pp ma base maxwell. Quindi non è che tutte le generazioni siano rivoluzionarie, volta affina semplicemente pascal.

Quando rivedremo un' architettura profondamente stravolta non è dato sapere

Quando hai già una buona architettura sotto, basta solo affinare, cercando di migliorarla ulteriormente, non serve stravolgere.:)
Kepler gaming, inoltre era un derivato pro, con risultati in BW e rop's quasi vicini a quelli del GK104.

CrapaDiLegno
21-06-2017, 20:02
http://www.guru3d.com/news-story/upcoming-geforce-gtx-cards-use-gddr5x-not-hbm2.html

Visto quello che permettono le GDDR5X e promettono le GDDR6 direi che è un non problema.
La parola HBM non è la soluzione a tutti i mali che affliggono le GPU.
Ne abbiamo avuto conferma con Fiji. E vedremo cosa farà con Vega anche se in campo gaming sembra che non sarà meglio di quanto si possa ottenere con GDDR5X a 1/10 del costo.

beatl
21-06-2017, 20:06
Visto quello che permettono le GDDR5X e promettono le GDDR6 direi che è un non problema.
La parola HBM non è la soluzione a tutti i mali che affliggono le GPU.
Ne abbiamo avuto conferma con Fiji. E vedremo cosa farà con Vega anche se in campo gaming sembra che non sarà meglio di quanto si possa ottenere con GDDR5X a 1/10 del costo.

Sono d'accordo con te

appleroof
21-06-2017, 20:36
....e siamo in due ;)

:mano:

Mmh mi sa che il 100% dalla gtx980Ti lo si avrà con il chippone Volta.
Le piccole v probabilmente andranno: x70 un 50%(circa quanto la 1080Ti) in più e la x80 un 75-80% in più dela 980Ti.

Si forse sono stato troppo ottimista e spannometrico :D, ma un 80% in più sulla 980ti (certo, con la variabile importante delle dx12 come diceva il buon Mike che forse non rende proprio le due vga direttamente confrontabili) e sopratutto un 100w in meno nel case mi alletta molto... Di volta 204 dovrebbe parlarsi per primavera anno prox giusto?

mikael84
21-06-2017, 23:05
Visto quello che permettono le GDDR5X e promettono le GDDR6 direi che è un non problema.
La parola HBM non è la soluzione a tutti i mali che affliggono le GPU.
Ne abbiamo avuto conferma con Fiji. E vedremo cosa farà con Vega anche se in campo gaming sembra che non sarà meglio di quanto si possa ottenere con GDDR5X a 1/10 del costo.

Sono d'accordo con te

Le HBM su Nvidia gaming devono attenersi ai collegamenti.
Uno stack HBM equivale ad un canale 128 bit, ovvero 4 collegamenti rop's da 8 pixel e 1mb l2.
Per un 6 GPC si dovrebbe introdurre 3 stack HBM (quindi impossibile):)
GP100 con il 4° stack usa 128 rop's e 4mb, un chip gaming simile utilizzerebbe solo 96 rop's e 3mb l2.
Tanti transistor sprecati per nulla, considerando che le rop's di Nvidia sono da z-buffer (z-ops-color-ops) e non da MSAA.
Consideriamo che la BW è pari a 150/200gb/s su un 1440p, quindi su Nvidia è inutile sparare tanta banda.:)

:mano:



Si forse sono stato troppo ottimista e spannometrico :D, ma un 80% in più sulla 980ti (certo, con la variabile importante delle dx12 come diceva il buon Mike che forse non rende proprio le due vga direttamente confrontabili) e sopratutto un 100w in meno nel case mi alletta molto... Di volta 204 dovrebbe parlarsi per primavera anno prox giusto?

Si Apple, Q1 è l'ipotesi più accreditata, max q2 Maggio :)

CrapaDiLegno
22-06-2017, 07:08
Parere personale, Volta sarà Pascal con più shader e quindi maggiore superficie.
Tra Kepler e Maxwell nvidia ha scelto di aumentare la superficie per avere più prestazioni (su stesso PP non puoi fare molto diversamente), tra Maxwell e Pascal nvidia ha scelto di aumentare le frequenze (quindi a parità di prestazioni la superficie è diminuita grazie al nuovo PP), con Volta che non godrà di nessun vantaggio di shrinking sarà costretta nuovamente ad andare di maggiore superficie (riuscirà a superare il muro del 2GHz in condizioni stabili?)
Questo significa che seppure Volta con tutte le migliorie del caso di thread management e ottimizzazioni di ALU e probabilmente nuove istruzioni costerà comunque di più di Pascal.
Visto il fatto che AMD non ha nulla con cui contrapporsi alle GPU nvidia fino a Navi e soprattutto che nella fascia medio alta AMD usa HBM con costi spropositati, che comunque necessita GPU con superficie maggiore e maggiori consumi, nvidia può permettersi GPU di dimensioni maggiori e costi (per lei) più alti. Il che mi fa credere che ci sarà una ulteriore impennata dei prezzi delle VGA a parità di fascia, come ormai siamo abituati da Kepler in poi.

@mikael84: probabilmente te l'ho già chiesto una volta ma poi non ho letto la risposta: puoi spiegare perché le ROPs sono collegate 1:1 con un memory channel? nvidia non ha un crossbar che permette ai vari GPC di comunicare liberamente? Secondo questa teoria molte ROPs di nvidia non sarebbero usate su molte GPU. Che senso avrebbe quindi lasciarle attive sui chip castrati?

CrapaDiLegno
22-06-2017, 08:01
tralasciando tutti gli altri aspetti, mi trovi una fonte che confermi questo?

hbm vs gddr 10 a 1 come costo.

Non c'è alcuna fonte, perché non c'è nessuno che ha realmente quantificato il costo dell'uso dell'HBM rispetto alla GDDR5, ma a spanne, visto che i chip costano di più, necessita di interposer e di montaggio sul package (che non è cosa banale visto che il package va montato nella fabbrica di produzione della GPU o della HBM e sono tanti pin, quindi serve precisione nel montaggio, non è un banale bagno come le GDDR5) la stima è che il costo sia decisamente superiore all'uso della GDDR5X.
Se non è 10 volte tanto sarà 5, 8 o 12. Non è il numero preciso che conta. Rimane il fatto che l'HBM ha costi spropositati e ha il suo perché là dove te la pagano per quel che vale e dove puoi farla pagare di più perché ha vantaggi che con altra memoria non avresti tipo bandwidth maggiore con 4 stack invece che con 2 che è equiparabile a quello ottenibile con la GDDR5X.

The_SaN
22-06-2017, 08:25
tralasciando tutti gli altri aspetti, mi trovi una fonte che confermi questo?

hbm vs gddr 10 a 1 come costo.

Ero rimasto alla famosa tabella (della quale però non si hanno certezze assolute)

TigerTank
22-06-2017, 09:02
Rimango convinto che abbiate (tu come altri) un'idea ingigantita sui "costi mostruosi" delle HBM. La componentistica e l'assemblaggio sono pochi $. E soprattutto nel momento in cui le confronti a GDDR5X e GDDR6 le confronti compunque con un'altra tecnologia top, che quindi si fanno pagare come tale, non certo come le ormai consolidatissime GDDR5.

Che io sappia si è detto che le Vega non avranno grossi quantitativi di produzione per via appunto dei costi superiori di produzione delle HBM2, cosa che probabilmente non renderà tali schede nemmeno tanto economiche.
Con le ddr6 dietro l'angolo poi, magari pure delle belle Samsung, non so quanto successo avranno queste vram in ambito gaming. Magari le piazzeranno giusto sulle nuove titan.

CrapaDiLegno
22-06-2017, 09:49
Rimango convinto che abbiate (tu come altri) un'idea ingigantita sui "costi mostruosi" delle HBM. La componentistica e l'assemblaggio sono pochi $. E soprattutto nel momento in cui le confronti a GDDR5X e GDDR6 le confronti compunque con un'altra tecnologia top, che quindi si fanno pagare come tale, non certo come le ormai consolidatissime GDDR5.

Rimango convinto che voi sottovalutiate il costo dell'interposer unito alla necessità di montaggio nella fabbrica invece che nella fabbrica dell'AIB.
L'assemblaggio non sono di certo pochi $.

Ero rimasto alla famosa tabella (della quale però non si hanno certezze assolute)
Quale tabella? Questa?
https://www.reddit.com/r/Amd/comments/68ycz7/the_actual_cost_of_hbm_vs_gddr5_from/

Dove Hawaii costa come Fiji? E docve si presume che l'HBM costi solo poco di più della GDDR5 (neanche X)?
Aspetta che ne faccio una mia decisamente più credibile:
http://imagizer.imageshack.us/v2/xq90/924/3Sfgyp.png (https://imageshack.com/i/po3Sfgypp)

CrapaDiLegno
22-06-2017, 09:52
http://cdn.overclock.net/a/ae/aeac88da_Sys-plus-1.png

eh si proprio 10 a 1 come di lui... oppure "Non è il numero preciso che conta.".
mi chiedo cosa spinga una persona a dire cose così tanto per, a meno che non ne abbia un ritorni o non sia in mala fede.

Scusa, ma la fonte di quella tabella chi è?
Tuo cuggino?
Vale tanto quanto la mia. Che è più credibile. Almeno nella mia una GPU da 314mm^2 non costa come una da 550mm^2...

Io mi chiedo come il fanboysmo possa far credere a qualsiasi cosa che ci faccia piacere.

mircocatta
22-06-2017, 09:57
Si, nella tua una gpu da neanche il doppio dei mm2 costa il triplo

Inviato dal mio HTC One M9 utilizzando Tapatalk

Hadar
22-06-2017, 09:59
Ma perché la buttate sempre sul fanboy? :asd:

The_SaN
22-06-2017, 09:59
Premesso che entrambe le tabelle devono essere prese con le pinze (come avevo detto prima), Vega ha 16GB HBM vs 4GB della Fury.
Non mi convincono gli 8GB di GDDR5x che costano come i 4GB della 290...

The_SaN
22-06-2017, 10:00
Si, nella tua una gpu da neanche il doppio dei mm2 costa il triplo

Inviato dal mio HTC One M9 utilizzando Tapatalk
Quel calcolo è corretto, è una relazione quadratica.

CrapaDiLegno
22-06-2017, 10:08
Si, nella tua una gpu da neanche il doppio dei mm2 costa il triplo

Inviato dal mio HTC One M9 utilizzando Tapatalk

Guarda che c'è scritto con che supposizione è fatto il calcolo... (sqrt della resa che è in funzione della superficie).
I 2 calcoli della serva usati:
GP104 314mm^2
VEGA 550mm^2 (supposti)
550/314 = 1,75
Che vorrebbe dire che linearmente Vega costerebbe già di suo 1.75 volte il GP104. Ma siccome la resa è inversamente proporzionale alla superficie del chip (andamento quadratico o viceversa radice quadrata per il valore della resa finale), significa che il costo è 1.75 x 1.75 = 3x.
Calcolo indicativo. Può essere 2.5x o 3.5x. Dipende da quanto bene viene quel chip. Di certo il calcolo è più preciso di quello dell'altra tabella dove un chip fa 438mm^2 costa quanto uno da 600mm^2 al limite della capacità dimensionale della strumentazione.

Ale55andr0
22-06-2017, 10:09
Che tu dia del fanboy agli altri è davvero pazzesco, ma ormai ti si conosce alla perfezione, tranquillo :asd:

Basta spulciare gli storici in ogni articolo amd :p
Cmq tabelle o meno è ovvio che le hbm2 costeranno di più.

CrapaDiLegno
22-06-2017, 10:12
Almeno non dico cose a caso così per sport, o mi invento tabelle assurde per portare avanti la mia tesi, è quello che è stato postato sul forum, se trovi delle fonti portacele pure, altrimenti tutto ciò che dici in questo caso vale 0.

Che tu dia del fanboy agli altri è davvero pazzesco, ma ormai ti si conosce alla perfezione, tranquillo :asd:

No, non dici cose a caso, posti tabelle fatte da chi non sai che sono palesemente false (le due GPU non costano uguali, quindi figuriamoci come sono stati stimati gli altri costi) solo perché ti va bene così.
Io ti ho fatto una stima diversa. Che è più credibile, visto che sono i costi supposti che trovi in giro sulla rete per le memorie e i costri delle GPU sono rapportate in maniera corretta. Gli altri costi li ho supporti esattamente come quello che ha scritto la tabella a te tanto cara e non è che sono molto diversi.
E il risultato è quello.

Ora puoi continuare a postare le parole a caso di altri visto che non sei capace di fare un ragionamento tutto tuo.

CrapaDiLegno
22-06-2017, 10:21
secondo lui la 1080 la produce la san carlo con 90$ a chip e vega invece è fatta d'oro e ne costa 380$
fiji potrebbe costare quanto la hawaii semplicemente per lo yeld migliore dopo anni e anni di 28nm e sconto sul silicio ormai al capolinea, no eh, non ci ha pensato mica...

diamogli ragione almeno la finisce qua.

che le hbm costino di più è scontato, ma così si cade nel ridicolo...

Lo yield non è un numero a caso che viene dal nulla. Se lo yield migliora per Fiji vuol dire che migliora anche per le altre GPU che sono fatte con lo stesso identico PP.
Quindi no, Fiji non costa come Hawaii e sì, un chip grande 1.75 volte un altro può costare 3 volte tanto. Mi spiace per voi che credete ancora in Babbo Natale.

In fatto di fanboysmo mi pare che siate imbattibili. Io sto facendo un ragionamento con dei numeri che che possono essere più o meno precisi. Voi invece avete conoscenze tendenti a zero, riportate cose di cui non capite molto (tipo questa dello yield che farebbe costare un chip da 600MM^2 come uno da 440.. ovvero lo yield dovrebbe migliorare di 2 volte solo per la GPU più grande.. alla faccia), non avete argomenti e venite a dire che quello che dico è solo per tirare acqua al mio mulino e che il fanboy sono io.

Non so se vi accorgete dell assurdità della cosa.

Cominciate a mettere giù un ragionamento che sta in piedi. Poi venite a dire che il mio è errato e che non è credibile. Altrimenti è misticismo-credulità-fanboysmo contro numeri probabili. E non ci fate bella figura.

P.S: io ero rimasto ai rumour che davano Vega intorno ai 550mm^2. E' invece intorno ai 500MM^2? Bene.. rifacciamo il calcolo...
500/314 = 1.6, al quadrato 2.5. Ergo Vega a 500mm^q costa 2.5 volte il GP104. Lo Yield di AMD è migliore di quello di nvidia (così, per famboysmo gratuito verso AMD)? Bene... facciamo che costa 2 volte tanto.
Che non cambia molto la situazione. Anzi, fermo restando che i costi della HBM sono più o meno quelli riportati rende ancora di più sconveniente l'uso della HBM rispetto alla GDDR5(X).

CrapaDiLegno
22-06-2017, 11:17
I numeri sui costi di HBM, HBM2, GDDR5, GDDR5X e GDDR6 non ce li hai, quindi su quali basi stai facendo il ragionamento che HBM2 costa infinito e non ce ne sono sul mercato nonostante siano sulle Tesla da Gennaio 2016 mentre le GDDR6 sono economiche nonostante non siano nemmeno in mass production?

Il fatto di non avere i numeri esatti non impedisce di fare delle stime.
Prima di tutto io non ho mai parlato di GDDR6.
Secondo, qualsiasi stima fatta da una persona con 2 neuroni è meglio di quella proposta dove Hawaii e Fiji costano uguali.

Pensare che la Fury X costi solo 1.5x la 290X non è per niente credibile. Quindi sì, si possono fare stime se si attivano i neuroni e non ci si lascia prendere dal fanboysmo. E comunque non è un confronto GDDR5X zwero e HBM infinito. E' GDDR5X, tecnologia mainstream costo 1, HBM2 top level technology costo 5.

Non mi sembra che vi sia tutta questa improbabilità o che i valori siano completamente sballati.

Gello
22-06-2017, 11:26
Ma non fa caldo per parlare del nulla ?

riuzasan
22-06-2017, 11:29
Il fatto di non avere i numeri esatti non impedisce di fare delle stime.
Prima di tutto io non ho mai parlato di GDDR6.
Secondo, qualsiasi stima fatta da una persona con 2 neuroni è meglio di quella proposta dove Hawaii e Fiji costano uguali.

Pensare che la Fury X costi solo 1.5x la 290X non è per niente credibile. Quindi sì, si possono fare stime se si attivano i neuroni e non ci si lascia prendere dal fanboysmo. E comunque non è un confronto GDDR5X zwero e HBM infinito. E' GDDR5X, tecnologia mainstream costo 1, HBM2 top level technology costo 5.

Non mi sembra che vi sia tutta questa improbabilità o che i valori siano completamente sballati.

Vai a mare a prendere un po d'aria fresca che l'alternativa che porti sul forum è imbarazzante

Legolas84
22-06-2017, 11:33
Si potrebbe anche parlare di Volta ogni tanto nel thread delle nuove vga NVIDIA...


Inviato dal mio iPhone utilizzando Tapatalk Pro

Legolas84
22-06-2017, 11:47
Sono abbastanza sicuro che Volta V100 monti HBM2 e Volta GV104 monterà una fra GDDR6 e GDDR5X. Stiamo parlando di Volta.



A me sembra che state facendo le solite crociate e guerre sul nulla... e con questo chiudo.


Inviato dal mio iPhone utilizzando Tapatalk Pro

CrapaDiLegno
22-06-2017, 12:13
Ma è sempre il modo in cui ti poni oltre al fatto di denigrare sempre e solo una azienda e ryzen ne è l'ennesima prova, pensi sempre di avere ragione anche quando non riporti fonti ma solo le tue idee, che magari gli altri non la pensano come te ci hai pensato?
Vega sarà intorno ai 480~500mmq sia per i calcoli fatti dalle immagini che per le dichiarazioni... che poi non capisco perché parli di gp104, quando alla peggio andrà contro gp102 e gv104 che sono e saranno rispettivamente 475mmq e a stima 380~400mmq, quindi come dimensioni sono paragonabili.

I costi di hawaii e fiji non saranno riparametrati negli anni in quella tabella, quindi ci sta tutto che costino uguale i chip ad anni di distanza e nel momento in cui le hanno prodotte, adesso che te l'ho spiegato dimmi che non ci potevi arrivare da solo... ma poi anche fosse in più quanto sarebbe, 20$? farebbe tutta questa differenza sul costo complessivo?
hai riportato nella tua tabella 150$ per un chip a 14nm di presunti 550mmq (quando saranno 480~500mmq) contro gli 80$ di 440/600mmq di hawaii/fiji, il doppio... il senso? secondo te perché AMD produce da GF invece che da TSMC? sono masochisti?
Ci perde in perf/watt, ma ci guadagna nei costi è lampante.

Dici ci non riportare dati precisi che non serve e poi ti fai mille seghe mentali sullo yeld i mmq, ecc, quando dici che le hbm costano 10 VOLTE le gddr giusto per il gusto di dirlo o far credere di essere un guru... ma fatti un bagno d'umiltà.

Ecco il fanboy che viene fuori.
Vi attaccate a tutto pur di non ammettere che avete torto.
Allora, premesso che la tabella che hai portato è per nulla credibile, sono comunque partito dal costo di $80 per Hawaii. Chip da 440mm^2 a 28nm. Il GP104 (perché non posso usarlo per fare un confronto?) è 314 a 14nm e l'ho messo allo stesso prezzo. E sono già stato buono. Poi ho semplicemente calcolato il prezzo dell'altro chip seguendo quelle che sono le regole di costi e resa.
Neanche nei sogni più bagnanti del fanboy più credente Fiji può costare come Hawaii. Per poterci credere vuol dire non conoscere nulla di quel che si parla e si dicono l e cose solo perché fa piacere dirle e trovare qualcuno che con una pacca sulle spalle ci dica "hai ragione". Perché come ti ho detto è creder che le rese raddoppino (ovvero che Fiji abbia uno yield doppio di Hawaii.. cosa insensata). E comunque rimane sempre un confronto inutile, perché non vedo alcun motivo per confrontare un Hawaii a inizio vita contro un Fiji. Hawaii era prodotto nello stesso momento in cui è uscito Fiji, per cui il confronto lo fai con i costi contemporanei tra le due soluzioni.
Se Fiji al day one costa tot, Hawaii lo stesso giorno costa quasi la metà.

A 500MM^2 ti ho rifatto i conti. Ora puoi cercare di nuovo di credere a Babbo Natale e dire che non sarà così.
Rimane il fatto che la stima dei costi è quella relativa alle memorie. Lì ovviamente non hai potuto dire nulla, visto che i numeri che ho portato sono perfettamente credibili e si trova qualche rumor sul fatto che non si è poi così distanti.

Fatto sta che HBM non costa 1.8x le GDDR5 (neanche X) come riportato dalla tua tabella.


GDDR5X è una tecnologia mainstream solo nella tua mente.

è talmente mainstream che al mondo nel 2016 c'era una scheda sola che manco girava al top dichiarato (10 vs 14) dalla casa produttrice e nel 2017 ce n'è solo un'altra che monta una versione di poco più veloce (11)...

Cosa vi sfugge che nonostante le frequenze le GDDR5X non hanno nulla di più difficile nella produzione della GDDR5? Stessa densità, stesso package, stesso modalità di saldatura... è tecnologia mainstream a tutti gli effetti. Anche se per voi mainstream significa produzione di massa. l'HBM non è mainstream neanche se fosse adottata da tutte le GPU del mondo. Necessita più passi di produzione, più materiali (interposer) e non è saldabile dal primo pirlone in una qualsiasi fab di un AIB. La GDDR5X sì.

Ma non fa caldo per parlare del nulla ?Certo che stiamo parlando del nulla. Si cercava solo di dare un valore a quello che potrebbe essere i costi dell'HBM anche per il futuro.
Ma a quanto sembra se non parli bene di AMD neanche in un thread dove si parla di tecnologia nvidia sei solo un fanboy che non capisce nulla

Vai a mare a prendere un po d'aria fresca che l'alternativa che porti sul forum è imbarazzante
Ah sì. E voi fanbopy rossi che state in un thread dove si parla di tecnologia che non capite invece non siete imbarazzanti, no... vi appellate a tabelline fatte da vostro cuggino, non sapete che la resa dei chip non è lineare rispetto alla superficie, scommetto che molti di voi non sapevano neanche della necessità di un interposer per l'HBM, non sapete quanto costa (si parla di oltre 1000mm^2 di silicio signori), forse credevate che la HBM si potesse saldare con la fiamma ossidrica nel vostro garage... e sareste quelli credibili?
Perché non tornate a minare con le vostre Radeon e non lasciate respirare chi riesce a mettere nero su bianco 4 numeri di propria iniziativa?
E sottolineo, propria iniziativa per dire propria capacità e non quella del cuggino che ha scritto una tabella quella sì, veramente imbarazzante anche solo da crosslinkare come fonte di qualsiasi cosa?

Ah, ee per la questione che sarei un fanboy che odia AMD.. andate a trovare un solo post dove parlo male di Ryzen. Così la smettete di fare i piagnucolosi che non vogliono vedere oltre il loro naso perché la verità fa male.

mikael84
22-06-2017, 14:02
Parere personale, Volta sarà Pascal con più shader e quindi maggiore superficie.
Tra Kepler e Maxwell nvidia ha scelto di aumentare la superficie per avere più prestazioni (su stesso PP non puoi fare molto diversamente), tra Maxwell e Pascal nvidia ha scelto di aumentare le frequenze (quindi a parità di prestazioni la superficie è diminuita grazie al nuovo PP), con Volta che non godrà di nessun vantaggio di shrinking sarà costretta nuovamente ad andare di maggiore superficie (riuscirà a superare il muro del 2GHz in condizioni stabili?)
Questo significa che seppure Volta con tutte le migliorie del caso di thread management e ottimizzazioni di ALU e probabilmente nuove istruzioni costerà comunque di più di Pascal.
Visto il fatto che AMD non ha nulla con cui contrapporsi alle GPU nvidia fino a Navi e soprattutto che nella fascia medio alta AMD usa HBM con costi spropositati, che comunque necessita GPU con superficie maggiore e maggiori consumi, nvidia può permettersi GPU di dimensioni maggiori e costi (per lei) più alti. Il che mi fa credere che ci sarà una ulteriore impennata dei prezzi delle VGA a parità di fascia, come ormai siamo abituati da Kepler in poi.

@mikael84: probabilmente te l'ho già chiesto una volta ma poi non ho letto la risposta: puoi spiegare perché le ROPs sono collegate 1:1 con un memory channel? nvidia non ha un crossbar che permette ai vari GPC di comunicare liberamente? Secondo questa teoria molte ROPs di nvidia non sarebbero usate su molte GPU. Che senso avrebbe quindi lasciarle attive sui chip castrati?

Le rop's sono poste adiacenti alla L2 (completamente unificata in tutta la GPU) per raggiungere picchi di throughput molto elevati e per collegare i vari canali.
Purtroppo non tutte le GPU riescono ad elaborare tutte le rop's, al massimo possono memorizzarne i pixel.
Ogni raster elabora 16 pixel, suddivisi in modalità 32 bit inseguente modo:
32b/ 8 rop's/512kb
32b/ 8 rop's/512kb

64b/ 16 rop's/1mbl2.

Se prendiamo una 1060 abbiamo un totale di:
2 GPC/48 rop's/192bit.

La 1060 è cosi formata perchè un blocco rop's ed una partizione di cache è utilizzata per creare il canale di collegamento e garantire il throughput ai 192bit, anzichè 128bit.
Avendo solo 2 rasterizzatori, la 1060 può elaborare complessivamente solo 32 pixel e non 48, anche se può sfruttare la maggiore cache l2.

Stessa cosa con la 1070, che è 3 GPC + collegamento per i 256bit.

Idem per il chip full compute P/V100, in quanto per gli stack HBM devi scrivere un collegamento simile a quello di un 512bit.
Su 128 rop's ne elabori 92, perà allo stesso tempo sfrutti l'ampissima L2, molto utile per le load.

CrapaDiLegno
22-06-2017, 15:29
Le rop's sono poste adiacenti alla L2 (completamente unificata in tutta la GPU) per raggiungere picchi di throughput molto elevati e per collegare i vari canali.
Purtroppo non tutte le GPU riescono ad elaborare tutte le rop's, al massimo possono memorizzarne i pixel.
Ogni raster elabora 16 pixel, suddivisi in modalità 32 bit inseguente modo:
32b/ 8 rop's/512kb
32b/ 8 rop's/512kb

64b/ 16 rop's/1mbl2.

Se prendiamo una 1060 abbiamo un totale di:
2 GPC/48 rop's/192bit.

La 1060 è cosi formata perchè un blocco rop's ed una partizione di cache è utilizzata per creare il canale di collegamento e garantire il throughput ai 192bit, anzichè 128bit.
Avendo solo 2 rasterizzatori, la 1060 può elaborare complessivamente solo 32 pixel e non 48, anche se può sfruttare la maggiore cache l2.

Stessa cosa con la 1070, che è 3 GPC + collegamento per i 256bit.

Idem per il chip full compute P/V100, in quanto per gli stack HBM devi scrivere un collegamento simile a quello di un 512bit.
Su 128 rop's ne elabori 92, perà allo stesso tempo sfrutti l'ampissima L2, molto utile per le load.

Capito molto poco per mia limitazione. So che L2 e ROPs sono connesse strettamente tra di loro e fin qui c'ero anche prima.
Ma L2 "come unico blocco" però mi sfugge, visto quello che nvidia ha fatto con la 970 dove ROP e conseguente pezzo di L2 sono stati disattivati.

Nel complesso non ho compreso perché le ROPs che non sono connesse direttamente a un GPC non possono fare elaborazione. Se i dati sono in VRAM/L2, perché non possono farne accesso ed elaborarli come le altre?

CrapaDiLegno
22-06-2017, 16:01
Volta GV100 monterà al 100% le hbm2, è ufficiale e non credo cambieranno i piani
http://cdn.wccftech.com/wp-content/uploads/2017/05/IJcSWJS.jpg

per GV104 alla fine cambierà poco se gddr6 o gddr5x dipende dalla velocità alla fine, ma credo che con GV102 useranno le gddr6, GV104 le gddr5x e GV106 le gddr5.

ps. io non gli rispondo più se vuoi tu fai come credi più giusto, ma uno così non merita di essere risposto o di entrare in una discussione anche se stesse dicendo cose giuste, a prescindere: un comportamento inaccettabile.

Ma in verità quello che ha voluto fare il puntiglioso senza alcun argomento sei stato tu.
Se ti limitavi a prendere la mia affermazione "la GDDR5X costa 1/10 della HBM" come una battuta non avremo fatto alcun dibattito sul nulla cosmico.
Ma tu hai voluto fare il saputo (senza argomentazione) e questo è stato il risultato.

mikael84
22-06-2017, 16:50
Capito molto poco per mia limitazione. So che L2 e ROPs sono connesse strettamente tra di loro e fin qui c'ero anche prima.
Ma L2 "come unico blocco" però mi sfugge, visto quello che nvidia ha fatto con la 970 dove ROP e conseguente pezzo di L2 sono stati disattivati.

Nel complesso non ho compreso perché le ROPs che non sono connesse direttamente a un GPC non possono fare elaborazione. Se i dati sono in VRAM/L2, perché non possono farne accesso ed elaborarli come le altre?

Le rop's sono bloccate via rasterizzatore, ogni rasterizzatore può elaborare solo 16 pixel.
1 raster: 16 pixel- 2 raster - 32 e così via.

Con Kepler, invece i blocchi erano ad 8 pixel su 12 (3 SMX x 4 pixel).

Riguardo la L2, come detto sopra è partizionata con un gruppo di rop's a canale, ma la GPU può accedere a tutte le parti di cache, non solo alla sua.
Le 970 (anche 1080ti) hanno una parte di cache fallata e conseguentemente perdono un canale a 32bit, di conseguenza la cache scende rispettivamente a 1,75mb/2,75mb.

Il taglio della 1080ti però permette di utilizzare tutte le rop's, fisiche ed elaborate, mentre la Titan ad esempio, ha il collegamento a 96 rop's, ma di queste solo 92 vengono elaborate, in quanto l'ultimo GPC è formato da 3 SMM (12 pixel).

FreeMan
22-06-2017, 19:08
EFFINITELAUNPO'!!!!!! :rolleyes: :rolleyes: :rolleyes: :rolleyes: :rolleyes: :rolleyes:

CrapaDiLegno, sospeso 5gg per flame

>bYeZ<

appleroof
22-06-2017, 21:02
cut



Si Apple, Q1 è l'ipotesi più accreditata, max q2 Maggio :)

Ottimo dai, speriamo q1 allora :D grazie Mike ;)

Nurabsa
24-06-2017, 08:49
scommetto che volta sarà come dai tempi di fermi l ennesimo 24bit/48000

tetri
24-06-2017, 18:25
Ciao a tutti,

è tantissimo che non seguo, abbiate pazienza, ma quando esce il successore di 1080Ti? E la sua futura evoluzione? andrà circa 20-30% in più come al solito?

Grazie

aled1974
24-06-2017, 20:01
non si sa x2

l'ipotesi più probabile è il Q2 2018, ma è appunto un'ipotesi ;)

ciao ciao

Ubro92
25-06-2017, 10:02
Ciao a tutti,

è tantissimo che non seguo, abbiate pazienza, ma quando esce il successore di 1080Ti? E la sua futura evoluzione? andrà circa 20-30% in più come al solito?

Grazie

Se intendi chippone x chippone se ne parla nel 2019 con 2080ti, se invece ti riferisci a GV104 ovvero 2080 è atteso entro la primavera 2018, ma per la 2080 non ci sono fonti certe ma per le prestazioni mi aspetto un 15-20% sopra una Titan XP quindi un distacco del 30-35% dalla 1080ti...

kiwivda
25-06-2017, 18:20
Ma secondo voi con Volta il chippone lo fanno subito o anche la Titan la fanno a rate pure sta volta? Quando dicevo che la prima titan x pascal era uno scarto nessuno mi dava retta...:read:

AceGranger
25-06-2017, 18:49
Ma secondo voi con Volta il chippone lo fanno subito o anche la Titan la fanno a rate pure sta volta? Quando dicevo che la prima titan x pascal era uno scarto nessuno mi dava retta...:read:

dipendera da come saranno le rese.

Ubro92
25-06-2017, 18:59
dipendera da come saranno le rese.

Questo è sicuro, per me potrebbero anche risparmiarsela la titan cuttata a questo punto fate uscire direttamente la 2080ti anche overprezzata a 1000€ cosi da vendere comunque la 2080 sui 650-700€ e successivamente la vera titan full portando il solito livellamento di prezzo per le schede inferiori...

TigerTank
25-06-2017, 20:30
Questo è sicuro, per me potrebbero anche risparmiarsela la titan cuttata a questo punto fate uscire direttamente la 2080ti anche overprezzata a 1000€ cosi da vendere comunque la 2080 sui 650-700€ e successivamente la vera titan full portando il solito livellamento di prezzo per le schede inferiori...

Scusa ma a ragionare così assumi il ruolo del consumatore sadico-autolesionista eh! :sofico:
Meglio che esca la titan così se la comprano quelli che hanno i soldi da buttare mentre gli altri non interessati ai chippini aspettano le Ti. Tanto alla fine le Ti escono sempre con un anno di scarto per cui a meno di necessità irresistibili possono aspettare e andare di Ti in Ti(visto anche quel che costano).
Se poi refreshano la titan...eh...problema di chi sgancia un sacco di grana pur di avere subito il chippone :)

Ubro92
25-06-2017, 21:24
Scusa ma a ragionare così assumi il ruolo del consumatore sadico-autolesionista eh! :sofico:
Meglio che esca la titan così se la comprano quelli che hanno i soldi da buttare mentre gli altri non interessati ai chippini aspettano le Ti. Tanto alla fine le Ti escono sempre con un anno di scarto per cui a meno di necessità irresistibili possono aspettare e andare di Ti in Ti(visto anche quel che costano).
Se poi refreshano la titan...eh...problema di chi sgancia un sacco di grana pur di avere subito il chippone :)

Vabbè ero ironico, inoltre non riuscirei neanche ad essere obiettivo al 100% essendo un target di prezzo-prestazioni molto lontano dalla mia idea di conveniente :fagiano:

Comunque andando per assurdo, alla fine a conti sarebbe la stessa cosa solo che chiami la titan cuttata 1080ti e fai uscire un unica titan full :sofico:

fraussantin
04-07-2017, 07:42
http://wccftech.com/nvidia-gtx-580-dx-12-benchmarks-geforce-384-76-geforce-400-500-series-direct-x-12/

:sofico:
Capirai, le dx 12 non conviene attivarle sulle vga moderne, ti immagini su roba del 2010...

Mi stupisco che escano ancora i driver.


Inviato dal mio DUK-L09 utilizzando Tapatalk

Nurabsa
04-07-2017, 07:44
prova che oltre all' obsolescenza fai da te si puo stare per anni con la stessa vga. Specie quando si acquista una ammiraglia come la 580 ai tempi.

Tempo fa scrissi come era migliorata una semplice gts450 col passaggio da z68 a x99. Se non avesse avuto gravi problemi termici grazie alla fallita pov magari oggi la utilizzerei ancora

Ubro92
04-07-2017, 08:03
Capirai, le dx 12 non conviene attivarle sulle vga moderne, ti immagini su roba del 2010...

Mi stupisco che escano ancora i driver.


Inviato dal mio DUK-L09 utilizzando Tapatalk

Diciamo che in ottica futura per quei titoli che non richiedono requisiti hw estremi ma scritti completamente in Dx12 assicura la possibilità di eseguirli, poi la 580 è una scheda con molta potenza di calcolo, pensa che nel rendering iray tira più di una 980 e 1080 quindi considerando che nell'usato la si trova a pochi euro, tira ancora molto bene ed è una gpu che ha il suo perchè, ovviamente dipende da cosa devi fare e dai SW che usi e 3GB in alcuni impieghi potrebbero essere limitanti.

In gaming è una scheda ormai superata non ha proprio più senso anche solo per i consumi...

fraussantin
04-07-2017, 08:18
Diciamo che in ottica futura per quei titoli che non richiedono requisiti hw estremi ma scritti completamente in Dx12 assicura la possibilità di eseguirli, poi la 580 è una scheda con molta potenza di calcolo, pensa che nel rendering iray tira più di una 980 e 1080 quindi considerando che nell'usato la si trova a pochi euro, tira ancora molto bene ed è una gpu che ha il suo perchè, ovviamente dipende da cosa devi fare e dai SW che usi e 3GB in alcuni impieghi potrebbero essere limitanti.

In gaming è una scheda ormai superata non ha proprio più senso anche solo per i consumi...
Si, non dico che sia un male, anzi il supporto alle dx 12 è cmq un plus. Quello che dico io è che non ho ancora giocato a niente oggi in dx12, e probabilmente non lo farò per i prossimi 2 anni, forse uscirà qualcosa di esclusivo e decente ma di certo non roba giocabile con la 580.

Certo chi ce l'ha e per un motivo o per un altro ha smesso di spendere in pc, sarà piú che contento.

Inviato dal mio DUK-L09 utilizzando Tapatalk

nico88desmo
04-07-2017, 08:18
Per il post Volta forse...

http://techreport.com/news/32189/nvidia-explores-ways-of-cramming-many-gpus-onto-one-package

;)

TigerTank
04-07-2017, 08:21
prova che oltre all' obsolescenza fai da te si puo stare per anni con la stessa vga. Specie quando si acquista una ammiraglia come la 580 ai tempi.

Tempo fa scrissi come era migliorata una semplice gts450 col passaggio da z68 a x99. Se non avesse avuto gravi problemi termici grazie alla fallita pov magari oggi la utilizzerei ancora

Sì beh ma con certi limiti. Si potrà anche evitare di cambiare secondo i tempi del marketing...ma in ogni caso gli standard evolvono. Aumentano le risoluzioni, aumentano potenza e vram necessaria, cambiano le connessioni per cui arriva il momento in cui ti devi adeguare almeno un pochino se vuoi giocarti titoli recenti o aggiornare monitor/tv usata anche come monitor.
Tanto per fare un esempio...la gtx580 non aveva ancora la displayport, che insieme all'HDMI 2.0 è ormai la connessione di riferimento.
Poi ovviamente nessuno vieta che ci si tengano sistemi vecchi per usi leggeri/secondari. :)

fraussantin
04-07-2017, 08:27
Sì beh ma con certi limiti. Si potrà anche evitare di cambiare secondo i tempi del marketing...ma in ogni caso gli standard evolvono. Aumentano le risoluzioni, aumentano potenza e vram necessaria, cambiano le connessioni per cui arriva il momento in cui ti devi adeguare almeno un pochino se vuoi giocarti titoli recenti o aggiornare monitor/tv usata anche come monitor.
Tanto per fare un esempio...la gtx580 non aveva ancora la displayport, che insieme all'HDMI 2.0 è ormai la connessione di riferimento.
Poi ovviamente nessuno vieta che ci si tengano sistemi vecchi per usi leggeri/secondari. :)
Chi si tiene per 6 anni una fermi, di certo non si fa problemi ad usare la porta vga o una vecchia hdmi.

Che cmq ancora oggi so o presenti in tutti i monitor di fascia bassa.

Inviato dal mio DUK-L09 utilizzando Tapatalk

AceGranger
04-07-2017, 08:32
Mi chiedo da anni perché né AMD né nVidia abbiano prodotto qualcosa del genere (mentre AMD stessa e Intel lo fanno in ambito CPU).

Evidentemente l'interposer e le HBM hanno smosso le cose e a quanto pare sia nVidia che AMD hanno cominciato a muovere i propri sviluppi in quella direzione.

secondo me anche perchè lato GPU far comunicare i chip internamente in quel modo è piu inefficiente rispetto al chip monolitico, piu di quanto non lo sia con le CPU, quindi hanno rimandato il piu possibile; ora che con GV100 hanno raggiunto il limite stanno cercando altre strade.

se AMD ha sempre chiuso un occhio sull'efficienza, nVIdia non se lo puo permettere perchè ha Intel attaccata ai maroni in campo HPC.

Ubro92
04-07-2017, 08:57
secondo me anche perchè lato GPU far comunicare i chip internamente in quel modo è piu inefficiente rispetto al chip monolitico, piu di quanto non lo sia con le CPU, quindi hanno rimandato il piu possibile; ora che con GV100 hanno raggiunto il limite stanno cercando altre strade.

se AMD ha sempre chiuso un occhio sull'efficienza, nVIdia non se lo puo permettere perchè ha Intel attaccata ai maroni in campo HPC.

Il problema, è sopratutto di natura SW prima delle DX12 e Vulkan solo le console avevano api a basso livello, ora che lo scenario sta cambiando e anche l'HW inizia a raggiungere dei limiti costruttivi queste soluzioni sembrano essere una naturale evoluzione dei chip con il vantaggio di migliorare anche le rese produttive, ma come per le cpu multicore richiede un certo livello di sviluppo SW da parte degli sviluppatori quindi sono soluzioni molto futuristiche considerando che le DX12/Vulkan non sono per niente utilizzate in nessun titolo attuale e utilizzano ben poco di queste api...

Concettualmente parlando, non è normale che con un api a basso livello si hanno prestazioni inferiori, dovrebbero essere allineate nel caso peggiore quindi è chiaro che ci sia un netto problema di sviluppo nell'utilizzarle...

TigerTank
04-07-2017, 09:00
Chi si tiene per 6 anni una fermi, di certo non si fa problemi ad usare la porta vga o una vecchia hdmi.

Che cmq ancora oggi so o presenti in tutti i monitor di fascia bassa.


Certamente, ma non è nemmeno un gamer che sia un minimo al passo con i tempi...anzi, molto occasionale o da retrogaming :)
A meno che appunto tali sistemi non siano secondari e usati come "muletti" per cose di base e ci sia anche un sistema primario da gaming.
Come uso HTPC dipende, perchè se uno ci vuole accoppiare una 4K e stare al passo con i codec(HEVC) deve appunto avere hardware un minimo all'altezza.

Ubro92
04-07-2017, 09:04
Certamente, ma non è nemmeno un gamer che sia un minimo al passo con i tempi...anzi, molto occasionale o da retrogaming :)
A meno che appunto tali sistemi non siano secondari e usati come "muletti" per cose di base e ci sia anche un sistema primario da gaming.
Come uso HTPC dipende, perchè se uno ci vuole accoppiare una 4K e stare al passo con i codec(HEVC) deve appunto avere hardware un minimo all'altezza.

La 580, ora come ora penso sia una scheda prettamente lavorativa e con prestazioni in rendering di tutto rispetto e superiori anche a schede top gamma recenti, non certo per utilizzo da gamer o HTPC considerando i consumi e le prestazioni in questo ambito e da questo punto di vista è paragonabile a una GT 1030 che consuma 30w contro i quasi 250-300w della 580 :sofico:

AceGranger
04-07-2017, 09:21
Il problema, è sopratutto di natura SW prima delle DX12 e Vulkan solo le console avevano api a basso livello, ora che lo scenario sta cambiando e anche l'HW inizia a raggiungere dei limiti costruttivi queste soluzioni sembrano essere una naturale evoluzione dei chip con il vantaggio di migliorare anche le rese produttive, ma come per le cpu multicore richiede un certo livello di sviluppo SW da parte degli sviluppatori quindi sono soluzioni molto futuristiche considerando che le DX12/Vulkan non sono per niente utilizzate in nessun titolo attuale e utilizzano ben poco di queste api...

Concettualmente parlando, non è normale che con un api a basso livello si hanno prestazioni inferiori, dovrebbero essere allineate nel caso peggiore quindi è chiaro che ci sia un netto problema di sviluppo nell'utilizzarle...

qui siamo a un livello ancora piu basso del software e delle DX; Ryzen necessita di qualche affinamento ma giusto per il nuovo SMT, il fatto che sia multi die all'interno è a monte del software non vai a pilotare quella roba; quello lo fa il chip internamente; se fosse stato cosi non avresti avuto nemmeno 1 software compatibile con Ryzen.

qui il problema è l'interconnessione interna dei die, il bus di comunicazione in questi casi va a rubare una grossissima fetta di consumi e TDP, che è il motivo per il quale aziende come IBM stanno studiando la trasmissione ottica.

e conta che dato il numero elevato di Stream Processor avresti necessita di uno scambio di dati nettamente superiore rispetto alla CPU.

Vul
04-07-2017, 09:35
Mi chiedo da anni perché né AMD né nVidia abbiano prodotto qualcosa del genere (mentre AMD stessa e Intel lo fanno in ambito CPU).

Evidentemente l'interposer e le HBM hanno smosso le cose e a quanto pare sia nVidia che AMD hanno cominciato a muovere i propri sviluppi in quella direzione.

Intel non lo fa in ambito cpu :)

Tutti i processori esistenti sono su singolo die.

Vul
04-07-2017, 09:52
http://images.hardwarezone.com/upload/files/2010/06/3d26b232e5.jpg

Non è rilevante che non lo faccia in questo momento (anche se ha già detto che lo farà in futuro). E' rilevante che lo ha fatto quando non lo faceva AMD e non lo ha fatto quando AMD lo faceva, quindi entrambe lo hanno fatto e senza alcun problema di sorta.

Irrilevante, ciò che conta è se possono farlo ora collegando un numero di core estremamente più elevato e con richieste molto superiori.

Nurabsa
04-07-2017, 10:14
Sì beh ma con certi limiti. Si potrà anche evitare di cambiare secondo i tempi del marketing...ma in ogni caso gli standard evolvono. Aumentano le risoluzioni, aumentano potenza e vram necessaria, cambiano le connessioni per cui arriva il momento in cui ti devi adeguare almeno un pochino se vuoi giocarti titoli recenti o aggiornare monitor/tv usata anche come monitor.
Tanto per fare un esempio...la gtx580 non aveva ancora la displayport, che insieme all'HDMI 2.0 è ormai la connessione di riferimento.
Poi ovviamente nessuno vieta che ci si tengano sistemi vecchi per usi leggeri/secondari. :)

sicuramente non mancano le motivazioni per i possessori serie 5 di aggiornare.
Purtroppo in certi ambienti forum la tendenza a fare obsolescenza fai da te è piu tosto estrema. Gamer pro o meno le schede durano basta solo pesare i titoli e fare set ultra con i motori grafici che lo permettono.

Sulla 580 purtroppo envidia ha fatto un bel pastrocchio. Sulla carta la serie 5 supporta l hd audio quindi ha l hdmi.
Nei fatti si scopre un intrigo alterno di schede della stessa serie che supportano e schede no.
Riporto :
GeForce GTX 480, 470, and 465 do not support advanced audio codecs.
GeForce GTX 590, 580, and 570 do not support advanced audio codecs.

Ma soprattutto se sulla gts450 c'è hdmi e supporta hd audio, come fa a non esserlo fermi 2.0. I grandi misteri verdi

Ubro92
04-07-2017, 11:11
qui siamo a un livello ancora piu basso del software e delle DX; Ryzen necessita di qualche affinamento ma giusto per il nuovo SMT, il fatto che sia multi die all'interno è a monte del software non vai a pilotare quella roba; quello lo fa il chip internamente; se fosse stato cosi non avresti avuto nemmeno 1 software compatibile con Ryzen.

qui il problema è l'interconnessione interna dei die, il bus di comunicazione in questi casi va a rubare una grossissima fetta di consumi e TDP, che è il motivo per il quale aziende come IBM stanno studiando la trasmissione ottica.

e conta che dato il numero elevato di Stream Processor avresti necessita di uno scambio di dati nettamente superiore rispetto alla CPU.

No, questa soluzione se ne frega del software, il punto è proprio quello di offrire al software un unico oggetto invece che oggetti multipli e gestire in hardware l'interconnessione per esporre all'esterno un front-end unico.


Come stavo ragionando mi ero creato uno schema simile alle Dual GPU o il multi-GPU in genere, in questo caso l'approccio è decisamente diverso ma le richieste lato banda sarebbero più che raddoppiate... Lato cpu non so quantificare i limiti con le soluzioni attuali ma di certo non sono soluzioni per giocare a 1080p, in 4k l'influsso della cpu è minimo ovviamente in questo caso anche in 4K la cpu inciderebbe non poco con soluzioni di quel calibro...

Comunque rispetto a un chip monolitico le latenze credo che a meno di particolari accorgimenti siano ben superiori e in un futuro in cui si guarda alla VR non è il massimo, è sicuramente una soluzione interessante per contenere i costi per lo più viste le rese non ottimali di un unico chippone e per colmare i limiti del pp, poi come tutte le cose va guardato come si evolve e le tecnologie annesse

The_SaN
04-07-2017, 11:13
L'ideale, in termini di performance, sarà sempre il die monolitico.
Però con un sistema di interconnessioni efficiente le perdite sono sostenibili dalla diminuzione dei costi.

AceGranger
04-07-2017, 11:41
L'ideale, in termini di performance, sarà sempre il die monolitico.
Però con un sistema di interconnessioni efficiente le perdite sono sostenibili dalla diminuzione dei costi.

si infatti hanno ritardado proprio per quello; hanno tirato fino all'ultimo ma ora credo siano quasi arrivati al limite.


guardando le proiezioni

https://www.tomshw.it/data/thumbs/2/1/0/7/mcm-gpu2-964befe4aa4abf6c51a398513b0c0d312.jpg


il Multi-Die è paragonabile alla monolitica solo con un bus a 6 TB/s, che è appunto irrealizzabile come è irrealizzabile la singola GPU monolitica.

la multi-die è il 10% meno prestante e sara inefficiente in una % ancora maggiore, che è tanto, pero d'altra parte sara l'unica strada percorribile.

Legolas84
04-07-2017, 12:36
Al di là di tutto la 580 è un'ottima scheda che ai tempi risolveva tutti i problemi della 480....

Ancora oggi può dire la sua in certi ambiti, ma chi compra oggi ovviamente non la deve nemmeno prendere in considerazione imho....


Inviato dal mio iPhone utilizzando Tapatalk Pro

Legolas84
04-07-2017, 13:24
Per il post Volta forse...

http://techreport.com/news/32189/nvidia-explores-ways-of-cramming-many-gpus-onto-one-package

;)


Sicuramente molto interessante... se NVIDIA dovesse decidere di seguire una strada del genere sarebbe un bel salto nel vuoto, nel senso che potrebbe venire benissimo come no visto che nessuno in ambito GPU ha mai provato una cosa del genere....

Le Voodoo 5 5500 erano viste dal sistema operativo come due gpu vero?

mikael84
04-07-2017, 23:39
Come stavo ragionando mi ero creato uno schema simile alle Dual GPU o il multi-GPU in genere, in questo caso l'approccio è decisamente diverso ma le richieste lato banda sarebbero più che raddoppiate... Lato cpu non so quantificare i limiti con le soluzioni attuali ma di certo non sono soluzioni per giocare a 1080p, in 4k l'influsso della cpu è minimo ovviamente in questo caso anche in 4K la cpu inciderebbe non poco con soluzioni di quel calibro...

Comunque rispetto a un chip monolitico le latenze credo che a meno di particolari accorgimenti siano ben superiori e in un futuro in cui si guarda alla VR non è il massimo, è sicuramente una soluzione interessante per contenere i costi per lo più viste le rese non ottimali di un unico chippone e per colmare i limiti del pp, poi come tutte le cose va guardato come si evolve e le tecnologie annesse

si infatti hanno ritardado proprio per quello; hanno tirato fino all'ultimo ma ora credo siano quasi arrivati al limite.


guardando le proiezioni


il Multi-Die è paragonabile alla monolitica solo con un bus a 6 TB/s, che è appunto irrealizzabile come è irrealizzabile la singola GPU monolitica.

la multi-die è il 10% meno prestante e sara inefficiente in una % ancora maggiore, che è tanto, pero d'altra parte sara l'unica strada percorribile.

Sicuramente molto interessante... se NVIDIA dovesse decidere di seguire una strada del genere sarebbe un bel salto nel vuoto, nel senso che potrebbe venire benissimo come no visto che nessuno in ambito GPU ha mai provato una cosa del genere....

Le Voodoo 5 5500 erano viste dal sistema operativo come due gpu vero?

Nvidia ci sta lavorando veramente, e sta pensando ad una nuova cache a cavallo della L1 l2.
I 4 core da 64 SMM (256SMM) della speculazione, hanno bisogno di molta banda,
Lo schema è composto da 4 GPU, 64 SM con una L1 unificata ed una L2 da 8/16 mb (questo mi fa pensare ad una fase tick, con raster a 32 e cache 1mb per raster)
https://abload.de/img/einstein6cy6u.png

Entrambe le cache sono collegate al nuovo GPM, la l1 è dentro gli SMM, la L2 è collegata alle rop's ed alla sua banda.

Il problema rimangono le latenze troppo elevate, praticamente doppie rispetto ai monolitici.
Se un GPM necessita di accedere ad un'altro GPM, si perdono sino a 32 cicli, pazzesco...
Nvidia sta lavorando sulla l1, 1,5, una cache, capace di far risparmiare tanti cicli, quando si verificano queste operazioni.

Attualmente, Nvidia ci sta lavorando, ma, il tutto è basato su supposizioni e proiezioni.
https://abload.de/img/dddaxsel.png

Per raggiungere questi dati, ogni GPM, sarà composto, presumibilmente da 4mb l2 (contro gli attuali 2/ 3 con Volta) e 64 rop's.
Le latenze pur con dati da speculazioni sarebbero troppo elevate.
Passiamo da 0,22ns a 100ms da speculazione.

https://abload.de/img/lllf0s8x.png

mikael84
04-07-2017, 23:46
Al di là di tutto la 580 è un'ottima scheda che ai tempi risolveva tutti i problemi della 480....

Ancora oggi può dire la sua in certi ambiti, ma chi compra oggi ovviamente non la deve nemmeno prendere in considerazione imho....


Inviato dal mio iPhone utilizzando Tapatalk Pro

Si dici bene Legolas, la 580, ha svolto un'importante lavoro elettrico via condensatori. Ogni connessione lenta è stata rivista.
In media ci prendi il 10% di clock.
La 580 ha aumentato la precisione sulle TMU e sullo Z-cull (il 3° stadio del raster che confronta la profondità di ogni pixel con quelli presenti nel framebuffer per rimuovere quelli che non sarebbero visibili nella scena.

Backfaceculling, ed Heaven (bestia nera di AMD).:)

Abilitare le dx12, serve ad una mazza a queste schede, visto che, l'unica cosa che fai è spezzattare i warp, in vari blocchi, che rimarrebbero in idle.
Nvidia deve eseguire in dx11 attualmente.

Nurabsa
05-07-2017, 08:32
non vanno abilitate su maxwell pensa su fermi. Le dx12 senza hardware moderno sono una disgrazia.
L hanno fatto solo per dire che anche loro supportano le vecchie architetture. Oltre alla concorrenza.

fraussantin
05-07-2017, 08:55
non vanno abilitate su maxwell pensa su fermi. Le dx12 senza hardware moderno sono una disgrazia.
L hanno fatto solo per dire che anche loro supportano le vecchie architetture. Oltre alla concorrenza.
Piu che altro non hanno senso su nessun hw.



Inviato dal mio DUK-L09 utilizzando Tapatalk

Legolas84
05-07-2017, 09:06
Piu che altro non hanno senso su nessun hw.



Inviato dal mio DUK-L09 utilizzando Tapatalk



Per AMD sono state molto utili per colmare diversi gap pur introducendo altri problemi non apprezzabili nelle misurazioni del frame rate medio (vedi latente enormi, problema di cui non soffre NVIDIA).

Comunque sono ancora molto acerbe ad oggi non esiste un vero e proprio gioco dx12 se non forse ashes che però è abbastanza ridicolo come gioco...

Vedremo se contestualmente a Vega e Volta anche queste nuove dx12 riusciranno a prendere piede....


Inviato dal mio iPhone utilizzando Tapatalk Pro

AceGranger
05-07-2017, 10:00
Nvidia ci sta lavorando veramente, e sta pensando ad una nuova cache a cavallo della L1 l2.
I 4 core da 64 SMM (256SMM) della speculazione, hanno bisogno di molta banda,
Lo schema è composto da 4 GPU, 64 SM con una L1 unificata ed una L2 da 8/16 mb (questo mi fa pensare ad una fase tick, con raster a 32 e cache 1mb per raster)


Entrambe le cache sono collegate al nuovo GPM, la l1 è dentro gli SMM, la L2 è collegata alle rop's ed alla sua banda.

Il problema rimangono le latenze troppo elevate, praticamente doppie rispetto ai monolitici.
Se un GPM necessita di accedere ad un'altro GPM, si perdono sino a 32 cicli, pazzesco...
Nvidia sta lavorando sulla l1, 1,5, una cache, capace di far risparmiare tanti cicli, quando si verificano queste operazioni.

Attualmente, Nvidia ci sta lavorando, ma, il tutto è basato su supposizioni e proiezioni.


Per raggiungere questi dati, ogni GPM, sarà composto, presumibilmente da 4mb l2 (contro gli attuali 2/ 3 con Volta) e 64 rop's.
Le latenze pur con dati da speculazioni sarebbero troppo elevate.
Passiamo da 0,22ns a 100ms da speculazione.




è vero che si perde molto in latenze, pero non sarebbe concettualmente da vedere come un guadagno perchè si avrebbero latenze inferiori rispetto che passare da una GPU all'altra via nVlink o PCI-EX ?

Nurabsa
05-07-2017, 10:03
in realtà la concorrenza non supporta le dx12 dell'era 40nm...
la serie Radeon 5000 e 6000 sono ferme alle dx11, lo hanno detto dopo un paio di anni dall'introduzione di gcn, ma va bene così su Fermi fecero del marketing e ci hanno messo 3-4 anni.

parlavo in generale non a caso.
Per la serie hd5000 da te citata posso solo complimentarmi. Una scheda obsoleta ma gestione audio encomiabile crimson compresi. Upmixing 7.1 da favola
Lo stesso non si puo dire di envidia. 450 cappata a 48kilo, 980ti bene atmos male dtsx.

con volta migliorare anche questo aspetto non sarebbe malvagio

mikael84
05-07-2017, 14:09
è vero che si perde molto in latenze, pero non sarebbe concettualmente da vedere come un guadagno perchè si avrebbero latenze inferiori rispetto che passare da una GPU all'altra via nVlink o PCI-EX ?

Si si, l'obbiettivo è avere alcune GPU che processano alla pari( o quasi) di un chip monolitico:)
Nvidia sta lavorando su una cache L1,5, per abbassare le latenze.
In sintesi, SMM L1-L2 (con accesso dram) ed una L1,5 capace di ridurre letteralmente i cicli nel caso un GPM dovesse accedere alla memoria dell'altro.
https://abload.de/img/l1518qu2.png

E' complesso, non è detto che lo vedremmo subito.
Probabilmente Nvidia seguirà una fase Tick 7nm ed una nuova Tock rivoluzionaria.
Attualmente ci sta lavorando.

Nella proiezioni Nvidia prova i 4mb su 64 SM, questo significa almeno 1mb per canale, per un totale di 64 rop's su 64 SM per GPM.:)


non vanno abilitate su maxwell pensa su fermi. Le dx12 senza hardware moderno sono una disgrazia.
L hanno fatto solo per dire che anche loro supportano le vecchie architetture. Oltre alla concorrenza.


Le 580, per giocare, ora come ora non servono a niente. Nel 2010/2011, le avevo in SLI ed erano mostri, ma ora ci fai poco. :)

CrapaDiLegno
13-07-2017, 11:02
Si si, l'obbiettivo è avere alcune GPU che processano alla pari( o quasi) di un chip monolitico:)
Nvidia sta lavorando su una cache L1,5, per abbassare le latenze.
In sintesi, SMM L1-L2 (con accesso dram) ed una L1,5 capace di ridurre letteralmente i cicli nel caso un GPM dovesse accedere alla memoria dell'altro.
https://abload.de/img/l1518qu2.png

E' complesso, non è detto che lo vedremmo subito.
Probabilmente Nvidia seguirà una fase Tick 7nm ed una nuova Tock rivoluzionaria.
Attualmente ci sta lavorando.

Nella proiezioni Nvidia prova i 4mb su 64 SM, questo significa almeno 1mb per canale, per un totale di 64 rop's su 64 SM per GPM.:)

Ho letto tutto il documento riguardante la simulazione della MCM-GPU e non mi sembra di aver trovato nulla di così rivoluzionario.
La Cache L1,5 (ovvero la cache posta tra le connessioni XBAR) mi sembra quasi scontata in un dispositivo del genere, ma nel documento si parlava di 16MB da dividere tra L2 e la L1,5. Non ho capito se era 16MB totale o per singolo GPM. Il test 16+16MB in effetti porta maggiori performance, ma anche altri costi.
Il problema dell'uso di questa soluzione a più blocchi con memoria NUMA è evidentemente il fatto che la gestione di più thread dello stesso kernel su più GPM è un delirio. O si mette a disposizione di ogni GPM una copia dei dati su cui lavorare (in stile SLI) oppure lo scambio di dati tra GPM diventa davvero oneroso. Oltre la banda necessaria anche la latenza diventa un problema e l'uso della cache L1,5 non è che possa fare miracoli quando i dati su cui fare le elaborazioni diventano MB. Ottima come buffer locale per conservare i risultati temporanei ma poi vanno svuotate e riempite nuovamente verso le pagine di memoria degli altri GPM. Delirio su un ring bus così costituito.
Nel documento hanno risolto allocando i thread di un kernel a un solo GPM, ma questo lo puoi fare se e solo se hai sufficienti kernel da saturare tutti i GPM e sopratutto se il carico di lavoro è bilanciato tra kernel, altrimenti per sfruttare tutti gli SM devi allocare thread anche su GPM diversi e nella simulazione fatta si è visto che si può perdere anche fino a 3x la velocità in questi casi.
Siccome non sono stati fatti test su motori di giochi e sui relativi algoritmi, non sappiamo quanto bene questa soluzione si adatti al mondo consumer.
Di certo ha il suo perché in quello professionale, come dimostrato dai test, dove le prestazioni possono aumentare ancora di più con altre ottimizzazioni, ma per vedere questa tecnologia applicata al mondo videoludico la vedo un po' troppo complessa.
La gestione dei carichi di lavoro e della memoria diventa un problema non indifferente, e siccome si parla di usare realmente API a basso livello nel futuro (non come il wrapping delle DX11 su DX12 come ora), la cosa diventa ancora più complessa.

Dimenticavo... il frame buffer è unico e l'accesso tramite NUMA non è proprio il massimo in efficienza. Come si risolve questa cosa?

CrapaDiLegno
13-07-2017, 11:06
doppio

mikael84
14-07-2017, 00:13
Ho letto tutto il documento riguardante la simulazione della MCM-GPU e non mi sembra di aver trovato nulla di così rivoluzionario.
La Cache L1,5 (ovvero la cache posta tra le connessioni XBAR) mi sembra quasi scontata in un dispositivo del genere, ma nel documento si parlava di 16MB da dividere tra L2 e la L1,5. Non ho capito se era 16MB totale o per singolo GPM. Il test 16+16MB in effetti porta maggiori performance, ma anche altri costi.
Il problema dell'uso di questa soluzione a più blocchi con memoria NUMA è evidentemente il fatto che la gestione di più thread dello stesso kernel su più GPM è un delirio. O si mette a disposizione di ogni GPM una copia dei dati su cui lavorare (in stile SLI) oppure lo scambio di dati tra GPM diventa davvero oneroso. Oltre la banda necessaria anche la latenza diventa un problema e l'uso della cache L1,5 non è che possa fare miracoli quando i dati su cui fare le elaborazioni diventano MB. Ottima come buffer locale per conservare i risultati temporanei ma poi vanno svuotate e riempite nuovamente verso le pagine di memoria degli altri GPM. Delirio su un ring bus così costituito.
Nel documento hanno risolto allocando i thread di un kernel a un solo GPM, ma questo lo puoi fare se e solo se hai sufficienti kernel da saturare tutti i GPM e sopratutto se il carico di lavoro è bilanciato tra kernel, altrimenti per sfruttare tutti gli SM devi allocare thread anche su GPM diversi e nella simulazione fatta si è visto che si può perdere anche fino a 3x la velocità in questi casi.
Siccome non sono stati fatti test su motori di giochi e sui relativi algoritmi, non sappiamo quanto bene questa soluzione si adatti al mondo consumer.
Di certo ha il suo perché in quello professionale, come dimostrato dai test, dove le prestazioni possono aumentare ancora di più con altre ottimizzazioni, ma per vedere questa tecnologia applicata al mondo videoludico la vedo un po' troppo complessa.
La gestione dei carichi di lavoro e della memoria diventa un problema non indifferente, e siccome si parla di usare realmente API a basso livello nel futuro (non come il wrapping delle DX11 su DX12 come ora), la cosa diventa ancora più complessa.

Dimenticavo... il frame buffer è unico e l'accesso tramite NUMA non è proprio il massimo in efficienza. Come si risolve questa cosa?

Il problema l'hai centrato.
Qualsiasi GPM può accedere al buffer dell'altro GPM tramite Xbar. L'unico vero problema è che la l2 è condivisa all'unico GPM, fattore cruciale del monolitico in cui la l2 è condivisa.
Per il miglior collegamento possibile, non rimane altro che utilizzare grandissimi buffer di memoria.
La L1,5 serve a smorzare i cicli di accessi remoti, in cui accedi per veicolare sopratutto i warp.
Fare questo comporta fino a 32 cicli, mentre la l1,5 permette di memorizzare vari dati per far si che un GPM si ritrovasse quasi il dato in istruzione e pronto per essere elaborato.
Anche se accedi uniformemente, ed hai grandi porzioni di banda il risultato finale cambia poco o nulla.
Il problema delle latenze lo ritrovi per forza, una vram da 0,25ns, impiegherà almeno 4 volte i tempi (questo è per ora da ipotizzare).

Riguardo i thread nessun problema, possono lavorare indipendentemente.
I 16mb che leggi, sono frutto di 4 GPM a 4gb.
Ciò significa che loro hanno ipotizzato un lavoro simil fase tick 7n, ovvero ogni warp viene elaborato tramite 64 rop's e 4096 thread x4 (ecco che la simulazione richiede mostruose richiese di buffer e cache).

Sulle dx11 e dx12 cambia poco, visto che il conservative rasterizzer necessita di un proprio spazio sulla L2 (in questo caso sarebbe decisamente aumentata).
Rispetto a Pascal, ora ci sarà una svolta.
Se prima il contatore del warp era di 32 elementi, questo purtroppo spezzettava il warp in blocchi, rendendo dei 4x4 in idle, ora con Volta, ogni thread non sarà opzione del contatore ma sarà indipendente, ciò significa che ogni warp potrà lavorare per conto suo, ricevere chiamate, allocare dati nel conservative, chiamare thread in idle e cercare di evitare lo stadio di idle.
Questo è stato il vero lavoro anche di AMD, che non aveva rasterizzer conservative ed era costretto a latenze altissime.
Il thread ora dovrebbe lavorare circa così:
Warp 1
4+4+4+4+4+4+4+4
D.U
4(UF)+4(UF)+4UF)+4UF) x2.
Spezzetandolo avremmo questo:
4(UF) 2048
4(UF) 2048
4(UF) idle
4 (UF) memoria conservative.

D.U 2, stesso percorso

Su Volta, nessun problema via warp, ogni thread è capace di prendersi la chiamata, l'istruzione e la unità funzionale.
Se un warp è mal programmato, puoi rischiare vari stadi di idle.
Con Volta, ogni thread, lavora come se fosse un warp
1-1-1-1-1-1-1-1-1-1-1-1-1--1-1-1-1 etc.

Un warp mal programmato porterà a questo
1-1-1-0-0-0-0-1-1-1-1
Potrebbe sembrare un codice binario, tipo quello che impediva l'OC, ma è il lavoro dei thread.
1 Lavora
0 esegue o aspetta

mikael84
14-07-2017, 01:00
Per AMD sono state molto utili per colmare diversi gap pur introducendo altri problemi non apprezzabili nelle misurazioni del frame rate medio (vedi latente enormi, problema di cui non soffre NVIDIA).

Comunque sono ancora molto acerbe ad oggi non esiste un vero e proprio gioco dx12 se non forse ashes che però è abbastanza ridicolo come gioco...

Vedremo se contestualmente a Vega e Volta anche queste nuove dx12 riusciranno a prendere piede....


Inviato dal mio iPhone utilizzando Tapatalk Pro

Sperando che Vega risolva i problema in memoria, altrimenti hai voglia di competere con una GPU monca.
https://abload.de/img/eee96qiy.png

Praticamente un Polaris a 384bit con tutte quelle ALU (suicidio).


Per il resto Vega e Volta saranno molto simili su questo versante..:)
Vega va di conservative, Volta migliora l'utilizzo thread.

CrapaDiLegno
14-07-2017, 09:41
Il problema l'hai centrato.
Qualsiasi GPM può accedere al buffer dell'altro GPM tramite Xbar. L'unico vero problema è che la l2 è condivisa all'unico GPM, fattore cruciale del monolitico in cui la l2 è condivisa.
Per il miglior collegamento possibile, non rimane altro che utilizzare grandissimi buffer di memoria.
La L1,5 serve a smorzare i cicli di accessi remoti, in cui accedi per veicolare sopratutto i warp.
Fare questo comporta fino a 32 cicli, mentre la l1,5 permette di memorizzare vari dati per far si che un GPM si ritrovasse quasi il dato in istruzione e pronto per essere elaborato.
Anche se accedi uniformemente, ed hai grandi porzioni di banda il risultato finale cambia poco o nulla.
Il problema delle latenze lo ritrovi per forza, una vram da 0,25ns, impiegherà almeno 4 volte i tempi (questo è per ora da ipotizzare).

Riguardo i thread nessun problema, possono lavorare indipendentemente.
I 16mb che leggi, sono frutto di 4 GPM a 4gb.
Ciò significa che loro hanno ipotizzato un lavoro simil fase tick 7n, ovvero ogni warp viene elaborato tramite 64 rop's e 4096 thread x4 (ecco che la simulazione richiede mostruose richiese di buffer e cache).

Sulle dx11 e dx12 cambia poco, visto che il conservative rasterizzer necessita di un proprio spazio sulla L2 (in questo caso sarebbe decisamente aumentata).
Rispetto a Pascal, ora ci sarà una svolta.
Se prima il contatore del warp era di 32 elementi, questo purtroppo spezzettava il warp in blocchi, rendendo dei 4x4 in idle, ora con Volta, ogni thread non sarà opzione del contatore ma sarà indipendente, ciò significa che ogni warp potrà lavorare per conto suo, ricevere chiamate, allocare dati nel conservative, chiamare thread in idle e cercare di evitare lo stadio di idle.
Questo è stato il vero lavoro anche di AMD, che non aveva rasterizzer conservative ed era costretto a latenze altissime.
Il thread ora dovrebbe lavorare circa così:
Warp 1
4+4+4+4+4+4+4+4
D.U
4(UF)+4(UF)+4UF)+4UF) x2.
Spezzetandolo avremmo questo:
4(UF) 2048
4(UF) 2048
4(UF) idle
4 (UF) memoria conservative.

D.U 2, stesso percorso

Su Volta, nessun problema via warp, ogni thread è capace di prendersi la chiamata, l'istruzione e la unità funzionale.
Se un warp è mal programmato, puoi rischiare vari stadi di idle.
Con Volta, ogni thread, lavora come se fosse un warp
1-1-1-1-1-1-1-1-1-1-1-1-1--1-1-1-1 etc.

Un warp mal programmato porterà a questo
1-1-1-0-0-0-0-1-1-1-1
Potrebbe sembrare un codice binario, tipo quello che impediva l'OC, ma è il lavoro dei thread.
1 Lavora
0 esegue o aspetta
Ciao,
un po' criptico il tuo post, ma lo prendo per buono ;)
Per quello che ho capito, anche se il thread è indipendente agli altri, il problema rimane sempre l'accesso ai dati e al codice da eseguire.
Facciamo l'esempio di un semplice shader che deve elaborare i dati dell'immagine per fare un qualsiasi effetto, per vedere se qualcosa nel mio ragionamento è errato.
Mi aspetto che il codice nativo di tale shader sia messo come unica copia in VRAM dal compilatore RT della CPU.
Ora, mettiamo che si voglia eseguire questo shader nel più breve tempo possibile, perché è un po' pesante, e su un solo GPM impiegherebbe troppo tempo, visto che in coda ce ne sono un altro paio che aspettano il risultato di questo.
Voglio quindi che venga eseguito su tutti i GPM. Per recuperare il codice, un solo GPM avrà accesso diretto a quella pagina di memoria, mentre gli altri dovranno passare per l'XBAR. E già abbiamo un ritardo, con aumento di banda interna solo per mettersi alla linea di partenza. Supponiamo quindi che ora tutto il codice sia nella cache L1,5 per i GPM che hanno fatto accesso tramite XBAR e in L2 per quello che ha fatto accesso diretto alla sua pagina di RAM.
Comincia l'elaborazione... servono i dati.. dove li si prende? Dalla VRAM ovviamente... servono i pixel dell'immagine parzialmente elaborata, i parametri del calcolo, i nuovi dati del calcolo. Ovviamente tutto è memorizzato in una sola copia in RAM e anche questa volta un GPM farà accesso diretto e gli altri tramite XBAR. Supponendo che ancora tutto stia all'interno della cache L1,5/L2 l'elaborazione parte a manetta (ma già solo se le cache sono piene c'è un rallentamento enorme)... ecco che un thread ha finito l'elaborazione del suo pezzettino... bisogna salvare il risultato in.. già, VRAM.. certamente non lo vogliamo che sia sparso su più pagine in maniera scorrelata, ma i dati saranno da mettere in un qualche buffer unico coerente. E allora, nuovamente passaggio per XBAR per tutti i i GPM tranne 1.
Ora arriva un nuovo thread di priorità maggiore (tipo chessò, uno che vuole calcolare la posizione di un oggetto che cade tramite applicazione di regole fisiche, il cui risultato serve alla CPU per calcolare la geometria del frame successivo), qualche GPM deve essere interrotto, la sua cache L1 viene svuotata, se malauguratamente viene allocato su più GPM anche la L1,5 subirà modifiche e alla fine di tuta l'elaborazione, il ripristino del vecchio shader necessiterà nuovamente il recupero del codice, dei dati e questo non sarà nella cache L1,5, e via di trasferimento tramite XBAR...
Insomma, come detto, un delirio.

La cosa mi suggerisce, se ho fatto un ragionamento corretto, che in un contesto elaborato e altamente dinamico come quello videoludico l'XBAR non può tanto fare affidamento alla cache ma deve avere tanta banda e bassissima latenza (cosa che questo documento voleva appunto evitare) il che vuol dire costi, costi costi. Che non saranno affrontati fino a che veramente la dimensione del die monolitico non raggiungerà il limite anche per questo mercato.
Che vuol dire diversi anni ancora. O forse mai.

Thunder-74
16-07-2017, 20:09
non vanno abilitate su maxwell pensa su fermi. Le dx12 senza hardware moderno sono una disgrazia.

L hanno fatto solo per dire che anche loro supportano le vecchie architetture. Oltre alla concorrenza.



Piu che altro non hanno senso su nessun hw.



Inviato dal mio DUK-L09 utilizzando Tapatalk



Sono daccordo, meglio le DX8.1



Non sono d'accordo ... in singola non ho visto migliorie di sorta , ma in Sli ho registrato aumenti di frames del 20/30% da dx11 a dx12 . Testato con Rise of tomb raider e Deus Ex. Inoltre lo Sli in generale , scala decisamente meglio rispetto alle dx11. Gear of wars 4 , dopo aggiornamento che arrivava lo Sli, ha raddoppiato in frames.. Ripeto in singola è da evitare ...


Inviato dal mio iPhone utilizzando Tapatalk

fabietto27
16-07-2017, 23:01
Non sono d'accordo ... in singola non ho visto migliorie di sorta , ma in Sli ho registrato aumenti di frames del 20/30% da dx11 a dx12 . Testato con Rise of tomb raider e Deus Ex. Inoltre lo Sli in generale , scala decisamente meglio rispetto alle dx11. Gear of wars 4 , dopo aggiornamento che arrivava lo Sli, ha raddoppiato in frames.. Ripeto in singola è da evitare ...


Inviato dal mio iPhone utilizzando Tapatalk
Confermo tutto

Inviato dal vivavoce della mia Daf Variomatic

Nurabsa
17-07-2017, 08:10
essendo contrario allo sli oltre che agli impianti a liquido, la mia opinione viene dall esperienza riportata in singola aria.
Nonostante abbia potenza da vendere la mia scheda ad oggi non trovo un motivo in titoli come rotr per cambiare librerie.
La cosa è mitigata via driver perderò 3/4 frame, ma piu che sottrarre mi spettavo si aggiungessero frame con l ultimo ritrovato di casa microsoft

Luca T
17-07-2017, 11:02
essendo contrario allo sli oltre che agli impianti a liquido, la mia opinione viene dall esperienza riportata in singola aria.
Nonostante abbia potenza da vendere la mia scheda ad oggi non trovo un motivo in titoli come rotr per cambiare librerie.
La cosa è mitigata via driver perderò 3/4 frame, ma piu che sottrarre mi spettavo si aggiungessero frame con l ultimo ritrovato di casa microsoft

Beh che tu sia contrario a liquudo e sli per tue convinzioni non significa che questi non diano ottimi benefici

Nurabsa
17-07-2017, 11:08
Beh che tu sia contrario a liquudo e sli per tue convinzioni non significa che questi non diano ottimi benefici

punti di vista.
Ho preferito una signora scheda con un signor raffreddamento alla enorme spesa piu wubbi ad ogni cambio vga.
Per lo sli è mediamente sconveniente acquistare 2 volte la stessa gpu. Fanno due titoli compatibili per quei quattro fanatici del multi scheda ma questo non significa che conveniente farlo. Che poi in generale il supporto fa pena lo hanno capito anche i prosli

ps anche tu hai tue convinzioni che diano ottimi benefici è falso tranne rari titoli supportati a dovere

Luca T
17-07-2017, 11:30
punti di vista.
Ho preferito una signora scheda con un signor raffreddamento alla enorme spesa piu wubbi ad ogni cambio vga.
Per lo sli è mediamente sconveniente acquistare 2 volte la stessa gpu. Fanno due titoli compatibili per quei quattro fanatici del multi scheda ma questo non significa che conveniente farlo. Che poi in generale il supporto fa pena lo hanno capito anche i prosli

Suppongo che tu non abbia esperienza di liquido e che tu non sia a 4K

Il mio impianto è lo stesso da 5 anni, cambio solo i 2 wubbi delle vga, e prezzo di reference+wubbo= una scheda ad aria con raffreddamento decente Ma che sarà sempre imparagonabile al liquido!

Riguardo il supporto sli é un fatto non un opinione che ci sia (a parte due titoli ultimo Batman e Quantum Break), poi a 4K su alcuni titoli è un "di più" su altri è proprio necessario!

Ps: non è che una cosa è vera o falsa a secondo di se la dici tu

Nurabsa
17-07-2017, 11:46
Suppongo che tu non abbia esperienza di liquido e che tu non sia a 4K

Il mio impianto è lo stesso da 5 anni, cambio solo i 2 wubbi delle vga, e prezzo di reference+wubbo= una scheda ad aria con raffreddamento decente Ma che sarà sempre imparagonabile al liquido!

Riguardo il supporto sli é un fatto non un opinione che ci sia (a parte due titoli ultimo Batman e Quantum Break), poi a 4K su alcuni titoli è un "di più" su altri è proprio necessario!

Ps: non è che una cosa è vera o falsa a secondo di se la dici tu

4k da due anni senza liquido.
Bella furbata oltre alla spesa per una ammiraglia 7/8/9oo € pure il wubbo da mettere in armadio al prossimo cambio.

Per il resto lo stesso vale per te non diventa giusto perche l hai scritto tu.
Si sentono solo problemi sul multi scheda. Dopo mesi e mesi dall uscita del titolo sistemano la situazione nel migliore dei casi.

Questi sono fatti la tua opinione come la mia sono relative

Luca T
17-07-2017, 12:08
4k da due anni senza liquido.
Bella furbata oltre alla spesa per una ammiraglia 7/8/9oo € pure il wubbo da mettere in armadio al prossimo cambio.

Per il resto lo stesso vale per te non diventa giusto perche l hai scritto tu.
Si sentono solo problemi sul multi scheda. Dopo mesi e mesi dall uscita del titolo sistemano la situazione nel migliore dei casi.

Questi sono fatti la tua opinione come la mia sono relative


- Nessuno ha detto che il liquido serve ai 4K, non mescolare le cose

- Se sei 4K da 2 anni con una singola 980ti i titoli non li maxavi mantenendo i 60 fissi, tantomeno gli ultimi.

- Il wubbo lo rivendi come parte della scheda esattamente come rivendi la scheda ad aria, non ho wubbi nell'armadio ne come ferma carte.
(E come spesa come ho detto FE+wubbo= Strix o simili)

- Sul liquido la mia non è un opinione, é un fatto basato sui dati le temperature!

Sullo sli ora poi ti posto i confronti, singola-sli!

Thunder-74
17-07-2017, 12:36
Credo che sia inutile buttarsi in qualsiasi affermazione , se non si ha avuto modo di provare con mano . Così si rischia di fare disinformazione ... in tal caso si può avere un'idea ed esporla, ma bisogna avere la capacità di non divulgarla come fosse il "verbo"...

Io so solo che se non avessi avuto lo Sli , alla res di 3440x1440, la quasi totalità dei miei titoli, non li avrei giocati maxxati , ma sopratutto venendo da uno Sli ad aria, ringrazio il liquido per avermi dato modo di poter giocare di sera, a 40/45 gradi sulle schede, senza dover litigare con mia moglie per il rumore che avrebbero prodotto le ventole delle vga ad aria....



Inviato dal mio iPhone utilizzando Tapatalk

Thunder-74
17-07-2017, 12:48
doppio post.. sorry

Thunder-74
17-07-2017, 13:28
Però capisci che il costo non è direttamente proporzionale alle prestazioni, ma lo si fa solo per passione e naturalmente perché si può ;)

Alla fine il discorso è quello, personalmente non potrei mai consigliare un PC da 4000 euro o più per giocare perché non ne vale la pena, oggettivamente parlando...



Growan, qui apri un discorso senza fine... il settore enthusiast è fuori da ogni logica se non lo si osserva sotto un'ottica da appassionato... spendere 800/900 euro per una vga è impensabile per chi usa comunemente un pc, o peggio per chi usa una console da 300 euro... anche perché se vogliamo rapportare costo pc/console , molto spesso la spesa per un pc da gaming, non è direttamente proporzionale alla qualità offerta rispetto ad una console : spendo 5 volte di più , ottengo 5 volte di più in qualità ... ripeto, le passioni/hobby sono , come anche tu dici, soggettive e si basano sulla propensione alla spesa di ogni uno di noi e il peso che si da un determinato aspetto (per me avere temp basse e rumore pari allo zero, è fondamentale e in Sli è un delirio stare ad aria con i chipponi), ma non si può sentenziare sull'assoluta mancanza di utilità, se non si ha avuto modo di provare con mano. Io di quello che non ho avuto modo di provare , non parlo... ;)


Inviato dal mio iPhone utilizzando Tapatalk

Luca T
17-07-2017, 14:14
Credo che sia inutile buttarsi in qualsiasi affermazione , se non si ha avuto modo di provare con mano . Così si rischia di fare disinformazione ... in tal caso si può avere un'idea ed esporla, ma bisogna avere la capacità di non divulgarla come fosse il "verbo"...

Io so solo che se non avessi avuto lo Sli , alla res di 3440x1440, la quasi totalità dei miei titoli, non li avrei giocati maxxati , ma sopratutto venendo da uno Sli ad aria, ringrazio il liquido per avermi dato modo di poter giocare di sera, a 40/45 gradi sulle schede, senza dover litigare con mia moglie per il rumore che avrebbero prodotto le ventole delle vga ad aria....



Inviato dal mio iPhone utilizzando Tapatalk

Amen! :O

Se senza sli non maxavi i 3440x1440 capisci bene che a 4K la situazione sarebbe stata molto peggiore!

Hadar
17-07-2017, 14:20
Maxare nel 2017 LUL! [semi cit.]

Thunder-74
17-07-2017, 15:32
So benissimo di cosa parli, il mio discorso era riferito ai post letti in precedenza...

Io so, per esperienza, che chi ha soldi da spendere non ha ben chiare determinate cose e spende solo perché può, quindi diventa difficile che possa consigliare determinate cose, per cui bisogna essere di larghe vedute...

Se vuoi guardati questo video del mio primo PC a liquido che feci quando uscirono le 580(ed erò già tamarro :D) tutto da me ed il costo superava abbondantemente i 5000 euro; ho avuto mille esperienze positive e negative per quello mi sono intromesso ;)


https://youtu.be/vtyz7xZpxEM


Mi scuso per l'OT e lo chiudo, però noto che ultimamente si danno consigli come se tutti possano o vogliano spendere determinati soldi, perché sul forum non ci sono solo appassionati ed enthusiast che spendono e basta, o meglio non tutti quelli che acquistano 800 euro per una scheda video, magari su di un PC di tot anni senza liquido ed investono solo su quello, tutto li :mano:


Growan ti conosco bene e credo che tu sia quello ad aver provato più modelli di 980ti di chiunque altro ;)
Per quanto mi riguarda non ho consigliato nulla a nessuno e ribadisco che ognuno fa le scelte in base a gusti/necessità personali; ho cercato di porre l'attenzione sul fatto che non si può valutare qualche cosa che non si possiede o non si è mai posseduto, rischiando di dare errate informazioni. Solo questo . Ora chiudo anch'io OT. :mano:


Inviato dal mio iPhone utilizzando Tapatalk

egounix
25-07-2017, 19:09
NVIDIA presenta a sorpresa la Tesla V100 alle Hawaii (http://www.bitsandchips.it/9-hardware/8623-nvidia-presenta-a-sorpresa-la-tesla-v100-alle-hawaii)

Probabilmente ne avevano solo 15 pronte, ma intanto le hanno messe in giro.

JHH ha personalmente donato... Cit.

Che uomo :O

TigerTank
25-07-2017, 19:42
E prima le ha forgiate lui stesso nel monte Fato a torso nudo. :sofico:

Una scheda per domarli e alla scimmia incatenarli :O
E intanto Vega non si vede....mica avevano parlato di fine luglio?

Hadar
11-08-2017, 02:19
Q&A https://uploads.tapatalk-cdn.com/20170811/865111df4c8bca6f22c5a971c066115c.jpg

ste-87
11-08-2017, 11:18
Q&A https://uploads.tapatalk-cdn.com/20170811/865111df4c8bca6f22c5a971c066115c.jpg

è in volume di produzione? In questi mesi? Ma non era prevista l'uscita per i primi mesi del 2018?

Gello
11-08-2017, 11:42
è in volume di produzione? In questi mesi? Ma non era prevista l'uscita per i primi mesi del 2018?

No la gaming volta e' prevista per il 2018 il resto era dato gia' per Settembre

Hadar
11-08-2017, 12:38
è in volume di produzione? In questi mesi? Ma non era prevista l'uscita per i primi mesi del 2018?Se leggi fino in fondo lo dice pure lui praticamente:
"Pascal rimarrà imbattuta queste vacanze(aka quest'anno)".

=

Volta gaming nel 2018

illidan2000
11-08-2017, 13:29
Se leggi fino in fondo lo dice pure lui praticamente:
"Pascal rimarrà imbattuta queste vacanze(aka quest'anno)".

=

Volta gaming nel 2018

vacanze di natali o estive?

Hadar
11-08-2017, 13:32
vacanze di natali o estive?Holidays season è Natale mi pare

FroZen
11-08-2017, 13:52
Holidays season è Natale mi pare

Letteralmente è "periodo vacanziero" ergo può essere sia estate che natale, settembre è invece il periodo "back to school"

Hadar
11-08-2017, 14:08
Mah, di solito intendono sempre natale con holiday season.
Comunque niente di nuovo, solo un'altra conferma per volta gaming nei primi mesi del 2018

Gello
11-08-2017, 14:20
holiday season
noun
(in the US) the period of time from Thanksgiving until New Year, including such festivals as Christmas, Hanukkah, and Kwanzaa.

Hadar
11-08-2017, 14:30
holiday season
noun
(in the US) the period of time from Thanksgiving until New Year, including such festivals as Christmas, Hanukkah, and Kwanzaa.Perfetto.
Comunque i primi volumi corposi di ddr6 lo vedremo fine 2017/inizi 2018, quindi niente di nuovo

desmy
11-08-2017, 19:26
Quindi la fascia media uscirà l'estate prossima a due anni da pascal?

Hadar
11-08-2017, 19:32
Quindi la fascia media uscirà l'estate prossima a due anni da pascal?Secondo me fine q1 li vedremo, almeno gv104.
Il gv106 un mesetto dopo, quindi q2.. Un po' come accaduto con le 1060 uscite poco dopo le 1080/1070

Crysis90
11-08-2017, 19:54
Quindi la fascia media uscirà l'estate prossima a due anni da pascal?

Secondo me fine q1 li vedremo, almeno gv104.
Il gv106 un mesetto dopo, quindi q2.. Un po' come accaduto con le 1060 uscite poco dopo le 1080/1070

Prima di Marzo/Aprile 2018 scordatevi di vedere qualcosa su Volta gaming.
Ma proprio scordatevelo.

Hadar
11-08-2017, 19:55
Prima di Marzo/Aprile 2018 scordatevi di vedere qualcosa su Volta gaming.
Ma proprio scordatevelo.Marzo è q1 eh :asd:

Crysis90
11-08-2017, 20:03
Marzo è q1 eh :asd:

Si accettano scommesse. :read:

Hadar
11-08-2017, 21:05
Per marzo ci si può sperare ma non prima.
E poi spera che non vadano troppo bene in mining o che sia passata la mania del mining :asd:

Inviato dal mio Redmi Note 4 utilizzando Tapatalk

Per carità, basta con sto mining :eek:

TigerTank
11-08-2017, 21:09
Si accettano scommesse. :read:

Paper launch ad aprile e disponibilità da maggio in poi, soprattutto se si riparte con l'esclusiva delle Founder Edition :D
Io comunque forse mi prendo una 1080Ti se la situazione prezzi si normalizza un pò...per poi aspettare le Ti Volta. Se si analizza a posteriori, la X80 finisce per avere il rapporto prezzo-prestazioni peggiore e lo Sli di X70 ha alti e bassi.
Con le attuali mi sono trovato bene ma il meglio è il chippone singolo e magari liquidato.

mikael84
11-08-2017, 23:07
Paper launch ad aprile e disponibilità da maggio in poi, soprattutto se si riparte con l'esclusiva delle Founder Edition :D
Io comunque forse mi prendo una 1080Ti se la situazione prezzi si normalizza un pò...per poi aspettare le Ti Volta. Se si analizza a posteriori, la X80 finisce per avere il rapporto prezzo-prestazioni peggiore e lo Sli di X70 ha alti e bassi.
Con le attuali mi sono trovato bene ma il meglio è il chippone singolo e magari liquidato.

Non ci saranno grosse variazioni tra 1080ti e 2080, almeno inizialmente. Cambia però a livello di calcolo parallelo, dove la gestione dei thread è indipendente e non più coadiuvata dal contatore warp.
I nuovi chip, saranno sicuramente affinati elettricamente, questo porta a guadagnare circa un 10% di clock, senza considerare le tante latenze perse in rasterizzazione, e la nuova compressione, sacrificherà meno le rop's..
Diciamo, che, la 1080ti, rimarrà ancora un'ottima scheda, niente, Kepler v2.:)
La 2070 è un'incognita attualmente, perchè bisogna vedere le rese, e quanti TPC si perderanno. Se si perdono troppi TPC, la scheda difficilmente arriverà inizialmente ai livelli della 1080ti.
Quindi, considerando i costi, la 1080ti si farà ancora valere.:)

Free Gordon
12-08-2017, 01:09
ma con Volta mica c'è il cambio di pp...
se fanno un chip che va' come la 1080Ti, sarà grosso circa come la 1080Ti.. un po' meno sicuramente, ma non di certo come la 1080.

Che senso avrebbe farlo?

Guadagnano di più a fare un GP104 v2, cioè un GV104 che è grande circa quando il precedente chip e va' un 20% in più grazie al clock e agli affinamenti..

Stesso dicasi per il GP102.

Che poi è la cosa più fattibile, perché francamente mi pare impossibile che succeda la stessa cosa di 980Ti --> 1070, data la mancanza del salto di PP... :)

Nurabsa
12-08-2017, 07:41
che comunque la 980ti si fa ancora valere sulla 1070 nonostante il nodo mesozoico.Quindi chi ha una 1080ti puo anche non aggiornare con x70 meglio guardare piu su

ste-87
12-08-2017, 10:08
Paper launch ad aprile e disponibilità da maggio in poi, soprattutto se si riparte con l'esclusiva delle Founder Edition :D
Io comunque forse mi prendo una 1080Ti se la situazione prezzi si normalizza un pò...per poi aspettare le Ti Volta. Se si analizza a posteriori, la X80 finisce per avere il rapporto prezzo-prestazioni peggiore e lo Sli di X70 ha alti e bassi.
Con le attuali mi sono trovato bene ma il meglio è il chippone singolo e magari liquidato.

bhe oddio quando avevano toccato la soglia dei 450-460€ per delle 1080 nuove era un prezzo abbastanza equilibrato per quello che offrivano/offrono, stesso discorso se nel mercatino si trovano sulle 400€ usate ma tenute bene/perfettamente e con garanzia. Dalle 500€ in su concordo pienamente che le x80 si confermano le peggiori come rapporto prezzo/prestazioni in maniera esponenziale

Per quel che mi riguarda il treno da prendere assolutamente per le 1080ti era quel periodo poco dopo il lancio nel quale stavano sulle 640-650€, ad oggi per avere un'occasione simile dovrebbero miracolosamente scendere almeno sulle 600€ visto che qualche mese se nè andato e le Volta sono un pò più vicine

Se poi ci fosse poi qualche occasione dove si trovano degli usati di 1080ti sulle 550-570€ (con prezzi sul nuovo stabilizzati sull 650-700€) mi sà che un pensiero serio ce lo faccio pure io, così su pascal (per la prima volta) le ho provate tutte, dalla 1070 alla 1080ti :asd:

Crysis90
12-08-2017, 11:08
ma con Volta mica c'è il cambio di pp...


Hanno già annunciato che Volta sarà prodotta su un PP a 12 nm personalizzato da TSMC appositamente per NVidia. ;)
Per questo motivo, mi aspetto clock minimi sulla GPU da 2 Ghz in su, con boost fino a 2200/2300 Mhz (almeno su GV104).

Nurabsa
12-08-2017, 11:17
I 12 si diceva fossero solo un affinamento. Ben diverso dal salto dei 28.vedremo

Inviato dal mio Nexus 6 utilizzando Tapatalk

Crysis90
12-08-2017, 11:52
I 12 si diceva fossero solo un affinamento. Ben diverso dal salto dei 28.vedremo


Hai detto bene.
Un affinamento.
Vuol dire che alcuni aspetti saranno sicuramente migliorativi rispetto ai 16 nm.
Inoltre, i 2 anni di sviluppo dopo il lancio di GP104 non penso saranno stati trascorsi a girarsi i pollici. ;)

Nurabsa
12-08-2017, 12:21
Che volta sarà un bel prodotto stile serie 500gtx penso non ci siano dubbi.l uscita delle Ti coinciderebbe anche con la mia previsione di aggiornamento.cioe più di un anno da adesso

Inviato dal mio Nexus 6 utilizzando Tapatalk

TigerTank
12-08-2017, 13:11
bhe oddio quando avevano toccato la soglia dei 450-460€ per delle 1080 nuove era un prezzo abbastanza equilibrato per quello che offrivano/offrono, stesso discorso se nel mercatino si trovano sulle 400€ usate ma tenute bene/perfettamente e con garanzia. Dalle 500€ in su concordo pienamente che le x80 si confermano le peggiori come rapporto prezzo/prestazioni in maniera esponenziale

Per quel che mi riguarda il treno da prendere assolutamente per le 1080ti era quel periodo poco dopo il lancio nel quale stavano sulle 640-650€, ad oggi per avere un'occasione simile dovrebbero miracolosamente scendere almeno sulle 600€ visto che qualche mese se nè andato e le Volta sono un pò più vicine

Se poi ci fosse poi qualche occasione dove si trovano degli usati di 1080ti sulle 550-570€ (con prezzi sul nuovo stabilizzati sull 650-700€) mi sà che un pensiero serio ce lo faccio pure io, così su pascal (per la prima volta) le ho provate tutte, dalla 1070 alla 1080ti :asd:

No beh....450-460€ forse qualche raro caso minimo, la media è sempre stata ben più alta e idem le 1080Ti...non mi pare di averne viste molte sulle 640-650€. Sei un pelino al ribasso circa i prezzi.
Poi beh lasciamo perdere a questo giro il fattore mining che ha incasinato le cose. O eventuali "shop" da cui non comprerei manco se stessero a 300 :D

Comunque intendo le X80 nelle prime fasi di vendita...quando sono il top di generazione(tralasciando la titan) prima dell'arrivo delle Ti. Le 1080 costavano quasi quanto costano ora le 1080Ti...con delle 1080FE che partivano pure dalle 800€...
Si ripetesse la stessa cosa con le chippine Volta, ritornerei di sicuro a passare da chippone a chippone Ti perchè 2 X80 in Sli non le contemplo proprio, sia per i costi che per il fatto che purtroppo lo Sli dà parecchie soddisfazioni ma allo stesso tempo non è una tecnologia perfetta. 2 X70 sono ottime come prezzo-prestazioni e con le attuali nel complesso mi sono trovato bene, ma anche qui subentrano gli alti e bassi dello Sli.
Per cui diciamo che dopo le esperienze che ho fatto con gtx980, gtx980Ti e Sli di 1070, considerando il tutto direi che il meglio in una generazione sia una Ti liquidata da farsi durare fino alla Ti successiva.
IMHO ovviamente.

Non ci saranno grosse variazioni tra 1080ti e 2080, almeno inizialmente. Cambia però a livello di calcolo parallelo, dove la gestione dei thread è indipendente e non più coadiuvata dal contatore warp.
I nuovi chip, saranno sicuramente affinati elettricamente, questo porta a guadagnare circa un 10% di clock, senza considerare le tante latenze perse in rasterizzazione, e la nuova compressione, sacrificherà meno le rop's..
Diciamo, che, la 1080ti, rimarrà ancora un'ottima scheda, niente, Kepler v2.:)
La 2070 è un'incognita attualmente, perchè bisogna vedere le rese, e quanti TPC si perderanno. Se si perdono troppi TPC, la scheda difficilmente arriverà inizialmente ai livelli della 1080ti.
Quindi, considerando i costi, la 1080ti si farà ancora valere.:)

Grazie Mike, davvero un bel post. Colmi le mie lacune tecniche e integri le mie valutazioni economiche :D
Il punto è che sicuramente non ci potremo aspettare delle Volta più economiche delle Pascal, mancando anche una Vega competitiva in fascia alta e relativa eventualità che nvidia non abbia nemmeno bisogno di ritoccare i prezzi verso il basso.

mikael84
12-08-2017, 14:22
ma con Volta mica c'è il cambio di pp...
se fanno un chip che va' come la 1080Ti, sarà grosso circa come la 1080Ti.. un po' meno sicuramente, ma non di certo come la 1080.

Che senso avrebbe farlo?

Assolutamente no. GV104 avrà gli stessi cc della 1080ti racchiusi in 4 rasterizzatori, non 6.
Un GPC Pascal è grosso 78,5mmq su 1,8/2 m/transistor/45 watt circa.
Con Volta, si integrano altri 2 TPC, circa 5/6 mmq2 e 256kb l2, quindi ci avviciniamo ad un GPC vicino/intorno ai 100mmq2, con un possibile aumento a 2,6/2,7 m/transistor.
Oltre che ad un differente utilizzo dei thread paralleli, risparmi 12 cicli di rasterizzazione, meno rop's e meno sfruttate (parte critica dei consumi), e una cache l1 più efficiente tramite i warp.

Riguardo il clock, non tutto dipenderà dal processo, ma dal lavoro elettrico, ora Pascal è come piombato con 4 resistenze shunt.
Il lavoro elettrico prevede, l'utilizzo di chip, con resistenze a minor dispersione, migliorare le connessioni lente etc, questo porta in media un 10% sul clock e sull'efficienza generale.

Diciamo che la 2080 sarà una 1080ti completamente affinata, per certi versi, con un clock boost di base possibile, intorno ai 2050 (salvo i relativi DC):)


Guadagnano di più a fare un GP104 v2, cioè un GV104 che è grande circa quando il precedente chip e va' un 20% in più grazie al clock e agli affinamenti..

Stesso dicasi per il GP102.

Come detto su, sarà più piccolo perchè spalmato su 4 rasterizzatori.
Con Volta, su 471mmq2, ci infili 5 GPC.
Ovvero 4480cc/80 rop's/3,7mb l2.
GV104 sarà pari o leggermente più piccolo, rispetto 5 GPC Pascal


Che poi è la cosa più fattibile, perché francamente mi pare impossibile che succeda la stessa cosa di 980Ti --> 1070, data la mancanza del salto di PP... :)


La 2070, avrà un carico oscillante compreso tra i 2688 e 3456cc, quindi gran parte dipende da questo.
Se in base alle rese, si riescono ad utilizzare almeno 3072cc, considerando che a review, una 1080ti viene lanciata ad appena 1600/1650, basterebbero appena 1900mhz di clock per pareggiarla, stock per stock.
Rispetto alla 2070, così come la 980ti, le TI (chipponi) rimangono più muscle e con più stadi in OC.
Da considerare che le Volta, in certi titoli potrebbero fare la differenza per via dei thread indipendenti.:)

mikael84
12-08-2017, 14:31
Grazie Mike, davvero un bel post. Colmi le mie lacune tecniche e integri le mie valutazioni economiche :D
Il punto è che sicuramente non ci potremo aspettare delle Volta più economiche delle Pascal, mancando anche una Vega competitiva in fascia alta e relativa eventualità che nvidia non abbia nemmeno bisogno di ritoccare i prezzi verso il basso.

Eh Tiger, il problema, sono questi rincari, altrimenti si stava bene lo stesso. 1080ti a 650/700 ci stava pure (come le 980ti). La 2080, sparerà alto inizialmente, dopo bisognerà vedere gli altri fattori, e purtroppo non solo assestamento.
Altrimenti 1080ti in occasione e via.:p Per questo condividevo il tuo post.

ste-87
12-08-2017, 16:14
No beh....450-460€ forse qualche raro caso minimo, la media è sempre stata ben più alta e idem le 1080Ti...non mi pare di averne viste molte sulle 640-650€. Sei un pelino al ribasso circa i prezzi.
Poi beh lasciamo perdere a questo giro il fattore mining che ha incasinato le cose. O eventuali "shop" da cui non comprerei manco se stessero a 300 :D

Comunque intendo le X80 nelle prime fasi di vendita...quando sono il top di generazione(tralasciando la titan) prima dell'arrivo delle Ti. Le 1080 costavano quasi quanto costano ora le 1080Ti...con delle 1080FE che partivano pure dalle 800€...
Si ripetesse la stessa cosa con le chippine Volta, ritornerei di sicuro a passare da chippone a chippone Ti perchè 2 X80 in Sli non le contemplo proprio, sia per i costi che per il fatto che purtroppo lo Sli dà parecchie soddisfazioni ma allo stesso tempo non è una tecnologia perfetta. 2 X70 sono ottime come prezzo-prestazioni e con le attuali nel complesso mi sono trovato bene, ma anche qui subentrano gli alti e bassi dello Sli.
Per cui diciamo che dopo le esperienze che ho fatto con gtx980, gtx980Ti e Sli di 1070, considerando il tutto direi che il meglio in una generazione sia una Ti liquidata da farsi durare fino alla Ti successiva.
IMHO ovviamente.



Grazie Mike, davvero un bel post. Colmi le mie lacune tecniche e integri le mie valutazioni economiche :D
Il punto è che sicuramente non ci potremo aspettare delle Volta più economiche delle Pascal, mancando anche una Vega competitiva in fascia alta e relativa eventualità che nvidia non abbia nemmeno bisogno di ritoccare i prezzi verso il basso.

ok allora sono perfettamente d'accordo, che si ripeta la stessa situazione ormai credo sia una certezza (purtroppo :asd:). Mi ricordo comunque che c'è stato un periodo relativamente breve (2-3 settimane) dove si riusciva a trovare qualcosa di appetibile su trovaprezzi, tra reference e le custom tipo Palit o gainward delle 1080 sui 450-460€, scansando ovviamente gli shop più inaffidabili sul globo (vedi bpm power e/o altri sconosciuti), per le 1080ti mi riferivo alle reference EVGA (ma c'erano anche di altri brand, ma evga era oviamente la preferibile tra le scelte) che avevo preso d'occhio per liquidare.

Più che un pelino al ribasso, diciamo che sarebbero le cifre che dovrebbero toccare per risultare oggettivamente un bell'acquisto volendo puntare alla fascia alta/enthusiast.

Non ci rimane che attendere queste Volta, da come l'analizza molto più nel dettaglio mikael, sarà davvero una bell'architettura.

Tirando le somme in maniera molto "rozza", si potrebbe pensare a consumi analoghi alle fasce attuali ma a un salto consistente sia di cc in più e incrementi di frequenza nell'ordine di 150Mhz papabili (reference to refrence) per l'affinamento elettrico e marginalmente il pp a cui aggiungere poi le migliorie architetturali :sbavvv:

TigerTank
12-08-2017, 17:43
Eh Tiger, il problema, sono questi rincari, altrimenti si stava bene lo stesso. 1080ti a 650/700 ci stava pure (come le 980ti). La 2080, sparerà alto inizialmente, dopo bisognerà vedere gli altri fattori, e purtroppo non solo assestamento.
Altrimenti 1080ti in occasione e via.:p Per questo condividevo il tuo post.

Sì, concordo :)

ok allora sono perfettamente d'accordo, che si ripeta la stessa situazione ormai credo sia una certezza (purtroppo :asd:). Mi ricordo comunque che c'è stato un periodo relativamente breve (2-3 settimane) dove si riusciva a trovare qualcosa di appetibile su trovaprezzi, tra reference e le custom tipo Palit o gainward delle 1080 sui 450-460€, scansando ovviamente gli shop più inaffidabili sul globo (vedi bpm power e/o altri sconosciuti), per le 1080ti mi riferivo alle reference EVGA (ma c'erano anche di altri brand, ma evga era oviamente la preferibile tra le scelte) che avevo preso d'occhio per liquidare.

Più che un pelino al ribasso, diciamo che sarebbero le cifre che dovrebbero toccare per risultare oggettivamente un bell'acquisto volendo puntare alla fascia alta/enthusiast.

Non ci rimane che attendere queste Volta, da come l'analizza molto più nel dettaglio mikael, sarà davvero una bell'architettura.

Tirando le somme in maniera molto "rozza", si potrebbe pensare a consumi analoghi alle fasce attuali ma a un salto consistente sia di cc in più e incrementi di frequenza nell'ordine di 150Mhz papabili (reference to refrence) per l'affinamento elettrico e marginalmente il pp a cui aggiungere poi le migliorie architetturali :sbavvv:

Speriamo bene, di sicuro la mancanza di concorrenza non aiuterà.
Circa evga, in quanto a 1080Ti le cose ora stanno un poco migliorando ma a questo giro ha sparato alto a partire dalla SC(che è una semi-reference). Tant'è che su trovaprezzi ora si vedono SC, SC2 e FTW3 pure in un ventaglio di 30€ mentre sullo shop europeo i prezzi sono decisamente alti.

Auguriamoci che per l'arrivo di Volta sia passata la fase mining :asd:

techfede
12-08-2017, 18:11
Ragazzi scusate, da che pagina trovo le info sulla prossima architettura nvidia? :fagiano:

Ren
12-08-2017, 19:03
Ragazzi scusate, da che pagina trovo le info sulla prossima architettura nvidia? :fagiano:

Eccoti il whitepaper ufficiale.
https://images.nvidia.com/content/volta-architecture/pdf/Volta-Architecture-Whitepaper-v1.0.pdf

In breve, +50% di performance per watt sui flops teorici più tutte una serie di migliorie che aumentano ipc e semplificano la programmazione nella gestione della cache soprattutto in ambito Pro.

Crysis90
12-08-2017, 20:02
Eccoti il whitepaper ufficiale.
https://images.nvidia.com/content/volta-architecture/pdf/Volta-Architecture-Whitepaper-v1.0.pdf

In breve, +50% di performance per watt sui flops teorici più tutte una serie di migliorie che aumentano ipc e semplificano la programmazione nella gestione della cache soprattutto in ambito Pro.

In poche parole, un mostro assurdo da 21 mld di transistor. :eek: :eek:
La novità più rilevante di Volta sono sicuramente i Tensor Cores, anche se per noi videogiocatori non penso siano minimamente rilevanti.

mikael84
12-08-2017, 23:16
In poche parole, un mostro assurdo da 21 mld di transistor. :eek: :eek:
La novità più rilevante di Volta sono sicuramente i Tensor Cores, anche se per noi videogiocatori non penso siano minimamente rilevanti.

Questo sul chip Tesla, FP64 e 128 rop's, sul chip gaming GV102 si arriva a 16/17m/transistor (gran bella cifra)
Un GPC Pascal è composto da 1,8/2 m/transistor, un GPC Volta sarà 2,7/2,8 m/transistor.

Nurabsa
14-08-2017, 10:22
Questo sul chip Tesla, FP64 e 128 rop's, sul chip gaming GV102 si arriva a 16/17m/transistor (gran bella cifra)
Un GPC Pascal è composto da 1,8/2 m/transistor, un GPC Volta sarà 2,7/2,8 m/transistor.
Si sta già bene con una top Maxwell/Pascal. Con una volta gv100/102 vivi sereno per anni tanta roba ne vedremo delle belle

Inviato dal mio Nexus 6 utilizzando Tapatalk

TigerTank
14-08-2017, 11:24
Si sta già bene con una top Maxwell/Pascal. Con una volta gv100/102 vivi sereno per anni tanta roba ne vedremo delle belle


Le Volta prestazionalmente parlando serviranno in primis a chi avrà fretta di passare ai 4K da gaming :D

Ubro92
14-08-2017, 11:56
Le Volta prestazionalmente parlando serviranno in primis a chi avrà fretta di passare ai 4K da gaming :D

Infatti sono schede da 4K, la cosa positiva è che per chi ha un budget limitato o assembla il suo primo pc, con la prossima gen anche con i chippetti come 2050ti/2060 puoi maxare di tutto a 1080/1440p, fino a un paio d'anni fa era quasi utopia...

Legolas84
14-08-2017, 12:06
Secondo me se si mantiene il trend di Maxwell e Pascal (e non vedo perchè NVIDIA dovrebbe cambiarlo visto quello che fa il suo competitor) e avremo quindi schede bloccate che arrivano fino ad un determinato clock, sarà interessante imho fare un confronto overclock to overclock.

Nel senso che se la 2080 arriva che so a 2300Mhz e poi mura un pò come fanno le 1080Ti che arrivano a circa 2050Mhz allora sarà interessante un confronto con le schede a questi limiti così da capire bene i guadagni.

Perchè se in overclock la 1080Ti non sfigura allora potrei tenermela anche fino alla 2080Ti (a meno di evidenti migliorie a livello di architettura per Volta).

TigerTank
14-08-2017, 12:50
Secondo me se si mantiene il trend di Maxwell e Pascal (e non vedo perchè NVIDIA dovrebbe cambiarlo visto quello che fa il suo competitor) e avremo quindi schede bloccate che arrivano fino ad un determinato clock, sarà interessante imho fare un confronto overclock to overclock.

Nel senso che se la 2080 arriva che so a 2300Mhz e poi mura un pò come fanno le 1080Ti che arrivano a circa 2050Mhz allora sarà interessante un confronto con le schede a questi limiti così da capire bene i guadagni.

Perchè se in overclock la 1080Ti non sfigura allora potrei tenermela anche fino alla 2080Ti (a meno di evidenti migliorie a livello di architettura per Volta).

Non scriverlo....che tanto so già che prenderai uno Sli di 2080 o perlomeno la scheda singola. :ciapet:
Imho le proporzioni saranno sempre quelle, calibreranno le nuove x80 per il solito 25-30% in più.
In ogni caso imho il 4K 144Hz da gaming sarà pane per le post-Volta( o Sli di 2080Ti, quando funzionante).
Comunque sì....imho se non si ha fretta di passare a 4K, con una 1080Ti si può gestire per bene un 1440p 16:9 o 21:9 da gaming + gsync fino alla nuova Ti. Sto valutando anch'io che fare tra settembre e Natale.
Inoltre a vram le cose sono cambiate, 8GB sono ancora sovrabbondanti per cui non ci sono le stesse ristrettezze tipo quelle di passaggio dai 4 ai 6/8 o addirittura 11 della Ti. Imho la 1080Ti potrebbe anche essere più funzionale e longeva della ancora ottima gtx980Ti.

Ubro92
14-08-2017, 14:11
Secondo me se si mantiene il trend di Maxwell e Pascal (e non vedo perchè NVIDIA dovrebbe cambiarlo visto quello che fa il suo competitor) e avremo quindi schede bloccate che arrivano fino ad un determinato clock, sarà interessante imho fare un confronto overclock to overclock.

Nel senso che se la 2080 arriva che so a 2300Mhz e poi mura un pò come fanno le 1080Ti che arrivano a circa 2050Mhz allora sarà interessante un confronto con le schede a questi limiti così da capire bene i guadagni.

Perchè se in overclock la 1080Ti non sfigura allora potrei tenermela anche fino alla 2080Ti (a meno di evidenti migliorie a livello di architettura per Volta).

Una 1080 a 2300mhz la vedo dura, Già andare oltre i 2.1ghz è tanto ma è Pascal che oltre non va indipendentemente dalla configurazione del chip, e non potendo neanche intervenire sul bios è anche difficile tirare fuori altro...

Ma lato OC più andiamo avanti e meno vantaggi si hanno, e non solo per le gpu ma anche le cpu, sembra quasi che tutte le attuali architetture siano già belle che tirate... Poi in molti titoli capitano persino conflitti con alcuni sw di OC...

Legolas84
14-08-2017, 14:15
Una 1080 a 2300mhz la vedo dura, Già andare oltre i 2.1ghz è tanto ma è Pascal che oltre non va indipendentemente dalla configurazione del chip, e non potendo neanche intervenire sul bios è anche difficile tirare fuori altro...

Ma lato OC più andiamo avanti e meno vantaggi si hanno, e non solo per le gpu ma anche le cpu, sembra quasi che tutte le attuali architetture siano già belle che tirate... Poi in molti titoli capitano persino conflitti con alcuni sw di OC...

Ma io non parlavo di 1080 ma di 2080..... con Volta si suppone ci sia un aumento di clock no?

mikael84
14-08-2017, 14:24
Si sta già bene con una top Maxwell/Pascal. Con una volta gv100/102 vivi sereno per anni tanta roba ne vedremo delle belle

Inviato dal mio Nexus 6 utilizzando Tapatalk

GV102 per la gaming Nurabsa. Per il resto si, chi pretende prestazioni, il vero chippone sarà il GV102, che potrebbe avvicinarsi o toccare i 600mmq2.
Penso cos', ad occhio +50% Pascal in dx11:)

Infatti sono schede da 4K, la cosa positiva è che per chi ha un budget limitato o assembla il suo primo pc, con la prossima gen anche con i chippetti come 2050ti/2060 puoi maxare di tutto a 1080/1440p, fino a un paio d'anni fa era quasi utopia...

Giusto, tocchi un'aspetto dolente. A partire dalla 2060, si potranno avere prestazioni in linea 1070-980ti, se non più. Non solo per la parallelizzazione, ma anche per la l1:)

Secondo me se si mantiene il trend di Maxwell e Pascal (e non vedo perchè NVIDIA dovrebbe cambiarlo visto quello che fa il suo competitor) e avremo quindi schede bloccate che arrivano fino ad un determinato clock, sarà interessante imho fare un confronto overclock to overclock.

Nel senso che se la 2080 arriva che so a 2300Mhz e poi mura un pò come fanno le 1080Ti che arrivano a circa 2050Mhz allora sarà interessante un confronto con le schede a questi limiti così da capire bene i guadagni.

Perchè se in overclock la 1080Ti non sfigura allora potrei tenermela anche fino alla 2080Ti (a meno di evidenti migliorie a livello di architettura per Volta).

Tranquillo che vedrai clock più alti, in ogni caso da 1080ti, il vero salto sarà la 2080ti.:)
Tanto dx12 nativo, mi pare non ci sia nulla.:)

Legolas84
14-08-2017, 14:51
GV102 per la gaming Nurabsa. Per il resto si, chi pretende prestazioni, il vero chippone sarà il GV102, che potrebbe avvicinarsi o toccare i 600mmq2.
Penso cos', ad occhio +50% Pascal in dx11:)



Giusto, tocchi un'aspetto dolente. A partire dalla 2060, si potranno avere prestazioni in linea 1070-980ti, se non più. Non solo per la parallelizzazione, ma anche per la l1:)



Tranquillo che vedrai clock più alti, in ogni caso da 1080ti, il vero salto sarà la 2080ti.:)
Tanto dx12 nativo, mi pare non ci sia nulla.:)

OT
Comunque Mikael.... alla fine su Vega tu e Ren ci avevate visto giusto ;)
/OT

E questo Fail allungherà ancora di più la vita di GP102 imho, considerando anche i prezzi di Vega che paiono, attualmente, insolitamente alti....

mikael84
14-08-2017, 15:06
OT
Comunque Mikael.... alla fine su Vega tu e Ren ci avevate visto giusto ;)
/OT

E questo Fail allungherà ancora di più la vita di GP102 imho, considerando anche i prezzi di Vega che paiono, attualmente, insolitamente alti....

Certo, lo abbiamo ribattuto tante volte, ma forse sembravamo pazzi. Anzi io mi sono sbilanciato pure in più.
Bisogna saper leggere le architetture dal profondo.
Per farla breve, AMD ha potenza di calcolo per via dei cicli minori, ed è più potente (e molto) in blendind fp32, quando si opera con MSAA 8x.
Un GPC nvidia è simile a 3/3,2tf AMD.
6 GPC nvidia sono equivalenti ad almeno 18tf fasulli di AMD.
Per dire, una AMD pensata per contrastare una TI, dovrebbe avere:
6144st (1400) /96 rop's( per la compressione, ma è limitata da 4 raster a 64 rop's), 4mb l2 ed un'ampiezza di oltre 600gb/s, attualmente è limitata a 400gb/s.


AMD non riesce a decomprimere come Nvidia e spesso i rapporti 2:1 vengono buttati in memoria di botto, ed attualmente in uscita, secondo un bench di PCS ha un rapporto peggiore della Fury.

Con Nvidia, quando aggiungi un GPC, sai che avrai uno scaling lineare in tutto, con AMD no.

Con Volta questo non succederà, state tranquilli:)

Legolas84
14-08-2017, 15:11
Certo, lo abbiamo ribattuto tante volte, ma forse sembravamo pazzi. Anzi io mi sono sbilanciato pure in più.
Bisogna saper leggere le architetture dal profondo.
Per farla breve, AMD ha potenza di calcolo per via dei cicli minori, ed è più potente (e molto) in blendind fp32, quando si opera con MSAA 8x.
Un GPC nvidia è simile a 3/3,2tf AMD.
6 GPC nvidia sono equivalenti ad almeno 18tf fasulli di AMD.
Per dire, una AMD pensata per contrastare una TI, dovrebbe avere:
6144st (1400) /96 rop's( per la compressione, ma è limitata da 4 raster a 64 rop's), 4mb l2 ed un'ampiezza di oltre 600gb/s, attualmente è limitata a 400gb/s.


AMD non riesce a decomprimere come Nvidia e spesso i rapporti 2:1 vengono buttati in memoria di botto, ed attualmente in uscita, secondo un bench di PCS ha un rapporto peggiore della Fury.

Con Nvidia, quando aggiungi un GPC, sai che avrai uno scaling lineare in tutto, con AMD no.

Con Volta questo non succederà, state tranquilli:)


Be, Volta, pur essendo nuovo, deriva comunque dall'ottimo Maxwell no?

mikael84
14-08-2017, 15:24
Be, Volta, pur essendo nuovo, deriva comunque dall'ottimo Maxwell no?

Si esatto, Maxwell rimane sempre la base, a livello computazionale.:)

Hadar
14-08-2017, 15:46
Ma si avranno miglioramenti in dx12 con volta oppure no?

TigerTank
14-08-2017, 16:00
Tranquillo che vedrai clock più alti, in ogni caso da 1080ti, il vero salto sarà la 2080ti.:)
Tanto dx12 nativo, mi pare non ci sia nulla.:)

Eh ma tanto ci penserà il marketing Nvidia a riprogrammare la scimmia e a far cedere molti per il passaggio 1080Ti-->2080, seguito poi dalla 2080Ti nel 2019 :D
Anzi scommetto che di nuovo molti venderanno le 1080Ti in anticipo per smenarci il meno possibile, come successo con le gtx980Ti all'arrivo delle 1080 :)
Il contro più che altro è che la mancanza di amd competitive in fascia alta non aiuterà ad avere prezzi più contenuti.

Black"SLI"jack
14-08-2017, 16:03
Io aspetto questa "volta" il chippettone. Dopo tre Pascal, o me la regalano una 2080 o aspettano :asd:

Inviato dal mio ASUS_Z00AD utilizzando Tapatalk

mikael84
14-08-2017, 16:08
Ma si avranno miglioramenti in dx12 con volta oppure no?

Si sulla carta si, purtroppo non si può verificare, ora come ora.
Ora come ora, i thread vengono allocati ai warp dal gigathread. Ogni warp (blocco da 32/un SM da 128) ha un contatore interno a cui assegna tutto.
Quando, come nel caso di BF1, carichi le dx12, il contatore divide il warp (blocco) e si ritrova vari thread senza lavorare, ed è per questo che perde prestazioni.
Con Volta, oltre a lavorare con più cache, più conservative, ogni thread può lavorare al top, sia in dx11 che in dx12 (almeno sulla carta), risparmiando stadi in idle.
Altrimenti, ora come ora ti ritrovi questo
http://media.gamersnexus.net/images/media/2016/game-bench/battlefield/bf1-benchmark-1440p-dx11.png

http://media.gamersnexus.net/images/media/2016/game-bench/battlefield/bf1-benchmark-1440p-dx12.png


Quindi va da se, che AMD mantiene i medi, ma è troppo incostante, Nvidia suddividendo i warp lascia tanti stadi in idle.
Quindi, bisogna lanciarli in dx11 entrambi.

Per questo attualmente, non avendo giochi nativi degni, non si può definire ciò che andrà e come andrà di preciso, sta di fatto che Volta sarà sicuramente avvantaggiata.;)

mikael84
14-08-2017, 16:17
Eh ma tanto ci penserà il marketing Nvidia a riprogrammare la scimmia e a far cedere molti per il passaggio 1080Ti-->2080, seguito poi dalla 2080Ti nel 2019 :D
Anzi scommetto che di nuovo molti venderanno le 1080Ti in anticipo per smenarci il meno possibile, come successo con le gtx980Ti all'arrivo delle 1080 :)
Il contro più che altro è che la mancanza di amd competitive in fascia alta non aiuterà ad avere prezzi più contenuti.

Ma si...il passaggio da 1080ti a 2080 lo faranno tanti:p
Riguardo la non concorrenza, non penso sia un grosso problema, almeno iniziale, si trovavano 1080ti a 650/700 euro e 1080 lisce, sulle 450/500 dopo un periodo di assestamento.
Speriamo si ripeta, perchè con Volta, già a partire dalla 2060, si avranno ottime schede.:)
La 2070 potrebbe essere un best, con un taglio decente di CC.
Purtroppo, un fattore negativo volta ce l'ha, troppa differenza tra i GPC (896cc), e si rischia per l'appunto, troppa differenza di fascia.:)

Hadar
14-08-2017, 16:18
Si sulla carta si, purtroppo non si può verificare, ora come ora.
Ora come ora, i thread vengono allocati ai warp dal gigathread. Ogni warp (blocco da 32/un SM da 128) ha un contatore interno a cui assegna tutto.
Quando, come nel caso di BF1, carichi le dx12, il contatore divide il warp (blocco) e si ritrova vari thread senza lavorare, ed è per questo che perde prestazioni.
Con Volta, oltre a lavorare con più cache, più conservative, ogni thread può lavorare al top, sia in dx11 che in dx12 (almeno sulla carta), risparmiando stadi in idle.
Altrimenti, ora come ora ti ritrovi questo
http://media.gamersnexus.net/images/media/2016/game-bench/battlefield/bf1-benchmark-1440p-dx11.png

http://media.gamersnexus.net/images/media/2016/game-bench/battlefield/bf1-benchmark-1440p-dx12.png


Quindi va da se, che AMD mantiene i medi, ma è troppo incostante, Nvidia suddividendo i warp lascia tanti stadi in idle.
Quindi, bisogna lanciarli in dx11 entrambi.

Per questo attualmente, non avendo giochi nativi degni, non si può definire ciò che andrà e come andrà di preciso, sta di fatto che Volta sarà sicuramente avvantaggiata.;)Grazie della spiegazione :)
Solo il tempo ce lo dirà, bisogna aspettare nuovi titoli in dx12 insomma..
È in vulkan invece?

Ren
14-08-2017, 16:39
OT
Comunque Mikael.... alla fine su Vega tu e Ren ci avevate visto giusto ;)
/OT

E questo Fail allungherà ancora di più la vita di GP102 imho, considerando anche i prezzi di Vega che paiono, attualmente, insolitamente alti....

Il risultato era scontato, i flops sono pochi per quel tipo di architettura con LS/SFU in emulazione.;)

TigerTank
14-08-2017, 16:42
Ma si...il passaggio da 1080ti a 2080 lo faranno tanti:p
Riguardo la non concorrenza, non penso sia un grosso problema, almeno iniziale, si trovavano 1080ti a 650/700 euro e 1080 lisce, sulle 450/500 dopo un periodo di assestamento.
Speriamo si ripeta, perchè con Volta, già a partire dalla 2060, si avranno ottime schede.:)
La 2070 potrebbe essere un best, con un taglio decente di CC.
Purtroppo, un fattore negativo volta ce l'ha, troppa differenza tra i GPC (896cc), e si rischia per l'appunto, troppa differenza di fascia.:)

Mike io quei prezzi mica li ho visti. Forse qualche 1080Ti verso le 700€ sì(non considerando situazioni dubbie in dropshipping) ma la media era ben più alta mentre le 1080 son partite con la botta delle FE a 800€ e pure le 1070 erano sopra la media. Io pagai le mie 440€ l'una...e c'era di molto peggio(altre superavano le 500).
1080 sulle 500-550€ le trovi adesso :D
Circa la 2070, potrebbe sì essere un best ma imho se la castrassero per andare un pò meno della 1080Ti, significherebbe che per contesti 4K ce ne vorrebbero 2. Personalmente però dopo aver sperimentato lo Sli per un annetto, tra alti e bassi, imho il passaggio migliore sarebbe 1080Ti-->2080Ti.
Poi certo, se uno aggiorna da schede più vecchie anche una 2070 sarà una bella rivoluzione prestazionale, perchè se viaggerà anch'essa sui 150W di TDP, si potrà gestire a sufficienza anche una 1440p da gaming, con una scheda che va benone e che consuma/scalda relativamente poco.

EDIT: bisognerà anche vedere se x70 e x80 saranno accorpate o meno, nel senso che magari le prime saranno come le gtx970 e monteranno ddr5x e le seconde a pcb classico e con le ddr6. Con nvidia non si sa mai :D
Oppure con stesso pcb ma vram diverse...oppure uguali e separate dalla castratura.

mikael84
14-08-2017, 16:44
Grazie della spiegazione :)
Solo il tempo ce lo dirà, bisogna aspettare nuovi titoli in dx12 insomma..
È in vulkan invece?

Vulkan serve più che altro per le AMD, visto che in open gl non lavoravano correttamente.
Gli asynch, permettono di assegnare più unità possibili di calcolo, tenute in idle. Migliora anche l'utilizzo della CPU.
Si sfruttano meglio le risorse generalmente, quasi fosse una console.

Mike io quei prezzi mica li ho visti. Forse qualche 1080Ti verso le 700€ sì(non considerando situazioni dubbie in dropshipping) ma la media era ben più alta mentre le 1080 son partite con la botta delle FE a 800€ e pure le 1070 erano sopra la media. Io pagai le mie 440€ l'una...e c'era di molto peggio(altre superavano le 500).
1080 sulle 500-550€ le trovi adesso :D
Circa la 2070, potrebbe sì essere un best ma imho se la castrassero per andare un pò meno della 1080Ti, significherebbe che per contesti 4K ce ne vorrebbero 2. Personalmente però dopo aver sperimentato lo Sli per un annetto, tra alti e bassi, imho il passaggio migliore sarebbe 1080Ti-->2080Ti.
Poi certo, se uno aggiorna da schede più vecchie anche una 2070 sarà una bella rivoluzione prestazionale, perchè se viaggerà anch'essa sui 150W di TDP, si potrà gestire a sufficienza anche una 1440p da gaming, con una scheda che va benone e che consuma/scalda relativamente poco.

Ma infatti, "dopo un periodo di assestamento", non appena uscite.
Chiaro, che se si va di Asus custom etc, i prezzi sono più alti, ma da Tao etc, sulle 650/700 per le TI la prendevi.
La giga TI custom stava o sta ancora sulle 680, prezzi simili alle vecchie 980ti.

Si, ribadisco la 2070, potrebbe davvero essere un gioellino, però troppo legata alle rese, perchè, ricordo che un GPC contiene ben 896cc.
Con 3072cc effettivi, si potrà tentare l'assalto alla 1080ti, vincendo nettamente in efficienza, con la speranza i prezzi tornino normali.
Allo stesso tempo, la 1080ti rimane sempre più muscle :)

bluefrog
14-08-2017, 16:48
Secondo voi quante probabilità ci sono per un Volta a fine anno? O è ormai certo che arriverà entro i primi mesi del prossimo?

Ren
14-08-2017, 16:51
Secondo voi quante probabilità ci sono per un Volta a fine anno? O è ormai certo che arriverà entro i primi mesi del prossimo?

Per compensare l'aumento di flops/fillrate serve banda passante, quindi sono legati a braccetto con le nuove memorie dal miglior rapporto w/gbps.

Le GDDR6 sono date per il Q1 (minimo) se non ricordo male.

eXeS
14-08-2017, 17:05
Mike io quei prezzi mica li ho visti. Forse qualche 1080Ti verso le 700€ sì(non considerando situazioni dubbie in dropshipping) ma la media era ben più alta mentre le 1080 son partite con la botta delle FE a 800€ e pure le 1070 erano sopra la media. Io pagai le mie 440€ l'una...e c'era di molto peggio(altre superavano le 500).
1080 sulle 500-550€ le trovi adesso :D
Ho presa ad inizio giugno una giga gaming oc a 635 da tao pagata con bonifico che con garanzia acquisiti sicuri + spedizione mi è costata 660 ;)

TigerTank
14-08-2017, 17:35
Ho presa ad inizio giugno una giga gaming oc a 635 da tao pagata con bonifico che con garanzia acquisiti sicuri + spedizione mi è costata 660 ;)

Ecco questa è stata un'ottima occasione, anche se faceva parte della "minoranza" :)
Poi certo, la questione mining ha incasinato le cose e si spera che durante l'autunno ritornino occasioni del genere.

Nurabsa
15-08-2017, 12:20
GV102 per la gaming Nurabsa. Per il resto si, chi pretende prestazioni, il vero chippone sarà il GV102, che potrebbe avvicinarsi o toccare i 600mmq2.
Penso cos', ad occhio +50% Pascal in dx11:)



Si facevo un ragionamento alla Maxwell gm200 .con envidia non si sa mai :p

Inviato dal mio Nexus 6 utilizzando Tapatalk

Crysis90
15-08-2017, 19:39
http://www.tweaktown.com/news/58749/nvidia-ramps-up-12nm-production-next-gen-volta-gpus/index.html

Cominciate il conto alla rovescia. ;)

egounix
15-08-2017, 19:44
http://www.tweaktown.com/news/58749/nvidia-ramps-up-12nm-production-next-gen-volta-gpus/index.html

Cominciate il conto alla rovescia. ;)

Da dieci?

mikael84
16-08-2017, 14:33
EDIT: bisognerà anche vedere se x70 e x80 saranno accorpate o meno, nel senso che magari le prime saranno come le gtx970 e monteranno ddr5x e le seconde a pcb classico e con le ddr6. Con nvidia non si sa mai :D
Oppure con stesso pcb ma vram diverse...oppure uguali e separate dalla castratura.

Tiger la 2080 Volta monterà quasi sicuro le ddr6 14 gb/s (doppio canale 16b), per un'ampiezza di 448 gb/s.
Le ddr5x di Micron, per ora raggiungono i 12 gb/s, ma la stessa micron, così come samsung e hynix, lavoreranno sulle ddr6 dual channel.
Probabile che a conti fatti, la 2080 operi a 14gb/s e la 2070 a 12.

Daytona
16-08-2017, 16:55
Da dieci?

da 6 e 1/4

TigerTank
16-08-2017, 17:46
Tiger la 2080 Volta monterà quasi sicuro le ddr6 14 gb/s (doppio canale 16b), per un'ampiezza di 448 gb/s.
Le ddr5x di Micron, per ora raggiungono i 12 gb/s, ma la stessa micron, così come samsung e hynix, lavoreranno sulle ddr6 dual channel.
Probabile che a conti fatti, la 2080 operi a 14gb/s e la 2070 a 12.

Quindi secondo te è possibile che nvidia per separare le fasce e proporre delle x70 più economiche, proponga delle x80 con le ddr6 e delle x70 con le ddr5x diversificandole come 1080 e 1070?

Ubro92
16-08-2017, 18:56
Quindi secondo te è possibile che nvidia per separare le fasce e proporre delle x70 più economiche, proponga delle x80 con le ddr6 e delle x70 con le ddr5x diversificandole come 1080 e 1070?

Secondo me è possibilissimo, la x70 è una scheda decisamente incerta perchè potrebbe avere anche solo 2688cc GDDR5X contro i 3584cc GDDR6, il che la renderebbe perfettamente allineata anche rispetto la x60 con 1792cc GDDR5X...

Inoltre con 2688cc si pone tra 1080 e 1080ti e se il prezzo si piazza sui 450-500€ non va a creare scompiglio sulle eventuali rimanenze di magazzino di 1080ti ( in aggiunta a meno bestemmie per chi ha preso una 1080ti ed eventualmente da rivendere) poi giustificherebbe il prezzo della x80 a 800 e passa € e come prestazioni si allinea anche a Vega 64 a pari prezzo...

Ale55andr0
16-08-2017, 19:42
Riguardo la non concorrenza, non penso sia un grosso problema, almeno iniziale, si trovavano 1080ti a 650/700 euro e 1080 lisce, sulle 450/500 dopo un periodo di assestamento.



ehm...quel "periodo di assestamento" è arrivato tipo 6mesi dopo, lo dico perchè passavo le giornate a effecinquare per una 1080 sotto 600 a partire da +/- settembre 2016 e niente, non calavano manco a piangere...:asd: le 1080 hanno mantenuto prezzi medi altissimi (600+) per parecchi mesi. Ma parecchi per davvero...i 450 non li hanno mai visti. Il minimo minimo è stato 460 per la gainward biventola sull'ultimissimo sito, due mesi fa circa...

ste-87
16-08-2017, 20:18
edit

Ubro92
16-08-2017, 20:26
Pensandoci bene però butto un altra teoria, c'è la possibilità che oltre la x60 venga fatta anche una x60ti :sofico:

x60 1792cc - 128bit GDDR5X
x60ti 2304cc - 192bit GDDR5X
x70 3072cc/2816cc - 256bit GDDR5X
x80 3584cc - 256 bit GDDR6

Ale55andr0
16-08-2017, 20:38
Pensandoci bene però butto un altra teoria, c'è la possibilità che oltre la x60 venga fatta anche una x60ti :sofico:

x60 1792cc - 128bit GDDR5X
x60ti 2304cc - 192bit GDDR5X
x70 3072cc/2816cc - 256bit GDDR5X
x80 3584cc - 256 bit GDDR6

la 2070 sarebbe una gran scheda nella fascia dei 400/450, la 2080 la vedo meglio carrozzata che non 3500sp....

Legolas84
16-08-2017, 22:11
Pensandoci bene però butto un altra teoria, c'è la possibilità che oltre la x60 venga fatta anche una x60ti :sofico:

x60 1792cc - 128bit GDDR5X
x60ti 2304cc - 192bit GDDR5X
x70 3072cc/2816cc - 256bit GDDR5X
x80 3584cc - 256 bit GDDR6

Ma sui cuda core hai fatto tu una previsione o c'è qualche rumor a riguardo?

Perchè 3584 sarebbero gli stessi che sono sulla 1080Ti....

Ubro92
16-08-2017, 22:11
la 2070 sarebbe una gran scheda nella fascia dei 400/450, la 2080 la vedo meglio carrozzata che non 3500sp....

La 2080 è un chip full GV104 quindi i 3584cc essendo 4 GPC da 7 TPC con 128cc ciascuno, sono siculi siculi :sofico:
I chip minori dipende... rese... marketing...

Hadar
16-08-2017, 22:23
Come farebbe una 2080 ipotetica con gli stessi cc a staccare nettanente sullo stesso po una 1080ti?
Probabilmente andrà uno sputo minimo in più della titan Xp, giusto per dire "faster than titan Xp!!!One"..
Quindi circa un 10% rispetto la ti..


Oppure si potrebbe avere di più?
Di novità nell'architettura non ne vedo moltissime a parte i tensor core(che non ci saranno), frequenze migliori(?) E miglioramenti in dx12(si spera)..
Hmm..

Legolas84
16-08-2017, 22:30
Gv100 mi pare abbia poco più di 5000 cuda quindi bo bisogna vedere il chip mid come sarà strutturato...

Per le dx12 imho non aspettiamoci di vedere situazioni come per AMD in cui vi sono incrementi prestazionali rispetto alle dx11 perché i chip nvidia rendono tanto uguale... comunque sarebbe bello avere qualche gioco veramente dx12 per fare delle prove...


Inviato dal mio iPhone utilizzando Tapatalk Pro

ste-87
16-08-2017, 22:39
Come farebbe una 2080 ipotetica con gli stessi cc a staccare nettanente sullo stesso po una 1080ti?
Probabilmente andrà uno sputo minimo in più della titan Xp, giusto per dire "faster than titan Xp!!!One"..
Quindi circa un 10% rispetto la ti..


Oppure si potrebbe avere di più?
Di novità nell'architettura non ne vedo moltissime a parte i tensor core(che non ci saranno), frequenze migliori(?) E miglioramenti in dx12(si spera)..
Hmm..

vai tranquillo che almeno un +20/25% minimo dalla 1080ti (+15/20% da titan Xp) lo riescono a tirare fuori, altrimenti non se le comprerebbe nessuno per percentuali inferiori se non i rarissimi acquirenti di Titan, disposti a spendere un sacco di più per benefici decisamente marginali

Gv100 mi pare abbia poco più di 5000 cuda quindi bo bisogna vedere il chip mid come sarà strutturato...

Per le dx12 imho non aspettiamoci di vedere situazioni come per AMD in cui vi sono incrementi prestazionali rispetto alle dx11 perché i chip nvidia rendono tanto uguale... comunque sarebbe bello avere qualche gioco veramente dx12 per fare delle prove...


Inviato dal mio iPhone utilizzando Tapatalk Pro

nel 2018 sarebbe anche l'ora...

mikael84
16-08-2017, 23:18
Quindi secondo te è possibile che nvidia per separare le fasce e proporre delle x70 più economiche, proponga delle x80 con le ddr6 e delle x70 con le ddr5x diversificandole come 1080 e 1070?

Non c'è alcuna differenza di prezzo con queste memorie. Di certo le ddr5 lisce non le utilizzeranno, altrimenti la BW rimane troppo bassa.:)

Secondo me è possibilissimo, la x70 è una scheda decisamente incerta perchè potrebbe avere anche solo 2688cc GDDR5X contro i 3584cc GDDR6, il che la renderebbe perfettamente allineata anche rispetto la x60 con 1792cc GDDR5X...

Inoltre con 2688cc si pone tra 1080 e 1080ti e se il prezzo si piazza sui 450-500€ non va a creare scompiglio sulle eventuali rimanenze di magazzino di 1080ti ( in aggiunta a meno bestemmie per chi ha preso una 1080ti ed eventualmente da rivendere) poi giustificherebbe il prezzo della x80 a 800 e passa € e come prestazioni si allinea anche a Vega 64 a pari prezzo...

Ubro stai analizzando casi limiti, purtroppo, come detto in precedenza, bisognerà vedere le rese, ma già una 2070 con 3072cc attivi, se la giocherà con la 1080ti. reference per reference. Certo la 1080ti rimane più muscle, ma non avrà il beneficio dei thread paralleli.:)

ehm...quel "periodo di assestamento" è arrivato tipo 6mesi dopo, lo dico perchè passavo le giornate a effecinquare per una 1080 sotto 600 a partire da +/- settembre 2016 e niente, non calavano manco a piangere...:asd: le 1080 hanno mantenuto prezzi medi altissimi (600+) per parecchi mesi. Ma parecchi per davvero...i 450 non li hanno mai visti. Il minimo minimo è stato 460 per la gainward biventola sull'ultimissimo sito, due mesi fa circa...

Ma no, 1080 se ne trovavano sotto le 600. Le più sfigate hanno toccato anche i 450 su shop come tao.
Certo non subito.
Fino a 3 mesi fa trovavi le 1080ti galax a 650;)

Pensandoci bene però butto un altra teoria, c'è la possibilità che oltre la x60 venga fatta anche una x60ti :sofico:

x60 1792cc - 128bit GDDR5X
x60ti 2304cc - 192bit GDDR5X
x70 3072cc/2816cc - 256bit GDDR5X
x80 3584cc - 256 bit GDDR6

No Ubro, per la GV106 2060 (il chip simil Vega per prestazioni) utilizzeranno la 192bit.
La x60ti, dipenderà dalle rese, ma in caso di rese simili andranno sulle quadro:)

Ma sui cuda core hai fatto tu una previsione o c'è qualche rumor a riguardo?

Perchè 3584 sarebbero gli stessi che sono sulla 1080Ti....

Si Legolas, sono 3584cc per GV104.:)
Praticamente un GPC contiene 896cc (x4 3584cc/x6 5370).:)


la 2070 sarebbe una gran scheda nella fascia dei 400/450, la 2080 la vedo meglio carrozzata che non 3500sp....

La 2080 processerà 3584cc.
Sono 4 GPC x 896cc

mikael84
16-08-2017, 23:26
Come farebbe una 2080 ipotetica con gli stessi cc a staccare nettanente sullo stesso po una 1080ti?
Probabilmente andrà uno sputo minimo in più della titan Xp, giusto per dire "faster than titan Xp!!!One"..
Quindi circa un 10% rispetto la ti..


Oppure si potrebbe avere di più?
Di novità nell'architettura non ne vedo moltissime a parte i tensor core(che non ci saranno), frequenze migliori(?) E miglioramenti in dx12(si spera)..
Hmm..

Pensa che solo in rasterizzazione, guadagni 12 cicli.
Avere tutto su 4 rasterizzatori permette di eliminare il passaggio a 10 P.E e 6 stadi via raster.
Migliori la l1, sopratutto sui pro (vantaggio, per dire di haswell con sandy/ivy), questa richiede dai 10 ai 20 cicli di clock.
Il lavoro elettrico, potrebbe portare tranquillamente il 10% di clock.
Sicuramente la 2080 ha armi in più, senza considerare la gestione dei warp.;)

Ale55andr0
17-08-2017, 00:35
La 2080 processerà 3584cc.
Sono 4 GPC x 896cc

ma così in pratica sarà una 1080 ti con i benefici del pp affinato :fagiano: (letto sopra comunque)

Crysis90
17-08-2017, 07:41
ma così in pratica sarà una 1080 ti con i benefici del pp affinato :fagiano: (letto sopra comunque)

Mettici 3/400 Mhz in più sulla GPU, memorie a 13/14 Ghz e migliorie all'architettura ed eccoti il tuo 20/25% in più sulla 1080 Ti. ;)

L'unico problema sarà il suo costo, vista la totale assenza di concorrenza. :asd: :eek:

Hadar
17-08-2017, 11:20
Mettici 3/400 Mhz in più sulla GPU, memorie a 13/14 Ghz e migliorie all'architettura ed eccoti il tuo 20/25% in più sulla 1080 Ti. ;)

L'unico problema sarà il suo costo, vista la totale assenza di concorrenza. :asd: :eek:

Eh beh, chiamali scemi.
Probabilmente costerà quanto la 1080 all'inizio, ma solo se stacca nettamente la Ti

Ubro92
17-08-2017, 11:42
Mettici 3/400 Mhz in più sulla GPU, memorie a 13/14 Ghz e migliorie all'architettura ed eccoti il tuo 20/25% in più sulla 1080 Ti. ;)

L'unico problema sarà il suo costo, vista la totale assenza di concorrenza. :asd: :eek:

Infatti è il clock che alla fine farà la differenza, perchè non credo che clock to clock a pari cc ci siano difference almeno in DX11...

La titan XP ha 3840cc quindi per pareggiare con questa a 2-2.1ghz il clock dell'eventuale 2080 dovrebbe porsi sui 2.2-2.3 (il che vorrebbe dire stare già sopra il 10-15% da 1080ti) poi bisogna vedere l'oc max dove arriva ma credo che i 2.4-2.5ghz per i chip più fortunati siano fattibili...

Ale55andr0
17-08-2017, 13:06
Mettici 3/400 Mhz in più sulla GPU, memorie a 13/14 Ghz e migliorie all'architettura ed eccoti il tuo 20/25% in più sulla 1080 Ti. ;)

L'unico problema sarà il suo costo, vista la totale assenza di concorrenza. :asd: :eek:

direi dai 700 in su, con punte sugli 800 e rotti, nel periodo di lancio, poi si assesterà sui 600 dopo 2-3 mesi e quando ormai sarà fuori da un anno (pieno) sui 500...in pratica tutto il percorso della 1080 :D

fraussantin
17-08-2017, 13:10
direi dai 700 in su, con punte sugli 800 e rotti, nel periodo di lancio, poi si assesterà sui 600 dopo 2-3 mesi e quando ormai sarà fuori da un anno (pieno) sui 500...in pratica tutto il percorso della 1080 :DSecondo me volta seguirà il percorso prezzi di pascal, ma con 50 dollari in piú.

Prob prenderò la 2060 quasi al prezzo della. 1070.

ste-87
17-08-2017, 13:20
Secondo me volta seguirà il percorso prezzi di pascal, ma con 50 dollari in piú.

Prob prenderò la 2060 quasi al prezzo della. 1070.

bhe già pascal ha avuto il rincaro di 50€/$ a pari fascia per il salto pp da maxwell, che all'inizio ha fatto storcere il naso a tutti ma alla fine ci poteva anche stare viste le rese inferiori iniziali, ora però spererei anche basta con i rincari :fagiano:

Ren
17-08-2017, 13:44
Secondo me volta seguirà il percorso prezzi di pascal, ma con 50 dollari in piú.

Prob prenderò la 2060 quasi al prezzo della. 1070.

Chissà quanto prezzeranno la nuova Titan da 5000cuda...:eekk:

mikael84
17-08-2017, 14:17
ma così in pratica sarà una 1080 ti con i benefici del pp affinato :fagiano: (letto sopra comunque)

Ci sono altri fattori, ma non aspettatevi percentuali astronomiche. Il vero chip che farà la differenza sarà il GV102;)

Chissà quanto prezzeranno la nuova Titan da 5000cuda...:eekk:

Beh dai, almeno hai garanzia di potenza :D

Ubro92
17-08-2017, 14:26
Ci sono altri fattori, ma non aspettatevi percentuali astronomiche. Il vero chip che farà la differenza sarà il GV102;)



Vabbè alla fine GV104 non fa altro che scalare le fasce e portare le prestazioni delle precedenti top gamma ad un prezzo minore, GV102 è un mostro da 5376cc e zittisce tutti... :sofico:

mikael84
17-08-2017, 14:32
Infatti è il clock che alla fine farà la differenza, perchè non credo che clock to clock a pari cc ci siano difference almeno in DX11...

La titan XP ha 3840cc quindi per pareggiare con questa a 2-2.1ghz il clock dell'eventuale 2080 dovrebbe porsi sui 2.2-2.3 (il che vorrebbe dire stare già sopra il 10-15% da 1080ti) poi bisogna vedere l'oc max dove arriva ma credo che i 2.4-2.5ghz per i chip più fortunati siano fattibili...

Guadagnare 16 cicli in rasterizzazione non è mica poco. Si avranno vantaggi sulla l1 (accesso 10-20 cicli), ed altri fattori. La 1080ti boosta senza PL in media a 1650mhz, già lavorando a 1900 medi, un certo vantaggio lo accumuli.;)
Le 2080 potrebbero boostare con relativo Downclock anche a 2050.
Ricordiamoci che le Pascal sono piombate con 3 shunt.:)

fraussantin
17-08-2017, 14:49
bhe già pascal ha avuto il rincaro di 50€/$ a pari fascia per il salto pp da maxwell, che all'inizio ha fatto storcere il naso a tutti ma alla fine ci poteva anche stare viste le rese inferiori iniziali, ora però spererei anche basta con i rincari :fagiano:

per sperare ci speriamo tutti , ma illudersi è un altra cosa.

amd non farà niente ne nella fascia media ne nella medioalta: vega è un mattone costosissimo che non credo potrà essere rebrandizzato tanto facilmente in fascia 250$ poi c'è il mining che a detta di pelleolivastra sarà sempre più importante ( di certo non si riferiva a pascal) , e in fine pascal con i suoi prezzi scandalosi sta vendendo oltre ogni previsione.

+50 $ a pari fascia se son buoni...( se ci sarà il salto al pari di quello maxwell pascal)

Gello
17-08-2017, 16:07
per sperare ci speriamo tutti , ma illudersi è un altra cosa.

amd non farà niente ne nella fascia media ne nella medioalta: vega è un mattone costosissimo che non credo potrà essere rebrandizzato tanto facilmente in fascia 250$ poi c'è il mining che a detta di pelleolivastra sarà sempre più importante ( di certo non si riferiva a pascal) , e in fine pascal con i suoi prezzi scandalosi sta vendendo oltre ogni previsione.

+50 $ a pari fascia se son buoni...( se ci sarà il salto al pari di quello maxwell pascal)

C'e' davvero bisogno di epiteti filo razzisti anche quando si parla di schede video ?

fraussantin
17-08-2017, 16:12
C'e' davvero bisogno di epiteti filo razzisti anche quando si parla di schede video ?Non era riferito al razza, ma alle ridicole lampade che si fa. Non sono razzista.
https://uploads.tapatalk-cdn.com/20170817/a6f8fd5e9a60eefcd8eb830e5aa06aa3.jpg

AceGranger
17-08-2017, 16:45
Non era riferito al razza, ma alle ridicole lampade che si fa. Non sono razzista.


credo che sia uno di quelli che non ha bisogno di farsi le lampade.... è abbastanza ricco da andare dove vuole e quando vuole a prendersi il vero sole....

egounix
17-08-2017, 17:23
Minchia, in quella di mezzo sembra carlo conti...


C'e' davvero bisogno di epiteti filo razzisti anche quando si parla di schede video ?

Io sapevo che con pelle olivastra ci si riferiva ad una pelle particolare di quelle dai capelli rossi... Bho... E io per le rosse - in carne ed ossa - vado matto...

Ma dov'è finito goofy?

Crysis90
17-08-2017, 17:50
Minchia, in quella di mezzo sembra carlo conti...


E' il suo sosia.

http://i.imgur.com/XiwTlke.jpg

egounix
17-08-2017, 17:52
O semplicemente alla conferenza si è fatto sostituire da carlo... Isi :stordita:

TigerTank
17-08-2017, 18:00
Guadagnare 16 cicli in rasterizzazione non è mica poco. Si avranno vantaggi sulla l1 (accesso 10-20 cicli), ed altri fattori. La 1080ti boosta senza PL in media a 1650mhz, già lavorando a 1900 medi, un certo vantaggio lo accumuli.;)
Le 2080 potrebbero boostare con relativo Downclock anche a 2050.
Ricordiamoci che le Pascal sono piombate con 3 shunt.:)

Bisognerà vedere però se e quanto piomberanno pure le nuove :D
Tanto senza concorrenza possono centellinare le prestazioni giusto per dare quel minimo in più...e magari sparare poi dei refresh postumi...
Abbiamo visto che cosa hanno fatto con le 2 titan pascal, prima una a 1300€ e poi il refresh per la gioia dei possessori della prima :sofico:

Legolas84
17-08-2017, 18:13
Minchia, in quella di mezzo sembra carlo conti...




Io sapevo che con pelle olivastra ci si riferiva ad una pelle particolare di quelle dai capelli rossi... Bho... E io per le rosse - in carne ed ossa - vado matto...

Ma dov'è finito goofy?

una può avere pelle olivastra anche senza avere i capelli rossi però.... di solito sono gnocche comunque :asd:

Hadar
17-08-2017, 18:25
per sperare ci speriamo tutti , ma illudersi è un altra cosa.

amd non farà niente ne nella fascia media ne nella medioalta: vega è un mattone costosissimo che non credo potrà essere rebrandizzato tanto facilmente in fascia 250$ poi c'è il mining che a detta di pelleolivastra sarà sempre più importante ( di certo non si riferiva a pascal) , e in fine pascal con i suoi prezzi scandalosi sta vendendo oltre ogni previsione.

+50 $ a pari fascia se son buoni...( se ci sarà il salto al pari di quello maxwell pascal)

Significherebbe 649 usd e 749 usd per la founders(superare il prezzo della 1080ti praticamente, ovvero 699 usd :asd: )..
Non hanno il coraggio di sforare i 600 dollari per un 104, c'è un limite a tutto, dai su :eek: