View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Se i prezzi fossero questi, ci sarebbe un crollo verticale dei prezzi dell'usato della 970 e 980.
paolox86
06-04-2016, 20:49
La x80 meno di 699 o al massimo 649 proprio no, scordiamocelo! Sarà anche GP104 ma Nvidia lo reputa il top della gamma, anche giustamente visto le dormite profonde della concorrenza, fino all'arrivo del chippone.
Per x70 pronostico un 450 €
La x80 meno di 699 o al massimo 649 proprio no, scordiamocelo! Sarà anche GP104 ma Nvidia lo reputa il top della gamma, anche giustamente visto le dormite profonde della concorrenza, fino all'arrivo del chippone.
Per x70 pronostico un 450 €
La x80, senza scherzi, me la sento a 749 :stordita: e la x70 a 499.
Non chiedetemi perchè ma ho il bucio stretto a 749
Marscorpion
06-04-2016, 21:06
La x80 meno di 699 o al massimo 649 proprio no, scordiamocelo! Sarà anche GP104 ma Nvidia lo reputa il top della gamma, anche giustamente visto le dormite profonde della concorrenza, fino all'arrivo del chippone.
Per x70 pronostico un 450 €
Beh ma anche la gtx 980 all'uscita superava la gtx 780Ti ma è stata prezzata a 533 €. In fin dei conti è pur sempre fascia media/alta. Altrimenti chi le compra ste vga? Quelli a cui non interessa di spendere attendono la versione ti e la Titan mentre quelli che vogliono rimanere sulla fascia media non le comprano perché costano troppo.
Boh, devono rimanere sotto i 600 € !
ho il bucio stretto
https://www.youtube.com/watch?v=20KXP1K0tJA ;)
:sofico:
illidan2000
06-04-2016, 21:27
Beh ma anche la gtx 980 all'uscita superava la gtx 780Ti ma è stata prezzata a 533 €. In fin dei conti è pur sempre fascia media/alta. Altrimenti chi le compra ste vga? Quelli a cui non interessa di spendere attendono la versione ti e la Titan mentre quelli che vogliono rimanere sulla fascia media non le comprano perché costano troppo.
Boh, devono rimanere sotto i 600 € !
chi sta per comprare le 980ti spende 700 euro... se gliele metti allo stesso prezzo le compra, poiché non c'è di meglio ora
mikael84
06-04-2016, 21:27
La x80 meno di 699 o al massimo 649 proprio no, scordiamocelo! Sarà anche GP104 ma Nvidia lo reputa il top della gamma, anche giustamente visto le dormite profonde della concorrenza, fino all'arrivo del chippone.
Per x70 pronostico un 450 €
Si ma se va così ti chiedo i diritti. :p
Cmq Nvidia già si è aumentata la potenza computazionale.
Tale potenza è sempre stata calcolata prendendo il clock base, poi aumenta con il boost 2.
A questo giro ha calcolato il boost minimo non il core base.
1328 x3584 (2) = 9,5TF (4,5DP)
1480 x3584 (2) = 10,6TF (5,3DP)
chi sta per comprare le 980ti spende 700 euro... se gliele metti allo stesso prezzo le compra, poiché non c'è di meglio ora
Tecnicamente conviene per chi deve acquistare una 980ti/fury però:
1) con partenza di 650 euro, la x80ti ed hbm te la piazzano a 900-1000 euro
2) Quando c'era la gtx 280, non pagavi la 460 il suo prezzo, perchè x70 e x80 sono quella fascia.
900/1000 euro per un chip gaming è follia su via, come lo è 650 euro per un chip dal tdp di 145watt con un 8pin.
illidan2000
06-04-2016, 21:40
Si ma se va così ti chiedo i diritti. :p
Cmq Nvidia già si è aumentata la potenza computazionale.
Tale potenza è sempre stata calcolata prendendo il clock base, poi aumenta con il boost 2.
A questo giro ha calcolato il boost minimo non il core base.
1328 x3584 (2) = 9,5TF (4,5DP)
1480 x3584 (2) = 10,6TF (5,3DP)
Tecnicamente conviene per chi deve acquistare una 980ti/fury però:
1) con partenza di 650 euro, la x80ti ed hbm te la piazzano a 900-1000 euro
2) Quando c'era la gtx 280, non pagavi la 460 il suo prezzo, perchè x70 e x80 sono quella fascia.
900/1000 euro per un chip gaming è follia su via, come lo è 650 euro pe run chip dal tdp di 145watt con un 8pin.
anche per me i prezzi saranno più calmierati, ma di una cinquantina di euro in più rispetto alle 970 e 980 di due anni fa, che venivano 300 e 500 (versioni "basic") fino a 370/550
Crysis90
06-04-2016, 21:47
GP100 in all its glory! ;)
http://i.imgur.com/fwd0nPn.jpg
http://wccftech.com/nvidia-tesla-p100-gp100-june-2016/
Sarà MOLTO interessante capire che sistema di raffreddamento adotterà NVidia, visto il layout completamente rivoluzionato del PCB.
Inoltre, 15 mld di transistor scalderanno molto di più di 8 mld...sarà interessante vedere se riusciranno a smaltire il calore con un dissipatore che copre solo l'area del PBC, o se sarà più lungo della scheda stessa. ;)
mikael84
06-04-2016, 21:56
ma quindi amd ha dichiarato le specifiche delle rivali del gp104? me lo devo essere perso... in realtà mi sono perso pure quelle di gp104
:D
Basta avere la base e le ricavi, conoscendo la micro architettura Nvidia. I cuda possono essere poi laserati a qualche unità in meno o qualche unità ridondante ma una volta che hai tutti i dettagli ricavi tutto.
Con 4 canali (256bit) e 4 back-end fai 2+2.
I particolari non li puoi calcolare ma ti fai una certa stima;)
Ovviamente ho analizzato tutto io, Nvidia non ha comunicato nulla, quindi AMD non ha colpa di niente :D
AceGranger
06-04-2016, 22:27
Sarà MOLTO interessante capire che sistema di raffreddamento adotterà NVidia, visto il layout completamente rivoluzionato del PCB.
adottera un semplicissimo dissipatore passivo e si aggancera al posto di quelle viti sporgenti che si vedono nelle foto.
Inoltre, 15 mld di transistor scalderanno molto di più di 8 mld...sarà interessante vedere se riusciranno a smaltire il calore con un dissipatore che copre solo l'area del PBC, o se sarà più lungo della scheda stessa. ;)
scalderanno molto di piu mica tanto, scaldera solo il 25% in piu, 300W di TDP; sono si 15 miliardi, ma c'è un nodo inferiore.
Crysis90
06-04-2016, 22:47
adottera un semplicissimo dissipatore passivo e si aggancera al posto di quelle viti sporgenti che si vedono nelle foto.
scalderanno molto di piu mica tanto, scaldera solo il 25% in piu, 300W di TDP; sono si 15 miliardi, ma c'è un nodo inferiore.
GF100 (aka Fermi) ti dice nulla? Era un forno a microonde che consumava anche parecchio.
15 mld di transistor sono il doppio di quelli che fino ad oggi si sono trovati a dover gestire.
Inoltre adesso le memorie sono integrate sul silicio del chip, quindi si sommeranno sia il calore della GPU che quello delle memorie.
Senza contare tutto il resto della circuiteria.
Non è così semplice come sembra.
AceGranger
06-04-2016, 23:14
GF100 (aka Fermi) ti dice nulla? Era un forno a microonde che consumava anche parecchio.
15 mld di transistor sono il doppio di quelli che fino ad oggi si sono trovati a dover gestire.
Inoltre adesso le memorie sono integrate sul silicio del chip, quindi si sommeranno sia il calore della GPU che quello delle memorie.
Senza contare tutto il resto della circuiteria.
Non è così semplice come sembra.
non è che dichiarano il TDP a vanvera è; se dichiarano 300W sono 300W, e il calore da togliere sara il 25% in piu rispetto alla passata generazione.
Crysis90
06-04-2016, 23:15
non è che dichiarano il TDP a vanvera è; se dichiarano 300W sono 300W, e il calore da togliere sara il 25% in piu rispetto alla passata generazione.
Bah. Beati voi che fate tutto semplice. :D :D
Io sono molto più uno della serie "se non vedo (o non tocco...), non credo". :D
illidan2000
06-04-2016, 23:21
Bah. Beati voi che fate tutto semplice. :D :D
Io sono molto più uno della serie "se non vedo (o non tocco...), non credo". :D
parliamo sempre di tesla. io ci credo, i numeri sono quelli.
ovviamente la 1080ti scalderà un po' meno poiché non hai la DP, quindi si torna ai livelli di 980ti, solo che vai il doppio più forte :)
TigerTank
07-04-2016, 08:41
Se fosse così però le 1070 andrebbero a sostituire le gtx980 e le 1080 le GTX980 Ti, quindi rimarrebbe scoperta la fascia delle GTX970.....
Io all'uscita pagai la GTX980 533 € (batteva le 780Ti che costavano di +), quindi secondo me il prezzo delle 1080 si aggirerà sulle 550 € e quello delle 1070 sui 400 €.
Eh purtroppo già con le gtx980Ti c'è stato un aumento di prezzi di un bel 50-100€ rispetto alle gtx780Ti per cui considerate anche le novità tecnologiche tra processo produttivo e vram sarebbe un miracolo se mantenessero i prezzi di fascia.
Iceman69
07-04-2016, 08:48
Eh purtroppo già con le gtx980Ti c'è stato un aumento di prezzi di un bel 50-100€ rispetto alle gtx780Ti per cui considerate anche le novità tecnologiche tra processo produttivo e vram sarebbe un miracolo se mantenessero i prezzi di fascia.
Ma per un problema di cambio del dollaro, negli USA sono uscite esattamente allo stesso prezzo se non ricordo male...
CiccoMan
07-04-2016, 09:09
Ma per un problema di cambio del dollaro, negli USA sono uscite esattamente allo stesso prezzo se non ricordo male...
Ricordi bene. I prezzi di lancio erano gli stessi. Anzi, mi pare che la 780ti stesse 50$ sopra la 980ti...
Kingdemon
07-04-2016, 09:41
http://www.hwupgrade.it/news/skvideo/quali-schede-pascal-nel-futuro-delle-soluzioni-geforce_61985.html
Quindi si pensa alla presentazione di X70 e X80 al Computex 2016 di Taipei di fine maggio.. insieme alla presentazione di Polaris.
:cry:
Crysis90
07-04-2016, 09:51
http://www.hwupgrade.it/news/skvideo/quali-schede-pascal-nel-futuro-delle-soluzioni-geforce_61985.html
Quindi si pensa alla presentazione di X70 e X80 al Computex 2016 di Taipei di fine maggio.. insieme alla presentazione di Polaris.
:cry:
Peggio ancora, ci sarà da aspettare ancora una decina di mesi per la GTX 1080 Ti. :cry: :cry:
TigerTank
07-04-2016, 09:52
Ma per un problema di cambio del dollaro, negli USA sono uscite esattamente allo stesso prezzo se non ricordo male...
I prezzi americani vengono sempre indicati iva esclusa perchè poi ogni singolo stato applica la sua, per cui di mezzo ci sono conversione di valuta e la nostra cara IVA al 22%.
Così se ad esempio diranno che le 1080 reference staranno a tipo $499, con conversione, arrotondamenti e nostra iva si andrà verso i 550€ e con le custom si andrà sui 600€ e più.
Ricordi bene. I prezzi di lancio erano gli stessi. Anzi, mi pare che la 780ti stesse 50$ sopra la 980ti...
Io presi la gtx780Ti evga praticamente al lancio e la pagai 580€ :)
Kingdemon
07-04-2016, 10:13
Peggio ancora, ci sarà da aspettare ancora una decina di mesi per la GTX 1080 Ti. :cry: :cry:
Allora probabilmente avremo X70/X80 in vendita da settembre/ottobre prima non avrebbe molto senso e X80ti a marzo/aprile 2017
Chi ha preso una 970/980/980ti all'uscita ha fatto uno degli acquisti più duraturi e convenienti degli ultimi anni
I prezzi americani vengono sempre indicati iva esclusa perchè poi ogni singolo stato applica la sua, per cui di mezzo ci sono conversione di valuta e la nostra cara IVA al 22%.
Così se ad esempio diranno che le 1080 reference staranno a tipo $499, con conversione, arrotondamenti e nostra iva si andrà verso i 550€ e con le custom si andrà sui 600€ e più.
Io presi la gtx780Ti evga praticamente al lancio e la pagai 580€ :)
Io ricordo la 670 in firma presa al lancio ad un prezzaccio (370 quando le custom stavano a 400-450) a memoria l'avevi presa anche tu tiger.
Il prezzo delle 970 è più basso.. una G1 si trova sui 350 ed è la migliore custom con la gaming di msi.
Speriamo che il prezzo si mantenga almeno uguale senza salire per tutte le pascal.
Kingdemon
07-04-2016, 10:24
Che poi a pensarci nvidia non ha fretta di far uscire le nuove gpu.
Le 970 sono stravendute.. basta vedere qui sul mercatino usate anche senza garanzia vanno via come il pane a prezzi assurdi 270/280 euro per le msi e giga. Mentre le 290/390 che hanno prestazioni anche superiori non se le fila nessuno.
Ok scaldano e consumano di più ma dobbiamo dire che nvidia è riuscita negli anni a fare un lavoro eccezionale anche dal punto di vista del marketing e dell'immagine.
Parlando con amici che non seguono molto mi capita spesso di sentire dire "beh ma meglio una gtx lato driver ed affidabilità è una spanna sopra" quando a livello di driver amd è migliorata parecchio.
TigerTank
07-04-2016, 10:28
Io ricordo la 670 in firma presa al lancio ad un prezzaccio (370 quando le custom stavano a 400-450) a memoria l'avevi presa anche tu tiger.
Il prezzo delle 970 è più basso.. una G1 si trova sui 350 ed è la migliore custom con la gaming di msi.
Speriamo che il prezzo si mantenga almeno uguale senza salire per tutte le pascal.
Speriamo...sì avevo preso 2 gtx670 in Sli(le gigabyte windforce) perchè infinitamente più convenienti delle 680. Tra le 2 se non ricordo male c'era uno stacco del 10-15% a fronte di un divario spropositato di prezzo. Magari chissà che la cosa non si ripeta pure con le pascal....dipende tutto dalle castrazioni effettive sulla 1070 e sempre che quest'ultima non venga ancora proposta su pcb ridotto :D
Giovamas
07-04-2016, 10:36
Peggio ancora, ci sarà da aspettare ancora una decina di mesi per la GTX 1080 Ti. :cry: :cry:
Va beh x80 back to school e 1080ti tra poco meno di un anno. Tanta roba. Ma chi ha una 980ti aspetta tranquillamente. Salvo richieste oltre 6gB dei giochi
Giovamas
07-04-2016, 10:37
Io presi la gtx780Ti evga praticamente al lancio e la pagai 580€ :)
Scheda da circoletto rosso Tiger la ricordo alla grande. Volava letteralmente :)
TigerTank
07-04-2016, 10:48
Scheda da circoletto rosso Tiger la ricordo alla grande. Volava letteralmente :)
Davvero....peccato per il regolatore di voltaggio bloccato a 1,21V.
Spero che mi ricapiti una gpu del genere su una pascal :D
a me serve assolutamente una nuova X80, la msi gtx 970 che ho ora è una bomba ma non basta per il mio monitor 2k, prima la cambio e prima posso sfruttare, non dico al massimo ma bene, il mio monitor; se fossi in FHD probabilmente rimanderei il cambio di minimo un altro anno
illidan2000
07-04-2016, 11:27
a me serve assolutamente una nuova X80, la msi gtx 970 che ho ora è una bomba ma non basta per il mio monitor 2k, prima la cambio e prima posso sfruttare, non dico al massimo ma bene, il mio monitor; se fossi in FHD probabilmente rimanderei il cambio di minimo un altro anno
siamo sulla stessa barca... monitor 3440x1440@100hz. un paio di x70 o x80 non sarebbero male
matthi87
07-04-2016, 11:34
a me serve assolutamente una nuova X80, la msi gtx 970 che ho ora è una bomba ma non basta per il mio monitor 2k, prima la cambio e prima posso sfruttare, non dico al massimo ma bene, il mio monitor; se fossi in FHD probabilmente rimanderei il cambio di minimo un altro anno
Stessa tua situazione, ma sono con una 780 overcloccata a morte :D
siamo sulla stessa barca... monitor 3440x1440@100hz. un paio di x70 o x80 non sarebbero male
vorrei rimanere su scheda singola, viceversa dovrei cambiare tutto, finora con la 970 a dettagli medio alti grazie al g-sync sono riuscito a godermi giochi anche abbastanza recenti in maniera per me soddisfacente (witcher 3, dying light, ecc), diciamo che mi basterebbe avere i 144hz su altre tipologie di giochi (esempio gli fps online)
Kingdemon
07-04-2016, 11:58
Speriamo...sì avevo preso 2 gtx670 in Sli(le gigabyte windforce) perchè infinitamente più convenienti delle 680. Tra le 2 se non ricordo male c'era uno stacco del 10-15% a fronte di un divario spropositato di prezzo. Magari chissà che la cosa non si ripeta pure con le pascal....dipende tutto dalle castrazioni effettive sulla 1070 e sempre che quest'ultima non venga ancora proposta su pcb ridotto :D
Allora ricordavo bene :)
Spesso in passato la scheda sotto al top come rapporto prestazioni/prezzo è risultata molto conveniente.. escludendo la ti che ha cambiato un pò tutto inserendo una nuova fascia.
X70/X80 fascia alta
Xti/titan fascia enthusiast
a me serve assolutamente una nuova X80, la msi gtx 970 che ho ora è una bomba ma non basta per il mio monitor 2k, prima la cambio e prima posso sfruttare, non dico al massimo ma bene, il mio monitor; se fossi in FHD probabilmente rimanderei il cambio di minimo un altro anno
Pensa a me che sono con una 670 in un pc e niente nell'altro :(
CiccoMan
07-04-2016, 12:55
I prezzi americani vengono sempre indicati iva esclusa perchè poi ogni singolo stato applica la sua, per cui di mezzo ci sono conversione di valuta e la nostra cara IVA al 22%.
Così se ad esempio diranno che le 1080 reference staranno a tipo $499, con conversione, arrotondamenti e nostra iva si andrà verso i 550€ e con le custom si andrà sui 600€ e più.
Io presi la gtx780Ti evga praticamente al lancio e la pagai 580€ :)
I prezzi in euro non significano niente perché soggetti alle fluttuazioni del cambio e alla tassazione del momento.
Bisogna vedere i prezzi consigliati da nvidia in dollari per fare i confronti.
Per dire, la titan è stata proposta a 999$ = 1000€ mentre la titan x a 999$ = 1250€ ... Il prezzo è lo stesso, ma noi l'abbiamo pagata di più...
maurilio968
07-04-2016, 13:05
Scusate per il post lungo ma più sintetico di così non sono riuscito ad essere.
Chiedo al guru mikael84 e ad altri più esperti di me un po di pazienza per commentare le eventuali inesattezze.
Ricordo che sono uno di quelli che aveva previsto una presentazione dedicata al deep learning
ed al gpu computing e dubitavo di una apparizione così prossima delle x70-x80.
Anzi i miei dubbi vertono da sempre su come dallo stesso gp100 si possa derivare una fascia media
ed una alta senza fare salti mortali.
A questo riguardo, cioè derivazione di gpu geforce da gp100 consiglio questa lettura:
http://videocardz.com/58865/nvidia-1st-generation-pascal-speculation
Cito:
Big Pascal for gamers?
As of now, it’s unclear if NVIDIA is planning more GPUs. There are rumors that GP102 could be the GP100
for gamers, where NVLink and FP64 computing is not important.
According to Hardware.fr NVIDIA is currently not planning GeForce cards based on GP100.
The company refused to comment on the possibility of using Big Pascal in GeForce or Quadro series.
However HW.fr sources did confirm that there are currently no plans of bringing GP100 to GeForce series.
Sottolineo per esempio che in tutti i comunicati nvidia rigurdanti gp100 non c'è traccia del numero di rops.
Nemmeno nell'ultimo:
https://devblogs.nvidia.com/parallelforall/inside-pascal/
Dove/quante sono le ROPS ?
Ovviamente le Tesla non hanno nemmeno uscite video però perchè nessuna menzione riguardo all'architettura
Pascal in generale?
Facendo il punto della situazione (cito considerazioni che condivido raccolte in giro per i forum):
1- GP100 looks like a first NV's GPU which may never ever make it to a mainstream videocard market.
It's just seems too HPC focused with 1/2 of it's transistors spent on a completely pointless FP64 math.
A GeForce on such GPU would be a waste of silicon.
2- The thing of interest is what exactly GP104 will be in the end. If it's FP64 part is cut down then we can
expect 96 or even 128 SPs/SM from it. If it's 2/3rds of GP100 in SM number then this gives us a 40 SM part
(in 4 GPC units probably) ranging from 3840 to 5120 FP32 SPs which should give us something around 11,5-15,3TFlops
of FP32 performance @ 1,5GHz boost clocks - which is rather comically more than what GP100 is able to pull off.
GP100 > 3840 FP32 SPs + 1920 FP64 SPs, 720Gbps 16GB HBM2 - 23TFlops FP16 / 11,5TFlops FP32 / 5,76TFlops FP64
GP104 > 3840---5120 FP32 SPs, 384Gbps 8GB GDDR5X - 23TFlops FP16 / 11,5-15.3 TFlops FP32 / ??? FP64
mainstream Pascal, basis for x70 and x80 cards
3- La x80ti e Titan dovrebbero invece derivare da "gp102" ipotizzato con tutte le unità in fp32 e supporto quasi nullo in FP64
(oltre ovviamente alla ram hbm2 anzichè gddr5):
GP102 > 5760 FP32 SPs, 1000Gbps 16/32GB HBM2 - 34TFlops FP16 / 17TFlops FP32 / ??? FP64
4- infine da questa slide
http://pics.computerbase.de/7/1/5/8/3/9-1080.3618039559.jpg
la considerazione seguente: sembra che gp100 abbia quelle 1920 unità non dedicate solo al FP64 ma general purpose.
Dalla slide sono capaci di elaborare al doppio delle velocità e quadruplo della velocità dimezzando ogni volta
la precisione.
Se fossero gestibili in maniera flessibile funzionando in fp32 quasi/come le 3840 dedicate al solo fp32 ?
Vi chiedo: le fp32 dedicate elaborano 1 per clock o sono più veloci ?
Vengo quindi finalmente al punto: intravedo tre strade
a) gp104 > gp100 semplicemente castrata sulle fp64 con incremento delle fp32 ma fino a quante unità?
b) gp102 > gp100 riprogettata con diciamo al massimo 5760 unità in fp32
c) sorpresa > le 1920 unità in più di pascal sono general purpose: le possono declinare come vogliono
portando le fp32 da 3840 (x70,x80) e arrivando fino a 5760 (x80ti, nuova titan)
Se fosse vera la terza semplicemente GP102 non esisterebbe, in tal caso le x70-x80 sarebbero abbinate
a 4-8 gb gddr5 e con meno (quante?) unità fp32, mentre le x80ti e titan avrebbero 16-32 gb hbm2 e full unità fp32
mantenendo però una architettura comune.
In tal caso resta da capire quanto pagano le eventuali 1920 unità general purpose usate in fp32 rispetto a quelle dedicate.
Secondo voi quale è la più probabile ?
Crysis90
07-04-2016, 13:27
Scusate per il post lungo ma più sintetico di così non sono riuscito ad essere.
Chiedo al guru mikael84 e ad altri più esperti di me un po di pazienza per commentare le eventuali inesattezze.
Ricordo che sono uno di quelli che aveva previsto una presentazione dedicata al deep learning
ed al gpu computing e dubitavo di una apparizione così prossima delle x70-x80.
Anzi i miei dubbi vertono da sempre su come dallo stesso gp100 si possa derivare una fascia media
ed una alta senza fare salti mortali.
A questo riguardo, cioè derivazione di gpu geforce da gp100 consiglio questa lettura:
http://videocardz.com/58865/nvidia-1st-generation-pascal-speculation
Cito:
Big Pascal for gamers?
As of now, it’s unclear if NVIDIA is planning more GPUs. There are rumors that GP102 could be the GP100
for gamers, where NVLink and FP64 computing is not important.
According to Hardware.fr NVIDIA is currently not planning GeForce cards based on GP100.
The company refused to comment on the possibility of using Big Pascal in GeForce or Quadro series.
However HW.fr sources did confirm that there are currently no plans of bringing GP100 to GeForce series.
Sottolineo per esempio che in tutti i comunicati nvidia rigurdanti gp100 non c'è traccia del numero di rops.
Nemmeno nell'ultimo:
https://devblogs.nvidia.com/parallelforall/inside-pascal/
Dove/quante sono le ROPS ?
Ovviamente le Tesla non hanno nemmeno uscite video però perchè nessuna menzione riguardo all'architettura
Pascal in generale?
Facendo il punto della situazione (cito considerazioni che condivido raccolte in giro per i forum):
1- GP100 looks like a first NV's GPU which may never ever make it to a mainstream videocard market.
It's just seems too HPC focused with 1/2 of it's transistors spent on a completely pointless FP64 math.
A GeForce on such GPU would be a waste of silicon.
2- The thing of interest is what exactly GP104 will be in the end. If it's FP64 part is cut down then we can
expect 96 or even 128 SPs/SM from it. If it's 2/3rds of GP100 in SM number then this gives us a 40 SM part
(in 4 GPC units probably) ranging from 3840 to 5120 FP32 SPs which should give us something around 11,5-15,3TFlops
of FP32 performance @ 1,5GHz boost clocks - which is rather comically more than what GP100 is able to pull off.
GP100 > 3840 FP32 SPs + 1920 FP64 SPs, 720Gbps 16GB HBM2 - 23TFlops FP16 / 11,5TFlops FP32 / 5,76TFlops FP64
GP104 > 3840---5120 FP32 SPs, 384Gbps 8GB GDDR5X - 23TFlops FP16 / 11,5-15.3 TFlops FP32 / ??? FP64
mainstream Pascal, basis for x70 and x80 cards
3- La x80ti e Titan dovrebbero invece derivare da "gp102" ipotizzato con tutte le unità in fp32 e supporto quasi nullo in FP64
(oltre ovviamente alla ram hbm2 anzichè gddr5):
GP102 > 5760 FP32 SPs, 1000Gbps 16/32GB HBM2 - 34TFlops FP16 / 17TFlops FP32 / ??? FP64
4- infine da questa slide
http://pics.computerbase.de/7/1/5/8/3/9-1080.3618039559.jpg
la considerazione seguente: e se quelle 1920 unità non fossero dedicate FP64 ma general purpose?
Capaci cioè di elaborare al doppio delle velocità e quadruplo della velocità dimezzando ogni volta
la precisione e gestibili in maniera flessibile senza troppi problemi ?
Vengo quindi finalmente al punto: intravedo tre strade
a) gp104 > gp100 semplicemente castrata sulle fp64 con incremento delle fp32 ma fino a quante unità?
b) gp102 > gp100 riprogettata con diciamo al massimo 5120 unità in fp32
c) sorpresa > le 1920 unità in più di pascal sono general purpose: le possono declinare come vogliono
portando le fp32 partendo da 3840 (x70) e arrivando fino a 5760 (x80ti, nuova titan)
Se fosse vera la terza semplicemente GP102 non esisterebbe, in tal caso le x70-x80 sarebbero abbinate
a 4-8 gb gddr5 e con meno (quante?) unità fp32, mentre le x80ti e titan avrebbero 16-32 gb hbm2 e full unità fp32
mantenendo però una architettura comune.
Secondo voi quale è la più probabile ?
Secondo me la risposta è molto semplice: è IMPOSSIBILE c'è NVidia non proponga la variante Ti/Titan sul mercato GeForce, visto che nelle due ultime generazioni hanno avuto molto successo e visto che altrimenti non avrebbero una proposta per combattere contro Vega 10 di AMD nel 2017.
Poi, come si chiamerà questo chip e quali saranno le sue specifiche solo il tempo ce lo dirà.
Ma sul fatto che questo chip uscirà sul mercato anche col brand GeForce, secondo me, non c'è il minimo dubbio. ;)
Crysis90
07-04-2016, 13:31
Va beh x80 back to school e 1080ti tra poco meno di un anno. Tanta roba. Ma chi ha una 980ti aspetta tranquillamente. Salvo richieste oltre 6gB dei giochi
Beh, dipende...io gioco su un 48" Ultra HD, e per giocare in 4K senza cali di framerate oggi me la comprerei volentieri una Pascal 1080 Ti. :D
maurilio968
07-04-2016, 13:32
Secondo me la risposta è molto semplice: è IMPOSSIBILE c'è NVidia non proponga la variante Ti/Titan sul mercato GeForce, visto che nelle due ultime generazioni hanno avuto molto successo e visto che altrimenti non avrebbero una proposta per combattere contro Vega 10 di AMD nel 2017.
Poi, come si chiamerà questo chip e quali saranno le sue specifiche solo il tempo ce lo dirà.
Ma sul fatto che questo chip uscirà sul mercato anche col brand GeForce, secondo me, non c'è il minimo dubbio. ;)
Daccordissimo.
Il punto del mio post infatti non è SE ma DA DOVE viene fuori. Perchè in base alla risposta le performance ma soprattutto le tempistiche cambiano sensibilmente.
TigerTank
07-04-2016, 13:36
I prezzi in euro non significano niente perché soggetti alle fluttuazioni del cambio e alla tassazione del momento.
Bisogna vedere i prezzi consigliati da nvidia in dollari per fare i confronti.
Per dire, la titan è stata proposta a 999$ = 1000€ mentre la titan x a 999$ = 1250€ ... Il prezzo è lo stesso, ma noi l'abbiamo pagata di più...
E io che ho scritto? :D
Infatti nel periodo delle maxwell il dollaro era molto forte rispetto all'euro, ora le cose vanno un pò meglio anche se non come diversi anni fà :)
Infatti la gtx780Ti se non sbaglio come riferimento di lancio era a $699 mentre la gtx980Ti a $649 ma al tempo delle kepler l'euro era più forte e infatti le prime si trovavano già al lancio sotto le 600€.
Poi al tutto appunto si aggiungono IVA e gli "arrotondamenti" che ho scritto sopra, da intendersi come eventuali furbatine e fluttuazioni. L'esempio sopra l'ho fatto in base al cambio di oggi ;)
Poi certo che i prezzi di riferimento in genere si riferiscono alle references...le custom aggiungono il loro plus variabile a seconda dei modelli. E poi ovviamente c'è il discorso cresta degli shop, vat players, ecc... cosa che crea un panorama di prezzi molto variegato come sempre :)
Auguriamoci che l'euro non crolli in vista dell'uscita delle pascal(o comunque non crolli mai) altrimenti sarebbero mazzate.
AceGranger
07-04-2016, 13:42
Daccordissimo.
Il punto del mio post infatti non è SE ma DA DOVE viene fuori. Perchè in base alla risposta le performance ma soprattutto le tempistiche cambiano sensibilmente.
le tempistiche non cambieranno, arriveranno se va bene nel Q1 seno nel Q2 2017, non ci sono le HBM2 in volumi per farle arrivare prima;
arriveranno piu o meno nello stesso periodo di Vega.
dopo di che, non so quanto sia economicamente sostenibile fare un GP100 solo per 1/2 Tesla.
illidan2000
07-04-2016, 13:46
io vorrei prendere il corrispettivo Pascal di queste:
http://eu.evga.com/Products/Product.aspx?pn=06G-P4-1996-KR
dal loro sito :)
quindi, a sto giro VAT players, me li evito
maurilio968
07-04-2016, 13:59
le tempistiche non cambieranno, arriveranno se va bene nel Q1 seno nel Q2 2017, non ci sono le HBM2 in volumi per farle arrivare prima;
arriveranno piu o meno nello stesso periodo di Vega.
dopo di che, non so quanto sia economicamente sostenibile fare un GP100 solo per 1/2 Tesla.
http://www.zdnet.com/article/nvidia-goes-all-in-on-ai/
There are some 1,000 AI start-ups with $5 billion in funding. Amazon, IBM, Google and Microsoft are all rolling out AI as a service (and Salesforce just acquired MetaMind). And it is now starting to make its way into industries such as retail, life sciences and automotive. Huang argues that AI won't just be a big business, it will be part of every business. Whether that really happens over the next couple of years will depend in part on whether Nvidia can successfully deliver a hardware and software platform that makes deep learning faster, more efficient and easier.
Esempio, solo campo medico e solo nordamerica (raddoppio del mercato nei prossimi 2 anni):
http://www.grandviewresearch.com/industry-analysis/healthcare-cognitive-computing-market
North America healthcare cognitive computing market by technology, 2012-2022, (USD Million)
http://www.grandviewresearch.com/static/img/research/healthcare-cognitive-computing-market.png
Legolas84
07-04-2016, 14:22
io vorrei prendere il corrispettivo Pascal di queste:
http://eu.evga.com/Products/Product.aspx?pn=06G-P4-1996-KR
dal loro sito :)
quindi, a sto giro VAT players, me li evito
Ma noi ti vogliamo nel full liquid prima o poi :D
Io comunque punterò o ad una Galax Reference o ad una classy.... vedrò un pò....
TigerTank
07-04-2016, 14:53
Ma noi ti vogliamo nel full liquid prima o poi :D
Io comunque punterò o ad una Galax Reference o ad una classy.... vedrò un pò....
No io basta Classy, soprattutto se in overvolt saranno come queste.
Reference + wubbo(o con un buon dissipatore custom, evga in primis) e via.
Giovamas
07-04-2016, 15:02
Beh, dipende...io gioco su un 48" Ultra HD, e per giocare in 4K senza cali di framerate oggi me la comprerei volentieri una Pascal 1080 Ti. :D
Ti capisco. Comunque appena la 1080ti esce entrerà subito nel mio case garantito al limone. Però visto che mi mi sono trovato bene voglio la custom MSI. Più di un anno quindi da attendere :)
mikael84
07-04-2016, 15:07
Scusate per il post lungo ma più sintetico di così non sono riuscito ad essere.
Chiedo al guru mikael84 e ad altri più esperti di me un po di pazienza per commentare le eventuali inesattezze.
Ricordo che sono uno di quelli che aveva previsto una presentazione dedicata al deep learning
ed al gpu computing e dubitavo di una apparizione così prossima delle x70-x80.
Anzi i miei dubbi vertono da sempre su come dallo stesso gp100 si possa derivare una fascia media
ed una alta senza fare salti mortali.
A questo riguardo, cioè derivazione di gpu geforce da gp100 consiglio questa lettura:
http://videocardz.com/58865/nvidia-1st-generation-pascal-speculation
Cito:
Big Pascal for gamers?
As of now, it’s unclear if NVIDIA is planning more GPUs. There are rumors that GP102 could be the GP100
for gamers, where NVLink and FP64 computing is not important.
According to Hardware.fr NVIDIA is currently not planning GeForce cards based on GP100.
The company refused to comment on the possibility of using Big Pascal in GeForce or Quadro series.
However HW.fr sources did confirm that there are currently no plans of bringing GP100 to GeForce series.
Sottolineo per esempio che in tutti i comunicati nvidia rigurdanti gp100 non c'è traccia del numero di rops.
Nemmeno nell'ultimo:
https://devblogs.nvidia.com/parallelforall/inside-pascal/
Dove/quante sono le ROPS ?
Ovviamente le Tesla non hanno nemmeno uscite video però perchè nessuna menzione riguardo all'architettura
Pascal in generale?
Facendo il punto della situazione (cito considerazioni che condivido raccolte in giro per i forum):
1- GP100 looks like a first NV's GPU which may never ever make it to a mainstream videocard market.
It's just seems too HPC focused with 1/2 of it's transistors spent on a completely pointless FP64 math.
A GeForce on such GPU would be a waste of silicon.
GP100 è un chip con 15,3mliardi di transistor perchè integra 5760 cuda engine totali.
3840 sono destinati alla FP32 ed al mixed FP16, praticamente ogni FP32 può eleborare 2 FP16 (4SMM però sono unità di ridondanza).
Quindi abbiamo praticamente 3 stadi(calcoli levando i ridondanti che andranno rivisti sulle unità decurtate.
1480 x 3584 (FM2) = 10,6TF (calcoli sopra gli 11TF tengono conto delle unità ridondanti
1480 x 3584 (FM2X2 FP16) = 21,2TF
1480 x 1920 (FMA2) = 5,4TF dopo aver tolto le unità ridondanti.
I cuda FP64 sono distaccati e vengono utilizzati in altri ambiti, ciascun FP64 non può essere integrato in FP32 ma levato oppure lasciato ma decurtato ad una percentuale (kepler era 1/24 sulle gaming geforce)
Attualmente c'è solo un modo per abbassare il die ed è levare le FP64, soluzione già introdotta con Kepler
SMX Kepler GK110
http://www.ozone3d.net/public/jegx/201305/nvidia-gk110-gpu-smx.jpg
http://www.ozone3d.net/public/jegx/201203/geforce-gtx680-kepler-smx.jpg
Come vedi basta levare la DP e lasciare inalterato tutto ma lo stesso GK110 integrava le FP64 complete ma decurtate per le gaming ad 1/24.
Da qui si specula su un chip GP102 che sia decurtato dalla FP64 ma attenzione non aumenterebbe nulla se non gli SMM che passerebbero da 96 elementi (128 F16 / 64 fp32 /32fp64) A 64 FP32 (128 fp16 mixed) e quindi risparmiare spazio sul die ma non puoi creare SMM da 96 in quanto l'architettura è pensata per il GCN, ti ritroveresti un modulo ordito sheduler dormiente e faresti come Kepler, che sugli ultimi titoli è legata a 340 registri (6 load store/6 sfu), perdendo gran parte delle risorse.
-----------
le Rops non sembrano disegnate ma ci sono anche se è dubbio l'accesso.
I dati sulle rops vengono trasferiti tramite un registro da 128 bit (tra SMM e rops) ed ogni SMM in Maxwell accedeva a 4 pixel, con Pascal l'accesso potrebbe essere limitato a soli 2 cicli e di conseguenza parliamo di 112 rops totali a clock molto più elevati o se fossero 4 cicli avremmo uno stravolgimento fronte rops.
A 2 cicli si avrebbero ben 165g.pixel effettivi 32bit, fattore interessante visto che una 980ti con 88 accessi riesce a malapena a garantire 100g.pixel
2- The thing of interest is what exactly GP104 will be in the end. If it's FP64 part is cut down then we can
expect 96 or even 128 SPs/SM from it. If it's 2/3rds of GP100 in SM number then this gives us a 40 SM part
(in 4 GPC units probably) ranging from 3840 to 5120 FP32 SPs which should give us something around 11,5-15,3TFlops
of FP32 performance @ 1,5GHz boost clocks - which is rather comically more than what GP100 is able to pull off.
GP100 > 3840 FP32 SPs + 1920 FP64 SPs, 720Gbps 16GB HBM2 - 23TFlops FP16 / 11,5TFlops FP32 / 5,76TFlops FP64
GP104 > 3840---5120 FP32 SPs, 384Gbps 8GB GDDR5X - 23TFlops FP16 / 11,5-15.3 TFlops FP32 / ??? FP64
mainstream Pascal, basis for x70 and x80 cards
Come detto su non puoi utilizzare gli FP64 per FP32 ma puoi decurtarli e lasciare i classici SMM da 64 fp32 e 128 fp16 per risparmiare spazio sul die.
I 300watt di TDP sono calcolati utilizzando varie parti del chip, utilizzare 5760 cuda porterebbe a seri problemi di resa.
Inoltre l'architettura pro GCN prevede l'utilizzo di 64 thread, snatureresti l'architettura e l'IPC interno.
Quando giochi usi gli FP32, gli FP64 no, quindi il tutto è rapportato ai vari utilizzi.
C'è inoltre un fattore positivo grazie all'utilizzo di tanti SMM.
Riesci ad avere molta più cache, che malgrado implichi latenze superiori e difficoltà a cercare il dato si riesce a processare contemporaneamente molti più dati.
Nel caso in cui il dato è di difficile reperibilità hai subito pronti i registri, che sono raddoppiati, quindi il lavoro per cuda è davvero migliorato pur mantenendo la stessa architettura.
3- La x80ti e Titan dovrebbero invece derivare da "gp102" ipotizzato con tutte le unità in fp32 e supporto quasi nullo in FP64
(oltre ovviamente alla ram hbm2 anzichè gddr5):
GP102 > 5760 FP32 SPs, 1000Gbps 16/32GB HBM2 - 34TFlops FP16 / 17TFlops FP32 / ??? FP64
Qua cominciamo a differire.
La Titan avrà la DP come Tesla.
La x80TI dipende, se continuano il progetto Kepler la mantengono al massimo laserano qualche SM, oppure creano un chip con 6 back-end con FP64 tolta ma sempre gli stessi cuda F32 ed fp16 rimangono. Non ti aggiungono SM in quanto non avresti resa per garantire a 5120 cuda di funzionare tranquillamente a quel TDP.
Ricordo che 3584 cuda sono 5120 cuda Maxwell con registri e cache migliorati, quindi il salto è notevole.
Con X80 che fai?
Sapendo di avere 4 canali da 64 bit (256bti), levi 2 GPC, levi la DP e ti ritrovi appieno con le caratteristiche di 2560 cuda su 1480 base (valore che equivarrebbe a 3584 cuda maxwell e da notare che il clock sarà ancor apiù elevato.
Se utilizzassimo invece un potente 320 bit, avremmo 5 canali ed il back-end sarebbe uno in meno.
Facendo così, manteniamo 40SMM FP32 su un TDP da 145watt su un 8pin
4- infine da questa slide
la considerazione seguente: sembra che gp100 abbia quelle 1920 unità non dedicate solo al FP64 ma general purpose.
Dalla slide sono capaci di elaborare al doppio delle velocità e quadruplo della velocità dimezzando ogni volta
la precisione.
Se fossero gestibili in maniera flessibile funzionando in fp32 quasi/come le 3840 dedicate al solo fp32 ?
Vi chiedo: le fp32 dedicate elaborano 1 per clock o sono più veloci ?
Le FP64 sono identiche alle FP32 ma sono molto assettate di energia.
Queste sono unità apposite utilizzate in certi ambiti.
1920 x 1920(FMA2) = 5,3TF.
Se utilizzi i game utilizzi le sole FP32, le altre non le usi.
Vengo quindi finalmente al punto: intravedo tre strade
a) gp104 > gp100 semplicemente castrata sulle fp64 con incremento delle fp32 ma fino a quante unità?
b) gp102 > gp100 riprogettata con diciamo al massimo 5760 unità in fp32
c) sorpresa > le 1920 unità in più di pascal sono general purpose: le possono declinare come vogliono
portando le fp32 da 3840 (x70,x80) e arrivando fino a 5760 (x80ti, nuova titan)
Se fosse vera la terza semplicemente GP102 non esisterebbe, in tal caso le x70-x80 sarebbero abbinate
a 4-8 gb gddr5 e con meno (quante?) unità fp32, mentre le x80ti e titan avrebbero 16-32 gb hbm2 e full unità fp32
mantenendo però una architettura comune.
[/QUOTE]
X80 come detto su sarà predisposta di 4 canali e 4 back-end, quind avrà 2560 cuda, salvo unità ridondanti + una laserazione per la x70.
la x80ti utilizzerà il medesimo chip tesla ma con DP ridotta a percentuale (sempre fisica però) con magari qualche laserazione.
GP102 è un chip ipotetico che darebbe alla luce 3584 cuda e SMM da soli 64 elementi FP32 (quindi niente FP64 da 32 elementi)
GP104 segue a ruota, con 2 back-end in meno e 2560 shader attivi (questo chip avrà la DP levata completamente.
GP104 sarà abbinato a ben 8gb (gddr5x micron o gddr, è ancora di difficile previsione ma secondo la predisposizione dle chip servirà una buona dose di ram, i 256 bit ddr5 sono già stretti.
GP100 o GP 102 gaming geforce sarà dotato di HBM2 16gb con clock ancora ignoti anche se alcune testate specificano i 700gb/s in quanto l'ampiezza di 1tf/s produrrebbe già tdp di 60watt solo via ram (utilizzando 16gb avremmo 4x4 stack).
AceGranger
07-04-2016, 15:35
http://www.zdnet.com/article/nvidia-goes-all-in-on-ai/
There are some 1,000 AI start-ups with $5 billion in funding. Amazon, IBM, Google and Microsoft are all rolling out AI as a service (and Salesforce just acquired MetaMind). And it is now starting to make its way into industries such as retail, life sciences and automotive. Huang argues that AI won't just be a big business, it will be part of every business. Whether that really happens over the next couple of years will depend in part on whether Nvidia can successfully deliver a hardware and software platform that makes deep learning faster, more efficient and easier.
Esempio, solo campo medico e solo nordamerica (raddoppio del mercato nei prossimi 2 anni):
http://www.grandviewresearch.com/industry-analysis/healthcare-cognitive-computing-market
North America healthcare cognitive computing market by technology, 2012-2022, (USD Million)
http://www.grandviewresearch.com/static/img/research/healthcare-cognitive-computing-market.png
si va bè, bisogna vedere quanto di quello poi si trasforma in GP100...
con il 70% in piu di TFLOPs rispetto alla Titan X e con i cc piu potenti non so quanto effettivamente serva fare un ulteriore chip con piu cc FP32.
maurilio968
07-04-2016, 15:49
... cut ...
Quindi se ho capito bene, ho fatto quasi tutte congetture errate.
La strada gaming è comunque quella di tagliare fp64 e non ci sono unità general purpose riusabili in game.
Quindi tertium non datur, o partono da gp100 tagliando fp64 o faranno gp102 con più fp32 base (la chiamo così per continuare a seguire i rumors).
In entrambi i casi devo correggere il tiro considerando anche gli aspetti energetici che tu evidenzi e che avevo colpevolmente tralasciato.
Grazie alla tua (come sempre) esauriente risposta ho un punto di riferimento per districarmi meglio nel valutare le varie ipotesi che si leggono in giro.
maurilio968
07-04-2016, 15:59
si va bè, bisogna vedere quanto di quello poi si trasforma in GP100...
il fatto che nvidia consideri fondamentale il mercato computing è stato Huang stesso a ribardli spesso. Anzi diciamo che ormai lo cita anche quando va ad ordinare un hot-dog.
con il 70% in piu di TFLOPs rispetto alla Titan X e con i cc piu potenti non so quanto effettivamente serva fare un ulteriore chip con piu cc FP32.
Questo se si limitano solo ad aumentare il numero di fp32.
Ma in gp102 potrebbero metterci anche altro, per esempio una implementazione di async compute per coprire il gap con amd.
Comunque sono illazioni derivanti dal fatto che nvidia ha ribadito che non prevede declinazioni geforce dalla gp100 e quindi ci si interroga se per la prima volta non abbiano fatto progetti separati tra computing e gaming.
killeragosta90
07-04-2016, 16:06
Scusate l'ignoranza e la domanda non troppo pertinente con gli ultimi post ma......alla fine, gli Asynchronous Compute Engines sono presenti su Pascal? Si sà per certo o è ancora un'incognita?
illidan2000
07-04-2016, 16:10
Comunque sono illazioni derivanti dal fatto che nvidia ha ribadito che non prevede declinazioni geforce dalla gp100 e quindi ci si interroga se per la prima volta non abbiano fatto progetti separati tra computing e gaming.
questo dà forza alla supposizione del gp102
mikael84
07-04-2016, 16:14
Quindi se ho capito bene, ho fatto quasi tutte congetture errate.
La strada gaming è comunque quella di tagliare fp64 e non ci sono unità general purpose riusabili in game.
Quindi tertium non datur, o partono da gp100 taglaindo fp64 o faranno gp102 con più fp32 base (la chiamo così per continuare a seguire i rumors).
In entrambi i casi devo correggere il tiro considerando anche gli aspetti energetici che tu evidenzi e che avevo colpevolmente tralasciato.
Grazie alla tua (come sempre) esauriente risposta ho un punto di riferimento per districarmi meglio nel valutare le varie ipotesi che si leggono in giro.
La possibilità di GP102 come sottolineava anche Hardwarefr. non è errata.
Pascal è un chip nato sopratutto per reperire alle FP64 escluse in Maxwell, chip con 4 sheduler e 4 unità da 32 FP32 non pienamente in linea con lo standard a 64 thread GCN. Kepler addirittura usa 6 ordito blocchi da 32, immagina lo spreco di risorse.
GP100 o GP102 non avrà Nvlink (ormai sembra scontato) e se davvero creeranno un'ipotetico GP102, nulla cambia internamente, anzi una cosa si.
Ogni SMM Pascal è configurato di 96 elementi, di cui 32 FP64, levando questi 32, puoi tranquillamente lasciare 6 GPC con 60 SMM da 64 elementi tutti in FP32 ed FP16.
Utilizzare più SMM per ora no, renderesti troppo complesso il chip e le rese vanno a farsi benedire.;)
Pascal è attualmente un semplice miglioramento di Maxwell, dove il grosso della potenza computazionale sarà data dai clock.
Qualcuno ha anche ipotizzato un GP102 con un 384bit viste le costose implementazioni HBM per il mercato gaming. Ipotesi che è stata ipotizzata anche da grandi del settore ma a questo punto non cambierebbe nulla perchè i GPC continuerebbero ad essere 6 per 60SMM (cambierebbe però la complessità del bus ed un PCB totalmente ridisegnato).
Questo non riguarderà la Titan che sarà full gp100 come tesla
Su GP102 ci sono troppe ipotesi anche lontane dalla realtà e per ora non le valuto perchè con quell'architettura devi tenere conto di tantissimi aspetti non solo prestazionali.
GP104 sembra ormai scritto, 40 SMM su 4 GPC e senza DP su un TDP di 145watt circa ma GP100 gaming è ancora soggetto a qualche cambiamento.
maurilio968
07-04-2016, 16:28
La possibilità di GP102 come sottolineava anche Hardwarefr. non è errata.
Pascal è un chip nato sopratutto per reperire alle FP64 escluse in Maxwell, chip con 4 sheduler e 4 unità da 32 FP32 non pienamente in linea con lo standard a 64 thread GCN. Kepler addirittura usa 6 ordito blocchi da 32, immagina lo spreco di risorse.
GP100 o GP102 non avrà Nvlink (ormai sembra scontato) e se davvero creeranno un'ipotetico GP102, nulla cambia internamente, anzi una cosa si.
Ogni SMM Pascal è configurato di 96 elementi, di cui 32 FP64, levando questi 32, puoi tranquillamente lasciare 6 GPC con 60 SMM da 64 elementi tutti in FP32 ed FP16.
Utilizzare più SMM per ora no, renderesti troppo complesso il chip e le rese vanno a farsi benedire.;)
Pascal è attualmente un semplice miglioramento di Maxwell, dove il grosso della potenza computazionale sarà data dai clock.
Qualcuno ha anche ipotizzato un GP102 con un 384bit viste le costose implementazioni HBM per il mercato gaming. Ipotesi che è stata ipotizzata anche da grandi del settore ma a questo punto non cambierebbe nulla perchè i GPC continuerebbero ad essere 6 per 60SMM (cambierebbe però la complessità del bus ed un PCB totalmente ridisegnato).
Questo non riguarderà la Titan che sarà full gp100 come tesla
In base a questo francamente non vedo la ragion d'essere di una eventuale gp102.
La ram hbm2 è già su gp100, passare a bus più complessi per quale motivo ?
Con la Titan poi che come dici tu sarebbe la top gaming con in più alcune delle feature pro ma sempre da gp100 full.
Quindi creerebbero una gp102 da cui non deriva la top gaming?
Speriamo di vedere qualcosa che chiarisca il tutto al computex.
MrBrillio
07-04-2016, 16:30
io vorrei prendere il corrispettivo Pascal di queste:
http://eu.evga.com/Products/Product.aspx?pn=06G-P4-1996-KR
dal loro sito :)
quindi, a sto giro VAT players, me li evito
Bravo. Io dopo le 2 ti mi sa che sarò in ibrido a vita.. Troppo comode.
Scusate per il post lungo ma più sintetico di così non sono riuscito ad essere.
Chiedo al guru mikael84 e ad altri più esperti di me un po di pazienza per commentare le eventuali inesattezze.
Ricordo che sono uno di quelli che aveva previsto una presentazione dedicata al deep learning
ed al gpu computing e dubitavo di una apparizione così prossima delle x70-x80.
Anzi i miei dubbi vertono da sempre su come dallo stesso gp100 si possa derivare una fascia media
ed una alta senza fare salti mortali.
A questo riguardo, cioè derivazione di gpu geforce da gp100 consiglio questa lettura:
http://videocardz.com/58865/nvidia-1st-generation-pascal-speculation
Cito:
Big Pascal for gamers?
As of now, it’s unclear if NVIDIA is planning more GPUs. There are rumors that GP102 could be the GP100
for gamers, where NVLink and FP64 computing is not important.
According to Hardware.fr NVIDIA is currently not planning GeForce cards based on GP100.
The company refused to comment on the possibility of using Big Pascal in GeForce or Quadro series.
However HW.fr sources did confirm that there are currently no plans of bringing GP100 to GeForce series.
Sottolineo per esempio che in tutti i comunicati nvidia rigurdanti gp100 non c'è traccia del numero di rops.
Nemmeno nell'ultimo:
https://devblogs.nvidia.com/parallelforall/inside-pascal/
Dove/quante sono le ROPS ?
Ovviamente le Tesla non hanno nemmeno uscite video però perchè nessuna menzione riguardo all'architettura
Pascal in generale?
Facendo il punto della situazione (cito considerazioni che condivido raccolte in giro per i forum):
1- GP100 looks like a first NV's GPU which may never ever make it to a mainstream videocard market.
It's just seems too HPC focused with 1/2 of it's transistors spent on a completely pointless FP64 math.
A GeForce on such GPU would be a waste of silicon.
2- The thing of interest is what exactly GP104 will be in the end. If it's FP64 part is cut down then we can
expect 96 or even 128 SPs/SM from it. If it's 2/3rds of GP100 in SM number then this gives us a 40 SM part
(in 4 GPC units probably) ranging from 3840 to 5120 FP32 SPs which should give us something around 11,5-15,3TFlops
of FP32 performance @ 1,5GHz boost clocks - which is rather comically more than what GP100 is able to pull off.
GP100 > 3840 FP32 SPs + 1920 FP64 SPs, 720Gbps 16GB HBM2 - 23TFlops FP16 / 11,5TFlops FP32 / 5,76TFlops FP64
GP104 > 3840---5120 FP32 SPs, 384Gbps 8GB GDDR5X - 23TFlops FP16 / 11,5-15.3 TFlops FP32 / ??? FP64
mainstream Pascal, basis for x70 and x80 cards
3- La x80ti e Titan dovrebbero invece derivare da "gp102" ipotizzato con tutte le unità in fp32 e supporto quasi nullo in FP64
(oltre ovviamente alla ram hbm2 anzichè gddr5):
GP102 > 5760 FP32 SPs, 1000Gbps 16/32GB HBM2 - 34TFlops FP16 / 17TFlops FP32 / ??? FP64
4- infine da questa slide
http://pics.computerbase.de/7/1/5/8/3/9-1080.3618039559.jpg
la considerazione seguente: sembra che gp100 abbia quelle 1920 unità non dedicate solo al FP64 ma general purpose.
Dalla slide sono capaci di elaborare al doppio delle velocità e quadruplo della velocità dimezzando ogni volta
la precisione.
Se fossero gestibili in maniera flessibile funzionando in fp32 quasi/come le 3840 dedicate al solo fp32 ?
Vi chiedo: le fp32 dedicate elaborano 1 per clock o sono più veloci ?
Vengo quindi finalmente al punto: intravedo tre strade
a) gp104 > gp100 semplicemente castrata sulle fp64 con incremento delle fp32 ma fino a quante unità?
b) gp102 > gp100 riprogettata con diciamo al massimo 5760 unità in fp32
c) sorpresa > le 1920 unità in più di pascal sono general purpose: le possono declinare come vogliono
portando le fp32 da 3840 (x70,x80) e arrivando fino a 5760 (x80ti, nuova titan)
Se fosse vera la terza semplicemente GP102 non esisterebbe, in tal caso le x70-x80 sarebbero abbinate
a 4-8 gb gddr5 e con meno (quante?) unità fp32, mentre le x80ti e titan avrebbero 16-32 gb hbm2 e full unità fp32
mantenendo però una architettura comune.
In tal caso resta da capire quanto pagano le eventuali 1920 unità general purpose usate in fp32 rispetto a quelle dedicate.
Secondo voi quale è la più probabile ?
Inviato dal mio SM-N910F utilizzando Tapatalk
mikael84
07-04-2016, 16:45
In base a questo francamente non vedo la ragion d'essere di una eventuale gp102.
La ram hbm2 è già su gp100, passare a bus più complessi per quale motivo ?
Con la Titan poi che come dici tu sarebbe la top gaming con in più alcune delle feature pro ma sempre da gp100 full.
Quindi creerebbero una gp102 da cui non deriva la top gaming?
Speriamo di vedere qualcosa che chiarisca il tutto al computex.
Esatto, sono speculazioni che per ora non trovano nessun fondamento a mio modo di vedere.
Le alternative rimangono 2:
1)gp 102 con DP levata e quindi full fp32/fp16 ma non nvlink (tanto le porte delle cpu non sono aperte)
2)gp100 full con alcune unità laserate come fu con Kepler in cui il gaming integrava anche la DP nel chip.
GP102 con un bus da 384 non trova nessun fondamento almeno da parte mia, visto che dovrebbero disegnare un pcb nuovo per le sole hbm.
Continuo a vedere il modello Kepler per ora come il più probabile
Scusate l'ignoranza e la domanda non troppo pertinente con gli ultimi post ma......alla fine, gli Asynchronous Compute Engines sono presenti su Pascal? Si sà per certo o è ancora un'incognita?
No Killer non ci sono ACE. Quello è il chip finale;)
CiccoMan
07-04-2016, 18:42
E io che ho scritto? :D
Infatti nel periodo delle maxwell il dollaro era molto forte rispetto all'euro, ora le cose vanno un pò meglio anche se non come diversi anni fà :)
Infatti la gtx780Ti se non sbaglio come riferimento di lancio era a $699 mentre la gtx980Ti a $649 ma al tempo delle kepler l'euro era più forte e infatti le prime si trovavano già al lancio sotto le 600€.
Poi al tutto appunto si aggiungono IVA e gli "arrotondamenti" che ho scritto sopra, da intendersi come eventuali furbatine e fluttuazioni. L'esempio sopra l'ho fatto in base al cambio di oggi ;)
Poi certo che i prezzi di riferimento in genere si riferiscono alle references...le custom aggiungono il loro plus variabile a seconda dei modelli. E poi ovviamente c'è il discorso cresta degli shop, vat players, ecc... cosa che crea un panorama di prezzi molto variegato come sempre :)
Auguriamoci che l'euro non crolli in vista dell'uscita delle pascal(o comunque non crolli mai) altrimenti sarebbero mazzate.
Hai ragione, il mio post è fraintendibile. Volevo solo rafforzare il tuo discorso ;)
killeragosta90
07-04-2016, 19:45
No Killer non ci sono ACE. Quello è il chip finale;)
Scusa mik non stò capendo più niente :confused: Per chip finale intendi Ti? C'è speranza per "Pascal Full"?
Scusa mik non stò capendo più niente :confused: Per chip finale intendi Ti? C'è speranza per "Pascal Full"?
Quello è pascal full. Della ti non si sa nulla se non speculazioni.
Inviato dal mio SM-G920F
mikael84
07-04-2016, 21:20
Scusa mik non stò capendo più niente :confused: Per chip finale intendi Ti? C'è speranza per "Pascal Full"?
No quello è Pascal full tesla. Ovvero l'architettura completa di Pascal in tutto il suo splendore. Tale chip potrebbe essere utilizzato completamente per la Titan.
La x80TI sarà basata sullo stesso chip, quindi avrà tutti e 6 i GPC sbloccati.
La x80 invece con 4 canali avrà 4 GPC e di conseguenza 2560cuda.
La x60 (se sarà a 128bit) avrà 2 canali da 1250 cuda.
GP100 ha 3584 full completi, quindi sulla TI potrebbero laserare qualche SM ma attenzione che 3584cc Pascal sono oltre 5120cc Maxwell.
Maxwell non aveva la DP, quindi erano tutti sbloccati, Pascal come Kepler no.
Ti ricordi la gloriosa classified 780ti che avevi? Bene era un chippone da 3820cuda , 960 erano FP64, 2880cuda erano FP32. Quindi il tuo chip aveva 3820cuda totali (così è Pascal).:)
illidan2000
07-04-2016, 21:40
No quello è Pascal full tesla. Ovvero l'architettura completa di Pascal in tutto il suo splendore. Tale chip potrebbe essere utilizzato completamente per la Titan.
La x80TI sarà basata sullo stesso chip, quindi avrà tutti e 6 i GPC sbloccati.
La x80 invece con 4 canali avrà 4 GPC e di conseguenza 2560cuda.
La x60 (se sarà a 128bit) avrà 2 canali da 1250 cuda.
GP100 ha 3584 full completi, quindi sulla TI potrebbero laserare qualche SM ma attenzione che 3584cc Pascal sono oltre 5120cc Maxwell.
Maxwell non aveva la DP, quindi erano tutti sbloccati, Pascal come Kepler no.
Ti ricordi la gloriosa classified 780ti che avevi? Bene era un chippone da 3820cuda , 960 erano FP64, 2880cuda erano FP32. Quindi il tuo chip aveva 3820cuda totali (così è Pascal).:)
e io che pensavo avesse solo 2880 cuda e stop... :)
mikael84
07-04-2016, 22:09
e io che pensavo avesse solo 2880 cuda e stop... :)
Si vedo che questa DP sta spiazzando a molti, in virtù anche di Maxwell completamente FP32:)
Kepler GK104 era full FP32, quindi 8 SMM da 192 suddivisi in 4 canali e 4 raster.
Kepler GK110 era simile, gli SMX ovviamente identici ma con l'aggiunta di 64cuda FP64.
Quindi i cuda sono stati portati da 192 a 256 per SMX collegati a 4/5 raster (192 rimangono FP32/64 FP64), il cui accesso era legato ad 8 pixel per clock.
La 780 TI aveva quindi 15 SMX:
15 x 192 =2880 FP32
15 x64 =960 FP64
cuda totali 3840.
La prima Titan invece era
14 x 192 =2688 FP32
14 x 64 = 896 FP64
Riepilogando:
Tesla GP100 ha 3820 FP32 (60x 64)
Tesla GP100 ha 1920 FP64 (60x32)
Se Maxwell avesse la DP 1/4 ogni SMM anzichè avere 128 cuda totali, avrebbe 96 FP32 e 16 FP64.
Quindi la Titan avrebbe 3072 cuda ma 2304 FP32 e 760 FP64
2304+768 (3072).:)
illidan2000
08-04-2016, 00:03
ehm.... ma visto che noi gamers della DP ce ne faremmo poco, ma una versione GP10x con solo FP32 non sarebbe fattibile ?
certo, è tutt'altro chip, me ne rendo conto
ma sarebbe più snello e forse più cloccabile
maurilio968
08-04-2016, 08:43
ehm.... ma visto che noi gamers della DP ce ne faremmo poco, ma una versione GP10x con solo FP32 non sarebbe fattibile ?
certo, è tutt'altro chip, me ne rendo conto
ma sarebbe più snello e forse più cloccabile
ne abbiamo parlato a lungo con mikael84, sarebbe il fantomatico gp102 ma se leggi gli ultimi post conclusivi
http://www.hwupgrade.it/forum/showpost.php?p=43552145&postcount=23223
e
http://www.hwupgrade.it/forum/showpost.php?p=43552211&postcount=23225
ti rendi conto che difficilmente avrebbe ragion d'essere.
In sostanza non ci sarebbero comunque più fp32 di gp100 a fronte di troppe altre complicazioni e costi.
Avrebbe senso solo se integrasse per esempio l'async compute engine ed altre features directx12 ma sarebbe una nuova architettura e quella è già in cantiere e la vedremo con Volta.
A questo giro abbiamo solo GP100 e derivate. Ma non è comunque poco,anzi.
Webflyer
08-04-2016, 09:32
Buongiorno a tutti!
Scusate non ho ben chiara una cosa: quindi le schede con il p100 arriveranno nel primo trimestre 2017?
Grazie :)
illidan2000
08-04-2016, 10:08
ne abbiamo parlato a lungo con mikael84, sarebbe il fantomatico gp102 ma se leggi gli ultimi post conclusivi
http://www.hwupgrade.it/forum/showpost.php?p=43552145&postcount=23223
e
http://www.hwupgrade.it/forum/showpost.php?p=43552211&postcount=23225
ti rendi conto che difficilmente avrebbe ragion d'essere.
In sostanza non ci sarebbero comunque più fp32 di gp100 a fronte di troppe altre complicazioni e costi.
Avrebbe senso solo se integrasse per esempio l'async compute engine ed altre features directx12 ma sarebbe una nuova architettura e quella è già in cantiere e la vedremo con Volta.
A questo giro abbiamo solo GP100 e derivate. Ma non è comunque poco,anzi.
seguendo questo "andazzo", quindi nVidia farebbe un'architettura con fp64+fp32 (kepler, pascal), e una solo fp32(maxwell, volta?).
Dove le schede gaming subiscono o la laserata o un blocco firmware/software
era così pure per le vecchissime 6800gt/ultra, sbloccabili a quadro, no?
Buongiorno a tutti!
Scusate non ho ben chiara una cosa: quindi le schede con il p100 arriveranno nel primo trimestre 2017?
Grazie :)
le tesla? a quanto ho capito io sì
paolox86
08-04-2016, 10:14
Buongiorno a tutti!
Scusate non ho ben chiara una cosa: quindi le schede con il p100 arriveranno nel primo trimestre 2017?
Grazie :)
Si, almeno è questo quello che ha detto il capoccia di Nvidia. Mi aspetto e spero che anche 1080ti/Titan siano rilasciate subito dopo
Webflyer
08-04-2016, 10:30
Si, almeno è questo quello che ha detto il capoccia di Nvidia. Mi aspetto e spero che anche 1080ti/Titan siano rilasciate subito dopo
Bene! Allora inizio a ragionare sul nuovo pc :D
Se nel frattempo uscisse un bel 27" 4k IPS 120Hz... :cool:
Ma ci vorrà anche una mb che la sfrutti al massimo immagino...
fireradeon
08-04-2016, 14:15
http://videocardz.com/58953/nvidia-pascal-geforce-1000-series-arriving-at-computex
non so se è stato postato.....
Arrow0309
08-04-2016, 14:26
Intanto sta uscendo la nuova ammiraglia dual Fiji Amd, da 1499 $ :asd:
http://www.techpowerup.com/221567/amd-radeon-pro-duo-market-availability-detailed.html
Amd ha trovato il momento giusto stavolta per far uscire la sua Pro Duo
killeragosta90
08-04-2016, 15:17
Quello è pascal full. Della ti non si sa nulla se non speculazioni.
Inviato dal mio SM-G920F
Quello è Pascal full in formato Tesla penso che mikael84 stia dicendo proprio questo, forse l'unica differenza sarà sulle fpu.
No quello è Pascal full tesla. Ovvero l'architettura completa di Pascal in tutto il suo splendore. Tale chip potrebbe essere utilizzato completamente per la Titan.
La x80TI sarà basata sullo stesso chip, quindi avrà tutti e 6 i GPC sbloccati.
La x80 invece con 4 canali avrà 4 GPC e di conseguenza 2560cuda.
La x60 (se sarà a 128bit) avrà 2 canali da 1250 cuda.
GP100 ha 3584 full completi, quindi sulla TI potrebbero laserare qualche SM ma attenzione che 3584cc Pascal sono oltre 5120cc Maxwell.
Maxwell non aveva la DP, quindi erano tutti sbloccati, Pascal come Kepler no.
Ti ricordi la gloriosa classified 780ti che avevi? Bene era un chippone da 3820cuda , 960 erano FP64, 2880cuda erano FP32. Quindi il tuo chip aveva 3820cuda totali (così è Pascal).:)
Che idiota che sono :doh: Avevo mal interpretato la risposta precedente!
Chiarissimo, ora ho capito :) Grazie!
Kingdemon
08-04-2016, 15:22
Secondo voi dalla presentazione, a sto punto fine maggio, quanto tempo passerà prima di avere le schede disponibili? Settembre/ottobre?
A sto punto vado di 970 nuova tanto volevo prendere The Division..
mikael84
08-04-2016, 15:27
ne abbiamo parlato a lungo con mikael84, sarebbe il fantomatico gp102 ma se leggi gli ultimi post conclusivi
http://www.hwupgrade.it/forum/showpost.php?p=43552145&postcount=23223
e
http://www.hwupgrade.it/forum/showpost.php?p=43552211&postcount=23225
ti rendi conto che difficilmente avrebbe ragion d'essere.
In sostanza non ci sarebbero comunque più fp32 di gp100 a fronte di troppe altre complicazioni e costi.
Avrebbe senso solo se integrasse per esempio l'async compute engine ed altre features directx12 ma sarebbe una nuova architettura e quella è già in cantiere e la vedremo con Volta.
A questo giro abbiamo solo GP100 e derivate. Ma non è comunque poco,anzi.
Anche Volta sarà completamente full DP ed integrarà una miglioria lato Nvlink. Per ora tale chip dovrebbe poter contare sul 75% di FP64 e FP32in più rispetto a Pascal e finalmente poter integrare l'ampiezza di 1tb/s totale (ma ancora è troppo presto per tale chip).
Rimane ancora da vedere come Nvidia imposterà le ram in modalità ddr5x (a meno di stravolgimenti, ma anche Polaris sembra dover utilizzare i moduli 20nm di micron).
Questi possono essere impostati tra i 10 ed i 14gigabit, i 16 purtroppo non sono ancora assicurati.
Con 14 gigabt la x80 dovrebbe raggiungere l'ampiezza di 448gb/s ma tale valore potrebbe anche essere tagliato per la x70 verso 12gb (ipotesi).
Speriamo che tale chip non perda 1gb per via di una partizione cache-MC tagliata anche se a questo giro i numeri sono molto elevati anche in seguito ad un'ipotetica decurtazione.
Sulle ddr5 normali le 8ghz sono ancora in alto mare, quindi rimangono i classici tagli per ora e sinceramente gli escludo a priori, considerando che già alcuni giochi richiedono più di 224gb/s e questo sarebbe un freno per un simile chip.
Crysis90
08-04-2016, 15:51
http://videocardz.com/58953/nvidia-pascal-geforce-1000-series-arriving-at-computex
non so se è stato postato.....
http://wccftech.com/nvidia-geforce-gtx-1080-1070-computex-2016/
Ormai sembra abbastanza sicuro che usciranno in concomitanza col Computex.
Le specifiche sono ancora solo rumors.
fireradeon
08-04-2016, 15:58
Secondo voi dalla presentazione, a sto punto fine maggio, quanto tempo passerà prima di avere le schede disponibili? Settembre/ottobre?
A sto punto vado di 970 nuova tanto volevo prendere The Division..
Se le presentano a giugno escono a fine giugno non credo poi rimandino l'uscita a 3 mesi. Ormai aspetta se devi cambiare scheda. Pure io ormai ci avevo rinunciato, ma a quanto pare (vista anche l'uscita di Polaris al Computex) nVidia le farà uscire a giugno. Speriamo sia vero.
mikael84
08-04-2016, 16:05
Secondo voi dalla presentazione, a sto punto fine maggio, quanto tempo passerà prima di avere le schede disponibili? Settembre/ottobre?
A sto punto vado di 970 nuova tanto volevo prendere The Division..
http://wccftech.com/nvidia-geforce-gtx-1080-1070-computex-2016/
illidan2000
08-04-2016, 16:27
http://wccftech.com/nvidia-geforce-gtx-1080-1070-computex-2016/
figo quel case. che roba è?
Bartsimpson
08-04-2016, 16:30
figo quel case. che roba è?
In Win Tou ;)
Giovamas
08-04-2016, 16:33
Se le presentano a giugno escono a fine giugno non credo poi rimandino l'uscita a 3 mesi. Ormai aspetta se devi cambiare scheda. Pure io ormai ci avevo rinunciato, ma a quanto pare (vista anche l'uscita di Polaris al Computex) nVidia le farà uscire a giugno. Speriamo sia vero.
Magari le reference. Le full custom le troverai da agosto/settembre imho
illidan2000
08-04-2016, 16:34
In Win Tou ;)
bello... ma non si trova in vendita....
Bartsimpson
08-04-2016, 16:38
Credo sia stato prodotto in pochi esemplari. Mi ricordo solo che costava sugli 800 dollari e superava i 20 kili di peso. In più mi sembra anche che fosse molto fragile, forse lo avranno creato apposta per le varie presentazioni e fiere
Kingdemon
08-04-2016, 17:14
Se le presentano a giugno escono a fine giugno non credo poi rimandino l'uscita a 3 mesi. Ormai aspetta se devi cambiare scheda. Pure io ormai ci avevo rinunciato, ma a quanto pare (vista anche l'uscita di Polaris al Computex) nVidia le farà uscire a giugno. Speriamo sia vero.
E' che ho visto la msi gaming a 289 con il codice di The Division e la scimmia ha preso il controllo.. certo che se a giugno esce una 1070 che va come una 980ti e costa 350 poi potrei arrabbiarmi.
Alla fine sono solo due mesi..
http://wccftech.com/nvidia-geforce-gtx-1080-1070-computex-2016/
NVIDIA GeForce GTX 1080 and GeForce GTX 1070 Rumored To Be In Full Production – Unveiling at Computex :sperem:
Magari le reference. Le full custom le troverai da agosto/settembre imho
Non è possibile che per alcune case, msi e giga in primis, escano direttamente le custom?
Crysis90
08-04-2016, 18:07
http://www.hwupgrade.it/news/skvideo/le-prime-schede-video-polaris-di-amd-al-debutto-al-computex-di-taipei_62006.html
http://www.tomshw.it/news/4500-gpu-nvidia-pascal-per-macinare-i-dati-dell-lhc-del-cern-75964
Non si può dire che queste nuove generazioni non attirino l'attenzione. ;)
Quello che ha messo molto a "disagio" è stata la re-introduzione della DP, cosa che alla fine era obbligata a rientrare sopratutto per l'ambito pro, ma considerando il 95% dell'utenza dei forum è interessata al lato gaming e di quei cc per il calcolo in doppia precisione non ce ne facciamo proprio niente (tanto per essere gentili) ha fatto storcere un pò il naso...che poi siano mostri di schede non c'è dubbio e il loro incremento anche lato gaming ci sarà sicuramente rispetto alla vecchia serie, ma chela potenza di calcolo in dp sia aumentata anche di "500 mila volte" rispetto a kepler o maxwel a quel 95% di utenza che le aspettava con ansia non glie ne frega proprio nulla...avrebbero invece sbavato letteralmente su un mostro da 5760cc fp32, che in gaming avrebbero fatto sfigurare un sli di titan X :eek:
paolox86
08-04-2016, 19:35
Una domanda niubba: ma la DP non è utile per i giochi perché i motori grafici non sfruttano queste unità di elaborazione? Potrebbe succedere in futuro, magari un fatidico unreal engine 5 possa trarne benefici?
Scusate se ho tirato bestemmioni tecnici... 😁
AceGranger
08-04-2016, 19:57
Una domanda niubba: ma la DP non è utile per i giochi perché i motori grafici non sfruttano queste unità di elaborazione? Potrebbe succedere in futuro, magari un fatidico unreal engine 5 possa trarne benefici?
Scusate se ho tirato bestemmioni tecnici... 😁
no, sono e saranno sempre completamente inutili.
detto molto molto semplicemente, con i calcoli DP ( doppia precisione o FP64 ) vengono usati numeri con piu decimali dopo la virgola; diciamo che fanno lo stesso calcolo che fai con l'FP32 ma molto piu preciso; sono utili soltanto quando è richiesta una precisione infinitesimale di una determinata elaborazione.
es. fluidodinamica, modelli matematici, calcolo scientifico, elaborazioni metereologiche etc. etc.
TigerTank
08-04-2016, 19:57
Quello che ha messo molto a "disagio" è stata la re-introduzione della DP, cosa che alla fine era obbligata a rientrare sopratutto per l'ambito pro, ma considerando il 95% dell'utenza dei forum è interessata al lato gaming e di quei cc per il calcolo in doppia precisione non ce ne facciamo proprio niente (tanto per essere gentili) ha fatto storcere un pò il naso...che poi siano mostri di schede non c'è dubbio e il loro incremento anche lato gaming ci sarà sicuramente rispetto alla vecchia serie, ma chela potenza di calcolo in dp sia aumentata anche di "500 mila volte" rispetto a kepler o maxwel a quel 95% di utenza che le aspettava con ansia non glie ne frega proprio nulla...avrebbero invece sbavato letteralmente su un mostro da 5760cc fp32, che in gaming avrebbero fatto sfigurare un sli di titan X :eek:
Si sa che devono andare per step prestazionali contenuti, devono superare la generazione precedente ma salvaguardare quella successiva(che sia volta o un eventuale pascal refresh). Principio del marketing :)
Obrigado
08-04-2016, 20:07
Tradotto dal cinese....
GP104 e GK104 dimensioni simili (290-300mm2), circa la metà grande come GP100, GM200 e transistor simili dovrebbero
3072SP, Waldo ipotizzato che credo abbia senso. 4GPCx8SMPx96SP, 128TMU, 64ROP
2560SP, dea della speculazione è anche molto ragionevole. 4GPCx10SMPx64SP, 128TMU, 64ROP
http://i.imgur.com/zMSzIIh.jpg
Secondo le informazioni che ho ottenuto, l'area centrale è determinato, combinazioni SMP, 64 SP un SMP abbastanza adattare i dati - più di Dio bastone
fonte: chip hell (https://www.chiphell.com/thread-1563086-1-1.html)
illidan2000
08-04-2016, 20:17
E' che ho visto la msi gaming a 289 con il codice di The Division e la scimmia ha preso il controllo.. certo che se a giugno esce una 1070 che va come una 980ti e costa 350 poi potrei arrabbiarmi.
Alla fine sono solo due mesi..
NVIDIA GeForce GTX 1080 and GeForce GTX 1070 Rumored To Be In Full Production – Unveiling at Computex :sperem:
Non è possibile che per alcune case, msi e giga in primis, escano direttamente le custom?
e va beh, te la rivendi a 220. Ci perdi 70 euro, ma te la sei goduta come un riccio per tutta l'estate.
due mesi per le reference... le custom prima di settembre è difficile
Più di dio bastone
:eek:
Vendo subito le azioni amd
Crysis90
08-04-2016, 20:19
Si sa che devono andare per step prestazionali contenuti, devono superare la generazione precedente ma salvaguardare quella successiva(che sia volta o un eventuale pascal refresh). Principio del marketing :)
Esatto. È la naturale evoluzione delle tecnologie in generale, non solo in ambito GPU. Anche i motori grafici si evolvono "a step", proprio perché viaggiano parallelamente.
Che poi tutta quella potenza in ambito supercomputer viene veramente e sicuramente sfruttata, mentre in ambito PC-gaming questi mostri sono frenati dal fatto che i motori grafici sono ormai TUTTI sviluppati in maniera "console-centrica": ad esempio, prendendo in esame l'attuale generazione Maxwell ad oggi sarà sfruttato si è no il 40/50% del vero potenziale di una 980 Ti. Lo stesso accadrà per Pascal, per via dei lunghi cicli vitali delle console che "fermano" nel tempo l'innovazione per tutto il loro ciclo vitale, finché ogni 6/7 anni non esce una nuova PlayStation od Xbox con hardware aggiornato e (di conseguenza) dei nuovi motori grafici che restringono nuovamente la forbice.
È un continuo tira e molla, dove noi PC gamers siamo sicuramente chi ne risente di più di questi periodi di stagnamento tecnologico ciclico.
Giovamas
08-04-2016, 20:50
Non è possibile che per alcune case, msi e giga in primis, escano direttamente le custom?
Difficile. Prima le reference poi le custom almeno quelle con PCB variato. Poi tutto può essere.
maxmix65
08-04-2016, 20:56
Più di dio bastone
:eek:
Vendo subito le azioni amd
Quando comanda Bastoni e tu hai solo denari hai perso :p
Kingdemon
08-04-2016, 21:05
e va beh, te la rivendi a 220. Ci perdi 70 euro, ma te la sei goduta come un riccio per tutta l'estate.
due mesi per le reference... le custom prima di settembre è difficile
Difficile. Prima le reference poi le custom almeno quelle con PCB variato. Poi tutto può essere.
A venderla a 220 la "perdita" sarebbe di soli 30 euro togliendo The Division.. :fagiano:
Se la sfruttassi fino a settembre sarebbe perfetto.
mikael84
08-04-2016, 21:36
Tradotto dal cinese....
GP104 e GK104 dimensioni simili (290-300mm2), circa la metà grande come GP100, GM200 e transistor simili dovrebbero
3072SP, Waldo ipotizzato che credo abbia senso. 4GPCx8SMPx96SP, 128TMU, 64ROP
2560SP, dea della speculazione è anche molto ragionevole. 4GPCx10SMPx64SP, 128TMU, 64ROP
Secondo le informazioni che ho ottenuto, l'area centrale è determinato, combinazioni SMP, 64 SP un SMP abbastanza adattare i dati - più di Dio bastone
fonte: chip hell (https://www.chiphell.com/thread-1563086-1-1.html)
Io delle volte rimango sbalordito.
"3072SP Waldo ipotizzato che credo abbia senso"
Waldo non ha capito nulla:read:
Con 4 canali di memoria sono 4 GPC, che ti danno uno schema così (scusate il disegno) ?
http://i65.tinypic.com/2evqf6d.png
Considerando pure che 4 sono ridondanti, praticamente non rimane differenza tra GP104 e GP100.
TMU: 128 su entrambe...e 2.:doh:
Se un SMM ha 4 TMU
3072 cuda su 48 SMM ne hanno 192
2560 cuda su 40 SMM ne hanno 160
2048 cuda su 32 SMM ne hanno 128
Io mi chiedo quanto possa limitare il PCI-E 2.0 con le nuove schede, secondo me al prossimo step dopo 5 anni di onorato servizio la mia cpu devo pensionarla :sofico:
fireradeon
08-04-2016, 21:53
Magari le reference. Le full custom le troverai da agosto/settembre imho
Ma io voglio la reference perché le voglio liquidare entrambe, quindi speriamo escano a giugno, se rimandano a settembre non mi conviene piú.
mikael84
08-04-2016, 22:06
Quello che ha messo molto a "disagio" è stata la re-introduzione della DP, cosa che alla fine era obbligata a rientrare sopratutto per l'ambito pro, ma considerando il 95% dell'utenza dei forum è interessata al lato gaming e di quei cc per il calcolo in doppia precisione non ce ne facciamo proprio niente (tanto per essere gentili) ha fatto storcere un pò il naso...che poi siano mostri di schede non c'è dubbio e il loro incremento anche lato gaming ci sarà sicuramente rispetto alla vecchia serie, ma chela potenza di calcolo in dp sia aumentata anche di "500 mila volte" rispetto a kepler o maxwel a quel 95% di utenza che le aspettava con ansia non glie ne frega proprio nulla...avrebbero invece sbavato letteralmente su un mostro da 5760cc fp32, che in gaming avrebbero fatto sfigurare un sli di titan X :eek:
Però un'altra cosa che ancora sfugge è che non si deve comparare più i cuda maxwell vs cuda Pascal.
Tralascio tutta la parte relativa alle istruzioni, scheduler e compagnia ma sappi che:
3584 cuda sono vicinissimi, quasi simili ai 5120 cuda Maxwell a cui vanno aggiunte tutte le migliore, seppur non grandi.
GP104 con 2560 cuda va quanto 3584cuda Maxwell più tutte le varie migliorie interne, senza contare che l'architettura così disposta a 64 thread spesso staccherà Maxwell in maniera ben più netta del classico 30% base.;)
Ciao ragazzi, a proposito del tormentone nuove gpu ...un consiglio....
ho acquistato gran parte dell hardware per il nuovo pc, sono indeciso a questo punto se puntare ad una 980ti oppure pazientare e aggiungere poi direttamente una pascal tipo x80....ammesso che esca per giugno...
Voi che dite? ?
grazie
Obrigado
08-04-2016, 22:49
qui si parla di annuncio pre-computex
http://www.tweaktown.com/news/51529/nvidia-reveal-next-gen-geforce-10k-video-cards-coming-weeks/index.html
mikael84
08-04-2016, 23:17
Per chi fosse interessato al chip X60, al 90% sarà così
http://videocardz.com/58973/nvidia-pascal-gp106-gpu-pictured-up-close
Tale chip quindi avrà 1280 cuda ed un bus a 128bit (2GPC/2 canali 64 bit).
1280 su un clock di 1550 boost base avrà circa 4TF.
Leggermente superiore alla 970 in potenza e architettura ma non sulla ram se non si utilizzano ddr5x
Free Gordon
09-04-2016, 00:15
E' che ho visto la msi gaming a 289 con il codice di The Division e la scimmia ha preso il controllo.. certo che se a giugno esce una 1070 che va come una 980ti e costa 350 poi potrei arrabbiarmi.
Alla fine sono solo due mesi..
Possibile che le 1080 vadano come o di più delle 980ti..ma cmq costeranno 500$, non di meno.. ;)
Free Gordon
09-04-2016, 00:47
GP104 con 2560 cuda va quanto 3584cuda Maxwell più tutte le varie migliorie interne, senza contare che l'architettura così disposta a 64 thread spesso staccherà Maxwell in maniera ben più netta del classico 30% base.;)
Questo da che cosa lo deduci?
1080 Q3-2016
Quindi la 1080Ti? Q1-2017?
fireradeon
09-04-2016, 07:35
Ciao ragazzi, a proposito del tormentone nuove gpu ...un consiglio....
ho acquistato gran parte dell hardware per il nuovo pc, sono indeciso a questo punto se puntare ad una 980ti oppure pazientare e aggiungere poi direttamente una pascal tipo x80....ammesso che esca per giugno...
Voi che dite? ?
grazie
Ormai aspetta, manca poco e alcuni rumor dicono che le presentano prima del computex quindi anche fine maggio. Se davvero sono in produzione di massa escono anche ad inizio giugno. Prendere ora la 980ti quando tra 1 mese te la tireranno dietro equivale a buttare i soldi 9
fireradeon
09-04-2016, 07:36
1080 Q3-2016
Quindi la 1080Ti? Q1-2017?
Se monta le hbm2 sembra ormai sicuro il 2017
MrBrillio
09-04-2016, 08:20
Possibile che le 1080 vadano come o di più delle 980ti..ma cmq costeranno 500$, non di meno.. ;)
Per me avete aspettative troppo alte..negli ultimi anni ho sempre visto incrementi marginali sia in casa amd che nvidia.. Inoltre negli ultimi anni si parla anche di efficienza e di consumi, mi pare che anche con la presentazione dell altro giorno nel confronto tra le 2 vga non si sia parlato esclusivamente di prestazioni. Poi felice di essere smentito alla presentazione delle nuove GeForce.
Inviato dal mio SM-N910F utilizzando Tapatalk
TigerTank
09-04-2016, 08:48
Possibile che le 1080 vadano come o di più delle 980ti..ma cmq costeranno 500$, non di meno.. ;)
$500? Magari.....secondo me le 1080 al lancio viaggeranno sui $600.
Le gtx980 erano state lanciate a $550 e non credo che queste nuove, forti di un nuovo PP e di nuove vram, costeranno meno...specialmente di questi tempi e soprattutto se anche le Polaris viaggeranno sulla stessa fascia di prezzi.
Ma è motivata tutta la corsa allo sbarazzarsi di Maxwell? Capisco le 970, schede sopravvalutate che stanno sbattendo su alcuni limiti progettuali, ma le 980ti ? Non credo che andranno in affanno, hanno anche RAM in abbondanza e probabilmente tireranno ancora un po.
Quello che mi preoccupa è piuttosto il silenzio continuo di nVidia sulle dx12...
Ma infatti resterà una singora scheda ancora per un bel pezzo, almeno fino a 2017 inoltrato, con l'arrivo delle nuove Ti...e anche oltre per chi non vuole necessariamente l'ultima novità :)
Più che altro dipenderà tutto da come andranno le ottimizzazioni pro architettura dei nuovi titoli e dei futuri drivers.
Poi certo, quando sta per uscire qualcosa di nuovo, in un batter di ciglia hype e marketing fanno in modo di trasformare l'hardware da qualcosa di eccezionale a qualcosa di ormai obsoleto e da cambiare.
capito,grazie delle risposte.
sinceramente vorrei valutare bene, perche comunque aspettare un po mi scoccia, non potendo giocare. la mia opzione all'inizio era prendere subito la 980ti e passare a pascal direttamente con il chippone nel 2017.....pero se gia x80 ha un incremento di 20-30% a giugno, bho.....
mikael84
09-04-2016, 10:47
Questo da che cosa lo deduci?
Semplicissimo calcolo aritmetico, clock per cuda (TF).
2560 cuda a 1480 boost base è uguale a 2816 a 1076 bb.
Ti faccio un'esempio di una fury:
1050-4096ST-64R equivale ad:
1325-5120ST-80R
1600-6144ST-96R
Tornando ad Nvidia e le Pascal per equiparare 2816 cuda di una TI ne bastano soli 2048 di Pascal.
Una possibile x70 laserata di 6SMM e 2176 cuda (molto possibile) a 1520 boost base è pari ai 3072 cuda di una Titan X più tutte le varie migliorie ai registri e predisposizione architetturale;)
GigoBoso
09-04-2016, 11:10
una scheda grafica nuova per avere successo deve anche costare il giusto, altrimenti è troppo facile dire che è buona.
Free Gordon
09-04-2016, 11:15
Semplicissimo calcolo aritmetico, clock per cuda (TF).
2560 cuda a 1480 boost base è uguale a 2816 a 1076 bb.
Ah ok, fai un calcolo in base al clock..
Ma i clock non li hanno ancora rivelati..siamo sicuri che saranno così alti?
Sinceramente spero di sì.. :oink:
Free Gordon
09-04-2016, 11:17
Per me avete aspettative troppo alte..negli ultimi anni ho sempre visto incrementi marginali sia in casa amd che nvidia.. Inoltre negli ultimi anni si parla anche di efficienza e di consumi, mi pare che anche con la presentazione dell altro giorno nel confronto tra le 2 vga non si sia parlato esclusivamente di prestazioni. Poi felice di essere smentito alla presentazione delle nuove GeForce.
Secondi me le aspettative alte in questo caso sono lecite, perchè i 28nm sono stati "eterni" e il salto coi 16FF sarà decisamente possente. ;)
AMD dichiara un perf/watt 2.5x...quindi è lecito aspettarselo anche per Nvidia.. o cmq simile no? ;)
Free Gordon
09-04-2016, 11:19
$500?
Sì, hai ragione. ;) Sono più 550-600.. :p
AceGranger
09-04-2016, 11:25
Ah ok, fai un calcolo in base al clock..
Ma i clock non li hanno ancora rivelati..siamo sicuri che saranno così alti?
Sinceramente spero di sì.. :oink:
Se hai i TFLOPs e il numero di Cuda Core hai matematicamente il Clock, non puoi sbagliare.
se non avesse quel clock, visto che sai i TFLOPs, dovrebbe avere un numero differente di Cuda Core.
mikael84
09-04-2016, 11:46
Ah ok, fai un calcolo in base al clock..
Ma i clock non li hanno ancora rivelati..siamo sicuri che saranno così alti?
Sinceramente spero di sì.. :oink:
Secondi me le aspettative alte in questo caso sono lecite, perchè i 28nm sono stati "eterni" e il salto coi 16FF sarà decisamente possente. ;)
AMD dichiara un perf/watt 2.5x...quindi è lecito aspettarselo anche per Nvidia.. o cmq simile no? ;)
Come diceva ACE sopra dopo che hai i numeri ti calcoli tutto e puoi fare qualsiasi rapporto.
In questo caso però Nvidia ha già dichiarato il base boost (che non è il reale ma solo un base minimo) che è di ben 1480mhz.
Nvidia ha tre stadi di boost
La 980TI ad esempio ha un base clock di 1ghz- un base boost minimo di 1076mhz (da cui viene ricavata la potenza aritmetica base) e il boost 2,0 in base a volt ed Asic.
Un'Asic infimo di 56,4% la fa lavorare a 1139mhz, un'Asic purissimo ed alto di ben 80+ a 1240.
In virtù di questo, un silicio ad alto Asic riesce a lavorare anche a +170mhz rispetto al base boost e quindi la potenza aritmetica aumenta di conseguenza.
Discorso diverso dai chip più piccoli che sicuramente avranno dei boost più elevati di base.
Stesso discorso per le ROPS-TMU, tutte unità che vengono moltiplicate dal clock.
Per me avete aspettative troppo alte..negli ultimi anni ho sempre visto incrementi marginali sia in casa amd che nvidia.. Inoltre negli ultimi anni si parla anche di efficienza e di consumi, mi pare che anche con la presentazione dell altro giorno nel confronto tra le 2 vga non si sia parlato esclusivamente di prestazioni. Poi felice di essere smentito alla presentazione delle nuove GeForce.
Inviato dal mio SM-N910F utilizzando Tapatalk
Conta che sono 5 anni che non assistiamo al salto di processo produttivo, quindi i miglioramenti da una serie all'altra non potevano che essere limitati. Ora col salto di pp molti si aspettano un aumento prestazionale decisamente più marcato rispetto agli ultimi anni
Inviato dal mio XT1092 utilizzando Tapatalk
fireradeon
09-04-2016, 12:04
Cmq i rumor parlano di LUGLIO come commercializzazione, io spero in un meta o fine giugno ma siamo li con le tempistiche ormai ci siamo. Sono curioso fi vedere i bench al computex.
Free Gordon
09-04-2016, 13:06
Se hai i TFLOPs e il numero di Cuda Core hai matematicamente il Clock, non puoi sbagliare.
se non avesse quel clock, visto che sai i TFLOPs, dovrebbe avere un numero differente di Cuda Core.
Sai cos'è...è che pensavo che anche i Tflops fossero stime. :D
Se hanno dichiarato i tflops ok. :)
Free Gordon
09-04-2016, 13:09
Come diceva ACE sopra dopo che hai i numeri ti calcoli tutto e puoi fare qualsiasi rapporto..
Sì sì...era che non avevo capito che avessero dichiatato anche i tflops, pensavo fossero stime da forum. :)
illidan2000
09-04-2016, 14:17
Come diceva ACE sopra dopo che hai i numeri ti calcoli tutto e puoi fare qualsiasi rapporto.
In questo caso però Nvidia ha già dichiarato il base boost (che non è il reale ma solo un base minimo) che è di ben 1480mhz.
Nvidia ha tre stadi di boost
La 980TI ad esempio ha un base clock di 1ghz- un base boost minimo di 1076mhz (da cui viene ricavata la potenza aritmetica base) e il boost 2,0 in base a volt ed Asic.
Un'Asic infimo di 56,4% la fa lavorare a 1139mhz, un'Asic purissimo ed alto di ben 80+ a 1240.
In virtù di questo, un silicio ad alto Asic riesce a lavorare anche a +170mhz rispetto al base boost e quindi la potenza aritmetica aumenta di conseguenza.
Discorso diverso dai chip più piccoli che sicuramente avranno dei boost più elevati di base.
Stesso discorso per le ROPS-TMU, tutte unità che vengono moltiplicate dal clock.
1480mhz a default?
se è così, avremo schede da 1700mhz in scioltezza. Distruggeranno maxwell
Spider-Mans
09-04-2016, 14:17
qui si parla di annuncio pre-computex
http://www.tweaktown.com/news/51529/nvidia-reveal-next-gen-geforce-10k-video-cards-coming-weeks/index.html
my body is ready :D
fraussantin
09-04-2016, 14:24
1480mhz a default?
se è così, avremo schede da 1700mhz in scioltezza. Distruggeranno maxwell
Il mondo va avanti.
mikael84
09-04-2016, 14:36
1480mhz a default?
se è così, avremo schede da 1700mhz in scioltezza. Distruggeranno maxwell
1480 boost base, il 2,0 sarà più alto e parliamo solo di un grosso GP100.
Con 2176 cuda Pascal si pareggiano i 2816 della 980ti ma GP104 avrà sicuramente clock ancora più elevati.
I clock sono stati fondamentali anche in Maxwell, dove tali schede giocavano con 250mhz oltre Kepler.
Thunder-74
09-04-2016, 14:36
meno male che noi abbiamo mikael :sofico:
comunque il discorso di MrBrillio può essere visto in questo modo: anche se potessero fare di più fin da subito mantengono i gradini per non bruciarsi i miglioramenti a medio-lungo termine, in più siamo nell'era "green è bello, più bello" e non è cosa da poco conto...
efficienza!!11!!1+++
quoto tutto... se io fossi un produttore con la disponibilità di una tecnologia che può far fare un balzo in avanti, la centellinerei per vendere ogni anno un prodotto "nuovo" al medesimo acquirente... non mi stupirei se i capoccioni di nvidia si fossero accordati con quelli di AMD, su questo aspetto.
Mi aspetto anche un ridotto margine di OC da parte dell'utente, voluto appositamente... speriamo di no...
paolox86
09-04-2016, 14:39
Nessuno di voi si prenderà il rischio di vendere la propria GTX 970/980/980ti prima del computex? Io penso proprio di sì, tanto male che vada ho molti arretrati su ps4 (più Uncharted 4) e non gioco moltissimo d'estate...
Inviato dal mio iPhone utilizzando Tapatalk
MrBrillio
09-04-2016, 15:05
Nessuno di voi si prenderà il rischio di vendere la propria GTX 970/980/980ti prima del computex? Io penso proprio di sì, tanto male che vada ho molti arretrati su ps4 (più Uncharted 4) e non gioco moltissimo d'estate...
Inviato dal mio iPhone utilizzando Tapatalk
Io sto pensando seriamente di sbarazzarmi di una delle 2 bimbe, il problema é che giocare con singola alla risoluzione che ho é faticoso. È anche vero che mi butterò sul vive non appena arriva, quindi potrei lasciare indietro i vari mattoni in favore della VR e racimolare qualche soldino in più con la vendita di una 980ti.
Inviato dal mio SM-N910F utilizzando Tapatalk
Marscorpion
09-04-2016, 15:17
Io avevo uno SLI di GTX980 e una l'ho venduta la settimana scorsa. Ora rimango con una sino alle nuove, almeno ho la scusa per giocare a giochi vecchi di 2 o 3 anni, che ho in arretrato; tipo ora sto giocando a Bioshock Infinite e con una gtx980 vola :D
athlon xp 2400
09-04-2016, 15:28
Quando usciranno le nuove si vedrà , per ora son solo rumors.. Meglio godersi la roba al momento che stare sempre a pensare al futuro :)
Io sto pensando seriamente di sbarazzarmi di una delle 2 bimbe, il problema é che giocare con singola alla risoluzione che ho é faticoso. È anche vero che mi butterò sul vive non appena arriva, quindi potrei lasciare indietro i vari mattoni in favore della VR e racimolare qualche soldino in più con la vendita di una 980ti.
Inviato dal mio SM-N910F utilizzando Tapatalk
Stesso problema!
Tu ora a che res sei?
Io sono a 4K e sono parecchio indietro, sto ancora finendo i giochi vecchi 2014 per passare ai 2015 ma una singola a 4K non mi basta
MrBrillio
09-04-2016, 15:44
Stesso problema!
Tu ora a che res sei?
Io sono a 4K e sono parecchio indietro, sto ancora finendo i giochi vecchi 2014 per passare ai 2015 ma una singola a 4K non mi basta
3440x1440 mi salva un po' il gsync, però Boh.. Cioè lo sbattimento deve valere la pena però. Anche se come te ho parecchia roba arretrata. Tu poi Luca sei messo peggio a 4k, io qualche fps in più dovrei farlo.
Per quello punto sul vive, almeno se dovesse prendermi quanto spero mi butto su quello piuttosto che sui mattonazzi che ho.
Inviato dal mio SM-N910F utilizzando Tapatalk
Athlon scusa col 21:9 come ti trovi?
Ma quel rapporto/res è supportato da tutti i giochi?
3440x1440 mi salva un po' il gsync, però Boh.. Cioè lo sbattimento deve valere la pena però. Anche se come te ho parecchia roba arretrata. Tu poi Luca sei messo peggio a 4k, io qualche fps in più dovrei farlo.
Per quello punto sul vive, almeno se dovesse prendermi quanto spero mi butto su quello piuttosto che sui mattonazzi che ho.
Inviato dal mio SM-N910F utilizzando Tapatalk
Premettendo che a me già da fastidio il normale 3D e non mi da neanche particolare immersione, sul Vr non ci punto quasi per nulla e poi con i titoli normali come si comporterebbe?
Ps: pure tu col 21:9, ti giro le stesse domande :D
MrBrillio
09-04-2016, 16:00
Non intendo giocarmi tutti i giochi sul visore ci mancherebbe altro. Dico solo per una questione di interesse.. Cioè che ogni volta che mi metto al PC preferisco farmi un giro in VR piuttosto che di buttarmi sull ennesimo mattone.. Anche se diciamocela tutta.. Da qui a qualche mese non usciranno giochi di spessore.
Inviato dal mio SM-N910F utilizzando Tapatalk
Thunder-74
09-04-2016, 16:07
Non intendo giocarmi tutti i giochi sul visore ci mancherebbe altro. Dico solo per una questione di interesse.. Cioè che ogni volta che mi metto al PC preferisco farmi un giro in VR piuttosto che di buttarmi sull ennesimo mattone.. Anche se diciamocela tutta.. Da qui a qualche mese non usciranno giochi di spessore.
Inviato dal mio SM-N910F utilizzando Tapatalk
Mr., non gli hai risposto in merito ai 21:9.... Lo faccio io... Da paura :D
MrBrillio
09-04-2016, 16:52
Confermo.. Miglior formato di sempre ahahha. Lato games é davvero spettacolare.
Inviato dal mio SM-N910F utilizzando Tapatalk
athlon xp 2400
09-04-2016, 17:01
Athlon scusa col 21:9 come ti trovi?
Ma quel rapporto/res è supportato da tutti i giochi?
Nn torni più indietro .. Ti manca visuale sennò lol
Parere personale...
Per chi ha uno SLI di 980ti se lo tenga stretto, anzi strettissimo. Qualunque risoluzione sia in gioco. Vi traghetterà senza problemi fino a quando uscirà la futura Titan/ti ... Le schede che usciranno a breve saranno le sostitute delle 980/970, non delle top di gamma. Per carità non leggo il futuro, ma credo che rispetto a queste ultime non ci sarà un divario superiore al 20% ... vale la pena un cambio di comparto video per il 20% in più?
A mio giudizio no ... Se devo spendere (e voglio e posso ovviamente) che almeno il miglioramento si avvicini al 100% ..
Le ultime schede insegnano ... chi ha comprato una ti al day one ha fatto un acquisto super duraturo e anche chi hai preso una titanX al day one (o uno SLI di entrambi i modelli) si ritrova nel case il top per quasi 2 anni.
Mr., non gli hai risposto in merito ai 21:9.... Lo faccio io... Da paura :D
Confermo.. Miglior formato di sempre ahahha. Lato games é davvero spettacolare.
Inviato dal mio SM-N910F utilizzando Tapatalk
Nn torni più indietro .. Ti manca visuale sennò lol
Certo che leggere sto forum e parlare con voi mi fa sempre male al portafoglio :muro:
Ora mi avete insinuato il tarlo di provarlo!
Ora sono costretto a convincere qualche amico/parente a cui piacciono le foto che ha bisogno di un Asus 4k :D
Però non mi avete risposto sullq compatibilità, come si comporta con i giochi vecchi!?
Kingdemon
09-04-2016, 18:30
In arrivo al Computex le schede che sostituiranno GeForce GTX 980 (http://www.hwupgrade.it/news/skvideo/in-arrivo-al-computex-le-schede-che-sostituiranno-geforce-gtx-980_62023.html)
Presentazione a fine maggio e commercializzazione da giugno con luglio mese indicato per avere disponibilità adeguata
Intanto la 970 che avevo addocchiato non è più in offerta quindi si aspetta :O
athlon xp 2400
09-04-2016, 18:47
Certo che leggere sto forum e parlare con voi mi fa sempre male al portafoglio :muro:
Ora mi avete insinuato il tarlo di provarlo!
Ora sono costretto a convincere qualche amico/parente a cui piacciono le foto che ha bisogno di un Asus 4k :D
Però non mi avete risposto sullq compatibilità, come si comporta con i giochi vecchi!?
Nn ho provato giochi vecchi ma so che ci sono programmi che adattano il formato senza problema
Dillo a me che per maxare tw3 a 3440 ho speso la via di casa lol
Nn ho provato giochi vecchi ma so che ci sono programmi che adattano il formato senza problema
Dillo a me che per maxare tw3 a 3440 ho speso la via di casa lol
Tw3 ad esempio lo prende al volo senza problemi?
Scusa ma tu non avevi già lo SLI prima ancora del monitor 21:9?
walter.caorle
09-04-2016, 19:48
Tw3 ad esempio lo prende al volo senza problemi?
Scusa ma tu non avevi già lo SLI prima ancora del monitor 21:9?
si, lo prende al volo, come QUASI tutti i giochi di ultima uscita poi dipende..ce ne sono del 2008 che la supportano nativamente e altri del 2015, come mgs v (e porting console...) che i 21:9 non se li caxxano proprio. comunque, come già detto, ci sono tweak e community (http://www.wsgf.org/) che MOLTO spesso risolvono il problema :)
athlon xp 2400
09-04-2016, 20:47
Tw3 ad esempio lo prende al volo senza problemi?
Scusa ma tu non avevi già lo SLI prima ancora del monitor 21:9?
No l'ho fatto dopo il 21:9
Tw3 è compatibile al100 per cento in game e con una modifica pure le cutscene
ma questo "nv-link" al posto del pci-e, dove sitrova?
Voglio dire: ma non esistono schede madri con questo slot!!
Mi aiutate a capire per favore?:help:
fireradeon
10-04-2016, 08:24
Pur considerando che ancora non si hanno dati ufficiali, secondo quello che si sa adesso puó essere che la 1080 in realtá vada meno di una 980ti? Non intendo delle stock ma delle custom come la G1, la Strix etc? Perché il vero paragone va fatto con queste secondo me.
Kingdemon
10-04-2016, 08:53
E poi ci saranno le custom anche delle 1080 ;)
Comunque dai rumors dovrebbe andare di più
Iceman69
10-04-2016, 08:57
Non credo proprio, sarebbe assurdo.
Secondo me la x80 andrà più di una 980ti mentre la x70 andrà all'incirca uguale. La differenza la farà lo sviluppo dei driver e se nvidia abbandona pure Maxwell
Se funziona come per il passaggio da GTX 700 a GTX 900 le nove x80 andranno più o meno come le 980ti, probabilmente in alcuni giochi andranno di più le vecchie 980ti e in altri andranno di più le nuove x80, in ogni caso la differenza sarà minima tra queste due schede, la x70 si posizionerà sotto, quindi nelle applicazioni più favorevoli alla nuova architettura andranno come le GTX 980ti e nelle altre andranno meno.
Per vedere un reale salto di prestazioni si dovrà aspettare la x80ti.
Difficile che nvidia, senza pressing da parte di AMD o altri concorrenti, immetta sul mercato schede molto più veloci di quelle della generazione precedente (anche se magari potrebbe), sarebbe un grosso errore in termini di strategia commerciale, secondo me, (felice di essere smentito, tutti speriamo in schede che vadano il 50% più della generazione precedente e non il solito 20/30%).
Kingdemon
10-04-2016, 09:03
Dipende secondo me anche da quanto andranno le rosse.. se amd riesce ad avere subito driver buoni e riduce i consumi nvidia dovrà fare un pò di più del 20-30% di aumento.
Pur considerando che ancora non si hanno dati ufficiali, secondo quello che si sa adesso puó essere che la 1080 in realtá vada meno di una 980ti? Non intendo delle stock ma delle custom come la G1, la Strix etc? Perché il vero paragone va fatto con queste secondo me.
direi decisamente improbabile, anche volendosi attenere ai "soli" calcoli di mikael un incremento tangibile dalla 980Ti (refrence to refrence o custom to custom) ci sarà sicuramente, e sono stime che non considerano il maggior ipc che potrebbe avere un cc pascal o comunque la miglior efficienza della nuova architettura in generale rispetto a maxwell (dato che non ci sono dati/riscontri diretti al riguardo). Il tutto considerando alla fine che la x80 non sarà neanche il modello che andrà a sostituire direttamente la 980Ti ma una scheda di fascia "inferiore"
fireradeon
10-04-2016, 12:55
Non credo proprio, sarebbe assurdo.
Secondo me la x80 andrà più di una 980ti mentre la x70 andrà all'incirca uguale. La differenza la farà lo sviluppo dei driver e se nvidia abbandona pure Maxwell
Siamo abituati ai numeri che dici perché è da anni che non si cambia processo produttivo. Qua si cambia ed il salto ci sarà, per questo secondo me è lecito aspettarsi qualcosa di più
direi decisamente improbabile, anche volendosi attenere ai "soli" calcoli di mikael un incremento tangibile dalla 980Ti (refrence to refrence o custom to custom) ci sarà sicuramente, e sono stime che non considerano il maggior ipc che potrebbe avere un cc pascal o comunque la miglior efficienza della nuova architettura in generale rispetto a maxwell (dato che non ci sono dati/riscontri diretti al riguardo). Il tutto considerando alla fine che la x80 non sarà neanche il modello che andrà a sostituire direttamente la 980Ti ma una scheda di fascia "inferiore"
Beh me lo auguro, sarebbe assurdo che la nuova "top" andasse quanto una 980Ti custom. A quel punto converrebbe sempre una 980Ti custom che con l'uscita delle 1080 scenderebbe di prezzo in modo sensibile.
mikael84
10-04-2016, 13:16
Pur considerando che ancora non si hanno dati ufficiali, secondo quello che si sa adesso puó essere che la 1080 in realtá vada meno di una 980ti? Non intendo delle stock ma delle custom come la G1, la Strix etc? Perché il vero paragone va fatto con queste secondo me.
2560 cuda Pascal sono 3584 cuda Maxwell (la 980ti ne ha 2816), solo che la prima ha un IPC migliorato, tra cui registri vari, quindi il distacco aumenta in base ai titoli.
Pascal è quindi più veloce sulle rops, sulle TMU e al 98% monterà ddr5x con banda maggiorata rispetto alla 980ti.
L'architettura Pascal è disposta in simil GCN con 64 thread e non spreca risorse come Maxwell su certe programmazioni.
Questo è un pro GCN
http://gamegpu.com/images/stories/Test_GPU/Action/Hitman_Beta/Hitman_%D0%B2_DirectX_12_/test/hit_2560.jpg
Considera che la x60 avrà metà risorse al 99% rispetto alla x80 ed avrà prestazioni in base al bus (ddr5/x) non lontane o pari ad una 290 (su tale gioco quindi potrebbe già questa avvicinarsi ad una 980ti).
Siamo di fronte ad un cambio PP, e siamo di fronte a clock di oltre 400mhz per cuda.
Immagina solo che la tua VGA (leggo dalla firma) è impostata in OC a 1467, GP104 avrà boost minimi più alti, immagina quello reale più l'OC;)
nico88desmo
10-04-2016, 13:36
Ciao a tutti,
stavo leggendo per bene l'architettura GP100: fra le varie cose che vedo, c'è un accenno ad una nuova funzione, però non è stata tanto approfondita: Compute Preemption.
Si accenna a tale funzionalità nell'ultima slide (link: http://on-demand.gputechconf.com/gtc/2016/presentation/S6176-Mark-Harris-Lars-Nyland.pdf)
da questo link http://www.pcgamer.com/nvidia-pascal-p100-architecture-deep-dive/, si dice:
...
Finally, there are other elements of the Pascal architecture that weren't really covered in much detail. One of these is particularly interesting, however: compute preemption. With Pascal, Nvidia has added the ability to preempt at the instruction level, so it's possible to switch tasks at any time to run a different workload. This could be beneficial for things like VR and asynchronous time warp, but it also allows better GPU sharing on servers and in the cloud.
...
Può essere che questa funzionalità sia per le famose Asynchronous Shaders delle DX12?
Obrigado
10-04-2016, 14:21
https://www.chiphell.com/thread-1562478-1-1.html
GP104 core info:
GTX1080 8G public board with 3x Displayport, 1 HDMI, 1 set of DVI, board consist of 2x 8PIN external power supply position ( not actually on the part )
Use GP104-400-A1. GPU has 2152 pins , front 8x GDDR5X chip have 190 pin
GTX1070 8G public board with 3x Displayport, 1 HDMI, 1 set of DVI, board consist of 2x 8PIN external power supply position ( not actually on the part )
Use GP104-200-A1. GPU has 2152 pins , front 8x GDDR5 chip has 170 pin
TigerTank
10-04-2016, 15:07
https://www.chiphell.com/thread-1562478-1-1.html
GP104 core info:
GTX1080 8G public board with 3x Displayport, 1 HDMI, 1 set of DVI, board consist of 2x 8PIN external power supply position ( not actually on the part )
Use GP104-400-A1. GPU has 2152 pins , front 8x GDDR5X chip have 190 pin
GTX1070 8G public board with 3x Displayport, 1 HDMI, 1 set of DVI, board consist of 2x 8PIN external power supply position ( not actually on the part )
Use GP104-200-A1. GPU has 2152 pins , front 8x GDDR5 chip has 170 pin
No dai, non voglio credere che mettano ancora le ddr5 classiche sulle 1070 :stordita:
E poi 2x8pin di alimentazione? Mica dovevano calare i consumi rispetto alle attuali?
2560 cuda Pascal sono 3584 cuda Maxwell (la 980ti ne ha 2816), solo che la prima ha un IPC migliorato, tra cui registri vari, quindi il distacco aumenta in base ai titoli.
Pascal è quindi più veloce sulle rops, sulle TMU e al 98% monterà ddr5x con banda maggiorata rispetto alla 980ti.
L'architettura Pascal è disposta in simil GCN con 64 thread e non spreca risorse come Maxwell su certe programmazioni.
Questo è un pro GCN
http://gamegpu.com/images/stories/Test_GPU/Action/Hitman_Beta/Hitman_%D0%B2_DirectX_12_/test/hit_2560.jpg
Considera che la x60 avrà metà risorse al 99% rispetto alla x80 ed avrà prestazioni in base al bus (ddr5/x) non lontane o pari ad una 290 (su tale gioco quindi potrebbe già questa avvicinarsi ad una 980ti).
Siamo di fronte ad un cambio PP, e siamo di fronte a clock di oltre 400mhz per cuda.
Immagina solo che la tua VGA (leggo dalla firma) è impostata in OC a 1467, GP104 avrà boost minimi più alti, immagina quello reale più l'OC;)
:mad: la smetti per favore di spargere banane?!
No dai, non voglio credere che mettano ancora le ddr5 classiche sulle 1070 :stordita:
E poi 2x8pin di alimentazione? Mica dovevano calare i consumi rispetto alle attuali?
Mica detto. Magari hanno mantenuto lo stesso consumo aumentando le prestazioni. Mi sa che siamo troppo invasati con questa continua ricerca del minor consumo a tutti i costi...
Inviato dal mio XT1092 utilizzando Tapatalk
Simedan1985
10-04-2016, 16:01
Quindi ormai è data quasi per certa la vendita delle schede entro la metà di giugno??
fraussantin
10-04-2016, 16:16
La 1070 con normali ddr5 non mi sembra appetibile però!
Ammesso che sia vero , almeno stavolta c'è una reale differenza tra la 1070 e la 1080.
Cmq sia la 980ti ha le ddr5 ed è una bomba.
Con una 1070 custom a 390 euro al pari della 980 ti non ti viene l'appetito?
TigerTank
10-04-2016, 16:17
Mica detto. Magari hanno mantenuto lo stesso consumo aumentando le prestazioni. Mi sa che siamo troppo invasati con questa continua ricerca del minor consumo a tutti i costi...
Ma che invasati...semplicemente 2x8pin mi sembra un tantinello esagerato come apporto energetico per delle references e oltretutto con GP104....di solito è una situazione da custom con alimentazione maggiorata :D
killeragosta90
10-04-2016, 16:21
https://www.chiphell.com/thread-1562478-1-1.html
GP104 core info:
GTX1080 8G public board with 3x Displayport, 1 HDMI, 1 set of DVI, board consist of 2x 8PIN external power supply position ( not actually on the part )
Use GP104-400-A1. GPU has 2152 pins , front 8x GDDR5X chip have 190 pin
GTX1070 8G public board with 3x Displayport, 1 HDMI, 1 set of DVI, board consist of 2x 8PIN external power supply position ( not actually on the part )
Use GP104-200-A1. GPU has 2152 pins , front 8x GDDR5 chip has 170 pin
Personalmente, non mi sembrano per nulla credibili quelli sulla 1070...
mikael84
10-04-2016, 16:29
Quindi dobbiamo venderle queste ti? No perché appena devi vendere la tua fammi un fischio che potrei farla accoppiare con la mia :sofico:
:mad: la smetti per favore di spargere banane?!
Nella mia analisi non mi sono accorto di aver tirato scimmie assurde :asd:
TigerTank
10-04-2016, 16:29
Personalmente, non mi sembrano per nulla credibili quelli sulla 1070...
Infatti...altrove comunque ho letto che si ipotizza o un 2x6pin o addirittura un singolo connettore 8pin.
Nella mia analisi non mi sono accorto di aver tirato scimmie assurde :asd:
Tu sei un inscimmiatore seriale, certi tuoi post sono l'equivalente dell'infilarsi in bocca un cucchiaino di nutella :sofico:
mikael84
10-04-2016, 16:38
No dai, non voglio credere che mettano ancora le ddr5 classiche sulle 1070 :stordita:
E poi 2x8pin di alimentazione? Mica dovevano calare i consumi rispetto alle attuali?
No no il TDP è di circa 145watt con un 8pin su un core da 290-310mm2:)
Questione x70 penso sia in ddr5x, da chiarire però se non levano una partizione cache come la 970 e se così fosse con le ddr5 sarebbe davvero mal messa.
Con banali 12 gigabit ddr5x dovrebbero raggiungere tranquillamente i 384 gb/s.
L'unica ipotesi sulle ddr5 sarebbe quella di utilizzare ram da 8ghz per garantire almeno 256 gb/s però senza tagli cache.
Fronte cuda penso che il taglio sarà di 384 cuda (1 blocco) e i totali rimarrebbero 2176 che sono equivalenti a 3072 maxwell
mikael84
10-04-2016, 16:43
Ammesso che sia vero , almeno stavolta c'è una reale differenza tra la 1070 e la 1080.
Cmq sia la 980ti ha le ddr5 ed è una bomba.
Con una 1070 custom a 390 euro al pari della 980 ti non ti viene l'appetito?
La 980ti ha le ddr5 ed è una bomba ma su un bus di 384bit, ho visto watch dogs superare i 270gb/s di banda, anche se la media è sui 200
non hai risposto ne si ne no alla mia domanda per una questione di sicurezza pubblica? :sofico:
Quale, quella relativa alla 980ti? Guarda che è un'opzione che valuto pure io.:sofico: :sofico:
Nella mia analisi non mi sono accorto di aver tirato scimmie assurde :asd:
Nooo ma quando mai, giusto un tantino :asd:
Ora non so se venderne una adesso :muro:
mikael84
10-04-2016, 16:52
Infatti...altrove comunque ho letto che si ipotizza o un 2x6pin o addirittura un singolo connettore 8pin.
Tu sei un inscimmiatore seriale, certi tuoi post sono l'equivalente dell'infilarsi in bocca un cucchiaino di nutella :sofico:
Io assolutamente no... però vedere classified vicine ai 2ghz in OC fa gola:Perfido:
E magari overvoltano pure.
in realtà mi riferivo sul fatto se vendere o meno le 980ti adesso :D cmq teniamoci in considerazione visto che ne abbiamo due uguali :sofico:
Onestamente non so neppure io che fare, con questa scheda mi vola davvero tutto. E' più gettonata l'ipotesi SLI anche per me e poi uber chippone ma anche 2 x70 mi stuzzicano non poco.:fagiano:
io non so perchè vendere una 980ti adesso lo si fa per prendere per forza una 1080 e non una 1070... poi tra qualche mese arriva la Ti e riparte la scimmia. Forse sarebbe opportuno aspettare direttamente la Ti, godersi la 980ti e venderla (seppur a meno prezzo) dopo! Poi se nvidia non la abbandona uno può pur sempre valutare uno sli..
Guarda la penso esattamente come te, pure io ora sono nel dubbio. Il fatto è che quando cominci a vedere i nuovi giochi sfruttare la nuova architettura cominci ad inscimmiarti e va a finire che svendi per comprare la nuova.
Anche il discorso ram, gli 8gb possono essere più appetibili ma se dopo sai che deve uscire un chip da 16gb hbm....
Bisogna vedere anche i prezzi delle x80, perchè se queste le piazzano sulle 600 euro, il chippone a 900-1000 euro soldi miei non ne vede
Io assolutamente no... però vedere classified vicine ai 2ghz in OC fa gola:Perfido:
E magari overvoltano pure.
Onestamente non so neppure io che fare, con questa scheda mi vola davvero tutto. E' più gettonata l'ipotesi SLI anche per me e poi uber chippone ma anche 2 x70 mi stuzzicano non poco.:fagiano:
Vola tutto a auella res :cry:
athlon xp 2400
10-04-2016, 17:57
Vola tutto a auella res :cry:
Quoto già a 3440 va in crisi :(
fireradeon
10-04-2016, 18:50
2560 cuda Pascal sono 3584 cuda Maxwell (la 980ti ne ha 2816), solo che la prima ha un IPC migliorato, tra cui registri vari, quindi il distacco aumenta in base ai titoli.
Pascal è quindi più veloce sulle rops, sulle TMU e al 98% monterà ddr5x con banda maggiorata rispetto alla 980ti.
L'architettura Pascal è disposta in simil GCN con 64 thread e non spreca risorse come Maxwell su certe programmazioni.
Questo è un pro GCN
http://gamegpu.com/images/stories/Test_GPU/Action/Hitman_Beta/Hitman_%D0%B2_DirectX_12_/test/hit_2560.jpg
Considera che la x60 avrà metà risorse al 99% rispetto alla x80 ed avrà prestazioni in base al bus (ddr5/x) non lontane o pari ad una 290 (su tale gioco quindi potrebbe già questa avvicinarsi ad una 980ti).
Siamo di fronte ad un cambio PP, e siamo di fronte a clock di oltre 400mhz per cuda.
Immagina solo che la tua VGA (leggo dalla firma) è impostata in OC a 1467, GP104 avrà boost minimi più alti, immagina quello reale più l'OC;)
Ok perfetto, cmq si ho quei clock io (e non l'ho nemmeno provata oltre a dire il vero perchè già così è perfetta). Ok allora, si aspetta e basta. Vediamo quanto vanno le 1080 e il prezzo tanto tra fine giugno inizio luglio si dovrebbero trovare e a me interessano le stock, questa volta temo che le custom usciranno in un periodo (l'estate) non molto propenso.
Oppuresi può tenere la 980ti fino alle nuove ti e poi prendere le 1080 a buon prezzo dagli scimmiati che la venderanno per passare alla ti nuova
Sì certo :asd:
"Se" si resiste fino alle 1080Ti secondo te poi si prende una 1080?
A me fa piacere che tu al dayone potrai permettersi i probabili 800/900 euro di una ti, io no!:O
Le 980ti ho aspettato non le ho prese al dayone
ma questo "nv-link" al posto del pci-e, dove sitrova?
Voglio dire: ma non esistono schede madri con questo slot!!
Mi aiutate a capire per favore?:help:
upp :help: :help: :help:
fraussantin
10-04-2016, 21:15
Nv link spero non arrivi mai a realizzarsi. Ci manca sono che nvidia personalizzi la pci in modo da non renderla compatibile con amd. Così non solo si lega il cliente con i monitor , ma anche con le mobo.
Nv link spero non arrivi mai a realizzarsi. Ci manca sono che nvidia personalizzi la pci in modo da non renderla compatibile con amd. Così non solo si lega il cliente con i monitor , ma anche con le mobo.
ma pascal non è già nv-link?:mbe:
fraussantin
10-04-2016, 21:23
ma pascal non è già nv-link?:mbe:
Ma riguarderà la tesla penso.
Ma riguarderà la tesla penso.
C'è anche il Power 9 di IBM che è compatibile on tale standard, per cui direi che è già reale...
mikael84
10-04-2016, 21:57
ma questo "nv-link" al posto del pci-e, dove sitrova?
Voglio dire: ma non esistono schede madri con questo slot!!
Mi aiutate a capire per favore?:help:
Per abilitare completamente Nvlink servono 3 porte, la CPU, GPU e GPU.
Tesla GP100 ha abilitato Nvlink, quindi le schede hanno le porte aperte ma questo standard non riguarderà le schede gaming.
Nvlink è utile sopratutto in SLI (a maggior ragione su più schede) perchè con 4 canali permette di trasferire sino 64gb(80gb prima dell'OV) contro i 12gb di un pci e 3,0.
Ecco Nvlink
http://cdn.videocardz.com/1/2016/04/GP100-Block-Diagram.png
Per abilitare completamente Nvlink servono 3 porte, la CPU, GPU e GPU.
Tesla GP100 ha abilitato Nvlink, quindi le schede hanno le porte aperte ma questo standard non riguarderà le schede gaming.
Nvlink è utile sopratutto in SLI (a maggior ragione su più schede) perchè con 4 canali permette di trasferire sino 64gb(80gb prima dell'OV) contro i 12gb di un pci e 3,0.
Ecco Nvlink
http://cdn.videocardz.com/1/2016/04/GP100-Block-Diagram.png
Capito, grazie 1000 del chiarimento, gentilissimo :) :) :)
Giovamas
11-04-2016, 07:41
Oppuresi può tenere la 980ti fino alle nuove ti e poi prendere le 1080 a buon prezzo dagli scimmiati che la venderanno per passare alla ti nuova
Buonanotte.. :) discorso sensato ma che nessuno seguirà qua (me compreso LoL)
illidan2000
11-04-2016, 09:15
Buonanotte.. :) discorso sensato ma che nessuno seguirà qua (me compreso LoL)
mah, tenere le 980ti, con una 1070 che va uguale, ha 8gb, e magari costa pure meno, potrebbe non avere nemmeno senso.... Senza contare supporto driver migliore
Legolas84
11-04-2016, 09:36
Nv link spero non arrivi mai a realizzarsi. Ci manca sono che nvidia personalizzi la pci in modo da non renderla compatibile con amd. Così non solo si lega il cliente con i monitor , ma anche con le mobo.
NvLink è già bello che pronto ma non riguarda il nostro mercato.
Uff, che scimmia questa attesa... che poi è anche meglio perchè se escono a giugno o più in la non dovrò svuotare l'impianto un sacco di volte ma farò un lavoro unico....
TigerTank
11-04-2016, 10:03
mah, tenere le 980ti, con una 1070 che va uguale, ha 8gb, e magari costa pure meno, potrebbe non avere nemmeno senso.... Senza contare supporto driver migliore
Secondo me se parliamo di upgrade prestazionale nemmeno passare da 980Ti a 1070 ha tanto senso, così come ne aveva poco passare da gtx780Ti a gtx970.
Imho se si ha una gtx980Ti le opzioni migliori sono: 1)SLi di 1070, 2)1080, 3)seconda Ti usata e upgrade alle TI pascal.
Circa gli 8GB bisognerà vedere...magari la castratura rispetto alla 1080 la porterà ad essere 6+2 :D
illidan2000
11-04-2016, 10:04
Secondo me se parliamo di upgrade prestazionale nemmeno passare da 980Ti a 1070 ha tanto senso, così come ne aveva poco passare da gtx780Ti a gtx970.
Imho se si ha una gtx980Ti le opzioni migliori sono: 1)SLi di 1070, 2)1080, 3)seconda Ti usata e upgrade alle TI pascal.
Circa gli 8GB bisognerà vedere...magari la castratura rispetto alla 1080 la porterà ad essere 6+2 :D
partendo dal presupposto che la 1070 possa andare il 15% in più di una 980ti, vendendola un mese prima del lancio, ha senso il cambio secondo me! Ci vai a pari come soldi
non solo per i 2gb, ma anche per consumi/calore sicuramente inferiori, che apre sicuramente un ventaglio SLI più agevole
6+2 (magari sarà più ragionevolmente 7+1) è sempre meglio che 6+0 !
Legolas84
11-04-2016, 10:07
partendo dal presupposto che la 1070 possa andare il 15% in più di una 980ti, vendendola un mese prima del lancio, ha senso il cambio secondo me! Ci vai a pari come soldi
non solo per i 2gb, ma anche per consumi/calore sicuramente inferiori, che apre sicuramente un ventaglio SLI più agevole
6+2 (magari sarà più ragionevolmente 7+1) è sempre meglio che 6+0 !
illy sta volta fai come me.... SLI di 1080 all'uscita e poi ci vediamo con VOLTA ;)
Giovamas
11-04-2016, 10:10
Secondo me se parliamo di upgrade prestazionale nemmeno passare da 980Ti a 1070 ha tanto senso, così come ne aveva poco passare da gtx780Ti a gtx970.
Imho se si ha una gtx980Ti le opzioni migliori sono: 1)SLi di 1070, 2)1080, 3)seconda Ti usata e upgrade alle TI pascal.
Circa gli 8GB bisognerà vedere...magari la castratura rispetto alla 1080 la porterà ad essere 6+2 :D
No infatti hai ragione anche se la terza opzione non esiste per me :) Imho la cosa forse che avrebbe un po' di senso a parte la scimmia è quel che hai fatto tu: 780Ti -> 980 -> 980ti pescando buone occasioni e spendendo il giusto. Rivendere la 980ti tra un anno quando uscirà la 1080ti non sarà semplice secondo me.
mikael84
11-04-2016, 10:25
Secondo me se parliamo di upgrade prestazionale nemmeno passare da 980Ti a 1070 ha tanto senso, così come ne aveva poco passare da gtx780Ti a gtx970.
Imho se si ha una gtx980Ti le opzioni migliori sono: 1)SLi di 1070, 2)1080, 3)seconda Ti usata e upgrade alle TI pascal.
Circa gli 8GB bisognerà vedere...magari la castratura rispetto alla 1080 la porterà ad essere 6+2 :D
Oppure 5+3 o 4+4, povera x70:D
Cmq al massimo si fa 7+1, per 6gb levano direttamente un GPC ed un canale ram (quindi diventa 192bit).:)
partendo dal presupposto che la 1070 possa andare il 15% in più di una 980ti, vendendola un mese prima del lancio, ha senso il cambio secondo me! Ci vai a pari come soldi
non solo per i 2gb, ma anche per consumi/calore sicuramente inferiori, che apre sicuramente un ventaglio SLI più agevole
6+2 (magari sarà più ragionevolmente 7+1) è sempre meglio che 6+0 !
Infatti, una x70 è sempre più conveniente anche per chi decide di tirare sino al chippone, male andando si hanno 7gb ed un chip con architettura rivista che potrebbe beneficiarne, proprio come fu per 780-970.
TigerTank
11-04-2016, 11:38
partendo dal presupposto che la 1070 possa andare il 15% in più di una 980ti, vendendola un mese prima del lancio, ha senso il cambio secondo me! Ci vai a pari come soldi
non solo per i 2gb, ma anche per consumi/calore sicuramente inferiori, che apre sicuramente un ventaglio SLI più agevole
6+2 (magari sarà più ragionevolmente 7+1) è sempre meglio che 6+0 !
Eheheheh quella era una battuta, massimo credo anch'io 7+1 come ha scritto anche Mike. :D
Per il resto si vedrà sia a livello di prezzi che di prestazioni effettive. Io vedo difficile che parta con un 15% in più, vorrebbe dire che va più di uno sli di gtx970 e a quel punto la 1080 o è un mostro o stacca di un nulla. Secondo me andrà un pò meno della Ti per poi magari superarla con i titoli pro-pascal e relative ottimizzazioni via drivers. E la 1080 probabilmente un 20% in più della Ti.
Vedremo all'atto pratico :)
Circa la strategia di vendita io non sono mai riuscito ad arrancare vendendo in anticipo, compro la nuova e rivendo la vecchia dopo essermi assicurato del buon funzionamento della nuova :D
No infatti hai ragione anche se la terza opzione non esiste per me :) Imho la cosa forse che avrebbe un po' di senso a parte la scimmia è quel che hai fatto tu: 780Ti -> 980 -> 980ti pescando buone occasioni e spendendo il giusto. Rivendere la 980ti tra un anno quando uscirà la 1080ti non sarà semplice secondo me.
Sì infatti è un'opzione perchè sinceramente preferisco la vga singola.
Oppure 5+3 o 4+4, povera x70:D
Cmq al massimo si fa 7+1, per 6gb levano direttamente un GPC ed un canale ram (quindi diventa 192bit).:)
Infatti, una x70 è sempre più conveniente anche per chi decide di tirare sino al chippone, male andando si hanno 7gb ed un chip con architettura rivista che potrebbe beneficiarne, proprio come fu per 780-970.
Eheheh infatti :ciapet:
Resta da vedere il lato pratico.
Sir Alamon
11-04-2016, 13:22
http://www.nexthardware.com/mobile/news/nvidia-gp104-confermata-ma-solo-con-gddr5-7447/
io me tengo strette le 2x980ti :asd:
Arrow0309
11-04-2016, 13:38
http://www.nexthardware.com/mobile/news/nvidia-gp104-confermata-ma-solo-con-gddr5-7447/
io me tengo strette le 2x980ti :asd:
Come minimo la x70 le monterà, anch'io me sto fa una 980 Ti G1 proprio sta sett. :cool:
mikael84
11-04-2016, 13:46
http://www.nexthardware.com/mobile/news/nvidia-gp104-confermata-ma-solo-con-gddr5-7447/
io me tengo strette le 2x980ti :asd:
La questione ram è ancora da vedere ma c'è tutt'ora una seria probabilità che GP104 possa partire con ddr5 base.
Le Samsung K4G80325FB-HC25 possono operare a 8ghz e quindi garantire un bus di almeno 256 gb/s che a meno di ulteriori migliorie sul delta color (minime parliamo del 25% medio) cominciano ad essere pochini, sopratutto su schede che saranno abbinate anche a pannelli sopra i 1440p, dove già alcuni giochi usano più banda.
Anche elpida dovrebbe aver pronte le 8ghz ma a questo punto le ddr5x a qualcuno dovranno pur venderle.
Se tali ram le usi (esempio su x60) su un bus da 128bit raggiunge l'ampiezza di un bus a 256 bit, il che mi pare tutto improbabile.
Il chippone è programmato per gestire un'ampiezza di oltre 700gb/s.
Legolas84
11-04-2016, 13:50
A parte che sono solo rumors.... ma in ogni caso indipendentemente dal tipo di memoria usato GP104 andrà di più della 980Ti costando molto probabilmente meno (stessa fascia di GM204), oltre ad avere una architettura più ottimizzata e il nuovo processo produttivo.
Prendere ora una 980Ti non ha senso. Se proprio uno vuole un GM200 non è meglio aspettare comunque GP104 e prenderlo a un costo nettamente inferiore grazie alla svalutazione?
Giovamas
11-04-2016, 13:55
E lo so bene....:sofico:
Cmq la 1080 con gddr5 risulta meno appetibile. Io aspetto 2 settimane prima del computex e poi vedo cosa fare anche considerando polaris
:D già. Io sicuramente non vendo prima che sia uscita, anche perchè ho titoli interessanti da giocare. Aspetterò le prime custom (MSI o EVGA sono i brand che prendo in considerazione) e ne valuterò la fattibilità.
Sorvolando sul vendere o non vendere :cry: :cry:
Ma Vulkan che sarebbe?
Goofy Goober
11-04-2016, 14:02
che porcheria.
sembra di vedere le gpu di fascia bassa dove si passa da avere lo stesso chip su 2gb di DDR2 a 512mb di GDDR3 :doh:
che se le inficchino nel :ciapet: le versioni "premmmium".
termine odioso.
mikael84
11-04-2016, 14:14
che porcheria.
sembra di vedere le gpu di fascia bassa dove si passa da avere lo stesso chip su 2gb di DDR2 a 512mb di GDDR3 :doh:
che se le inficchino nel :ciapet: le versioni "premmmium".
termine odioso.
Alla fine va a finire che il chippone gaming lo fanno in versione GP102 con ddr5x e bus da 384bit con 6gpc, lasciando le costose hbm2 ed i vari nvlink alle sole versioni pro, tra cui anche la Titan (anche se parliamo sempre di geforce).
Se fosse così GP102 avrà 12gb ma sempre bus gigante
illidan2000
11-04-2016, 14:29
non li vedo tra i beta, né nei whql
http://www.nvidia.it/Download/Find.aspx?lang=it
Arrow0309
11-04-2016, 14:35
no ragazzi ma vuoi mettere la barbone edition con gddr5 normale? loool
cmq la verità è che già qua dentro prude un pò il ... a tutti, le scimmie urlano c'è caos... a me l'unica cosa che spingerebbe a disfarmi della 980ti è solo il supporto driver e quindi se viene abbandonata in favore di pascal...
tra l'altro nvidia ha tirato fuori un nuovo driver 364.91 di cui questo è il changelog
non è il primo driver "specifico" per vulkan (nvidia sembrerebbe spingere su vulkan, seppur di fatto vulkan è mantle 2.0), mentre è l'ennesimo driver dove si ignorano ancora una volta le dx12.
Quello che vorrei capire, se mikael84 ci illumina ulteriormente, è se quell'add support for asyncrhonous transfer queue sia la stessa cosa degli ACE su dx12 e se quindi abbiamo speranze di averli anche sulla 980ti (seppur con artefizi più o meno hw o sw visto che la 980ti di fatto non ha gli ACE come su GCN) oppure se dobbiamo metterci una pietra sopra e le 980ti delle dx12 hanno solo il nome (e quindi a quel punto potrei avere un motivo in più per venderla).
Vorresti dire che la 980 ti diventerà un cesso in sia le dx12 che Vulcan?
fraussantin
11-04-2016, 14:39
Vorresti dire che la 980 ti diventerà un cesso in sia le dx12 che Vulcan?
Il timore c'è.
Cmq usciranno prima le 1080ti che dei giochi decenti in vulkan o dx12
fraussantin
11-04-2016, 14:43
Sorvolando sul vendere o non vendere :cry: :cry:
Ma Vulkan che sarebbe?
Una alternativa multipiattaforma alle dx12.
Un po quello che erano le openglide.
E sono sviluppate sotto l'ombrello rosso ( come anche le dx12)
illidan2000
11-04-2016, 14:45
io non credo proprio che la 980ti diventerà un ferro vecchio, è anche vero che un acquisto adesso a qualche mese dal lancio delle pascal sarebbe un po' forzato soprattutto per il prezzo che ha...
chi già ce l'ha qualunque cosa faccia non sbaglia, ma io la terrei, chi non ce l'ha aspetterei pascal direttamente
...aspè, ho commentato troppo seriamente, manca la trollata :D
altrimenti compratevi una fury x :sbonk:
:flower:
a proposito, polaris quando esce? (nessun troll o ironia, non lo so proprio)
fraussantin
11-04-2016, 14:46
a proposito, polaris quando esce? (nessun troll o ironia, non lo so proprio)
Non lo sa nessuno , ma si presume settembre.
mikael84
11-04-2016, 14:49
no ragazzi ma vuoi mettere la barbone edition con gddr5 normale? loool
cmq la verità è che già qua dentro prude un pò il ... a tutti, le scimmie urlano c'è caos... a me l'unica cosa che spingerebbe a disfarmi della 980ti è solo il supporto driver e quindi se viene abbandonata in favore di pascal...
tra l'altro nvidia ha tirato fuori un nuovo driver 364.91 di cui questo è il changelog
non è il primo driver "specifico" per vulkan (nvidia sembrerebbe spingere su vulkan, seppur di fatto vulkan è mantle 2.0), mentre è l'ennesimo driver dove si ignorano ancora una volta le dx12.
Quello che vorrei capire, se mikael84 ci illumina ulteriormente, è se quell'add support for asyncrhonous transfer queue sia la stessa cosa degli ACE su dx12 e se quindi abbiamo speranze di averli anche sulla 980ti (seppur con artefizi più o meno hw o sw visto che la 980ti di fatto non ha gli ACE come su GCN) oppure se dobbiamo metterci una pietra sopra e le 980ti delle dx12 hanno solo il nome (e quindi a quel punto potrei avere un motivo in più per venderla).
Non ti posso illuminare perchè ancora non si sa nulla su questo ma dovrebbe essere un sistema di code differente, magari funziona decisamente meglio delle 31 code base di maxwell
Nelson Muntz
11-04-2016, 14:49
che bello , ho capito che alla maggior parte degli utenti qua dentro una scheda video dura 6 mesi / 1 anno al massimo . Ma ci sono anche quelli a cui piace (per necessita' o virtu') tenere l'hardware 2 o 3 anni e sinceramente vedere che a ogni nuova generazione nvidia , per un motivo o per l'altro quella vecchia 'decade' in maniera sensibile , beh , me le fa girare parecchio ! :muro:
Io ho preso una 970 poco dopo il lancio , pagandola ben piu' della 290 . Passi la 'svista' del mezzo giga lento , ma adesso pero' non esiste che le rosse piu' economiche e uscite addirittra prima mi recuperino in prestazioni , dai ! E' solo una questione di programmazione di driver : semplicemente all nvidia se ne fregano di OTTIMIZZARE le vecchie architetture ormai ! doppio -:muro: :muro:
Nelson Muntz
11-04-2016, 14:54
se nvidia ha venduto maxwell come dx12 e poi in dx12 prende le sberle (si fa per dire), insomma, dopo la svista sul marketing della vram sulle 970 sarebbe l'ennesima porcata difficile da perdonare soprattutto su top gamma come 980ti o peggio ancora titanx che costano un rene.
ecco appunto , vedano di star molto bene attenti ! E' facile , perdere clienti
mikael84
11-04-2016, 15:03
eh ma bisogna vedere, ripeto già piccoli esempi in giro ci sono e siamo agli inizi... io spero sempre domani di svegliarmi e trovare un nuovo driver di nvidia che fixi, almeno a modo loro, questa situazione per maxwell.
se nvidia ha venduto maxwell come dx12 e poi in dx12 prende le sberle (si fa per dire), insomma, dopo la svista sul marketing della vram sulle 970 sarebbe l'ennesima porcata difficile da perdonare soprattutto su top gamma come 980ti o peggio ancora titanx che costano un rene.
inoltre insomma, vero aspettiamo le 1080ti ed i giochi nuovi, ma non tutti potranno permettersi una 1080ti al dayone, passerebbe ulteriore tempo e ulteriore "sofferenza" sugli engine che già saranno fuori e possibilmente maturi.
Serve qualche esempio migliore, Hitman è un bench GCN (come fu absolution) che usa bene le dx12 (ma solo per alcuni effetti), Quantum è un aborto di programmazione dove esiste un problema al frame (di calcolo) in entrambe i brand anche se AMD sembra andare decisamente meglio.
vedi..... amd ha fatto, volente o "sculante" una strategia a lungo termine tra mantle e console che ha portato di fatto alla creazione di api nuove o uguali ed evolute da mantle (vulkan) o cmq influenzate da mantle (dx12)... mettici anche che quasi tutti gli engine sono per adesso pensati per girare su gcn (essendo quasi tutti i giochi realizzati prima su console con hw amd) e capisci come i frutti in casa amd, almeno lato performance, stanno arrivando.
non è il caso di fasciarsi la testa subito sulle dx12 perchè ho imparato che nvidia non muore mai, quindi magari un modo per mitigare certe carenze architetturali lo troveranno... o almeno spero, altrimenti è sicuro che difficilmente mi rivedranno (ed è un peccato, perchè dopo tanti anni di amd ero tornato ad nvidia e fino ad ora ne sono assolutamente soddisfatto, come lo ero di amd).
Ecco che la struttura di Pascal è pensata proprio per questo a 64 thread, Nvidia con SMX da 192 elementi e 6 chiamate da 32, immagina quante risorse spreca. Diverso su altri titoli dove si chiamano tutti i 4 scheduler delle maxwell.
Nvidia da il massimo al momento poi si disperde. L'architettura Kepler ad esempio era potentissima al debutto, poi si è dispersa. Pensa che ostacolava le 7970 con 1536 cuda ed un bus infimo. Ad esempio la 780 anche se inizialmente volava non ha quasi niente di superiore ad una 7970, sopratutto oggi con i pro gcn.
illidan2000
11-04-2016, 15:15
appunto per questo dicevo di non fasciarsi la testa, anche perchè gli ACE in teoria incidono, da quello che so, max per un 5 o 10% che però sono, per un enthusiast, normalmente una buona motivazione per vendere la madre al mercato nero :sofico:
però ne convieni che nvidia sta tacendo un pò troppo la questione?
solo che ora l'enthusiast ha pure il monitor gsync, e difficilmente cambia tutto...
mikael84
11-04-2016, 15:22
appunto per questo dicevo di non fasciarsi la testa, anche perchè gli ACE in teoria incidono, da quello che so, max per un 5 o 10% che però sono, per un enthusiast, normalmente una buona motivazione per vendere la madre al mercato nero :sofico:
però ne convieni che nvidia sta tacendo un pò troppo la questione?
Nvidia ha un'architettura diversa non è detto che vedremmo mai ACE hardware. Serve chiarezza e sopratutto vedere come se la cavano realmente in titoli AAA e non in qualche bench magari mal ottimizzato. Chiaramente il sistema Async di AMD è potente, ogni ACE può tranquillamente lavorare parallelamente e colmare anche alcuni buchi di lavoro sugli shader, visto che questi non sempre vengono correttamente stressati. Nvidia ha una struttura migliore sotto quest'aspetto.
Quindi per ora rimane tutto da vedere con qualche game serio.
L'unica mia vera paura e che in qualche modo cercheranno di frenare maxwell
Da notare che Nvidia sta puntando molto sopratutto sui gameworks, e qua è AMD ad inseguire infatti dovrà rivedere i geometry engine ed il reparto poligonale.
Insomma dovranno cercare di livellarsi il più possibile
mikael84
11-04-2016, 15:43
no ma ovvio ace in hardware non ci sono, o almeno non ci sono per come li intende amd.
non vorrei che quando arriva il game serio, se partono schiaffoni, sia troppo tardi per vendere la 980ti... se maxwell non viene frenato intenzionalmente magari non viene più sviluppato, certo che pensieri ragazzi hihi
Difficile da dire così, perchè la struttura shader è diversa.
Nvidia sembra puntare molto come detto su sulla potenza geometrica con i vari gameworks, e questo la dice lunga su quanto AMD deva affinare l'architettura sui geometry engine
Guarda il rapporto in triangle culled ed elaborati (disegnati)
http://i65.tinypic.com/2nvxi5x.png
Con la tessellazione
http://i63.tinypic.com/1ffpqv.png
Insomma devono entrambe correggere il tiro e mirare su architetture meno differenti possibili
illidan2000
11-04-2016, 15:46
questo è il problema degli standard chiusi e li io non ci posso fare nulla se non consigliare di boicottare certe cose se esistono alternative "free". Sarebbe meglio se nvidia si decidesse a supportare lo standard aperto di vesa senza ulteriori moduli o altro, ma di fatto così tiene per le ....lle un pò di utenti che magari già si svenano a suon di vga e non possono svenarsi ulteriormente in monitor
freesync non è propriamente il supporto standard. altrimenti lo potresti usare anche con le integrate intel...
fraussantin
11-04-2016, 16:01
eh ma bisogna vedere, ripeto già piccoli esempi in giro ci sono e siamo agli inizi... io spero sempre domani di svegliarmi e trovare un nuovo driver di nvidia che fixi, almeno a modo loro, questa situazione per maxwell.
se nvidia ha venduto maxwell come dx12 e poi in dx12 prende le sberle (si fa per dire), insomma, dopo la svista sul marketing della vram sulle 970 sarebbe l'ennesima porcata difficile da perdonare soprattutto su top gamma come 980ti o peggio ancora titanx che costano un rene.
inoltre insomma, vero aspettiamo le 1080ti ed i giochi nuovi, ma non tutti potranno permettersi una 1080ti al dayone, passerebbe ulteriore tempo e ulteriore "sofferenza" sugli engine che già saranno fuori e possibilmente maturi.
ecco appunto , vedano di star molto bene attenti ! E' facile , perdere clienti
MSI ,quando gli chiesi se la gaming era compatibile con le dx12 ,mi disse che i giochi sarebbero partiti , ma le nuove funzionalità non erano garantite.
Theodorakis
11-04-2016, 16:09
MSI ,quando gli chiesi se la gaming era compatibile con le dx12 ,mi disse che i giochi sarebbero partiti , ma le nuove funzionalità non erano garantite.
Questo è interessante. Hai ancora l'email? :D
illidan2000
11-04-2016, 16:43
Stai dicendo cose troppo ragionate per i gorilla da nuova vga :asd:
Ah si? Invece a me non sembra.
Freesync è una tecnologia proprietaria AMD, è il protocollo che viene usato da Freesync ad essere standard.
Cioè il monitor che è compatibile con Vesa Adaptive Sync è compatibile con Freesync di AMD e con qualsiasi altra tecnologia simile sviluppata da chiunque (Intel, Nvidia, ecc.).
Il monitor compatibile con Gsync è compatibile solo ed esclusivamente con Gsync perché usa un protocollo di sincronizzazione (non so se è il termine corretto) proprietario di Nvidia.
quindi vuoi dire che tutti i monitor denominati come "freesync" saranno usufruibili da intel? (se vuole)
sui monitor non trovo che supportano adaptive sync, ma freesync. Da questo la mia affermazione precedente
Arrow0309
11-04-2016, 16:45
Difficile da dire così, perchè la struttura shader è diversa.
Nvidia sembra puntare molto come detto su sulla potenza geometrica con i vari gameworks, e questo la dice lunga su quanto AMD deva affinare l'architettura sui geometry engine
Guarda il rapporto in triangle culled ed elaborati (disegnati)
http://i65.tinypic.com/2nvxi5x.png
Con la tessellazione
http://i63.tinypic.com/1ffpqv.png
Insomma devono entrambe correggere il tiro e mirare su architetture meno differenti possibili
Cos'e' quella striscia arancione max sulla Fury nel primo grafico, senza la tessellazione?
mikael84
11-04-2016, 16:57
Cos'e' quella striscia arancione max sulla Fury nel primo grafico, senza la tessellazione?
Avevo il mouse li e così facendo lo seleziona.
Ho riportato questi dati perchè Nvidia punterà molto su effetti gameworks e con la nuova architettura sarà sempre più potente e non vorrei che ci trovassimo con giochi sbilanciati sia da una parte fronte AMD che fronte Nvidia.
AMD cmq sembra voler migliorare notevelmente la gestione relativa ai geometry
Si e non solo, freesync dovrebbe arrivare anche su hdmi
Polaris migliorerà nelle aree specificate da mikael anche se non fondamentali (96 rops vs 64 sono il 30% ma in game le differenze sono piu risicate, cosi come certi effetti a tessellazione ultrasparata gimpworks che mettono in difficoltà le stesse maxwell) mentre pascal a livello di scheduler non introdurrà nulla di hardware ma solo con volta
Ho la slide nvidia sulle dx12 pronta da tirar fuori alle prime rece :asd: citando maccio ma chemefrega a me tanto ci ho i 28nm!!!
mikael84
11-04-2016, 18:00
Si e non solo, freesync dovrebbe arrivare anche su hdmi
Polaris migliorerà nelle aree specificate da mikael anche se non fondamentali (96 rops vs 64 sono il 30% ma in game le differenze sono piu risicate, cosi come certi effetti a tessellazione ultrasparata gimpworks che mettono in difficoltà le stesse maxwell) mentre pascal a livello di scheduler non introdurrà nulla di hardware ma solo con volta
Ho la slide nvidia sulle dx12 pronta da tirar fuori alle prime rece :asd: citando maccio ma chemefrega a me tanto ci ho i 28nm!!!
Non è poi molto indietro tralasciando i soli numeri
http://images.anandtech.com/graphs/graph9390/75487.png
La 980ti cmq ha 88 rops, 2 SMM non hanno accesso
Spider-Mans
11-04-2016, 18:11
io non credo proprio che la 980ti diventerà un ferro vecchio, è anche vero che un acquisto adesso a qualche mese dal lancio delle pascal sarebbe un po' forzato soprattutto per il prezzo che ha...
chi già ce l'ha qualunque cosa faccia non sbaglia, ma io la terrei, chi non ce l'ha aspetterei pascal direttamente
...aspè, ho commentato troppo seriamente, manca la trollata :D
altrimenti compratevi una fury x :sbonk:
:flower:
stranamente ti quoto in gran parte xD
infatti per il pc nuovo ho comprato una 970 da amazon proprio per aspettare pascal... altrimenti avrei preso direttamente la 980ti...ma pascal oramai è imminente
p.s in risposta alla trollatina in tono :D
abbi pazienza ma se le fury non le comprate manco voi rossocrociati..perche consigliarle qui? :asd: dai su
vedremo con le stelle polaris xD se sarete "fidelizzati" con i fatti oltre che con le faccine e chiacchiere da forum
Appena usciranno le 1070 con le normali gddr5 la mia gtx 970 non riuscirà nemmeno ad accendere il PC :fagiano: , e la 980ti andrà meno di una Intel HD dei Celeron :stordita: .
Il bello però è che dovremo aspettare le 1070 e 1080 con le gddr5X :eek: .
Spider-Mans
11-04-2016, 18:19
Avevo il mouse li e così facendo lo seleziona.
Ho riportato questi dati perchè Nvidia punterà molto su effetti gameworks e con la nuova architettura sarà sempre più potente e non vorrei che ci trovassimo con giochi sbilanciati sia da una parte fronte AMD che fronte Nvidia.
AMD cmq sembra voler migliorare notevelmente la gestione relativa ai geometry
a proposito di gameworks
vero che spesso con i titoli appena usciti possono appesantire il frame rate (ovviamente poi dipende dalla config...)
ma quanto è bello rigiocare vecchi titoli di alcuni anni fa con i gamework attivati
vedi mirror edge che mi sto rigiocando o la saga di batman
con una 970 tutto maxato in fullhd non crolla nemmeno di mezzo frame dai 60 vsyncati con la fisica attiva :D
Non è poi molto indietro tralasciando i soli numeri
http://images.anandtech.com/graphs/graph9390/75487.png
La 980ti cmq ha 88 rops, 2 SMM non hanno accesso
Non trovo sito che non dia 96rops :mbe:
YesManYes
11-04-2016, 18:30
Non trovo sito che non dia 96rops :mbe:
Ma non ne aveva 114?!? :mbe:
appleroof
11-04-2016, 18:55
Avevo il mouse li e così facendo lo seleziona.
Ho riportato questi dati perchè Nvidia punterà molto su effetti gameworks e con la nuova architettura sarà sempre più potente e non vorrei che ci trovassimo con giochi sbilanciati sia da una parte fronte AMD che fronte Nvidia.
AMD cmq sembra voler migliorare notevelmente la gestione relativa ai geometry
Capirai mikael, è quello che accade da quasi vent'anni :D
mikael84
11-04-2016, 19:30
Non trovo sito che non dia 96rops :mbe:
E difficilmente lo troverai:stordita:
Cmq ti spiego meglio, le fisiche sono 96 ma con Maxwell ogni SMM accede a 4 pixel per clock.
La 980ti è laserata di 2 SMM
http://techreport.com/r.x/geforce-gtx-980ti/b3d-pixel-fill.gif
Anche la 970 ne ha 52.
Con Kepler gk110 ad esempio, il chip ha 48 rops fisiche ma ogni raster può accedere a 8 pixel.
Quindi la 780 ne ha 32 e la 780TI 40, come vedi anche dal grafico.
Pascal invece dovrebbe avere accesso a 2 operazioni per SM;)
Capirai mikael, è quello che accade da quasi vent'anni :D
Assolutamente, io intendevo non in maniera troppo sbilanciata come in alcuni titoli.:sofico:
A proposito che ne pensi di Pascal? :fagiano:
mikael84
11-04-2016, 19:38
a proposito di gameworks
vero che spesso con i titoli appena usciti possono appesantire il frame rate (ovviamente poi dipende dalla config...)
ma quanto è bello rigiocare vecchi titoli di alcuni anni fa con i gamework attivati
vedi mirror edge che mi sto rigiocando o la saga di batman
con una 970 tutto maxato in fullhd non crolla nemmeno di mezzo frame dai 60 vsyncati con la fisica attiva :D
Sugli effetti Nvidia in parte ha ragione Frozen, appesantiscono parecchio anche le Nvidia, tanto che a seconda del gioco devi decurtare, però di alcuni effetti come l'HBAO+ non riesco a farne a meno. Su molti metto anche le PCSS, in alcuni anche le PCSS ultra.
Certo sono effetti belli massicci a seconda del gioco, sopratutto su motori vecchi mal implementati o che mal li digeriscono.:)
Il physx mi piace ad esempio e lo metto sempre, anche se ai tempi non era semplice calcolarlo. Mafia e Batman ad esempio beneficiano molto della dedicata alla fisica
appleroof
11-04-2016, 19:51
cut
A proposito che ne pensi di Pascal? :fagiano:
Ho letto poco e nulla Mike, è un periodo che l'interesse per l'hw è sottozero :D
Quel poco che ho letto sono proprio i tuoi post qui, avevo trovato molto interessante l'ipotesi che i cuda cores possano fare indifferentemente operazioni in SP o in DP (sempre se non ho capito male perché ripeto sto seguendo pochissimo)
Sugli effetti Nvidia in parte ha ragione Frozen, appesantiscono parecchio anche le Nvidia, tanto che a seconda del gioco devi decurtare, però di alcuni effetti come l'HBAO+ non riesco a farne a meno. Su molti metto anche le PCSS, in alcuni anche le PCSS ultra.
Certo sono effetti belli massicci a seconda del gioco, sopratutto su motori vecchi mal implementati o che mal li digeriscono.:)
Il physx mi piace ad esempio e lo metto sempre, anche se ai tempi non era semplice calcolarlo. Mafia e Batman ad esempio beneficiano molto della dedicata alla fisica
PCSS? Sarebbe?
Obrigado
11-04-2016, 20:35
PCSS? Sarebbe?
https://www.google.it/search?q=Percentage+Closer+Soft+Shadows&oq=Percentage+Closer+Soft+Shadows&aqs=chrome..69i57&sourceid=chrome&ie=UTF-8
https://www.google.it/search?q=Percentage+Closer+Soft+Shadows&oq=Percentage+Closer+Soft+Shadows&aqs=chrome..69i57&sourceid=chrome&ie=UTF-8
Interessante, avevo letto qualcosa per The Division ma non avevo capito fosse un effetto Nvidia, su che giochi può essere abilitata oltre a DL e The Division? Deve essere supportato dal gioco e abilitato dal menù del gioco? Oppure si può impostare dal pannello?
mikael84
11-04-2016, 21:55
Ho letto poco e nulla Mike, è un periodo che l'interesse per l'hw è sottozero :D
Quel poco che ho letto sono proprio i tuoi post qui, avevo trovato molto interessante l'ipotesi che i cuda cores possano fare indifferentemente operazioni in SP o in DP (sempre se non ho capito male perché ripeto sto seguendo pochissimo)
Capito, cmq in sostanza non cambia nulla da Kepler, le FP64 vengono utilizzate in altri campi e le FP32 in game.
Il chip come il big Pascal è composto da 3840 cuda FP32 e 1920 cuda FP64, quindi se compri una Titan giochi con 3840 cuda a ben 1480 mhz base, oppure abiliti la DP per altri utilizzi.
Funziona uguale uguale a Kepler, dove il chip integrava 3840 cuda, 2880 cuda erano FP32, 960 per calcoli DP.
Sembra differire questo chip perchè Maxwell non integrava DP ma a livello di game usi solo i 3840cuda (4 SM sono ridondanti quindi 3584 finali)
3584 che per clock equivalgono a 5120 cuda maxwell.:)
Rimane però da definire bene che intenzioni hanno sul chippone, se utilizzare quello come Kepler oppure levare la DP recuperare spazio sul die e utilizzare ancora bus tradizionali e lasciare le hbm ed nvlink solo per utilizzi pro (titan-tesla).
Questo metodo è interessante perchè risparmiando spazio sul core, riusciresti a tirare fuori un 600/610mm2 con oltre 4000 cuda (no DP) e creare un Pascal refresh.:)
I gameworks quando sono usciti erano davvero fuffa, adesso alcune implementazioni sono ben fatte, altre quasi superflue.
Dipende molto anche dal motore su cui vengono implementati, già sul motore di fallout 4 anche il solo hbao+ è deliro, altri come watch dogs permettono tranquillamente di attivare le pcss ultra più hbao ultra e la resa è straordinaria. Su giochi come FC/AC, le pccss sono mattoni assurdi ma l'hbao+ rende molto bene. Rendiamoci conto che alcuni motori sono stravecchi e mal digeriscono certi effetti.
fraussantin
11-04-2016, 22:28
http://www.nexthardware.com/mobile/news/nvidia-gp104-confermata-ma-solo-con-gddr5-7447/
Fake?
paolox86
11-04-2016, 22:37
http://www.nexthardware.com/mobile/news/nvidia-gp104-confermata-ma-solo-con-gddr5-7447/
Fake?
Mah, speriamo di si. Le buone e vecchie gddr5 sarebbero una buona feature monkey killer
TigerTank
11-04-2016, 23:34
Mah, speriamo di si. Le buone e vecchie gddr5 sarebbero una buona feature monkey killer
Già, soprattutto se dovessero spararle a 400-450€ e 550-600€ senza manco le GDDR5X. :asd:
Comunque girano notizie discordanti, altre parlano di DDR5 sulle 1070 e GDDR5X(altrimenti per cosa le starebbero producendo?) sulle 1080.
Iceman69
11-04-2016, 23:43
Già, soprattutto se dovessero spararle a 400-450€ e 550-600€ senza manco le GDDR5X. :asd:
Comunque girano notizie discordanti, altre parlano di DDR5 sulle 1070 e GDDR5X(altrimenti per cosa le starebbero producendo?) sulle 1080.
E' la cosa più logica, se non subito almeno in un secondo momento, nvidia ama spararsele un po' alla volta le cartucce prestazionali ...
fireradeon
12-04-2016, 06:41
Già, soprattutto se dovessero spararle a 400-450€ e 550-600€ senza manco le GDDR5X. :asd:
Comunque girano notizie discordanti, altre parlano di DDR5 sulle 1070 e GDDR5X(altrimenti per cosa le starebbero producendo?) sulle 1080.
Ma infatti. Se non le mettono su queste a che servono? Per la fascia media? Tanto dopo le 1080 le prossime top avranno hbm2 e usciranno nel 2017
Goofy Goober
12-04-2016, 06:55
a questo punto spero vivamente che escano con le GDDR5 normali, almeno finiscono subito nel mio gabinetto tecnologico speciale e non mi preoccupo nemmeno di guardare quanto vanno :asd:
avevo già deciso da tempo di non spendere più di 200 euro in VGA con ancora le vecchie memorie, ora che ce ne sono non uno, ma ben 3 tipi di nuove (HBM1 e 2 e GDDR5X).
TigerTank
12-04-2016, 09:03
Magari finisce che per lucrarci il più possibile mettono ancora le gddr5 su queste e sulle GP100 le gddr5x, rimandando le HBM2 alle Volta o a un eventuale refresh Pascal. Altrimenti appunto non avrebbe senso la produzione in massa delle gddr5x a meno che siano per le AMD...ma anche lì c'è l'incognita gddr5 vs gddr5x.
O appunto stavolta hanno deciso di staccare nettamente le 2 sorelle.
In ogni caso sinceramente mi girerebbero non poco in caso di schede con i prezzi che ho scritto sopra e di nuovo dotate di ddr5.
In ogni caso sinceramente mi girerebbero non poco in caso di schede con i prezzi che ho scritto sopra e di nuovo dotate di ddr5.
Basta lasciarle sullo scaffale... :D
Inviato dal mio SM-N910F utilizzando Tapatalk
Basta lasciarle sullo scaffale... :D
Inviato dal mio SM-N910F utilizzando Tapatalk
Sie!!! Si compra pure lo scaffale a sto giro!
mircocatta
12-04-2016, 09:37
interesse per pascal? al 50%
voglo prima vedere quanto magicamente le mie 970 caleranno di prestazioni con i futuri driver, se non caleranno allora posso anche farci un pensierino, ma se la politica di nvidia rimarrà uguale passo alle rosse e le verdi non mi vedranno piu
illidan2000
12-04-2016, 09:38
Magari finisce che per lucrarci il più possibile mettono ancora le gddr5 su queste e sulle GP100 le gddr5x, rimandando le HBM2 alle Volta o a un eventuale refresh Pascal. Altrimenti appunto non avrebbe senso la produzione in massa delle gddr5x a meno che siano per le AMD...ma anche lì c'è l'incognita gddr5 vs gddr5x.
O appunto stavolta hanno deciso di staccare nettamente le 2 sorelle.
In ogni caso sinceramente mi girerebbero non poco in caso di schede con i prezzi che ho scritto sopra e di nuovo dotate di ddr5.
400 euro, anche con gddr5 e stesse prestazioni delle 980ti, con 8gb sono ancora ottime secondo me
fraussantin
12-04-2016, 09:40
400 euro, anche con gddr5 e stesse prestazioni delle 980ti, con 8gb sono ancora ottime secondo me
Dipende da cosa ci darà polaris.
Cmq se nvidia ha veramente deciso questo è perchè sa che amd farà un prodotto simile.
Una cosa é certa le gddr5 sono "economiche" quindi non. Si sperino di venderle a prezzi assurdi .
Spider-Mans
12-04-2016, 09:47
I gameworks quando sono usciti erano davvero fuffa, adesso alcune implementazioni sono ben fatte, altre quasi superflue.
come si dice
meglio averle certe opzioni che non averle
e hbao o il nuovo vbao sono piu che orpelli..ma decisi miglioramenti in ambito ambient occlusion
Spider-Mans
12-04-2016, 09:53
Già, soprattutto se dovessero spararle a 400-450€ e 550-600€ senza manco le GDDR5X. :asd:
Comunque girano notizie discordanti, altre parlano di DDR5 sulle 1070 e GDDR5X(altrimenti per cosa le starebbero producendo?) sulle 1080.
le ggdr5x saranno disponibili in estate...piu o meno
al massimo ritardano a settembre il lancio... o lo spero :D
illidan2000
12-04-2016, 10:11
le ggdr5x saranno disponibili in estate...piu o meno
al massimo ritardano a settembre il lancio... o lo spero :D
la catastrofe sarebbe se a giugno escono con gddr5 e a settembre con gddr5x.... allo stesso prezzo!
mircocatta
12-04-2016, 10:24
scusate ma P100 ha le hbm2?
perchè se si, non capisco perchè continuate a parlare di gddr5 o 5x... i derivati avranno una struttura simile, quindi implementeranno le hbm2..no? cioè, il controller della memoria è completamente differente ed è una struttura abbastanza importante, non credo facciano 2 chip differenti per continuare ad usare le vecchie memorie..mi son perso qualcosa?
mikael84
12-04-2016, 10:25
Già, soprattutto se dovessero spararle a 400-450€ e 550-600€ senza manco le GDDR5X. :asd:
Comunque girano notizie discordanti, altre parlano di DDR5 sulle 1070 e GDDR5X(altrimenti per cosa le starebbero producendo?) sulle 1080.
Probabilmente non hanno memorie ddr5x a sufficienza per coprire una scheda che venderà come il pane.
Resta il fatto che un chip così devi venderlo a 300/350 euro non oltre, non tanto per le memorie che non costano meno delle ddr5x ma tra PCB ridicolo e (avrà 125watt di tdp circa) banda da schede vecchie che in alcuni giochi già non basta.
paolox86
12-04-2016, 10:41
Se uscissero solo su 1080 prevedo un'ampio divario di prezzi tra le 2 schede gp104, molto più grande del passato.
Iceman69
12-04-2016, 11:11
Se uscissero solo su 1080 prevedo un'ampio divario di prezzi tra le 2 schede gp104, molto più grande del passato.
Secondo me il divario sarà sempre quello, i prezzi sono solo una questione di strategia commerciale, solo che questa volta ci sarà una "giustificazione" tecnica per il divario di prezzo, che in passato a mio avviso mancava completamente.
TigerTank
12-04-2016, 11:13
400 euro, anche con gddr5 e stesse prestazioni delle 980ti, con 8gb sono ancora ottime secondo me
Mah...vedremo Illy, soprattutto se sarà come ha scritto Mike qui sotto e se a parte qualche modello custom(che ovviamente costerà di più) saranno di nuovo piazzate su quei brutti pcb al risparmio stile gtx970 reference/semicustom, che in piena estate non sarebbero proprio una goduria :D
Io comunque se ci sarà uno stacco notevole sarei più propenso ad una singola gtx1080 senza castrature e GDDR5X(spero) altrimenti me ne resto con la Ti(se si deve svalutare tanto vale sfruttarla il più a lungo possibile) e tiro fino alle nuove Ti...tanto so già che non resisterò alla scimmia per cui escludo in partenza uno SLi di 1070.
Probabilmente non hanno memorie ddr5x a sufficienza per coprire una scheda che venderà come il pane.
Resta il fatto che un chip così devi venderlo a 300/350 euro non oltre, non tanto per le memorie che non costano meno delle ddr5x ma tra PCB ridicolo e (avrà 125watt di tdp circa) banda da schede vecchie che in alcuni giochi già non basta.
O appunto non vorrei che stavolta per favorire la vendita delle 1080 differenzino le due schede per creare 2 fasce separate.
Così se uno vuole le nuove vram deve per forza prendere la sorella maggiore.
si sta parlando di gp104 e che potrebbero fare 1070 e 1080 con gddr5 e 1080ti su gp104 invece che gp100 con gddrx5 dopo l'estate
ma sono solo speculazioni su presunti pcb diversi
No, questo non credo...altrimenti la situazioni diventerebbe troppo incasinata.
Le Ti saranno sicuramente GP100 e nel 2017 andranno a confrontarsi con le Vega di amd.
mikael84
12-04-2016, 11:39
si sta parlando di gp104 e che potrebbero fare 1070 e 1080 con gddr5 e 1080ti su gp104 invece che gp100 con gddrx5 dopo l'estate
ma sono solo speculazioni su presunti pcb diversi
In questo caso solo la x70 avrebbe ddr5 non la x80.
La speculazione sulla 1080ti ci sta ma riprende sempre un'ipotetico chip senza DP e con un core più piccolo (400-450mm2), chiamata GP102.
Ad un chip simile potrebbero anche disegnarli un 384bit che con almeno 12gigabit arriva a ben 614gb/s. collegato a 12gb di ram
Così facendo il chippone GP100 verrebbe destinato alle sole pro, Tesla, Titan, quadro (anche se la titan è sempre una geforce).
Questa però è pura speculazione, anche se con un minimo di credibilità, in quanto ti permetterebbe di giocarti la carta di creare un 610mm2 tutto full FP32 da oltre 4000 cuda, nel caso ci fosse bisogno, visto che Volta è molto lontano e dovrebbe arrivare con il prossimo PP.
Mah...vedremo Illy, soprattutto se sarà come ha scritto Mike qui sotto e se a parte qualche modello custom(che ovviamente costerà di più) saranno di nuovo piazzate su quei brutti pcb al risparmio stile gtx970 reference/semicustom, che in piena estate non sarebbero proprio una goduria :D
Io comunque se ci sarà uno stacco notevole sarei più propenso ad una singola gtx1080 senza castrature e GDDR5X(spero) altrimenti me ne resto con la Ti(se si deve svalutare tanto vale sfruttarla il più a lungo possibile) e tiro fino alle nuove Ti...tanto so già che non resisterò alla scimmia per cui escludo in partenza uno SLi di 1070.
O appunto non vorrei che stavolta per favorire la vendita delle 1080 differenzino le due schede per creare 2 fasce separate.
Così se uno vuole le nuove vram deve per forza prendere la sorella maggiore.
I PCB saranno di conseguenza miseri, con le classiche 4+1 con almeno 40A stabili le alimenti bene, cambierà sicuramente sulla x80 che seppur consumando nulla non si farà mancare le varie multifase (anche KP).:)
illidan2000
12-04-2016, 11:41
mmmh... se le reference costassero molto meno, vado di AIO pure per loro...
tanto il case l'ho cambiato, e ce ne stanno pure altri due di radiatori!
https://s20.postimg.org/q71tpmeyx/final3.jpg (https://postimg.org/image/q71tpmeyx/)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.