View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Ma esiste qualche dato che specifichi questo, perchè io ero rimasto che tali memorie, così come le ddr5 costano uguale.
Nelle ddr5x, cambia praticamente il prefetch da 8n a 16 (che raddoppia la banda teorica) e nelle ddr6 il doppio canale 16b non single 32b.
E' come le ddr5 in cui è stato aggiunto un commando WCK. Comandi SDR in CK e indirizzi DDR in CK. Il WCK raddoppiava il rapporto in CK.
Il costo di produzione è molto simile, del resto sono solo pochi pin in più ed il diesize è il medesimo.
Sono le HBM che tra TSV,interposer e logic die costano al Gb circa il doppio. Per non parlare dei problemi/tempi di assemblaggio vista la complessità nel impilare strati da 5000 pin TSV.
Poi i fanboy rossi possono inventare tutte le scuse che vogliono per ammorbidire la supposta...:sofico:
mikael84
05-09-2017, 15:41
Non ho mai visto nuove tecnologie entrare a costi più bassi :>
Però **al giga** potrebbero costare qualcosa meno delle 5x
Riguardo al resto se il bus è 384 e non lo tagliano nelle cut (ripetendo Pascal) la banda potrebbe essere sufficiente. Certo ci vorrebbe un doppio controller e probabilmente non ne vale la pena.
Al solito chi vivrà...
Il bus di memoria è per forza di 384bit (12 canali da 32b/ 6 GPC da 64b), ma può succedere un'incidente di percorso in cui bisogna laserare una partizione cache.
In tal caso su 14 gb/s, avresti sempre una teorica di ben 616 gb/s su 372gb/s, che tutt'ora sono dati impressionanti, considerando che tra le LDS/registri, compressione sino alla 2:1 compresi i colori adiacenti, davvero raramente sfori i 200gb/s in game.
Ai minimi 600 gb/s, con completamente ogni dato compresso i valori in uscita risultato molto più ampi dei teorici.
Sotto quest'aspetto Nvidia eccelle.:)
mikael84
05-09-2017, 15:58
Il costo di produzione è molto simile, del resto sono solo pochi pin in più ed il diesize è il medesimo.
Sono le HBM che tra TSV,interposer e logic die costano al Gb circa il doppio. Per non parlare dei problemi/tempi di assemblaggio vista la complessità nel impilare strati da 5000 pin TSV.
Poi i fanboy rossi possono inventare tutte le scuse che vogliono per ammorbidire la supposta...:sofico:
Ah ecco, pure io ero rimasto a costi simili, però giustamente chiedevo se ci fossero novità.
Mi sembrava strano tutto questo stravolgimento.:p
Riguardo le HBM, beh, siamo tranquilli, non le vedremmo. A meno di costruire un chip più grande, con i vari collegamenti al 4° stack, più tutti i soldi per HBM e derivati.:p
Tranquillo che le titan le faranno sempre uscire agli inizi, perchè anche se le mettessero a 1500€ troverebbero chi le compra per fame di novità e prestazioni al top subito :)
E probabilmente faranno come per le Pascal, vendita esclusiva da sito nvidia.
Circa i 12GB non è detto perchè dipenderà anche dai costi delle ddr6. Magari sui chippini ne metteranno di nuovo 8, tanto imho mi pare siano ancora sovrabbondanti.
Titan e Ti boh...magari sulla prima ne metteranno ancora 12GB ma di HBM2 e sulla seconda idem ma di ddr6.
Bhè se si parla di nvidia c'è da aspettarsi di tutto :stordita:
Ma sui tagli di memoria non credo si limitino a 12GB sui chipponi altrimenti vorrebbe dire fare 2070 e 2080 con 8GB di memoria e rispetto le 1080ti sarebbero poco competitive, poi non so ma credo che a questo giro c'è da aspettarsi 16GB per 2070 e 2080 e 24GB per full GV102 poi se laserano in stile 1080ti la memoria dovrebbe ridursi a 22GB se addirittura laserano l'intero GPC circa 20GB ma come pascal alla fine titan e ti avranno quantitativi di memoria simili poi per le HBM penso siano esclusiva di GV100...
Certo che passare dagli 8gb della 1080 a 16 della 2070/2080 fa un certo effetto :sofico:
(L'utilità non la vedo, almeno tutt'oggi)
12/14gb sono tecnicamente impossibili?
Le GDDR6 sono un ottimo motivo per pensare al Q2 per GV104. Però non mi risulta che se ne abbia notizia ufficiale, quindi potrebbero essere solo ipotesi e GV104 potrebbe stare ancorra su GDD5X e quindi diventa possibile il Q1.
Può essere anche Q2, ma su GV104 non ci vedo GDDR5X, presumo che entrambe, GTX 2070 e 2080, utilizzeranno GDDR6.
C'era tempo fa un rumor che indicava come possibile lancio dicembre per l'anticipata disponibilità di GDDR6.
Insomma sembra che le tempistiche di uscita siano legate a questo, e per logica quindi ne dovrebbero essere dotate.
https://www.pcper.com/news/Graphics-Cards/Micron-Planning-Launch-GDDR6-Graphics-Memory-2017-0
Certo che passare dagli 8gb della 1080 a 16 della 2070/2080 fa un certo effetto :sofico:
(L'utilità non la vedo, almeno tutt'oggi)
12/14gb sono tecnicamente impossibili?
La 2080 essendo il chip full può montarne 8 o 16GB ma sicuramente saranno 16 altrimenti che senso avrebbe passare alle GDDR6 che uno dei primi vantaggi che offrono è proprio la maggior densità dei moduli.
Forse per la 2070 potrebbero in effetti laserarne una parte in stile 970 quindi a seconda del taglio potrebbero essere 12/14GB sperando in nessun strano ponte o sotto-parzionamento della vram :sofico:
Anche se 12GB vorrebbe dire laserare un intero GPC e quindi si avrebbe un bus a 192bit e 2688cc... Non proprio un bel vedere...
Per l'utilità concordo ora come ora, 8GB bastano, ma oramai si punta al 4K e chi può dire nei titoli futuri quanta vram possano richiedere...
Come fa a montare 8/16 su un bus 384?
Da quanto ne so GV104 ha un bus a 256bit con una configurazione a 4GPC e quindi 8/16GB, sarà invece GV102 ad avere un bus a 384bit e 6GPC quindi con dotazione di vram di 12/24GB
mikael84
05-09-2017, 18:04
Certo che passare dagli 8gb della 1080 a 16 della 2070/2080 fa un certo effetto :sofico:
(L'utilità non la vedo, almeno tutt'oggi)
12/14gb sono tecnicamente impossibili?
La memoria è lineare al bus, non viene impostata da Nvidia a piacimento. :)
Per 12/14 gb servirebbero bus da 192b (la 2060 in poche parole) o 224bit (una 2070 con 768kb l2 laserato).
Su 256b (8ch/32b) lavori con tagli di 2/4/8/16/32 etc.
La memoria è lineare al bus, non viene impostata da Nvidia a piacimento. :)
Per 12/14 gb servirebbero bus da 192b (la 2060 in poche parole) o 224bit (una 2070 con 768kb l2 laserato).
Su 256b (8ch/32b) lavori con tagli di 2/4/8/16/32 etc.Grazie, chiaro :D
appleroof
08-09-2017, 12:09
Settore professionale..... http://www.anandtech.com/show/11824/nvidia-ships-first-volta-dgx-systems
TigerTank
08-09-2017, 13:25
Settore professionale..... http://www.anandtech.com/show/11824/nvidia-ships-first-volta-dgx-systems
Bellissimi quei dissipatori passivi in full rame :cool:
AceGranger
08-09-2017, 14:12
Ma gli Xeon dove sono :mbe:
sono sotto ; è un server multi-piano :p.
http://cdn.wccftech.com/wp-content/uploads/2016/12/NVIDIA-Volta-V100.jpg
appleroof
08-09-2017, 20:07
Bellissimi quei dissipatori passivi in full rame :cool:
Vero :D
Vero :D
E te dove eri finito!!! Mi sei mancato!!!!!
appleroof
09-09-2017, 10:14
E te dove eri finito!!! Mi sei mancato!!!!!
ammmore graaaaazie :flower: :flower: :D
sono da un bel po' in un periodo di "stanca" per il pc, per questo posto poco e nulla (perlopiù "spio" :eek: :D )
Il periodo di uscita delle 2070/2080, se non ho capito male, dovrebbe quindi essere aprile/maggio...più o meno si può ipotizzare il prezzo di lancio sia delle 2070 che delle 2080? nel caso tirassi avanti con la mia dovrei prenderle subito o quasi...
Il periodo di uscita delle 2070/2080, se non ho capito male, dovrebbe quindi essere aprile/maggio...più o meno si può ipotizzare il prezzo di lancio sia delle 2070 che delle 2080? nel caso tirassi avanti con la mia dovrei prenderle subito o quasi...
fai indicativamente conto i prezzi della 1070 e 1080 al lancio considerando un +/- 20-30$ di scarto.
E' veramente facile scommettere che costeranno di più anche come MSRP, io credo rimarranno indicativamente (con scarti minimi) tali e quali alle attuali pascal. All'atto pratico molti si sono dimenticati che già le 1070 e 1080 hanno avuto un sostanziale aumento di 50$ per fascia per via del cambio pp dai 28 ai 16, a questo viaggio il nuovo pp (12nm se non sbaglio) è più un affinamento che un vero cambio di produzione e macchinari/rese delle fonderie per realizzarlo
fai indicativamente conto i prezzi della 1070 e 1080 al lancio considerando un +/- 20-30$ di scarto.
Quindi? 600 ed 800 euro?
illidan2000
13-09-2017, 12:59
Quindi? 600 ed 800 euro?
500/700
Io dico 499$ e 749$, per taglio in euro chiedere a iva e tasse :sofico:
X-ray guru
13-09-2017, 16:52
Chiedi soprattutto al cambio €/$. :)
Attualmente 1€=1.19$ se siamo fortunati convertono se non lo siamo fanno un cambio 1 a 1 e ci aggiungono tasse e iva :)
Intanto: https://www.tomshw.it/nvidia-lavoro-una-gtx-1070-ti-perche-si-perche-88252
Non so voi ma secondo me se monta le GDDR5 sarà una scheda concepita per minare... Altro senso non lo trovo...
TigerTank
14-09-2017, 08:41
Intanto: https://www.tomshw.it/nvidia-lavoro-una-gtx-1070-ti-perche-si-perche-88252
Non so voi ma secondo me se monta le GDDR5 sarà una scheda concepita per minare... Altro senso non lo trovo...
Mah...per me non avrebbe alcun senso se non commerciale, da finta novità.
Un pò come le 1080 da 11GHz.
Mah...per me non avrebbe alcun senso se non commerciale, da finta novità.
Un pò come le 1080 da 11GHz.
Ni, nel mining una 1080 con GDDR5 sarebbe il top, per un gamer invece lascia il tempo che trova, sul nuovo tra 1070 e 1080 ci passano 70-80€ di differenza quindi forse con questa scheda avremo un abbassamento dei prezzi della 1070 sui 350€ come ai tempi che furono...
TigerTank
14-09-2017, 08:46
Ni, nel mining una 1080 con GDDR5 sarebbe il top per un gamer invece lascia il tempo che trova, sul nuovo tra 1070 e 1080 ci passano 70-80€ di differenza...
Mah...vedremo un pò.
A questo punto potrebbero chiamarla "1070 Mining" :D
In effetti ha poco senso.
Perchè vega 56 va un po' più della 1070?
Vale la pena di mettere in produzione una nuova gpu solo per questo?
Non è da escludere che abbiano tanti chip 1080 semi fallati, e forse le rese essendo migliori è un peccato disabilitare 384cc :sofico:
Penso che a nvidia manco gli costi nulla tirarla fuori... Comunque non è la prima volta, ricordate la GTX 260? 65nm,55nm poi 216sp e non contenti GTX 275 :sofico:
1070Mi al posto di Ti :asd:
Non suona neanche male :sofico:
1070Mi per minare come non hai mai minato! :sofico:
X-ray guru
14-09-2017, 15:26
Il mining ha minato i cervelli :banned:
mikael84
14-09-2017, 15:38
Intanto: https://www.tomshw.it/nvidia-lavoro-una-gtx-1070-ti-perche-si-perche-88252
Non so voi ma secondo me se monta le GDDR5 sarà una scheda concepita per minare... Altro senso non lo trovo...
Sapevo già di questo chip, come il 1024st (5gb destinato poi alle quadro), ma attenzione che questi chip non è detto che arrivino da noi.
Ci sono altri chip, nel nostro mercato mai arrivati.
Per il resto in chiave gaming è totalmente no sense, speriamo che con Volta, le ddr5 le eliminano, in virtù del fatto che non hanno neppure più motivo di esistere, considerando la BW molto bassa che sono in grado di garantire.:)
Ni, nel mining una 1080 con GDDR5 sarebbe il top, per un gamer invece lascia il tempo che trova, sul nuovo tra 1070 e 1080 ci passano 70-80€ di differenza quindi forse con questa scheda avremo un abbassamento dei prezzi della 1070 sui 350€ come ai tempi che furono...
Se parliamo di ethereum/monero il top sarebbe una 1080ti super-spezzatino con GDDR5. I flops contano pochissimo in questi algoritmi tant'è che in alcuni modelli basta circa il 50% del PL. (monero anche meno)
Con una bella tirata alle ram 48-50mh sono fattibili in una soluzione del genere.
Chiedo qui: quale e il periodo piu probabile per l'uscita delle nuove 2060? Si sa se saranno su un architettura nuova? Tanto per valutare se prenderne prima di natale una.
Sicuramente usciranno prima 2070 e 2080 e dopo circa un paio di mesi i chip minori... Quindi dipende se GV104 esce per MARZO-APRILE, la 2060 uscirà tra maggio-giugno altrimenti a dopo l'estate 2018 quindi tra un anno esatto...
Inviato dal mio Redmi Note 4X utilizzando Tapatalk
Giovamas
15-09-2017, 10:08
Sicuramente usciranno prima 2070 e 2080 e dopo circa un paio di mesi i chip minori... Quindi dipende se GV104 esce per MARZO-APRILE, la 2060 uscirà tra maggio-giugno altrimenti a dopo l'estate 2018 quindi tra un anno esatto...
Inviato dal mio Redmi Note 4X utilizzando Tapatalk
Si. E la 2080Ti quindi nel 2019. Sempre che il GV104 esca per aprile il che è tutto da vedere. C'è una totale assenza di rumor che fa pensare
Crysis90
17-09-2017, 14:19
http://wccftech.com/nvidia-volta-tesla-v100-gpu-compute-benchmarks-revealed/
Monstre. :eek: :eek: :eek:
TigerTank
17-09-2017, 14:47
Si. E la 2080Ti quindi nel 2019. Sempre che il GV104 esca per aprile il che è tutto da vedere. C'è una totale assenza di rumor che fa pensare
Non essendo per nulla impensierita da AMD e non essendoci una fase di "VRAM-fobìa", mi sa che se la prende comoda e per ora sviluppa le soluzioni Volta per ambiti professionali o comunque non gaming.
http://wccftech.com/nvidia-volta-tesla-v100-gpu-compute-benchmarks-revealed/
Monstre. :eek: :eek: :eek:
Notevole, chissà che tipo carico utilizza geekbench CUDA/openCL.
Come già detto, l'architettura è parecchio diversa da Pascal ed ha caratteristiche notevoli per il compute...
Nvidia stessa ha dichiarato un +80% con alcuni benchmark HPC importanti.
Notevole, chissà che tipo carico utilizza geekbench CUDA/openCL.
Mi rispondo da solo...:D
E' un drago anche nella fisica, oltre che nella manipolazioni di immagini.
Triplicare i teorici nel carico misto (int+fp e ls) ha reso parecchio...:fagiano:
P100 | V100
CUDA Score 320031 | 743537
Sobel 528482 | 1382119
23.3 Gpixels/sec | 60.9 Gpixels/sec
Histogram Equalization 455379 | 996475
14.2 Gpixels/sec | 31.1 Gpixels/sec
SFFT 66489 | 101670
165.7 Gflops | 253.5 Gflops
Gaussian Blur 538403 | 1897300
9.43 Gpixels/sec | 33.2 Gpixels/sec
Face Detection 49263 | 108700
14.4 Msubwindows/sec | 31.7 Msubwindows/sec
RAW 1139825 | 2743361
11.0 Gpixels/sec | 26.6 Gpixels/sec
Depth of Field 571644 | 1499040
1.66 Gpixels/sec | 4.35 Gpixels/sec
Particle Physics 397917 | 786603
62904.7 FPS | 124350.1 FPS
Giovamas
18-09-2017, 13:35
Non essendo per nulla impensierita da AMD e non essendoci una fase di "VRAM-fobìa", mi sa che se la prende comoda e per ora sviluppa le soluzioni Volta per ambiti professionali o comunque non gaming.
eh si.... per ora tutto sul professionale. E chi glielo fa fare di accelerare i tempi?
TigerTank
18-09-2017, 15:29
Mi rispondo da solo...:D
E' un drago anche nella fisica, oltre che nella manipolazioni di immagini.
Triplicare i teorici nel carico misto (int+fp e ls) ha reso parecchio...:fagiano:
P100 | V100
CUDA Score 320031 | 743537
Sobel 528482 | 1382119
23.3 Gpixels/sec | 60.9 Gpixels/sec
Histogram Equalization 455379 | 996475
14.2 Gpixels/sec | 31.1 Gpixels/sec
SFFT 66489 | 101670
165.7 Gflops | 253.5 Gflops
Gaussian Blur 538403 | 1897300
9.43 Gpixels/sec | 33.2 Gpixels/sec
Face Detection 49263 | 108700
14.4 Msubwindows/sec | 31.7 Msubwindows/sec
RAW 1139825 | 2743361
11.0 Gpixels/sec | 26.6 Gpixels/sec
Depth of Field 571644 | 1499040
1.66 Gpixels/sec | 4.35 Gpixels/sec
Particle Physics 397917 | 786603
62904.7 FPS | 124350.1 FPS
Una titan volta "ibrida" gaming/lavoro, anche se a tipo 1500€ sarebbe un bell'upgrade per chi appunto la sfrutterebbe anche in questi ambiti con relativo ritorno.
eh si.... per ora tutto sul professionale. E chi glielo fa fare di accelerare i tempi?
Se la può gestire come gli pare...
Una titan volta "ibrida" gaming/lavoro, anche se a tipo 1500€ sarebbe un bell'upgrade per chi appunto la sfrutterebbe anche in questi ambiti con relativo ritorno.
Le titan "di solito" sono derivate dalle quadro che non hanno FP64,Tensor e HBM.
La Tesla V100 copre settori (DL e HPC 64bit) in cui puoi chiedere prezzi allucinanti (10-15 mila dollari) con quel livello di performance.
Anche perché parliamo di 815mm^2 di silicio, le rese saranno minime, e insostenibili per prodotti pro/consumer, ma adeguate per prodotti HPC con quei prezzi, anche con un solo die buono per wafer.
I die per wafer con i cuda di ridondanza sono a spanne meno di una trentina considerando che il processo litografico (12nm farlocco) usa le stesse regole del 16nm che è già ben rodato.
Nvidia ci mangia alla grande non ti preoccupare...:sofico:
bagnino89
07-10-2017, 16:29
Si sa qualcosa in merito allo scheduling che adotterà Volta? Sarà sempre software oppure hardware?
Lo chiedo perché stavo notando come sia difficile per una CPU (anche con parecchio OC) tenere testa ad una 1080 Ti in 1080p:
https://www.youtube.com/watch?v=Zc2L3L4E73g&t
Praticamente la scheda non lavora mai al 100%. Non che ci si possa lamentare degli FPS ottenuti in senso assoluto, però è chiaro che se potesse lavorare al 100% si registrerebbero ancor più frame. Capisco pure che usare una 1080 Ti per giocare a 1080p non abbia granché senso, ma prendiamolo come caso "accademico" (fermo restando che magari a qualcuno interessa fare più FPS possibile).
Volta ed il supporto più spinto alle DX 12 riusciranno a mitigare il problema, ovvero a far sì che la GPU sia meno dipendente dalla CPU? O che, quanto meno, sia più dipendente dai core della CPU che non dalla sua frequenza di lavoro?
Angeland
10-10-2017, 06:15
Capisco bene che ancora é prestissimo, ma tanto per discutere, secondo voi quanto é lecito aspettarsi come incremento prestazionale in gaming?
Un + 30% a parità di "fascia" ?
MrBrillio
10-10-2017, 06:19
Ma si, non tireranno mai fuori dal cilindro prestazioni doppie rispetto alle precedenti. Credo che come sempre amministreranno le potenzialità dei nuovi chip assicurandosi copertura per almeno un annetto (forse più)
Inviato dal mio SM-G955F utilizzando Tapatalk
Capisco bene che ancora é prestissimo, ma tanto per discutere, secondo voi quanto é lecito aspettarsi come incremento prestazionale in gaming?
Un + 30% a parità di "fascia" ?
Io mi aspetto un +25% con 2080 rispetto 1080ti (probabilmente una 1080ti Occata per benino potrebbe raggiungere la 2080 def, un pò come 980ti che a 1.5ghz raggiunge 1080), ma con 2080ti parlando sempre di clock def almeno +40/+50% di prestazioni anche perchè la differenza data dai soli cc è bella che consistente...
mircocatta
10-10-2017, 09:17
La 980ti a 1.5ghz raggiunge la 1080def? Sicuri?
Domanda: ma a nvidia, non conviene abbracciare il supporto fresync? Il gsync se non sbaglio rimarrebbe lievemente superiore se non ricordo male (non so rispetto al freesync 2.0), venderebbe anche più schede visto che avrebbe copertura al 100% dei monitor presenti sul mercato e c'è una fetta di utenti che non compra nvidia perché possiede un monitor freesync e al contrario, chi ha un monitor gsync non comprerebbe amd, l'eventuale calo di vendita del gsync sarebbe marginale perché spesso chi lo acquista lo farebbe a prescindere un po' come chi precedentemente acquistava schede nvidia a pari prestazione di amd ad un costo maggiore
bagnino89
10-10-2017, 11:52
La 980ti a 1.5ghz raggiunge la 1080def? Sicuri?
Domanda: ma a nvidia, non conviene abbracciare il supporto fresync? Il gsync se non sbaglio rimarrebbe lievemente superiore se non ricordo male (non so rispetto al freesync 2.0), venderebbe anche più schede visto che avrebbe copertura al 100% dei monitor presenti sul mercato e c'è una fetta di utenti che non compra nvidia perché possiede un monitor freesync e al contrario, chi ha un monitor gsync non comprerebbe amd, l'eventuale calo di vendita del gsync sarebbe marginale perché spesso chi lo acquista lo farebbe a prescindere un po' come chi precedentemente acquistava schede nvidia a pari prestazione di amd ad un costo maggiore
Nvidia vende lo stesso, chi glielo fa fare?
Io mi aspetto un +25% con 2080 rispetto 1080ti (probabilmente una 1080ti Occata per benino potrebbe raggiungere la 2080 def, un pò come 980ti che a 1.5ghz raggiunge 1080), ma con 2080ti parlando sempre di clock def almeno +40/+50% di prestazioni anche perchè la differenza data dai soli cc è bella che consistente...
Magari, ma credo sarà meno.
La 980ti a 1.5ghz raggiunge la 1080def? Sicuri?
cut
Raggiunge una 1080 stock. Per quei pochi fortunati che hanno stabilità a lunga percorrenza.Pochi chip comunque ad aria.
Resta superiore come bus rispetto alla 1080 ha un pò piu bandwidth
illidan2000
10-10-2017, 15:07
1)La 980ti a 1.5ghz raggiunge la 1080def? Sicuri?
2)Domanda: ma a nvidia, non conviene abbracciare il supporto fresync? Il gsync se non sbaglio rimarrebbe lievemente superiore se non ricordo male (non so rispetto al freesync 2.0), venderebbe anche più schede visto che avrebbe copertura al 100% dei monitor presenti sul mercato e c'è una fetta di utenti che non compra nvidia perché possiede un monitor freesync e al contrario, chi ha un monitor gsync non comprerebbe amd, l'eventuale calo di vendita del gsync sarebbe marginale perché spesso chi lo acquista lo farebbe a prescindere un po' come chi precedentemente acquistava schede nvidia a pari prestazione di amd ad un costo maggiore
1) no. secondo me manco stock
2) no. non le conviene, perché tanto le schede le vende lo stesso, e guadagna pure su gsync
+25% della 2080 sulla 1080ti vorrebbe dire che la 2080 andrebbe +65% rispetto la 1080, in poche parole prevedi lo stesso salto avvenuto col passaggio maxwell-pascal e cambio PP... uhm
Certo è che il die GV104 sarà più grande del GP104 del 20~25% (315 vs 400) e i clock affinati, ma mi pare un salto enorme +65% in queste condizioni.
Non mi sembrano condizioni così estreme, 1080ti e 2080 avrebbero gli stessi cc e nel peggiore dei casi andrebbero uguali clock for clock, però con volta è probabile che abbia apportato diverse migliorie elettriche e considerando che una 1080FE boosta sui 1700-1800mhz basterebbe che l'eventuale 2080 esca con un clock di circa 2.2ghz per andare il fatidico 25% in più...
pascal è il die shrink di maxwell basta leggere. Quindi ha tutti i benefici del nuovo processo e basta. Volta sarà la vera evoluzione del progetto indipendentemnete dal nodo che utilizzeranno. Un po quello che è avvenuto con kepler.
Maxwell nonostante i 28 stracciava la vecchia serie 700 bastava un 970 per umiliare la punta di diamante il silicio perfetto la 780ti. Portanto persino aumenti di clock che sembravano impensabili sul quel pp.
Uno scarto della titan come la 980ti chip fallati raggiunge frequenze che la concorrenza non è riuscita ad eguagliare sempre in quel periodo pari processo litorgrafico
mircocatta
11-10-2017, 08:49
pascal è il die shrink di maxwell basta leggere. Quindi ha tutti i benefici del nuovo processo e basta. Volta sarà la vera evoluzione del progetto indipendentemnete dal nodo che utilizzeranno. Un po quello che è avvenuto con kepler.
Maxwell nonostante i 28 stracciava la vecchia serie 700 bastava un 970 per umiliare la punta di diamante il silicio perfetto la 780ti. Portanto persino aumenti di clock che sembravano impensabili sul quel pp.
Uno scarto della titan come la 980ti chip fallati raggiunge frequenze che la concorrenza non è riuscita ad eguagliare sempre in quel periodo pari processo litorgrafico
la 970 raggiungeva la 780, non di più, magari raggiunge la 780ti solo in alcuni casi dove kepler ha gravi lacune..
Si va beh 2.2ghz in boost def per la FE... :sofico:
Forse non ti ricordi che Pascal = Maxwell su silicio nuovo quindi ci ha guadagnato in clock e scala bene, mentre Volta è un architettura rivista su silicio pressoché identico (+10%), quindi soggetto ad incognite naturali, non capisco come dai per scontato certe cose.
Ritornando sul clock, 2.2 ghz medio in boost per la FE è utopia, in OC a cosa arriva a 2.5ghz?
Comunque sia la 1080 che la 1080ti FE bostano mediamente sui 1780mhz
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080/31.html
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080_Ti/34.html
la 2080 avrà si gli stessi cc della 1080ti, ma avrà meno rops (4gpc vs 6 gpc), bus più piccolo (256 vs 384 bit) e quindi banda simile/inferiore grazie alle gddr6 che recuperano sulle gddr5x ma non così tanto.
L'altra incognita sono le migliorie legate all'architettura, che incremento daranno e se lo daranno... chi lo sa? :D
Bhè già con Pascal, si arriva a clock di 2-2.1ghz con vcore def (data l'impossibilità tra l'altro di aumentarlo) e qualcuno anche oltre queste frequenze, e parliamo di un pp nuovo, se migliorano le rese oltre a migliorie elettriche non è da escludere un miglioramento dei clock, poi ancora non si sa nulla se clock for clock rendano uguale, volta potrebbe portare anche a un miglioramento di un 5-10% a pari cc e frequenze e basterebbe anche un clock più contenuto per avere lo stesso boost...
Sul bus, non credo sia un problema se ci saranno le GDDR6, inoltre anche le latenze sarebbero decisamente minori ;)
Forse sei tu che non leggi :D
Non puoi paragonare Kepler a Pascal, è questo il punto: Kepler è un colabrodo, Pascal no.
Volta rispetto a Pascal nella stessa roadmap di nvidia è un salto in perf/watt minore di Pascal su Maxwell, infatti Pascal non esisteva nemmeno nella roadmap originale, e per aumentare il perf/watt hanno sganciato cash per farsi fare un PP ad hoc, il 12nm FFN.
Io non do nulla per scontato, magari poi davvero la 2080 va +25~30% sulla 1080ti, ma considerando anche il fatto che con Pascal hanno già fatto un lavoro eccezionale in condizioni migliori mi sembra davvero troppo.
ps. La concorrenza non li eguagliava perché le architetture erano/sono ben diverse, già Vega utilizza pipeline più lunghe e sale +200mhz in clock rispetto a Polaris, ma poi è come dire che Intel non eguagliava il clock di AMD all'epoca dei 45-32nm... non significa nulla.
non eri quotato non era riferito a te ne voleva essere un attacco nei confronti di nessuno. Per il resto ti leggo leggo tutti :p
ops quelli in ignore come i cazzari liquidator no in effetti
AceGranger
11-10-2017, 09:27
Forse sei tu che non leggi :D
Non puoi paragonare Kepler a Pascal, è questo il punto: Kepler è un colabrodo, Pascal no.
Volta rispetto a Pascal nella stessa roadmap di nvidia è un salto in perf/watt minore di Pascal su Maxwell, infatti Pascal non esisteva nemmeno nella roadmap originale, e per aumentare il perf/watt hanno sganciato cash per farsi fare un PP ad hoc, il 12nm FFN.
Io non do nulla per scontato, magari poi davvero la 2080 va +25~30% sulla 1080ti, ma considerando anche il fatto che con Pascal hanno già fatto un lavoro eccezionale in condizioni migliori mi sembra davvero troppo.
ps. La concorrenza non li eguagliava perché le architetture erano/sono ben diverse, già Vega utilizza pipeline più lunghe e sale +200mhz in clock rispetto a Polaris, ma poi è come dire che Intel non eguagliava il clock di AMD all'epoca dei 45-32nm... non significa nulla.
prendendo come paragone i chip che gia conosciamo GP100 e GV100, a parita di TDP e con clock identici, è lecito supporre la fattibilita di un +40% di TFlops per ogni GPU.
1080 e 1080Ti quanto distano l'una dall'altra in prestazioni in game ?
TigerTank
11-10-2017, 09:33
Dipende da giochi e risoluzione...ma considerando la 1440p io direi un 20-25% medio tra 1080 e 1080Ti...e presumo che la 2080 avrà un margine simile rispetto alla 1080Ti.
Insomma, soliti stacchi...non credo proprio che nvidia si metterà a vendere 2080 da 700€ che andranno quanto le 1080Ti e delle 2070 da 500€ che andranno quando le 1080 :D
Dipende da giochi e risoluzione...ma considerando la 1440p io direi un 20-25% medio tra 1080 e 1080Ti...e presumo che la 2080 avrà un margine simile rispetto alla 1080Ti.
Insomma, soliti stacchi...non credo proprio che nvidia si metterà a vendere 2080 da 700€ che andranno quanto le 1080Ti e delle 2070 da 500€ che andranno quando le 1080 :D
Quindi ci ritroviamo di nuovo con chip di fascia media a pagarli da fascia premium.
Ecco cosa crea l'assenza di competizione :muro:
400mmq non è fascia media, ma alta ;)
fascia media è dai 200 ai 250mmq, 400 è alta, poi esistono le eccezioni o le vie di mezzo come Tonga... ma poi che t'importa, contano le prestazioni!
I mm^2 lasciano il tempo che trovano soprattutto al maturare del nodo.
Nvidia è sempre stata chiarissima con la declinazione delle proprie gpu. La fascia 104 è la fascia media. 102 è fascia enthusiast, 100 è fascia professional. E' sempre stato così dai tempi di Fermi.
Conta eccome, GP104, chip di fascia media secondo la testa nomenclatura nvidia l'abbiamo pagato 700 euro alla release e lo ritroviamo a 500 euro dopo piu di un anno.
E con volta? Ci rifileranno nuovamente GV104 e il cut a 7-500 euro.
Pensare che con Maxwell avevamo i 104 a partire da 300 euro e 550 al massimo.
Se non è mancanza di competizione questa e non ci ritroviamo in un periodo di buio assoluto lato gaming (sembra il 2011 lato cpu ormai, ci ha salvato giusto il balzo 28-16/14 nm).
Finisce che volta avrà si e no un balzo di un 20% di prestazioni per prezzi che son sempre li stessi ed un architettura che sarà maxwell ricicciato per la quarta volta.
Altro che 2011 per il gaming, sembra g80 parte 2, la vendetta.
Io non credo che la competizione centri molto, nvidia alla fine sta procedendo con le sue roadmap, i prezzi che sono la nota dolente più meno seguono sempre la stessa logica, e come al solito i chip più interessanti come prezzo-prestazioni saranno o quelli di fascia media con 2060 che credo abbia prestazioni a cavallo tra 2070 e 2080 (non arrivando a quest'ultima ma poco male per un chippetto) o i chip GV102 sperando che la ti non venga laserata troppo a questo giro...
Spero solo che il fattore miners non vada a incidere troppo...
Io non credo che la competizione centri molto, nvidia alla fine sta procedendo con le sue roadmap, i prezzi che sono la nota dolente più meno seguono sempre la stessa logica, e come al solito i chip più interessanti come prezzo-prestazioni saranno o quelli di fascia media con 2060 che credo abbia prestazioni a cavallo tra 2070 e 2080 (non arrivando a quest'ultima ma poco male per un chippetto) o i chip GV102 sperando che la ti non venga laserata troppo a questo giro...
Spero solo che il fattore miners non vada a incidere troppo...
Le roadmap si cambiano in base a tanti fattori anche sei mesi prima eh.
E' ovvio che stiamo pagando per gp104 prezzi a dir poco stratosferici per dei chip di fascia media (parliamo di chip anche piccoli, santo cielo 1080 è un chip da 312 mm^2 costa poco di più di un chip polaris da produrre, ma viene venduto a piu del doppio).
La cosa è molto preoccupante e la mancanza di competizione la paghiamo noi gamers mentre Nvidia ha avuto i 18 mesi più profittevoli della propria storia.
Perchè li ha avuti? Perchè può mettere prezzi stratosferici su dei chip piuttosto economici di un architettura fondamentalmente riciclata da 3-4 anni.
E Volta non sembra preannunciare niente di meglio onestamente che non la stessa cosa.
che poi la concorrenza sia scarsa in fascia "enth" non c'entra con le gerarchie e i mmq.
E da quando in qua la fascia 104 è mai stata una fascia venduta a 700 euro?
Guarda che c'è ben poco da disquisire, fino a (sette?) anni fa i chip top di gamma erano venduti entro i 500 euro, ma i top di gamma eh (eccezion fatto per la 8800 gtx ultra e pochissimissima altra roba).
Capisco tu ti sia registrato da poco, e forse sia giovane, ma questa situazione è direttamente frutto della mancanza di competizione lato gpu ed è già avvenuto prima ai tempi di g80 ed è avvenuto da sandy bridge in poi lato cpu.
I top di gamma oggi sono lanciati e venduti con molto ritardo e in genere cuttati a non meno di 700 euro (vedi il gran riciclo di gp102, ma valeva anche prima).
I chip di fascia media (quindi nè il top per gpgpu, nè il chip top consumer, ma il terzo in classifica) ora ce li ritroviamo a 700 euro.
Senza se e senza ma.
GP104, un chip piccolo da 312 mm^2, di un architettura riciclata da 3 anni (un ottima architettura, non ci piove), ce lo stanno vendendo da più di un anno fra i 500 e i 700 euro.
Questo accade per la totale mancanza di competizione.
Non è che Nvidia sta facendo tutti questi profitti perchè vende più gpu del passato (e sta passando i propri anni migliori), ma perchè può mettere prezzi elevatissimi su chip che prima sarebbero stati di fascia media. Ma ora senza competizione vanno benissimo per quella alta.
E non a caso un chip da 484 mm^2 top AMD fa a caso a competere con uno da 300 di Nvidia e a rimetterci siamo noi gamers.
Poi se vuoi difendere Nvidia a spada tratta e dire che "tutto va bene", sei felice di farlo, la realtà dei fatti è che stiamo pagando un salasso per dei chip economici da produrre per la felicità di Nvidia.
E non sto dicendo che Nvidia faccia male eh, Nvidia deve giustificazioni solo agli investitori Nvidia, sta facendo benissimo.
Ma per noi consumer la situazione è tragica e non so se vi rendete conto che per i prossimi due anni fondamentalmente non cambierà assolutamente nulla. Prezzi alti per un evoluzione ferma dal 2013-2014.
AceGranger
11-10-2017, 10:53
ah ok :)
soprattutto, cosa che non ho ribadito, gk110 (560mmq) è un chip gpgpu ed è l'ultimo utilizzato per il gaming, gm204 (400mmq) è un chip dedicato anche per quello rende meglio e in perf/watt massacra kepler sullo stesso nodo, non a caso nvidia decise di saltare una serie commerciale 700→900.
infatti, io rimango convinto del fatto che se la 2080 andrà mediamente il +10% sulla 1080ti al lancio è già ottimo, per poi allungare, costando però un centone meno... mica farebbe schifo, anzi!
Ultimamente vedo stacchi abbastanza netti della 1080ti sulla 1080, soprattutto in QHD e UHD ma anche in FHD nell'ordine del +35~40% o addirittura di più.
http://gamegpu.com/action-/-fps-/-tps/middle-earth-shadow-of-war-test-gpu-cpu
http://gamegpu.com/action-/-fps-/-tps/star-wars-battlefront-ii-beta-test-gpu-cpu
http://gamegpu.com/rts-/-%D1%81%D1%82%D1%80%D0%B0%D1%82%D0%B5%D0%B3%D0%B8%D0%B8/total-war-warhammer-ii-test-gpu-cpu
http://gamegpu.com/racing-simulators-/-%D0%B3%D0%BE%D0%BD%D0%BA%D0%B8/project-cars-2-test-gpu-cpu
certo ci sono anche titoli così dove lo stacco e basso
http://gamegpu.com/action-/-fps-/-tps/call-of-duty-wwii-beta-test-gpu-cpu
Sicuramente il fatto di avere un chip leggermente più piccolo (400 vs 470 mmq) aiuterà il clock oltre al lavoro ingegneristico.
1080 - 9 TFLOPs
1080Ti - 11,3 TFLOPs
2080 - ~12,6 TFLOPs
2080Ti - ~15,8 TFLOPs
( a parita di clock , con un 40% teorico sui TFlops, la 2080 dovrebbe andare un 5-10% in piu della 1080Ti, con un guadagno superiore alle alte risoluzioni presupponendo una frequenza superiore della Vram.
il broblema sara vedere come quel 40% si adattera al "taglio" dei CUDA Core.
anche rispetto al gp106 allora, guarda che sono 200mmq vs 230mmq di polaris, se fai questo ragionamento con polaris devi farlo anche internamente con gp106... cosa fanno smettono di produrre chip piccoli o enormi, che tanto hanno il gp104?
ma invece di dire amd ha fatto schifo, non riesci a dire è stata brava nvidia a fare un chip perfetto come gp104? non è difficile da capire.
Usando un ragionamento brutto e altamente criticabile, anche la 1070 se stampata a parte e con un bus a 192bit sarebbe rientrata nei 235mmq e volendo usando le GDDR5X si sarebbe recuperato il gap rispetto i 256bit :sofico:
Ma perché vendono cellulari a 1000€? una volta i top di gamma costavano 500... e di competizione ce n'è a volontà eh... :rolleyes:
Si chiama legge di mercato, non è solo un fatto di mancanza di concorrenza, oltre al fatto che poi parlando in modo nazionale l'euro ha perso potere sul dollaro.
Allora perché nvidia produce gp102, dai fa schifo è grande il +50% rispetto a gp104, non va il +50%, costerà sicuramente il doppio o più per produrlo ma è venduto soltanto al +35% del prezzo, come le sue prestazioni mediamente dopotutto... ma ti pare un discorso normale?
Hai ragione, Nvidia sta guadagnando gozzilioni (4-5 volte profitti maggiori che nel resto della sua storia) negli ultimi 18 mesi perchè sta vendendo a malapena in profitto chip costosissimi da produrre :sisi:
Tanto per farti capire, Nvidia vende all'incirca la metà di gpu che vendeva otto-dieci anni fa, facendo quattro volte più profitti.
E indovina da dove vengono questi profitti? Dal vendere a prezzi esorbitanti chip economici da produrre, chip che sono declinati da nvidia stessa di fascia media o bassa, ma venduti a prezzi di fascia superiore.
Il paragone con i telefoni non regge. Le gpu fanno quello che facevano 10 anni fa. I telefoni hanno una componentistica che dieci anni fa non avevano. Senza contare che in ambito telefonico di competitors ce ne saranno due dozzine, non esclusivamente due di cui uno che non è più competitivo dal lancio di Hawaii (che guarda caso con un chip che vendevano a 300 euro competevano con il chip di fascia enthusiast di Nvidia venduto a 1000 e che ha portato ad un architettura magnifica come Maxwell, venduta a prezzi estremamente competitivi (ti ricordo che 970 è stata lanciata a 309 euro iva inclusa e dopo pochi mesi trovavi 970 anche sotto i 300).
Puoi girarci intorno quanto ti pare, ma in una situazione competitiva GP104 sarebbe stato lanciato a 300 euro per la 1070 e 450 per la 1080, Nvidia ci avrebbe comunque fatto profitto (molto, come ha sempre fatto su questi chip, incluse quelle padelle di Fermi) ma noi consumatori non dovremmo strapagare questi chip come stiamo facendo.
Le roadmap si cambiano in base a tanti fattori anche sei mesi prima eh.
E' ovvio che stiamo pagando per gp104 prezzi a dir poco stratosferici per dei chip di fascia media (parliamo di chip anche piccoli, santo cielo 1080 è un chip da 312 mm^2 costa poco di più di un chip polaris da produrre, ma viene venduto a piu del doppio).
La cosa è molto preoccupante e la mancanza di competizione la paghiamo noi gamers mentre Nvidia ha avuto i 18 mesi più profittevoli della propria storia.
Perchè li ha avuti? Perchè può mettere prezzi stratosferici su dei chip piuttosto economici di un architettura fondamentalmente riciclata da 3-4 anni.
E Volta non sembra preannunciare niente di meglio onestamente che non la stessa cosa.
Su questo posso anche concordare se si pensa che la titan ha la stessa complessità di una GTX 580, ma è anche vero che parliamo di epoche totalmente diverse e il mercato non segue il concetto di complessità del chip, se no dopo un anno non avresti quasi un dimezzamento dei prezzi...
Purtroppo il mercato segue anche la legge della domanda e dell'offerta e 10 anni fa non c'era una richiesta così elevata dei chips, infatti se ci fai caso sempre più ragazzini assemblano pc, attualmente ho 25 anni e da piccolo quando assemblai il mio primo pc a 14-15 anni ero praticamente l'unico in zona e nella mia classe, ora mi guardo in giro e la maggior parte dei ragazzi di quell'età iniziano...
Per non parlare dei cellulari dove ai miei tempi, l'N95 8GB con symbian e la possibilità di installare applicazioni e giochi veniva visto come tecnologia aliena... (inizio a sentirmi vecchio) :sofico:
Su questo posso anche concordare se si pensa che la titan ha la stessa complessità di una GTX 580, ma è anche vero che parliamo di epoche totalmente diverse e il mercato non segue il concetto di complessità del chip, se no dopo un anno non avresti quasi un dimezzamento dei prezzi...
Purtroppo il mercato segue anche la legge della domanda e dell'offerta e 10 anni fa non c'era una richiesta così elevata dei chips, infatti se ci fai caso sempre più ragazzini assemblano pc, attualmente ho 25 anni e da piccolo quando assemblai il mio primo pc a 14-15 anni ero praticamente l'unico in zona e nella mia classe, ora mi guardo in giro e la maggior parte dei ragazzi di quell'età iniziano...
Per non parlare dei cellulari dove ai miei tempi, l'N95 8GB con symbian e la possibilità di installare applicazioni e giochi veniva visto come tecnologia aliena... (inizio a sentirmi vecchio) :sofico:
Guarda che 10 anni fa si vendevano più gpu di oggi eh, la richiesta era molto più elevata, più del doppio:
https://images.anandtech.com/doci/10613/jpr_q2_2016_mkt_historical_annual_gpu_sales.png
Sicuramente GloFo e TSMC oggi producono molti più chip che 10 anni fa, perchè non c'era questa richiesta astronomica di SoC mobile e sicuramente questo incide sui prezzi delle gpu che devono competere per le fonderie, ma il fatto che paghiamo questi prezzi astronomici per le gpu deriva dalla mancanza di competizione. 3 anni fa questa situazione non c'era e la domanda di SoC era comunque paragonabile a quella odierna.
Quello che io vedo è un mercato dove Nvidia andrà avanti riciclando e portando poche migliorie alle proprie gpu dal 2013. AMD che ricicla Tonga in Polaris a distanza di 4 anni dal lancio e che continerà a farlo per almeno i prossimi 12-16 mesi e che ricicla Fiji aggiungendo qualche miliardo di transistor solo per raggiungere frequenze più elevate.
Ergo ci ritroviamo dal 2013 al 2017 prigionieri di un solo balzo prestazionale (dovuto allo shrink) e a strapagare i chip.
AMD ormai può solo proseguire nella disperata direzione di Infinity Fabric per Navi e connettere più gpu su un unico memory controller, una situazione che inevitabilmente strizzerà l'occhio al mercato professional dove le latenze contano poco a differenza dei giochi perchè tanto anche quando fa gpu valide vende poco e Nvidia che può tranquillamente venderci a prezzi molto elevati gpu semplicemente più grandi di quelle precedenti beneficiando degli sconti derivanti da processi più maturi e di una competizione inesistente.
E la cosa peggiore è che noi gamers non possiamo farci assolutamente nulla e neanche nel 2018 avremo una gpu che ci farà dire "ah ora a 4k sto tranquillo" a meno di non rinunciare a filtri ed effetti (cosa che io faccio molto volentieri, ma molti no).
Guarda che 10 anni fa si vendevano più gpu di oggi eh, all'incirca il doppio.
Non confondere oggi con 2015-2017 perchè sopratutto quest'anno è stato preda dei miners in ambito gpu mentre in ambito cpu il sovrapprezzo delle DDR4 ha contenuto molti dall'upgrade...
L'hai visto anche in prima persona come la 1070 sia passata da 350€ nuova, e con l'abnorme richiesta sia slittata a oltre 420-450€... E probabilmente la prossima 1070ti dovrebbe porre rimedio a questo scenario... (si spera)
Non confondere oggi con 2015-2017 perchè sopratutto quest'anno è stato preda dei miners in ambito gpu mentre in ambito cpu il sovrapprezzo delle DDR4 ha contenuto molti dall'upgrade...
L'hai visto anche in prima persona come la 1070 sia passata da 350€ nuova, e con l'abnorme richiesta sia slittata a oltre 420-450€... E probabilmente la prossima 1070ti dovrebbe porre rimedio a questo scenario... (si spera)
Si ma non ti credere che i numeri siano raddoppiati o aumentati del 50 %. Nel 2016 solo l'ultimo quarto ha avuto un dato superiore ai 3 anni precedenti ed era in linea con il primo quarto del 2014. Ergo non pensare che si stiano vendendo più gpu ora che nel 2010. C'è semplicemente più competizione per lo stesso numero di gpu.
I miners non hanno aumentato i volumi di vendita, hanno solo tolto gpu ai gamer. E i miners hanno già contribuito in passato alla vendita di milioni di schede 7970, 280, 290 (soprattutto 390) e Fiji. Ma quello non ha certo interrotto il declino di vendite.
Nvidia e AMD vanno alle fonderie e ordinano tot chip, ma quelli vendono, non più non meno.
Polaris è ancora fondamentalmente assente dagli scaffali dopo 4 mesi ma è normale, deve mettersi in fila per produrne altre.
Se prendi l'hashrate di ethereum, ethereum classic e qualche altra coin minabile da gpu (zcash) e fai due calcoli, trovi che l'hashrate derivante viene all'incirca da 3-4 milioni di gpu (allargandoci) e questo ammettendo che vengano usate solo gpu polaris e pascal, cosa per niente vera.
Non dubito che il primo e secondo quarto del 2017 siano stati molto buoni e superiori agli anni precedenti (anche se da giugno in poi le schede sono sparite e straprezzate quindi a chi le hanno vendute se non ci sono?) ma non siamo ai livelli di 10 anni fa.
Per questo ribadisco che la situazione odierna in ambito gpu è estremamente preoccupante.
Si ma non ti credere che i numeri siano raddoppiati o aumentati del 30 %.
I miners non hanno aumentato i volumi di vendita, hanno solo tolto gpu ai gamer.
Nvidia e AMD vanno alle fonderie e ordinano tot chip, ma quelli vendono, non più non meno.
Polaris è ancora fondamentalmente assente dagli scaffali dopo 4 mesi ma è normale, deve mettersi in fila per produrne altre.
Concordo, però se da un lato migliori le rese passando da 65nm agli attuali pp, i costi di sviluppo aumentano ed sempre più difficoltoso scendere ulteriormente.
Di recente sono comparsi anche diversi progetti per le gpu con un approccio non più monolitico ma come già si stava parlando nell'altro 3D i problemi di latenza si fanno consistenti almeno per le tecnologie attuali, e trovare soluzioni costa...
Inoltre penso che 10 anni fa ci sia stato anche un picco per via delle aziende, e personalmente la maggior parte delle aziende e delle università che mi sono capitate vedo che non ha HW recentissimi (in realtà neanche SW :D ) quindi è probabile che il prossimo boom si avrà quando anche queste inizieranno in massa ad acquistare un nuovo parco macchine, per ora il mercato è tutto concentrato sul "gaming" e led, led ovunque... (sarà un caso?)
bagnino89
11-10-2017, 12:03
Diciamo anche che prima si vendevano molte più schede dedicate di oggi... Oggi chi non gioca o non ne fa utilizzi professionali, si fa bastare tranquillamente le GPU integrate.
TigerTank
11-10-2017, 12:52
Quindi ci ritroviamo di nuovo con chip di fascia media a pagarli da fascia premium.
Ecco cosa crea l'assenza di competizione :muro:
Ormai si sa che l'ordine con cui escono le schede è per massimizzare i profitti sull'onda del fattore scimmia.
Prima escono le x80 a prezzo pompato, poi le x70 che spesso hanno miglior rapporto prezzo-prestazioni. Così ricavano il massimo utile sul fattore novità, sul nuovo step prestazionale ed eventuali features hyperate.
Quasi in parallelo o poco dopo esce la Titan-salasso, ma quella è già più d'elite.
Con calma per ultima arriva quasi un annetto dopo la Ti...che ovviamente rispetto ai prezzi di lancio di x80 e titan ha il rapporto prezzo-prestazioni migliore...ma ovviamente gli inscimmiati cronici non possono resistere tanto a livello di attesa o al massimo fanno il doppio upgrade nella stessa generazione :D
AceGranger
11-10-2017, 13:13
dove hai preso i TF dai valori nominali dichiarati? ...uhm, lasciano il tempo che trovano onestamente, dai dati di TPU secondo i test:
la 1080 FE boosta medio a 1780mhz, aka 9.1TF
la 1080ti FE boosta medio a 1780mhz, aka 12.8TF
la 2080 FE per fare +10% in TF dovrà boostare medio a 1970mhz, aka 14.1TF che rispetto ai 9.1TF della 1080 sono +55%...
ovviamente stiamo parlando solo di numeri in TF, e non della risposta sul campo degli stessi.
infatti, cioè sono ragionamenti campanilistici, gp104 è il chip migliore credo degli ultimi 10 anni se non di sempre da tutti i punti di vista, costi prestazioni guadagno, ecc.
va bè non è che il discorso cambi con i valori nominali o con quelli rilevati da TPU; visto che il discorso si faceva a parita di TDP e di frequenze.
io parlavo di 10% di prestazioni in piu, che sono si legate ai TFLOPs ma non proprio direttamente.
dai tuoi link la 1080Ti va un 35-40% in piu della 1080, avendo il 30% di TFLOPs; la 2080 presumo avra una banda vram migliore che credo la aiutera alle risoluzioni piu elevate.
E da quando in qua la fascia 104 è mai stata una fascia venduta a 700 euro?
I chip di fascia media (quindi nè il top per gpgpu, nè il chip top consumer, ma il terzo in classifica) ora ce li ritroviamo a 700 euro.
Senza se e senza ma.
QFT.
Ciao a tutti,
mi iscrivo al thread con una domanda veloce: si sa nulla di quando usciranno le nuove schede Nvidia?
Potrei dover cambiare la mia e volevo sapere se aspettare (cosi' magari da spendere meno per quelle attuali) oppure comprare a breve che tanto se ne parlera' tra un bel po'.
Grazie :)
Legolas84
13-10-2017, 20:43
Le nuove schede usciranno probabilmente verso marzo-maggio del prossimo anno... ora sta uscendo la 1070ti ma non è certo una novità :D
illidan2000
17-10-2017, 13:30
Non confondere oggi con 2015-2017 perchè sopratutto quest'anno è stato preda dei miners in ambito gpu mentre in ambito cpu il sovrapprezzo delle DDR4 ha contenuto molti dall'upgrade...
L'hai visto anche in prima persona come la 1070 sia passata da 350€ nuova, e con l'abnorme richiesta sia slittata a oltre 420-450€... E probabilmente la prossima 1070ti dovrebbe porre rimedio a questo scenario... (si spera)
beh i miners ci stanno ormai da anni, e penso che il periodo d'oro sia finito
mikael84
17-10-2017, 14:48
Raggiunge una 1080 stock. Per quei pochi fortunati che hanno stabilità a lunga percorrenza.Pochi chip comunque ad aria.
Resta superiore come bus rispetto alla 1080 ha un pò piu bandwidth
1) no. secondo me manco stock
2) no. non le conviene, perché tanto le schede le vende lo stesso, e guadagna pure su gsync
1500 x 7900/8000 è il rapporto con la 1080 default da review, ovvero quella che scende anche sotto i 1700.
Fanno eccezione i giochi dove si sfruttano notevolmente i cicli minori in rasterizzazione (the wither 3 ad esempio), ma in linea di massima siamo li.
Chiaro che una 1080 occata + PL se la beve;)
va bè non è che il discorso cambi con i valori nominali o con quelli rilevati da TPU; visto che il discorso si faceva a parita di TDP e di frequenze.
io parlavo di 10% di prestazioni in piu, che sono si legate ai TFLOPs ma non proprio direttamente.
dai tuoi link la 1080Ti va un 35-40% in piu della 1080, avendo il 30% di TFLOPs; la 2080 presumo avra una banda vram migliore che credo la aiutera alle risoluzioni piu elevate.
Occhio che i TF sono solo un valore teorico in virgola mobile.
Volta è suddiviso in SM da 16x4, con 16 fp32 x 1024 istruzioni.
Con il Volta gaming, potremmo anche avere a pari TF, tutto tagliato ma anzichè 4 warp, 2 warp da 32, in rapporto 32/16 e 32k istruzioni.
C'è una buona possibilità di vedere dei singoli cuda processare 1024 istruzioni.
Kepler ne processava 341 con dipendenze e latenze, senza dipendenze 256, Maxwell è passato a 512, stesso con Pascal.
Con Volta, si potrebbe passare alle 1024 istruzioni, questo significherebbe che un cuda è il doppio più performante.
Ci dovrebbero essere buone migliorie anche sulla L1, fattore che in gran parte ha reso Haswell meglio di Ivy.:)
mikael84
17-10-2017, 15:36
Ciò che non capisco è come queste migliorie non abbiano un costo in termini di transistors e consumo, sappiamo che avverrà l'incremento dei GCP a 7 TPC invece che 5 e quindi logicamente Die un po' più grandi, ma l'aumentare di tutti questi rapporti che citi non costerebbe altrettanti transistor e mmq? ovviamente parlo al netto del silicio, ma anche utilizzassero i 12nm FFN si avrà un aumento del 10% della densità rispetto i 16nm, sufficiente a coprire queste migliorie quindi?
Tutto quello citato da me sta dentro il warp, che è mediamente tra i 5/7,5mmq2 (ne più, ne meno) con la FP64.
Il fatto di processare più istruzioni non cambia nulla in termini di grandezza, puoi processarle anche nel classico 4:1:1.
La differenza si avvertirà introducendo i 2 TPC e 256kb di l2 e 32kb l1 (unificato).
Nvidia malgrado i transistor, setta sempre in base a 45 watt per GPC.
1500 x 7900/8000 è il rapporto con la 1080 default da review, ovvero quella che scende anche sotto i 1700.
Fanno eccezione i giochi dove si sfruttano notevolmente i cicli minori in rasterizzazione (the wither 3 ad esempio), ma in linea di massima siamo li.
Chiaro che una 1080 occata + PL se la beve;)
Occhio che i TF sono solo un valore teorico in virgola mobile.
Volta è suddiviso in SM da 16x4, con 16 fp32 x 1024 istruzioni.
Con il Volta gaming, potremmo anche avere a pari TF, tutto tagliato ma anzichè 4 warp, 2 warp da 32, in rapporto 32/16 e 32k istruzioni.
C'è una buona possibilità di vedere dei singoli cuda processare 1024 istruzioni.
Kepler ne processava 341 con dipendenze e latenze, senza dipendenze 256, Maxwell è passato a 512, stesso con Pascal.
Con Volta, si potrebbe passare alle 1024 istruzioni, questo significherebbe che un cuda è il doppio più performante.
Ci dovrebbero essere buone migliorie anche sulla L1, fattore che in gran parte ha reso Haswell meglio di Ivy.:)
Che intendi per processare 1024 istruzioni?
Nulla di questo è menzionato da nessuna parte, nemmeno qui:
http://docs.nvidia.com/cuda/pascal-tuning-guide/index.html
Se intendi dire che ogni cuda può processare 512 istruzioni per ciclo è un affermazione che non capisco e che mi sembra piuttosto errata. Tra l'altro le gpu, a differenza dei processori, non hanno compatibilità binaria (la stessa istruzione può essere singola o multipla in base allo shader utilizzato).
mikael84
17-10-2017, 23:09
Che intendi per processare 1024 istruzioni?
Nulla di questo è menzionato da nessuna parte, nemmeno qui:
http://docs.nvidia.com/cuda/pascal-tuning-guide/index.html
Se intendi dire che ogni cuda può processare 512 istruzioni per ciclo è un affermazione che non capisco e che mi sembra piuttosto errata. Tra l'altro le gpu, a differenza dei processori, non hanno compatibilità binaria (la stessa istruzione può essere singola o multipla in base allo shader utilizzato).
Ma errata di che:stordita: :)
Il gigathread una volta fatto il passaggio in memoria, crea ed invia i blocchi di thread ad i rispettivi warp.
Ogni warp può processare un tot di istruzioni contemporanee in base ad un contatore preposto.
Se il warp è in grado di processare 16k istruzioni, significa che ogni cuda tramite la LSD può accedere alle relative istruzione.
GV100 ha un SM di 4 warp da 16k istruzioni 32 bit per un totale di 65k.
All'interno del warp, ogni thread può elaborare 1024 istruzioni.
65k/16=1024
GP100 ha dei thread da 32 ALU 32k R32b
32k (4)/32=1024
16k 32b/16= 1024
Il chip gaming invece può processare per warp 16k istruzioni su 32 thread.
Kepler 65k 32b/96=341 in 6:1 tra CC/LDS.
Il contatore thread può anche pensare di suddividere i thread in gruppi di 4, fattore diverso con Volta, dove ogni thread è indipendente.
Il fattore istruzioni è proporzionalmente legato a warp ed istruzioni totali;)
Ma errata di che:stordita: :)
Il gigathread una volta fatto il passaggio in memoria, crea ed invia i blocchi di thread ad i rispettivi warp.
Ogni warp può processare un tot di istruzioni contemporanee in base ad un contatore preposto.
Se il warp è in grado di processare 16k istruzioni, significa che ogni cuda tramite la LSD può accedere alle relative istruzione.
GV100 ha un SM di 4 warp da 16k istruzioni 32 bit per un totale di 65k.
All'interno del warp, ogni thread può elaborare 1024 istruzioni.
65k/16=1024
GP100 ha dei thread da 32 ALU 32k R32b
32k (4)/32=1024
16k 32b/16= 1024
Il chip gaming invece può processare per warp 16k istruzioni su 32 thread.
Kepler 65k 32b/96=341 in 6:1 tra CC/LDS.
Il contatore thread può anche pensare di suddividere i thread in gruppi di 4, fattore diverso con Volta, dove ogni thread è indipendente.
Il fattore istruzioni è proporzionalmente legato a warp ed istruzioni totali;)
Mah, io ricordavo di aver letto un IPC per singolo cuda core (ovviamente in base al tipo di istruzioni) compreso fra i 0.7 e i 2.1 per clock (vari benchmark, ovviamente fanno leva su istruzioni differenti) ergo mi chiedo che cosa sono queste istruzioni di cui parli, immagino non l'equivalente di una singola istruzione in assembly per la cpu. Perchè non ci credo neanche morto che un singolo cuda possa in un singolo ciclo, facendo il conto di 512 istruzioni, ad esempio effettuare in un clock 128 letture nella cache, 128 bitshift, 128 scritture e boh 128 te le do per buone :asd: ma è assolutamente improbabile.
mikael84
19-10-2017, 00:43
Mah, io ricordavo di aver letto un IPC per singolo cuda core (ovviamente in base al tipo di istruzioni) compreso fra i 0.7 e i 2.1 per clock (vari benchmark, ovviamente fanno leva su istruzioni differenti) ergo mi chiedo che cosa sono queste istruzioni di cui parli, immagino non l'equivalente di una singola istruzione in assembly per la cpu. Perchè non ci credo neanche morto che un singolo cuda possa in un singolo ciclo, facendo il conto di 512 istruzioni, ad esempio effettuare in un clock 128 letture nella cache, 128 bitshift, 128 scritture e boh 128 te le do per buone :asd: ma è assolutamente improbabile.
Il rapporto con la LDS è di 4:1.
Un warp in base ai cicli di clock in rapporto con i cicli di LDS ( scrittura/lettura/caricamento e memorizzazione tra memoria e soli registri istantanei) , lavora con 32k istruzioni (1024 per cuda totali), mentre il chip gaming ha il valore dimezzato sui registri (16k 32bit totali/512 istruzioni per cuda totali).
Un GP100/GV100 Pascal processa il doppio delle istruzione per warp.
GV ha 4 warp da 16k 32 bit su 16cc fp32 2:1
gp ha 2 warp da 32k 32bit su 32cc fp32 in 4:1
gp gaming ha 4 warp da 64k 32bit in 4:1
Fa eccezione alla regola Kepler in cui il rapporto è di 6:1
192 thread spalmati su 4 warp ed 8 Dispacht con 65k ist. 32bit.
Il contatore preposto all'interno del warp può pure organizzare il lavoro tenendo sempre conto delle istruzioni apposite per warp.
Diverso da Volta, dove ogni cuda non ha contatore ma è indipendente.
https://abload.de/img/ggg2dslk.png
Il rapporto con la LDS è di 4:1.
Un warp in base ai cicli di clock in rapporto con i cicli di LDS ( scrittura/lettura/caricamento e memorizzazione tra memoria e soli registri istantanei) , lavora con 32k istruzioni (1024 per cuda totali), mentre il chip gaming ha il valore dimezzato sui registri (16k 32bit totali/512 istruzioni per cuda totali).
Un GP100/GV100 Pascal processa il doppio delle istruzione per warp.
GV ha 4 warp da 16k 32 bit su 16cc fp32 2:1
gp ha 2 warp da 32k 32bit su 32cc fp32 in 4:1
gp gaming ha 4 warp da 64k 32bit in 4:1
Fa eccezione alla regola Kepler in cui il rapporto è di 6:1
192 thread spalmati su 4 warp ed 8 Dispacht con 65k ist. 32bit.
Il contatore preposto all'interno del warp può pure organizzare il lavoro tenendo sempre conto delle istruzioni apposite per warp.
Diverso da Volta, dove ogni cuda non ha contatore ma è indipendente.
Nella pratica quindi a parità di CC e clock pascal dovrebbe rendere di più o almeno in termini di potenza bruta, anche se volta è decisamente più denso e riducendo le rops si riesce anche a ridurre di netto i consumi portando il livello di prestazioni di una 1080ti in una configurazione da 180w (45w per GPC)...
Qualche anteprima sulla 1070 ti?
Al momento ho una GB 970 gaming g1, gioco in fullHD ma a 144hz.. Mi capita di fare qualche compromesso ogni tanto, quindi se facessi l'upgrade ora resterei tranquillo fino ad un ipotetico cambio di risoluzione, ma tra qualche anno...
L'unico dubbio è: 1070 ti, 1080, o aspetto le 2070?
Qualche anteprima sulla 1070 ti?
Al momento ho una GB 970 gaming g1, gioco in fullHD ma a 144hz.. Mi capita di fare qualche compromesso ogni tanto, quindi se facessi l'upgrade ora resterei tranquillo fino ad un ipotetico cambio di risoluzione, ma tra qualche anno...
L'unico dubbio è: 1070 ti, 1080, o aspetto le 2070?
Dipende dai prezzi sostanzialmente, volta se tutto va bene lo vediamo nel Q2 2018 quindi c'è da attendere, se non vai di fretta con la 2070 avresti prestazioni a cavallo tra 1080 e 1080ti e a pari prezzo volta è decisamente più prestante...
Altrimenti, a seconda di come si piazza la 1070ti valuti di conseguenza, anche se quest'ultima la escluderei a priori, a quel punto o risparmi e vai di 1070 o spendi e prendi direttamente la 1080, questa x70ti mi sembra più pane da mining che da gaming...
Qualche anteprima sulla 1070 ti?
Al momento ho una GB 970 gaming g1, gioco in fullHD ma a 144hz.. Mi capita di fare qualche compromesso ogni tanto, quindi se facessi l'upgrade ora resterei tranquillo fino ad un ipotetico cambio di risoluzione, ma tra qualche anno...
L'unico dubbio è: 1070 ti, 1080, o aspetto le 2070?
venendo da 970 tutto fa brodo. A prezzo vantaggioso farei upgrade con una tra 980ti/1070/1080.
Volta non lo terrei in considerazione perche avra prezzi stellari. Otterresti comunque un bel boost tanto vale attendere la giusta offerta. Almeno credo :cool:
TigerTank
19-10-2017, 12:53
Qualche anteprima sulla 1070 ti?
Al momento ho una GB 970 gaming g1, gioco in fullHD ma a 144hz.. Mi capita di fare qualche compromesso ogni tanto, quindi se facessi l'upgrade ora resterei tranquillo fino ad un ipotetico cambio di risoluzione, ma tra qualche anno...
L'unico dubbio è: 1070 ti, 1080, o aspetto le 2070?
1070Ti lascia perdere, imho è solo un "esercizio di stile" pro mining. Oltretutto mi pare di aver letto che saranno solo a pcb reference.
Se per te le 1080Ti costano troppo, tanto vale prendere una 1080 e tenerla finchè ti basta. In fullHD 144Hz ha parecchio da dire.
illidan2000
19-10-2017, 13:06
1070Ti lascia perdere, imho è solo un "esercizio di stile" pro mining. Oltretutto mi pare di aver letto che saranno solo a pcb reference.
Se per te le 1080Ti costano troppo, tanto vale prendere una 1080 e tenerla finchè ti basta. In fullHD 144Hz ha parecchio da dire.
beh, la 1070ti va quanto la 1080. Se la trova a molto meno, forse gli conviene...
beh, la 1070ti va quanto la 1080. Se la trova a molto meno, forse gli conviene...
Insomma, ora una 1070 costa 400€ almeno mentre la 1080 parte dai 480€...
Supponendo che la 1070 cali di una 50a di € arrivando sui 350, e la 1070ti intorno ai 420-430€ non ci vedo il minimo senso, a meno che appunto non ti interessi minare...
Io opterei o al risparmio quindi verso 1070 intorno ai 350€ e portandola sui 2ghz sei poco sotto una 1080FE o prendi direttamente la 1080...
Bisogna considerare che sono schede a fine del loro ciclo di vita e tra meno di un anno sia 1070 che 1080 si svaluteranno allo stesso modo come fu per 970 e 980 quindi personalmente andrei di 1070 a priori
Non mi aspettavo così tante risposte grazie :)
La 1080ti sarebbe la preferita della mia scimmia, però oggettivamente è troppo per giocare a 144hz fullhd, ma probabilmente non abbastanza per reggere le risoluzioni maggiori dei prossimi anni, quindi cmq vivrebbe probabilmente quanto una più potente.
Effettivamente aspettare la 2070 è la scelta migliore, a meno di non trovare la mega offerta
TigerTank
19-10-2017, 14:19
beh, la 1070ti va quanto la 1080. Se la trova a molto meno, forse gli conviene...
Secondo me no, considerati i prezzi delle 1070 direi che sia poco probabile e tanto vale andare direttamente di 1080 :)
Settimana scorsa su amazon c'è stato uno stock di KFA2 1080 a meno di 500€.
Non mi aspettavo così tante risposte grazie :)
La 1080ti sarebbe la preferita della mia scimmia, però oggettivamente è troppo per giocare a 144hz fullhd, ma probabilmente non abbastanza per reggere le risoluzioni maggiori dei prossimi anni, quindi cmq vivrebbe probabilmente quanto una più potente.
Effettivamente aspettare la 2070 è la scelta migliore, a meno di non trovare la mega offerta
Cmq quando hai preso una 1080 sotto i 500 neuri hai voglia di andare in full ai frame che ti pare, una scheda che occata macina qualsiasi cosa anche in 1440p .
Se hai necessita' ora, non e' un acquisto sbagliato, chiaro Volta e' relativamente vicino, quindi la risposta te la puoi dare solo tu in base alle tue esigenze personali :)
bagnino89
19-10-2017, 14:50
Cmq quando hai preso una 1080 sotto i 500 neuri hai voglia di andare in full ai frame che ti pare, una scheda che occata macina qualsiasi cosa anche in 1440p .
Se hai necessita' ora, non e' un acquisto sbagliato, chiaro Volta e' relativamente vicino, quindi la risposta te la puoi dare solo tu in base alle tue esigenze personali :)
Anche io non sapevo se aspettare Volta o meno, ma ho fatto alcune considerazioni:
1) Volta, secondo me, non costerà poco, specie considerando l'"assenza" di concorrenza nella fascia alta/altissima (una ipotetica 2070 che va come una 1080 Ti non la regaleranno senz'altro, considerando, appunto, che non ha concorrenti);
2) Il mining sembra non avere fine, e tranne le fasce alte o quelle basse, tutti i prezzi delle schede sono drogati.
mikael84
19-10-2017, 14:58
Nella pratica quindi a parità di CC e clock pascal dovrebbe rendere di più o almeno in termini di potenza bruta, anche se volta è decisamente più denso e riducendo le rops si riesce anche a ridurre di netto i consumi portando il livello di prestazioni di una 1080ti in una configurazione da 180w (45w per GPC)...
No, a parità di potenza bruta, renderà sempre più Volta, per via delle latenze molto minori in via geometrica e di backfaceculling (heaven ad esempio).
Le rop's pur essendo meno risulteranno ben più efficienti in z-buffer, considerando che sicuramente miglioreranno le compressioni ulteriormente.
Le rop's Nvidia soffrono molto gli MSAA campionati, ma non costituiscono quasi mai un collo di bottiglia. Paradossalmente è meglio puntare all'efficienza che alla forza bruta totale, visto che in blending si disperdono.
Il discorso istruzioni, suddivisione warp, attualmente non si può ancora stabilire, non essendoci uno schema gaming.
Un fattore importante dovrebbe essere la l1 condivisa e la l2 maggiorata. Praticamente GV104 avrà 256kb in più della 1080ti.
Senza considerare i thread indipendenti e non legati al contatore.
Non aspettiamoci, grossissime migliorie iniziali, se non per un clock che presumo possa partire da 2050mhz.
Solo un minimo lavoro elettrico porta sempre al 10% tra clock/consumi.
illidan2000
19-10-2017, 16:52
Cmq quando hai preso una 1080 sotto i 500 neuri hai voglia di andare in full ai frame che ti pare, una scheda che occata macina qualsiasi cosa anche in 1440p .
Se hai necessita' ora, non e' un acquisto sbagliato, chiaro Volta e' relativamente vicino, quindi la risposta te la puoi dare solo tu in base alle tue esigenze personali :)
beh, proprio qualsiasi cosa no dai...
beh, proprio qualsiasi cosa no dai...
E non fa neanche la farina...
illidan2000
19-10-2017, 18:56
E non fa neanche la farina...
diciamo che muove il 90% dei giochi a 60fps senza filtri
Una 1080 a 420-450€ nei prossimi 5 mesi è un sogno che aiuta a vivere meglio ? :D
TigerTank
21-10-2017, 13:01
Una 1080 a 420-450€ nei prossimi 5 mesi è un sogno che aiuta a vivere meglio ? :D
Considerato che ci sarà chi sicuramente venderà in anticipo le pascal non appena inizieranno ad annunciare l'uscita delle Volta, non è poi così un sogno se consideri anche l'usato :D
Indicativamente, quando dovrebbe uscire la nuova architettura Nvidia?
Giovamas
22-10-2017, 09:13
Indicativamente, quando dovrebbe uscire la nuova architettura Nvidia?
ho letto a fine marzo 2018. ma c'è una totale assenza di rumor. che si vada dopo l'estate?:)
Legolas84
22-10-2017, 10:51
ho letto a fine marzo 2018. ma c'è una totale assenza di rumor. che si vada dopo l'estate?:)
Difficile.... non ci sono rumor perchè non c'è molto da dire... NVIDIA vista la situazione non ha certo fretta di dover dire o dimostrare qualcosa.
Però considerando i cicli vitali di schede e architetture penso proprio sia lecito aspettarsi Volta in primavera :)
Io visti i prezzi attuali, aspetto. 2070 o 2080 si vedrà.
seguo con interesse, dato che il mio nuovo ryzen si deve accontentare al momento di una 960 2gb che castra da matti.
Nello specifico, spero che giunga una scheda con lo stesso tdp della 1060 (120W), ma con prestazioni/prezzo decisamente più vantaggiosi. Ormai è da 15 mesi che non accenna a calare, dannati miners
seguo con interesse, dato che il mio nuovo ryzen si deve accontentare al momento di una 960 2gb che castra da matti.
Nello specifico, spero che giunga una scheda con lo stesso tdp della 1060 (120W), ma con prestazioni/prezzo decisamente più vantaggiosi. Ormai è da 15 mesi che non accenna a calare, dannati miners
Con un minimo di pazienza si trovano 1060 6gb usate (in garanzia) a poco piu' di 200 euro, un scheda che in full hd ti fa tutto se non si vuole la luna.
illidan2000
24-10-2017, 09:05
seguo con interesse, dato che il mio nuovo ryzen si deve accontentare al momento di una 960 2gb che castra da matti.
Nello specifico, spero che giunga una scheda con lo stesso tdp della 1060 (120W), ma con prestazioni/prezzo decisamente più vantaggiosi. Ormai è da 15 mesi che non accenna a calare, dannati miners
vuoi stare su consumi bassi? perché?
che monitor hai? ti basta una 1060?
Sarei tentato anche io, col pc in firma (e vorrei un monitor nuovo entro natale, magari almeno 27" e 2k) di sostituire la mia amatissima 970 G1 per una 1080 o una 1070Ti.
Mi consiglieresti di aspettare e fare un pc nuovo next year o magari intanto soddisfare la scimmia ed entro un mesetto acquistare una scheda migliorativa?:D
@Bobs dici che sei limitato dal resto della configurazione? io al posto tuo farei l'upgrade esclusivamente della scheda video (ho anche io la G1), e visto che al momento tutto sommato posso attendere aspetto la nuova generazione...
Metti che tra un anno la 1070ti inizia ad avere problemi con il 2k nei nuovi titoli rischi di doverla cambiare di nuovo.
Visto che per ora la 970 regge abbastanza penso che aspetterò
Sarei tentato anche io, col pc in firma (e vorrei un monitor nuovo entro natale, magari almeno 27" e 2k) di sostituire la mia amatissima 970 G1 per una 1080 o una 1070Ti.
Mi consiglieresti di aspettare e fare un pc nuovo next year o magari intanto soddisfare la scimmia ed entro un mesetto acquistare una scheda migliorativa?:D
Arrivati a fine 2017, ti conviene aspettare, io 6 mesi fa ho preso una 980ti a 270€ e sono più che soddisfatto considerando che sale abbastanza in clock e ci ho rimesso veramente nulla passando dalla 970 a 980ti anche se ho giocato un pò con i tempi vendendo a Giugno 2016 la 970 a 250€ e quindi diversi mesi senza vga...
Ma per gli attuali prezzi usato/nuovo non so quanto convenga... Alla fine la 970 è ormai svalutata venderla ora o tra 6 mesi non impatterebbe più di tanto, quindi meglio attendere e ti prendi direttamente una 2060 raddoppiando le prestazioni o una 2070 facendo il salto grosso :)
@Bobs dici che sei limitato dal resto della configurazione? io al posto tuo farei l'upgrade esclusivamente della scheda video (ho anche io la G1), e visto che al momento tutto sommato posso attendere aspetto la nuova generazione...
Metti che tra un anno la 1070ti inizia ad avere problemi con il 2k nei nuovi titoli rischi di doverla cambiare di nuovo.
Visto che per ora la 970 regge abbastanza penso che aspetterò
Tecnicamente l'unico "limite" potrebbe essere la scheda madre, il pc va ancora eccezionalmente bene solo che mi accontento difficilmente, fosse per me lo cambierei ogni due mesi, penso sia una voglia di tanti qua dentro.
Ma per gli attuali prezzi usato/nuovo non so quanto convenga... Alla fine la 970 è ormai svalutata venderla ora o tra 6 mesi non impatterebbe più di tanto, quindi meglio attendere e ti prendi direttamente una 2060 raddoppiando le prestazioni o una 2070 facendo il salto grosso :)
Eh infatti ero indeciso se attendere magari il black friday che trovo un'offertona per le 1080 (perchè forse riesco a piazzare bene pure la 970 a una persona che potrebbe averne bisogno) che da quel che ho visto comunque rimangono un pelo superiori alle 1070Ti; altrimenti, indicativamente, secondo trimestre 18 per le nuove 2060/2070?
Forum Rift
28-10-2017, 14:32
ma la storia delle 1070ti che non si possono overcloccare è vera?
ma la storia delle 1070ti che non si possono overcloccare è vera?
falsissima.
forse intendi sbloccare il cuda in meno?
VanCleef
29-10-2017, 07:59
ma la storia delle 1070ti che non si possono overcloccare è vera?
Tratto dall'articolo di Hwupgrade:
Anche per questo motivo NVIDIA ne ha bloccato l'overclock manuale a livello bios, ma non dubitiamo che i vari produttori di utility di terze parti per l'overclock e il tweaking delle schede video possano in qualche modo superare questa limitazione permettendo ai più appassionati di sfruttare appieno le potenzialità di queste nuove schede video.
BANDwIdTh
29-10-2017, 15:22
C'è una data approssimativa di lancio per Volta? Si parla di Natale 2017? Marzo 2018? Quando più o meno?
Cosa dobbiamo aspettarci dalle nuove Volta?
Piccoli miglioramenti rispetto alle GTX1080 Ti, un 5/10% in più a minor consumi?
C'è una data approssimativa di lancio per Volta? Si parla di Natale 2017? Marzo 2018? Quando più o meno?
Cosa dobbiamo aspettarci dalle nuove Volta?
Piccoli miglioramenti rispetto alle GTX1080 Ti, un 5/10% in più a minor consumi?
Si' !!
BANDwIdTh
29-10-2017, 15:30
Si' !!
ehm... si cosa? :D
C'è una data approssimativa di lancio per Volta? Si parla di Natale 2017? Marzo 2018? Quando più o meno?
Cosa dobbiamo aspettarci dalle nuove Volta?
Piccoli miglioramenti rispetto alle GTX1080 Ti, un 5/10% in più a minor consumi?
da marzo/aprile 2018 in poi approssimativamente, prima è estremamente difficile
Così a spanne ci si aspetta un "2080Ti" che vada sui ~45% in più della 1080ti, 2080 sui +10/15% e una 2070 -5/10%, consumi pressochè identici alle attuali fasce ma con prestazioni maggiori date no solo dall'archiettura ma anche da un affinamento elettrico che consentirà anche frequenze operative maggiori di partenza
BANDwIdTh
29-10-2017, 16:05
da marzo/aprile 2018 in poi approssimativamente, prima è estremamente difficile
Così a spanne ci si aspetta un "2080Ti" che vada sui ~45% in più della 1080ti, 2080 sui +10/15% e una 2070 -5/10%, consumi pressochè identici alle attuali fasce ma con prestazioni maggiori date no solo dall'archiettura ma anche da un affinamento elettrico che consentirà anche frequenze operative maggiori di partenza
le nuove HBM non dovrebbero portare qualche significativo aumento di performance?
le nuove HBM non dovrebbero portare qualche significativo aumento di performance?Al 99% useranno le gddr6 per la fascia gaming
BANDwIdTh
29-10-2017, 17:53
Al 99% useranno le gddr6 per la fascia gaming
vorrei comprare un monitor 4K ma le mie GTX980 Ti non sono abbastanza...
e mi secca pure spendere 1200€ se mi va bene per due schede che vanno il 15% in più di una scheda uscita quasi un anno prima.
Legolas84
29-10-2017, 17:58
vorrei comprare un monitor 4K ma le mie GTX980 Ti non sono abbastanza...
e mi secca pure spendere 1200€ se mi va bene per due schede che vanno il 15% in più di una scheda uscita quasi un anno prima.
Io fossi in te aspetterei la 2080 e la valuterei dopo la sua uscita...
Io credo farà un +20% sulla 1080Ti.... :)
BANDwIdTh
29-10-2017, 18:03
Io fossi in te aspetterei la 2080 e la valuterei dopo la sua uscita...
Io credo farà un +20% sulla 1080Ti.... :)
si si prendere una 1080Ti ormai non mi conviene...
BANDwIdTh
29-10-2017, 18:06
Io visti i prezzi attuali, aspetto. 2070 o 2080 si vedrà.
è pur vero che ormai le schede video hanno raggiunto prezzi impossibili.
prima con 600€ si prendeva una top di gamma.
adesso lasciando perdere le fasce "ho più soldi che zucca" ovvero le TitanX, una top di gamma come una GTX1080 Ti costa dagli 850€ ai 1000€.
ormai sono proprio fuori di melone.
è pur vero che ormai le schede video hanno raggiunto prezzi impossibili.
prima con 600€ si prendeva una top di gamma.
adesso lasciando perdere le fasce "ho più soldi che zucca" ovvero le TitanX, una top di gamma come una GTX1080 Ti costa dagli 850€ ai 1000€.
ormai sono proprio fuori di melone.
Diciamo che loro ci provano, ma i fuori di melone son oquelli che comprano. Il mercato lo fa la domanda, se nessuno comprasse scenderebbero vertiginosamente i prezzi. Ma figurati, un mio amico ha appena prenotato iphone x a 1300 euro, che ne vuoi sperare???:muro:
Diciamo che loro ci provano, ma i fuori di melone son oquelli che comprano. Il mercato lo fa la domanda, se nessuno comprasse scenderebbero vertiginosamente i prezzi. Ma figurati, un mio amico ha appena prenotato iphone x a 1300 euro, che ne vuoi sperare???:muro:
Ma hai una titan x...:mbe:
Ma hai una titan x...:mbe:
Si ma è una maxwell, mi feci sodomizzare consapevolmente. Adesso mai più spendere quelle cifre :D
BANDwIdTh
29-10-2017, 21:09
Si ma è una maxwell, mi feci sodomizzare consapevolmente. Adesso mai più spendere quelle cifre :D
anche io sono stato un ethusiast, sono arrivato a prendere 2 GTX980 Ti ma non so se riuscirò più a spendere tanto, vista la svalutazione immediata sia dal lato economico che di performance.
poi ormai in nel mondo dei videogame le performance lasciano il tempo che trovano, ormai escono giochi non ottimizzati e la maggior parte della potenza hardware va sprecata.
poi una scheda grafica quando l'hai pagata 600€ l'hai pagata bene. 1000€ è veramente troppo.
Legolas84
30-10-2017, 07:11
Con Maxwell lo SLI è andato da Dio è ne è valsa la pena di avere due schede... con due 980 mi sono davvero goduto l’era Maxwell.
Con Pascal ho avuto un po’ troppi problemi e sono tornato a scheda singola... ora con Volta si vedrà...
Inviato dal mio iPhone utilizzando Tapatalk Pro
fraussantin
30-10-2017, 07:18
Io visti i prezzi attuali, aspetto. 2070 o 2080 si vedrà.Non mi faccio illusioni.
Volta non costerà di meno.
Aspetto la 2060 o il refresh di vega 56 .
Per fortuna è diventato tutta una corsa ad acchiappare 4k..
Arrow0309
30-10-2017, 07:56
Titan X Volta is the Way! :D :asd:
Meglio di un iPhone X sicuro al 100%, per cazzeggiare fuori casa mi basta il Gala 7 :D
è pur vero che ormai le schede video hanno raggiunto prezzi impossibili.
prima con 600€ si prendeva una top di gamma.
adesso lasciando perdere le fasce "ho più soldi che zucca" ovvero le TitanX, una top di gamma come una GTX1080 Ti costa dagli 850€ ai 1000€.
ormai sono proprio fuori di melone.
Non proprio, qualche mese fa intorno maggio, c'erano le 1080ti intorno ai 650-680€, addirittura le mini poco sopra i 600€, ma tra mining e Vega non proprio come da aspettative i prezzi si sono rialzati di un buon 15% in più...
Ed è meglio che non citiamo i costi abnormi delle memorie, un anno fa 16GB li pagavi 65-75€, ora se trovi un kit decente a 150 devi ritenerti fortunato, nell'usato poi lucro in tutta la sua purezza...
TigerTank
30-10-2017, 08:52
Io fossi in te aspetterei la 2080 e la valuterei dopo la sua uscita...
Io credo farà un +20% sulla 1080Ti.... :)
Secondo me il meglio attuale per giocare è 1080Ti + 1440p(considerando anche la preferenza di un refresh più alto dei 60Hz).
La 4K è ancora troppo pesante se consideriamo i nuovi titoli ed imho nemmeno la 2080 basterà. Forse inizierà ad essere idonea la 2080Ti.
In poche parole le 2080 probabilmente costeranno una fucilata ma non saranno ancora sufficienti per la 4K. Tanto vale farsi una 1080Ti su 1440p e tirarla fino alla 2080Ti per poi fare il passaggio ai 4K.
Questo premettendo un framerate un minimo consistente e il non svenarsi in Sli che non sempre vanno.
illidan2000
30-10-2017, 10:28
Secondo me il meglio attuale per giocare è 1080Ti + 1440p(considerando anche la preferenza di un refresh più alto dei 60Hz).
La 4K è ancora troppo pesante se consideriamo i nuovi titoli ed imho nemmeno la 2080 basterà. Forse inizierà ad essere idonea la 2080Ti.
In poche parole le 2080 probabilmente costeranno una fucilata ma non saranno ancora sufficienti per la 4K. Tanto vale farsi una 1080Ti su 1440p e tirarla fino alla 2080Ti per poi fare il passaggio ai 4K.
Questo premettendo un framerate un minimo consistente e il non svenarsi in Sli che non sempre vanno.
si 2080ti, ma non maxando su 4k secondo me...
e comunque non ci stanno ancora i 4k con pannello >60hz, quindi non vale la pena
il 4k e' un concetto ridicolo per ogni gamer e lo sara' ancora per un paio d'anni almeno.
Gia' fanno abbastanza pena i 1440p in commercio ad oggi...
Spider-Mans
30-10-2017, 13:04
Secondo me il meglio attuale per giocare è 1080Ti + 1440p(considerando anche la preferenza di un refresh più alto dei 60Hz).
La 4K è ancora troppo pesante se consideriamo i nuovi titoli ed imho nemmeno la 2080 basterà. Forse inizierà ad essere idonea la 2080Ti.
In poche parole le 2080 probabilmente costeranno una fucilata ma non saranno ancora sufficienti per la 4K. Tanto vale farsi una 1080Ti su 1440p e tirarla fino alla 2080Ti per poi fare il passaggio ai 4K.
Questo premettendo un framerate un minimo consistente e il non svenarsi in Sli che non sempre vanno.
Perfetto carissimo..ma se ci si limita ai 60 frame :fagiano: ...
Basta spesso alleggerire qualcosina eh..alla fine la diff visiva dal maxed al quasi maxed è spesso impercettibile
I 4k di suo hanno l enorme vantaggio di rendere superflui i filtri aa quasi sempre...e quindi ne guadagni enormemente in nitidezza di immagine e colori
Una volta che ti abitui ai 4k e dura tornare su grandi schermi al 2k o fullhd...ho vissuto per anni sul fullhd col dsr....ora mi sembra un epoca fa..in meglio
Spider-Mans
30-10-2017, 13:06
Cmq ad oggi con il rialzo prezzi gddr5 e l ennesimo flop amd....combo che ha portato le 1080ti ad essere vendute a prezzi folli superiori al lancio... assurdo...dovevo comprarla in estate...
Ripieghero su una 1080 salvo che nel black friday amazon faccia un regalo natalizio
Spider-Mans
30-10-2017, 13:13
il 4k e' un concetto ridicolo per ogni gamer e lo sara' ancora per un paio d'anni almeno.
Gia' fanno abbastanza pena i 1440p in commercio ad oggi...
Dipende se ritieni i 120 o 144hz irrinunciabili
Ma a 2k devi usare filtri aa e quindi immagine irrimediabilmente "sfocata" salvo che accetti le scalette per avere nitidezza
Qualita immagine vs refresh
Se hai sempre vissuto a 60 frame..preferibile i 4k
Insomma esigenze diverse.. non ce una soluzione definitva perche non esiste una vga che gestisca in singolo i 4k a 144hz altrimenti nemmeno si porrebbe il problema
fabietto27
30-10-2017, 13:16
Inutile sperare nel black friday di Amazon in Italia, di solito è una scusa per cercare di liberarsi della roba vecchia.Vero...sembra più una operazione Magazzini Puliti.
Inviato dal vivavoce della mia Daf Variomatic
Dipende se ritieni i 120 o 144hz irrinunciabili
Ma a 2k devi usare filtri aa e quindi immagine irrimediabilmente "sfocata" salvo che accetti le scalette per avere nitidezza
Qualita immagine vs refresh
Se hai sempre vissuto a 60 frame..preferibile i 4k
Insomma esigenze diverse.. non ce una soluzione definitva perche non esiste una vga che gestisca in singolo i 4k a 144hz altrimenti nemmeno si porrebbe il problema
I 60hz devono essere rilegati al passato, inacettabili per chiunque sia abituato a >120 (parlo di gente che gioca online magari chi gioca offline e' contento di vsyncare a 60fps).
Parlare di risoluzione senza parlare di grandezza schermo e dot pitch (e volendo anche distanza dallo schermo) poi non ha molto senso, la 1440p sui 27" non ha certo grossi problemi di aliasing.
Ale55andr0
30-10-2017, 13:23
I 4k di suo hanno l enorme vantaggio di rendere superflui i filtri aa quasi sempre...e quindi ne guadagni enormemente in nitidezza di immagine e colori
o
per i miei occhi l'aa serve eccome anche in 4k. E non vedo come la risoluzione possa far guadagnare lato colori sinceramente
Spider-Mans
30-10-2017, 13:29
per i miei occhi l'aa serve eccome anche in 4k. E non vedo come la risoluzione possa far guadagnare lato colori sinceramente
Beh hai il doppio o quadruplo dei pixel su schermo a parita di pollici partendo da almeno un 27....da un 2k o fullhd... ...anche i colori ne guadagnano in sfumature.....
Un mosaico da 1000 o 2000 mila quadratini non puo offrire la definizione di insieme anche come colori e sfumature di uno di 4000 mila..giusto per rendere l idea :stordita:
Se tu guardi un fullhd e un 4k affiancati lo noti
Provato di persona in casa..ma anche in negozio...autosuggestione? :asd:
Ma c'è chi ancora passa da una scheda all'altra della stessa gen per un +15~20%? :stordita:
Comunque il motivo dei rincari in tutte le fasce è legato principalmente se non esclusivamente al mercato ram e in secondo luogo ai miners che c'erano già da tempo...
Capisco le pacche sulle spalle ma Vega non c'entra nulla, non ha alcun senso che un prodotto aumenti il suo prezzo rispetto a quando è uscito legato ad un altro prodotto uscito dopo oltretutto quando nvidia non ha minimamente ritoccato i listini...
Questo si, il rincaro delle memorie ha praticamente demolito tutto il mercato, però c'è da dire che in proporzione Vega costa praticamente uguale a Nvidia se non di più se ad esempio consideriamo il costo di Vega 56 che se la gioca quasi con 1080, il che ovviamente non ha contribuito...
Comunque dando una rapida occhiata su trovaprezzi la 1070ti sembra aver già sortito effetti sulle 1070, il prezzo più basso è sceso sui 380€ rispetto ai 415€ precedenti, forse tra qualche settimana potrebbe calare ulteriormente :)
Cmq ad oggi con il rialzo prezzi gddr5 e l ennesimo flop amd....combo che ha portato le 1080ti ad essere vendute a prezzi folli superiori al lancio... assurdo...dovevo comprarla in estate...
Ripieghero su una 1080 salvo che nel black friday amazon faccia un regalo natalizioInfatti dovevi comprarla prima, il rincaro inizi q3 delle RAM ha fatto salire il prezzo.. Se becchi qualche buona offerta potresti anche valutare Vega 56/64. Sono buone schede(meglio la 56), ma overpriced.
Però i prezzi in questo caso sembra si stiano abbassando.
Il tutto se non hai gsync ovviamente.. In quel caso 1080 is the way XD
TigerTank
30-10-2017, 20:06
Perfetto carissimo..ma se ci si limita ai 60 frame :fagiano: ...
Basta spesso alleggerire qualcosina eh..alla fine la diff visiva dal maxed al quasi maxed è spesso impercettibile
I 4k di suo hanno l enorme vantaggio di rendere superflui i filtri aa quasi sempre...e quindi ne guadagni enormemente in nitidezza di immagine e colori
Una volta che ti abitui ai 4k e dura tornare su grandi schermi al 2k o fullhd...ho vissuto per anni sul fullhd col dsr....ora mi sembra un epoca fa..in meglio
Il problema è proprio quello, presupponevo una situazione da Gaming che gsync a parte sottointende un refresh più alto :)
Io al contrario tuo non riuscirei a tornare ai 60Hz perchè appunto ormai prediligo un framerate corposo ad una risoluzione più alta...e appunto la 4K da gaming a refresh maggiorato, considerati i giochi mattoni maxati, mi sa che sarà bella pesante anche per Volta. Poi certo, ci sono i settaggi ottimali e strategici...quelli li prediligo anch'io quando certi filtri hanno un rapporto resa/peso troppo esoso ed è meglio scalare. ;)
BANDwIdTh
30-10-2017, 20:13
Ma c'è chi ancora passa da una scheda all'altra della stessa gen per un +15~20%? :stordita:
Comunque il motivo dei rincari in tutte le fasce è legato principalmente se non esclusivamente al mercato ram e in secondo luogo ai miners che c'erano già da tempo...
Capisco le pacche sulle spalle ma Vega non c'entra nulla, non ha alcun senso che un prodotto aumenti il suo prezzo rispetto a quando è uscito legato ad un altro prodotto uscito dopo oltretutto quando nvidia non ha minimamente ritoccato i listini...
ma perchè i miners dovrebbero influire sui prezzi delle schede video?
sopratutto di quelle che di mining non hanno proprio niente.
una titan X non è una scheda da mining, una 980 Ti nemmeno.
ma perchè i miners dovrebbero influire sui prezzi delle schede video?
sopratutto di quelle che di mining non hanno proprio niente.
una titan X non è una scheda da mining, una 980 Ti nemmeno.
Se c'è tanta domanda i prezzi salgono, non c'è nulla da fare.. Se i prezzi delle 1070 salgono, e c'è poca disponibilità, la gente va a comprare la 1080 piuttosto. Questo aumenta la domanda della 1080, per cui possono alzare di più i prezzi. una volta che i prezzi della 1080 sono abbastanza alti, non hanno motivo di abbassare i prezzi delle 1080ti. E noi non cambiamo GPU :cry:
Se c'è tanta domanda i prezzi salgono, non c'è nulla da fare.. Se i prezzi delle 1070 salgono, e c'è poca disponibilità, la gente va a comprare la 1080 piuttosto. Questo aumenta la domanda della 1080, per cui possono alzare di più i prezzi. una volta che i prezzi della 1080 sono abbastanza alti, non hanno motivo di abbassare i prezzi delle 1080ti. E noi non cambiamo GPU :cry:
Proprio così.
TigerTank
31-10-2017, 13:47
Se c'è tanta domanda i prezzi salgono, non c'è nulla da fare.. Se i prezzi delle 1070 salgono, e c'è poca disponibilità, la gente va a comprare la 1080 piuttosto. Questo aumenta la domanda della 1080, per cui possono alzare di più i prezzi. una volta che i prezzi della 1080 sono abbastanza alti, non hanno motivo di abbassare i prezzi delle 1080ti. E noi non cambiamo GPU :cry:
La 1080Ti al momento non ha alcuna concorrenza e per rilanciare sulle Vega Nvidia semplicemente può ritoccare un pò i prezzi di 1070 e 1080. La 1070Ti invece la vedo più come esercizio di stile, un plus pro mining maggiorando i cuda e mantenendo le ddr5, più efficienti in tale ambito delle gddr5x.
Legolas84
31-10-2017, 13:55
La 1080Ti al momento non ha alcuna concorrenza e per rilanciare sulle Vega Nvidia semplicemente può ritoccare un pò i prezzi di 1070 e 1080. La 1070Ti invece la vedo più come esercizio di stile, un plus pro mining maggiorando i cuda e mantenendo le ddr5, più efficienti in tale ambito delle gddr5x.
Bo mi pare ci sia ben poco da rilanciare sui prezzi... la 1070 costa meno della 56 e la 1080 costa meno della 64 :)
La 1080Ti costa di più ma non è paragonabile con nulla.... davvero un mostro di scheda....
TigerTank
31-10-2017, 14:03
Bo mi pare ci sia ben poco da rilanciare sui prezzi... la 1070 costa meno della 56 e la 1080 costa meno della 64 :)
La 1080Ti costa di più ma non è paragonabile con nulla.... davvero un mostro di scheda....
Esatto e se amd ritocca i suoi nvidia ha già la contromossa. Purtroppo non c'è una situazione davvero concorrenziale, considerato anche il ritardo delle vega quando molti stanchi di aspettare hanno ripiegato sulle verdi. E nvidia quasi per noia può permettersi di sfornare la 1070Ti, scheda di cui nel gaming non c'era alcun bisogno. Diciamo che forse l'input maggiore attuale alle rosse potrebbe essere il fatto di scegliere degli schermi freesync/freesync 2 piuttosto che i più costosi gsync.
illidan2000
31-10-2017, 17:22
Esatto e se amd ritocca i suoi nvidia ha già la contromossa. Purtroppo non c'è una situazione davvero concorrenziale, considerato anche il ritardo delle vega quando molti stanchi di aspettare hanno ripiegato sulle verdi. E nvidia quasi per noia può permettersi di sfornare la 1070Ti, scheda di cui nel gaming non c'era alcun bisogno. Diciamo che forse l'input maggiore attuale alle rosse potrebbe essere il fatto di scegliere degli schermi freesync/freesync 2 piuttosto che i più costosi gsync.
forse la 1070ti avendo gddr5 invece che gddr5x è proprio fatta per i miners, visto che alcuni algoritmi per minare sono refrattari a gddr5x
TigerTank
31-10-2017, 19:56
forse la 1070ti avendo gddr5 invece che gddr5x è proprio fatta per i miners, visto che alcuni algoritmi per minare sono refrattari a gddr5x
Esatto, proprio così. Se non ho capito male le gddr5x vanno benone per il gaming ma hanno latenze alte.
BANDwIdTh
01-11-2017, 11:21
Bo mi pare ci sia ben poco da rilanciare sui prezzi... la 1070 costa meno della 56 e la 1080 costa meno della 64 :)
La 1080Ti costa di più ma non è paragonabile con nulla.... davvero un mostro di scheda....
lego ho la tua stessa CPU ma a soli 4.2GHz.
secondo te la 1080 Ti o una prossima Volta potrà essere limitata da questa CPU?
a 1080P probabile ma ovviamente con una scheda del genere (avrei in mente uno SLI) la userei dai 2K ai 4K.
killeragosta90
01-11-2017, 14:41
lego ho la tua stessa CPU ma a soli 4.2GHz.
secondo te la 1080 Ti o una prossima Volta potrà essere limitata da questa CPU?
a 1080P probabile ma ovviamente con una scheda del genere (avrei in mente uno SLI) la userei dai 2K ai 4K.
Ti rispondo io, secondo me no, nemmeno a 1080p (anche se non avrebbe senso questa risoluzione con questo genere di schede) e soprattutto a quella frequenza. Volendo poi credo potrai spingere l'OC di un ulteriore 200Mhz e "tappare" un eventuale limite.
BANDwIdTh
01-11-2017, 16:49
Ti rispondo io, secondo me no, nemmeno a 1080p (anche se non avrebbe senso questa risoluzione con questo genere di schede) e soprattutto a quella frequenza. Volendo poi credo potrai spingere l'OC di un ulteriore 200Mhz e "tappare" un eventuale limite.
sarebbe bello lasciare le ipotesi a avere qualche certezza con qualche bel benchmark :)
sarebbe bello lasciare le ipotesi a avere qualche certezza con qualche bel benchmark :)
Direi di no ;)
https://www.youtube.com/watch?v=2-AEXUEkT_I
BANDwIdTh
01-11-2017, 17:12
Direi di no ;)
https://www.youtube.com/watch?v=2-AEXUEkT_I
bel link, grazie
Questo si, il rincaro delle memorie ha praticamente demolito tutto il mercato, però c'è da dire che in proporzione Vega costa praticamente uguale a Nvidia se non di più se ad esempio consideriamo il costo di Vega 56 che se la gioca quasi con 1080, il che ovviamente non ha contribuito...
Comunque dando una rapida occhiata su trovaprezzi la 1070ti sembra aver già sortito effetti sulle 1070, il prezzo più basso è sceso sui 380€ rispetto ai 415€ precedenti, forse tra qualche settimana potrebbe calare ulteriormente :)
Ma ha demolito cosa?
Si vendono molte più gpu oggi che un anno o due, tre anni fa.
Ma ha demolito cosa?
Si vendono molte più gpu oggi che un anno o due, tre anni fa.
Intende i prezzi che non si abbassano piu' di tanto appunto per l'aumento della domanda
Legolas84
02-11-2017, 10:16
lego ho la tua stessa CPU ma a soli 4.2GHz.
secondo te la 1080 Ti o una prossima Volta potrà essere limitata da questa CPU?
a 1080P probabile ma ovviamente con una scheda del genere (avrei in mente uno SLI) la userei dai 2K ai 4K.
Se vai in SLI la situazione è nebulosa... perchè dico questo?
X99 è stata una grande piattaforma con 550Euro prendevi una CPU mostruosa ovvero il nostro mitico 5930K con 40 linee PCI-Express in grado di supportare uno SLI da 32 linee elettriche. Questo oltre alla potenza bruta della CPU e alla saldatura dell'IHS.
Oggi con X299 la situazione è pessima.... ma proprio pessima. sulla fascia di prezzo del nostro 5930K abbiamo il 7820X che per carità come IPC e potenza bruta è ovviamente molto meglio del nostro 5930K cosa questa che fa molto bene allo SLI, ma le linee PCI-EXPRESS sono scese da 40 a 28 (maledetta intel) e ora non si può più fare uno SLI con 32Linee elettriche. E in più niente saldatura dell his.
Se vuoi avere linee PCI EXPRESS sufficienti per non strozzare lo SLI devi andare di 7900X che ne ha 44, ma i costi salgono a 850 Euro lol... e ha sempre e comunque la pasta al posto della saldatura.
L'alternativa è prendere un 7800X e una mainboard con il PLX.... ma è comunque meno desiderabile rispetto alle altre opzioni.
Ricorda comunque che in scheda singola ad alte risoluzioni la CPU conta relativamente poco (non che non conti ma conta molto meno della VGA), in SLI la situazione è diversa.... una CPU potente fa la differenza.
Queste considerazioni al netto del fatto che lo SLI in Maxwell è stata una soluzione TOP, mentre con Pascal ha avuto grandissimi problemi. Con Volta come sarà? È un'incognita....
Io sono orientato a prendere una scheda singola potente (molto) abbinata a una CPU adatta alla scheda singola e che sia il top... ovvero un i7 8700K....
BANDwIdTh
02-11-2017, 18:53
Se vai in SLI la situazione è nebulosa... perchè dico questo?
X99 è stata una grande piattaforma con 550Euro prendevi una CPU mostruosa ovvero il nostro mitico 5930K con 40 linee PCI-Express in grado di supportare uno SLI da 32 linee elettriche. Questo oltre alla potenza bruta della CPU e alla saldatura dell'IHS.
Oggi con X299 la situazione è pessima.... ma proprio pessima. sulla fascia di prezzo del nostro 5930K abbiamo il 7820X che per carità come IPC e potenza bruta è ovviamente molto meglio del nostro 5930K cosa questa che fa molto bene allo SLI, ma le linee PCI-EXPRESS sono scese da 40 a 28 (maledetta intel) e ora non si può più fare uno SLI con 32Linee elettriche. E in più niente saldatura dell his.
Se vuoi avere linee PCI EXPRESS sufficienti per non strozzare lo SLI devi andare di 7900X che ne ha 44, ma i costi salgono a 850 Euro lol... e ha sempre e comunque la pasta al posto della saldatura.
L'alternativa è prendere un 7800X e una mainboard con il PLX.... ma è comunque meno desiderabile rispetto alle altre opzioni.
Ricorda comunque che in scheda singola ad alte risoluzioni la CPU conta relativamente poco (non che non conti ma conta molto meno della VGA), in SLI la situazione è diversa.... una CPU potente fa la differenza.
Queste considerazioni al netto del fatto che lo SLI in Maxwell è stata una soluzione TOP, mentre con Pascal ha avuto grandissimi problemi. Con Volta come sarà? È un'incognita....
Io sono orientato a prendere una scheda singola potente (molto) abbinata a una CPU adatta alla scheda singola e che sia il top... ovvero un i7 8700K....
boh, un 8700K mi sembra un sidegrade passando da un 5930K...
un pò di IPC in più, stessi core, meno linee pci express.
sono molto indeciso e cmq non vorrei tornare sulla fascia mainstream...
le linee pci express mi servono tra sli e dischi pci express.
Io non credo che per gli standard attuali convenga cambiare un 5930K...
Se proprio volete fare un ritorno alla fascia mainstream, aspettate icelake l'anno prossimo, così oltre all'ipc guadagnate 2 core aggiuntivi quindi 8c/16t e e persino l'i5 avrà 8c/8t e se non erro si vocifera che con icelake arriveranno anche le AVX512F in ambito consumers :)
BANDwIdTh
02-11-2017, 19:23
Io non credo che per gli standard attuali convenga cambiare un 5930K...
Se proprio volete fare un ritorno alla fascia mainstream, aspettate icelake l'anno prossimo, così oltre all'ipc guadagnate 2 core aggiuntivi quindi 8c/16t e e persino l'i5 avrà 8c/8t e se non erro si vocifera che con icelake arriveranno anche le AVX512F in ambito consumers :)
ma sei sicuro che arriveranno gli 8 core su mainstream?
io avrei giurato che i 6 core su mainstream fossero durati almeno altri e due anni...
se mettono 8 core sui mainstream cosa si devono inventare sugli HEDT? :D
ma sei sicuro che arriveranno gli 8 core su mainstream?
io avrei giurato che i 6 core su mainstream fossero durati almeno altri e due anni...
se mettono 8 core sui mainstream cosa si devono inventare sugli HEDT? :DMa infatti non è sicuro proprio nulla.
Probabilmente tolgono l'esacore hedt e lo sostituiscono con un octacore entry level con cofeelake-x, allo stesso prezzo dell'attuale 7800x.
Poi può anche essere che per una volta Intel non sottovaluti il lavoro di amd con zen 2 (7nm, +IPC, +frequenze e +core fino a 12 core per i ryzen 7) e piazzi sulla fascia consumer un 9700k 8/16 @10nm+ con un bel salto di ipc e frequenze attuali..
Comunque, tutto questo lo vedremo fine 2018/inizi 2019.. Acqua sotto i ponti ne deve ancora passare :asd:
Fine OT XD
Se parliamo di Z390 si parla di 8 core per i5 e i7, tempo fa circolò una slide interessante sulla roadmap di intel:
https://cdn.segmentnext.com/wp-content/uploads/2017/10/thumb-565275654b4a8b3e46e0812a47de034b_1507021661_081_992x478.jpg
Quella tabella ė falsa come una borsa di Vuitton dei vu' cumprà ;)
illidan2000
03-11-2017, 13:59
https://wccftech.com/nvidia-titan-x-collectors-edition-teaser/
Chiamate la neuro.
beh, se le fanno, sanno che c'è chi le compra...
Free Gordon
03-11-2017, 14:06
beh, se le fanno, sanno che c'è chi le compra...
Ma infatti era per quelli la neuro :asd:
Senza offesa eh.. :D si fa per dire.
Dopo la Collector usciranno:
- Titan X Definitive Edition
- Titan X Card of the Year
Poi appena uscirà Volta, via con i saldi estivi sul mercatino :O
TigerTank
03-11-2017, 14:56
https://wccftech.com/nvidia-titan-x-collectors-edition-teaser/
Chiamate la neuro.
Questa versione fa anche il caffè inserendo la capsula in un apposito vano del dissipatore :O
Sto proprio pensando che se dopo Vega 56/64 nVidia se n'è uscita con la 1070Ti, ora che si rumoreggia che AMD rilascerà Vega 28/32, temo che nVidia se ne uscirà con una 1060Ti e non avrebbe motivo di rilasciare Volta a breve e potrebbe aspettare fino a quando AMD avrà pronta Navi
Sto proprio pensando che se dopo Vega 56/64 nVidia se n'è uscita con la 1070Ti, ora che si rumoreggia che AMD rilascerà Vega 28/32, temo che nVidia se ne uscirà con una 1060Ti e non avrebbe motivo di rilasciare Volta a breve e potrebbe aspettare fino a quando AMD avrà pronta Navi
Non è impossibile considerando che la 1060 al massimo avrebbe 1792cc mentre la 2070 oscillerebbe tra 2688 e 3072cc...
Ma fare un eventuale 1060ti significherebbe che le rese non sono tutto questo granchè, con molti chip GV104 fallati...
La 1070ti, penso che sia statta commercializzata sia per rese migliori sui chip GP104 rispetto quelle iniziali (1070 ha un intero GPC disattivo) e sia per smaltire le GDDR5 dagli stock, e sicuramente per il mining è una scheda che fa gola a molti...
Scusate raga,ma ha senso lanciare una 1070Ti allo stesso prezzo della 1080?
Capisco che sia stato un esercizio di stile da parte di Nvidia ma a che pro?
Per i miners?
Perchè cmq non ha apportato ad una riduzione dei prezzi sul segmento medio tipo con le 1070.
Ciao :)
Scusate raga,ma ha senso lanciare una 1070Ti allo stesso prezzo della 1080?
Capisco che sia stato un esercizio di stile da parte di Nvidia ma a che pro?
Per i miners?
Perchè cmq non ha apportato ad una riduzione dei prezzi sul segmento medio tipo con le 1070.
Ciao :)
Gli MRSP sono i seguenti
1070ti 450$
1080 500$
I prezzi sono quindi diversi, e prendere come riferimento gli attuali al day one non ha molto senso, e se proprio lo si vuole fare lo si faccia presso lo stesso shop, ad esempio da nexths la 1080 più economica costa 560 mentre l'equivalente 1070ti 490, costano uguali ? ;)
1060TI + SLI = 460 killer :sofico:
TigerTank
04-11-2017, 11:30
Gli MRSP sono i seguenti
1070ti 450$
1080 500$
I prezzi sono quindi diversi, e prendere come riferimento gli attuali al day one non ha molto senso, e se proprio lo si vuole fare lo si faccia presso lo stesso shop, ad esempio da nexths la 1080 più economica costa 560 mentre l'equivalente 1070ti 490, costano uguali ? ;)
Ovviamente considerato l'ampio ventaglio prezzi dei tanti shop e la moltitudine di modelli, la situazione prezzi di 1070, 1070Ti e 1080 è un miscuglio fatto anche di sovrapposizioni. Mentre le 1080Ti viaggiano ampiamente sopra alle 700€, con le più "papabili" pure sopra le 800.
Imho al momento la situazione migliore prezzo-prestazioni come vga nuova è una 1080 sulle 500€ o poco più(500-550).
Secondo me la 1070ti è nata semplicemente per un miglioramento delle rese produttive, la 1070 con un intero GPC disattivo ha fatto ben intendere come il nuovo pp abbia portato non pochi problemi.
Ora che a distanza di più di un anno, il pp è stato rodato per benino probabilmente anche i chip GP104 completi sono molto aumentati e piuttosto che laserarli pesantemente e declassarli a 1070, nvidia ha ben pensato di far uscire una nuova scheda a cavallo tra 1070 e 1080...
Arrow0309
04-11-2017, 13:22
Sto leggendo che la nuova Titan Collector's "potrebbe" avere le gddr6.
https://www.techpowerup.com/238459/nvidia-teases-titan-x-collectors-edition-graphics-card
mikael84
04-11-2017, 14:36
Sto leggendo che la nuova Titan Collector's "potrebbe" avere le gddr6.
https://www.techpowerup.com/238459/nvidia-teases-titan-x-collectors-edition-graphics-card
Al CES 2018 si saprà qualcosa (Gennaio), attualmente sono solo supposizioni per click.;)
il senso è aumentare il prezzo della 1080, che visto vega, va ancora fortissimo e guadagnarci di più, posizionare questa a quello che era il prezzo della 1080 e guadagnarci di più, lasciare quasi invariato il prezzo della 1070 e continuare a guadagnare
una volta la concorrenza portava alla riduzione dei prezzi o meglio la concorrenza quando è "buona" porta a quello, vega è fuori prezzo almeno ad oggi.
GCN va rivisto e prodotto in modalità asimmetrica per aumentare la potenza geometrica ed anche il backfaceculling tanto decantato ma non attivato.
Il compute engine contiene 1024st, ma questi sono suddivisi nei vari shaders array. Ovvero dei sottoblocchi, dove i vari CU, vengono parallelizzati o serializzati in base alle istruzioni.
Sino a Fiji si utilizzava uno shader array da 4 CU per sfruttare e condividere le varie cache, con Vega gli shader array sono 6, in modalità 3+3, di conseguenza sei costretto ad aumentare notevolmente i cicli di clock quando passi sulla cache.
La l1 può necessitare anche dai 10-20 cicli.
Ne consegue che a pari clock, Vega rimane leggermente inferiore per latenze.
Questa architettura ormai non regge con i vari GPC di Nvidia. La puoi tirare quanto vuoi, ma teoricamente bisognerebbe riscrivere tutto.
Quindi lato GPU, se non si cambia pagina, Nvidia ci sguazzerà sempre.
Sto leggendo che la nuova Titan Collector's "potrebbe" avere le gddr6.
https://www.techpowerup.com/238459/nvidia-teases-titan-x-collectors-edition-graphics-card
Ma non dovrebbero cambiare tutto il controller della RAM?
Giovamas
04-11-2017, 15:56
Dopo la Collector usciranno:
- Titan X Definitive Edition
- Titan X Card of the Year
Poi appena uscirà Volta, via con i saldi estivi sul mercatino :O
eheheh ne appariranno diverse:D . sappiamo bene che schede come questa o come la mia sono soggette a svalutazione enorme. ma io sono alla finestra la 2080ti uscirà nel tardo 2019 immagino. sempre che Volta esca prima dell'estate :)
E dopo mesi dall'uscita bisognerebbe capire come mai....
Perchè come spigato dai paper e dai tecnici amd è una soluzione che prevede l'uso dei CU per emulare i geometry processor. Il tutto costa Gflops che vengono tolti dal totale.
Probabilmente attivarlo alla cxzzo di cane non è conveniente visto che sottrae potenza computazionale al resto.
Parliamo ovviamente di culling (rimozione dei poligoni nascosti), perchè a valle i 4 rasterizer ti permettono al massimo di disegnare/texturizzare 4 triangoli per ciclo.
E quindi non lo attiveranno mai? Ma in wolfenstein 2 non era attivo?
Mi sa che parlo arabo, anche quando semplifico al massimo. :(
Come tutte le soluzioni software lo attivi dove serve in quantità oculate per limitare in parte il collo di bottiglia, visto che consuma gflops.
Con culling si intendono tantissime tecniche diverse.
Occlusion e fustum culling sono integrate da parecchio tempo via GPU Compute.
Ac unity è stato il primo ad integrarle massivamente.
Il primitive è ad un livello più basso, quello occupato dagli shader engine nelle gpu amd.
Premesso che non sono un cretino, la mia era una domanda che intendeva "visto che lo hanno sbandierato ai 4 venti come una uber feature e che da quanto dici sembra una cagata rattoppata (tipo gli ace swf di nVidia), dunque non lo useranno mai?" forse ho semplificato troppo io.
Chiuso ot.
Se non ricordo male hanno detto che l'attiveranno via driver...
Probabilmente bilanciarlo non è così semplice per i motivi che ho spiegato.
Fine OT.
sickofitall
04-11-2017, 20:46
Le prossime vga per quando piu o meno sono previste? entro giugno 2018?
Secondo me la 1070ti è nata semplicemente per un miglioramento delle rese produttive..
No, ė nata per i miners.
Le prossime vga per quando piu o meno sono previste? entro giugno 2018?
Giugno se siamo fortunati
mikael84
04-11-2017, 23:10
E quindi non lo attiveranno mai? Ma in wolfenstein 2 non era attivo?
Possono anche attivarlo, ma non andrà mai come nvidia. Nvidia utilizza i P.E via geometrica ed il backfaceculling (heaven benchmark) via raster, nel 1° stadio di pipeline, il 2° applica la tassellazione(copertura dei pixel) ed il 3°, lo z-cull, elimina i pixel non visibili dalla vram.
Basta fare un'heaven per vedere quanto non migliori nulla. Non vai a gravare le unità di calcolo direttamente.
Le unità di calcolo Nvidia non perdono mai calcolo teorico, su GCN è diverso, già in fase game, emulare le load store porta via 1 simd a CU. Se poi ci aggiungi anche calcoli geometrici addio.
Wolfenstein va meglio su AMD per via dei post processing in fp16, ma parliamo di titoli con grafica terra terra.
Nvidia SM è pari ad 1/64 fp16, Vega è pari a 2:1:)
Le prossime vga per quando piu o meno sono previste? entro giugno 2018?
Sick, non ci sono date, ma probabile maggio/giugno 2018. :)
Legolas84
05-11-2017, 07:15
Che poi Mike... guardando pcgameshardware non mi pare che in wolf 2 la situazione sia diversa dagli altri giochi
http://www.pcgameshardware.de/Wolfenstein-2-The-New-Colossus-Spiel-61046/Specials/Wolfenstein-2-The-New-Colossus-im-Technik-Test-Benchmarks-Vulkan-1242138/
O sbaglio?
Inviato dal mio iPhone utilizzando Tapatalk Pro
Giovamas
05-11-2017, 11:36
Giugno se siamo fortunati
maggio-giugno ma proprio ad andare bene...:) nvidia fa quello che vuole purtroppo
Free Gordon
05-11-2017, 13:22
Wolfenstein va meglio su AMD per via dei post processing in fp16, ma parliamo di titoli con grafica terra terra.
Nvidia SM è pari ad 1/64 fp16, Vega è pari a 2:1:)
Grafica terra-terra per Wolfenstein?
https://cdn2.techadvisor.co.uk/cmsdata/reviews/3663221/wolfenstein_main.png
Gli MRSP sono i seguenti
1070ti 450$
1080 500$
I prezzi sono quindi diversi, e prendere come riferimento gli attuali al day one non ha molto senso, e se proprio lo si vuole fare lo si faccia presso lo stesso shop, ad esempio da nexths la 1080 più economica costa 560 mentre l'equivalente 1070ti 490, costano uguali ? ;)
Non avevo approfondito bene la questione dei prezzi.;)
Avevo visto l’inserimento di qualche shop delle 1070 Ti a 500 euro e confuso con il prezzo più basso della 1080 da Tao :D
una volta la concorrenza portava alla riduzione dei prezzi o meglio la concorrenza quando è "buona" porta a quello, vega è fuori prezzo almeno ad oggi.
Manca la concorrenza della vecchia Ati :(
In più si aggiunge la grossa piaga dei miners e Nvidia gonfia fino all’inverosimile il proprio capitale :rolleyes:
techsaskia
05-11-2017, 21:08
Manca la concorrenza della vecchia Ati :(
In più si aggiunge la grossa piaga dei miners e Nvidia gonfia fino all’inverosimile il proprio capitale :rolleyes:
che problema portano i miners esattamente?
TigerTank
05-11-2017, 21:32
Giusto per farti un piccolo esempio...questo (https://www.youtube.com/watch?v=zCcBGX0E8ns) per minare ha messo 48 1070...+ le altre 6 evga hybrid.
Altri più contenuti ne pigliano 6, 8, 12, 16...per cui calcola quante ne vanno a persona in rapporto ai gamers che ne comprano massimo una o due :D
Spero che con le Volta esca un modello dedicato e che la cosa non si ripeta...altrimenti le 2070 se idonee mi sa che voleranno oltre le 500€ medie.
mikael84
05-11-2017, 23:10
Grafica terra-terra per Wolfenstein?
Ma il gioco lo stai giocando, o mi hai preso screen dal web?
Texture pessime per un gioco del 2017.
Poi ad uno può piacere o non piacere, ma di certo non è l'eccellenza gaming (almeno dal mio punto di vista)
https://abload.de/thumb/wolf1nnsra.png (http://abload.de/image.php?img=wolf1nnsra.png)
https://abload.de/thumb/wolf10kxsot.png (http://abload.de/image.php?img=wolf10kxsot.png)
Giusto per farti un piccolo esempio...questo (https://www.youtube.com/watch?v=zCcBGX0E8ns) per minare ha messo 48 1070...+ le altre 6 evga hybrid.
Ma stò campione li guadagna almeno 300 euro al giorno?:asd:
TigerTank
06-11-2017, 11:42
Ma il gioco lo stai giocando, o mi hai preso screen dal web?
Texture pessime per un gioco del 2017.
Poi ad uno può piacere o non piacere, ma di certo non è l'eccellenza gaming (almeno dal mio punto di vista)
https://abload.de/thumb/wolf1nnsra.png (http://abload.de/image.php?img=wolf1nnsra.png)
https://abload.de/thumb/wolf10kxsot.png (http://abload.de/image.php?img=wolf10kxsot.png)
Da questi screen sembra quasi la grafica di bioshock infinite :D
Ma stò campione li guadagna almeno 300 euro al giorno?:asd:
Eh...o è un benestante con la passione oppure ne piglia tanti visto il costo dell'hardware :D
illidan2000
06-11-2017, 11:58
Ma il gioco lo stai giocando, o mi hai preso screen dal web?
Texture pessime per un gioco del 2017.
Poi ad uno può piacere o non piacere, ma di certo non è l'eccellenza gaming (almeno dal mio punto di vista)
https://abload.de/thumb/wolf1nnsra.png (http://abload.de/image.php?img=wolf1nnsra.png)
https://abload.de/thumb/wolf10kxsot.png (http://abload.de/image.php?img=wolf10kxsot.png)
è la stessa di doom... non mi dispiace. Certo, c'è di meglio in giro, ma non è orrendissima, per un gioco del genere :)
Free Gordon
06-11-2017, 12:25
è la stessa di doom... non mi dispiace. Certo, c'è di meglio in giro, ma non è orrendissima, per un gioco del genere :)
E' un motore fenomenale secondo me.
Ha una grafica buona MA GIRA a frame rate molto alti.
Trovate un altro engine che ha questa grafica e fa gli stessi fps.. (cod ad esempio è più scarno -cmq artisticamente validissimo-)
Fossero tutti come Doom e Wolf i giochi, saremmo a cavallo...
TigerTank
06-11-2017, 13:11
è la stessa di doom... non mi dispiace. Certo, c'è di meglio in giro, ma non è orrendissima, per un gioco del genere :)
Diciamo che nei giochi "ID" la grafica non è mai stata al top. E' comunque piacevole ma la cosa primaria è sempre stata la giocabilità da FPS divertenti.
Pure Rage aveva degli elementi grafici osceni, a partire da varie textures blurrose da far schifo...ma lo trovavo bello da giocare nonostante fosse pure cappato a 60.
Idem Quake 4 e Doom 3, a loro tempo anche avvantaggiati dalla prevalenza assoluta di ambienti chiusi e piccoli. Doom mi è piaciuto e sono rimasto soddisfatto anche potendo solo sfruttare una sola 1070 sotto Vulkan. In openGL c'erano problemi di stuttering con SLi attivo e certi effetti.
Sopra citavo anche Bioshock Infinite per lo stesso motivo. Aggiungerei anche il primo Dishonored quando uscì. Un altro personalmente è Singularity....per non parlare poi del primo Dark Souls. Stupendo ma rigorosamente da moddare. Senza dimenticare i primi 3 Thief, vecchi graficamente già quando uscirono ma capolavori di gameplay stealth e audio.
Diciamo che i giochi che non hanno una grafica proprio al top sono tanti...ma magari compensano con un buon coinvolgimento/divertimento nel gameplay, oltre che ad un buon rapporto framerate/risorse grafiche necessarie.
Magari altri giochi sono più belli graficamente ma io li definisco "quelli che ti godi davvero solo con la prossima generazione di vga" :D
Free Gordon
06-11-2017, 13:38
Fossero tutti come Doom e Wolf i giochi, saremmo a cavallo...
eh infatti.....
Grafica terra-terra per Wolfenstein?
https://cdn2.techadvisor.co.uk/cmsdata/reviews/3663221/wolfenstein_main.png
uno dei piu interessanti videogame degli ultimi anni, sono passato dalla 1070 alla 1080 liscia da poco, e tutto impostato al max su Main laben, TSSAA 8TX a 2560x1440 a 60 FPS uno spettacolo per gli occhi..
Misterxxx1
06-11-2017, 14:10
La 1070 TI OC rulla
The Best Value Performance GPU, GTX 1070 Ti vs. RX Vega 56 [35 Game Benchmark]
https://youtu.be/VqABChFrD_w
TigerTank
06-11-2017, 14:20
La 1070 TI OC rulla
The Best Value Performance GPU, GTX 1070 Ti vs. RX Vega 56 [35 Game Benchmark]
https://youtu.be/VqABChFrD_w
Rulla il giusto, nel senso che mining a parte è la scheda che allo stesso tempo deve andare un pò più forte di vega56 ma senza impensierire troppo la 1080.
Io comunque continuo a considerarla una scheda uscita per l'effetto mining, per contrastare le Vega bastava tagliare un poco i prezzi di 1070 e soprattutto 1080. Peccato che le gddr5x di queste ultime non si siano rivelate idonee per minare, causa latenze alte :D
Rulla il giusto, nel senso che mining a parte è la scheda che allo stesso tempo deve andare un pò più forte di vega ma senza impensierire troppo la 1080.
Io comunque continuo a considerarla una scheda uscita per l'effetto mining, per contrastare le Vega bastava tagliare un poco i prezzi di 1070 e soprattutto 1080. Peccato che le gddr5x di queste ultime non si siano rivelate idonee per minare, causa latenze alte :D
Forse nonna "Nshitia" cit. Ha sfornato troppi biscotti e non si aspettava le vega così vicine, oppure si è messa d'accordo con amd - più probabile - nel farle uscire a quelle condizioni, in modo che potesse vendere i biscotti rimasti come integrali, più ricchi dei raffinati biscotti delle 1070 e non veramente integrali - e quindi arricchiti di crusca - rispetto a quelli della 1080.
Se c'hai i biscotti pronti, che fai? Li butti? :sofico:
Ieri tre randagi mi hanno fatto fuori un pacco di biscotti, ecco il perchè di questa iperbole che sottende siffatto concreto siffredi.
TigerTank
06-11-2017, 14:36
Eheheheh in effetti è un'occasione ghiotta se ci sono potenziali miners che compreranno moltitudini di 1070Ti da mettere in batteria :D
In pratica Nvidia ha colto 2 piccioni con una fava.
bagnino89
06-11-2017, 14:38
E' un motore fenomenale secondo me.
Ha una grafica buona MA GIRA a frame rate molto alti.
Trovate un altro engine che ha questa grafica e fa gli stessi fps.. (cod ad esempio è più scarno -cmq artisticamente validissimo-)
Concordo che l'engine sia molto efficiente, ma le sue beghe le ha.
Per esempio, il V-Sync su Adattivo (che poi che vuol dire Adattivo? Boh) genera tearing senza motivo, come se fosse un semplice limitatore di FPS e non un vero e proprio V-Sync. Mettere un banale V-Sync con triple buffering no? Mi faceva la stessa identica cosa con TNO e TOB. Che poi, senza gli ultimi driver Nvidia, se uno prova a modificare le impostazioni di tale V-Sync il gioco freeza e si riavvia il sistema. Mai vista in vent'anni di gaming una cosa simile :asd:
Su The Evil Within 2 (che però non usa la stessa versione dell'ID Tech) a volte, completamente random, compare microstuttering fastidiosissimo. A tutti, a prescindere dalla configurazione. Oltre al fatto che non scala per niente bene tra le varie GPU. Il primo era anche peggio...
DOOM, invece, fa veramente paura. Texture niente di che ma la resa visiva è incredibile se rapportata alla potenza computazionale necessaria.
Io, comunque, reputo il Red Engine il miglior motore grafico che abbia mai visto. :)
mikael84
06-11-2017, 14:46
Fossero tutti come Doom e Wolf i giochi, saremmo a cavallo...
Ci compreremmo tutti una console. A 10 anni da crysis (novembre 2007-2017).
Rulla il giusto, nel senso che mining a parte è la scheda che allo stesso tempo deve andare un pò più forte di vega56 ma senza impensierire troppo la 1080.
Io comunque continuo a considerarla una scheda uscita per l'effetto mining, per contrastare le Vega bastava tagliare un poco i prezzi di 1070 e soprattutto 1080. Peccato che le gddr5x di queste ultime non si siano rivelate idonee per minare, causa latenze alte :D
Lato mining vanno uguale.
La 1070ti sui 1900 custom perde circa 100mhz rispetto la 1080, ma è come se avesse un 64bit in meno a livello di banda.
Quei 100mhz, possono essere minori in base al tipo di calcolo eseguito, tipo rop's.:)
La 1070ti mantiene tutte le rop's (64)
bagnino89
06-11-2017, 16:46
Adattivo vuole dire che se sei a 60fps funziona il vsync, se scendi il vsync si disattiva dando tearing. :)Come quello impostabile dal pannello di controllo Nvidia, quindi. Il problema è che con le GeForce è evidentemente buggato perché anche stando ben sopra i 60 FPS il tearing c'è lo stesso... Funziona come un semplice limitatore di FPS.
TigerTank
06-11-2017, 18:09
Ehm vi state confondendo un pò :D
L'adattivo nvidia attiva il cap raggiungendo il massimo limite del monitor(60, 120, 144...) e sotto si disattiva ma non c'è tearing in quanto si è sotto il refresh massimo del monitor. Il tearing semmai si ha se il framerate supera il refresh massimo del monitor, se si gioca con vsync disattivo. Motivo per cui è stato inventato il fastsync.
Il tearing con il vsync adattivo invece è un "effetto collaterale" quando non pienamente compatibile con il titolo in questione. E pure il fastsync non sempre funziona a dovere.
Per mia esperienza il vsync adattivo nvidia funzionava meglio su schermo a 120Hz che sui classici 60Hz. Il meglio comunque sono freesync e gsync :fagiano:
Io devo dire che con il fastsync accoppiato a rivatuner per il cap degli fps mi sto trovando benissimo, il 90% dei titoli vanno tutti senza problemi solo pochi mi è capitato di fargli un profilo a parte dove attivare il vsync classico...
Inoltre non so come, ma su molti engine anche se supero i 75fps con il fastsync non si genera mai tearing e posso anche godermeli a 120++ fps :)
Inoltre non so come, ma su molti engine anche se supero i 75fps con il fastsync non si genera mai tearing e posso anche godermeli a 120++ fps :)
Ehm veramente e' il motivo per cui l'hanno impelementato, no ? :fagiano:
Peccato dia stuttering su parecchi motori.
Ehm veramente e' il motivo per cui l'hanno impelementato, no ? :fagiano:
Peccato dia stuttering su parecchi motori.
Non direi, su molti engine bloccando gli fps anche alla normale frequenza del monitor ha una migliore fluidità anche rispetto all'adattivo o gli altri metodi di sincronizzazione...
Purtroppo in alcuni titoli devi obbligatoriamente usare il vsync implementato nel gioco per non avere strani effetti, ma anche lo stuttering bloccando gli fps non mi si è mai generato con il vantaggio di recuperare fps rispetto al vsync...
Non direi, su molti engine bloccando gli fps anche alla normale frequenza del monitor ha una migliore fluidità anche rispetto all'adattivo o gli altri metodi di sincronizzazione...
Purtroppo in alcuni titoli devi obbligatoriamente usare il vsync implementato nel gioco per non avere strani effetti, ma anche lo stuttering bloccando gli fps non mi si è mai generato con il vantaggio di recuperare fps rispetto al vsync...
Mi sa che non hai ben chiarissimo cosa facciano i vari sync, cmq siamo OT. Rimane che il fast sync sia nato per soluzioni con fps sopra il refresh del monitor, utilizzando appunto un buffer con ogni frame potenziale gia' renderizzato in toto.
Mi sa che hai un po' di confusione cmq siamo OT ;)
Io ti parlo per esperienza diretta sui titoli a cui gioco, e con il fast sync noto un frame medio migliore e una miglior fluidità rispetto all'adattivo e sopratutto al vsync in game...
Io ti parlo per esperienza diretta sui titoli a cui gioco, e con il fast sync noto un frame medio migliore e una miglior fluidità rispetto all'adattivo e sopratutto al vsync in game...
Ti stavo rispondendo al fatto del perche' tu non sapessi come mai tu non avessi tearing con fps alti... E' perche' sarebbe la sua funzione primaria, per la questione full buffer (con un po' di latency in piu' chiaramente).
Ti stavo rispondendo al fatto del perche' tu non sapessi come mai tu non avessi tearing con fps alti... E' perche' sarebbe la sua funzione primaria, per la questione full buffer (con un po' di latency in piu' chiaramente).
Ah ok perfetto, pensavo che il discorso fosse limitato a pari fps, ovvero soluzione FastSync con cap e Adattivo...
Dalle mie prove fissando gli gli fps a 75hz quindi al refresh del monitor, con l'adattivo ho un ambigua oscillazione del frame con minimi che scendono enormemente, mentre con fastsync + cap il frame minimo è decisamente migliore ed è molto più semplice tenere i 75fps stabili...
techsaskia
06-11-2017, 19:56
speriamo che le nuove 2080 spingeranno almeno l'80% in più delle 1080 e che non supereranno le 600€...
speranze "possibili" secondo voi?
techsaskia
06-11-2017, 21:10
Così, per magia? :rolleyes:
Il tearing c'è sia sopra che sotto la frequenza del monitor.
Anzi puoi avere tearing anche alla stessa frequenza del monitor se non sei sincronizzato in qualche modo.
molti credono questa cosa, chissà perchè...
TigerTank
06-11-2017, 21:21
Così, per magia? :rolleyes:
Il tearing c'è sia sopra che sotto la frequenza del monitor.
Anzi puoi avere tearing anche alla stessa frequenza del monitor se non sei sincronizzato in qualche modo.
Io sinceramente sotto le soglie non ho mai avuto problemi particolari, soprattutto su schermo da 120Hz rispetto ai classici 60Hz. Tearing l'ho sempre notato invece a vsync disattivato con framerate sparato a manetta, tipo nei bench. Con fotogrammi prodotti superiori al refresh massimo dello schermo.
Poi beh...come scritto sopra in ogni caso freesync e gsync ormai sono il top per godersi al 100% delle nuove schedozze ;)
speriamo che le nuove 2080 spingeranno almeno l'80% in più delle 1080 e che non supereranno le 600€...
speranze "possibili" secondo voi?
anche senza dati alla mano la probabilità che ci sia un incremento del genere è quasi 0...è abbastanza probabile/realistico aspettarsi qualcosa su un 35-40%
Ale55andr0
06-11-2017, 21:42
speriamo che le nuove 2080 spingeranno almeno l'80% in più delle 1080 e che non supereranno le 600€...
speranze "possibili" secondo voi?
le 2080 andranno poco più di una 1080ti imo, quindi un 40-45% in più default vs default sulla 1080. Al lancio, e per diversi mesi anche vedendo la situazione attuale e considerando che avranno quasi sicuro 16gb, direi che per 600€ ti danno l'imballo e una scheda di cartone con la 2080 disegnata :asd:
speriamo che le nuove 2080 spingeranno almeno l'80% in più delle 1080 e che non supereranno le 600€...
speranze "possibili" secondo voi?
Hahahhaha da quando nvidia ė una onlus? :ciapet:
techsaskia
06-11-2017, 21:58
anche senza dati alla mano la probabilità che ci sia un incremento del genere è quasi 0...è abbastanza probabile/realistico aspettarsi qualcosa su un 35-40%
quindi va meno di una 1080 Ti?
improbabile e analizzando la storia di nvidia infondato :D
le 2080 andranno poco più di una 1080ti imo, quindi un 40-45% in più default vs default sulla 1080. Al lancio, e per diversi mesi anche vedendo la situazione attuale e considerando che avranno quasi sicuro 16gb, direi che per 600€ ti danno l'imballo e una scheda di cartone con la 2080 disegnata :asd:
storicamente le non Ti non hanno mai superato le 600€-650€ in versione liscia.
bagnino89
06-11-2017, 22:16
speriamo che le nuove 2080 spingeranno almeno l'80% in più delle 1080 e che non supereranno le 600...
speranze "possibili" secondo voi?Sì, e poi ti svegli tutto bagnato. :asd:
Tra l'altro, se la situazione mining non migliora, sarà ancora peggio. Per non parlare del fatto che la concorrenza è meno agguerrita di quanto avrebbe dovuto essere. Così, per magia? :rolleyes:
Il tearing c'è sia sopra che sotto la frequenza del monitor.
Anzi puoi avere tearing anche alla stessa frequenza del monitor se non sei sincronizzato in qualche modo.Vero.
techsaskia
06-11-2017, 22:24
Sì, e poi ti svegli tutto bagnato. :asd:
Tra l'altro, se la situazione mining non migliora, sarà ancora peggio. Per non parlare del fatto che la concorrenza è meno agguerrita di quanto avrebbe dovuto essere. Vero.
ma di che situazione mining parlate?
me la spiegate che sono all'oscuro per favore?
bagnino89
06-11-2017, 22:32
ma di che situazione mining parlate?
me la spiegate che sono all'oscuro per favore?Sei vissuto su Marte negli ultimi mesi?
In breve: un sacco di scoppiati comprano GPU come fossero caramelle per "minare" criptovalute e specularci. L'offerta non sta dietro alla domanda e i prezzi, di conseguenza, salgono sballando completamente quasi tutte le fasce, specie la medio-alta.
Ale55andr0
06-11-2017, 22:38
storicamente le non Ti non hanno mai superato le 600€-650€ in versione liscia.
certo non al lancio....
Ale55andr0
06-11-2017, 22:39
Sei vissuto su Marte negli ultimi mesi?
In breve: un sacco di scoppiati comprano GPU come fossero caramelle per "minare" criptovalute e specularci. L'offerta non sta dietro alla domanda e i prezzi, di conseguenza, salgono sballando completamente quasi tutte le fasce, specie la medio-alta.
In più sono saliti i costi delle ram...
bagnino89
06-11-2017, 22:43
In più sono saliti i costi delle ram...Anche. In questo momento storico conviene solo comprare CPU, dove è arrivata la santa concorrenza...
Ale55andr0
06-11-2017, 22:55
Anche. In questo momento storico conviene solo comprare CPU, dove è arrivata la santa concorrenza...
io con la 1080 presa a 480 spedita a settembre ritengo di aver azzeccato il treno giusto in tempo :asd:
bagnino89
06-11-2017, 23:23
io con la 1080 presa a 480 spedita a settembre ritengo di aver azzeccato il treno giusto in tempo :asd:Idem.
quindi va meno di una 1080 Ti?
improbabile e analizzando la storia di nvidia infondato :D
giusto, perchè una 1080ti va un 50% in più di una 1080...certo :rolleyes: :doh:
una 1080ti va mediamente un 30% più di una 1080, quindi ci si aspetta che la 2080 vada approssimativamente un 10% medio in più, probabile anche un +15% (refrence to reference) per avere un perchè di essere venduta/acquistata a un prezzo enthusiast di 7-750€ al lancio fino a che non esce la 2080ti, quindi il +35-40% che ti avevo menzionato precedentemente torna (rimanendo un 5% più bassi per non deludere le aspettative troppo alte)...se poi ti piace fantasticare su percentuali assurde, allora facciamo con la 2080 andrà un +80% come dici te e amen ed è inutile che chiedi pareri altrui...poi non ci rimanere male
...storicamente le non Ti non hanno mai superato le 600€-650€ in versione liscia.
dov'eri quando uscite solo la 1080 e 1070, la prima era piazzata al prezzo di una enthusiast a 700€+ fino a che non è uscita la 1080ti riposizionandola nella sua fascia di prezzo reale(550€)?
anche senza dati alla mano la probabilità che ci sia un incremento del genere è quasi 0...è abbastanza probabile/realistico aspettarsi qualcosa su un 35-40%
Fai anche minore di 0.
Assolutamente improbabile.
Anche 35-40% è MOLTO generoso.
Nvidia non ne ha molto bisogno, non ha tutta questa concorrenza.
31 % era 980 vs 780. 780 vs 680 era anche meno...
Ergo, ma quale 80 % :rotfl:
Tra 1080ti e 1080 c'è una differenza di CC di quasi il 35%, quindi clock for clock, considerando uno scarto minimo dato dalla scalabilità che può non essere perfetta oltre alle latenze leggermente più alte, siamo a un 30-32% in più di prestazioni...
La scheda che davvero picchia forte è la titan full, con 3840cc e quindi con uno stacco del 45-48% dalla 1080 clock for clock :)
CiccoMan
07-11-2017, 08:09
Sto cercando info riguardo al teaser recentemente pubblicato dove si vede la Titan collector's... non che mi interessi come acquisto, ma per una mia curiosità... Sarà solo una variante RGB? Solo supposizioni o si sa qualcosa di concreto?
TigerTank
07-11-2017, 09:04
storicamente le non Ti non hanno mai superato le 600€-650€ in versione liscia.
Veramente le 1080 hanno esordito con le FE a 800€ (https://www.nexthardware.com/news/prezzo-su-strada-e-benchmark-della-gtx-1080-7525/), poi calate dopo poco sulle 700. :D
E c'è chi per scimmia le ha comprate pure a quel prezzo.
le 2080 andranno poco più di una 1080ti imo, quindi un 40-45% in più default vs default sulla 1080. Al lancio, e per diversi mesi anche vedendo la situazione attuale e considerando che avranno quasi sicuro 16gb, direi che per 600€ ti danno l'imballo e una scheda di cartone con la 2080 disegnata :asd:
Non credo proprio, escludendo la più elitaria titan, figuriamoci se nvidia metterà fuori la nuova top del 2018 per la massa con uno scarto esiguo rispetto alla 1080Ti. Quella forse sarà la 2070, la 2080 avrà il suo solito 25-30% in più.
Per cui a conti fatti da 1080 a 2080 ci sarà probabilmente un 50-55% in più di prestazioni, in dipendenza anche da come la nuova generazione impatterà sulla gestione delle dx12.
Sto cercando info riguardo al teaser recentemente pubblicato dove si vede la Titan collector's... non che mi interessi come acquisto, ma per una mia curiosità... Sarà solo una variante RGB? Solo supposizioni o si sa qualcosa di concreto?
Fa il caffè con le capsule da inserire nel dissipatore :D
Perfetto pendant con i coffee lake.
red5goahead
07-11-2017, 09:11
Ciao
scusate ma non ho trovato una discussione sui driver. Non sono per nulla esperto di Nvidia avendo avuto Amd da sempre ed ora ho preso una Asus gtx 1050 ti. Il motivo principale è che avendo chiuso l'esperienza con l'htpc avevo più scelte per la scheda video e ho preso una Shield quindi avevo un senso optare per una Gtx.
Ieri ho installato tutto ma dopo un paio di ore mi è scomparso il pannello di controllo Nvidia , sparito il link da tasto destro sul dekstop, e neanche accessibile da pannello di controllo, non parte. Disintallato tutto con DDU e fatto reinstallare da Windows Update questa volta . i driver ora sono di metà settembre non quello ultimio . Sono cose normali? :eek:
TigerTank
07-11-2017, 09:26
Il prezzo della 1080 FE era 699$
I prezzi di riferimento sono sempre iva esclusa ;)
Le prime comunque costavano 800€, ho pure linkato una delle notizie dello scorso anno.
Solito tipo il meno del 10% fra 780Ti e 980?
Scusami eh ma sembra che ti arrampichi terribilmente sugli specchi postando un test anonimo di qualcosa. Io parlo in generale e se proprio ribatto parlando di gtx980Ti e 1080 :)
Se poi vuoi metterti l'anima in pace...LINK (https://www.youtube.com/watch?v=Imhpe5KNIW0). Direi che ci sia ben più che un 10% ma rispetto le tue convinzioni :D
P.S. Ho avuto sia gtx780Ti che gtx980.
Io mi chiedo se lo fa apposta ormai a sparare minkiate :D
e pensare che partivano da Kepler quindi il margine doveva essere di molto superiore con Maxwell già dall'inizio, ma poi ci ha pensato la scarsa ottimizzazione, un po' come sta accadendo con Fiji in amd e allora i distacchi sono aumentati, qualcuno ha detto Legacy? :stordita:
...se rimangono ancora sui 16/12nm la vedo molto dura fare così meglio come alcuni sperano o dicono soprattutto pensando che Pascal va al 100% sempre e dal Day-One :sofico:
scherzi a parte, sui 16/12nm fare +10~15% con la 2080 sulla 1080ti sarebbe già molto, poi ho una sensazione come se nvidia stesse aspettando i 7nm di TMSC per fine 2018...
eddai su, non si sta arrampicando da nessuna parte all'inizio il gap era quello o poco più, solo col tempo è aumentato e sappiamo tutti il motivo... te l'ho detto Fiji sta facendo la stessa fine dopo soli 2 anni...
Legacy legacy legacy!!! Nvidia optimized! 780 downclock!!! Legacy!!!
TigerTank
07-11-2017, 09:46
Veradun che ti devo dire....se secondo te le cose stanno così, magari senza manco avere avuto le schede di cui parli, boicotta definitivamente Nvidia e compra solo AMD, perchè un 10% di upgrade prestazionale sarebbe una presa in giro da fessacchiotti.
Io mi sono fatto gtx780Ti, gtx980, gtx980Ti e sli di 1070.
Mai avuto la sensazione di stacchi prestazionali così esigui :)
P.S. Non contesto la tabella di TechpowerUp, contesto il fatto che ti attacchi ad una sola tabella per fare legge generale :asd:
Ovviamente è impossibile definire uno stacco percentuale assoluto perchè il tutto poi dipende dai singoli giochi, che rendono il tutto variabile aggiungendo anche risoluzioni e configurazioni...ma parlare di differenze esigue in generale mi sembra piuttosto riduttivo.
Io comunque preferirei pensare alla futura 2080 volta alla stregua della differenza media tra gtx980Ti e 1080.
P.P.S. Anche perchè secondo me la 2080 a livello marketing e "psicologia della scimmia" sarà spinta sull'onda della gestione del 4K.
illidan2000
07-11-2017, 10:04
In generale di passaggi *80Ti->*80 ce ne sono due in uno c'è stato un salto poco più che nullo, nell'altro significativo.
Nel primo c'è stato il passaggio 28nm -> 28nm, nel secondo 28nm -> 16nm. Ti lascio trarre le conclusioni.
intendi passaggio da n*80Ti -> (n+1)*80 ?
comunque la 2080 è di una architettura diversa e sulla carta molto promettente. Mentre Pascal era solo un affinamento di Maxwell, Volta promette scintille.
Potrebbero tirare il coniglio fuori dal cilindro stavolta
staVolta
CiccoMan
07-11-2017, 10:42
Legacy legacy legacy!!! Nvidia optimized! 780 downclock!!! Legacy!!!
Estratto da Wikipedia: Legacy equivale a versione "retrodatata" (rispetto ai sistemi/tecnologie correnti).
Esempi:
- Al debutto della 980 la 780 è diventata legacy.
- Al debutto della 1080 la 980 è diventata legacy.
- Al debutto della 2080 la 1080 diventerà legacy.
Non mi pare difficile come concetto, è una questione lessicale... non riesco a vederci qualcosa di strano o ingiusto...
Ho forse interpretato male la trollata?
La concorrenza non c'entra niente con Volta e dubito molto che in nVidia sia pieno di cretini come in Intel dove hanno pensato che AMD non avrebbe mai fatto uscire niente.
Eh si, l'abbiam visto con G80.
Nvidia ha una lunga storia di sedersi sugli allori e di ottenere il massimo guadagno con il minimo sforzo.
Disegnare un architettura migliore non implica che poi i chip che vai a fare li fai necessariamente più grandi e più performanti.
Ergo: non serve aumentare le dimensioni dei chip per ottenere clock maggiori o avere più cores per batter la concorrenza puoi benissimo vendere chip di fascia media (come con Pascal) a 800 euro, mentre la concorrenza per acchiapparti deve fare chip 70 % più grandi mandando a benedire i profitti.
E' ovvio che 2070 e 2080 saranno nuovamente chip di fascia media venduti a prezzi astronomici, Nvidia se lo può permettere, non c'è nessuna concorrenza a preoccuparli e venderà ugualmente e continuerà a fare profitti da mille e una notte.
I profitti su singolo chip dipendono dalle rese, le rese dipendono dalle dimensioni dei chip. Chip più piccoli costano meno da produrre e offrono guadagni maggiori.
E' semplice matematica.
Volta può anche essere un salto d'architettura notevole, ma Nvidia ci sparerà prezzi astronomici per chip piuttosto piccoli, perchè non necessita di fare chissà che per vendere.
CiccoMan
07-11-2017, 11:02
Non è difficile, Legacy è un altro modo di dire EOL. E naturalmente il supporto è tutto spinto sui prodotti nuovi che stai vendendo, non su quelli EOL che hai già venduto.
Questo significa che a parte eventuali problemi da risolvere lo sfruttamento architetturale dei driver migliora con le release per i prodotti nuovi e non per quelli EOL. Che poi è il motivo per cui se fai un bench ora, con i giochi di ora 780Ti vs 980 il risultato non sarà quello del day1 della 980.
No, non c'è niente di strano.
Eh no, Legacy è ben diverso da EOL. Con "End of Life" si intende che il prodotto è giunto al termine del supporto, mentre con Legacy si intende che è stato sostituito a catalogo da un nuovo modello... La differenza è ABISSALE.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.