View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
Legolas84
18-03-2016, 10:17
lol
Mikael la redazione di hwupgrade deve aver letto i tuoi interventi qui sul thread :asd:
http://www.hwupgrade.it/news/skvideo/specifiche-delle-future-gpu-nvidia-pascal-spiacente-ma-e-tutto-un-falso_61635.html
illidan2000
18-03-2016, 10:18
e anche tom's c'è cascata, ma almeno HU no
http://www.hwupgrade.it/news/skvideo/specifiche-delle-future-gpu-nvidia-pascal-spiacente-ma-e-tutto-un-falso_61635.html :read:
secondo me qualcuno della redazione legge qui... :)
newss ravvivo un pò visto il mortorio :)
non si chiamera 1080 a quanto pare ma GeForce X80
notizia (http://www.tomshw.it/news/geforce-x80-un-nuovo-nome-per-le-top-di-gamma-nvidia-75323)
se confermate con quelle caratteristiche la scimmia ha deciso vuole la titan
è sempre il fake di ieri..
Nelson Muntz
18-03-2016, 10:20
la prima cosa, ovvia, è la ricerca spasmodica del click a tutti i costi.
E va bene, lo sappiamo.
Adesso la riporta anche hwupgrade ( ma la sbugiarda , per fortuna ! )
Sinceramente spero di no.... richiamerebbe troppo le vecchie serie ATi....
Mica hanno la lebbra le ATI , eh . E poi ormai chi se le ricorda piu' , le vecchie x800 ?
Legolas84
18-03-2016, 10:24
Io ho sempre pensato che "x80ti" stia ad indicare "non sappiamo come la chiameranno 80ti" cioè che X sta per incognita.
Ma per certi giornalisti andrebbero messe le virgolette alla parola giornalisti. :asd:
Anche io penso proprio sia così.... secondo me metteranno un nome nuovo e inedito. ;)
Legolas84
18-03-2016, 10:26
Mica hanno la lebbra le ATI , eh . E poi ormai chi se le ricorda piu' , le vecchie x800 ?
Sorry ma non ho mai detto che le ATi hanno la lebbra....
Semplicemente in un mercato dove i produttori di schede video discrete sono principalmente due non mi sembra una buona idea andare ad usare un nome già utilizzato dalla controparte in passato.
A quel punto tanto vale riusare il vecchio e glorioso nonchè intramontabile nome Voodoo.... tanto quel marchio è già in mano a NVIDIA..... :asd:
Legolas84
18-03-2016, 10:31
Si cavolo!
Voodoo return... nvidia guadagnerebbe punti anche solo per il nome :D
Ma non so guarda.... ai tempi ho odiato profondamente NVIDIA per essersi pappata 3dfx.... poi mi sono mitigato quando lessi che la maggior parte degli ingegneri furono assorbiti nei vari team della nuova società.....
Ma li per li mi è dispiaciuto veramente tanto....
mikael84
18-03-2016, 10:31
lol
Mikael la redazione di hwupgrade deve aver letto i tuoi interventi qui sul thread :asd:
http://www.hwupgrade.it/news/skvideo/specifiche-delle-future-gpu-nvidia-pascal-spiacente-ma-e-tutto-un-falso_61635.html
Faccio i complimenti a Corsini per non essere caduto nel fake;)
fraussantin
18-03-2016, 10:33
Dopo la gt9000 , han fatto la gtX200
.
Adesso partono con la gtXX00
Legolas84
18-03-2016, 10:34
Dopo la gt9000 , han fatto la gtX200
.
Adesso partono con la gtXX00
Io aspetto la gtXXX :asd:
illidan2000
18-03-2016, 10:43
Faccio i complimenti a Corsini per non essere caduto nel fake;)
o almeno per aver letto i tuoi commenti :D
Spider-Mans
18-03-2016, 10:47
cmq oramai manca poco all evento nvidia di inizio aprile
quindi.. entro 20 giorni sapremo tutto o quasi
finalmente
http://www.gputechconf.com/
April 4-7, 2016
San Jose Convention Center
San Jose, CA
precisamente il ceo di nvidia parlera il :
April 5
09:00 AM PT
the day :D
Crysis90
18-03-2016, 10:51
http://www.hwupgrade.it/news/skvideo/specifiche-delle-future-gpu-nvidia-pascal-spiacente-ma-e-tutto-un-falso_61635.html
Ma che ne parlano a fare se è fake.
:muro: :muro: :muro: :muro: :mc: :mc: :mc: :mc: :doh: :doh: :doh: :doh:
mikael84
18-03-2016, 10:54
la prima cosa, ovvia, è la ricerca spasmodica del click a tutti i costi.
E va bene, lo sappiamo.
Però non viene anche a te questa domanda: se avessero un minimo di informazioni certe, non smentirebbero almeno gli sfondoni più clamorosi?
Possibile che almeno la base della nuova architettura sia così ignota?
C'è qualcosa sotto che nessuno sa?
Viceversa le tue speculazioni sono logiche, perchè si basano su una analisi coerente delle informazioni trapelate sino ad ora.
E sul fatto che parliamo di evoluzioni e non stravolgimenti.
Ti invito a fare una tua tabella coerente con quanto hai detto sin qui e poi a pubblicarla e postarla in giro.
Vediamo se anche la tua fa il giro delle testate. Almeno sarebbe sensata.
No per carità non voglio fare ne tabelle ne il giro del mondo, preferisco parlarne qua con il forum.
Parto già con la premessa che un'architettura come AMD, Nvidia non la può creare..perchè?
1024 e 32 rops su 4 raster su un 400mm2 puoi benissimo crearla ma in questo modo Nvidia perderebbe tutti i geometry engine e tutto il carico poligonale.
Ad oggi già una classica 980 ha ben 15 geometry engine che forniscono 15 g.tris.
Inoltre l'SMM è più complesso perchè tiene in conto anche Load store e SFU.
Architettura Pascal secondo me.
core 330/350mm2.
3072cuda /96 rops /256bit gddr5x
Abbiamo 4 canali e 4 render back-end, ogni SMM classico dialoga con 4 rops.
6 SMM x B.E accedono a 24 rops
quindi 768 x 4 =302cuda
24x4=96 rops.
In questo modo, riesci ad utilizzare:
24 geometry engine (24g.tris)
768 load store
Polymorph enigne 4
4mb di cache.
Opzione SMM da 192
Buona ma rendendo gli SMM iù grandi perdi 8 geometry engine e svariati load store.
192x 4 B.E. 768 cuda (3072cuda)
Accesso rops limitato a 64 pixel per clock ma migliorando l'accesso ad 8 operazioni come Kepler riesci a farci stare ben 128rops (questo è un vantaggio)
16/32 rops per quattro GPC.
Ipotesi che non prendo proprio come possibile, gli SMM da 192 cuda potrebbero essere implementati su GP100 pro, dove su ogni SMM ben 64 sono destinati alla DP e 128 cuda sono destinati ai calcoli normali.
Gli SMM da 192 puliti significherebbero SMM da 256 cuda di cui 64 DP.
Tutto il mio modo di vedere cambierebbe in base al bus.
Penso che un 350mm2 potrebbe tranquillamente essere equipaggiato con 3584 cuda su 5 back end e un 5 canali da 320bit.
Spider-Mans
18-03-2016, 11:00
ad aprile vogliamo conoscere la gpu a lvl tecnico... quanti cuda, rops, tflops, tipologia di vram, e possibilmente prezzo e data di lancio e modelli (Ma sul prezzo potrebbero attendere giugno...vediamo)
i test ovviamente seguiranno l'uscita...a giugno o settembre o quando sara
sul nome frega poco...scelgano quello che vogliono... non è il nome figo che fa vendere le schede grafiche ma le specifiche, il brand, i driver...il supporto games che ti crei negli anni
illidan2000
18-03-2016, 11:05
cmq oramai manca poco all evento nvidia di inizio aprile
quindi.. entro 20 giorni sapremo tutto o quasi
finalmente
http://www.gputechconf.com/
April 4-7, 2016
San Jose Convention Center
San Jose, CA
precisamente il ceo di nvidia parlera il :
April 5
09:00 AM PT
the day :D
saranno le 17.00 da noi
mikael84
18-03-2016, 11:13
o almeno per aver letto i tuoi commenti :D
Noi ci distinguiamo Illi :read: , infatti l'unica testata che sbugiarda ed apertamente il tutto.
fireradeon
18-03-2016, 11:26
Non sapete più sognare!! :D Appena vedete una cosa... FAKE!!! Non so chi diceva che si diventa vecchi quando si smette di sognare, quindi siete tutti dei vecchi!! :asd: ;)
la redazione la sa lunga asd
Altri fake o qualcosa di plausibile?
http://wccftech.com/nvidia-pascal-3dmark-11-entries-spotted/
edit:
sono dal cell quindi ho dato solo un'occhiata, ma guardando solo graphic score ricordano approssimativamente i punteggi di 970 e 980 sembrano quasi sicuramente altri fake
amon.akira
19-03-2016, 00:46
solo del primo è interessante il graphic score, 19500 quindi siamo sul livello di una 980ti
però con 8gb 2000mhz e core 540mhz (3dmark detect problem?)
dovrebbe essere la 1070 spero.
solo del primo è interessante il graphic score, 19500 quindi siamo sul livello di una 980ti
però con 8gb 2000mhz e core 540mhz (3dmark detect problem?)
dovrebbe essere la 1070 spero.
Suppongo sia la x70 o come si chiamerà ...a mio parere la x80 andrà in 20% in più .. Per finire col botto più tardi con la nuova Titan e/o ti ..
chi sa che prezzi spareranno,
devono pur sempre rifarsi della nuova architettura e pp
mikael84
19-03-2016, 11:12
Altri fake o qualcosa di plausibile?
http://wccftech.com/nvidia-pascal-3dmark-11-entries-spotted/
edit:
sono dal cell quindi ho dato solo un'occhiata, ma guardando solo graphic score ricordano approssimativamente i punteggi di 970 e 980 sembrano quasi sicuramente altri fake
Sono fake;)
1) 545mhz è dovuto ad un crash del driver che le impedisce di riconoscere la vga
2) una 980ti quasi a default (1300 circa) supera i 22k di GS sul 3dmark11 performance (benchmark che non la sfrutta neppure bene).
amon.akira
19-03-2016, 13:09
Sono fake;)
1) 545mhz è dovuto ad un crash del driver che le impedisce di riconoscere la vga
2) una 980ti quasi a default (1300 circa) supera i 22k di GS sul 3dmark11 performance (benchmark che non la sfrutta neppure bene).
pensavo fosse il firestrike classico, dove per esempio la mia fa gs 21800, quindi ci poteva stare una x70 a 19500 per iniziare.
mikael84
19-03-2016, 13:59
pensavo fosse il firestrike classico, dove per esempio la mia fa gs 21800, quindi ci poteva stare una x70 a 19500 per iniziare.
No è il 3dmark11.
La x70 bene o male sarà decurtata di 2/3 SMM. Se x80 partirà con 3072 cuda, la x70 sarà tagliata a non meno di 2688cc.
Considera che su un 400mm2 28nm hpm si tenevano tranquillamente i 1250 mhz iniziali e sui 16nm su un core più piccolo ancora, difficilmente vedremmo clock inferiori.
Quindi ci troveremmo una sorta di 980ti default con un bus più elevato e se una 980ti fa circa 21k di GS una x70 con la banda fa almeno 22/23k.
Tra x70 e x80 ci passeranno si e no 150/200mhz, quindi se fai 19k con la x70, significa che con la x80 ne fai 22k, quanto una 980ti a 1300 su 384bit.
Quindi è impossibile e l'unica soluzione possibile sarebbe utilizzare 2580 cc 80rops su un micro 300mm2 (altra soluzione che direi impossibile);)
paolox86
19-03-2016, 14:03
Io mi gioco tutto sul fatto che sarà come sempre: la x70 andrà come la 980 ti o poco meno con un rapporto prestazioni/watt da urlo e prezzo attira folle. Poi dopo qualche mese le 980 ti cominceranno ad "arrancare" e le troveremo indietro nei bench aggiornati. Infatti io la 980 ti la venderò prima dell'uscita della nuova Nvidia, con la 780 infatti feci praticamente pari
Inviato dal mio iPad utilizzando Tapatalk
mikael84
19-03-2016, 14:14
Io mi gioco tutto sul fatto che sarà come sempre: la x70 andrà come la 980 ti o poco meno con un rapporto prestazioni/watt da urlo e prezzo attira folle. Poi dopo qualche mese le 980 ti cominceranno ad "arrancare" e le troveremo indietro nei bench aggiornati. Infatti io la 980 ti la venderò prima dell'uscita della nuova Nvidia, con la 780 infatti feci praticamente pari
Inviato dal mio iPad utilizzando Tapatalk
Sui bench o review almeno inizialmente vedrai custom con boost oltre i 1400 che le daranno ai reference 980ti/titan x.
La x70 troverà sicuramente la forza così.
Oirasor_84
19-03-2016, 15:09
No per carità non voglio fare ne tabelle ne il giro del mondo, preferisco parlarne qua con il forum.
Parto già con la premessa che un'architettura come AMD, Nvidia non la può creare..perchè?
1024 e 32 rops su 4 raster su un 400mm2 puoi benissimo crearla ma in questo modo Nvidia perderebbe tutti i geometry engine e tutto il carico poligonale.
Ad oggi già una classica 980 ha ben 15 geometry engine che forniscono 15 g.tris.
Inoltre l'SMM è più complesso perchè tiene in conto anche Load store e SFU.
Architettura Pascal secondo me.
core 330/350mm2.
3072cuda /96 rops /256bit gddr5x
Abbiamo 4 canali e 4 render back-end, ogni SMM classico dialoga con 4 rops.
6 SMM x B.E accedono a 24 rops
quindi 768 x 4 =302cuda
24x4=96 rops.
In questo modo, riesci ad utilizzare:
24 geometry engine (24g.tris)
768 load store
Polymorph enigne 4
4mb di cache.
Opzione SMM da 192
Buona ma rendendo gli SMM iù grandi perdi 8 geometry engine e svariati load store.
192x 4 B.E. 768 cuda (3072cuda)
Accesso rops limitato a 64 pixel per clock ma migliorando l'accesso ad 8 operazioni come Kepler riesci a farci stare ben 128rops (questo è un vantaggio)
16/32 rops per quattro GPC.
Ipotesi che non prendo proprio come possibile, gli SMM da 192 cuda potrebbero essere implementati su GP100 pro, dove su ogni SMM ben 64 sono destinati alla DP e 128 cuda sono destinati ai calcoli normali.
Gli SMM da 192 puliti significherebbero SMM da 256 cuda di cui 64 DP.
Tutto il mio modo di vedere cambierebbe in base al bus.
Penso che un 350mm2 potrebbe tranquillamente essere equipaggiato con 3584 cuda su 5 back end e un 5 canali da 320bit.
Mikael però ste specifiche mi sembrano un pò troppo maxwell e dx11 oriented,tutte quelle unità geometriche per esempio potrebbero non servire se non per gameworks che usa la tessellation anche per gli effetti di luce,e con le dx12 probabilmente dovranno cambiare un pò di cose tipo lo scheduler,magari in hardware,il tutto imho.
voglio vedere le prestazioni in uhd al piu presto,
qualche sample alle testate speriamo mese prossimo
Per il 4k è ancora presto per una scheda singola, se è vero che per quest'estate esce la 1080 (o come si chiamerà) non basterà ancora per il 4k.
Bisognerà vedere la 1080ti o la titan a fine anno.
si in linea di massima concordo,
considera che sono di basse pretese nel senso attualmente gioco appagato a rotr con circa 40/50fps in uhd.
Se una vga mi garantisse 60/70 sui nuovi titoli per me sarebbe perfetto, cosciente anche del fatto che non buttero via una vga da 1k per meno di 20fps in 4k
Una singola che regga bene il 4K (secondo il mio metro di giudizio cioè 60 frames granitici) non ci sarà ancora per un po' a mio parere... dovrebbe andare più del doppio rispetto ad un titanX ... improbabile
Ergo io andrò ancora di SLI sulla futura ti (sperando costi solo mezzo rene e non uno intero ... Così col restante sopravvivo bene :D)
TigerTank
20-03-2016, 10:23
Per il 4k è ancora presto per una scheda singola, se è vero che per quest'estate esce la 1080 (o come si chiamerà) non basterà ancora per il 4k.
Bisognerà vedere la 1080ti o la titan a fine anno.
Sì concordo anch'io...anche perchè comunque escono nuovi filtri più fotorealistici ma anche più pesanti per cui diciamo che parallelamente alle nuove vga escono giochi che se maxati pesano sempre di più mantenendo il canonico andazzo dell'avere almeno i 60fps in fullHD con tutti i settaggi a palla :sofico:
Poi certo tutto dipende anche da come uno gioca...perchè se si riprendono titoli vecchi allora è facile che si riesca a giocare anche in 4K...e c'è da dire che spesso la cosa ti dà più soddisfazione che vedere schede da 600-700€ arrancare con gli ultimi titoli, soprattutto se male ottimizzati :D
con l affinamento delle tecniche sli/multigpu,
potrei anche io seriamente pensare di farlo directx permettendo.
Per me sarebbe la soluzione ideale dal momento che non ho per niente voglia di vendere
illidan2000
20-03-2016, 11:59
Io preferisco evitare ancora il 4k, secondo me non ha senso giocare a 40/50fps soprattutto se si sono spesi bei soldini per una vga come la 980ti, con quella spesa vorrei 60 fps fissi e probabilmente anche di più.
Quindi opterei per il 1440 come risoluzione o fhd a frequenze maggiori in base a cosa uno preferisce.
4k ancora non è cosa, con scheda singola intendo.
manco li fai 40/50 fps :D
ti ci vuole uno sli per stare a 60
Una singola che regga bene il 4K (secondo il mio metro di giudizio cioè 60 frames granitici) non ci sarà ancora per un po' a mio parere... dovrebbe andare più del doppio rispetto ad un titanX ... improbabile
Ergo io andrò ancora di SLI sulla futura ti (sperando costi solo mezzo rene e non uno intero ... Così col restante sopravvivo bene :D)
per giocare bene su 4k ci vorrà uno sli di Full Pascal
TigerTank
20-03-2016, 12:09
con l affinamento delle tecniche sli/multigpu,
potrei anche io seriamente pensare di farlo directx permettendo.
Per me sarebbe la soluzione ideale dal momento che non ho per niente voglia di vendere
Eh magari......uno dei titoli IMHO più attesi dell'anno, cioè il nuovo Doom...probabilmente non avrà supporto Sli e sarà cappato a 60fps.
Questa situazione è una delle cose che mi preclude ad esempio la scelta di uno SLi di 1070 piuttosto che prendere una fullGPU singola.
Per il resto possono introdurre tutti gli effetti fotorealistici che vogliono, incensando nuove ombre e simili....ma se mi tolgono tipo 15-20fps io questi effetti secondari li disattivo e amen :D
CiccoMan
20-03-2016, 13:44
Come al solito questo dipenderà dai giochi, non dalle vga :help:
Per muovere tanti poligoni servono tanti cavalli sotto il cofano :D
manco li fai 40/50 fps :D
ti ci vuole uno sli per stare a 60
per giocare bene su 4k ci vorrà uno sli di Full Pascal
Si .. quando uscirà Pascal i giochi seguiranno come pesantezza.... se adesso un ipotetico SLI di X80 (non ti) potrebbe essere Ok per il 4k (partendo dal presupposto che uno SLI di ti con picoli compromessi mantiene i 60 un po ovunque fatta eccezione per the division, fra 9 mesi o giù di li usciranno dei bei mattoni che necessiteranno lo SLI di ti)
TigerTank
20-03-2016, 15:09
Appunto, quindi niente 4k perché voglio 60fps, questo intendevo.
E se vuoi fps maggiori, che possono essere 90, 120 o 144 bisogna stare ancora su fullhd.
Va a gusti più fluidità o più risoluzione.
Speriamo che con la prossima generazione si possa avere almeno un 1440@120 con scheda singola.
Basta ottimizzare i settaggi scalando quelli che succhiano più risorse.
Ad ogni giro con i titoli nuovi è sempre la stessa storia e lo sarà anche con pascal + titoli contemporanei...a meno di fare uno Sli.
Ad esempio con The Division e tutto maxato è impossibile avere i 60fps a 1440p con una Ti(pure overcloccata), ma appunto scremando un pò di roba secondaria riesci a guadagnare un sacco in framerate ad un costo visivo minimo ;)
Che imho è meglio che scendere al fullHD, dove avresti pure il problema di un maggiore aliasing(e se si usa un msaa 4x siamo punto e a capo) a meno di giocare su monitor microscopici.
fraussantin
20-03-2016, 15:16
Si .. quando uscirà Pascal i giochi seguiranno come pesantezza.... se adesso un ipotetico SLI di X80 (non ti) potrebbe essere Ok per il 4k (partendo dal presupposto che uno SLI di ti con picoli compromessi mantiene i 60 un po ovunque fatta eccezione per the division, fra 9 mesi o giù di li usciranno dei bei mattoni che necessiteranno lo SLI di ti)
Il 4k diverrà fruibile decentemente senza svenarsi tra 2 gen.
Forse con pascal( singolo ) si passerà dallo s1080 al 1440. Maxato.
Io preferisco evitare ancora il 4k, secondo me non ha senso giocare a 40/50fps soprattutto se si sono spesi bei soldini per una vga come la 980ti, con quella spesa vorrei 60 fps fissi e probabilmente anche di più.
Quindi opterei per il 1440 come risoluzione o fhd a frequenze maggiori in base a cosa uno preferisce.
4k ancora non è cosa, con scheda singola intendo.
secondo me ha molto senso giocare uhd a 40/50 con 1ooo€ di scheda non a caso ho comprato il 6500ju mai fatto scelta migliore.
Poi come gia detto esistono anche i titoli piu vecchi che rigiocati in uhd set ultra prendono nuova vita.
e non vedo l ora che esca la prossima Ti kpe :)
illidan2000
20-03-2016, 16:02
Basta ottimizzare i settaggi scalando quelli che succhiano più risorse.
Ad ogni giro con i titoli nuovi è sempre la stessa storia e lo sarà anche con pascal + titoli contemporanei...a meno di fare uno Sli.
Ad esempio con The Division e tutto maxato è impossibile avere i 60fps a 1440p con una Ti(pure overcloccata), ma appunto scremando un pò di roba secondaria riesci a guadagnare un sacco in framerate ad un costo visivo minimo ;)
Che imho è meglio che scendere al fullHD, dove avresti pure il problema di un maggiore aliasing(e se si usa un msaa 4x siamo punto e a capo) a meno di giocare su monitor microscopici.
dipende dal gioco.
come ho detto due giorni fa, con Far Cry Primal, anche mettendo tutto al MINIMO, non riesco a fare più di 75fps a 3440x1440
Certo, hai perfettamente ragione.
Di fhd ho parlato solo per salire a 90, 120 o 144hz.
E ci mancherebbe anche che non riesci ad arrivare a 60fps in 1440 :D
mica è tanto banale... :) puoi anche non arrivarci, nemmeno con la 980TI (che sta pure sotto le mie due 970, in moltissimi casi)
McRooster23
20-03-2016, 16:22
Io se avessi ora una 1080ti credo sfrutterei al massimo un monitor 1440@144 piuttosto che passare a una risoluzione maggiore.
Poi ovvio che se sta scheda dovesse mantenere 60fps granitici in tutti i giochi in 4K...bè allora che si fottano i 100 e passa fps :D
TigerTank
20-03-2016, 16:31
Certo, hai perfettamente ragione.
Di fhd ho parlato solo per salire a 90, 120 o 144hz.
E ci mancherebbe anche che non riesci ad arrivare a 60fps in 1440 :D
Eh infatti...perchè purtroppo filtri come le nuove ombre nvidia sono dei mattoni pazzeschi :eek:
Per il resto quando hai un 1440p da gaming come il mio fai 2 cose...o uno Sli o scremi il "superfluo" per agevolare il più possibile il framerate...perchè è vero che il gsync aiuta sotto ai 60fps, ma il meglio resta comunque lo stare sopra :D
Poi ovviamente con le pascal il tutto si sfrutterà molto meglio ;)
dipende dal gioco.
come ho detto due giorni fa, con Far Cry Primal, anche mettendo tutto al MINIMO, non riesco a fare più di 75fps a 3440x1440
Cavolo mi sembra strano che dipenda dalla vga...non è che magari è un problema di Sli?
Di recente ho giocato ad FC4, levando anche lì le PCSS troppo esose...e andavo anche fino ai 100 e passa fps nelle situazioni leggere.
mikael84
20-03-2016, 22:09
Mikael però ste specifiche mi sembrano un pò troppo maxwell e dx11 oriented,tutte quelle unità geometriche per esempio potrebbero non servire se non per gameworks che usa la tessellation anche per gli effetti di luce,e con le dx12 probabilmente dovranno cambiare un pò di cose tipo lo scheduler,magari in hardware,il tutto imho.
Bella osservazione la tua ma a livello geometrico e di SMM siamo li. Dopo bisognerà vedere le varie funzioni interne agli SMM. Ad esempio maxwell ha accesso a ben 512 registri 32bit, grazie ai 4 shedular e SFU. Questo rende uno shader (cuda) 30/40% più veloce a quello Kepler.
Nvidia con Pascal dovrebbe migliorare la già ottima organizzazione maxwell con cuda più efficienti. Come verranno organizzati questi è tutto un programma ma l'architettura Pascal non dovrebbe essere distante da quella maxwell almeno lato numerico.:)
nervoteso
21-03-2016, 00:26
Raga i giochi a 5076x1080 non mi girano piu' con questo soi di 670 4gb, ma quando esce sta pascal. Sono tentato da uno sli di 980, se solo scendessero sti prezzi
illidan2000
21-03-2016, 09:12
Raga i giochi a 5076x1080 non mi girano piu' con questo soi di 670 4gb, ma quando esce sta pascal. Sono tentato da uno sli di 980, se solo scendessero sti prezzi
conviene di più una singola Pascal nuova, anziché due 980 in sli usate, quando uscirà...
Beh dai cavoli, adesso a 1440 con una 980ti non arrivi a 90fps se levi qualche effetto?
Magari non proprio in tutti i giochi ok, ma in generale dovrebbe arrivarci no?
non ho la 980TI, ma due 970 in SLI, che vanno meglio quasi sempre.
E comunque la risposta è fortemente negativa. Negli ultimi giochi, a 90fps non ci arrivo, levando i soliti effettini mangia fps :(
Io se avessi ora una 1080ti credo sfrutterei al massimo un monitor 1440@144 piuttosto che passare a una risoluzione maggiore.
Poi ovvio che se sta scheda dovesse mantenere 60fps granitici in tutti i giochi in 4K...bè allora che si fottano i 100 e passa fps :D
se una 1080ti va come due 980ti (e secondo me andrà così), mi sa proprio di no, non basta.
Ti posto una review di un gioco a caso:
http://www.maximumpc.com/benchmarked-rise-of-the-tomb-raider/#page-3
Eh infatti...perchè purtroppo filtri come le nuove ombre nvidia sono dei mattoni pazzeschi :eek:
Per il resto quando hai un 1440p da gaming come il mio fai 2 cose...o uno Sli o scremi il "superfluo" per agevolare il più possibile il framerate...perchè è vero che il gsync aiuta sotto ai 60fps, ma il meglio resta comunque lo stare sopra :D
Poi ovviamente con le pascal il tutto si sfrutterà molto meglio ;)
Cavolo mi sembra strano che dipenda dalla vga...non è che magari è un problema di Sli?
Di recente ho giocato ad FC4, levando anche lì le PCSS troppo esose...e andavo anche fino ai 100 e passa fps nelle situazioni leggere.
boh, ancora non ho capito il perché. So solo che ho un core al 100%. Può essere quello il problema
Bella osservazione la tua ma a livello geometrico e di SMM siamo li. Dopo bisognerà vedere le varie funzioni interne agli SMM. Ad esempio maxwell ha accesso a ben 512 registri 32bit, grazie ai 4 shedular e SFU. Questo rende uno shader (cuda) 30/40% più veloce a quello Kepler.
Nvidia con Pascal dovrebbe migliorare la già ottima organizzazione maxwell con cuda più efficienti. Come verranno organizzati questi è tutto un programma ma l'architettura Pascal non dovrebbe essere distante da quella maxwell almeno lato numerico e in numeri.:)
non mi è chiara la differenza :D
Eh magari......uno dei titoli IMHO più attesi dell'anno, cioè il nuovo Doom...probabilmente non avrà supporto Sli e sarà cappato a 60fps.
Questa situazione è una delle cose che mi preclude ad esempio la scelta di uno SLi di 1070 piuttosto che prendere una fullGPU singola.
Per il resto possono introdurre tutti gli effetti fotorealistici che vogliono, incensando nuove ombre e simili....ma se mi tolgono tipo 15-20fps io questi effetti secondari li disattivo e amen :D
tristemente vero,
staccare qualche effetto o abbassarlo è la soluzione ideale e lo sarà anche con pascal si possono racimolare molti frames
mikael84
21-03-2016, 10:20
non mi è chiara la differenza :D
Lapsus domenicale:mc:
illidan2000
21-03-2016, 10:33
C'è da dire che questi mirabolanti effetti che stanno sfornando di recente in realtà di nuovo e mirabolante non hanno nulla.
Questi effetti esistono da tantissimi anni in computergrafica il problema è che per motivi di prestazioni non potevano essere applicati in gaming.
La sfida era trovare un modo per renderli più leggeri e poterli applicare in gaming, mi sembra che la sfida sia stata completata solo a metà perché sicuramente sono più leggeri ma impattano ancora troppo sulle prestazioni rispetto alla resa che hanno.
sì, soprattutto sulle ombre, c'è una sfida a chi le fa meglio. Io sinceramente non lo vedo come un valore aggiunto. Che sia sfumata o meno, sempre un'ombra rimane. Anzi, se non la sfumano, è pure più nitida
TigerTank
21-03-2016, 10:59
C'è da dire che questi mirabolanti effetti che stanno sfornando di recente in realtà di nuovo e mirabolante non hanno nulla.
Questi effetti esistono da tantissimi anni in computergrafica il problema è che per motivi di prestazioni non potevano essere applicati in gaming.
La sfida era trovare un modo per renderli più leggeri e poterli applicare in gaming, mi sembra che la sfida sia stata completata solo a metà perché sicuramente sono più leggeri ma impattano ancora troppo sulle prestazioni rispetto alla resa che hanno.
sì, soprattutto sulle ombre, c'è una sfida a chi le fa meglio. Io sinceramente non lo vedo come un valore aggiunto. Che sia sfumata o meno, sempre un'ombra rimane. Anzi, se non la sfumano, è pure più nitida
Sì alla fine fortunatamente finchè parliamo di ombre, occlusione ambientali migliori, physx avanzati, eventuali godrays, nebbie ed effetti particellari ...stiamo nell'ambito delle cose "secondarie ed eventualmente sacrificabili" che magari già da "ultra" a "molto alto" fanno guadagnare parecchio in framerate ad un costo visivo risibile(IMHO).
Per me le cose prioritarie sono le textures, una situazione antialiasing accettabile e delle dinamiche di gioco fluide(inutile avere millemila effetti se poi di base ci sono movenze legnose) + buon framerate.
Tutto il resto è scalabile alla bisogna...a meno appunto di essere fanatici del tutto maxato a prescindere da ogni logica e quindi investire di volta in volta 2 reni in vga, pascal comprese :D
illidan2000
21-03-2016, 11:08
a me sembra che questi giochi girino tutti con il freno a mano...
Non ho ancora provato COD BO3 (ma là forse io ho seri problemi di vram), ma gli ultimi stanno tutti a 60fps risicati a 1440p, anche togliendo qualcosina (altrimenti starebbero a 50fps). Sarà che a me piacciono tutti i mattoni...
C'è da dire però, che visivamente si fanno apprezzare
Spider-Mans
21-03-2016, 12:02
Sì alla fine fortunatamente finchè parliamo di ombre, occlusione ambientali migliori, physx avanzati, eventuali godrays, nebbie ed effetti particellari ...stiamo nell'ambito delle cose "secondarie ed eventualmente sacrificabili" che magari già da "ultra" a "molto alto" fanno guadagnare parecchio in framerate ad un costo visivo risibile(IMHO).
Per me le cose prioritarie sono le textures, una situazione antialiasing accettabile e delle dinamiche di gioco fluide(inutile avere millemila effetti se poi di base ci sono movenze legnose) + buon framerate.
Tutto il resto è scalabile alla bisogna...a meno appunto di essere fanatici del tutto maxato a prescindere da ogni logica e quindi investire di volta in volta 2 reni in vga, pascal comprese :D
27 pollici > FHD (se hai l'occhio bionico e non vuoi andare con dot pitch leggermente ingranditi..resta sul 24)
e ti godi tutto senza avere il freno a mano
se col pc non devi fare grafica ....ma solo videogiocare..resto della idea vincente che non abbia senso autocastrarsi con risoluzioni troppo elevate
star citizen 1440p 980ti
https://www.youtube.com/watch?v=y4hs8OHzqkw
la lista di giochi mattoni sara sempre piu lunga... con l'arrivo dei motori grafici nextgen (ue4 in primis)
my 2 cents
amon.akira
21-03-2016, 12:31
Si ma ultimamente mi sembra che molti giochi siano scalabili fino ad un certo punto.
Voi avete schede che sono di un altro livello e non vi rendete conto forse, ma io che ho un vecchiume da cambiare ho avuto qualche giramento di balle per alcune scelte stupide in alcuni giochi.
Ricordo per esempio l'effetto erba flessibile in crysis 3 che non è disattivabile, riducibile si ma mai disattivabile, che è l'unica cosa che mi ammazza le prestazioni in quel gioco.
Ho giocato i primi 2 livelli su medio con un framerate decente (50-60) e al terzo livello dove comincia l'erba la vga si è suicidata.
Il sentore che molti giochi abbiano settaggi minimi un po' troppo spinti per vendere le vga c'è.
Tra l'altro a settaggi minimi graficamente sono orrendi perché tagliano tutto il fondamentale (texture, AA, ecc.) ma lasciano sempre un qualcosa di abbastanza pesante (come l'erba di crysis 3) da spezzare le gambe alla vga più scarse da giocatore occasionale o un po' datate.
Poi nel mio caso ho aspettato pure troppo, ma negli ultimi anni con i bimbi piccolo avevo poco tempo per giocare :asd:
be l effetto erba veniva utilizzano nel gameplay, c'erano le sezioni che vedevi i nemici muoversi nell erba alta...credo sia per questo che non potevano disabilitarla.
TigerTank
21-03-2016, 12:44
Si ma ultimamente mi sembra che molti giochi siano scalabili fino ad un certo punto.
Voi avete schede che sono di un altro livello e non vi rendete conto forse, ma io che ho un vecchiume da cambiare ho avuto qualche giramento di balle per alcune scelte stupide in alcuni giochi.
Ricordo per esempio l'effetto erba flessibile in crysis 3 che non è disattivabile, riducibile si ma mai disattivabile, che è l'unica cosa che mi ammazza le prestazioni in quel gioco.
Ho giocato i primi 2 livelli su medio con un framerate decente (50-60) e al terzo livello dove comincia l'erba la vga si è suicidata.
Il sentore che molti giochi abbiano settaggi minimi un po' troppo spinti per vendere le vga c'è.
Tra l'altro a settaggi minimi graficamente sono orrendi perché tagliano tutto il fondamentale (texture, AA, ecc.) ma lasciano sempre un qualcosa di abbastanza pesante (come l'erba di crysis 3) da spezzare le gambe alla vga più scarse da giocatore occasionale o un po' datate.
Poi nel mio caso ho aspettato pure troppo, ma negli ultimi anni con i bimbi piccolo avevo poco tempo per giocare :asd:
Purtroppo questo hobby è così...a meno di giocare solo a titoli leggeri tipo gli indie "vintage".
In altri campi c'è più margine...tipo nella fotografia dove tutto costa parecchio ma a livello amatoriale dura anche parecchi anni. Qui invece se vuoi stare al passo con i nuovi titoli c'è poco da fare causa evoluzione delle tecniche grafiche(e vari annessi tipo risoluzioni, ecc...) asservite al marketing.
27 pollici > FHD (se hai l'occhio bionico e non vuoi andare con dot pitch leggermente ingranditi..resta sul 24)
e ti godi tutto senza avere il freno a mano
se col pc non devi fare grafica ....ma solo videogiocare..resto della idea vincente che non abbia senso autocastrarsi con risoluzioni troppo elevate
star citizen 1440p 980ti
https://www.youtube.com/watch?v=y4hs8OHzqkw
la lista di giochi mattoni sara sempre piu lunga... con l'arrivo dei motori grafici nextgen (ue4 in primis)
Beh guarda io faccio sia gaming che un pò di grafica per cui per me i 1440p sono il compromesso migliore e con le pascal si sfrutteranno meglio quelli da gaming.
A meno di stare su un minuscolo 24", per compensare all'aliasing su fullHD tocca ricorrere a tecniche AA che siano i filtri classici(MSAA, TXAA, ecc..) oltretutto spesso non efficaci su tutta l'immagine oppure il DSR mentre su 1440p spesso hai una resa più che sufficiente usando un smaa perchè di base la maggior densità di pixel agisce da antialiasing.
Poi certo...uno invece potrebbe pensare di affiancare un fullHD per gaming in modo da avere più margine di gestione con singola 1070/1080 e un 4K per grafica. Alla fine è una cosa molto personale :)
mikael84
21-03-2016, 13:29
Si ma ultimamente mi sembra che molti giochi siano scalabili fino ad un certo punto.
Voi avete schede che sono di un altro livello e non vi rendete conto forse, ma io che ho un vecchiume da cambiare ho avuto qualche giramento di balle per alcune scelte stupide in alcuni giochi.
Ricordo per esempio l'effetto erba flessibile in crysis 3 che non è disattivabile, riducibile si ma mai disattivabile, che è l'unica cosa che mi ammazza le prestazioni in quel gioco.
Ho giocato i primi 2 livelli su medio con un framerate decente (50-60) e al terzo livello dove comincia l'erba la vga si è suicidata.
Il sentore che molti giochi abbiano settaggi minimi un po' troppo spinti per vendere le vga c'è.
Tra l'altro a settaggi minimi graficamente sono orrendi perché tagliano tutto il fondamentale (texture, AA, ecc.) ma lasciano sempre un qualcosa di abbastanza pesante (come l'erba di crysis 3) da spezzare le gambe alla vga più scarse da giocatore occasionale o un po' datate.
Poi nel mio caso ho aspettato pure troppo, ma negli ultimi anni con i bimbi piccolo avevo poco tempo per giocare :asd:
La situazione è però ben più rosea rispetto ai vecchi tempi. Oggi basta veramente poco per giocare in full hd con dettagli decenti.
Se segui il PC da tempo, ricorderai giochi alla Oblivion/fear dove anche le ultime top soffrivano e già con le mid era un calvario.
https://www.youtube.com/watch?v=OSKxAdjVbqc
https://www.youtube.com/watch?v=qzDZhb808ts
fireradeon
21-03-2016, 14:57
27 pollici > FHD (se hai l'occhio bionico e non vuoi andare con dot pitch leggermente ingranditi..resta sul 24)
e ti godi tutto senza avere il freno a mano
se col pc non devi fare grafica ....ma solo videogiocare..resto della idea vincente che non abbia senso autocastrarsi con risoluzioni troppo elevate
star citizen 1440p 980ti
https://www.youtube.com/watch?v=y4hs8OHzqkw
la lista di giochi mattoni sara sempre piu lunga... con l'arrivo dei motori grafici nextgen (ue4 in primis)
my 2 cents
Forse perché non hai mai giocato a 1440p che giá é un altro mondo rispetto al fullhd a livello di qualitá di immagine. Io avevo tempo fa 2 monitor sulla scrivania uno fhd l'altro 1440p, il fullhd era orribile a confronto. Aveva un aliasing anche con filtri attivi molto marcato a 1440p un'altra storia.
illidan2000
21-03-2016, 15:06
Probabilmente l'ho disinstallato e bollato "da giocare con la vga nuova" prima di quelle parti :asd:
io ho fatto lo stesso, ma sono anni che è uscito, e ancora non ci ho giocato, se non il primo livello :(
illidan2000
21-03-2016, 15:21
Nel senso che hai cambiato scheda ma non lo hai ripreso?
Io non ho ancora cambiato scheda invece :asd:
eh sì... stavo con una sola 780 in fullHd@120hz, e non volevo accontentarmi dei 70fps che avevo (non maxato ovviamente).
Poi ho cambiato con 2x970 in Qhd@144hz, e avevo più o meno gli stessi fps, e volevo aspettare il processore nuovo. Preso pure quello, non ricordo nemmeno se lo ho reinstallato :D
Ora ho il monitor nuovo 3440x1440 (non so ancora se lo tengo o lo restituisco), non so nemmeno se è supportato, e sicuramente avrò sempre i soliti 70fps :fagiano:
illidan2000
21-03-2016, 15:35
Te sei un po' esagerato, io mi accontentavo dei 60fps che teneva la mia hd6850 nei primi due livelli :asd:
Se non sei arrivato sotto la cupola allora non sai cosa ti aspetta a quel livello in termini di fps :doh:
eh, appunto, se già avevo "pochi" fps prima.... :D
Cmq, solo per questo titolo mi sono permesso di fare lo "schizzinoso". Mi sono detto: Crysis 3, è comunque un Crysis, e quando ci giocherò, vorrò farlo alla grande, ad almeno 100fps!
Sono passati anni......
deadbeef
21-03-2016, 15:37
Hai cambiato monitor e schede video perchè non ti accontentavi e poi nemmeno ci hai giocato, sounds legit :asd:
illidan2000
21-03-2016, 16:28
Hai cambiato monitor e schede video perchè non ti accontentavi e poi nemmeno ci hai giocato, sounds legit :asd:
si, ma in mezzo c'è stato un periodo di pausa da gaming, per svariati motivi...
quando ho ripreso sono stato "infognato" con giochi lunghi, tipo gta5 e the witcher 3, quindi capirai.... :D
fireradeon
21-03-2016, 19:18
si, ma in mezzo c'è stato un periodo di pausa da gaming, per svariati motivi...
quando ho ripreso sono stato "infognato" con giochi lunghi, tipo gta5 e the witcher 3, quindi capirai.... :D
Perché non hsi giocato Divinity OS. Cazzo sto a piu di 50 ore e non si intravede nemmeno la fine. :D
illidan2000
21-03-2016, 22:11
Perché non hsi giocato Divinity OS. Cazzo sto a piu di 50 ore e non si intravede nemmeno la fine. :D
basta rpg...!
mi son fermato al boss finale di c3 e non l ho mai finito :doh:
illidan2000
22-03-2016, 08:38
mi son fermato al boss finale di c3 e non l ho mai finito :doh:
ho fatto la stessa cosa con Hard Reset :(
Obrigado
24-03-2016, 09:33
http://www.hwupgrade.it/news/memorie/le-memorie-gddr5x-presto-sul-mercato-micron-conferma-le-prime-spedizioni_61742.html
ottimo.
quindi paper launch ad aprile e commercializzazione entro giugno.
mi fa piacere, almeno su 1080 e 1070 ci saranno ram mediamente prestanti...
fireradeon
24-03-2016, 10:19
Ottimo, visto anche io l'articolo, quindi un boost delle 1080 ci sarà. A questo punto aspettiamo l'evento di inizio Aprile e poi facciamo un programmino ma penso che (a meno di prezzi folli) uno sli di 1080 potrei anche farlo e poi cambiare direttamente ad inizio 2017.
mikael84
24-03-2016, 10:41
http://www.hwupgrade.it/news/memorie/le-memorie-gddr5x-presto-sul-mercato-micron-conferma-le-prime-spedizioni_61742.html
CVD;)
Ora bisogna vedere come saranno impostate, si spera che raggiungano stabilmente i 14gb.
Con soli 10gb la banda iniziale sarà di 320gb/s, sino ad arrivare ai 14gb 448gb/s.
mikael84
24-03-2016, 13:36
Ottimo, visto anche io l'articolo, quindi un boost delle 1080 ci sarà. A questo punto aspettiamo l'evento di inizio Aprile e poi facciamo un programmino ma penso che (a meno di prezzi folli) uno sli di 1080 potrei anche farlo e poi cambiare direttamente ad inizio 2017.
Per ora l'unico boost sarà da eventuali clock superiori (custom da 1400-1450 tranquilli) e 8gb su un bus più ampio in base alle microm (elpida 10-14gb). Niente su Async(nessun ACE), Pascal per ora seguirà Maxwell e lo migliorerà. FP64 1/3, calcoli geometrici migliorati ma a livello di potenza pura è tutto da vedere.
Su un 256bit, l'unica soluzione sono 3072cuda a clock maggiorati con 96 rops (6 SMM x 6 accessi pixel)
killeragosta90
24-03-2016, 14:17
Per ora l'unico boost sarà da eventuali clock superiori (custom da 1400-1450 tranquilli) e 8gb su un bus più ampio in base alle microm (elpida 10-14gb). Niente su Async(nessun ACE), Pascal per ora seguirà Maxwell e lo migliorerà. FP64 1/3, calcoli geometrici migliorati ma a livello di potenza pura è tutto da vedere.
Su un 256bit, l'unica soluzione sono 3072cuda a clock maggiorati con 96 rops (6 SMM x 6 accessi pixel)
Insomma, si passa senza problemi....o per lo meno, io attendo. :)
Giovamas
24-03-2016, 14:26
Insomma, si passa senza problemi....o per lo meno, io attendo. :)
Per noi ci vuole la 1080ti poco da fare :)
mikael84
24-03-2016, 14:28
Insomma, si passa senza problemi....o per lo meno, io attendo. :)
X70 e x80 sostituiscono le 970 e 980. Chiaramente come detto su, se ipotizziamo 3072 cuda e clock superiori su 8gb/448gb/s), Nvidia può permettersi di prezzare come vuole la x80 e rendendola anche appetibile per la vram fobia.:)
Con 3072 cuda, almeno 2/3 SMM li levi in favore della x70 e di conseguenza ti ritrovi una scheda che di base avrebbe un SMM in meno ma più clock della 980ti, bus e ram più ampi. Anche facendo il giochetto della cache.
Quindi nelle prime review potremmo vedere varie custom lanciate a 1400/1450 che verranno comparate a dei reference TI e le X80 con una buona percentuale sopra.
Per chi ha la 980ti chiaramente la svolta sarà con x80ti e hbm 16gb 1tb/s:)
Goofy Goober
24-03-2016, 14:38
:stordita:
http://www.bitsandchips.it/9-hardware/6786-rumor-pascal-nei-guai-con-i-giochi-che-sfruttano-l-asynchronous-compute
niente async compute? solo un miglioramento di FP64? indi per cui maxwell V 3.0? :fagiano:
mikael84
24-03-2016, 14:41
:stordita:
http://www.bitsandchips.it/9-hardware/6786-rumor-pascal-nei-guai-con-i-giochi-che-sfruttano-l-asynchronous-compute
niente async compute? solo un miglioramento di FP64? indi per cui maxwell V 3.0? :fagiano:
Si, ecco perchè ho formulato certe caratteristiche.:fagiano:
http://www.hwupgrade.it/forum/showpost.php?p=43488034&postcount=22637
Goofy Goober
24-03-2016, 14:45
Si, ecco perchè ho formulato certe caratteristiche.:fagiano:
http://www.hwupgrade.it/forum/showpost.php?p=43488034&postcount=22637
che cosa (imho) triste :fagiano:
Goofy Goober
24-03-2016, 15:11
magari avevo preso un abbaglio io, ma dalle tante news trapelate nel tempo mi era rimasta un'impressione che fossimo alle porte di un salto prestazionale più evidente, di quel che invece sembra si stia concretizzando.
cmq amen, vediamo cosa esce :D
sickofitall
24-03-2016, 15:13
magari avevo preso un abbaglio io, ma dalle tante news trapelate nel tempo mi era rimasta un'impressione che fossimo alle porte di un salto prestazionale più evidente, di quel che invece sembra si stia concretizzando.
cmq amen, vediamo cosa esce :D
Vedrai che ci sarà sempre quel salto di 30-40% tra l'attuale generazione e la top gp104
Poi lo stesso divario ci sarà tra gp104 e gp100
AceGranger
24-03-2016, 15:15
fin dal principio non doveva esserci subito Volta dopo Maxwell? non è stato inserito dopo Pascal? comunque sia non vuol dire che sarà solo un shrink di maxwell, fp64 a parte...
si inizialmente Pascal non doveva esistere e Maxwell avrebbe dovuto portare in dote la Memoria unificata; poi i problemi del processo produttivo hanno fatto si che si modificasse pesantemente la road map;
Pascal visto il boom dei datacenter, è stato creato praticamente andando solo verso quella direzione, basta guardare che in dote per il mondo gaming non portera praticamente nulla; anche le HBM per il gaming sono fumo negli occhi, verranno sfruttate realmente solo negli ambiti Pro.
Vedrai che ci sarà sempre quel salto di 30-40% tra l'attuale generazione e la top gp104
Poi lo stesso divario ci sarà tra gp104 e gp100
Bah speriamo, comunque una 1080ti (o come si chiamerà) dovrebbe uscire a settembre? O si va a 2017?
mikael84
24-03-2016, 15:37
Posto anche qua un'ottimo e curioso post (postato da Frozen) che avevo ipotizzato ma che ora sembra essere tale e spiegherebbe anche meglio i disastri Kepler con i nuovi giochi GCN.
http://forums.anandtech.com/showpost.php?p=38117913&postcount=79
As for Kepler, GCN and Maxwell...
It has to do with compute utilization...
Just like Kepler's SMX, each one of Maxwell's SMM has four warp schedulers, but what's changed between SMX and SMM is that each SMMs CUDA cores are assigned to a particular scheduler. So there are less shared units. This simplifies scheduling as each of SMM’s warp schedulers issue to a dedicated set of CUDA Cores equal to the warp width (Warps are 32 thread wide and each scheduler issues its Warps to 32 CUDA cores). You can still dual issue, like with Kepler, but a single issue would result in full CUDA core utilisation. This means that you have less idling CUDA cores. (There's also the dedicated 64KB per SM of Maxwell over Kepler's 16KB + 48KB design).
Why is this important? Because console titles are being optimized for GCN. Optimizing for GCN means using Wavefronts (not Warps). Wavefronts are 64 threads wide (mapping directly to two Warps). Since a Maxwell SMM is composed of 4x32 CUDA core partitions, that means that a wavefront would occupy 2x32CUDA core partitions (half an SMM). With Kepler, you had 192 CUDA cores per SMX. Try mapping Wavefronts to that and you need 3 Wavefronts. If you only have a single wavefront then you're utilizing 50% of a Maxwell SMM while only utilizing 33.3% of an SMX. That's a lot of unused compute resources.
With NVIDIAs architecture, only Kernels belonging to the same program can be executed on the same SM. So with SMX, that's 66.6% of compute resources not being utilized. That's a huge loss.
So what has happened is that:
1. The ratio of render:compute is tilting higher towards compute than a few years ago when Kepler was introduced.
2. The console effect is pushing developers into using more compute resources in order to extract as much performance as possible from the consoles GCN APUs.
3. Console titles are being optimized for GCN.
This has pushed GCN performance upwards as ALL GCN based GPUs (GCN1/2/3) utilize Compute Units which map directly to a wavefront (4 x 16SIMD = 64).
The end result is higher compute utilization on GCN, less wasted resources on GCN, good utilization on Maxwell and very crappy utilisation on Kepler.
NVIDIA is evolving towards a more GCN-like architecture while AMD are refining GCN. GCN is more advanced than any NVIDIA architecture. People who claim that GCN is "old" simply don't understand GPU architectures.
It's the console effect.
mikael84
24-03-2016, 15:39
Vedrai che ci sarà sempre quel salto di 30-40% tra l'attuale generazione e la top gp104
Poi lo stesso divario ci sarà tra gp104 e gp100
Già in base ai boost ci sarà un guadagno poi bisognerà vedere le varie ottimizzazioni interne, registri, dati , motore geometrico ecc.
maurilio968
24-03-2016, 17:26
Non capisco perchè alcuni si aspettavano il triplo salto mortale da Nvidia.
Nemmeno intel fa
nuovo processo produttivo + nuova architettura + nuovo tipo di ram
tutto in uno step.
E' logico attendersi prima un affinamento della attuale architettura sul nuovo processo,
poi il passaggio alla nuova architettura contemporaneo alla nuova ram hbm2.
Per quanto buone le x70-x80 si prospettano come degli affinamenti del progetto attuale.
Ecco perchè ho detto che avrei aspettato il 2017.
Legolas84
24-03-2016, 18:35
:stordita:
http://www.bitsandchips.it/9-hardware/6786-rumor-pascal-nei-guai-con-i-giochi-che-sfruttano-l-asynchronous-compute
niente async compute? solo un miglioramento di FP64? indi per cui maxwell V 3.0? :fagiano:
C'è qualche altro sito che riporta la notizia? Perché li affermano "le nostre fonti" e quello è un sito pesantemente allineato.
Anadtech dice niente a riguardo?
Inviato dal mio ONE A2003 utilizzando Tapatalk
C'è qualche altro sito che riporta la notizia? Perché li affermano "le nostre fonti" e quello è un sito pesantemente allineato.
Anadtech dice niente a riguardo?
Inviato dal mio ONE A2003 utilizzando Tapatalk
in che senso "pesantemente allineato"?
C'è qualche altro sito che riporta la notizia? Perché li affermano "le nostre fonti" e quello è un sito pesantemente allineato.
Anadtech dice niente a riguardo?
Inviato dal mio ONE A2003 utilizzando Tapatalk
Non mi sembra dica nulla di nuovo, girava già da mesi questa voce.
Inviato dal mio SGP712 utilizzando Tapatalk
Legolas84
25-03-2016, 07:15
Bo io è la prima volta che la sento per questo chiedevo riscontro su siti autorevoli... Sinceramente se fosse davvero così storcerei non poco il naso.
Ma mi sembra strano che nVidia passi a Pascal mantenendo l'architettura di Maxwell...
Inviato dal mio ONE A2003 utilizzando Tapatalk
e fu così che i possessori di 980ti si ritrovarono un vga longeva e quotata per piu generazioni
TigerTank
25-03-2016, 09:06
Il fatto è che alla fine l'unica cosa che conta per molti è quel 25-30% di prestazioni in più delle nuove...per cui indipendentemente dalle innovazioni tecnologiche molta gente comprerebbe a prescindere giusto per il fatto di avere più prestazioni e più vram per far muovere i nuovi titoli e relativi nuovi filtri mattone :D
E lo sanno benissimo i produttori, che rilasciano migliorìe con il contagocce e rinviano le innovazioni hardware il più possibile.
Legolas84
25-03-2016, 09:11
Sicuramente Tiger.... Ma nVidia ha sempre migliorato la sua architettura ad ogni cambio di nome... Non si è mai limitata ad aggiungere solo dei cluster e ad alzare le frequenze... Per questo mi sembra strano e vorrei dei riscontri da parte di siti seri ed autorevoli.
Poi oh ovviamente tutto può sempre essere....
Inviato dal mio ONE A2003 utilizzando Tapatalk
verissimo tiger,
personalmente prima di spendere altri 1ooo€ di vga voglio vedere bei numeri in uhd ben oltre il 30/40% che non basterebbe per un 70/80 fps 4k set ultra per non scendere mai sotto i 60 vsych.
Tanto vale abbassare leggermente i dettagli come si è sempre detto piu tosto che dare al macero/vendere una signora vga.
TigerTank
25-03-2016, 09:29
Sicuramente Tiger.... Ma nVidia ha sempre migliorato la sua architettura ad ogni cambio di nome... Non si è mai limitata ad aggiungere solo dei cluster e ad alzare le frequenze... Per questo mi sembra strano e vorrei dei riscontri da parte di siti seri ed autorevoli.
Poi oh ovviamente tutto può sempre essere....
verissimo tiger,
personalmente prima di spendere altri 1ooo€ di vga voglio vedere bei numeri in uhd ben oltre il 30/40% che non basterebbe per un 70/80 fps 4k set ultra per non scendere mai sotto i 60 vsych.
Tanto vale abbassare leggermente i dettagli come si è sempre detto piu tosto che dare al macero/vendere una signora vga.
Esatto....quello che ho scritto sopra è il sentore che purtroppo ho, con l'hardware del pc che mi sembra diventare sempre più tipo andazzo degli smartphones....però spero anch'io che ci sia anche innovazione perchè sinceramente visti i prezzi vorrei hardware innovato e non solo pompato :)
TigerTank
25-03-2016, 09:38
il fatto che gli ACE non saranno integrati, se vero, non significa affatto che l'architettura non sarà migliorata sotto altri aspetti
Speriamo. Lo vedremo quando i siti seri e affidabili toccheranno con mano e analizzeranno i primi sample ;)
maurilio968
25-03-2016, 11:16
A me sembra che si stia sottovalutando quanto detto finora proprio da nvidia riguardo a pascal.
Maxwell è una architettura che ha castrato le prestazioni computazionali rispetto a kepler. Pascal torna su questo aspetto dedicando nuove risorse al computing.
Nel blog originale nvidia
http://blogs.nvidia.com/blog/2015/03/17/pascal/
l'accento è posto soprattutto su questi aspetti (il titolo è focalizzato sul "deep learning")
Vi invito a leggere una vecchia discussione su linustechtips
https://linustechtips.com/main/topic/462486-nvidia-pascal-mythbusting/?page=1
dove si affronta questo aspetto in dettaglio. Soprattutto quel 10x rispetto a Maxwell va interpretato bene, cito:
Gaming workloads are heavy on GPU computational power. The amount of data transported across the PCI Express bus (the interlink between the CPU and GPU) is very small, even "low" configurations like PCI Express 3.0 ×4 rarely affect performance at all. The amount of data transported across the GPU memory bus (the interlink between the GPU and the VRAM) is also relatively small, and isn't a major factor in performance. On the other hand, compute workloads are much heavier on memory bandwidth, memory capacity, and communication with the CPU compared to gaming. PCI Express 3.0 ×16 was a bottleneck the moment it was available. Memory bandwidth is woefully inadequate. Improving these aspects of the GPU would increase performance in compute workloads significantly while gaming performance would see very little, if any, improvement. Of course, there's no reason improvements couldn't be made to both the memory/system interconnects and the GPU core at the same time, but given a statement like "10× throughput in deep learning workloads" we have no way of knowing how much of that comes from improvements to the memory/system interconnects and how much comes from increased GPU power. So it really doesn't tell us much at all about the computational power of the Pascal GPU, because we have no way of knowing how much of that "10×" actually comes from increased GPU power itself.
...Unless of course NVIDIA breaks down exactly what goes into that 10× figure for us:
https://linustechtips.com/main/uploads/monthly_2016_02/large.56b571b870480_ss%282015-10-05at10.51.38%29.png.2e84e031d2d0c88809b47e81c2f0843b.png
Uh-oh, all the big numbers on there are representing improvements to memory bandwidth and the system interconnect. These things won't significantly affect gaming performance.
The only thing related to computational power on that slide is mixed precision performance. What we know so far is that Pascal's support for mixed precision compute mode means that it can do FP16 calculations at double the rate compared to FP32 (standard calculations), which is all well and good for deep learning but not particularly useful for games.
The things NVIDIA has actually claimed specifically:
1 - NVLink will be useful as a replacement for PCI Express in supercomputers, and will have 80GB/s of total bandwidth shared between the CPU and the number of GPUs in the system.
2- NVLink can be used as a GPU-GPU interconnect without replacing PCIe as the system interconnect, which provides great benefit for HPC and multi-GPU accelerated computing algorithms. No word on what this means for regular desktop cards and multi-GPU gaming.
3- 2× the power efficiency (performance per Watt) in SGEMM operations compared to Maxwell GM200; that’s a bit out of my depth so I don’t know how relevant that is to gaming applications, but I do think it’s important to notice that NVIDIA was very specific not to claim 2× power efficiency just as a general statement, so it probably won’t be, otherwise they would have just said that.
4- 4× FP16 performance in mixed precision mode compared to Maxwell GM200; not really relevant for gaming, though it could mean the FP32 performance of Pascal is 2× that of Maxwell, this is only speculation so I don't know why I'm even mentioning it in this section
5- Very roughly 10× the overall throughput for deep learning problems compared to Maxwell GM200
6- Up to 32GiB of 3D memory (HBM) in highest-end cards (and not necessarily highest-end GeForce cards)
7- Up to 3× the memory bandwidth of Maxwell GM200 (so, ~1TB/s)
8- 8 GPUs in a future Pascal-based deep learning devkit (SLI not mentioned)
Potrei sbagliarmi ed anzi invito chi ne capisce più di me a correggermi ma l'idea che mi sono fatto è che lato gaming pascal porterà migliormanti non sconvolgenti, mentre lato computing sarà un bel salto in avanti.
Nel frattempo nvidia testerà una architettura affinata sul nuovo processo produttivo, poi introdurrà la fascia alta anche gaming con le ram hbm2 che, se dal lato prestazioni potrebbero non essere tanto superiori alle gddr5, abbattono ulteriormente i consumi (e questo aspetto è molto importante).
Stabilizzati questi passaggi arriverà Volta, con la vera nuova architettura:
"nuova" rispetto a maxwell/pascal perchè c'è stato il "travaso" di mantle nelle directx12 e il progetto Vulkan è ora supportato anche da nvidia.
Pertanto la prossima architettura potrebbe essere anche molto diversa riguardo proprio alla gestione dell'async compute, permettendo ad nvidia di allinearsi ad amd
su questo aspetto e su altri dove gcn al momento prevale.
Inoltre molte delle features "directx11 oriented" dell'attuale architettura potrebbero essere abbandonate a favore di un approccio totalmente nuovo guidato dalle directx12.
Questo non vuol dire che le x70-x80 andranno male, anzi.
Solo che probabilmente non saranno quella rivoluzione che molti si aspettano e che arriverà con volta.
Lo stesso discorso si applica anche ad AMD con Polaris/Vega (P vs P e V vs V, sarà un caso?).
Polaris è equiparabile a Pascal. Sono soluzioni "ponte" verso le nuove architetture.
A me sembra che si stia sottovalutando quanto detto finora proprio da nvidia riguardo a pascal.
Maxwell è una architettura che ha castrato le prestazioni computazionali rispetto a kepler. Pascal torna su questo aspetto dedicando nuove risorse al computing.
Nel blog originale nvidia
http://blogs.nvidia.com/blog/2015/03/17/pascal/
l'accento è posto soprattutto su questi aspetti (il titolo è focalizzato sul "deep learning")
Vi invito a leggere una vecchia discussione su linustechtips
https://linustechtips.com/main/topic/462486-nvidia-pascal-mythbusting/?page=1
dove si affronta questo aspetto in dettaglio. Soprattutto quel 10x rispetto a Maxwell va interpretato bene, cito:
Gaming workloads are heavy on GPU computational power. The amount of data transported across the PCI Express bus (the interlink between the CPU and GPU) is very small, even "low" configurations like PCI Express 3.0 ×4 rarely affect performance at all. The amount of data transported across the GPU memory bus (the interlink between the GPU and the VRAM) is also relatively small, and isn't a major factor in performance. On the other hand, compute workloads are much heavier on memory bandwidth, memory capacity, and communication with the CPU compared to gaming. PCI Express 3.0 ×16 was a bottleneck the moment it was available. Memory bandwidth is woefully inadequate. Improving these aspects of the GPU would increase performance in compute workloads significantly while gaming performance would see very little, if any, improvement. Of course, there's no reason improvements couldn't be made to both the memory/system interconnects and the GPU core at the same time, but given a statement like "10× throughput in deep learning workloads" we have no way of knowing how much of that comes from improvements to the memory/system interconnects and how much comes from increased GPU power. So it really doesn't tell us much at all about the computational power of the Pascal GPU, because we have no way of knowing how much of that "10×" actually comes from increased GPU power itself.
...Unless of course NVIDIA breaks down exactly what goes into that 10× figure for us:
https://linustechtips.com/main/uploads/monthly_2016_02/large.56b571b870480_ss%282015-10-05at10.51.38%29.png.2e84e031d2d0c88809b47e81c2f0843b.png
Uh-oh, all the big numbers on there are representing improvements to memory bandwidth and the system interconnect. These things won't significantly affect gaming performance.
The only thing related to computational power on that slide is mixed precision performance. What we know so far is that Pascal's support for mixed precision compute mode means that it can do FP16 calculations at double the rate compared to FP32 (standard calculations), which is all well and good for deep learning but not particularly useful for games.
The things NVIDIA has actually claimed specifically:
1 - NVLink will be useful as a replacement for PCI Express in supercomputers, and will have 80GB/s of total bandwidth shared between the CPU and the number of GPUs in the system.
2- NVLink can be used as a GPU-GPU interconnect without replacing PCIe as the system interconnect, which provides great benefit for HPC and multi-GPU accelerated computing algorithms. No word on what this means for regular desktop cards and multi-GPU gaming.
3- 2× the power efficiency (performance per Watt) in SGEMM operations compared to Maxwell GM200; that’s a bit out of my depth so I don’t know how relevant that is to gaming applications, but I do think it’s important to notice that NVIDIA was very specific not to claim 2× power efficiency just as a general statement, so it probably won’t be, otherwise they would have just said that.
4- 4× FP16 performance in mixed precision mode compared to Maxwell GM200; not really relevant for gaming, though it could mean the FP32 performance of Pascal is 2× that of Maxwell, this is only speculation so I don't know why I'm even mentioning it in this section
5- Very roughly 10× the overall throughput for deep learning problems compared to Maxwell GM200
6- Up to 32GiB of 3D memory (HBM) in highest-end cards (and not necessarily highest-end GeForce cards)
7- Up to 3× the memory bandwidth of Maxwell GM200 (so, ~1TB/s)
8- 8 GPUs in a future Pascal-based deep learning devkit (SLI not mentioned)
Potrei sbagliarmi ed anzi invito chi ne capisce più di me a correggermi ma l'idea che mi sono fatto è che lato gaming pascal porterà migliormanti non sconvolgenti, mentre lato computing sarà un bel salto in avanti.
Nel frattempo nvidia testerà una architettura affinata sul nuovo processo produttivo, poi introdurrà la fascia alta anche gaming con le ram hbm2 che, se dal lato prestazioni potrebbero non essere tanto superiori alle gddr5, abbattono ulteriormente i consumi (e questo aspetto è molto importante).
Stabilizzati questi passaggi arriverà Volta, con la vera nuova architettura:
"nuova" rispetto a maxwell/pascal perchè c'è stato il "travaso" di mantle nelle directx12 e il progetto Vulkan è ora supportato anche da nvidia.
Pertanto la prossima architettura potrebbe essere anche molto diversa riguardo proprio alla gestione dell'async compute, permettendo ad nvidia di allinearsi ad amd
su questo aspetto e su altri dove gcn al momento prevale.
Inoltre molte delle features "directx11 oriented" dell'attuale architettura potrebbero essere abbandonate a favore di un approccio totalmente nuovo guidato dalle directx12.
Questo non vuol dire che le x70-x80 andranno male, anzi.
Solo che probabilmente non saranno quella rivoluzione che molti si aspettano e che arriverà con volta.
Lo stesso discorso si applica anche ad AMD con Polaris/Vega. Polaris è equiparabile a Pascal. Sono soluzioni "ponte" verso le nuove architetture.
Li praticamente stanno parlando della linea Tesla, sembra che abbiano intenzione di differenziare ancora di più le due linee di vga Tesla e GeForce.
Senza async però non vedo il senso di comprare queste schede.
Inviato dal mio SM-G920F utilizzando Tapatalk
mikael84
25-03-2016, 11:56
Cut.
Queste sono tutte informazioni base, tra cui NVLINK, l'utilizzo di HBM, FP16-FP64.;)
Nvlink per ora migliorerà solo lo SLI grazie a 4 canali da 20gb (64 dopo overhead) ma questo verrà ben implementato con Volta 200gb teorici.
Le differenze prestazionali andrebbero cmq valutate in base alla fascia di riferimento, ovvero:
970-x70
980-x80
980ti-x80ti
Se come ipotizzato da me si inizierà con 3072 cuda (valore che tra l'altro sembra in linea con i rumors anche i rapporto al core), già una x70 potrebbe partire da clock almeno da GM204(1250) ed essere laserata sino a 2688 cuda, 96 rops più veloci e bus doppio e 8gb.
Già con questi dati una x70 in base ai clock sarebbe avanti ad una 980ti del 10% e quindi una x80 25% almeno.
Calcola che la 980ti non è un riferimento per fascia ma lo è la 970 e la 980.
Considera che la x80ti e relativo chippone dovrebbe avere una potenza aritmetica di ben 12TF su un rapporto dp 1/3 (fattore assente in maxwell) e ad Nvidia serve per Tesla una scheda così.
12TF sono 5144 cuda su 1200mhz 16nm o 6k cuda su un base di 1ghz (valore da 28nm hpm).
Questo chip sarà in base a queste indiscrezioni particolarmente potente e di conseguenza anche i chip intermedi si adegueranno.
maurilio968
25-03-2016, 12:59
.. cut ..
Le differenze prestazionali andrebbero cmq valutate in base alla fascia di riferimento, ovvero:
970-x70
980-x80
980ti-x80ti
Se come ipotizzato da me si inizierà con 3072 cuda (valore che tra l'altro sembra in linea con i rumors anche i rapporto al core), già una x70 potrebbe partire da clock almeno da GM204(1250) ed essere laserata sino a 2688 cuda, 96 rops più veloci e bus doppio e 8gb.
Già con questi dati una x70 in base ai clock sarebbe avanti ad una 980ti del 10% e quindi una x80 25% almeno.
.. cut..
.
Sarebbe ottimo se confermato e verosimilmente a consumi inferiori.
Ma si leggono in giro aspettative anche più spinte che vanno bene per la x80ti, come giustamente dici tu.
Vedremo i bench quando arriveranno.
Spero che tu abbia ragione, anche se mi preoccupa a questo punto il prezzo della x80 se già la x70 dovesse andare più della 980ti e con 2gb in più.
Considera che la x80ti e relativo chippone dovrebbe avere una potenza aritmetica di ben 12TF su un rapporto dp 1/3 (fattore assente in maxwell) e ad Nvidia serve per Tesla una scheda così.
12TF sono 5144 cuda su 1200mhz 16nm o 6k cuda su un base di 1ghz (valore da 28nm hpm).
Questo chip sarà in base a queste indiscrezioni particolarmente potente e di conseguenza anche i chip intermedi si adegueranno.
.
Sarebbe (parlo per me ovviemente) da capire bene quanto questo chippone sarà imparentato con i chip intermedi.
Ma servirebbero più informazioni.
Essendo x80ti su hbm2 quanto avrà in comune con le sorelle gddr5x ?
E quanto del fatto che serve per le Tesla impatterà sul lato gaming?
Probabilmente ne sapremo di più già all'uscita delle x80.
Ma queste HBM2 vengono poi realmente sfruttate?
Oppure è più scena e le gddr5X sono più che sufficienti per essere accoppiate a questi chip?
Ps: ovviamente mi riferisco a lato gaming
mikael84
25-03-2016, 14:12
Sarebbe ottimo se confermato e verosimilmente a consumi inferiori.
Ma si leggono in giro aspettative anche più spinte che vanno bene per la x80ti, come giustamente dici tu.
Vedremo i bench quando arriveranno.
Spero che tu abbia ragione, anche se mi preoccupa a questo punto il prezzo della x80 se già la x70 dovesse andare più della 980ti e con 2gb in più.
Sarebbe (parlo per me ovviemente) da capire bene quanto questo chippone sarà imparentato con i chip intermedi.
Ma servirebbero più informazioni.
Essendo x80ti su hbm2 quanto avrà in comune con le sorelle gddr5x ?
E quanto del fatto che serve per le Tesla impatterà sul lato gaming?
Probabilmente ne sapremo di più già all'uscita delle x80.
Il design del chippone ovviamente seguirà quello sui "chippini" ma con 2 varianti che riguardano appunto la DP.
Se prendi lo schema di Kepler puoi vedere l'implementazione di quest'ultima e l'implementazione DP tramite SMX più grandi da 256 elementi, con 64 unità completamente dedicate a questo calcolo, dove ogni 3 fp32 è stato abilitato un fp64.
Quindi potremmo trovarci di fronte a due schemi che trovo improbabili. Un GP100 con 1/3 delle DP ed uno totalmente gaming (GP102) con i classici 128 elementi.
Io sono dell'idea di un Kepler bis su quest'aspetto (128 FP32+64fp64) e DP totalmente abilitata su Tesla e Titan.
Serve come ben dicevi conoscere la base per ricavarne i veri dati possibili su GP100.
Bisogna anche vedere le prestazioni per elemento, con Maxwell qua c'è stata una bella svolta dove ogni cuda può avere accesso a oltre 512 registri, tramite i 4 schedular e gli 8 SFU. Ogni cuda riesce ad essere prestazionalmente il 35% più veloce rispetto a Kepler che con programmazione GCN riesce a perdere il 66% delle prestazioni.
Quindi le migliorie interne sono ignote ma dopo aver visualizzato i valori del chippino puoi calcolare facilmente quelle del GP100.
Le HBM porteranno migliorie lato memoria sopratutto per via della memoria effettiva ma non nella larghezza di banda visto che lato gaming servirà a poco.
Anche questa è una tecnologia particolarmente efficace per garantire 1TB di banda, dopo non lo sarà più perchè salire a 2TB farà aumentare drasticamente i consumi tanto da richiedere 120watt solo di memoria. Questo significherebbe anche un'amperaggio di 88/90A solo vram che potrebbe aver bisogno di ben 4/6 fasi solo qua.
Ora bisogna conoscere i nuovi transistor, vedere le capacità reali, i clock raggiungibili dal processo e come ben dicevi da li capiremmo praticamente tutto;)
Crysis90
25-03-2016, 15:34
http://www.hwupgrade.it/news/skvideo/polaris-vega-ellesmere-e-baffin-ecco-i-nomi-in-codice-delle-future-gpu-amd_61779.html
Intanto, sembra che nel 2016 non ci sarà alcuno scontro tra vere TOP di gamma. E' tutto rimandato al 2017, con Pascal Ti che se la vedrà con Vega 10.
athlon xp 2400
26-03-2016, 07:58
http://www.hwupgrade.it/news/skvideo/polaris-vega-ellesmere-e-baffin-ecco-i-nomi-in-codice-delle-future-gpu-amd_61779.html
Intanto, sembra che nel 2016 non ci sarà alcuno scontro tra vere TOP di gamma. E' tutto rimandato al 2017, con Pascal Ti che se la vedrà con Vega 10.
Ottimo più vita per le mie schede
AragornElessar
26-03-2016, 08:12
Per me invece è una pessima notizia.. Giocare sotto i 60 fps è diventata una tortura e con lo sli a 3 vie nn risolvo perché molti giochi nn sono compatibili. Troppo tempo..
TigerTank
26-03-2016, 08:33
Per me invece è una pessima notizia.. Giocare sotto i 60 fps è diventata una tortura e con lo sli a 3 vie nn risolvo perché molti giochi nn sono compatibili. Troppo tempo..
Fatti un 21:9 1440p da gaming, così ti togli di torno il problema e quando tra un annetto prenderai le pascal full rimetterai il tuo surround :D
LurenZ87
26-03-2016, 09:52
Edit, ho sbagliato thread.
Inviato dal mio Samsung Galaxy S6 utilizzando Tapatalk
AragornElessar
26-03-2016, 10:15
Fatti un 21:9 1440p da gaming, così ti togli di torno il problema e quando tra un annetto prenderai le pascal full rimetterai il tuo surround :D
Lo farei se esistesse un 21:9 flat che vada a 1ms e a 120hz (144 è talmente minima la differenza..)
E nn ips ovviamente.
Ma sul mercato ora nn c'è niente di simile. Il pg348q e l'acer predator sono stondati e ips, inoltre arrivano a 100hz solo in overclock e a 4ms.
Mi sa che tocca aspettare e basta. Unica nota positiva è il risparmio^^
Unica nota positiva è il risparmio^^
:cry:
SuperCiuk77
26-03-2016, 12:00
Per me invece è una pessima notizia.. Giocare sotto i 60 fps è diventata una tortura e con lo sli a 3 vie nn risolvo perché molti giochi nn sono compatibili. Troppo tempo..
..è un surround veramente massiccio che ho anche io e ho già provato il 3 way di 980Ti,ma la potenza necessaria è troppa:rolleyes:
AragornElessar
26-03-2016, 13:10
..è un surround veramente massiccio che ho anche io e ho già provato il 3 way di 980Ti,ma la potenza necessaria è troppa:rolleyes:
Provato anche io questa strada, ma ho scoperto che:
A. Le 980ti occate di fabbrica+ oc da me vanno meno delle titan x occate
B. Scaldano talmente tanto in 3way sli che raggiungevano 91 gradi subito, andando in tilt (questo sia in normal mode che in oc), la conseguenza è stata una perdita di fps
C. Ho paura a comprare un'altra titan x perché ho timore delle temperature. Quando le tre schede sono attaccate tra di loro, nn c'è molta areazione. Per altro il 3way sli lo supportano bene solo pochissimi giochi.
Ottimo più vita per le mie schede
Precisamente..:D
mikael84
26-03-2016, 13:31
Provato anche io questa strada, ma ho scoperto che:
A. Le 980ti occate di fabbrica+ oc da me vanno meno delle titan x occate
B. Scaldano talmente tanto in 3way sli che raggiungevano 91 gradi subito, andando in tilt (questo sia in normal mode che in oc), la conseguenza è stata una perdita di fps
C. Ho paura a comprare un'altra titan x perché ho timore delle temperature. Quando le tre schede sono attaccate tra di loro, nn c'è molta areazione. Per altro il 3way sli lo supportano bene solo pochissimi giochi.
Il problema è che ti sei creato una postazione troppo esosa per schede attuali.;)
11mpixel è una via di mezzo tra 4k e 5k su schede che in single ed in alcuni giochi faticano a gestire 3,7mpixel.
Già un 1440p 21:9 100hz richiede uno SLI bello occato (4,9mpixel), spesso con decurtazioni.
killeragosta90
26-03-2016, 14:27
Ottimo più vita per le mie schede
:rolleyes:
Ma se le hai pure messe in vendita.....
Goofy Goober
26-03-2016, 18:40
:rolleyes:
Ma se le hai pure messe in vendita.....
https://dl.dropboxusercontent.com/u/3896005/GIF/SANDDIVING.gif
:asd: :asd:
athlon xp 2400
26-03-2016, 18:47
:rolleyes:
Ma se le hai pure messe in vendita.....
1 .. Se ricevo quello che voglio giusto xche sto stretto con l'aly , in giochi pesi rasento gli 800watt e alla lunga salta tutto .. se nn la vendo in settimana prox compro il 1000 watt
Legolas84
26-03-2016, 19:04
:asd: :asd:
lol
SuperCiuk77
26-03-2016, 22:12
Provato anche io questa strada, ma ho scoperto che:
A. Le 980ti occate di fabbrica+ oc da me vanno meno delle titan x occate
B. Scaldano talmente tanto in 3way sli che raggiungevano 91 gradi subito, andando in tilt (questo sia in normal mode che in oc), la conseguenza è stata una perdita di fps
C. Ho paura a comprare un'altra titan x perché ho timore delle temperature. Quando le tre schede sono attaccate tra di loro, nn c'è molta areazione. Per altro il 3way sli lo supportano bene solo pochissimi giochi.
in effetti hai le tue ragioni...io non ho il problema temperarature perchè a suo tempo presi 2 Hybrid e quindi le tiro al massimo e in gennaio un amico anche lui con la Hybrid,me la fece provare e li vidi che la potenza richiesta era veramente troppa,l'unico titolo che si può maxare è Hard Reset:( ..in poche parole ho il case pieno di radiatori!:oink:
mikael84
26-03-2016, 22:49
1 .. Se ricevo quello che voglio giusto xche sto stretto con l'aly , in giochi pesi rasento gli 800watt e alla lunga salta tutto .. se nn la vendo in settimana prox compro il 1000 watt
Scusa Athlon ti stai complicando la vita per niente. Hai preso due belle schedozze a tot. prezzo. Prendi un buon ALI e vivi tranquillo. Hai vram e buona potenza e se Pascal non sarà niente di che non ti serve neppure upgradare per la ram.;)
athlon xp 2400
27-03-2016, 08:00
Scusa Athlon ti stai complicando la vita per niente. Hai preso due belle schedozze a tot. prezzo. Prendi un buon ALI e vivi tranquillo. Hai vram e buona potenza e se Pascal non sarà niente di che non ti serve neppure upgradare per la ram.;)
In alcuni punti ho visto 760 watt con tw3 e project cars .. Alla lunga ho paura scoppi tutto lol che aly consigli ?
Obrigado
27-03-2016, 09:45
In alcuni punti ho visto 760 watt con tw3 e project cars .. Alla lunga ho paura scoppi tutto lol che aly consigli ?
sulla presa?
no perche' fino a quando non vedi 900w sulla presa puoi stare sereno come stai con il tuo alimentatore
athlon xp 2400
27-03-2016, 09:47
sulla presa?
no perche' fino a quando non vedi 900w sulla presa puoi stare sereno come stai con il tuo alimentatore
Sul ups apc
Provato anche io questa strada, ma ho scoperto che:
A. Le 980ti occate di fabbrica+ oc da me vanno meno delle titan x occate
B. Scaldano talmente tanto in 3way sli che raggiungevano 91 gradi subito, andando in tilt (questo sia in normal mode che in oc), la conseguenza è stata una perdita di fps
C. Ho paura a comprare un'altra titan x perché ho timore delle temperature. Quando le tre schede sono attaccate tra di loro, nn c'è molta areazione. Per altro il 3way sli lo supportano bene solo pochissimi giochi.
lascia perdere il 3 way se non lo liquidi.
ad aria diventi matto , temperature troppo alte e devi sommarci il rumore di 3 schede che andranno a palla per cercare di freddarsi.
se metti un bell impianto a liquido come si deve puoi farlo tranquillamente. certo, gli engine grafici che sfruttano un triway non sono tantissimi pero' da le sue soddisfazioni. io sto rimettendo, dopo averlo tolto, un semplice sli che mi garantisce un 'ottima resa a 2560*1440. Non andrei sopra di risoluzione perche a 60 fps mi spacco gli occhi. :)
Obrigado
27-03-2016, 10:10
Sul ups apc
stai sereno.
non buttare soldi.
athlon xp 2400
27-03-2016, 11:10
stai sereno.
non buttare soldi.
ok allora sto con 800watt e lo sli ..grazie
AragornElessar
27-03-2016, 11:37
Grazie per i consigli ragazzi.
Riparte l'attesa per l'evento e probabilmente quella per i mesi di settembre dicembre per la nuova titan.. Sempre che nn venga rilasciata davvero nel 2017.
A proposito! auguri a tutti voi e ai vostri cari ^^
Auguri a tutti ....
Mi godo i mesi dalla prossima Titan per uscire un po dal vortice dell'aggiornamento convulsivo:D
athlon xp 2400
27-03-2016, 12:22
Grazie per i consigli ragazzi.
Riparte l'attesa per l'evento e probabilmente quella per i mesi di settembre dicembre per la nuova titan.. Sempre che nn venga rilasciata davvero nel 2017.
A proposito! auguri a tutti voi e ai vostri cari ^^
Nn ti bastano 2 titan ? Sei in 4K?
fireradeon
27-03-2016, 13:43
Auguri a tutti.
AragornElessar
27-03-2016, 16:55
Nn ti bastano 2 titan ? Sei in 4K?
7680x1440. 2 titan x in oc cosi come il processore e su the witcher 3, camera iniziale, faccio poco piu di 40 fps massimo.
athlon xp 2400
27-03-2016, 17:08
7680x1440. 2 titan x in oc cosi come il processore e su the witcher 3, camera iniziale, faccio poco piu di 40 fps massimo.
Ci credo a quella risoluzione manco volta lol
Spider-Mans
27-03-2016, 17:29
fra una settimana sapremo tutto o quasi :D
athlon xp 2400
27-03-2016, 17:37
fra una settimana sapremo tutto o quasi :D
Pasqualone mi sa che fino a settembre niente
https://dl.dropboxusercontent.com/u/3896005/GIF/SANDDIVING.gif
:asd: :asd:
Mi mancava il tuo immenso database di gif :asd:asd:
7680x1440. 2 titan x in oc cosi come il processore e su the witcher 3, camera iniziale, faccio poco piu di 40 fps massimo.
Potevi aumentare un altro pochino la res :D
TigerTank
28-03-2016, 16:14
:asd: :asd:
Ahahah bellissima! :D
killeragosta90
28-03-2016, 17:28
https://dl.dropboxusercontent.com/u/3896005/GIF/SANDDIVING.gif
:asd: :asd:
Oddio quasi mi stavo per perdere il post! Bellissima :sofico:
Questa va di diritto nelle "BEST GIF EVVAAHH" :D
Crysis90
29-03-2016, 18:12
http://wccftech.com/nvidia-flagship-gtx-1080-gtc-2016/
"Very Powerful Nvidia Pascal Flagship ‘GTX 1080’ To Be Demoed Next Month At GTC 2016."
E il gorilla cresce...:D :D
Giovamas
29-03-2016, 19:19
dove sono gli aerei per tirarlo giù???:D :D
TigerTank
29-03-2016, 19:55
Erano rossi e hanno avuto problemi di driver al decollo :D
Pascal (https://it.wikipedia.org/wiki/Fokker_Dr.I#/media/File:Fokker_DR1_Triplane_Duxford_3_%285927320786%29.jpg) vs Polaris/Vega (http://www.letistenymburk.cz/letiste%20nbk%20en/Fokker%20P1.jpg). La sfida! :D
mikael84
29-03-2016, 19:56
http://wccftech.com/nvidia-flagship-gtx-1080-gtc-2016/
"Very Powerful Nvidia Pascal Flagship ‘GTX 1080’ To Be Demoed Next Month At GTC 2016."
E il gorilla cresce...:D :D
Facendo 2 calcoli, per 145watt dovrebbe avere 7,3TF (teraflops), gli stessi di una Titan x a 1200, quindi ritorno sulla base di 3072cuda a 1200mhz di base (GM204 aveva un base sopra i 1100 e con i 16nm non ci saranno problemi a partire almeno da 1200).
Con lo stesso calcolo abbiamo 12TF su 5144 cuda a 1200 per X80TI (salvo decurtazioni).
Facendo 2 calcoli, per 145watt dovrebbe avere 7,3TF (teraflops), gli stessi di una Titan x a 1200, quindi ritorno sulla base di 3072cuda a 1200mhz di base (GM204 aveva un base sopra i 1100 e con i 16nm non ci saranno problemi a partire almeno da 1200).
Con lo stesso calcolo abbiamo 12TF su 5144 cuda a 1200 per X80TI (salvo decurtazioni).
Traducimi in italiano :D
Quanto più forte potrebbe andare rispetto ad una 980ti? 20%
fireradeon
29-03-2016, 21:28
Perfetto una settimana e sapremo tutto.
mikael84
29-03-2016, 22:01
Traducimi in italiano :D
Quanto più forte potrebbe andare rispetto ad una 980ti? 20%
Se fossero quelli i dati (quindi è solo un'ipotesi, poi tutto può essere), c'è un 30% reference x reference di potenza aritmetica + bus e ram maggiorata. Per ora a livello pratico siamo sul 15% game salvo eventuali migliorie interne.
Per dire, la 980TI ha 6TF, la tua a 1430 supera gli 8TF.
I dati sono spaventosi ma chiaramente devi rapportare x80 a gtx 980, rispetto alla TI le grosse differenze le vedrai con custom sparate a 1400/1450 contro reference 980ti:)
Se fossero quelli i dati (quindi è solo un'ipotesi, poi tutto può essere), c'è un 30% reference x reference di potenza aritmetica + bus e ram maggiorata. Per ora a livello pratico siamo sul 15% game salvo eventuali migliorie interne.
Per dire, la 980TI ha 6TF, la tua a 1430 supera gli 8TF.
I dati sono spaventosi ma chiaramente devi rapportare x80 a gtx 980, rispetto alla TI le grosse differenze le vedrai con custom sparate a 1400/1450 contro reference 980ti:)
Capito ... devo costringermi ad aspettare la ti .. è già so che non sarà semplice..
Adesso devo trovare, intanto, dove ho perso per strada gli 80 punti ad heaven:muro:
mikael84
29-03-2016, 22:17
Capito ... devo costringermi ad aspettare la ti .. è già so che non sarà semplice..
Adesso devo trovare, intanto, dove ho perso per strada gli 80 punti ad heaven:muro:
Cmq vadano queste schede, saranno upgrade per chi è rimasto sulla fascia media (970-980 sopratutto la prima con x70). I possessori di TI possono cambiare per scimmia, ram e tutto quello che si vuole ma dopo 6 mesi o poco più arriverà un mostro GP100 con circa 12TF(possibili 5144 cuda e 16gb di hbm):read:
Quello sarà un vero salto:)
paolox86
29-03-2016, 23:31
http://uploads.tapatalk-cdn.com/20160329/abb450bf1c31ea15dfca15ea6b00d006.jpg
Riuscirò ad attendere 6 mesi in più.... Riuscirò ad attendere 6 mesi in più... Riuscirò ad attendere 6 mesi in più.........
Inviato dal mio iPad utilizzando Tapatalk
se qualcuno gradisce qualche immagine fake di parte del nuovo dissipatore :rolleyes:
http://wccftech.com/nvidia-pascal-geforce-gtx-1080-gtx-1070-cooler-leak/
Giovamas
30-03-2016, 07:46
Capito ... devo costringermi ad aspettare la ti .. è già so che non sarà semplice..
Adesso devo trovare, intanto, dove ho perso per strada gli 80 punti ad heaven:muro:
eh bisogna resistere.. il 15%/20% non è la fine del mondo salvo magheggi o altro. Tra l'altro la mia ha i 1500 granitici e rulla propro bene. Magari mi tocca di nuovo un chiodo stile la mia vecchia 780ti e buonanotte. Il vero boost ci sarà con la 1080Ti. Con la 980 ho resistito spero di riuscirci di nuovo :D :)
fireradeon
30-03-2016, 12:58
http://uploads.tapatalk-cdn.com/20160329/abb450bf1c31ea15dfca15ea6b00d006.jpg
Riuscirò ad attendere 6 mesi in più.... Riuscirò ad attendere 6 mesi in più... Riuscirò ad attendere 6 mesi in più.........
Inviato dal mio iPad utilizzando Tapatalk
eh bisogna resistere.. il 15%/20% non è la fine del mondo salvo magheggi o altro. Tra l'altro la mia ha i 1500 granitici e rulla propro bene. Magari mi tocca di nuovo un chiodo stile la mia vecchia 780ti e buonanotte. Il vero boost ci sarà con la 1080Ti. Con la 980 ho resistito spero di riuscirci di nuovo :D :)
Anche io aspetto..... fino all'uscita. :D ormai ho giá il compratore della Ti e poi vado di sli di 1080 (sempre che vada bene come scheda aspetto i bench).
Ricordatevi delle mie "previsioni" quando mi mettevate le foto del pendolino , tra poco potrebbero realizzarsi :sofico: .
illidan2000
30-03-2016, 13:35
Cmq vadano queste schede, saranno upgrade per chi è rimasto sulla fascia media (970-980 sopratutto la prima con x70). I possessori di TI possono cambiare per scimmia, ram e tutto quello che si vuole ma dopo 6 mesi o poco più arriverà un mostro GP100 con circa 12TF(possibili 5144 cuda e 16gb di hbm):read:
Quello sarà un vero salto:)
anche 1 anno...
Ricordatevi delle mie "previsioni" quando mi mettevate le foto del pendolino , tra poco potrebbero realizzarsi :sofico: .
non le ricordo :(
le mie sono:
x70 = prestazioni da 980ti (magari maggiori del 5/10%) a 400 euro (450 custom)
x80 = prestazioni il 10% maggiori della x70 a 650 euro
E la 1080ti a 10000 paperdollari :eek:
le mie sono:
x70 = prestazioni da 980ti (magari maggiori del 5/10%) a 400 euro (450 custom)
x80 = prestazioni il 10% maggiori della x70 a 650 euro
Le mie erano :D :
La GTX 1070 con gddr5x andrà il 15% in piu' della 980ti attuale , prezzo 400 euro .
La GTX 1080 con 8gb gddr5x andrà l'30% in piu' della 980ti attuale , prezzo 650 euro .
Cmq dite che tra una settimana sapremo tutto ? .
mikael84
30-03-2016, 14:16
Le mie erano :D :
La GTX 1070 con gddr5x andrà il 15% in piu' della 980ti attuale , prezzo 400 euro .
La GTX 1080 con 8gb gddr5x andrà l'30% in piu' della 980ti attuale , prezzo 650 euro .
Cmq dite che tra una settimana sapremo tutto ? .
O queste o niente.:Perfido: :fagiano:
Le tue erano queste:
http://www.hwupgrade.it/forum/showpost.php?p=43466108&postcount=22273
http://www.hwupgrade.it/forum/showpost.php?p=43466160&postcount=22279
illidan2000
30-03-2016, 14:23
Le mie erano :D :
La GTX 1070 con gddr5x andrà il 15% in piu' della 980ti attuale , prezzo 400 euro .
La GTX 1080 con 8gb gddr5x andrà l'30% in piu' della 980ti attuale , prezzo 650 euro .
Cmq dite che tra una settimana sapremo tutto ? .
simili alle mie dai :)
O queste o niente.:Perfido: :fagiano:
Le tue erano queste:
http://www.hwupgrade.it/forum/showpost.php?p=43466108&postcount=22273
http://www.hwupgrade.it/forum/showpost.php?p=43466160&postcount=22279
ops... 40% in più... magari... pure 500€ gliele mollerei...
O queste o niente.:Perfido: :fagiano:
Le tue erano queste:
http://www.hwupgrade.it/forum/showpost.php?p=43466108&postcount=22273
http://www.hwupgrade.it/forum/showpost.php?p=43466160&postcount=22279
Ah non me le ricordavo , allora una delle due ci avrò preso sicuro :asd: .
:rotfl: Vincerò io!
Cmq a parte gli scherzi tra una settimana avremo per le mani qualcosa di concreto ? .
illidan2000
30-03-2016, 15:41
:rotfl: Vincerò io!
Cmq a parte gli scherzi tra una settimana avremo per le mani qualcosa di concreto ? .
la convention è dal 4 al 7 aprile
Spider-Mans
30-03-2016, 16:13
6 giorni a notizie pascali :oink:
killeragosta90
30-03-2016, 17:07
Tranquilli che anticiperanno sicuramente al primo di aprile :asd:
Per quel giorno sarà pieno di notizie su GPU Pascal e schede fino ad ora, mai sentite :sofico: :stordita:
mikael84
30-03-2016, 17:15
Tranquilli che anticiperanno sicuramente al primo di aprile :asd:
Per quel giorno sarà pieno di notizie su GPU Pascal e schede fino ad ora, mai sentite :sofico: :stordita:
E molti ci abboccheranno.:D
Quella dello scorso anno era fantastica
http://hardware.hdblog.it/2015/03/24/BFG-GeForce-GTX-Titan-X-con-24GB-di-Memoria-a-2280-Euro/
Giovamas
30-03-2016, 17:40
E molti ci abboccheranno.:D
Quella dello scorso anno era fantastica
http://hardware.hdblog.it/2015/03/24/BFG-GeForce-GTX-Titan-X-con-24GB-di-Memoria-a-2280-Euro/
molti ci credettero ai 24gbyte!
killeragosta90
30-03-2016, 17:46
E molti ci abboccheranno.:D
Quella dello scorso anno era fantastica
http://hardware.hdblog.it/2015/03/24/BFG-GeForce-GTX-Titan-X-con-24GB-di-Memoria-a-2280-Euro/
LOL me la ricordo :p
mikael84
30-03-2016, 22:09
molti ci credettero ai 24gbyte!
No i 24gb sono anche credibili come la nuova quadro m6000:)
Discutibili sono tutte le altre voci, a partire dal boost 2,0 che sarebbe sui 1600, le memorie a 2150 (8600 default), il reference a 2x8 pin ma sopratutto c'è un'altro dettaglio principale, la BFG, azienda fallita nel 2010 che ora collabora per schede audio e buona parte del team lavora per la Galax:)
Kingdemon
30-03-2016, 22:21
No i 24gb sono anche credibili come la nuova quadro m6000:)
Discutibili sono tutte le altre voci, a partire dal boost 2,0 che sarebbe sui 1600, le memorie a 2150 (8600 default), il reference a 2x8 pin ma sopratutto c'è un'altro dettaglio principale, la BFG, azienda fallita nel 2010 che ora collabora per schede audio e buona parte del team lavora per la Galax:)
E' esistita veramente la BFG? Non la ricordo pensavo fosse una citazione di Doom..
mikael84
30-03-2016, 22:54
E' esistita veramente la BFG? Non la ricordo pensavo fosse una citazione di Doom..
No non è Doom BFG, il brand è esistito ed ancora collabora (almeno ex dipendenti) con altri brand ma dopo la serie GTX 2xx è fallita (settembre 2010).
https://www.guru3d.com/articles-pages/geforce-gtx-295-review-bfg,1.html
http://www.bit-tech.net/hardware/graphics/2008/02/01/bfgtech_geforce_8800_gts_oc_512mb/1
Anche la XFX era brand Nvidia pre fermi.;)
Kingdemon
31-03-2016, 05:49
È vero mi è tornata in mente.. Sto diventando vecchio :D
Inviato dal mio Galaxy Nexus utilizzando Tapatalk
Giovamas
31-03-2016, 07:51
No i 24gb sono anche credibili come la nuova quadro m6000:)
Discutibili sono tutte le altre voci, a partire dal boost 2,0 che sarebbe sui 1600, le memorie a 2150 (8600 default), il reference a 2x8 pin ma sopratutto c'è un'altro dettaglio principale, la BFG, azienda fallita nel 2010 che ora collabora per schede audio e buona parte del team lavora per la Galax:)
Vero LoL.. io però mi ricordo che ci ero quasi cascato! Domani ce ne saranno molte di anteprime di Pascal mi sa:D
Credo che riscenda in campo anche 3DFX domani , con una fiammante Dual GPU con 16gb HBM2 :sofico: ecco i primi Sample :
http://s28.postimg.org/heb9kvcjh/3_DFX.jpg
.
Goofy Goober
31-03-2016, 14:22
Chissà come mai proprio domani.
Cmq mia al dayone :O
mikael84
31-03-2016, 14:25
http://videocardz.com/nvidia/geforce-1000/geforce-gtx-1080
Se sono vere, ho indovinato tutto e voglio il posto in Nvidia:D :Perfido: :Perfido:
http://www.hwupgrade.it/forum/showpost.php?p=43488034&postcount=22637
DarkNiko
31-03-2016, 14:25
Chissà come mai proprio domani.
Cmq mia al dayone :O
E chi te la tocca. :asd:
scorpion73
31-03-2016, 14:40
http://videocardz.com/nvidia/geforce-1000/geforce-gtx-1080
Se sono vere, ho indovinato tutto e voglio il posto in Nvidia:D :Perfido: :Perfido:
http://www.hwupgrade.it/forum/showpost.php?p=43488034&postcount=22637
La memory bandwitch di 64GB??? Siamo tornati al caro vecchio G92....
Pesce di aprile in anticipo?
mikael84
31-03-2016, 14:47
La memory bandwitch di 64GB??? Siamo tornati al caro vecchio G92....
Pesce di aprile in anticipo?
Banda per 32 bit, non è totale(gddrx sarebbe 32gb, gddr5x 64gb).
I clock effettivi non si sanno
http://videocardz.com/nvidia/geforce-1000/geforce-gtx-1080
Se sono vere, ho indovinato tutto e voglio il posto in Nvidia:D :Perfido: :Perfido:
http://www.hwupgrade.it/forum/showpost.php?p=43488034&postcount=22637
Secondo me dovresti farti pagare i diritti da Nvidia: ti hanno copiato l'architettura :D
paolox86
31-03-2016, 14:53
http://videocardz.com/nvidia/geforce-1000/geforce-gtx-1080
Se sono vere, ho indovinato tutto e voglio il posto in Nvidia:D :Perfido: :Perfido:
http://www.hwupgrade.it/forum/showpost.php?p=43488034&postcount=22637
Secondo me in Nvidia non sfigureresti affatto !! 👍
scorpion73
31-03-2016, 15:04
Banda per 32 bit, non è totale(gddrx sarebbe 32gb, gddr5x 64gb).
I clock effettivi non si sanno
ah ok, è la bandwith delle memorie, non la totale.
A posto
killeragosta90
31-03-2016, 15:07
http://videocardz.com/nvidia/geforce-1000/geforce-gtx-1080
Se sono vere, ho indovinato tutto e voglio il posto in Nvidia:D :Perfido: :Perfido:
http://www.hwupgrade.it/forum/showpost.php?p=43488034&postcount=22637
Mik magari lo hanno copia - incollato dal tuo post :asd:
Tecnicamente parlando, sei bestiardware! :p
http://videocardz.com/nvidia/geforce-1000/geforce-gtx-1080
Se sono vere, ho indovinato tutto e voglio il posto in Nvidia:D :Perfido: :Perfido:
http://www.hwupgrade.it/forum/showpost.php?p=43488034&postcount=22637
Mi sà che è il pescetto di aprile perchè sono le specifiche della Titan X :sofico: .
illidan2000
31-03-2016, 15:21
La memory bandwitch di 64GB??? Siamo tornati al caro vecchio G92....
Pesce di aprile in anticipo?
la famosa stregabanda...
AceGranger
31-03-2016, 15:24
:confused: mi devo essere perso qualche cosa, ma se io apro il link dice 1080, perchè parlate di Titan ?
TigerTank
31-03-2016, 15:25
http://videocardz.com/nvidia/geforce-1000/geforce-gtx-1080
Se sono vere, ho indovinato tutto e voglio il posto in Nvidia:D :Perfido: :Perfido:
http://www.hwupgrade.it/forum/showpost.php?p=43488034&postcount=22637
Ti devi anche far fare il tatuaggio del logo nvidia da qualche parte :O :D
AceGranger
31-03-2016, 15:36
ha lo stesso rapporto e numero di sp/tmu/rops :D
con però il bus e la banda della 980
almeno per quanto riguarda quelle specifiche
ah ok, che combaciano in parte con quelle ipotizzate da mikael84.
ora ci sono :p
fraussantin
31-03-2016, 15:41
Mi sà che è il pescetto di aprile perchè sono le specifiche della Titan X :sofico: .
Probabile , ma non lo escluderei.
Avendo il fiato di amd sul collo devono spingere almeno quanto una 980ti
Giovamas
31-03-2016, 15:43
Secondo me in Nvidia non sfigureresti affatto !! 👍
Quoto. Non sfigurerebbe proprio per niente :)
scorpion73
31-03-2016, 21:52
la famosa stregabanda...
forte questa, non mi ero accorto dell'errore di battitura.. :D :D :D
E comunque giusto una stregabanda se aveva solo 64GB totali :sofico:
illidan2000
31-03-2016, 22:48
forte questa, non mi ero accorto dell'errore di battitura.. :D :D :D
E comunque giusto una stregabanda se aveva solo 64GB totali :sofico:
beh GB sono gigabyte, non gigabit... :)
mikael84
31-03-2016, 23:30
ha lo stesso rapporto e numero di sp/tmu/rops della titan X :D
con però il bus e la banda della 980 e base clock 1100mhz
...chissà l'ipc di quanto è aumentato, se è aumentato, ma non penso proprio sia solo un mero shrink dato che cambi il rapporto tra core e bus
almeno per quanto riguarda quelle specifiche
Bisogna innanzitutto vedere il rapporto interno. Ogni cuda di maxwell è più veloce del 35% rispetto a Kepler. Maxwell riesce a gestire sino a 65.536 registri per SMM, essendo suddivisi in 4 sheduler e 8 D.U. Questo sta a significare che ogni cuda ha un'accesso a 512 registri (65k /128).
Kepler su 192 cuda suddivisi in 6x4 da 32 elementi può elaborare massimo 341 registri per cuda.
Cambia anche la suddivisione interna per load store e SFU. Ogni gruppo Kepler è composto da 6 load store e 6 SFU, ogni gruppo maxwell da 32 è composto da 8 SFU e 8 load store. Il tutto coadiuvato da cache più ampie, solo gm204 ha più cache di gk110.
Sicuramente sarà migliorato il motore geometrico alla 4° gen, il 3° trae vantaggio dalle rops particolarmente veloci visto che si occupano di una buona parte di calcoli, anche se il funzionamento è ben più complesso.
Ritorno sul bus, attualmente do per scontato un 256 gddr5x, davvero mi sembra impensabile utilizzare clock gddr5 anche se microm dovrebbe avere pronte le 20nm ad 8ghz che garantirebbero 256gb/s ma è ancora troppo poco.
Se non le usano qua queste memorie non le usano proprio, perchè se poi crei una x60 gddr5x con 192bit ti ritrovi un'ampiezza ben più elevata su tale chip, o nella peggio su un 128bit pareggi.
Ti devi anche far fare il tatuaggio del logo nvidia da qualche parte :O :D
:D
Crysis90
01-04-2016, 08:05
http://videocardz.com/nvidia/geforce-1000/geforce-gtx-1080
Se sono vere, ho indovinato tutto e voglio il posto in Nvidia:D :Perfido: :Perfido:
http://www.hwupgrade.it/forum/showpost.php?p=43488034&postcount=22637
C'è qualcosa che non torna, secondo me.
Se così fosse, la GTX 1080 avrebbe lo stesso, identico n° di SP di una TITAN X, il cui chip ha 8 mld di transistor.
Per Pascal si parla di 16/18 mld di transistor: che fine hanno fatto i rimanenti 10 mld????
Anche se questo dato fosse relativo all'eventuale TOP di gamma Pascal Ti (GP100) e non al chip "liscio", ci sarebbe troppa sproporzione: 10 mld di transistor di differenza vuol dire che GP100 avrebbe almeno il doppio degli SP di GP 104, il che lo vedo altamente improbabile. :mbe: :mbe:
scorpion73
01-04-2016, 11:14
beh GB sono gigabyte, non gigabit... :)
mo però stai a fare troppo il precisino... tu sei bravissimo lo so, lascia fare a me gli errori...
illidan2000
01-04-2016, 11:19
mo però stai a fare troppo il precisino... tu sei bravissimo lo so, lascia fare a me gli errori...
ahimé, io sbaglio troppo spesso :(
fammela dire ogni tanto una sparata così :D
classica domanda da nabbo, a spanne mikael andranno molto di più delle ti?
Crysis90
01-04-2016, 11:52
a parte che sono numeri tirati fuori da wccftech e poi:
GK104 3500M transistors -> 680 inizio giro 28nm
GM200 8000M transistors -> 980ti fine giro 28nm
2.29x -> 8*2.29 = 18.32B transistors a fine ciclo 16nm, giusto per fare un parallelo...
Non capisco dove vuoi arrivare.
Dalla 680 alla 980 Ti gli SP sono raddoppiati (come i transistor): quindi la mia teoria è corretta. GP 104 non può avere 3072 SP ed allo stesso tempo integrare 16/18 mld di transistor.
Era ciò che volevi dire anche tu, giusto? O ho capito male?
amon.akira
01-04-2016, 13:06
Non capisco dove vuoi arrivare.
Dalla 680 alla 980 Ti gli SP sono raddoppiati (come i transistor): quindi la mia teoria è corretta. GP 104 non può avere 3072 SP ed allo stesso tempo integrare 16/18 mld di transistor.
Era ciò che volevi dire anche tu, giusto? O ho capito male?
18mld si avrà con il fullpascal o ultimo top16nm.
penso che le prime saranno ottime per i consumi, una 980ti+ a 150watt non sarebbe male :P
illidan2000
01-04-2016, 13:39
voglio arrivare a farti capire, dove sennò? :)
ti ripeto che la scritta 16/18mld di wccftech sono speculazioni loro sulle top di gamma a confronto ma non è mica detto che succeda da una gen all'altra, anzi tutt'altro: come è successo con i 28nm al primo giro faranno chip piccoli o medi che superano di poco quelle vecchie, di fatto un 300mmq su 16nm sarebbe sufficiente a superare 600mmq sui 28nm...
è più probabile che i 16/18 mld di transistor si vedranno con Volta nel fine 2017/2018 ed ultimo giro a 16nm
eppure in tutti i leaks/rumor/anticipazioni varie, si è sempre parlato di 17 milioni di transistor per il full chip
mikael84
01-04-2016, 14:25
C'è qualcosa che non torna, secondo me.
Se così fosse, la GTX 1080 avrebbe lo stesso, identico n° di SP di una TITAN X, il cui chip ha 8 mld di transistor.
Per Pascal si parla di 16/18 mld di transistor: che fine hanno fatto i rimanenti 10 mld????
Anche se questo dato fosse relativo all'eventuale TOP di gamma Pascal Ti (GP100) e non al chip "liscio", ci sarebbe troppa sproporzione: 10 mld di transistor di differenza vuol dire che GP100 avrebbe almeno il doppio degli SP di GP 104, il che lo vedo altamente improbabile. :mbe: :mbe:
Non devi fare il rapporto 1/1 tra 2 architetture.
Il massimo numero di transistor è stato ipotizzato sul potente chippone professionale GP100 che rispettando i 12TF. significa avere SMM maggiorati per la DP e ben 6144 cuda su un 1ghz (raddoppiando le performance per watt di GM200).
C'è anche chi ipotizza 5120cc su un base clock di 1175 fattore che permetterebbe ai "chippini"di lavorare ad un base tranquillamente più elevato.
La DP dichiarata è di 1/3 ma su SMM da 128 puoi fare 1/2-1/4, quindi anche questo è un dato che andrà rivisto a meno di non creare SMM da 144 elementi o stravolgere l'SMM internamente ma è un fattore praticamente impossibile perchè l'SMM si ritroverebbe a sprecare molte risorse.
Su GP104 il raddoppio per watt lo ottieni con soli 7,2TF (1200x3072cc/ 145watt/ 300/350 max mm2)
Bisogna vedere se poi il bus sarà effettivamente quello ma cambierebbe completamente i tagli di memoria.
Per avere 4096 cuda servirebbe un core da almeno 400mm2/TDP maggiorato e l'unica soluzione è quella di metterli in 4 back-end contenenti ben 8 SMM aventi accesso a 32rops, quindi effettivamente avresti 4096 cuda e 128rops.
Fattore anche possibile volendo, dipenderà anche dal nuovo PP.
Oppure anche un bizzarro e 3584/112rops.
Con l'ultima ipotesi si arriverebbe a pari clock ad un 30% oltre la 980ti, con i 4096 cuda su un grosso core come quello di GM204 si supererebbero le 50% di prestazioni oltre GM200.........
paolox86
01-04-2016, 14:39
Intanto Nvidia si sta buttando anche sugli energy drink... 😂
http://uploads.tapatalk-cdn.com/20160401/515b4075ddc068a4963731d8d2ad931c.jpg
Inviato dal mio iPad utilizzando Tapatalk
illidan2000
01-04-2016, 14:39
quindi il doppio dei transistor tra gp104 e gp100 al primo giro dei 16nm o della serie gtx 10xx?
mi sembra davvero tanto, ciò vorrebbe dire che la 1080ti andrebbe come minimo il +80% sulla 1080...
è per questo che abbiamo tutti la bav... ehm, l'acquolina alla bocca.
Secondo quanto è trapelato, dovrebbe essere così!
Crysis90
01-04-2016, 14:44
eppure in tutti i leaks/rumor/anticipazioni varie, si è sempre parlato di 17 milioni di transistor per il full chip
Esatto. Non c'entra nulla Wccftech. Tutti parlano di quella cifra.
quindi il doppio dei transistor tra gp104 e gp100 al primo giro dei 16nm o della serie gtx 10xx?
mi sembra davvero tanto, ciò vorrebbe dire che la 1080ti andrebbe come minimo il +80% sulla 1080...
Ecco perché dicevo che mi sembra strano che GP104 abbia "solo" 3072 SP: perché poi non torna con il n° dei transistor, anche in previsione di come sarà GP100. ;)
Crysis90
01-04-2016, 14:45
Non devi fare il rapporto 1/1 tra 2 architetture.
Il massimo numero di transistor è stato ipotizzato sul potente chippone professionale GP100 che rispettando i 12TF. significa avere SMM maggiorati per la DP e ben 6144 cuda su un 1ghz (raddoppiando le performance per watt di GM200).
C'è anche chi ipotizza 5120cc su un base clock di 1175 fattore che permetterebbe ai "chippini"di lavorare ad un base tranquillamente più elevato.
La DP dichiarata è di 1/3 ma su SMM da 128 puoi fare 1/2-1/4, quindi anche questo è un dato che andrà rivisto a meno di non creare SMM da 144 elementi o stravolgere l'SMM internamente ma è un fattore praticamente impossibile perchè l'SMM si ritroverebbe a sprecare molte risorse.
Su GP104 il raddoppio per watt lo ottieni con soli 7,2TF (1200x3072cc/ 145watt/ 300/350 max mm2)
Bisogna vedere se poi il bus sarà effettivamente quello ma cambierebbe completamente i tagli di memoria.
Per avere 4096 cuda servirebbe un core da almeno 400mm2/TDP maggiorato e l'unica soluzione è quella di metterli in 4 back-end contenenti ben 8 SMM aventi accesso a 32rops, quindi effettivamente avresti 4096 cuda e 128rops.
Fattore anche possibile volendo, dipenderà anche dal nuovo PP.
Oppure anche un bizzarro e 3584/112rops.
Con l'ultima ipotesi si arriverebbe a pari clock ad un 30% oltre la 980ti, con i 4096 cuda su un grosso core come quello di GM204 si supererebbero le 50% di prestazioni oltre GM200.........
Riassumendo, alla fine hai detto quello che ho detto io: che sarebbe strano e non tornerebbero i conti se GP104 avesse "solo" 3072 SP. ;)
mikael84
01-04-2016, 15:03
Riassumendo, alla fine hai detto quello che ho detto io: che sarebbe strano e non tornerebbero i conti se GP104 avesse "solo" 3072 SP. ;)
No tutt'altro, ho analizzato altri ipotetici scenari ma Nvidia non sembra voler realizzare core molto grossi su GP104.
Il rapporto su 145watt è dato appunto da 3072 su un base di 1200mhz e rapportandomi alle 96rops.
Ecco che i 5122cuda finali potrebbero essere lanciati a 1175 base per calcolare 12tf totali.
Prendendo il big chippone, non è assolutamente detto che tutti quei cuda siano rivolti anche alle versioni gaming ma potrebbe essere laserata a 4608cc che significherebbe un 50% di cuda in più come tra 980-titan x.
Ricordo che full Kepler aveva 87,5% di cuda in più rispetto a GK104, immagina questa percentuale su 3072 cuda base
Se metti 4096 cuda crei uno sbilanciamento pazzesco tra GM200 e GP104 e ti ritroveresti vicino a GP100, senza considerare che Nvidia intende realizzare un 300/330mm2 non un 400mm2.
I 3586 ed i 4096 cmq sono un'opzione da non scartare completamente attenzione, ma andrebbe oltre il 50% di una Titan x ed onestamente mi sembra strano, sia in rapporto core/tdp/prestazioni.
fireradeon
01-04-2016, 15:41
Minchia viene il mal di testa con tutti sti numeri!! :D
Speriamo che già lunedì la presentino e che non aspettino l'ultimo giorno, così ci leviamo ogni dubbio e amen.
Speriamo anche che non siano avari di informazioni (bench, release, prezzo anche orientativo etc.).
Crysis90
01-04-2016, 17:14
ah ok :)
Io non credo che gp100 avrà tutti quei transistor ma sui 12 mld: penso sarà come successo con kepler v1/v2 -> maxwell e che quei transistor saranno prodotti al terzo ed ultimo giro con Volta
anche se in realtà gk110 aveva effettivamente il doppio dei transistor di gk104 :asd: ma maxwell ne ha 1 mld in più e ciò vorrebbe dire:
gp104 8mld
gp100 16mld
gv100 18mld
così i conti tornano con gp104, 8 mld, ~3000sp
Non è possibile che GP100 abbia il doppio dei transistor di GP104: vorrebbe dire il doppio degli SP ed il doppio delle performances.
Il che, è assolutamente IMPROBABILE.
Secondo me è improbabile anche che GV100 abbia "solo" 2 mld di transistor in più rispetto a GP100, IMHO.
Crysis90
01-04-2016, 17:16
No tutt'altro, ho analizzato altri ipotetici scenari ma Nvidia non sembra voler realizzare core molto grossi su GP104.
Il rapporto su 145watt è dato appunto da 3072 su un base di 1200mhz e rapportandomi alle 96rops.
Ecco che i 5122cuda finali potrebbero essere lanciati a 1175 base per calcolare 12tf totali.
Prendendo il big chippone, non è assolutamente detto che tutti quei cuda siano rivolti anche alle versioni gaming ma potrebbe essere laserata a 4608cc che significherebbe un 50% di cuda in più come tra 980-titan x.
Ricordo che full Kepler aveva 87,5% di cuda in più rispetto a GK104, immagina questa percentuale su 3072 cuda base
Se metti 4096 cuda crei uno sbilanciamento pazzesco tra GM200 e GP104 e ti ritroveresti vicino a GP100, senza considerare che Nvidia intende realizzare un 300/330mm2 non un 400mm2.
I 3586 ed i 4096 cmq sono un'opzione da non scartare completamente attenzione, ma andrebbe oltre il 50% di una Titan x ed onestamente mi sembra strano, sia in rapporto core/tdp/prestazioni.
Bah, vedremo. Tanto dipenderà anche dall'efficienza dell'architettura, basti vedere la differenza di performance che c'è tra 980 Ti e 780 T che hanno praticamente lo stesso n° di SP. ;)
mikael84
01-04-2016, 17:38
Bah, vedremo. Tanto dipenderà anche dall'efficienza dell'architettura, basti vedere la differenza di performance che c'è tra 980 Ti e 780 T che hanno praticamente lo stesso n° di SP. ;)
Maxwell è tutta un'altra architettura non è minimamente comparabile.
Come scritto qua, ci saranno sicuramente modifiche interne ma Maxwell non verrà stravolto;)
http://www.hwupgrade.it/forum/showpost.php?p=43529953&postcount=22835
mikael84
01-04-2016, 17:46
classica domanda da nabbo, a spanne mikael andranno molto di più delle ti?
Finché non ci saranno dati veritieri difficile darti risposta sicura.
Crysis90
01-04-2016, 21:40
http://wccftech.com/nvidia-ultra-low-level-gameworks-api/
:mbe: :mbe:
Non ho capito se è un pesce d'aprile o cosa...le slides sembrano ufficiali. :mbe: :mbe:
Però se ne parla solo su Wccftech, quindi potrebbe anche esserlo.
http://wccftech.com/nvidia-ultra-low-level-gameworks-api/
:mbe: :mbe:
Non ho capito se è un pesce d'aprile o cosa...le slides sembrano ufficiali. :mbe: :mbe:
Però se ne parla solo su Wccftech, quindi potrebbe anche esserlo.
Dai, come fa ad essere una cosa realistica, G70 era la GPU usata sulle 7800 :D
The new “ultra” low level GameWorks API is supported all the way from the G70 architecture to the upcoming Pascal architecture. The API is even able to almost magically simulate Direct3D 12 on very old architectures such as as the Tesla and G70. We can’t wait to hear more about this at the upcoming demo on GTC 2016 (on 4th April).
E poi comunque l'autore ha scritto un'oretta fa questo
Happy April Fools! Please do remember to recommend and share if you enjoyed reading it. :)
illidan2000
01-04-2016, 23:00
VR Secret Sauce
Nvidia is pretty tight lipped about this one, but from the name, I would hazard to guess that it has something to do with VR
Spider-Mans
02-04-2016, 06:57
tre giorni al green day :D
Spider-Mans
02-04-2016, 06:58
Minchia viene il mal di testa con tutti sti numeri!! :D
Speriamo che già lunedì la presentino e che non aspettino l'ultimo giorno, così ci leviamo ogni dubbio e amen.
Speriamo anche che non siano avari di informazioni (bench, release, prezzo anche orientativo etc.).
il ceo di nvidia parlera il 5 aprile
fireradeon
02-04-2016, 09:30
il ceo di nvidia parlera il 5 aprile
oK martedì quindi.... incrociamo le dita
Kingdemon
02-04-2016, 10:00
Oltre alle specifiche dite che si sapranno anche le date di commercializzazione?
fireradeon
02-04-2016, 11:32
Oltre alle specifiche dite che si sapranno anche le date di commercializzazione?
Si spera
Kingdemon
02-04-2016, 13:13
Si spera
Chiedo perchè non ho mai seguito una presentazione di vga.. ma quest'anno sono a piedi e vorrei prendere una x70/x80 nuova.
Spider-Mans
02-04-2016, 22:34
Oltre alle specifiche dite che si sapranno anche le date di commercializzazione?
beh mi pare il minimo :D
mentre potrebbero non rilevare il prezzo per ora
ma la data di lancio è scontata :D
Kingdemon
02-04-2016, 23:22
Bene dai.
Per il prezzo speriamo sia simile a quello della generazione attuale..
fireradeon
03-04-2016, 08:24
Bene dai.
Per il prezzo speriamo sia simile a quello della generazione attuale..
Io mi auguro non oltre i 650 per la stock!!
aled1974
03-04-2016, 08:56
Bene dai.
Per il prezzo speriamo sia simile a quello della generazione attuale..
ma anche no, speriamo sia inferiore invece, già dal day1 :sperem:
ciao ciao
Kingdemon
03-04-2016, 09:50
Io mi auguro non oltre i 650 per la stock!!
Ma secondo me la ti non verrà presentata.. :stordita:
Sono ancora in fullhd quindi la X70 per me andrà benissimo.
ma anche no, speriamo sia inferiore invece, già dal day1 :sperem:
ciao ciao
Non sarebbe male ma se mantengono gli attuali sono già contento.
Poi mi prendo una 970 usata per l'htpc ;)
fireradeon
03-04-2016, 12:49
Ma secondo me la ti non verrà presentata.. :stordita:
Sono ancora in fullhd quindi la X70 per me andrà benissimo.
Non sarebbe male ma se mantengono gli attuali sono già contento.
Poi mi prendo una 970 usata per l'htpc ;)
Ovvio, qui presentano solo la 1080 (poi magari ci può stare la sorpresona ma dubito). Cmq incredibile come a meno di 24 ore dall'evento non ci siano leaked affidabili ma solo rumor più o meno indovinati.
A dimostrazione che quando qualcuno vuole realmente tenere un segreto ci riesce.
aled1974
03-04-2016, 20:48
Ovvio, qui presentano solo la 1080 (poi magari ci può stare la sorpresona ma dubito). Cmq incredibile come a meno di 24 ore dall'evento non ci siano leaked affidabili ma solo rumor più o meno indovinati.
A dimostrazione che quando qualcuno vuole realmente tenere un segreto ci riesce.
difficile dimenticarsi una gpu al tavolino del cocktail bar e spacciarla per "sbadataggine" :asd:
ciao ciao
Obrigado
03-04-2016, 21:07
un po' di mangime....
http://videocardz.com/58743/nvidia-pascal-prototype-gpus-analysis
fraussantin
03-04-2016, 21:43
mi iscrivo....
L'hai fatta la tua ......
XDXDXDXD
Crysis90
03-04-2016, 21:44
un po' di mangime....
http://videocardz.com/58743/nvidia-pascal-prototype-gpus-analysis
http://wccftech.com/nvidia-geforce-pascal-coming-computex/
Ce n'è un pò anche qui.
Sembra confermato il debutto per fine Maggio/inizio Giugno 2016 per GP104.
Crysis90
03-04-2016, 21:46
L'hai fatta la tua ......
XDXDXDXD
:asd: :asd:
Tra 48 ore, SCATENATE L'INFERNO su questo thread!! :asd:
Sir Alamon
04-04-2016, 08:18
quindi ci sarà da aspettare fine anno per le 1080ti
:(
Nelson Muntz
04-04-2016, 08:21
quindi ci sarà da aspettare fine anno per le 1080ti
:(
No , il 2017
Legolas84
04-04-2016, 08:22
La top di gamma 2016 sarà gp104 mentre la top di gamma 2017 sarà gp100 imho
Inviato dal mio ONE A2003 utilizzando Tapatalk
aled1974
04-04-2016, 08:29
quindi ci sarà da aspettare fine anno per le 1080ti
:(
No , il 2017
se le voci non vengono smentite dopodomani :sofico: direi anch'io 2017, dalla metà in poi, probabilmente più verso il back to school 2017 che l'end of school
ciao ciao
CiccoMan
04-04-2016, 08:42
se le voci non vengono smentite dopodomani :sofico: direi anch'io 2017, dalla metà in poi, probabilmente più verso il back to school 2017 che l'end of school
ciao ciao
Mi pare troppo in la... io comunque me lo auguro :D
Aver comprato la 980 appena uscita sui è rivelato uno degli acquisti più azzeccati dalla storia :Prrr:
Legolas84
04-04-2016, 08:53
Penso che sarà uguale... Chi si fa SLI di gp104 andrà alla grande fino a volta
Inviato dal mio ONE A2003 utilizzando Tapatalk
sertopica
04-04-2016, 09:24
Leggevo su tweaktown che nel frattempo nvidia sta per fermare la produzione di 980 Ti, quindi prevedo un'ultima impennata di prezzi per queste schede.
MrBrillio
04-04-2016, 09:31
Leggevo su tweaktown che nel frattempo nvidia sta per fermare la produzione di 980 Ti, quindi prevedo un'ultima impennata di prezzi per queste schede.
Sarebbe buono vendere le 980Ti in quel frangente...magari si raccimola qualche spiccio in più :D
Anche se personalmente non so quanto convenga vendere uno SLi di 980Ti per passare alla prima generazione di pascal...forse giusto giusto in ottica di perderci il meno possibile..boh
aled1974
04-04-2016, 09:35
se sei in sli vendine una sola :D
ciao ciao
sertopica
04-04-2016, 09:36
Io non ci vedo nessun vantaggio, credo che al max andranno un 20-30% in piu' della Ti (ecco perche' mi viene da pensare che le stiano per fare fuori per questo motivo), il che non mi basta per aggiornare... Per inciso non si riuscirebbe comunque a far girare bene un titolo in 4K, in 2K si avrebbero i 60 fps ma non 120 o addirittura 140, salvo rinunciare ai dettagli. Per esempio un gioco come Metal Gear Solid che e' comunque uscito l'anno scorso richiede per forza di cose un 4K per avere una qualita' visiva decente, altrimenti e' il festival dell'aliasing temporale. In 2K su monitor nativo e' inguardabile.
TigerTank
04-04-2016, 10:02
Sarebbe buono vendere le 980Ti in quel frangente...magari si raccimola qualche spiccio in più :D
Anche se personalmente non so quanto convenga vendere uno SLi di 980Ti per passare alla prima generazione di pascal...forse giusto giusto in ottica di perderci il meno possibile..boh
Con uno Sli di 980Ti io tirerei tranquillamente fino alle full pascal ;)
Con uno Sli di 980Ti io tirerei tranquillamente fino alle full pascal ;)
È quanto farò io ..
fireradeon
04-04-2016, 10:56
Io aspetto solo di sapere quanto andranno di più le 1080 e poi mi sa che vado di SLI, se avevo uno sli di 980Ti non avrei fatto il passo, ma ormai forse non ha senso prendere la secondo 980Ti a 2 mesi dalla commercializzazione delle nuove. Certo se poi le sparano a 1000 euro l'una il discorso cambia.
Ormai poco più di 24 ore e poi questo thread prende 10 pagine in un attimo. :D
Sarebbe buono vendere le 980Ti in quel frangente...magari si raccimola qualche spiccio in più :D
Anche se personalmente non so quanto convenga vendere uno SLi di 980Ti per passare alla prima generazione di pascal...forse giusto giusto in ottica di perderci il meno possibile..boh
É il solito discorso di sempre :muro:
Io tirerei volentieri fino a Pasquale pieno.
se sei in sli vendine una sola :D
ciao ciao
Sarebbe da fare così, il problema è che ad esempio non lo posso fare una sola non mi basta
MrBrillio
04-04-2016, 11:27
Con uno Sli di 980Ti io tirerei tranquillamente fino alle full pascal ;)
Sì sì ovviamente però poi tocca regalarle, mentre se si riesce a venderle un pelo prima almeno un 200€ in più me le faccio.. Non a scheda Eh, intendo vendendo l intero sli. Ma in ogni caso le pascal in uscita dovrebbero andare più o meno come le 980ti no? Inoltre c'é mica in ballo anche la versione con le hbm?
Inviato dal mio SM-N910F utilizzando Tapatalk
Giovamas
04-04-2016, 11:48
io aspetto il full Pascal. A meno di qualcosa più del 20%:)
Bartsimpson
04-04-2016, 11:54
Sì sì ovviamente però poi tocca regalarle, mentre se si riesce a venderle un pelo prima almeno un 200€ in più me le faccio.. Non a scheda Eh, intendo vendendo l intero sli. Ma in ogni caso le pascal in uscita dovrebbero andare più o meno come le 980ti no? Inoltre c'é mica in ballo anche la versione con le hbm?
Inviato dal mio SM-N910F utilizzando Tapatalk
Dipende da velocità e prezzi delle nuove. Certo che se una ipotetica 1080 costasse 500 Euro e fosse il 30% più veloce, consumando il 50% in meno e la metà più piccola come dimensioni... La 980ti faresti fatica a venderla a più di 300 Euro mentre adesso potresti prendere ancora notevolmente di più e la faresti fuori in poco tempo. D'altronde vedo persone che continuano a comprare le 970 usate a 270 Euro!!! :doh:
illidan2000
04-04-2016, 11:59
Dipende da velocità e prezzi delle nuove. Certo che se una ipotetica 1080 costasse 500 Euro e fosse il 30% più veloce, consumando il 50% in meno e la metà più piccola come dimensioni...cut
anche se consuma il 20% in meno, ne prenderei 2 :D
TigerTank
04-04-2016, 14:16
Sì sì ovviamente però poi tocca regalarle, mentre se si riesce a venderle un pelo prima almeno un 200€ in più me le faccio.. Non a scheda Eh, intendo vendendo l intero sli. Ma in ogni caso le pascal in uscita dovrebbero andare più o meno come le 980ti no? Inoltre c'é mica in ballo anche la versione con le hbm?
Sì, volendo potresti fare anche così....io sinceramente non ci sono mai riuscito. Cioè prima compro la nuova e poi vendo la vecchia, non riesco ad arrancare per un tot. di tempo :D
Le HBM2 Samsung e Hynix saranno sulle fullgpu del 2017, sulle pascal 1070/1080 da quello che mi è parso di aver capito ci saranno le gddr5x Micron/Elpida.
illidan2000
04-04-2016, 14:33
Sì, volendo potresti fare anche così....io sinceramente non ci sono mai riuscito. Cioè prima compro la nuova e poi vendo la vecchia, non riesco ad arrancare per un tot. di tempo :D
Le HBM2 Samsung e Hynix saranno sulle fullgpu del 2017, sulle pascal 1070/1080 da quello che mi è parso di aver capito ci saranno le gddr5x Micron/Elpida.
ci vorrebbe se no una scheda/muletto. tipo una vecchia gtx580, giusto per fare il boot di sistema e giocare a pacman...
TigerTank
04-04-2016, 14:34
ci vorrebbe se no una scheda/muletto. tipo una vecchia gtx580, giusto per fare il boot di sistema e giocare a pacman...
Eheheh o collegare l'integrata del processore :D
No no io non ci riuscirei...anche perchè non mi lancio più su nuove schede al day one ma aspetto come minimo un paio di mesi per vedere le varie custom.
Per non parlare delle sorpresine a posteriori, tra regolatori bloccati, vram tot.+tot., ecc.. :sofico:
illidan2000
04-04-2016, 14:46
Eheheh o collegare l'integrata del processore :D
No no io non ci riuscirei...anche perchè non mi lancio più su nuove schede al day one ma aspetto come minimo un paio di mesi per vedere le varie custom.
Per non parlare delle sorpresine a posteriori, tra regolatori bloccati, vram tot.+tot., ecc.. :sofico:
su x99 purtroppo manco c'è l'integrata....
A sto giro, invece, vorrei proprio prenderla al day-one. La gtx970 costa più ora di quanto l'ho pagata io!
Non sono un gran cloccatore/modder. L'unica cosa che voglio è un dissipatore ad aria decente! E all'inizio penso non ci saranno custom, come al solito:mc:
il mio "sogno" cmq, sarebbe una waterforce o simili (un sistema AIO). Anche eVga ne fa uno
Riguardo Pascal Mobile solitamente quanto tempo passa dall'uscita versione desktop?
Per Natale c'è speranza di vedere qualcosa?
fraussantin
04-04-2016, 14:50
ci vorrebbe se no una scheda/muletto. tipo una vecchia gtx580, giusto per fare il boot di sistema e giocare a pacman...
Per quello basta la intel che hai stock.
illidan2000
04-04-2016, 15:03
Per quello basta la intel che hai stock.
ripeto, l'ecosistema x99 non ha scheda integrata nel processore... :)
Bartsimpson
04-04-2016, 15:33
ci vorrebbe se no una scheda/muletto. tipo una vecchia gtx580, giusto per fare il boot di sistema e giocare a pacman...
Illidan se vuoi scambiare una delle tue con una Gtx580 sai dove trovarmi eh :sofico:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.