View Full Version : GeForce GTX 880 e 870: al debutto per fine anno, a 28 nanometri
Redazione di Hardware Upg
19-06-2014, 13:15
Link alla notizia: http://www.hwupgrade.it/news/skvideo/geforce-gtx-880-e-870-al-debutto-per-fine-anno-a-28-nanometri_52854.html
Nuove indiscrezioni sulle GPU top di gamma di NVIDIA basate su architettura Maxwell. A dispetto delle iniziali previsioni verranno inizialmente costruite con tecnologia produttiva a 28 nanometri, viste le difficoltà di TSMC con processo a 20 nanometri
Click sul link per visualizzare la notizia.
... Si ripete quanto già visto con 680 e 670... quindi il "vero" successore della 780 sarà la 980...
PhoEniX-VooDoo
19-06-2014, 13:21
tutto bello, ma cosa ci facciamo girare? :fagiano:
TigerTank
19-06-2014, 13:26
tutto bello, ma cosa ci facciamo girare? :fagiano:
Quello dipende anche da come uno gioca....se sai sfruttare ben bene il pc tra downsampling e altri abbellimenti esclusivi (mod grafiche, filtri, ecc...) che su console non hai, l'hardware lo sfrutti per benino al massimo anche appunto tirando giochi che di base sono leggeri o semplici porting.
Senza contare il discorso monitor...per fine anno magari ci saranno già soluzioni 4K appetibili e c'è sicuramente chi si sparerà un paio di queste. :D
gd350turbo
19-06-2014, 13:34
... Si ripete quanto già visto con 680 e 670... quindi il "vero" successore della 780 sarà la 980...
A parte il fatto che al computex, non c'era il minimo accenno ad una nuova serie di schede e mi pare molto strano, che non mettano neanche una foto di un possibile prototipo !
Sanno bene che li fuori cè un esercito di inscimmiati che appena vedono qualcosa che inzia per 8, e/o che ha il nome maxwell scritto da qualche parte, si venderebbero i denti d'oro della nonna per prenderla !
Quindi perchè rinunciare a questa montagna di soldi ?
Littlesnitch
19-06-2014, 13:58
A parte il fatto che al computex, non c'era il minimo accenno ad una nuova serie di schede e mi pare molto strano, che non mettano neanche una foto di un possibile prototipo !
Sanno bene che li fuori cè un esercito di inscimmiati che appena vedono qualcosa che inzia per 8, e/o che ha il nome maxwell scritto da qualche parte, si venderebbero i denti d'oro della nonna per prenderla !
Quindi perchè rinunciare a questa montagna di soldi ?
Perché se questo come da rumor sarà un GM104 o nVidia ha trovato l'uovo di colombo oppure a 28nm andrà al massimo come GK110, quindi non vedo come possano far venire la bava agli inscimmiati. Certo che se siamo veramente a questo punto con i 20nm la vedo molto brutta per le nuove VGA.
Quindi perchè rinunciare a questa montagna di soldi ?
Ma infatti hanno pienamente ragione a farlo, finché ci sono quelli che prima spendono per la serie "castrata" (immagino che da 780 a 880 il guadagno prestazionale sarà sullo stesso livello di 580->680) e poi ne spendono altrettanti (o più) per la "full-edition" (680->780)... :fagiano:
gd350turbo
19-06-2014, 14:03
Perché se questo come da rumor sarà un GM104 o nVidia ha trovato l'uovo di colombo oppure a 28nm andrà al massimo come GK110, quindi non vedo come possano far venire la bava agli inscimmiati. Certo che se siamo veramente a questo punto con i 20nm la vedo molto brutta per le nuove VGA.
E' la natura stessa dell'inscimmiato che facilita le cose !
tutto bello, ma cosa ci facciamo girare? :fagiano:
Tutto quello che c'è già ma a 4K? Magari senza dover montare Triple-SLi o CrossFire. Per il resto le GPU attuali di fascia medio-alta/alta saranno ancora i best buy.
gd350turbo
19-06-2014, 14:08
Poi stanno arrivando gli 8K, quindi !
Littlesnitch
19-06-2014, 14:17
Tutto quello che c'è già ma a 4K? Magari senza dover montare Triple-SLi o CrossFire. Per il resto le GPU attuali di fascia medio-alta/alta saranno ancora i best buy.
Si come no! Con un incremento del 20 massimo 25% di prestazioni tra GK110 e GM110 ci giochi in 4K! Poi qualcuno ti da un pizzicotto e ti svegli :D
Littlesnitch
19-06-2014, 14:18
E' la natura stessa dell'inscimmiato che facilita le cose !
No quelli più che inscimmiati sono dementi!
gd350turbo
19-06-2014, 14:24
No quelli più che inscimmiati sono dementi!
ehehehe...
non volevo essere così diretto !
tutto bello, ma cosa ci facciamo girare? :fagiano:
appunto.
Vga potenti le abbiamo già , ora servono cervelli..
pin-head
19-06-2014, 15:08
Be', a me una scheda potente serve per l'oculus rift DK2: deve tenere il full HD @75 fps.
Cosa prendo? ho una 560 Ti, che immagino non basterà. Nel muletto ho una GTX 260 :)
Dato che il DK2 mi arriva (probabilmente) a luglio, prenderei una 770 e rifarei il muletto ad hoc per usarlo con l'oculus, ma ho alternative alla 770? Potrei anche accontentarmi di qualcosa di meno, e aspettare la fine dell'anno per prendere una maxwell.. ma non mi sembra saggissimo.
mirkonorroz
19-06-2014, 15:09
appunto.
Vga potenti le abbiamo già , ora servono cervelli..
Cervelli (http://www.youtube.com/watch?v=0pOI4LvebEk&feature=player_detailpage#t=36):D
Ale55andr0
19-06-2014, 15:12
il bus a 256bit e i 32 rops sinceramente mi stonano un po', anche se certo essendo una nuova architettura i numeri non sono confrontabili 1:1 col passato
TigerTank
19-06-2014, 15:14
Poi stanno arrivando gli 8K, quindi !
Lol....già i 4K non saranno sfruttati al 100% ancora per un bel pezzo....chissà gli 8K :sofico:
Ci vorranno un 4-5 generazioni di vga.
gd350turbo
19-06-2014, 15:21
Lol....già i 4K non saranno sfruttati al 100% ancora per un bel pezzo....chissà gli 8K :sofico:
Ci vorranno un 4-5 generazioni di vga.
Eh se...
bastano un paio di recensioni di monitor 8k e vedi te il popolo degli inscimmiati come parte alla carica !
CrapaDiLegno
19-06-2014, 16:34
Perché se questo come da rumor sarà un GM104 o nVidia ha trovato l'uovo di colombo oppure a 28nm andrà al massimo come GK110, quindi non vedo come possano far venire la bava agli inscimmiati. Certo che se siamo veramente a questo punto con i 20nm la vedo molto brutta per le nuove VGA.
L'articolo riporta:
GM204, questo il nome in codice della GPU che verrà utilizzata su queste schede, dovrebbe integrare stando alle indiscrezioni ben 3.200 stream processors, 200 TMUs e 32ROPs abbinandosi ad un bus memoria da 256bit
Se veri non mi sembrano i numeri del GK110.
Al massimo si alzeranno i consumi, anche se visto come va il GM107 direi neanche di tanto.
Per quanto riguarda la questione:
E' a questo punto evidente come NVIDIA stia incontrando non pochi problemi di rese produttive con tecnologia a 20 nanometri.
è evidente che non sappiate di cosa state parlando.
I 20nm per ora non ci sono e quindi non c'è resa. Inoltre sono solo per architetture low power (SoC) e quindi non utili per le GPU. Inoltre credere che nvidia abbia fatto il tapeout a 20nm di Maxwell e stia ora pensando di rifare tutto a 28nm per uscire a fine anno è praticamente impossibile.
Il progetto è probabilmente già tutto a 28nm e nvidia sta cercando di migliorare (o sta aspettando che migliori) il proceso produttivo per aumentre quanto più possibile le frequenze senza costruire un forno da 350W o più.
Per quanto l'architettura Maxwell potrà essere super ottimizzata ho il dubbio che questo GM204 sarà un padellone enorme simile al GK110 e quindi non avrà certo un costo irrisorio. Deve andare più del GK110 se vuole venderlo. E quindi non può castrarlo in frequenza. E quindi deve consumare poco. E quindi deve avere un processo produttivo a 28nm super ottimizzato.
Comunque se nvidia ha fatto Maxwell a 28nm per davvero significa che o i 20nm sono lontani o più probabilmente non verranno mai usati in attesa dei 16nm (che sono i 20nm in tecnologia finfet) previsti 12 mesi dopo la disponibilità dei 20nm che saranno sviluppati anche per le architeture high power.
Sawato Onizuka
19-06-2014, 16:37
:mbe: :confused: queste sarebbero MAXWELL....e non vi andrebbe bene....forse dimenticate con 750 e 750 ti dove sta la differenza* rispetto un qualsiasi GK1xx :stordita:
*al sottoscritto importa, a voi no? Problema vostro :read:
Si come no! Con un incremento del 20 massimo 25% di prestazioni tra GK110 e GM110 ci giochi in 4K! Poi qualcuno ti da un pizzicotto e ti svegli :D
Lavori in nVidia e divulghi risultati prestazionali così come niente?
Thunder-74
19-06-2014, 18:25
Io sarei contento se la 870 avesse prestazioni simili alla 780ti, ma con consumi e temp inferiori... Sai che gusto a 'occare :0)
tutto bello, ma cosa ci facciamo girare? :fagiano:
The witcher 3 in sucita a febbraio 2015 a dettaglio ultra ( che a detto degli sviluppatori, sarà qualcosa di mai visto prima )
Da parte mia, avevo preso una 770 in attesa della serie 800 a fine di quest'anno, ma se sarà ancora .28 ho grossi dubbi...
Attenderò febbraio e valuterò a suo tempo cosa offriranno nvidia e amd
Littlesnitch
19-06-2014, 19:38
Lavori in nVidia e divulghi risultati prestazionali così come niente?
Non serve lavorare in nVidia, e ogni volta che annunciano qualcosa ripeto la stessa cosa e puntualmente c'è un commento uguale al tuo. Peccato che poi vai a vedere le recensioni al lancio per verificare che ho azzeccato in pieno.
Sono oramai una decina di generazioni che l'aumento prestazionale tra generazioni è del 20% in media, con punte del 25% e altre volte dove non è stata cambiata l'architettura anche qualcosa sotto al 20%. Poi rimanendo a 28nm non credo che si arriverà nemmeno al 20%.
Littlesnitch
19-06-2014, 19:48
L'articolo riporta:
Se veri non mi sembrano i numeri del GK110.
Al massimo si alzeranno i consumi, anche se visto come va il GM107 direi neanche di tanto.
Per quanto riguarda la questione:
è evidente che non sappiate di cosa state parlando.
I 20nm per ora non ci sono e quindi non c'è resa. Inoltre sono solo per architetture low power (SoC) e quindi non utili per le GPU. Inoltre credere che nvidia abbia fatto il tapeout a 20nm di Maxwell e stia ora pensando di rifare tutto a 28nm per uscire a fine anno è praticamente impossibile.
Il progetto è probabilmente già tutto a 28nm e nvidia sta cercando di migliorare (o sta aspettando che migliori) il proceso produttivo per aumentre quanto più possibile le frequenze senza costruire un forno da 350W o più.
Per quanto l'architettura Maxwell potrà essere super ottimizzata ho il dubbio che questo GM204 sarà un padellone enorme simile al GK110 e quindi non avrà certo un costo irrisorio. Deve andare più del GK110 se vuole venderlo. E quindi non può castrarlo in frequenza. E quindi deve consumare poco. E quindi deve avere un processo produttivo a 28nm super ottimizzato.
Comunque se nvidia ha fatto Maxwell a 28nm per davvero significa che o i 20nm sono lontani o più probabilmente non verranno mai usati in attesa dei 16nm (che sono i 20nm in tecnologia finfet) previsti 12 mesi dopo la disponibilità dei 20nm che saranno sviluppati anche per le architeture high power.
Se il GM204 sarà un padellone tipo GK110, allora vuol dire che nn ci sarà alcun GM110! Poi a giudicare dai numeri del GM107 credo che sarà impossibile avere 3200 Sp ma più credibilmente 2200, altrimenti se fossero veramente 3200 con l'efficenza di quelli del GM107 avremo di fronte un vero mostro!
Non serve lavorare in nVidia, e ogni volta che annunciano qualcosa ripeto la stessa cosa e puntualmente c'è un commento uguale al tuo. Peccato che poi vai a vedere le recensioni al lancio per verificare che ho azzeccato in pieno.
Sono oramai una decina di generazioni che l'aumento prestazionale tra generazioni è del 20% in media, con punte del 25% e altre volte dove non è stata cambiata l'architettura anche qualcosa sotto al 20%. Poi rimanendo a 28nm non credo che si arriverà nemmeno al 20%.
in effetti non ci vuole la palla di vetro..
PaulGuru
19-06-2014, 20:45
Non serve lavorare in nVidia, e ogni volta che annunciano qualcosa ripeto la stessa cosa e puntualmente c'è un commento uguale al tuo. Peccato che poi vai a vedere le recensioni al lancio per verificare che ho azzeccato in pieno.
Sono oramai una decina di generazioni che l'aumento prestazionale tra generazioni è del 20% in media, con punte del 25% e altre volte dove non è stata cambiata l'architettura anche qualcosa sotto al 20%. Poi rimanendo a 28nm non credo che si arriverà nemmeno al 20%.
Ma le cavolate le spari per hobby ? Quindi secondo te se per qualche volta c'è stato un incremento del 20% per step vuol dire che ci sarà anche stavolta ?
Prima di tutto da Fermi a Kepler l'incremento è stato di oltre un 30% fra 580 e 680 e in secondis un core Maxwell è molto più prestante ed efficiente di quello Kepler, basti vedere la 750Ti che con meno stream va di più della controparte Kepler con quasi la metà del consumo.
Quindi pensa ad una scheda basata su Maxwell addirittura con più stream e pure con una frequenza più elevata .......
CrapaDiLegno
19-06-2014, 22:42
Se il GM204 sarà un padellone tipo GK110, allora vuol dire che nn ci sarà alcun GM110! Poi a giudicare dai numeri del GM107 credo che sarà impossibile avere 3200 Sp ma più credibilmente 2200, altrimenti se fossero veramente 3200 con l'efficenza di quelli del GM107 avremo di fronte un vero mostro!
Certamente non si avrà un GM110 a 28nm, quello è sicuro. Ma un GM204 grande quasi come un GK110 che va qualcosa di più è possibile. nvidia ha la capacità di costruire padelloni del genere ed essere in grado di venderli con profitto.
Ma le cavolate le spari per hobby ? Quindi secondo te se per qualche volta c'è stato un incremento del 20% per step vuol dire che ci sarà anche stavolta ?
Prima di tutto da Fermi a Kepler l'incremento è stato di oltre un 30% fra 580 e 680 e in secondis un core Maxwell è molto più prestante ed efficiente di quello Kepler, basti vedere la 750Ti che con meno stream va di più della controparte Kepler con quasi la metà del consumo.
Quindi pensa ad una scheda basata su Maxwell addirittura con più stream e pure con una frequenza più elevata .......
Direi sì, che e spara più per professione che per hobby. Oppure stava pensando a AMD con Tahiti piuttosto che a nvidia.
Da Fermi a Kepler altro che 20-25%. La 580 montava la padella GF110 la 680 il chip di dimensioni medie e quest'ultimo andava decisamente di più. Quando è arrivato il GK110 (che è il vero erede del GF110 montato nelle 580) altro che 20-25-30% in più.
Ogni generazione, a meno di fallimenti clamorosi (tipo Fermi prima generazione) raddoppia almeno le prestazioni rispetto alla precedente. D'altronde non è difficile con architetture che scalano praticamente in maniera lineare con il numero di componenti inseriti e la possibilità di raddoppiarli ad ogni die shrink.
Il GM204 è sì fatto sempre a 28nm (sembra), ma monta più unità di calcolo dei GK110 (anche se con un bus più stretto) e vista l'efficienza mostrata dall'architettura Maxwell con il GM107, direi che sarà più veloce del GK110, sia per i giochi che per il GPGPU (vedere come va il GM107 nei vari test di computazione).
Certo, l'incremento in questo confronto non sarà altissimo (per i giochi, per il GPGPU aspetterei a dirlo ma credo che un 2x a parità di unità di calcolo ci sta tutto), ma stiamo sempre paragonando il mega super big chippone non plus ultra Kepler con il medio formato Maxwell, in attesa che questo nuovo benedetto PP diventi disponibile per ridurre tutto e finalmente più che raddoppiare le prestazioni rispetto a Kepler.
Il 20% (o spesso anche meno) io lo vedo solo dove si tarocca un po' l'architettura e la si pompa di qualche MHz (chi ha detto Fermi v1 vs Fermi v2 o tutti i rifacimenti di AMD degli stessi chippetti?).
tutto bello, ma cosa ci facciamo girare? :fagiano:
Un qualsiasi titolo di media/bassa pesantezza sulla versione consumer di Oculus Rift
:)
Littlesnitch
20-06-2014, 05:41
Ma le cavolate le spari per hobby ? Quindi secondo te se per qualche volta c'è stato un incremento del 20% per step vuol dire che ci sarà anche stavolta ?
Prima di tutto da Fermi a Kepler l'incremento è stato di oltre un 30% fra 580 e 680 e in secondis un core Maxwell è molto più prestante ed efficiente di quello Kepler, basti vedere la 750Ti che con meno stream va di più della controparte Kepler con quasi la metà del consumo.
Quindi pensa ad una scheda basata su Maxwell addirittura con più stream e pure con una frequenza più elevata .......
Certamente non si avrà un GM110 a 28nm, quello è sicuro. Ma un GM204 grande quasi come un GK110 che va qualcosa di più è possibile. nvidia ha la capacità di costruire padelloni del genere ed essere in grado di venderli con profitto.
Direi sì, che e spara più per professione che per hobby. Oppure stava pensando a AMD con Tahiti piuttosto che a nvidia.
Da Fermi a Kepler altro che 20-25%. La 580 montava la padella GF110 la 680 il chip di dimensioni medie e quest'ultimo andava decisamente di più. Quando è arrivato il GK110 (che è il vero erede del GF110 montato nelle 580) altro che 20-25-30% in più.
Ogni generazione, a meno di fallimenti clamorosi (tipo Fermi prima generazione) raddoppia almeno le prestazioni rispetto alla precedente. D'altronde non è difficile con architetture che scalano praticamente in maniera lineare con il numero di componenti inseriti e la possibilità di raddoppiarli ad ogni die shrink.
Il GM204 è sì fatto sempre a 28nm (sembra), ma monta più unità di calcolo dei GK110 (anche se con un bus più stretto) e vista l'efficienza mostrata dall'architettura Maxwell con il GM107, direi che sarà più veloce del GK110, sia per i giochi che per il GPGPU (vedere come va il GM107 nei vari test di computazione).
Certo, l'incremento in questo confronto non sarà altissimo (per i giochi, per il GPGPU aspetterei a dirlo ma credo che un 2x a parità di unità di calcolo ci sta tutto), ma stiamo sempre paragonando il mega super big chippone non plus ultra Kepler con il medio formato Maxwell, in attesa che questo nuovo benedetto PP diventi disponibile per ridurre tutto e finalmente più che raddoppiare le prestazioni rispetto a Kepler.
Il 20% (o spesso anche meno) io lo vedo solo dove si tarocca un po' l'architettura e la si pompa di qualche MHz (chi ha detto Fermi v1 vs Fermi v2 o tutti i rifacimenti di AMD degli stessi chippetti?).
Vedo che con i funboy nVidia è inutile. Ci sono le recensioni a parlar chiaro.
Il successore del GF110 è stato il GK104 visto che nVidia lo ha venduto a 600€, quindi poche storie, il GK110 è uscito 12 mesi dopo e guarda caso quanto va di più una 780 rispetto ad una 680? :fagiano:
P.S. Tanto per dire gli incrementi maggiori in % negli ultimi anni li ha dati AMD visto che era in ritardo ed ha raggiunto nVidia. Adesso non ho tempo e voglia di tirar su tutte le recensioni degli ultimi 7-8 anni ma credo che siate in grado di usare Google.
Se davvero l'incremento sarà di un misero 20/30% (come praticamente ad ogni nuova generazione di GPU dopotutto, non ci troverei niente di strano) vorrà dire che approfitterò di qualche scimmiato che mette la sua 780ti nel mercatino e mi faccio lo SLI. :ciapet:
Per poi magari pentirmente amaramente come tutte le volte che ho provato un dual GPU, tutto dipenderà se GTA5 e TW3 supporteranno lo SLI come si deve. :stordita:
Littlesnitch
20-06-2014, 07:18
Se davvero l'incremento sarà di un misero 20/30% (come praticamente ad ogni nuova generazione di GPU dopotutto, non ci troverei niente di strano) vorrà dire che approfitterò di qualche scimmiato che mette la sua 780ti nel mercatino e mi faccio lo SLI. :ciapet:
Per poi magari pentirmente amaramente come tutte le volte che ho provato un dual GPU, tutto dipenderà se GTA5 e TW3 supporteranno lo SLI come si deve. :stordita:
No, non è un misero 20-30%, tutt'altro, è quello che si può fare tra un'architettura e un'altra. Soprattutto se poi devi mantenere un PP che oramai ha già dato praticamente tutto quello che doveva dare. Se già sarà un 20% sarà già un mezzo miracolo per nVidia-AMD e vorrà dire che hanno lavorato alla grande, se poi dovesse essere di più sarà tutto grasso che cola.
P.S. Per i fun, anch'io sarei ben felice se ci fosse un 50% ad ogni gen, ma preferisco essere realista ed essere sorpreso piacevolmente.
tutto bello, ma cosa ci facciamo girare? :fagiano:
Project Cars, Gta V e The Witcher 3. Già per farli girare a 120fps in FullHD una singola 780 non basta di sicuro.
CrapaDiLegno
20-06-2014, 08:50
Vedo che con i funboy nVidia è inutile. Ci sono le recensioni a parlar chiaro.
Il successore del GF110 è stato il GK104 visto che nVidia lo ha venduto a 600€, quindi poche storie, il GK110 è uscito 12 mesi dopo e guarda caso quanto va di più una 780 rispetto ad una 680? :fagiano:
P.S. Tanto per dire gli incrementi maggiori in % negli ultimi anni li ha dati AMD visto che era in ritardo ed ha raggiunto nVidia. Adesso non ho tempo e voglia di tirar su tutte le recensioni degli ultimi 7-8 anni ma credo che siate in grado di usare Google.
Scusa ma che stai dicendo?
Il successore del GF110 è il GK110. Il fatto che nvidia abbia vendutoi il GK104 al prezzo del GK110 è tutto "merito" di AMD con il suo Tahiti che sì andava solo il 25-30% in più di Cypress e quindi non tanto più dello stesso GK104.
Stiamo parlando di politiche di marketing o di tecnologia?
Il confronto del GK110 lo devi fare con il GF110, non con il GK104. Mi vorresti dire che il GK110 va il 20-30% in più del GF110?
Il 20% che dici tu è comparando due chip di dimensioni diverse.
Quindi direi che il GM204 andrà qualcosa in più del GK110, ma stiamo sempre comparando 2 GPU di caratura diversa.
Ti devi essere parecchio confuso, comunque. AMD non ha fatto alcun miracolo rispetto alla generazione vecchia, anzi. Tahiti andava solo poco di più di un chip di pari dimensioni della generazione precedente (le parole di nvidia alla presentazione di Tahiti hanno ben descritto la situazione e i 3 anni successivi hanno ben dimostrato che avevano ragione lasciandoci con un chip di fascia media ai prezzi di quella enthusiast) e rispetto a quello nvidia ha efficienza minore parlando di area/consumi e c'è voluto Hawaii che è una mezza padella pure lui per riuscire a rivaleggiare con il GK110. In termini di prestazione è riuscita quasi a colmare il gap ma l'efficienza è scesa ulteriormente.
La generazione precedente di AMD rivaleggiava con i chip nvidia usando die di dimensioni decisamente minori. Ottima per il rendering 3D, ma non aveva quella flessibilità necessaria per il GPGPU. Flessibilità guadagnata (alla grande) con GCN ma a spese dell'efficienza complessiva (cosa che nvidia aveva già pagato al tempo del G200).
Per questo mi sa che ti sei confuso dicendo che da una generazione alla successiva il guadagno è "solo" del 20%. Ripeto, lo è se paragoni chip di classe differente (il non plus ultra della precedente con il medio della attuale), altrimenti le prestazioni quasi raddoppiano (nel GPGPU la cosa è decisamentre più variabile visto che lì l'architettura che sta alla base conta molto di più del semplice numero di unità di calcolo messe a disposzione e Maxwell rispetto a Kepler sembra offrire una efficienza molto superiore sia per i consumi che per le prestazioni a parità di unità di calcolo).
Vedremo comunque comne andrà questo Maxwell a 28nm e cosa proporrà di contro AMD, sempre se proporrà ancora qualcosa con questo PP. Mi sembra che, a differenza di nvidia, AMD non abbia alcuna intenzione di rivoluzionare la propria architettura (e ora con Mantle direi che si è un po' auto azzoppata se vuole mantanere la compatibilità) e Hawaii è già un chip al limite di quello che il PP a 28nm può offrire con GCN.
Goofy Goober
20-06-2014, 09:11
Quello dipende anche da come uno gioca....se sai sfruttare ben bene il pc tra downsampling e altri abbellimenti esclusivi (mod grafiche, filtri, ecc...) che su console non hai, l'hardware lo sfrutti per benino al massimo anche appunto tirando giochi che di base sono leggeri o semplici porting.
Senza contare il discorso monitor...per fine anno magari ci saranno già soluzioni 4K appetibili e c'è sicuramente chi si sparerà un paio di queste. :D
Era più "bello", paradossalmente, quando era il gioco "vanilla" a ucciderti l'hardware nuovo, non come adesso dove è l'utente a doversi prodigare per abbellirlo e appesantirlo il più possibile.
Non dico che ci vorrebbero tutti i giorni dei "Crysis" che all'epoca manco su 3 88000gtx giravano a pieno... però...
Il discorso monitor è diverso, ma anche qui sarebbe meglio che i giochi uscissero nativi con assets ad alta risoluzione già loro, mentre molti che arrivano da console sono tarati anche sotto i 1080p (salvo poi avere texture pack e via dicendo).
purtroppo è una cosa molto noiosa per tanti che preferirebbero giocare con più imediatezza sul pc, senza doversi prima avventurare nel mondo del "tuning" dei giochi, dato che si tratta sempre e cmq di tempo sotratto al gioco stesso, speso in configurazioni, modifiche e smanettamenti vari.
Vedo che con i funboy nVidia è inutile. Ci sono le recensioni a parlar chiaro.
Il successore del GF110 è stato il GK104 visto che nVidia lo ha venduto a 600€, quindi poche storie, il GK110 è uscito 12 mesi dopo e guarda caso quanto va di più una 780 rispetto ad una 680? :fagiano:
Se Nvidia vendeva a 600€ un chip ancora più piccolo che andava l'1% in più di GF110 allora era sucessore anche quello?
tra l'altro NON era venduto a 600 euro, la 680gtx costava 499€ di listino Nvidia.
ebbasta con questa storia che il prezzo di vendita determina se un chip di fascia media diventa miracolosamente top di gamma...
Nvidia grazie alla prezzatura da 500 euri della 680 ha potuto iniziare a cagare fuori da vaso come se non ci fosse un domani, e siamo arrivati alla prima dual gpu della storia che costava esattamente il doppio delle gpu che integrava (mai successo prima, se ricordate per es. la 295gtx costava poco più delle schede top singole...).
E dopo tutto questo siam arrivati alle Titan a 1.000 euri e alla Z a 3.000 euri, con quest'ultima prezzatura che non è spiegabile da nessun essere del cosmo.
La 780 è un kepler esattamente come la 680, è come se nelle passate generazioni nvidia mesi dopo il lancio di una top fosse uscita una nuova top con della stessa famiglia che andava quasi il doppio della prima.
cosa impossibile a meno che la prima top non fosse in realtà basata su un chip di fascia media, ben diverso dal nuovo arrivato...
Littlesnitch
20-06-2014, 09:39
Scusa ma che stai dicendo?
Il successore del GF110 è il GK110. Il fatto che nvidia abbia vendutoi il GK104 al prezzo del GK110 è tutto "merito" di AMD con il suo Tahiti che sì andava solo il 25-30% in più di Cypress e quindi non tanto più dello stesso GK104.
Stiamo parlando di politiche di marketing o di tecnologia?
Il confronto del GK110 lo devi fare con il GF110, non con il GK104. Mi vorresti dire che il GK110 va il 20-30% in più del GF110?
Il 20% che dici tu è comparando due chip di dimensioni diverse.
Quindi direi che il GM204 andrà qualcosa in più del GK110, ma stiamo sempre comparando 2 GPU di caratura diversa.
Ti devi essere parecchio confuso, comunque. AMD non ha fatto alcun miracolo rispetto alla generazione vecchia, anzi. Tahiti andava solo poco di più di un chip di pari dimensioni della generazione precedente (le parole di nvidia alla presentazione di Tahiti hanno ben descritto la situazione e i 3 anni successivi hanno ben dimostrato che avevano ragione lasciandoci con un chip di fascia media ai prezzi di quella enthusiast) e rispetto a quello nvidia ha efficienza minore parlando di area/consumi e c'è voluto Hawaii che è una mezza padella pure lui per riuscire a rivaleggiare con il GK110. In termini di prestazione è riuscita quasi a colmare il gap ma l'efficienza è scesa ulteriormente.
La generazione precedente di AMD rivaleggiava con i chip nvidia usando die di dimensioni decisamente minori. Ottima per il rendering 3D, ma non aveva quella flessibilità necessaria per il GPGPU. Flessibilità guadagnata (alla grande) con GCN ma a spese dell'efficienza complessiva (cosa che nvidia aveva già pagato al tempo del G200).
Per questo mi sa che ti sei confuso dicendo che da una generazione alla successiva il guadagno è "solo" del 20%. Ripeto, lo è se paragoni chip di classe differente (il non plus ultra della precedente con il medio della attuale), altrimenti le prestazioni quasi raddoppiano (nel GPGPU la cosa è decisamentre più variabile visto che lì l'architettura che sta alla base conta molto di più del semplice numero di unità di calcolo messe a disposzione e Maxwell rispetto a Kepler sembra offrire una efficienza molto superiore sia per i consumi che per le prestazioni a parità di unità di calcolo).
Vedremo comunque comne andrà questo Maxwell a 28nm e cosa proporrà di contro AMD, sempre se proporrà ancora qualcosa con questo PP. Mi sembra che, a differenza di nvidia, AMD non abbia alcuna intenzione di rivoluzionare la propria architettura (e ora con Mantle direi che si è un po' auto azzoppata se vuole mantanere la compatibilità) e Hawaii è già un chip al limite di quello che il PP a 28nm può offrire con GCN.
Il manuale del funboy. :doh:
In effetti raddoppiano ad ogni gen :sofico:
http://www.guru3d.com/articles_pages/radeon_r9_290x_review_benchmarks,21.html
La 680 era la TOP, e tutti i credenti nVidia lo hanno sostenuto fino alla morte in questo forum, quindi adesso cambiare il discorso perché il tuo dio te lo impone è solo un ridicolo :mc:
P.S. Io ho 4 GK110 in casa e nessun Tahiti o Hawaii.
Littlesnitch
20-06-2014, 09:41
Era più "bello", paradossalmente, quando era il gioco "vanilla" a ucciderti l'hardware nuovo, non come adesso dove è l'utente a doversi prodigare per abbellirlo e appesantirlo il più possibile.
Non dico che ci vorrebbero tutti i giorni dei "Crysis" che all'epoca manco su 3 88000gtx giravano a pieno... però...
Il discorso monitor è diverso, ma anche qui sarebbe meglio che i giochi uscissero nativi con assets ad alta risoluzione già loro, mentre molti che arrivano da console sono tarati anche sotto i 1080p (salvo poi avere texture pack e via dicendo).
purtroppo è una cosa molto noiosa per tanti che preferirebbero giocare con più imediatezza sul pc, senza doversi prima avventurare nel mondo del "tuning" dei giochi, dato che si tratta sempre e cmq di tempo sotratto al gioco stesso, speso in configurazioni, modifiche e smanettamenti vari.
Se Nvidia vendeva a 600€ un chip ancora più piccolo che andava l'1% in più di GF110 allora era sucessore anche quello?
tra l'altro NON era venduto a 600 euro, la 680gtx costava 499€ di listino Nvidia.
ebbasta con questa storia che il prezzo di vendita determina se un chip di fascia media diventa miracolosamente top di gamma...
Nvidia grazie alla prezzatura da 500 euri della 680 ha potuto iniziare a cagare fuori da vaso come se non ci fosse un domani, e siamo arrivati alla prima dual gpu della storia che costava esattamente il doppio delle gpu che integrava (mai successo prima, se ricordate per es. la 295gtx costava poco più delle schede top singole...).
E dopo tutto questo siam arrivati alle Titan a 1.000 euri e alla Z a 3.000 euri, con quest'ultima prezzatura che non è spiegabile da nessun essere del cosmo.
La 780 è un kepler esattamente come la 680, è come se nelle passate generazioni nvidia mesi dopo il lancio di una top fosse uscita una nuova top con della stessa famiglia che andava quasi il doppio della prima.
cosa impossibile a meno che la prima top non fosse in realtà basata su un chip di fascia media, ben diverso dal nuovo arrivato...
Bene adesso che una 780 va il doppio di una 680 possiamo anche chiudere. :sofico: :sofico:
Goofy Goober
20-06-2014, 09:46
Bene adesso che una 780 va il doppio di una 680 possiamo anche chiudere. :sofico: :sofico:
Perchè dire "quasi il doppio" vuol dire "il doppio"? :stordita:
Cmq cambiamo così non turbiamo troppo gli animi, diciamo che con una Titan appena uscita si riusciva a star dietro alle prestazioni delle 680 in SLI in vari casi.
Quindi invece del doppio diciamo "quasi come due".
Va meglio?
Ora si può continuare?
:asd: :asd: :asd:
PaulGuru
20-06-2014, 09:52
Bene adesso che una 780 va il doppio di una 680 possiamo anche chiudere. :sofico: :sofico:
1536 stream vs 2880 stream, va praticamente come 2*680 in SLI ( entrambi a 28nm ).
PS : le potenzialità di una VGA non si calcolano di certo con una media generale su un campione di titoli, ma si guardano singolarmente, si sà che sulle medie generali basta qualche titolo che o per malottimizzazione o per fattore limited non trae beneficio e rovinare la media.
Detto questo :
http://tpucdn.com/reviews/MSI/R9_290X_Lightning/images/crysis3_2560_1600.gif
GTX680 vs GTX780 TI = 62%
Direi che non c'è molto da aggiungere
Littlesnitch
20-06-2014, 09:55
Perchè dire "quasi il doppio" vuol dire "il doppio"? :stordita:
Cmq cambiamo così non turbiamo troppo gli animi, diciamo che con una Titan appena uscita si riusciva a star dietro alle prestazioni delle 680 in SLI in vari casi.
Quindi invece del doppio diciamo "quasi come due".
Va meglio?
Ora si può continuare?
:asd: :asd: :asd:
Ho messo un grafico sopra. E come prestazioni tra 680 e 780 c'è il solito 20-30% a seconda dello scenario. Se poi i alcuni casi lo Sli funziona ad cazzum è un'altro paio di maniche.
1536 stream vs 2880 stream, direi quasi ! ( entrambi a 28nm ).
Peccato che i 2880 non vadano il doppio dei 1536, ma molto meno.
PaulGuru
20-06-2014, 10:01
Peccato che i 2880 non vadano il doppio dei 1536, ma molto meno.
Si 60%, come scalerebbe uno SLI di due 680.
Cosa ti aspetti che faccia esattamente il doppio dei frames ? Ci sono altri fattori in ballo .... come se un +60% sia poca roba.
Littlesnitch
20-06-2014, 10:05
Si 60%, come scalerebbe uno SLI di due 680.
Cosa ti aspetti che faccia esattamente il doppio dei frames ? Ci sono altri fattori in ballo .... come se un +60% sia poca roba.
E dove una 780 farebbe il 60% in più di media di una 680 o una 780Ti li farebbe rispetto ad una 770? Link?
Io mi aspetto quello che poi si avvera un 25 medio con punte del 30% alle risoluzioni più alte.
http://www.guru3d.com/articles_pages/geforce_gtx_780_review,23.html
PaulGuru
20-06-2014, 10:18
E dove una 780 farebbe il 60% in più di media di una 680 o una 780Ti li farebbe rispetto ad una 770? Link?
Io mi aspetto quello che poi si avvera un 25 medio con punte del 30% alle risoluzioni più alte.
http://www.guru3d.com/articles_pages/geforce_gtx_780_review,23.html
30% sarebbe buono, praticamente permetterebbe di giocare appieno a 1440p anche con i prossimi next gen.
Littlesnitch
20-06-2014, 10:23
30% sarebbe buono, praticamente permetterebbe di giocare appieno a 1440p anche con i prossimi next gen.
OMFG, ma io sono partito dai 30% max!!! :read: Però un 30% sul GK104 non sul GK110 perché a 28nm lo vedo un tantino impossibile, felicissimo, e con bava alla bocca, di essere smentito!
Comunque Crysis 3 anche con un 30% non sarebbe giocabile a 1440p maxed out con una VGA. E suppongo anche i prossimi GTAV e TW3
CrapaDiLegno
20-06-2014, 10:29
Ho messo un grafico sopra. E come prestazioni tra 680 e 780 c'è il solito 20-30% a seconda dello scenario. Se poi i alcuni casi lo Sli funziona ad cazzum è un'altro paio di maniche.
Peccato che i 2880 non vadano il doppio dei 1536, ma molto meno.
Ma tra la 680 e la 780 c'è una architettura nuova? E' una generazione nuova?
Sono basati sulla stessa identica architettura.
Che cazz* di confronti fai?
Confronta la 780 con la 580 che montano entrambi il chip non plus ultra delle rispettive architetture. Ci sono 20-30% di prestazioni di differenza?
Se confronti il GM107 con il GF110 e possiamo anche dire che dopo ben due generazioni e 4 anni nvidia non è riuscita ad aumentare le prestazioni.
Il problema dell'evoluzoine di Kepler, che è tutto marketing, è il fatto che AMD non aveva nulla con cui combattere il GK110 e il GK104 andava con il top gamma di AMD. Ma questo non significa assolutamente che tra una generazione e l'altra c'è il 20-30% di differenza. La mancanza di concorrenza ha dilatato i tempi di rilascio enormemente. E alzato i prezzi alle stelle.
Che il GK104 fosse il top gamma lo dicevano altri. Io ho sempre sostenuto che era il chip di fascia media venduto a prezzi del top perché la concorrenza non c'era. E ho avuto pienamente ragione quando stata presentata la 780 Ti (alcuni sostenevano pure che non si sarebbe mnai vista una GeForce con il GK110, cosa dobbiamo fare allora in questo caso?).
Ma indipendentemente da questo, il tuo giudizio su qual è l'evoluzione di una architettura rispetto alla precedente si basa su quello che dicono "tutti quelli su questo forum"? Mi sembri un tantino povero di argomentazioni.
La realtà è che il GK104 (fascia media) che è grande la quasi la metà del GF110 (fascia top) va di più consumando molto meno. Il GK110 (top) doppia il GF110 (top).
Così sarà anche per Maxwell quando il PP lo permetterà. Per ora ci accontentiamo del "chippetto" fascia media che va quanto il top della passata generazione se non di più (numeri alla mano, se veri, fanno prevedere quello) con lo stesso PP.
Il tuo 20-30% da generazione alla successiva te lo sei inventato e ora stai in tutti i modi (più assurdi) cercando di difendere l'indifendibile.
Contento tu, continua pure.
Littlesnitch
20-06-2014, 10:46
Ma tra la 680 e la 780 c'è una architettura nuova? E' una generazione nuova?
Sono basati sulla stessa identica architettura.
Che cazz* di confronti fai?
Confronta la 780 con la 580 che montano entrambi il chip non plus ultra delle rispettive architetture. Ci sono 20-30% di prestazioni di differenza?
Se confronti il GM107 con il GF110 e possiamo anche dire che dopo ben due generazioni e 4 anni nvidia non è riuscita ad aumentare le prestazioni.
Il problema dell'evoluzoine di Kepler, che è tutto marketing, è il fatto che AMD non aveva nulla con cui combattere il GK110 e il GK104 andava con il top gamma di AMD. Ma questo non significa assolutamente che tra una generazione e l'altra c'è il 20-30% di differenza. La mancanza di concorrenza ha dilatato i tempi di rilascio enormemente. E alzato i prezzi alle stelle.
Che il GK104 fosse il top gamma lo dicevano altri. Io ho sempre sostenuto che era il chip di fascia media venduto a prezzi del top perché la concorrenza non c'era. E ho avuto pienamente ragione quando stata presentata la 780 Ti (alcuni sostenevano pure che non si sarebbe mnai vista una GeForce con il GK110, cosa dobbiamo fare allora in questo caso?).
Ma indipendentemente da questo, il tuo giudizio su qual è l'evoluzione di una architettura rispetto alla precedente si basa su quello che dicono "tutti quelli su questo forum"? Mi sembri un tantino povero di argomentazioni.
La realtà è che il GK104 (fascia media) che è grande la quasi la metà del GF110 (fascia top) va di più consumando molto meno. Il GK110 (top) doppia il GF110 (top).
Così sarà anche per Maxwell quando il PP lo permetterà. Per ora ci accontentiamo del "chippetto" fascia media che va quanto il top della passata generazione se non di più (numeri alla mano, se veri, fanno prevedere quello) con lo stesso PP.
Il tuo 20-30% da generazione alla successiva te lo sei inventato e ora stai in tuti i modi (più assurdi) cercando di difendere l'indifendibile.
Contento tu, continua pure.
Peccato che GF110 e GK104 abbiano lo stesso numero di transistor e il GK110 che ne ha il doppio sia uscito 1 anno dopo perché nVidia non l'aveva ancora pronto.... io a messa non ci vado e non le ascolto nemmeno sul forum. Quindi la favola che nVidia non ha presentato GK110 prima perché AMD non aveva nulla da contrapporre non fa neanche ridere.
Ma infatti hanno pienamente ragione a farlo, finché ci sono quelli che prima spendono per la serie "castrata" (immagino che da 780 a 880 il guadagno prestazionale sarà sullo stesso livello di 580->680) e poi ne spendono altrettanti (o più) per la "full-edition" (680->780)... :fagiano:
Ti pare poco?
La 680 costava 50 euro in meno al lancio, andava dal 15 al 30 % più veloce e consumava/scaldava molto meno.
Ci metterei la firma per una 780 upgradata che vada dal 15 al 30 % più veloce, più economica, che consumi meno e scaldi meno :asd:
In particolare la 870 sarà il vero gamebreaker secondo me se andrà più veloce di 780.
pin-head
20-06-2014, 12:07
grazie a tutti per le risposte :D
CrapaDiLegno
20-06-2014, 12:24
Peccato che GF110 e GK104 abbiano lo stesso numero di transistor e il GK110 che ne ha il doppio sia uscito 1 anno dopo perché nVidia non l'aveva ancora pronto.... io a messa non ci vado e non le ascolto nemmeno sul forum. Quindi la favola che nVidia non ha presentato GK110 prima perché AMD non aveva nulla da contrapporre non fa neanche ridere.
Mi sembra che lo specchio per te sia finito.
E' ovvio che a parità di transistor la potenza aumenta solo di qualcosa, ma non era questo il tuo discorso. Ora te lo riporto:
Sono oramai una decina di generazioni che l'aumento prestazionale tra generazioni è del 20% in media, con punte del 25% e altre volte dove non è stata cambiata l'architettura anche qualcosa sotto al 20%. Poi rimanendo a 28nm non credo che si arriverà nemmeno al 20%.
Si come no! Con un incremento del 20 massimo 25% di prestazioni tra GK110 e GM110 ci giochi in 4K! Poi qualcuno ti da un pizzicotto e ti svegli :D
Che a casa mia significa che credi che tra GK110 e GM110 ci sarà un incremento di solo il 25% massimo che a detta tua è quello che è successo anche per le generazion precedenti.
Il che è FALSO
Come detto se vuoi comparare il GM107 con il GK110 e dire che nvidia ha diminuito le prestazioni della sua nuova architettura fai pure. Io i confronti li faccio con chip della stessa caratura, quindi comparerò il GM204 con il GK104 (che saranno purtroppo realizzati sullo stesso PP) e il GM110 con il GK110 (che non c'è dubbio dovranno essere fatti con 2 PP differenti). Vedremo se avremo solo il 20 massimo 25% di prestazioni in più.
Per quanto riguarda il GK110, mi sa che hai un po' le idee confuse anche in questo caso. Il GK110 è stato realizzato meno di 6 mesi dopo il GK104 e per più di 6 mesi è stato usato solo per fare schede Tesla. Pensa che è nato così male che nvidia ha finito la fornitura per il mega super computer cinese con mesi di anticipo sulla data di consegna prevista (= rese oltre l'aspettato). L'anno dopo è stato introdotto sulle GeForce come fosse una nuova serie, visto che tanto si sapeva già da tempo che un PP dopo i 28nm sarebbe arrivato con molto ritardo.
Da Gennaio 2012 (presentazione di Tahiti) a Maggio 2013 (presentazione della 780) nvidia ha continuato a vendere un chip di fascia media al prezzo di uno di fascia alta rimanendo allo stesso livello prestazionale del top gamma di AMD. Costava meno del chip di AMD (praticamente come il GF114 montato sulle GeForce 560), lo vendeva a prezzo maggiore (il prezzo del GF110) e ne vendeva molti di più rispetto alla concorrenza. Scusa se è poco e se non ha necessitato ad nvidia di forzare alcunché per realizzare il chip mostro come invece fece per il GF100 con le conseguenze che tutti conosciamo.
Ma marketing a parte, quello che rimane è che il GK110 va il doppio del GF110 e il GM110, a meno che nvidia non combini cagate come con Fermi v1 o persino peggio visto che con il GM107 ha mostrato che l'architettura Maxwell ha davvero dei grandi vantaggi rispetto a Kepler, andrà il doppio del GK110.
Se la tua speranza è che la scheda con il GK110 che hai nel PC mantenga il suo valore anche quando sarà rilasciato Maxwell, be', mi spiace ma come per tutte le serie precedenti cadrà presto al valore di una scatola di cioccolatini o poco più.
Sempre che vi sia concorrenza dall'altra parte, altrimenti nvidia è capace di lasciare i prezzi della serie 7xx come sono ora e gonfiare ulteriormente quelli della serie 8xx.
Littlesnitch
20-06-2014, 12:35
Mi sembra che lo specchio per te sia finito.
E' ovvio che a parità di transistor la potenza aumenta solo di qualcosa, ma non era questo il tuo discorso. Ora te lo riporto:
Che a casa mia significa che credi che tra GK110 e GM110 ci sarà un incremento di solo il 25% massimo che a detta tua è quello che è successo anche per le generazion precedenti.
Il che è FALSO
Come detto se vuoi comparare il GM107 con il GK110 e dire che nvidia ha diminuito le prestazioni della sua nuova architettura fai pure. Io i confronti li faccio con chip della stessa caratura, quindi comparerò il GM204 con il GK104 (che saranno purtroppo realizzati sullo stesso PP) e il GM110 con il GK110 (che non c'è dubbio dovranno essere fatti con 2 PP differenti). Vedremo se avremo solo il 20 massimo 25% di prestazioni in più.
Per quanto riguarda il GK110, mi sa che hai un po' le idee confuse anche in questo caso. Il GK110 è stato realizzato meno di 6 mesi dopo il GK104 e per più di 6 mesi è stato usato solo per fare schede Tesla. Pensa che è nato così male che nvidia ha finito la fornitura per il mega super computer cinese con mesi di anticipo sulla data di consegna prevista (= rese oltre l'aspettato). L'anno dopo è stato introdotto sulle GeForce come fosse una nuova serie, visto che tanto si sapeva già da tempo che un PP dopo i 28nm sarebbe arrivato con molto ritardo.
Da Gennaio 2012 (presentazione di Tahiti) a Maggio 2013 (presentazione della 780) nvidia ha continuato a vendere un chip di fascia media al prezzo di uno di fascia alta rimanendo allo stesso livello prestazionale del top gamma di AMD. Costava meno del chip di AMD (praticamente come il GF114 montato sulle GeForce 560), lo vendeva a prezzo maggiore (il prezzo del GF110) e ne vendeva molti di più rispetto alla concorrenza. Scusa se è poco e se non ha necessitato ad nvidia di forzare alcunché per realizzare il chip mostro come invece fece per il GF100 con le conseguenze che tutti conosciamo.
Ma marketing a parte, quello che rimane è che il GK110 va il doppio del GF110 e il GM110, a meno che nvidia non combini cagate come con Fermi v1 o persino peggio visto che con il GM107 ha mostrato che l'architettura Maxwell ha davvero dei grandi vantaggi rispetto a Kepler, andrà il doppio del GK110.
Se la tua speranza è che la scheda con il GK110 che hai nel PC mantenga il suo valore anche quando sarà rilasciato Maxwell, be', mi spiace ma come per tutte le serie precedenti cadrà presto al valore di una scatola di cioccolatini o poco più.
Sempre che vi sia concorrenza dall'altra parte, altrimenti nvidia è capace di lasciare i prezzi della serie 7xx come sono ora e gonfiare ulteriormente quelli della serie 8xx.
Ecco che il tuo credo ti ha portato dove prevedevo, il GK104 sostituisce il GF114 :rotfl: :rotfl: :rotfl:
Rimango in attesa del fantomatico GM110 che doppierà il GK110 :sofico: Mi sa che dovrò aspettare parecchio. Mi raccomando continua i pellegrinaggi al santuario del sacro Huang. Mi sono ripromesso troppe volte di non dar spago ai funboy e poi ci ricasco sempre :doh: Chiudo qui.
Se la tua speranza è che la scheda con il GK110 che hai nel PC mantenga il suo valore anche quando sarà rilasciato Maxwell, be', mi spiace ma come per tutte le serie precedenti cadrà presto al valore di una scatola di cioccolatini o poco più.
Sempre che vi sia concorrenza dall'altra parte, altrimenti nvidia è capace di lasciare i prezzi della serie 7xx come sono ora e gonfiare ulteriormente quelli della serie 8xx.
Bello il paragone con la scatola di cioccolatini.
Comunque è impressionante la mole di persone che spende soldoni per schede top di gamma e poi gli rode che ne esce una più veloce 6-10 mesi dopo che costa uguale o meno. E' da sempre così :asd: che si tratti o no di architetture diverse.
Comunque mi sembra che la serie hawaii di amd stia vendendo bene e più delle 780 (e vorrei vedere costano fino a 100 euro in meno e vanno più veloce..), e anche amd ha fatto bingo con tahiti e pitcarin, sono 2 anni che ne ha vendute a iosa.
In totale il mercato vga sarà anche sceso però comunque non è che rimangano invendute quelle schede.
Littlesnitch
20-06-2014, 12:50
Bello il paragone con la scatola di cioccolatini.
Comunque è impressionante la mole di persone che spende soldoni per schede top di gamma e poi gli rode che ne esce una più veloce 6-10 mesi dopo che costa uguale o meno. E' da sempre così :asd: che si tratti o no di architetture diverse.
Comunque mi sembra che la serie hawaii di amd stia vendendo bene e più delle 780 (e vorrei vedere costano fino a 100 euro in meno e vanno più veloce..), e anche amd ha fatto bingo con tahiti e pitcarin, sono 2 anni che ne ha vendute a iosa.
In totale il mercato vga sarà anche sceso però comunque non è che rimangano invendute quelle schede.
A me non rode niente, se andrà il doppio butto le mie 780 direttamente nel cestino. E visto che ce le ho già da un bel po e che il fantomatico GM110 arriverà tra 2 anni o forse più non me ne può fregar di meno di quanto potrei monetizzare.
Ma allora il GM204 che va confrontato al GK104 alla modica cifra di 500€ chi se lo dovrebbe prendere?
PaulGuru
20-06-2014, 13:04
Ma allora il GM204 che va confrontato al GK104 alla modica cifra di 500€ chi se lo dovrebbe prendere?Se va di più di GK110 lo prendo io per rimpiazzare la mia 770.
Stando a quel che dici tu dovremmo prenderci la 780 ora incuranti delle Maxwell, peccato che abbiano solo 3GB di VRAM e l'ottica next gen non è ottimistica a riguardo, specie over FHD.
CrapaDiLegno
20-06-2014, 13:30
Ecco che il tuo credo ti ha portato dove prevedevo, il GK104 sostituisce il GF114 :rotfl: :rotfl: :rotfl:
Rimango in attesa del fantomatico GM110 che doppierà il GK110 :sofico: Mi sa che dovrò aspettare parecchio. Mi raccomando continua i pellegrinaggi al santuario del sacro Huang. Mi sono ripromesso troppe volte di non dar spago ai funboy e poi ci ricasco sempre :doh: Chiudo qui.
Il "mio credo" mi porta a mostrarti dei numeri che tu ignori bellamente per non so quale "tuo credo".
Scusa ma il GK104 cosa avrebbe sostituito?
Ripeto, la questione prezzo (non costo a nvidia) del GK104 sta tutto nel fatto che manca(va) un concorrente che andasse di più.
Mi sembra che stai cercando di dimostrare qualcosa che non trova in nessun modo riscontro con la realtà.
Storicamente i chip della stessa categoria hanno sempre raddoppiato le prestazioni da una generazione all'altra. AMD inclusa con l'architettura VLIW. Che poi con GCN AMD non sia riuscita a farlo e ha permesso a nvidia di piazzare il suo chippetto medio come top è un problema di mercato, ma rimane il fatto che il GK104 va più del GF110 consumando meno e il GK110 va il doppio del GF110. Così come la serie 4xxx di AMD andava il doppio della 3xxx, la 5xxx il doppio della 4xxx (la 6xxx è stato solo un refresh come lo fu la serie 5xx di nvidia vs la 4xx). Il "mio credo" mi fa dire cose sbagliate riguardo alle prestazioni di questi chip?
Ancora non capisco cosa ti faccia credere che il GM110 andrà solo il 25% in più del GK110. Sarà un mio limite. Ma poco mi interessa. Con la VGA che ho adesso credo di saltare a piè pari sia Maxwell che Pascal. Di giocare con il PC ho finito diversi anni fa e le rare volte che lo faccio non mi interessa avere il settaggio mega super ultra.
Littlesnitch
20-06-2014, 13:37
Se va di più di GK110 lo prendo io per rimpiazzare la mia 770.
Stando a quel che dici tu dovremmo prenderci la 780 ora incuranti delle Maxwell, peccato che abbiano solo 3GB di VRAM e l'ottica next gen non è ottimistica a riguardo, specie over FHD.
Ci sono anche quelle da 6Gb se credi che 3Gb per te potrebbero esser pochi ;)
Io dico solo che queste 880 se è vero che sono il chip di fascia media andranno come il GK110, se invece sono il TOP allora andranno un 25% in più. Sta a te farti 2 conti, se sei in FHD ti tieni la 770 e vedi come va a finire.
Se va di più di GK110 lo prendo io per rimpiazzare la mia 770.
Stando a quel che dici tu dovremmo prenderci la 780 ora incuranti delle Maxwell, peccato che abbiano solo 3GB di VRAM e l'ottica next gen non è ottimistica a riguardo, specie over FHD.
ci sono le 780 con 6gb.
PaulGuru
20-06-2014, 14:04
Ci sono anche quelle da 6Gb se credi che 3Gb per te potrebbero esser pochi ;)
Io dico solo che queste 880 se è vero che sono il chip di fascia media andranno come il GK110, se invece sono il TOP allora andranno un 25% in più. Sta a te farti 2 conti, se sei in FHD ti tieni la 770 e vedi come va a finire.
Ma i conti mica si fanno sul passato, GTX680, 780 e 780Ti fino ad ora sono sempre stati della stessa architettura.
Su Maxwell non si parla mica alla cieca, abbiamo già una Maxwell nel mercato, quindi del suo IPC per core abbia un idea abbastanza chiara e 3200sp di quelli per giunta a frequenza maggiore lasciano prospettare solo ottimismo, anche se non troppo.
Una 750Ti va un +30% meglio di una 650Ti pur avendo un buon 20% "in meno" di Cuda Cores !!! ........... Figurati se ne avesse 10% "in più".
E il tutto consumando molto meno, tanto da non richiedere l'alimentazione supplementare ( parliamo sempre dello stesso PP ).
http://tpucdn.com/reviews/ASUS/GTX_750_Ti_OC/images/farcry3_1920_1080.gif
PaulGuru
20-06-2014, 14:21
ci sono le 780 con 6gb.
Solo specifici ( e pochi ) modelli di 780, mentre per la 780Ti che c'è solo la Strix di Asus ( che non è manco cloccata di fabbrica ) e basta.
Littlesnitch
20-06-2014, 14:27
Ma i conti mica si fanno sul passato, GTX680, 780 e 780Ti fino ad ora sono sempre stati della stessa architettura.
Su Maxwell non si parla mica alla cieca, abbiamo già una Maxwell nel mercato, quindi del suo IPC per core abbia un idea abbastanza chiara e 3200sp di quelli per giunta a frequenza maggiore lasciano prospettare solo ottimismo, anche se non troppo.
Una 750Ti va un +30% meglio di una 650Ti pur avendo un buon 20% "in meno" di Cuda Cores !!! ........... Figurati se ne avesse 10% "in più".
E il tutto consumando molto meno, tanto da non richiedere l'alimentazione supplementare ( parliamo sempre dello stesso PP ).
http://tpucdn.com/reviews/ASUS/GTX_750_Ti_OC/images/farcry3_1920_1080.gif
E il die del chip?
Dai dati si evince che un SP Maxwell occupa più o meno lo stesso spazio di un SP Kepler, quindi un GM204 con quelle caratteristiche avrebbe un die maggiore rispetto al GK110 (circa 740mmq roba dell'altro mondo) e costerebbe ad nVidia più del GK110 alla faccia del chip di fascia media.
PaulGuru
20-06-2014, 14:31
E il die del chip?
1870M per la 750TI - Maxwell
2540M per la 650TI - Kepler
Pure molti meno transistors ( -35% ) !!! Presumo quindi molto più piccolo.
Come puoi vedere non c'è storia e non sono nemmeno supposizioni.
Littlesnitch
20-06-2014, 16:12
1870M per la 750TI - Maxwell
2540M per la 650TI - Kepler
Pure molti meno transistors ( -35% ) !!! Presumo quindi molto più piccolo.
Come puoi vedere non c'è storia e non sono nemmeno supposizioni.
:doh: Ma almeno li sai leggere i dati? il GK106 ha 960SP, 80TMU 24 ROPS, contro i 640SP, 40TMU e 16 ROPS. Infatti il GK106 full va il 20% in più del GM107.Escludendo dal discorso il quasi 20% di freq in più della 750Ti rispetto alla 650Ti.
640SP hanno 148mm2, quindi per i 3200 lo devi moltiplicare per 5.
Se vedi poi il GM107 ha 2Mb di L2, quindi ecco spiegato l'arcano delle prestazioni in più. Niente miracoli come si può ben vedere.
Io propendo per un GM204 da 2540SP con 100TMU e 24ROPS con 4Mb di L2 quindi sui 560mm2 come il GK110. Quindi non più di un 15-20% oltre la 780Ti.
GF110 ha 1544SP a 770Mhz, viene doppiato da GK110 che ha 2880SP a oltre 1Ghz, quindi porta il GF110 a 28nm a 1Ghz con 2880SP ed ecco sfatato il mito(meglio dire caxxata) del raddoppio di prestazioni da architettura ad architettura e la caduta del mito del GK104 di fascia media al lancio! Infatti il GK104 con 1536SP a frequenze più alte del 30% va un 25-30% in più!
CrapaDiLegno
20-06-2014, 17:01
E il die del chip?
Dai dati si evince che un SP Maxwell occupa più o meno lo stesso spazio di un SP Kepler, quindi un GM204 con quelle caratteristiche avrebbe un die maggiore rispetto al GK110 (circa 740mmq roba dell'altro mondo) e costerebbe ad nVidia più del GK110 alla faccia del chip di fascia media.
:doh: Ma almeno li sai leggere i dati? il GK106 ha 960SP, 80TMU 24 ROPS, contro i 640SP, 40TMU e 16 ROPS.
640SP hanno 148mm2, quindi per i 3200 lo devi moltiplicare per 5.
Se vedi poi il GM107 ha 2Mb di L2, quindi ecco spiegato l'arcano delle prestazioni in più. Niente miracoli come si può ben vedere.
Io propendo per un GM204 da 2540SP con 100TMU e 24ROPS con 4Mb di L2 quindi sui 560mm2 come il GK110. Quindi non più di un 15-20% oltre la 780Ti.
E tu come li fai i conti? Moltiplichi la dimensione del die moltiplicando solo per il rapporto degli shader? Lo spazio per gli shader è solo una parte della dimensione del die. Buona parte dello stesso è dovuto alla dimensione del bus di memoria. 256 vs 384 riducono e non di poco la dimensione del die. Gli SMM in Maxwell sono organizzati diversamente. Non puoi dire che 5x il numero di shader = 5x la dimensione del die!!!
E poi ancora con la questione del GK104 come top gamma... certo certo, ecco perché nvidia lo ha lanciato con qualche settimana di ritardo sul previsto con una frequenza molto alta (sopratutto della memoria) e un bus da 256bit. Era perché aveva il chip top gamma in mano quando Tahiti è stato presentato.
Non oso pensare quante bottiglie di champagne sono state stappate hell'HQ di nvidia quando hanno visto le prestazioni di Tahiti.
Non hanno dovuto accelerare la produzione del GK110 e si sono potuti permettere di venderlo per 6 mesi solo per il mercato dove guadagnano più soldi.
Certo certo, GK104 top gamma. Come lo erano il GF104, il GF114.. certo certo, con il 25% in più di prestazioni rispetto alla generazione precedente... certo certo... con la dimensione del die destinato al mercato medio... certo certo... senza unità DP... certo certo... il top gamma.
Ma come cazz* fai a pensare che il GK104 che andava il 20% in più della 580 avrebbe potuto costituire il top del mercato per una intera generazione quando AMD per tutti gli anni precedenti ha raddoppiato le prestazioni delle sue top ad ogni generazione? Stai forse pensando che nvidia si preparava a lottare con un possibile chip che sarebbe dovuto andare (secondo la storia) il doppio di Cayman con un chip che andava poco più del GF110?
Tutta la fortuna di nvidia che non aveva il GK110 pronto è stato che GCN è risultata una delusione per il rendering 3D. Non ha la stessa efficienza per W ed area del "vecchio" VLIW.
E come fai a fare un paragone tra un GF110 e un GK104 che hanno architetture differenti dicendo che se porti Fermi a 28nm e gli dai la stessa frequenza di Kepler va uguale?
Prendi l'ultima VLIW, portala a 28nm, considera un chip grande come Tahiti e comparala a GCN. Lì hai una diminuzione consistente delle prestazioni da una architettura alla successiva. Che stupidi in AMD, vero? Ma sei sicuro che riesci a fare un chip complesso come Tahiti con la VLIW e la stessa efficienza di Cayman?
Ora va be' che qui ci si improvvisa ingegneri da bar come si fa con le squadre di calcio, ma in nvidia e in AMD hanno fior fiore di cervelli che lavorano e se una architettura è sostituita con un altra significa che l'ultima ha capacità maggiori della precedente. Altrimenti AMD avrebbe continuato con il VLIW che ha sviluppato per 6 anni di fila (poco più che raddoppiando ogni anno il numero degli shader/TMU ad ogni generazione) e GCN lo regalava a nvidia per fargli perdere la sfida a chi la fa più prestante, no? E nvidia non avrebbe investito qualche centinaio di milioni di dollari all'anno per tre o quattro anni per fare Kepler e avrebbe potuto continuare con uno shrink di Fermi, no? Che sciocchi anche in nvidia. Entrambe le aziende fanno di tutto per spendere (maree) soldi inutilmente.
Dì quello che vuoi, ormai non ha più senso. Lo specchio è finito da tempo. Sei in caduta libera. Rimane il fatto che GM204 numeri alla mano (se veri) sarà una padella simile al GK110 e andrà qualcosa in più e il GM110 andrà il doppio del GF110. Certo potrai goderti le tue 780 ancora per molto. O anche per sempre. Nessuno ti obbliga a passare ad architetture che crescono solo del 25% in prestazioni ad ogni generazione o addirittura a perderne.
PaulGuru
20-06-2014, 19:21
:doh: Ma almeno li sai leggere i dati? il GK106 ha 960SP, 80TMU 24 ROPS, contro i 640SP, 40TMU e 16 ROPS. Infatti il GK106 full va il 20% in più del GM107.Escludendo dal discorso il quasi 20% di freq in più della 750Ti rispetto alla 650Ti.
640SP hanno 148mm2, quindi per i 3200 lo devi moltiplicare per 5.
Se vedi poi il GM107 ha 2Mb di L2, quindi ecco spiegato l'arcano delle prestazioni in più. Niente miracoli come si può ben vedere.
Io propendo per un GM204 da 2540SP con 100TMU e 24ROPS con 4Mb di L2 quindi sui 560mm2 come il GK110. Quindi non più di un 15-20% oltre la 780Ti.
GF110 ha 1544SP a 770Mhz, viene doppiato da GK110 che ha 2880SP a oltre 1Ghz, quindi porta il GF110 a 28nm a 1Ghz con 2880SP ed ecco sfatato il mito(meglio dire caxxata) del raddoppio di prestazioni da architettura ad architettura e la caduta del mito del GK104 di fascia media al lancio! Infatti il GK104 con 1536SP a frequenze più alte del 30% va un 25-30% in più!
GK106 va il 20% di più ?
die 5x superiore ? ( ma anche se fosse cosa centra con le prestazioni ? )
E per giunta tu classifiche la dimensione del die in base ai cores nonostante siano di architettura differente ?
Te stai proprio fuori, ma di brutto !
:mc:
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_750_Ti/images/crysis3_1920_1080.gif
PS :
- Anche la 880 avrà una frequenza superiore alle attuali 780.
- Il TDP della 880 è già stato dichiarato attorno ai 230W, quindi nessun mistero.
Littlesnitch
20-06-2014, 20:13
GK106 va il 20% di più ?
die 5x superiore ? ( ma anche se fosse cosa centra con le prestazioni ? )
E per giunta tu classifiche la dimensione del die in base ai cores nonostante siano di architettura differente ?
Te stai proprio fuori, ma di brutto !
:mc:
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_750_Ti/images/crysis3_1920_1080.gif
PS :
- Anche la 880 avrà una frequenza superiore alle attuali 780.
- Il TDP della 880 è già stato dichiarato attorno ai 230W, quindi nessun mistero.
Che fai posti i grafici come ti fanno comodo? Nell'altro che avevi postato il GK106 andava il 20% in più.
Comunque il calcolo è facile da fare basta guardare la tabelle dei vari chip e se non ce la fai a mano usi una calcolatrice, ma tu sei liberissimo di venerare il dio Huang alla cieca. Ma nel suo tempio i cimeli che sono esposti sono reali o fake? :sofico:
Allora ricapitolando la 880GTX andrà il 50% in più della 780Ti, avrà freq di 1.2Ghz, 3200SP con 300mm2 di die, e consumerà 230W!
Questi me li segno così vedrai le risate che mi faccio!!!
P.S. certi commenti tienili a casuccia tua.
PaulGuru
20-06-2014, 22:26
Che fai posti i grafici come ti fanno comodo? Nell'altro che avevi postato il GK106 andava il 20% in più.Grafici che mi fanno comodo ? Quell'altro era un gioco, questo è un altro :doh:
L'altro era FC3, questo è Crysis 3, cosa vuoi che posti i titoletti limited ?
Allora ricapitolando la 880GTX andrà il 50% in più della 780Ti, avrà freq di 1.2Ghz, 3200SP con 300mm2 di die, e consumerà 230W!
- Chi ha detto che andrà il 50% in più ?
- Chi ha detto che avrà 1.2Ghz ?
- Chi ha detto che avrà 300mm2 ? ( PS : la dimensione del die cosa centra ? )
Te li sei inventati tutti tu adesso, bene !
Questi me li segno così vedrai le risate che mi faccio!!!
P.S. certi commenti tienili a casuccia tua.:mc:
Littlesnitch
21-06-2014, 06:57
Grafici che mi fanno comodo ? Quell'altro era un gioco, questo è un altro :doh:
L'altro era FC3, questo è Crysis 3, cosa vuoi che posti i titoletti limited ?
- Chi ha detto che andrà il 50% in più ?
- Chi ha detto che avrà 1.2Ghz ?
- Chi ha detto che avrà 300mm2 ? ( PS : la dimensione del die cosa centra ? )
Te li sei inventati tutti tu adesso, bene !
:mc:
Forse è meglio che la smetti di renderti ridicolo! Oltre all'essere fanboy sei anche di un'ignoranza disarmante!
Tu hai detto che andrà più del 25-30% che preventivavo io, tu hai detto che avrà freq più alte della 780Ti che gira a 1.1Ghz, tu vai dicendo che il mio calcolo è sbagliato nel preventivarlo a 560mm2 quindi vuol dire che lo dai con le dimensioni del GK104 assieme al tuo amico.
Intanto eccoti una recensione della 750Ti e nn un grafico che ti fa comodo
http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_750_and_750_ti_review,10.html
Quindi il GM107 è sempre più lento del GK106 full e più veloce di quello castrato.
Se poi per te le dimensioni del die non c'entrano adesso mi spieghi come fai a contenere in 230W un chip a 28nm con 1.2Ghz e die di circa 550mm2 :mc:
PaulGuru
21-06-2014, 07:21
Forse è meglio che la smetti di renderti ridicolo! Quì l'unico ridicolo sei tu.
Tu hai detto che andrà più del 25-30% che preventivavo io Quindi dire che andrà di più del tuo pronostico vuol dire che andrà il 50% ?
Questa non la sapevo. :rolleyes:
tu hai detto che avrà freq più alte della 780Ti che gira a 1.1GhzLa 780Ti gira a 1.1Ghz ?
La 780Ti gira a 875 MHz !!!
E tu dici pure di averne 2 ? :rolleyes:
tu vai dicendo che il mio calcolo è sbagliato nel preventivarlo a 560mm2Ripeto la domanda : "COSA ACCIDENTI CENTRA LA DIMENSIONE con le prestazioni" ?
quindi vuol dire che lo dai con le dimensioni del GK104 assieme al tuo amico.Quindi vuol dire ..... niente
Se poi per te le dimensioni del die non c'entrano adesso mi spieghi come fai a contenere in 230W un chip a 28nm con 1.2Ghz e die di circa 550mm2 :mc:Nessuno conosce le dimensioni del die, ma anche se fosse chiamasi differenza architetturale più efficiente e megliore step del PP ......
PaulGuru
21-06-2014, 07:23
Intanto eccoti una recensione della 750Ti e nn un grafico che ti fa comodo
http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_750_and_750_ti_review,10.html
Quindi il GM107 è sempre più lento del GK106 full e più veloce di quello castrato.MA DOVE LO VEDI ? La 750Ti va più forte sia della 650 che della 650Ti in quel link !
Ma mettiti gli occhiali !
Littlesnitch
21-06-2014, 08:38
Quì l'unico ridicolo sei tu.
Quindi dire che andrà di più del tuo pronostico vuol dire che andrà il 50% ?
Questa non la sapevo. :rolleyes:
La 780Ti gira a 1.1Ghz ?
La 780Ti gira a 875 MHz !!!
E tu dici pure di averne 2 ? :rolleyes:
Ripeto la domanda : "COSA ACCIDENTI CENTRA LA DIMENSIONE con le prestazioni" ?
Quindi vuol dire ..... niente
Nessuno conosce le dimensioni del die, ma anche se fosse chiamasi differenza architetturale più efficiente e megliore step del PP ......
Ah bene allora andrà il 31% in più :mc:
La 780Ti così come le 780 girano tra i 1020 e 1050 con power limit a 100%, appena lo aumenti un po boostano di default a 1086-1094. Ma siccome non ne hai mai vista una non lo sai e fai il sapientone. Come se la tua 770 girasse a freq default :doh:
La dimensione del chip determina i consumi e la fascia del chip. Nulla più. I consumi ridotti del GM107 sono dati dalla riduzione del bus a favore della cache, su un chip come il GM204 (che vuole andare oltre GK110 e non sotto GK 106) il bus sarà per forza di cose più ampio e se vogliono contenerlo in 256bit dovranno per forza aumentare la cache e di conseguenza dimensioni del die.
MA DOVE LO VEDI ? La 750Ti va più forte sia della 650 che della 650Ti in quel link !
Ma mettiti gli occhiali !
Mi sa che gli occhiali non me li devo mettere io visto che le 650 non sono il GK106 full, e ignori anche questo.
PaulGuru
21-06-2014, 08:54
La 780Ti così come le 780 girano tra i 1020 e 1050 con power limit a 100%, appena lo aumenti un po boostano di default a 1086-1094. Ma siccome non ne hai mai vista una non lo sai e fai il sapientone.Non sono di certo quelle le frequenze di riferimento.
PaulGuru
21-06-2014, 08:54
La dimensione del chip determina i consumi e la fascia del chip.Quindi 2 chip a parità di dimensioni consumano e scaldano necessariamente uguali ? L'architettura per te è una cosa ignota a quanto vedo.
Quindi è per questo che AMD Hawaii con soli 438mmq è meno efficiente rispetto a GK110 da 561mmq ?
Si dà il caso che Maxwell sembra sia in grado di consumare il +30% rispetto ad un Kepler a parità di dimensioni, e probabilmente a livello di PP sarà sempre a 28nm ma probabilmente uno step più affinato. :rolleyes:
PS : a determinare la fascia di prezzo di un chip sono i suoi costi di produzione, non la dimensione in sè e si dà il caso che i 28nm sono oramai un PP vecchio e collaudato.
Mi sa che gli occhiali non me li devo mettere io visto che le 650 non sono il GK106 full, e ignori anche questo.GK106 sono la 650, la 650Ti e poi c'è la 650Ti Boost dove c'è un bus più ampio.
Che caspita centra il GK106 full ? .................... 768 core Kepler vs 640 core Maxwell = Maxwell davanti, cosè non comprendi ? :doh:
Littlesnitch
21-06-2014, 09:06
Non sono di certo quelle le frequenze di riferimento.
Ah no? E quali sarebbero? Quelle sono le frequenze con le quali hai i grafici dei vari test che vedi in giro!
Littlesnitch
21-06-2014, 09:15
Quindi 2 chip a parità di dimensioni consumano e scaldano necessariamente uguali ?
Peccato che ci sia una differenza sia architetturale dove Maxwell sembra sia in grado di consumare il +30% rispetto ad un Kepler a parità di dimensioni, sia probabilmente a livello di step del PP dove sicuramente anche se sempre a 28nm sarà più affinato. :rolleyes:
PS : a determinare la fascia di prezzo di un chip sono i suoi costi di produzione, non la dimensione in sè e si dà il caso che i 28nm sono oramai un PP vecchio e collaudato.
GK106 sono la 650, la 650Ti e poi c'è la 650Ti Boost dove c'è un bus più ampio.
Che caspita centra il GK106 full ? .................... 768 core Kepler vs 640 core Maxwell = Maxwell davanti, cosè non comprendi ? :doh:
2 chip a parità di dimensioni, frequenze e PP consumano grosso modo lo stesso.
Tu hai tirato fuori i 2 e rotti mld di transistor contro 1.8, ma le 650 non sono 2 e rotti ma meno visto che è tagliata via parte del chip. Quindi tu calcoli l'efficienza partendo da valori sbagliati. Maxwell sarà sicuramente un miglioramento di Kepler, ma non ti aspettare che i dati del GM107 siano quelli veri.
Il costo di produzione di un chip è relazionato al silicio utilizzato e 550mm2 di die a 28 nm costano uguale che tu produca Kepler, Maxwell, mia nonna o altro.
768 core Kepler contro 640 Maxwell sono il 20% di Sp in meno, bilanciati in parte (decidi tu quanto valore gli vuoi dare) dal 20% di freq in più per Maxwell.
PaulGuru
21-06-2014, 09:15
Ah no? E quali sarebbero? Quelle sono le frequenze con le quali hai i grafici dei vari test che vedi in giro!
875 -928 sono le frequenze dichiarate.
http://www.hwupgrade.it/articoli/skvideo/3825/gtx_780ti_furmark_clock.png
http://www.hwupgrade.it/articoli/skvideo/3825/nvidia_loop_gpu.png
http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-780-TI-GB/GTX-780-TI-GB-50.jpg
E a 1.1Ghz non ci va manco vicina
Littlesnitch
22-06-2014, 11:03
875 -928 sono le frequenze dichiarate.
http://www.hwupgrade.it/articoli/skvideo/3825/gtx_780ti_furmark_clock.png
http://www.hwupgrade.it/articoli/skvideo/3825/nvidia_loop_gpu.png
http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-780-TI-GB/GTX-780-TI-GB-50.jpg
E a 1.1Ghz non ci va manco vicina
Oh madonna quanto sei cocciuto. Io ti ho detto che le 780Ti boostano a default a 1020-1050, quelle reference con power limit 100%, se lo aumenti arrivi a quasi 1.1Ghz. Questo è quello che ho visto su tutte quelle che ho provato. Poi varia anche molto da chip a chip. Io non ho mai detto di averne 2, infatti ho 4 780 lisce, 2 lightning e 2 Windforce. Prenderei 2 780Ti qualora uscissero le Lightning. Le Windforce con freq base abbassate a 1000Mhz in Ab e power limit 150% in singolo boostano una a 1150 e l'altra a 1220, le lightning con le stesse impostazioni invece uno boosta 1180 e l'altra 1260. E come si vede dai grafici che hai portato tu i 928 sono una balla colossale!
Con le 670 ad esempio, 2 reference, a default boostavano entrambe a 1087Mhz.
Dalle GTX6xx le freq delle nVidia non sono mai state chiare e l'ho scritto decine di volte, nVidia comunica solamente le freq sotto le quali la scheda non scende in determinate condizioni di utilizzo. Ecco anche la discrepanza di valori da gioco a gioco, se questo è più leggero le VGA boostano più in alto, se un po più pesante boostano meno, ma anche una piccola modifica alla fan curve cambia nuovamente i valori, nota bene che parlo solo di power limit e fan curve, niente volatggi o OC.
Quindi se tu come freq maggiori per la 880 parli di quelle base, potrebbe anche essere, poi bisognerà vedere quelle che saranno le freq operative reali.
A vedere il primo Maxwell possiamo dire che a pari freq ci sarebbe bisogno di un 20% in meno di SP per pareggiare Kepler.
Quindi con circa 2300SP dovrebbe pareggiare il GK110. Secondo me 3200SP non riescono ad infilarli rimanendo con una dimensione del die accettabile. Se saranno i 2500-2600 come credo avremo quel 15-20% che mi aspetto. Felicissimo di essere smentito. O credi che io sia contrario ad avere una VGA che mi permetta di liberarmi dello SLi a 1440p? Per la singola in 4K invece bisognerà aspettare Maxwell TOP con il prossimo PP.
PaulGuru
22-06-2014, 11:20
Allora non vedo perchè le 880 non possano funzionare a 1.2Ghz
Per gli stream processor, anche se il chip fosse da 500mmq, non mi pare niente di eccezionale, a occhio e croce avrebbero la stessa dimensione di GK110.
A vedere il primo Maxwell possiamo dire che a pari freq ci sarebbe bisogno di un 20% in meno di SP per pareggiare Kepler.
Quindi con circa 2300SP dovrebbe pareggiare il GK110.Ma comè hai scassato le bocce fino adesso dicendo che non era assolutamente così e adesso hai cambiato idea ? Cos'è ti sei svegliato con la luna buona oggi ?
Littlesnitch
22-06-2014, 11:36
Allora non vedo perchè le 880 non possano funzionare a 1.2Ghz
Per gli stream processor, anche se il chip fosse da 500mmq, non mi pare niente di eccezionale, a occhio e croce avrebbero la stessa dimensione di GK110.
Ma comè hai scassato le bocce fino adesso dicendo che non era assolutamente così e adesso hai cambiato idea ? Cos'è ti sei svegliato con la luna buona oggi ?
Mi pare che tu non hai capito quello che ho detto. Vi siete avventati come sciacalli sul 20-30% di guadagno che ho dato sostenendo che ci fosse il raddoppio delle prestazioni.
Il chip dovrà per forza essere meno di 500mm2, altrimenti non avrebbe senso per nVidia, devono contenerlo sui 400mm2, per questo ipotizzo i 2500SP. Siccome al 99% il punto di riferimento per il calcolo rimarrà il GK110 con le Titan a 1000€ queste te le devono vendere a 500€ senza possibilità di monetizzare 1000€ e più per questo chip.
PaulGuru
22-06-2014, 12:00
Mi pare che tu non hai capito quello che ho detto. Vi siete avventati come sciacalli sul 20-30% di guadagno che ho dato sostenendo che ci fosse il raddoppio delle prestazioni.
Il chip dovrà per forza essere meno di 500mm2, altrimenti non avrebbe senso per nVidia, devono contenerlo sui 400mm2, per questo ipotizzo i 2500SP. Siccome al 99% il punto di riferimento per il calcolo rimarrà il GK110 con le Titan a 1000€ queste te le devono vendere a 500€ senza possibilità di monetizzare 1000€ e più per questo chip.
Tu parlasti di 15-20% con un 30% di picco, oltre ai discorsi sulle dimensioni del die e sulla fascia che sinceramente non ho capito cosa centrassero.
Io invece ho sostenuto il fatto che basandosi sui dati dell'attuale maxwell era troppo poco, invece potrebbero tranquillamente essere sopra i 30% di media, di quanto non sò.
Littlesnitch
22-06-2014, 12:20
Tu parlasti di 15-20% con un 30% di picco, oltre ai discorsi sulle dimensioni del die e sulla fascia che sinceramente non ho capito cosa centrassero.
Io invece ho sostenuto il fatto che basandosi sui dati dell'attuale maxwell era troppo poco, invece potrebbero tranquillamente essere sopra i 30% di media, di quanto non sò.
Tu hai preso come metro il paragone sbagliato perché prendi un Maxwell non castrato con freq massime contro un Kepler di scarto e tagliato e sei al 25%, quindi se lo rapporti ad un Kepler full e tirato al massimo non è logico pensare che vada oltre quel dato. Infatti se lo confronti al Gk106 full con freq tirate i dati si ridimensionano da quelli trionfali rispetto alle 650. magari fosse realmente come in quel confronto specifico, prendo un aereo e vado alla sede nVidia e aspetto Huang per inchinarmi di fronte a lui. Almeno io la vedo così.
Perché il die gioco forza incide sulle prestazioni e consumi visto che rimangono a 28nm. Produrre un chip con il doppio di SP del GK110 e 800mm2 non è un problema. Il problema si pone quando lo devi raffreddare e mantenere entro i limiti di alimentazione ATX. Il Maxwell a 20nm o 16nm quelli che saranno, potrebbe anche andare un 50% in più, ma non il GM204 a 28nm. Non c'è spazio di manovra perché già il GK110 è un piccolo miracolo di nVidia, il miglior chip di nVidia dai tempi del G80.
PaulGuru
22-06-2014, 14:59
Tu hai preso come metro il paragone sbagliato perché prendi un Maxwell non castrato con freq massime contro un Kepler di scarto e tagliato e sei al 25%, quindi se lo rapporti ad un Kepler full e tirato al massimo non è logico pensare che vada oltre quel dato. Infatti se lo confronti al Gk106 full con freq tirate i dati si ridimensionano da quelli trionfali rispetto alle 650. magari fosse realmente come in quel confronto specifico, prendo un aereo e vado alla sede nVidia e aspetto Huang per inchinarmi di fronte a lui. Almeno io la vedo così.
Perché il die gioco forza incide sulle prestazioni e consumi visto che rimangono a 28nm. Produrre un chip con il doppio di SP del GK110 e 800mm2 non è un problema. Il problema si pone quando lo devi raffreddare e mantenere entro i limiti di alimentazione ATX. Il Maxwell a 20nm o 16nm quelli che saranno, potrebbe anche andare un 50% in più, ma non il GM204 a 28nm. Non c'è spazio di manovra perché già il GK110 è un piccolo miracolo di nVidia, il miglior chip di nVidia dai tempi del G80.
Centra un tubo tagliano o meno, quì si parlava di IPC per core, a parità di core Maxwell sembrerebbe poter andare ben di più, figurati se i suoi stream fossero addirittura in superiorità, mentre per quanto riguarda la frequenza Maxwell l'avrà superiore anche con le 880, quindi è il confronto è giusto che sia fatto contro un kepler da una frequenza minore.
Per il discorso consumo e calore, la 780Ti è accreditata per un TDP di 250W, l'880 invece per 230W, e viste le doti di efficienza molto migliori di Maxwell rispetto a Kepler sembra tutto in linea anche considerando un die uguale o simile.
Littlesnitch
22-06-2014, 15:30
Centra un tubo tagliano o meno, quì si parlava di IPC per core, a parità di core Maxwell sembrerebbe poter andare ben di più, figurati se i suoi stream fossero addirittura in superiorità, mentre per quanto riguarda la frequenza Maxwell l'avrà superiore anche con le 880, quindi è il confronto è giusto che sia fatto contro un kepler da una frequenza minore.
Per il discorso consumo e calore, la 780Ti è accreditata per un TDP di 250W, l'880 invece per 230W, e viste le doti di efficienza molto migliori di Maxwell rispetto a Kepler sembra tutto in linea anche considerando un die uguale o simile.
Allora ritorniamo al fatto che avrà freq superiori del 20% a Kepler? :doh:
Con il 30% di SP in meno a parità di frequenza va il 20% in meno di Kepler, quindi il vantaggio di IPC core to core è del 10%! Questo dicono i numeri che continui a voler confutare.
Tanto per dire una 780Ti consuma tra i 260 e i 270W gli stessi della 290X che i funboy nVidia considerano un forno succhia W, 10W in meno della 690 che ha 2 GK104.
Ti vedo parlar tanto ma numeri coerenti neanche l'ombra :sofico:
Solo adorazioni al santo Huang :fagiano:
CrapaDiLegno
22-06-2014, 16:45
Forse è meglio che la smetti di renderti ridicolo! Oltre all'essere fanboy sei anche di un'ignoranza disarmante!
Tu hai detto che andrà più del 25-30% che preventivavo io, tu hai detto che avrà freq più alte della 780Ti che gira a 1.1Ghz, tu vai dicendo che il mio calcolo è sbagliato nel preventivarlo a 560mm2 quindi vuol dire che lo dai con le dimensioni del GK104 assieme al tuo amico.
Intanto eccoti una recensione della 750Ti e nn un grafico che ti fa comodo
http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_750_and_750_ti_review,10.html
Quindi il GM107 è sempre più lento del GK106 full e più veloce di quello castrato.
Mi sembra che tu sia davvero "fuso".
1. "Il tuo amico" che suppongo sa io che ho sostenuto la fattibilità di un GM204 che desse la paga a un GK110, non ha mai sostenuto che la dimensione del GM204 fosse uguale a quella del GK104. Ti ho detto fin da subito che la dimensione di un tale chip, se i numeri sono veri, sarà molto simile a quella do un GK110.
Ti consiglio di rileggere tutti i post precedenti con molta calma e cercare di capire cosa ti è stato detto. Leggerli quando sei ubriaco (e spero che sia stato così altrimenti mi preoccupo assai per te) non aiuta la discussione.
Se poi per te le dimensioni del die non c'entrano adesso mi spieghi come fai a contenere in 230W un chip a 28nm con 1.2Ghz e die di circa 550mm2 :mc:
Dato un certo consumo, il raffreddamento è molto più facile man mano che l'area del chip aumenta. Raffreddare il GK110 con i suoi 560mm^2 di area è molto più facile che raffreddare Hawaii con i suoi 480mm^2 con lo stesso consumo.
Se il chip di nvidia è grande come il GK110 può dissipare molto di più di 250W, facendo un paragone sempre con Hawaii che dissipa la stessa energia con un'area inferiore.
Infine riguardo all'architettura Maxwell, ti stai inventando un sacco di cose per non so quale motivo.
A parità di shader e frequenza l'architettura Maxwell rende il 10% in meno di quella Kepler. Il vantaggio però sta nella minore area occupata per lo stesso numero di shader (o meglio gli SMM che contengono lo stesso numero di shader rispetto a Kepler usano meno area) e quindi è possibile integrarne di più. Contando anche sul fatto che il PP è migliorato, i consumi sono minori, la nuova architettura è pensata per andare ad una frequenza maggiore e quindi sommando TUTTO (non solo quello che vuoi dato che per architettura si intende la somma di tutto) la potenza di calcolo per mm^2 è superiore a Kepler e l'efficienza energetica è migliorata notevolmente.
Da qui, senza fare nessuna macumba o credere al Dio Huang come dici tu, viene il fatto che il GM204 avrà un'area simile a quella del GK110 ma con potenza maggiore, perché a parità di area Maxwell è più veloce.
Se l'area sarà inferiore tanto meglio per nvidia che potrà vendere il suo chippazzo ad un margine migliore, ma per noi non cambia nulla, dato che se intende venderlo a più di quanto vale il GK110 per via delle migliori prestazioni (e il chip si vende per le prestazioni che offre rispetto alla concorrenza, che sia quella propria (GK104, GK110) che quella di AMD (Tahiti, Hawaii), non solo peri mm^2 che occupa), a noi costerà sempre un botto.
Produrre un chip con il doppio di SP del GK110 e 800mm2 non è un problema. Il problema si pone quando lo devi raffreddare e mantenere entro i limiti di alimentazione ATX. Il Maxwell a 20nm o 16nm quelli che saranno, potrebbe anche andare un 50% in più, ma non il GM204 a 28nm. Non c'è spazio di manovra perché già il GK110 è un piccolo miracolo di nVidia, il miglior chip di nVidia dai tempi del G80
Fare un chip da 800mm^2 non è un problema???????????????
Tu non sai di cosa stai parlando figliolo. Il raffreddamento di tale piastrella è il fattore meno critico per la sua realizzazione. Invece la resa lo renderebbe così costoso che non avrebbe proprio senso a farlo se non vendendolo a qualcuno disposto a pagarlo qualche migliaio di dollari al pezzo. Ma non mi sembra che nel mercato consumer ci sia questa richiesta.
Inoltre, il fatto che il GK110 sia un ottimo chip non esclude a priori che il GM204(e il GM110 o come si chiamerà) non potranno esserlo altrettanto se non di più. Non hai alcun riferimento per dire che non si possa fare meglio di quello che è già stato fatto.
Il chip dovrà per forza essere meno di 500mm2, altrimenti non avrebbe senso per nVidia
Questa te la sei sognata in una notte dove eri poco sobrio. Perché mai non converrebbe ad nvidia? Se lo fa con un die della dimensione tale e quale al GK110 ma che va il 20%, 30% o il 50% in più (un po' di overclocking non fa mai male se è per un pugno di dollari in più), perché mai non le converrebbe? Ti fa una GTX880 che costa 800 euro invece che le 600 della 780Ti e con lo stesso costo di partenza (e forse meno visto che i nuovi progetti dovrebbero avere una resa migliore su un PP ormai conosciuto e maturo) guadagna di più. Dove non le conviene? Forse non conviene a te. Ma lei un chip da 560mm^2 saprebbe bene come venderlo. Sono circa 8 anni che lo fa.
Prima di dire agli altri che credono in cose astratte, Dei o che si prostrano per nulla ad altri, sarebbe meglio che tu imparassi a fare 1+1 così capiresti il valore dei numeri e cosa rappresentano nella vita di tutti i giorni.
Eviteresti di fare queste ignobili figure.
E infine
La dimensione del chip determina i consumi e la fascia del chip. Nulla più.
Poi mi spieghi come hai potuto affermare che un chip da 360mm^2, con bus a 256bit, senza unità DP e overcloccato (perché è indubbio che il GK104 sulle 680 sia stato overcloccato memorie incluse per riuscire a raggiungere Tahiti) potesse essere considerato il top gamma di nvidia.
Come vedi se non sei coerente neanche con te stesso, come pretendi che gli altri diano importanza o siano minimamente convinti da quelle sciocchezze che dici?
Peace and Love figliolo, che tanto le tue e le mie parole valgono nulla di fronte alla semplice realtà dei fatti che scopriremo tra breve. Per la realtà passata è evidente che hai qualche problema ad interpretarla.
PaulGuru
23-06-2014, 10:51
Allora ritorniamo al fatto che avrà freq superiori del 20% a Kepler? :doh: Ma dove l'hai tirato fuori questo numero ?
Con il 30% di SP in meno a parità di frequenza va il 20% in meno di KeplerRipeto mettiti gli occhiali e impara a leggere.
Littlesnitch
23-06-2014, 10:54
Ma dove l'hai tirato fuori questo numero ?
Ripeto mettiti gli occhiali e impara a leggere.
Io leggo benissimo e la 750 va meno della 660.....
Comunque visto il tuo atteggiamento finisci in ignore assieme al tuo amico.
Adios.
PaulGuru
23-06-2014, 11:36
Io leggo benissimo e la 750 va meno della 660.....
E invece mi sà che ti ci vuole un paio di occhiali e pure forti, perchè la 660 ha 960 stream !!!
E grazie al piffero che va di più, ha il +50% di core, frequenze uguali ed anche ben 140W di TDP, ci mancherebbe che vada meno.
La 750 va confrontata con la 650, non sai proprio a cosa appigliarti.
Comunque visto il tuo atteggiamento finisci in ignore assieme al tuo amico.
Adios.Ma meno male ! Sai quanto mi frega finire nel tuo ignore list ?
E invece mi sà che ti ci vuole un paio di occhiali e pure forti, perchè la 660 ha 960 stream !!!
E grazie al piffero che va di più, ha il +50% di core, frequenze uguali ed anche ben 140W di TDP, ci mancherebbe che vada meno.
La 750 va confrontata con la 650, non sai proprio a cosa appigliarti.
Ma meno male ! Sai quanto mi frega finire nel tuo ignore list ?
che modi 14g
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.