View Full Version : [THREAD UFFICIALE] Aspettando R700
Io paragono il fatto che una scheda data per 480SP con prestazioni pressoche' individuate ora pare averne 800SP al di la dei Flops ecc...all'interno della stessa architettura...per me, per carità mi sbagliero', pero' sta cosa degli 800 mi pare una sparata....o se non lo è mi pare che quegli SP funzionino proprio male (inutili)...ma poi siamo sicuri che c'è lo spazio la' dentro per tutti quegli SP(160 invece che 64)? :fagiano:
Il problema vero è che in effetti noi sui forum semplifichiamo troppo a fare discorsi sulle capacità teoriche di calcolo, quando poi quello che conta non sono quante addizioni o moltiplicazioni con la virgola sai fare (dato che i flops sono quello... :asd: ), ma quanti "problemi" riesci a risolvere in un secondo con la tua architettura. E per calcolare quello devi tenere conto di tutta una serie di problemi (come un chip gestisce i thread, ecc...) che su un forum mi sa che è troppo difficile discuterne, a meno che non ci sia qualche persona davvero esperta.
Esatto, c'è anche un'altro fattore...il processo produttivo è sempre il 55nm ed essendo la dimensione del chip
RV670 -> 14,36 mm x 13.37 mm = 192 mm²
RV770 -> 15.65 mm x 15.65 mm = 245 mm²
è possibile? :stordita:
:read:
http://www.hwupgrade.it/forum/showpost.php?p=22790481&postcount=5406
Questo discorso è parecchio che lo vado facendo. ;)
infatti il punto di forza degli shader della 9600 sta nella velocità.... 64sp semplici @ 1625mhz..
mentre quelli delle 3800 sono 64x5 @ 675mhz o 775mhz....
eccaaaaaalllaaaaaaaaaaaaaa.....
poi rops uguali.. mentre le TMU sulla nvidia sono il doppio.. 32 vs 16...
Hai colto il punto. ;)
NVidia ha scelto la strada della semplicità e dell'equilibrio, mentre ATI quello della complicazione.
Uno garantisce uno sfruttamento migliore delle risorse a disposizione, l'altro garantisce una scalabilità eccezionale di potenza di calcolo con incrementi bassissimi di die size (a tutto vantaggio di costi, consumi e yields) e con clocks relativamente bassi.
Mettiamola così:
G80 e figli hanno dei "dipendenti" factotum molto efficienti e rapidi, che però "costano" molto e pretendono uffici molto ampi, essendo manodopera specializzata.
Mentre alla ATI hanno preferito dei team di cinesi che sanno fare in teoria tutto quello che fanno quelli di NVidia, ma che in realtà se la prendono più comoda (clocks più bassi) e che lavorano tutti insieme solo se gli si spiega per filo e per segno cosa devono fare con dei lunghi documenti (VLIW). Quindi in molti casi dei 5 cinesi ne lavorano sì e no 2 o 3, e comunque la struttura dell'azienda è fatta in modo tale che pure se lavorassero tutti e cinque contemporaneamente, tutto il lavoro prodotto da loro non riuscirebbe ad essere smistato per via di colli di bottiglia burocratici (il numero di TMU). In compenso vengono pagati poco e ne puoi stipare a centinaia in poco spazio.
Mi sembra un buon esempio... :asd:
Sul texturing, la strada ormai è stata tracciata, e AMD, contrariamente a quanto pensato in un primo momento, non la sconfessa, ma anzi va ancora oltre (ALU:TEX 5:1).
michelgaetano
07-06-2008, 13:41
G80 e figli hanno dei "dipendenti" factotum molto efficienti e rapidi, che però "costano" molto e pretendono uffici molto ampi, essendo manodopera specializzata.
Mentre alla ATI hanno preferito dei team di cinesi che sanno fare in teoria tutto quello che fanno quelli di NVidia, ma che in realtà se la prendono più comoda (clocks più bassi) e che lavorano tutti insieme solo se gli si spiega per filo e per segno cosa devono fare con dei lunghi documenti (VLIW). In compenso vengono pagati poco e li puoi stipare a centinaia in poco spazio.
lol
Foglia Morta
07-06-2008, 13:47
:boh: non so che dirti...non mi ha detto nulla nessuno, nessuno mi ha ancora risposto sui 160SP in quello spazio...dato che stiamo parlando sempre all'interno di una architettura che si presume non sconvolta...non capisco proprio la tua obiezione.
caso mai sono io che non so che dirti.
Io ho risposto a questo tuo post:
Infatti, perdonatemi la brutalità ma se con 800sp la nuova serie hd4xx0 facesse quei risutati sarebbe la conferma che questo approccio non pagha affatto perche' già mi pareva credibile che la hd4850 potesse essere superiore alla 9800gtx con 480SP...ma se confermata questa notizia io mi sarei aspettato di piu'...comunque credo che ci sia qualcosa che non quadri affatto...
Paragoni 2 gpu diverse in base a un numero che potrebbe essere benissimo essere stato preso a caso ( ma guardacaso non hai pescato il numero di tmu ) e pretendi poi di cambiare argomento.
In risposta a quel post ti ripeto che ciò che conta è il rapporto costo/benefici.
Poi quello che han fatto o non hanno fatto si giudicherà con le rece ufficiali
Mettiamola così:
G80 e figli hanno dei "dipendenti" factotum molto efficienti e rapidi, che però "costano" molto e pretendono uffici molto ampi, essendo manodopera specializzata.
Mentre alla ATI hanno preferito dei team di cinesi che sanno fare in teoria tutto quello che fanno quelli di NVidia, ma che in realtà se la prendono più comoda (clocks più bassi) e che lavorano tutti insieme solo se gli si spiega per filo e per segno cosa devono fare con dei lunghi documenti (VLIW). Quindi in molti casi dei 5 cinesi ne lavorano sì e no 2 o 3, e comunque la struttura dell'azienda è fatta in modo tale che pure se lavorassero tutti e cinque contemporaneamente, tutto il lavoro prodotto da loro non riuscirebbe ad essere smistato per via di colli di bottiglia burocratici (il numero di TMU). In compenso vengono pagati poco e ne puoi stipare a centinaia in poco spazio.
Mi sembra un buon esempio... :asd:
:rotfl:
Mister Tarpone
07-06-2008, 13:53
ma scusate è vera anche la storia dei clock separati per shader e core?? o restano come nelle 3800?? :confused:
no perchè pure quella sarebbe una bella spintarella...
Il problema vero è che in effetti noi sui forum semplifichiamo troppo a fare discorsi sulle capacità teoriche di calcolo, quando poi quello che conta non sono quante addizioni o moltiplicazioni con la virgola sai fare (dato che i flops sono quello... :asd: ), ma quanti "problemi" riesci a risolvere in un secondo con la tua architettura. E per calcolare quello devi tenere conto di tutta una serie di problemi (come un chip gestisce i thread, ecc...) che su un forum mi sa che è troppo difficile discuterne, a meno che non ci sia qualche persona davvero esperta.
:read:
http://www.hwupgrade.it/forum/showpost.php?p=22790481&postcount=5406
Questo discorso è parecchio che lo vado facendo. ;)
Hai colto il punto. ;)
NVidia ha scelto la strada della semplicità e dell'equilibrio, mentre ATI quello della complicazione.
Uno garantisce uno sfruttamento migliore delle risorse a disposizione, l'altro garantisce una scalabilità eccezionale di potenza di calcolo con incrementi bassissimi di die size (a tutto vantaggio di costi, consumi e yields) e con clocks relativamente bassi.
Mettiamola così:
G80 e figli hanno dei "dipendenti" factotum molto efficienti e rapidi, che però "costano" molto e pretendono uffici molto ampi, essendo manodopera specializzata.
Mentre alla ATI hanno preferito dei team di cinesi che sanno fare in teoria tutto quello che fanno quelli di NVidia, ma che in realtà se la prendono più comoda (clocks più bassi) e che lavorano tutti insieme solo se gli si spiega per filo e per segno cosa devono fare con dei lunghi documenti (VLIW). Quindi in molti casi dei 5 cinesi ne lavorano sì e no 2 o 3, e comunque la struttura dell'azienda è fatta in modo tale che pure se lavorassero tutti e cinque contemporaneamente, tutto il lavoro prodotto da loro non riuscirebbe ad essere smistato per via di colli di bottiglia burocratici (il numero di TMU). In compenso vengono pagati poco e ne puoi stipare a centinaia in poco spazio.
Mi sembra un buon esempio... :asd:
Sul texturing, la strada ormai è stata tracciata, e AMD, contrariamente a quanto pensato in un primo momento, non la sconfessa, ma anzi va ancora oltre (ALU:TEX 5:1).
LOL!! bellissimo l'esempio!! :asd: :asd:
ma scusate è vera anche la storia dei clock separati per shader e core?? o restano come nelle 3800?? :confused:
no perchè pure quella sarebbe una bella spintarella...
beh si era ipotizzata quando si pensava ai 480SP, ma con 800SP non c'è bisogno... ;)
Aggiungerei anche un'altra considerazione: gli 800 stream processors potrebbero dimostrare anche un'altra cosa.
Che forse l'idea di un'architettura così sbilanciata sugli shaders non è così sbagliata, e che invece in futuro sarà un'architettura bilanciata come quella di G80 ad avere problemi a "crescere".
Mentre quella di R600 potrebbe continuare a scalare per un bel po' con semplici mega iniezioni di stream processors, il che rappresenterebbe un gran bel risparmio di R&D (dato anche che il tessellator per le DX11 ce l'hanno già)
A fine 2008 o inizio 2009 arriverà il G200 a 55nm, dopodichè arriverà il G300 sempre a 55nm (a meno che non vogliano lanciare una nuova generazione di schede con un nuovo processo, ma dopo NV30 mi sa che non è il caso... :asd: )
Un G200 a 55nm starà comunque sui 300-400mm^2, pure se togliessero il bus a 512, dato che poi dovrebbero ancora rimontarci dentro il chip NVIO.
Come faranno a raddoppiare le prestazioni della single card con questa architettura? Faranno un chip di oltre 600mm^2? Mi pare strano.
Aggiungerei anche un'altra considerazione: gli 800 stream processors potrebbero dimostrare anche un'altra cosa.
Che forse l'idea di un'architettura così sbilanciata sugli shaders non è così sbagliata, e che invece in futuro sarà un'architettura bilanciata come quella di G80 ad avere problemi a "crescere".
Mentre quella di R600 potrebbe continuare a scalare per un bel po' con semplici mega iniezioni di stream processors, il che rappresenterebbe un gran bel risparmio di R&D (dato anche che il tessellator per le DX11 ce l'hanno già)
A fine 2008 o inizio 2009 arriverà il G200 a 55nm, dopodichè arriverà il G300 sempre a 55nm (a meno che non vogliano lanciare una nuova generazione di schede con un nuovo processo, ma dopo NV30 mi sa che non è il caso... :asd: )
Un G200 a 55nm starà comunque sui 300-400mm^2, pure se togliessero il bus a 512, dato che poi dovrebbero ancora rimontarci dentro il chip NVIO.
Come faranno a raddoppiare le prestazioni della single card con questa architettura? Faranno un chip di oltre 600mm^2? Mi pare strano.
avevano detto che un G200 con bus tagliato a 55nm avrebbe occupato 400mm^2, quindi o lanciano la nuova architettura già a 40nm oppure devono cambiarla radicalmente.
Da questo PDV ATI è MOLTO più al sicuro visto che un ipotetico R800 a 40nm con 1600SP occuperà tanto quanto RV770... :)
Mister Tarpone
07-06-2008, 14:14
faranno una 256bit (o magari 320bit) ddr5 con 240sp x2 o x3 16rops e 120TMU... :sbonk:
l'ho sparata grossa?? :confused: :mc:
Mister Tarpone
07-06-2008, 14:19
naaa... cmq è inutile pensarci adesso... in futuro si vedrà... ;)
probabilmente con le prossime schede dx11 nvidia modificherà di brutto l'attuale architettura.. ;)
gianni1879
07-06-2008, 14:22
naaa... cmq è inutile pensarci adesso... in futuro si vedrà... ;)
probabilmente con le prossime schede dx11 nvidia modificherà di brutto l'attuale architettura.. ;)
no vi riproporrà la solita ottima minestra :D
scusate non ho resistito :asd:
Mister Tarpone
07-06-2008, 14:25
no vi riproporrà la solita ottima minestra :D
scusate non ho resistito :asd:
vabbè.. pure quella ati è una minestra riscaldata che va avanti da r600...
infatti 2900 e 3800 sono quasi uguali..
anche le 4800 son sempre la stessa architettura potenziata nelle tmu e shader.. ;)
avevano detto che un G200 con bus tagliato a 55nm avrebbe occupato 400mm^2, quindi o lanciano la nuova architettura già a 40nm oppure devono cambiarla radicalmente.
Da questo PDV ATI è MOLTO più al sicuro visto che un ipotetico R800 a 40nm con 1600SP occuperà tanto quanto RV770... :)
No, occuperebbe meno, in quanto dai 55nm ai 40nm la densità aumenta di quasi 2,5 volte. Probabilmente in AMD sarebbero capaci di infilarci 3 RV770 nello stesso die-size con il pp a 40nm, vedendo come con lo stesso pp sono riusciti a raddoppiare e oltre le specifiche aumentando leggermente il die-size.
PS: Forse è fake la slide...
http://www.xtremesystems.org/forums/showpost.php?p=3043146&postcount=1533
Però potrebbe comunque essere vero il fatto degli 800sp. Troppa gente informata la pensa allo stesso modo. E i clock sono indicativi, perfettamente adatti ad arrivare precisamente a 1 e 1,2 Teraflops con 800sp.
ma scusate è vera anche la storia dei clock separati per shader e core?? o restano come nelle 3800?? :confused:
no perchè pure quella sarebbe una bella spintarella...
Beh ne avrebbero bisogno di più le ROPs di frequenze più alte, ora. ;)
naaa... cmq è inutile pensarci adesso... in futuro si vedrà... ;)
probabilmente con le prossime schede dx11 nvidia modificherà di brutto l'attuale architettura.. ;)
infatti stavamo dicendo che come stanno ora le cose NVIDIA probabilmente sarà costretta a cambiare radicalmente architettura mentre ATI potrà andare avanti ad aggiungere i GRANDI GROSSI e FREGNONI (LOL! continuo a scriverlo xkè stra ridere :D ) SP
No, occuperebbe meno, in quanto dai 55nm ai 40nm la densità aumenta di quasi 2,5 volte. Probabilmente in AMD sarebbero capaci di infilarci 3 RV770 nello stesso die-size con il pp a 40nm, vedendo come con lo stesso pp sono riusciti a raddoppiare e oltre le specifiche aumentando leggermente il die-size.
PS: Forse è fake la slide...
http://www.xtremesystems.org/forums/showpost.php?p=3043146&postcount=1533
Però potrebbe comunque essere vero il fatto degli 800sp. Troppa gente informata la pensa allo stesso modo. E i clock sono indicativi, perfettamente adatti ad arrivare precisamente a 1 e 1,2 Teraflops con 800sp.
in effetti la SLIDE sa molto di FAKE.
Ma se l'altra era una slide ufficiale di AMD allora anche questa potrebbe benissimo esserlo... :)
Kharonte85
07-06-2008, 14:37
Il problema vero è che in effetti noi sui forum semplifichiamo troppo a fare discorsi sulle capacità teoriche di calcolo, quando poi quello che conta non sono quante addizioni o moltiplicazioni con la virgola sai fare (dato che i flops sono quello... :asd: ), ma quanti "problemi" riesci a risolvere in un secondo con la tua architettura. E per calcolare quello devi tenere conto di tutta una serie di problemi (come un chip gestisce i thread, ecc...) che su un forum mi sa che è troppo difficile discuterne, a meno che non ci sia qualche persona davvero esperta.
Non è un caso la brutale architettura di G80 si mangio' a suo tempo la complessa e sofisticata principessina che era R600...:sofico:
http://www.hwupgrade.it/forum/showpost.php?p=22790481&postcount=5406
Questo discorso è parecchio che lo vado facendo. ;)
Quindi mi stai dicendo che in 53mm2 senza cambiare processo produttivo ci stanno sicuro 96SP in piu'?
Hai colto il punto. ;)
NVidia ha scelto la strada della semplicità e dell'equilibrio, mentre ATI quello della complicazione.
Uno garantisce uno sfruttamento migliore delle risorse a disposizione, l'altro garantisce una scalabilità eccezionale di potenza di calcolo con incrementi bassissimi di die size (a tutto vantaggio di costi, consumi e yields) e con clocks relativamente bassi.
Mettiamola così:
G80 e figli hanno dei "dipendenti" factotum molto efficienti e rapidi, che però "costano" molto e pretendono uffici molto ampi, essendo manodopera specializzata.
Mentre alla ATI hanno preferito dei team di cinesi che sanno fare in teoria tutto quello che fanno quelli di NVidia, ma che in realtà se la prendono più comoda (clocks più bassi) e che lavorano tutti insieme solo se gli si spiega per filo e per segno cosa devono fare con dei lunghi documenti (VLIW). Quindi in molti casi dei 5 cinesi ne lavorano sì e no 2 o 3, e comunque la struttura dell'azienda è fatta in modo tale che pure se lavorassero tutti e cinque contemporaneamente, tutto il lavoro prodotto da loro non riuscirebbe ad essere smistato per via di colli di bottiglia burocratici (il numero di TMU). In compenso vengono pagati poco e ne puoi stipare a centinaia in poco spazio.
Mi sembra un buon esempio... :asd:
Sul texturing, la strada ormai è stata tracciata, e AMD, contrariamente a quanto pensato in un primo momento, non la sconfessa, ma anzi va ancora oltre (ALU:TEX 5:1).
Infatti secondo me continua a sprecare un mucchio di potenzialita', perche' se sono davvero 800sp...va bene essere ben preparati alla gestione degli shader ma che se ne fa dico io? Si incontreranno mille colli di bottiglia prima di poterli sfruttare, visto che il resto pare invariato... :mc:
Bhe sarebbe anche logico, visto che raddoppiano le tmu avere un numero circa doppio di sp, io inizialmente pensavo sinceramente 640, quando ancora latitavano le notizie.
Comunque il problema imho restano i giochi che su Ati rendono proporzionalmente di meno ingiustificatamente alcune volte, e se rendono di più fanno in modo di correggere gli errori tramite patch.
A parte questo penso che ormai l'architettura di r600 sia matura per essere sfruttata meglio anche nei giochi, visto che i driver maturano a ogni release.
Mister Tarpone
07-06-2008, 14:41
infatti stavamo dicendo che come stanno ora le cose NVIDIA probabilmente sarà costretta a cambiare radicalmente architettura mentre ATI potrà andare avanti ad aggiungere i GRANDI GROSSI e FREGNONI (LOL! continuo a scriverlo xkè stra ridere :D ) SP
beh che ne sai?? potrebbe essere che pure ati con le schede di generazione dx11 stravolgerà la sua architettura :asd:
cmq vedremo...
sta a pensare come saranno le schede tra 2 anni son tutte pippe mentali inutili, per adesso ;)
beh che ne sai?? potrebbe essere che pure ati con le schede di generazione dx11 stravolgerà la sua architettura :asd:
cmq vedremo...
sta a pensare come saranno le schede tra 2 anni son tutte pippe mentali inutili, per adesso ;)
beh, questo è ovvio... :)
quoto sulle pippe inutili, anche se è un thread di pippe inutili questo! :D
Mister Tarpone
07-06-2008, 14:49
quoto sulle pippe inutili, anche se è un thread di pippe inutili questo! :D
in questo thread ci stiamo spippolando un pò tutti... :oink: :asd:
Kharonte85
07-06-2008, 14:51
caso mai sono io che non so che dirti.
Io ho risposto a questo tuo post:
Paragoni 2 gpu diverse in base a un numero che potrebbe essere benissimo essere stato preso a caso ( ma guardacaso non hai pescato il numero di tmu ) e pretendi poi di cambiare argomento.
In risposta a quel post ti ripeto che ciò che conta è il rapporto costo/benefici.
Poi quello che han fatto o non hanno fatto si giudicherà con le rece ufficiali
Ti senti bene? :fagiano:
Io prima ho paragonato la stessa Vga con caratteristiche ipotetiche diverse, ed ho ampliato il discorso sull'intervento di A.l.m. la 9800gtx l'ho considerata solo come riferimento
1) Rv770 480sp bla bla bla
2) RV770 800sp bla bla bla (con bla=al bla di prima)
Tralasciando il calcolo dei flops (e il fatto che a sensazione credo che sia una notizia poco verosimile) da questo dico:
- Mi sembrava credibile con le specifiche 1) aspettarsi tot prestazioni individuate a tot distanza da 9800GTX mentre con specifiche 2) la cosa mi pareva riduttiva e sempre con specifiche 2) la hd4870 dovrebbe (non essendo bandwlimited andare molto di piu' del 30% della sorellina)
-Mi sembrava giusto viste le dimensioni del chip sollevare dei dubbi...
Poi potro' avere torto o ragione (aspettando lo sapremo), ma non mi sembrava proprio di meritarmi la tua obiezione (che forse si riferiva ad un discorso di Hal :boh:)....sono stato chiaro o devo farti anche uno schema? :sofico:
Il discorso costo/benefici non era in discussione, manco nominato.
Quindi mi stai dicendo che in 53mm2 senza cambiare processo produttivo ci stanno sicuro 96SP in piu'?
I mm2 sono un po' di più, credo una 60ina (RV670 192mm^2, RV770 250mm^2 circa).
A parte questo, RV635 ha una die size di 120-130mm^2.
Volendo ci potrebbero stare, penso. Certo se fosse vero credo che sarebbe il più grande incremento prestazionale per mm^2 della storia delle gpu... :)
Infatti secondo me continua a sprecare un mucchio di potenzialita', perche' se sono davvero 800sp...va bene essere ben preparati alla gestione degli shader ma che se ne fa dico io? Si incontreranno mille colli di bottiglia prima di poterli sfruttare, visto che il resto pare invariato... :mc:
Evidentemente ci sono altri limiti che i progettisti dovevano rispettare, magari il die size (sempre per i famosi yields). Aumentare gli sp forse era la soluzione più furba, dovendo fare le nozze coi fichi secchi.
beh che ne sai?? potrebbe essere che pure ati con le schede di generazione dx11 stravolgerà la sua architettura :asd:
Può essere, però le specifiche DX10.1 che sono anche dentro le DX11, così come la tessellation unit (che sicuramente è nelle DX11, lo conferma pure NVidia) le ATI ce le hanno già, basteranno un po' di ritocchi, probabilmente. ;)
sta a pensare come saranno le schede tra 2 anni son tutte pippe mentali inutili, per adesso ;)
Se è per questo pure il 90% dei post di questo e altri thread lo sono... :asd:
Kharonte85
07-06-2008, 14:55
in questo thread ci stiamo spippolando un pò tutti... :oink: :asd:
Infatti l'unica verità inconfutabile è questa...:asd:
Mister Tarpone
07-06-2008, 14:56
Se è per questo pure il 90% dei post di questo e altri thread lo sono... :asd:
ed è giusto.. ;) dato che ormai le 2 4800 sono alle porte.. infatti nelle ultime settimane le pippe in questo thread sono aumentate in maniera mostruosa... :asd:
ed è giusto.. ;) dato che ormai le 2 4800 sono alle porte.. infatti nelle ultime settimane le pippe in questo thread sono aumentate in maniera mostruosa... :asd:
Si ma Tampone è sempre stato e sempre sarà così, è una ruota. :asd:
Mister Tarpone
07-06-2008, 14:59
Si ma Tarpone è sempre stato e sempre sarà così, è una ruota. :asd:
Infatti l'unica verità inconfutabile è questa...:asd:
tutti pipparoli.. :O
Mercuri0
07-06-2008, 15:00
PS: Forse è fake la slide...
http://www.xtremesystems.org/forums/showpost.php?p=3043146&postcount=1533
Per me potrebbe essere fake a prescindere, ma le argomentazioni del tipo sono veramente deboli: perché il carattere dovrebbe essere sempre lo stesso dopo due anni (quello nuovo non è mica segoe di vista?), e perché AMD dovrebbe mettere il grigio per forza in alternata, e non sulle due righe che più vuol mettere in evidenza?
Può essere, però le specifiche DX10.1 che sono anche dentro le DX11, così come la tessellation unit (che sicuramente è nelle DX11, lo conferma pure NVidia) le ATI ce le hanno già, basteranno un po' di ritocchi, probabilmente. ;)
Ci stavo pensando anche io: le DX11 non sono state ancora finalizzate, ma dal poco che si sa non sembra che AMD debba fare molta fatica per adattare R6xx.
A meno che le specifiche del tessellatore nelle DX11 non siano rivoluzionate proprio per renderle incompatibli con l'hardware di AMD :D
A meno che AMD non decida all'uscita delle DX11 di uscire con un'altra architettura-fiasco che però è già pronta per le DX12 :asd:
p.s. a momenti per le DX11 su R6xx sembra basti un driver. Ovvio che non lo farebbero neanche fosse possibile.
Foglia Morta
07-06-2008, 15:01
Ti senti bene? :fagiano:
Io prima ho paragonato la stessa Vga con caratteristiche ipotetiche diverse, ed ho ampliato il discorso sull'intervento di A.l.m. la 9800gtx l'ho considerata solo come riferimento
1) Rv770 480sp bla bla bla
2) RV770 800sp bla bla bla (con bla=al bla di prima)
Tralasciando il calcolo dei flops (e il fatto che a sensazione credo che sia una notizia poco verosimile) da questo dico:
- Mi sembrava credibile con le specifiche 1) aspettarsi tot prestazioni individuate a tot distanza da 9800GTX mentre con specifiche 2) la cosa mi pareva riduttiva e sempre con specifiche 2) la hd4870 dovrebbe (non essendo bandwlimited andare molto di piu' del 30% della sorellina)
-Mi sembrava giusto viste le dimensioni del chip sollevare dei dubbi...
Poi potro' avere torto o ragione (aspettando lo sapremo), ma non mi sembrava proprio di meritarmi la tua obiezione (che forse si riferiva ad un discorso di Hal :boh:)....sono stato chiaro o devo farti anche uno schema? :sofico:
Il discorso costo/benefici non era in discussione, manco nominato.
Se usi la 9800 GTX come base come minimo fai un confronto anche con quella scheda e stop... Poi cosa contenga o non contenga la gpu è secondario.
Se ti aspetti tot da $200 di scheda poi non ti puoi aspettare totx2 se cambiano delle specifiche ( che manco si sa se sono corrette e neanche come funzionano precisamente ) perchè sempre $200 di scheda si tratta.
Kharonte85
07-06-2008, 15:03
I mm2 sono un po' di più, credo una 60ina (RV670 192mm^2, RV770 250mm^2 circa).
A parte questo, RV635 ha una die size di 120-130mm^2.
Volendo ci potrebbero stare, penso. Certo se fosse vero credo che sarebbe il più grande incremento prestazionale per mm^2 della storia delle gpu... :)
Io ho fatto riferimento a questo ed ho trovato quelle misure:
http://forum.beyond3d.com/showpost.php?p=1172147&postcount=2723
Boh, ma poi per far andare tutti quegli SP i consumi non dovrebbero aumentare per forza un po' anche loro? :fagiano:
Evidentemente ci sono altri limiti che i progettisti dovevano rispettare, magari il die size (sempre per i famosi yields). Aumentare gli sp forse era la soluzione più furba, dovendo fare le nozze coi fichi secchi.
Puo' essere pero' caxxo li avrebbero quasi triplicati :sofico:
Può essere, però le specifiche DX10.1 che sono anche dentro le DX11, così come la tessellation unit (che sicuramente è nelle DX11, lo conferma pure NVidia) le ATI ce le hanno già, basteranno un po' di ritocchi, probabilmente. ;)
Io credo piu' allo stravolgimento totale...multi-core-GPU e altre amenita' del genere...GPU volanti, basculanti e roteanti...cose mai viste :asd:
Ah, interessante punto di vista da beyond3d.
Era da tempo che ATI non diminuiva la frequenza da una generazione ad un'altra. Di solito aumentava per migliorare ulteriormente le performance.
Alla luce delle ultime informazioni, potremmo rileggere queste slide:
http://www.4gamer.net/games/045/G004578/20080604037/SS/003.jpg
http://www.4gamer.net/games/045/G004578/20080604037/SS/004.jpg
Il chiaro riferimento al Ray-tracing e alla fusione CG-Game-> Cinema 2.0 significa che AMD sulle sue schede vuole potenza, tanta potenza di calcolo floating point, per aggredire con Fusion e Torrenza anche il mercato workstation e supercomputing, ma anche poter fornire interfacce grafiche avanzate su dispositivi semplici e telecamere dotate di processori video molto potenti: biometria, face recognition, I.A e tante altre applicazioni.
Sono convinto che R800 sarà multi-core e che ognuno dei suoi 6-8 core sarà un RV770.
Quindi R800 potrebbe essere un multi-chip da 6+ Teraflops se non oltre: AMD sulla sua nuova high-end (R700) fornirà una potenza di calcolo 2,5 volte superiore a quella passata cioè R680 e 6 volte superiore a R600.
Kharonte85
07-06-2008, 15:12
Se usi la 9800 GTX come base come minimo fai un confronto anche con quella scheda e stop... Poi cosa contenga o non contenga la gpu è secondario.
Ma che è? Hai la fissa con sta GPU? E compratela!!! :sofico:
Il confronto lo facevo come gli altri con la scheda a 480SP e mi pareva giusto...
E se permetti cosa contiene una GPU non è secondario, direi che è proprio tutto :D
Se ti aspetti tot da $200 di scheda poi non ti puoi aspettare totx2 se cambiano delle specifiche ( che manco si sa se sono corrette e neanche come funzionano precisamente ) perchè sempre $200 di scheda si tratta.
Infatti e' esattamente quello da cui sono partito: mi chiedevo a cosa potrebbero mai servire se nemmeno verrebbero sfruttati o meglio se raggiungono una efficienza cosi' relativamente bassa, da qui l'inutilita' (oppure le ipotesi di ALM) e la mia perplessita' su quelle prestazioni e sulla notizia in generale (se effettivamente ci sono)...tutto qua...vengo in pace, c'è stato un qui pro quo :)
halduemilauno
07-06-2008, 15:16
Se usi la 9800 GTX come base come minimo fai un confronto anche con quella scheda e stop... Poi cosa contenga o non contenga la gpu è secondario.
Se ti aspetti tot da $200 di scheda poi non ti puoi aspettare totx2 se cambiano delle specifiche ( che manco si sa se sono corrette e neanche come funzionano precisamente ) perchè sempre $200 di scheda si tratta.
probabilmente, forse Kharonte si riferisce ad un'aspetto che si potrebbe chiarire con un'esempio:
bella macchina, molto veloce, quanti cavalli ha? 200 accidenti e quanto fa? 200 orari. poi se si scopre che quella stessa macchina non ha 200 cavalli ma ne ha 300 di cavalli vapore i 200 orari son meno belli. certo la macchina continua a costare come prima e i 200 orari di prima ci sono pure adesso ma un conto era raggiungerli con 200 cavalli(accidenti complimenti) e un'altro con 300(un pò sprecatucci per andare solo a 200 orari).
ripeto probabilmente.
e tutto questo ammesso che si tratti veramente di 300 cavalli o meglio nella nostra storia di 800 shader.
mo speriamo che non vengano i soliti muniti di calibro a misurare corsa e alesaggio.
probabilmente, forse Kharonte si riferisce ad un'aspetto che si potrebbe chiarire con un'esempio:
bella macchina, molto veloce, quanti cavalli ha? 200 accidenti e quanto fa? 200 orari. poi se si scopre che quella stessa macchina non ha 200 cavalli ma ne ha 300 di cavalli vapore i 200 orari son meno belli. certo la macchina continua a costare come prima e i 200 orari di prima ci sono pure adesso ma un conto era raggiungerli con 200 cavalli(accidenti complimenti) e un'altro con 300(un pò sprecatucci per andare solo a 200 orari).
ripeto probabilmente.
e tutto questo ammesso che si tratti veramente di 300 cavalli o meglio nella nostra storia di 800 shader.
Questo sarebbe giusto se il mero numero di shader o i TFlops fossero davvero un metro di paragone di prestazioni (così come i cavalli lo sono).
Comunque tutto ora sembra avere un senso... :O
Leggetevi cosa disse W1zzard qualche settimana fa...
Dava in pratica per certo che le SU sarebbero state 160. ;)
http://forums.techpowerup.com/showpost.php?p=790539&postcount=36
probabilmente, forse Kharonte si riferisce ad un'aspetto che si potrebbe chiarire con un'esempio:
bella macchina, molto veloce, quanti cavalli ha? 200 accidenti e quanto fa? 200 orari. poi se si scopre che quella stessa macchina non ha 200 cavalli ma ne ha 300 di cavalli vapore i 200 orari son meno belli. certo la macchina continua a costare come prima e i 200 orari di prima ci sono pure adesso ma un conto era raggiungerli con 200 cavalli(accidenti complimenti) e un'altro con 300(un pò sprecatucci per andare solo a 200 orari).
ripeto probabilmente.
e tutto questo ammesso che si tratti veramente di 300 cavalli o meglio nella nostra storia di 800 shader.
mo speriamo che non vengano i soliti muniti di calibro a misurare corsa e alesaggio.
Il realtà le carte in tavola cambiano davvero poco perchè i 480sp , sempre secondo i rumor, avrebbero una frequenza di circa 1,05 Ghz-> quindi sempre di un Teraflops si parla.
Mercuri0
07-06-2008, 15:24
Il chiaro riferimento al Ray-tracing
Quale chiaro riferimento al ray-tracing? :confused:
e alla fusione CG-Game-> Cinema 2.0 significa che AMD sulle sue schede vuole potenza, tanta potenza di calcolo floating point, per aggredire con Fusion e Torrenza anche il mercato workstation e supercomputing, ma anche poter fornire interfacce grafiche avanzate su dispositivi semplici e telecamere dotate di processori video molto potenti: biometria, face recognition, I.A e tante altre applicazioni.
Sono convinto che R800 sarà multi-core e che ognuno dei suoi 6-8 core sarà un RV770.
Quindi R800 potrebbe essere un multi-chip da 6+ Teraflops se non oltre: AMD sulla sua nuova high-end (R700) fornirà una potenza di calcolo 2,5 volte superiore a quella passata cioè R680 e 6 volte superiore a R600.
Cala, cala.
Attualmente non credo sia così facile o conveniente fare cluster di GPU, e il problema maggiore attuale per il calcolo GPGPU non è averci i teraflops, ma un'architettura abbastanza flessibile e nuovi modelli di programmazione. E su questo punto che si giocherà la battaglia Larrabee/GPU/Cell.
Non è un caso la brutale architettura di G80 si mangio' a suo tempo la complessa e sofisticata principessina che era R600...:sofico:
Quindi mi stai dicendo che in 53mm2 senza cambiare processo produttivo ci stanno sicuro 96SP in piu'?
Infatti secondo me continua a sprecare un mucchio di potenzialita', perche' se sono davvero 800sp...va bene essere ben preparati alla gestione degli shader ma che se ne fa dico io? Si incontreranno mille colli di bottiglia prima di poterli sfruttare, visto che il resto pare invariato... :mc:
Il problema sono le prestazioni nel caso peggiore ovvero quando i 320 sp diventano 64 o poco più. In questo modo nel peggiore dei casi i cinesi a lavoro sarebbero 160sp ad una velocità però sempre inferiore ai professionisti nvidia.
Foglia Morta
07-06-2008, 15:25
Ma che è? Hai la fissa con sta GPU? E compratela!!! :sofico:
Il confronto lo facevo come gli altri con la scheda a 480SP e mi pareva giusto...
E se permetti cosa contiene una GPU non è secondario, direi che è proprio tutto :D
Infatti e' esattamente quello da cui sono partito: mi chiedevo a cosa potrebbero mai servire se nemmeno verrebbero sfruttati o meglio se raggiungono una efficienza cosi' relativamente bassa, da qui l'inutilita' (oppure le ipotesi di ALM) e la mia perplessita' su quelle prestazioni e sulla notizia in generale (se effettivamente ci sono)...tutto qua...vengo in pace, c'è stato un qui pro quo :)
ok capito il pri pro quo... comunque con quel contiene o non contiene mi son spiegato male , intendevo dire che è riduttivo farsi un idea delle prestazioni di un architettura solo per il numero di sp... va visto nel complesso
probabilmente, forse Kharonte si riferisce ad un'aspetto che si potrebbe chiarire con un'esempio:
bella macchina, molto veloce, quanti cavalli ha? 200 accidenti e quanto fa? 200 orari. poi se si scopre che quella stessa macchina non ha 200 cavalli ma ne ha 300 di cavalli vapore i 200 orari son meno belli. certo la macchina continua a costare come prima e i 200 orari di prima ci sono pure adesso ma un conto era raggiungerli con 200 cavalli(accidenti complimenti) e un'altro con 300(un pò sprecatucci per andare solo a 200 orari).
ripeto probabilmente.
e tutto questo ammesso che si tratti veramente di 300 cavalli o meglio nella nostra storia di 800 shader.
Per te i cavalli sono gli shader , per qualcun altro potrebbero essere le tmu e qualcun altro ancora potrebbe considerare il tutto nel suo insieme. Quindi alla fine come esempio è fuorviante...
Il problema sono le prestazioni nel caso peggiore ovvero quando i 320 sp diventano 64 o poco più. In questo modo nel peggiore dei casi i cinesi a lavoro sarebbero 160sp ad una velocità però sempre inferiore ai professionisti nvidia.
Per questo avere 160SU a 625MHz dovrebbe comunque essere meglio che averne 96 a 1050MHz, tra l'altro. ;)
halduemilauno
07-06-2008, 15:30
ok capito il pri pro quo... comunque con quel contiene o non contiene mi son spiegato male , intendevo dire che è riduttivo farsi un idea delle prestazioni di un architettura solo per il numero di sp... va visto nel complesso
Per te i cavalli sono gli shader , per qualcun altro potrebbero essere le tmu e qualcun altro ancora potrebbe considerare il tutto nel suo insieme. Quindi alla fine come esempio è fuorviante...
ma il rumors di oggi parla del numero degli shader. è ovvio che parlando di questo faccio l'esempio su questo. dopotutto la battuta che vado dicendo da un'anno a questa parte si riferisce proprio al numero degli shader.
Mister Tarpone
07-06-2008, 15:32
Per questo avere 160SU a 625MHz dovrebbe comunque essere meglio che averne 96 a 1050MHz, tra l'altro. ;)
per questo avevo dei dubbi sul fatto che una 96shader a 625mhz (una 4850 a 480sp) potesse andare come una 128shader a 1688mhz... (9800gtx) ;)
è anche vero che va visto il resto dell'architettura... perchè in queste 4800 c'è pure il doppio delle tmu.... ;)
;)
;)
Quale chiaro riferimento al ray-tracing? :confused:
Beh parlano di rendering cinematografico con interattività 3D prima del 2014 e poi mostrano uno spezzone di demo tecnologica che AMD dice sia in raytracing (probabilmente un'approssimazione di raytracing)
Cala, cala.
Attualmente non credo sia così facile o conveniente fare cluster di GPU, e il problema maggiore attuale per il calcolo GPGPU non è averci i teraflops, ma un'architettura abbastanza flessibile e nuovi modelli di programmazione. E su questo punto che si giocherà la battaglia Larrabee/GPU/Cell.
Speriamo che si diano da fare anche sul lato programmazione allora.
halduemilauno
07-06-2008, 15:33
Per questo avere 160SU a 625MHz dovrebbe comunque essere meglio che averne 96 a 1050MHz, tra l'altro. ;)
precisamente dovrebbe essere 160 a 750 son meglio di 96 a 1050(nel caso della 4870). son meglio 160 a 625 di 96 a 850(nel caso della 4850).
Mister Tarpone
07-06-2008, 15:35
precisamente dovrebbe essere 160 a 750 son meglio di 96 a 1050(nel caso della 4870). son meglio 160 a 625 di 96 a 850(nel caso della 4850).
ma il clock della 4850 non era di 625mhz??? mentre nella 4870 di 750mhz??
l'ho letto qualche pagina fa!!!
halduemilauno
07-06-2008, 15:35
per questo avevo dei dubbi sul fatto che una 96shader a 625mhz (una 4850 a 480sp) potesse andare come una 128shader a 1688mhz... (9800gtx) ;)
è anche vero che va visto il resto dell'architettura... perchè in queste 4800 c'è pure il doppio delle tmu.... ;)
;)
;)
la metà. nelle 4800 son 32 e la 9800gtx ne ha 64. oppure anche le tmu son cambiate?
Mister Tarpone
07-06-2008, 15:36
la metà. nelle 4800 son 32 e la 9800gtx ne ha 64. oppure anche le tmu son cambiate?
32tmu nelle 4800.... ;) ;) ;) ;) ;)
halduemilauno
07-06-2008, 15:36
ma il clock della 4850 non era di 625mhz??? mentre nella 4870 di 750mhz??
l'ho letto qualche pagina fa!!!
esatto. nell'altro rumors con gli shader a 480 la frequenza era o pareva esser diversa dal core 850 per la 4850 e 1050 per la 4870.
halduemilauno
07-06-2008, 15:37
32tmu nelle 4800.... ;) ;) ;) ;) ;)
appunto quindi la metà delle 64 della 9800gtx.
Foglia Morta
07-06-2008, 15:37
ma il rumors di oggi parla del numero degli shader. è ovvio che parlando di questo faccio l'esempio su questo. dopotutto la battuta che vado dicendo da un'anno a questa parte si riferisce proprio al numero degli shader.
l'esempio allora fallo per quel concerne quell'aspetto specifico , non sull'architettura nel suo complesso in funzione di un suo solo aspetto, perchè se anche fossero 800 non si conosce il resto
Mister Tarpone
07-06-2008, 15:38
esatto. nell'altro rumors con gli shader a 480 la frequenza era o pareva esser diversa dal core 850 per la 4850 e 1050 per la 4870.
ahh!! ecco!! ;)
( che confusione con sti rumors :asd: )
halduemilauno
07-06-2008, 15:41
l'esempio allora fallo per quel concerne quell'aspetto specifico , non sull'architettura nel suo complesso in funzione di un suo solo aspetto, perchè se anche fossero 800 non si conosce il resto
sempre fatto su quell'aspetto specifico. la battuta 320 shader grandi grossi e fregnoni a cosa si può mai riferire se non appunto ai 320 shader.
precisamente dovrebbe essere 160 a 750 son meglio di 96 a 1050(nel caso della 4870). son meglio 160 a 625 di 96 a 850(nel caso della 4850).
In realtà io facevo l'esempio a parità (o quasi) di flops. :)
gianni1879
07-06-2008, 15:43
ma il clock della 4850 non era di 625mhz??? mentre nella 4870 di 750mhz??
l'ho letto qualche pagina fa!!!
infatti ha scritto giusto;)
Mister Tarpone
07-06-2008, 15:43
appunto quindi la metà delle 64 della 9800gtx.
;)
..uguali ad una 9600GT... e sempre inferiori ad una 8800GT che ne ha 56...
Foglia Morta
07-06-2008, 15:43
sempre fatto su quell'aspetto specifico. la battuta 320 shader grandi grossi e fregnoni a cosa si può mai riferire se non appunto ai 320 shader.
no non hai capito...ma è inutile tornare a spiegartelo
halduemilauno
07-06-2008, 15:46
In realtà io facevo l'esempio a parità (o quasi) di flops. :)
i 1008 della 4870 vecchio stile(480 shader)e i 1000 della 4850 nuovo stile(800 shader). si pari flops ma schede diverse.
halduemilauno
07-06-2008, 15:47
;)
..uguali ad una 9600GT... e sempre inferiori ad una 8800GT che ne ha 56...
d'accordo ma adesso che facciamo le citiamo tutte le schede?
;)
halduemilauno
07-06-2008, 15:49
no non hai capito...ma è inutile tornare a spiegartelo
tanto sempre grandi grossi e fregnoni rimangono. anzi a pari risultato(con i 480)gli 800 sono ancora + grandi, ancora + grossi e ancora + fregnoni.
Mister Tarpone
07-06-2008, 15:53
d'accordo ma adesso che facciamo le citiamo tutte le schede?
;)
dai... ;) facciamo una classifica in base alle tmu ... :asd:
gianni1879
07-06-2008, 15:53
tanto sempre grandi grossi e fregnoni rimangono. anzi a pari risultato(con i 480)gli 800 sono ancora + grandi, ancora + grossi e ancora + fregnoni.
grandi e grossi mica tanto, se nello stesso spazio ce ne stanno di più, vuol dire che son proprio piccolini...
Athlon 64 3000+
07-06-2008, 16:00
RV770 con 480SP(96 shader unit in realtà)con 32 TMU e 16 rop's magari potenziate per esempio in versione HD 4850 clokkata a 625 Mhz ci starebbe che abbia le prestazioni della 9800GTX mentre la HD 4870 con 750 mhz e oltre ma con le gddr5 con il 30% della HD 4850 avrebbe senso.
Penso che sarebbero perfomance sensate anche per il fatto che riporterebbero il rapporto shader:TMU a 3:1 rendendo il chip più equilibrato e molto più performante di RV670 nell'uso dei filtri.
Ma il fatto che possa avere 800SP con "sole" 32 TMU mi pare poco sensato visto che sbilancerebbe ancora di più il rapporto shader:TMU a 5:1 e vedere una gpu come la HD 4850 con quelle caratteristiche andare come una 9800GTX mi pare che potrebbe essere un catorcio di scheda.
Mister Tarpone
07-06-2008, 16:08
mahh... quoto... con 800sp dovrebbe andare meglio di una gtx già la 4850...
però son strane le 32tmu con tutti quegli sp.. boh..
RV770 con 480SP(96 shader unit in realtà)con 32 TMU e 16 rop's magari potenziate per esempio in versione HD 4850 clokkata a 625 Mhz ci starebbe che abbia le prestazioni della 9800GTX mentre la HD 4870 con 750 mhz e oltre ma con le gddr5 con il 30% della HD 4850 avrebbe senso.
Penso che sarebbero perfomance sensate anche per il fatto che riporterebbero il rapporto shader:TMU a 3:1 rendendo il chip più equilibrato e molto più performante di RV670 nell'uso dei filtri.
Ma il fatto che possa avere 800SP con "sole" 32 TMU mi pare poco sensato visto che sbilancerebbe ancora di più il rapporto shader:TMU a 5:1 e vedere una gpu come la HD 4850 con quelle caratteristiche andare come una 9800GTX mi pare che potrebbe essere un catorcio di scheda.
L'AF con molta probabilità è stato fixato attraverso più TMU, forse anche migliorate qualitativamente.
Il paragone è sempre quello: 128SP vs 160SU (clockati meno), con meno TMU. La HD4850 è un RV770 castrato nella banda, dunque le "reali" prestazioni del chip saranno quelle della HD4870. Il tutto però con un supposto netto miglioramento nelle prestazioni con AA.
Mi chiedo cosa cambi se ci sono 96SU o 160SU... :wtf:
Mercuri0
07-06-2008, 16:16
RV770 con 480SP(96 shader unit in realtà)con 32 TMU e 16 rop's magari potenziate per esempio in versione HD 4850 clokkata a 625 Mhz ci starebbe che abbia le prestazioni della 9800GTX mentre la HD 4870 con 750 mhz e oltre ma con le gddr5 con il 30% della HD 4850 avrebbe senso.
Penso che sarebbero perfomance sensate anche per il fatto che riporterebbero il rapporto shader:TMU a 3:1 rendendo il chip più equilibrato e molto più performante di RV670 nell'uso dei filtri.
Ma il fatto che possa avere 800SP con "sole" 32 TMU mi pare poco sensato visto che sbilancerebbe ancora di più il rapporto shader:TMU a 5:1 e vedere una gpu come la HD 4850 con quelle caratteristiche andare come una 9800GTX mi pare che potrebbe essere un catorcio di scheda.
Cioè, secondo te 480SP + 32TMU sarebbe meglio meglio di 800SP +32TMU? :mbe:
(a parità di caratteristiche di SP e TMU)
Comunque il discorso sul rapporto tra shader, rop e tmu, dipende su quali sono i requisisti dei giochi attuali e come si evolveranno in futuro.
Mi sembra lecito aspettarsi che la risoluzione dei monitor e delle texture si fermi, mentre gli effetti grafici (shader) continuino ad aumentare, sopratutto se cominci a fare parte del lavoro tradizionale di ROP (e magari TMU) negli SP, come l'AA.
(Jawed ha appena detto su beyond3d che secondo lui per fare il lavoro delle TMU come shader ci vuole ancora tanto tempo)
Ovviamente se R770 è ben bilanciato o no lo sapremo soltanto coi bench. Però devo dire che lo sproposito di ROP del GT200 mi sembrano più dati da una costrizione dell'architettura che non da un bilanciamento ottimale dei rapporti.
Ma ormai con gli ultimi rumor che hanno messo tutto in confusione stiamo parlando del sesso degli angeli :)
Mister Tarpone
07-06-2008, 16:17
.
Mi chiedo cosa cambi se ci sono 96SU o 160SU... :wtf:
che 160SUcchiano di meno rispetto a 96 :asd:
l'ho detta :ops:
gianni1879
07-06-2008, 16:25
RV770 con 480SP(96 shader unit in realtà)con 32 TMU e 16 rop's magari potenziate per esempio in versione HD 4850 clokkata a 625 Mhz ci starebbe che abbia le prestazioni della 9800GTX mentre la HD 4870 con 750 mhz e oltre ma con le gddr5 con il 30% della HD 4850 avrebbe senso.
Penso che sarebbero perfomance sensate anche per il fatto che riporterebbero il rapporto shader:TMU a 3:1 rendendo il chip più equilibrato e molto più performante di RV670 nell'uso dei filtri.
Ma il fatto che possa avere 800SP con "sole" 32 TMU mi pare poco sensato visto che sbilancerebbe ancora di più il rapporto shader:TMU a 5:1 e vedere una gpu come la HD 4850 con quelle caratteristiche andare come una 9800GTX mi pare che potrebbe essere un catorcio di scheda.
lo penso pure io, il rapporto 5:1 sarebbe ancora peggio di rv670
Athlon 64 3000+
07-06-2008, 16:32
ho dei dubbi riguardo agli 800 SP perchè per il fatto che ha un rapporto Shader:TMU persino inferiore a R600 potrebbe frenare la scheda in giochi tipo Stalker limitandola passescamente.
Uno si aspetta con 800SP chissa che prestazioni(avendo oltre il doppio di SP della mia ormai defunta HD 2900XT)e se poi la HD 4850 andasse come una 9800GTX sarebbe una presa per i fondelli con le caratteristiche che ha RV770.
Invece con le altre caratteristiche sarebbe più equilibrata e non mi stupirei se la HD 4850 andasse come la 9800GTX.
Non volevo dire che 800SP e 32 TMU sono peggio di 480 SP e 32 TMU.
Però devo dire che lo sproposito di ROP del GT200 mi sembrano più dati da una costrizione dell'architettura che non da un bilanciamento ottimale dei rapporti.
Quello mi sembra chiaro. La cosa di collegare l'ampiezza del bus alle ROPs mi pare davvero una fesseria.
che 160SUcchiano di meno rispetto a 96 :asd:
l'ho detta :ops:
http://img223.imageshack.us/img223/38/asdomgbk0.gif
Mister Tarpone
07-06-2008, 16:34
http://img223.imageshack.us/img223/38/asdomgbk0.gif
:fagiano:
mi auto :banned:
:fagiano:
mi auto :banned:
Guarda che non sono arrabbiato, mi piace solo postare le faccine OMG... :sofico:
Mister Tarpone
07-06-2008, 16:42
Guarda che non sono arrabbiato, mi piace solo postare le faccine OMG... :sofico:
ho visto adesso che la tua faccina si trasforma in asd :cool:
:D
Kharonte85
07-06-2008, 16:46
Guarda che non sono arrabbiato, mi piace solo postare le faccine OMG... :sofico:
Tanto...con gli ultimi rumors tutte le certezze sono andate a donnine...http://www.lightside.it/files/thumbs/mid_fd0203e5a848d5972575cf8430c6c74a_omgrockjp5am4.gif
:D
halduemilauno
07-06-2008, 16:47
grandi e grossi mica tanto, se nello stesso spazio ce ne stanno di più, vuol dire che son proprio piccolini...
IL NUMERO 320 è grande e grosso 64 no. capito il NUMERO. poi fregnoni perchè valgono meno dei 64.
Mister Tarpone
07-06-2008, 16:48
Tanto...con gli ultimi rumors tutte le certezze sono andate a donnine...http://www.lightside.it/files/thumbs/mid_fd0203e5a848d5972575cf8430c6c74a_omgrockjp5am4.gif
:D
quoto.....http://img181.imageshack.us/img181/8995/668501fuocoqt0.gif (http://imageshack.us)
halduemilauno
07-06-2008, 16:50
http://forums.vr-zone.com/showthread.php?t=285719
Got some inside info from a source who doesn't wish to be named.
HD 4870 X2 has 1024MB GDDR5, 2x 256bit memory interface, 1050MHz shader clock, 1800MHz memory clock. Core clock is defined by the AIB partners and ASUS will have the highest clocks.
While Radeon 3870X2 relys on the PLX chip to communicate between the GPUs, 4870X2 GPUs will comunicate with each other through the memory. Since the GDDR5 is clocked at 1800, the total bandwidth will be roughly 160 GB/s at 1 Gigabyte through the 256bit-bus, compaired to the 8 GB/s of the PLX chip of the HD3870x2. Also 4870x2 WILL NOT have micro studdering.
IL NUMERO 320 è grande e grosso 64 no. capito il NUMERO. poi fregnoni perchè valgono meno dei 64.
Ma r600 e rv670 hanno 64SU :mbe:
Che poi sono vec5, ovvero possono svolgere 5 operazioni.
Oppure sono stato ingannato per 1 anno e mezzo :stordita:
Mercuri0
07-06-2008, 16:52
Uno si aspetta con 800SP chissa che prestazioni(avendo oltre il doppio di SP della mia ormai defunta HD 2900XT)e se poi la HD 4850 andasse come una 9800GTX sarebbe una presa per i fondelli con le caratteristiche che ha RV770.
Uno farebbe bene a non aspettarsi niente dai numeri e guardare le recensioni a prescindere. :)
Quello mi sembra chiaro. La cosa di collegare l'ampiezza del bus alle ROPs mi pare davvero una fesseria.
Beh, a me, dal poco che ho capito su cosa siano le ROP, non mi sembra tanto una fesseria, e ha pagato tantissimo finora. Ma ovviamente una scelta tecnologica non è la migliore per sempre ;)
http://forums.vr-zone.com/showthread.php?t=285719
Got some inside info from a source who doesn't wish to be named.
HD 4870 X2 has 1024MB GDDR5, 2x 256bit memory interface, 1050MHz shader clock, 1800MHz memory clock. Core clock is defined by the AIB partners and ASUS will have the highest clocks.
While Radeon 3870X2 relys on the PLX chip to communicate between the GPUs, 4870X2 GPUs will comunicate with each other through the memory. Since the GDDR5 is clocked at 1800, the total bandwidth will be roughly 160 GB/s at 1 Gigabyte through the 256bit-bus, compaired to the 8 GB/s of the PLX chip of the HD3870x2. Also 4870x2 WILL NOT have micro studdering.
Bella news, niente piú PLX :)
Mister Tarpone
07-06-2008, 16:55
Oppure sono stato ingannato per 1 anno e mezzo :stordita:
eh un pochetto si ;) te magari no.. ma chi se ne intende di meno si..
dato che le 3800 vengan pubblicizzate come 320sp senza specificare che in realtà sono 64 veri.... e infatti come prestazioni valgono come 64 veri di una nvidia.... :asd:
invece messa come dicono loro sembrano anche più potenti di una 9800GX2 come numero di shader :asd:
eh un pochetto si ;)
dato che le 3800 vengan pubblicizzate come 320sp senza specificare che in realtà sono 64 veri.... e infatti come prestazioni valgono come 64 veri di una nvidia.... :asd:
invece messa come dicono loro sembrano anche più potenti di una 9800GX2 come numero di shader :asd:
Io li ho sempre visti per quello che sono... ovvero 64 che possono valere da 64 a 320, cloccati la metá di quelli nVidia, ovvero possono valere dai 32 ai 160 SP nVidia ;)
Che poi la pubblicitá ATi/AMD sia stata molto "marketing" e poca sostanza, ti do ragione :)
Mercuri0
07-06-2008, 16:59
http://forums.vr-zone.com/showthread.php?t=285719
Got some inside info from a source who doesn't wish to be named.
HD 4870 X2 has 1024MB GDDR5, 2x 256bit memory interface, 1050MHz shader clock, 1800MHz memory clock. Core clock is defined by the AIB partners and ASUS will have the highest clocks.
While Radeon 3870X2 relys on the PLX chip to communicate between the GPUs, 4870X2 GPUs will comunicate with each other through the memory. Since the GDDR5 is clocked at 1800, the total bandwidth will be roughly 160 GB/s at 1 Gigabyte through the 256bit-bus, compaired to the 8 GB/s of the PLX chip of the HD3870x2. Also 4870x2 WILL NOT have micro studdering.
Bah, decifrare 'sta roba è troppo difficile.
Un PLX dovrebbe esserci comunque sulla scheda, e "comunicare attraverso la memoria" vuol dire tutto e niente. (come condividono l'accesso alla memoria?)
"will not have micro studdering?" Anche qui, bah. ("bah" anche sul micro studdering in se, che mi sembra l'ultima moda)
Qui ritornano ancora i clock separati tra core e shader, che contrasta coi recenti rumor. Ormai siamo nel buio più totale :)
Del fatto che i patner possano scegliere liberamente i clock ne aveva accennato anche FUDzilla, e la cosa ha implicazioni interessanti.
halduemilauno
07-06-2008, 16:59
eh un pochetto si ;) te magari no.. ma chi se ne intende di meno si..
dato che le 3800 vengan pubblicizzate come 320sp senza specificare che in realtà sono 64 veri.... e infatti come prestazioni valgono come 64 veri di una nvidia.... :asd:
invece messa come dicono loro sembrano anche più potenti di una 9800GX2 come numero di shader :asd:
non come. valgono de meno.
Mister Tarpone
07-06-2008, 16:59
Io li ho sempre visti per quello che sono... ovvero 64 che possono valere da 64 a 320, cloccati la metá di quelli nVidia, ovvero possono valere dai 32 ai 160 SP nVidia ;)
Che poi la pubblicitá ATi/AMD sia stata molto "marketing" e poca sostanza, ti do ragione :)
ho corretto il post ;)
;) ;) ;)
;) ;) ;)
;) ;) ;)
Critterix
07-06-2008, 17:03
Sto seguendo da un po' questo thread (anche se non ho letto tutte le 281 pagine...). Ho visto che si parla di frequenza di GPU Ati, paragonandola alla frequenza degli sp di Nvidia. Ma non si parlava di una frequenza dedicata agli stream processor anche per le nuove schede di Ati? I rumor più recenti cosa dicono a riguardo?
Sto seguendo da un po' questo thread (anche se non ho letto tutte le 281 pagine...). Ho visto che si parla di frequenza di GPU Ati, paragonandola alla frequenza degli sp di Nvidia. Ma non si parlava di una frequenza dedicata agli stream processor anche per le nuove schede di Ati? I rumor più recenti cosa dicono a riguardo?
ci sono rumors discordanti a riguardo.
Alcuni dicono meno SP e frequenze separate (che personalmente ritengo la + equilibrata)
Altri Piú Sp alla frequenza del core, quindi + bassa.
Mercuri0
07-06-2008, 17:07
Sto seguendo da un po' questo thread (anche se non ho letto tutte le 281 pagine...). Ho visto che si parla di frequenza di GPU Ati, paragonandola alla frequenza degli sp di Nvidia. Ma non si parlava di una frequenza dedicata agli stream processor anche per le nuove schede di Ati? I rumor più recenti cosa dicono a riguardo?
I rumor più recenti dicono tutto e il contrario di tutto. :)
(il penultimo: clock degli shader legato al clock del core, e sproposito di SP. Nell'ultimo, riguardo la 4870x2 i clock sono tornati separati)
gianni1879
07-06-2008, 17:13
non come. valgono de meno.
e per quale motivo? visto che quelli nvidia corrono di più.
cmq sono 64.
Poi tornando al discorso della tua battuta, per definirire la numerazione è più appropriato usare tanti/molti etc.
ti va bene tanti, piccoli e freqnoni?
according to last rumors :
HD4870X2 = 499$
GTX280 = 649$
GTX260 = 449$
HD4870 = ~329$
HD4850 = 199$
regards
Mascaras, amministratore di XtremeSystems nonchè persona sempre abbastanza informata, sui prezzi delle schede in uscita.
Sempre su XtremeSystems Andreas, deus ex machina di Nordic Hardware, quello che ha postato la infamous slide degli 800sp, insomma, dice questo:
Since I was the one who posted the news you're arguing about maybe I should say something.
The source of the slide has been 100% in the past. I see no reason to doubt him.
Everything else on the slide looks legit.
Those of you who claim the slide to be fake because of the slant in the last column ... that's just hilarious
The colors make sense to me since 4870 is low-high-end, 4850 mainstream, and 3870/s870X2 last generation and then we have CPU. White, gray, white/twhite, gray.
According to the source, AMD planted the stories about 480SPs. If you go back you will see that 480SPs has been posted by the German site who first claimed to have Radeon HD 4000 series specifications (most were wrong), Fuad and Theo. I've never confirmed 480SPs, but been fed this information from several Western sources, but at the same time my Asian sources have told me 800SPs. Those of you who follow my rants should know this.
I don't think there is a separate shader domain, but I can't provide evidence for that.
//Andreas
http://www.xtremesystems.org/forums/showthread.php?t=182304&page=64
halduemilauno
07-06-2008, 17:17
e per quale motivo? visto che quelli nvidia corrono di più.
cmq sono 64.
Poi tornando al discorso della tua battuta, per definirire la numerazione è più appropriato usare tanti/molti etc.
ti va bene tanti, piccoli e freqnoni?
la battuta recita cosi:
grandi, grossi e fregnoni.
dato che nello specifico si è sempre detto 320 shader e il loro risultato è li sotto i nostri occhi da li la (ormai famigerata) battuta.
http://forums.vr-zone.com/showthread.php?t=285719
Got some inside info from a source who doesn't wish to be named.
HD 4870 X2 has 1024MB GDDR5, 2x 256bit memory interface, 1050MHz shader clock, 1800MHz memory clock. Core clock is defined by the AIB partners and ASUS will have the highest clocks.
While Radeon 3870X2 relys on the PLX chip to communicate between the GPUs, 4870X2 GPUs will comunicate with each other through the memory. Since the GDDR5 is clocked at 1800, the total bandwidth will be roughly 160 GB/s at 1 Gigabyte through the 256bit-bus, compaired to the 8 GB/s of the PLX chip of the HD3870x2. Also 4870x2 WILL NOT have micro studdering.
Bene, ora tutte le certezze valgono 0.
E se sulla HD4870X2 fossero 800x2@1050 Mhz per un totale di 3,2 Teraflops ? :stordita:
Bene, ora tutte le certezze valgono 0.
E se sulla HD4870X2 fossero 800x2@1050 Mhz per un totale di 3,2 Teraflops ? :stordita:
Non credo proprio che i clocks saranno superiori a quelli della single card HD4870.
D'altro canto Andreas ed una slide che ha tutta l'aria di essere ufficiale sono molto più affidabili di un tizio che vuole rimanere anonimo... ;)
Piuttosto mi chiedo come cavolo si possa fare a far comunicare 2 gpu solo attraverso la memoria shared... :confused:
P.S.: mi chiedo anche come si possa scrivere così male in inglese (riferito all'articolo): è micro-stuttering, non studdering, e relies, non relys... :rolleyes:
-noxius-
07-06-2008, 17:28
Quindi
550 gtx280 2.1
385 gtx260 1.75
380 GX2 1.65
280 4870 1.3
220 98GTX 1
170 4850 1
170 88GTS 1
Calcolando euro-dollaro,iva e margine di guadagno del 10% e limata verso l'alto ; il numero a destra le possibili prestazioni (verde, attendibili , fino ad arancio , in forse)
Che ne pensate ?
Mercuri0
07-06-2008, 17:29
Piuttosto mi chiedo come cavolo si possa fare a far comunicare 2 gpu solo attraverso la memoria shared... :confused:
Questo è semplicissimo: la GPU1 mette un dato in una scatola, la GPU2 prende il dato da quella scatola.
Le domande che rimangono invece sarebbero:
1 - come fanno a condividere la memoria? ("Comunicano attraverso la memoria" potrebbe anche leggersi come "condividono la memoria attraverso un bus di comunicazione")
2 - come pilota il driver le due GPU? Ci vuole sempre qualcosa come un PLX, e non penso che AMD l'abbia integrato in R770.
Mister Tarpone
07-06-2008, 17:30
usa un altro colore!!! con il giallo non si capisce niente... :fagiano: :stordita:
-noxius-
07-06-2008, 17:31
Quindi
550 gtx280 2.1
385 gtx260 1.75
380 GX2 1.65
280 4870 1.3
220 98GTX 1
170 4850 1
170 88GTS 1
Calcolando euro-dollaro,iva e margine di guadagno del 10% e limata verso l'alto ; il numero a destra le possibili prestazioni (verde, attendibili , fino ad arancio , in forse)
Che ne pensate ?
Ho cambiato il colore da giallo ad arancio e dal lime al seagreen, ora va meglio ..
Mercuri0
07-06-2008, 17:32
P.S.: mi chiedo anche come si possa scrivere così male in inglese (riferito all'articolo): è micro-stuttering, non studdering, e relies, non relys... :rolleyes:
Infatti pareva anche a me sullo stuttering :D
l'inglish è una lingua mucho internescional, oggigiorno
Mercuri0
07-06-2008, 17:35
Quindi
550 gtx280 2.1
385 gtx260 1.75
380 GX2 1.65
280 4870 1.3
220 98GTX 1
170 4850 1
170 88GTS 1
Calcolando euro-dollaro,iva e margine di guadagno del 10% e limata verso l'alto ; il numero a destra le possibili prestazioni (verde, attendibili , fino ad arancio , in forse)
Che ne pensate ?
Che molto dipenderà dalle impostazioni usate per fare i test, ma che mi aspetto in media la 4870 più vicina alla gx2 e così anche la gtx260, che vada nettamente più veloce della gx2 non ci metterei la mano sul fuoco.
(a causa delle ultime slide nvidia dove c'era la GTX280 sopra la GX2 e la GTX260 sotto)
-noxius-
07-06-2008, 17:40
Bhè , alla fine l'ho messa lì semplicemente per il prezzo ...se dovesse costare più della gx2 ed andare meno, la 260 se la terrebbero sugli scaffali e, se andasse di meno lei allora la 280 andrebbe 1.95/2.0 ..
Mercuri0
07-06-2008, 17:44
Bhè , alla fine l'ho messa lì semplicemente per il prezzo ...se dovesse costare più della gx2 ed andare meno, la 260 se la terrebbero sugli scaffali e, se andasse di meno lei allora la 280 andrebbe 1.95/2.0 ..
Su newegg ad oggi danno la 9800GX2 a 490$ come minimo, ma la media è a 550$.
io non so più cosa pensare, ormai escono rumors talmente contrastanti tra loro uno dopo l'altro che sta volta ATI oltre al solito NDA di FERRO ha anche mandato probabilmente notizie false per confondere tutti (perchè poi?!).
L'unica cosa su cui tutti sembrano concordare sono le prestazioni al VANTAGE.
Comunque possiamo riassumere i rumors in 2 "correnti di pensiero", più una 3° che è quella formata dalle cazzate by FUD:
1° RV770 ha 480SP, frequenze separate degli shaders, core a 625Mhz e 750Mhz memorie GDDR3 per la 50 e GDDR5 per la 70. La 70 avrà 1Tflop di potenza degli shader mentre la 50 poco meno. Bus a 256bit. 50 => 9800GTX e 70 = 1.3 * 50
2° RV770 ha 800SP, frequenze SP = freq core, core a 625Mhz e 750Mhz, memorie GDDR3 per la 50 e GDDR5 per la 70. La 70 avrà 1,2Tflop mentre la 50 1Tflop. Bus 256bit. 50 => 9800GTX e 70 = 1.3 * 50
Cazzate by FUD: RV770 ha 480 o 800 sp, frequenze separate o no, 12TMU (!!!), Bus a 512bit ( :asd: ). Core che oscillano tra i 625 e gli 875Mhz. 4850 = 10% + della 8800GT ( :asd: ), ATI ha fatto il nuovo logo (molto interessante come notizia :D) ma soprattutto c'è il fotoritocco del dissi della 4870 in photoshop (LOL! :eek: )... e chi più ne ha più ne metta... :mbe:
leoneazzurro
07-06-2008, 17:46
Il mio ragionamento fila, allora... :Perfido:
Se fosse vero, si confermerebbero un paio di cose:
- l'affidabilità di Napoleon di Chiphell, che è da mesi che parla di 800SP contro tutto e tutti
- AMD per una volta è riuscita a tenere segrete le specifiche fino a poco prima della presentazione e a fregare tutti gli altri...
Altra considerazione: l'AA non viene fatto nelle ROPs, solo che l'aumento di potenza di shading è talmente grande da consentire di applicare con profitto l'AA via shaders.
Questo se non fosse vera un'altra cosa che ho sentito su Chiphell, ossia che 320SP su 800 sarebbero riservati alla fisica. ;)
Difficile che siano dedicati alla fisica: non ha nessun senso a nessun livello, nè tecnico nè di programmazione.
A questo punto inizio a dubitare che abbia RV770 abbia 32 TMU. Come è possibile un aumento del 150% degli sp e del 100% delle TMU con un'aumento di die-size del solo 30%?
Come minimo ha almeno un miliardo di transistor. Oppure in ATi hanno ridotta di moltissimo l'uso di transistor per TMU e SP, oltre che migliorare ulteriormente la resa dei 55nm.
R700 avrà quasi 2,4 Teraflops...
Una volta avevo fatto un piccolo calcolo e gli 800 SP ci sarebbero stati in un die di circa 260 mm^2, insieme con 32 TMU e 16 ROPs. 32 TMU sarebbero arrangiabilissime con 800 SP, avendo 5 SIMD da 32 SU ciascuna su 4 o 8 sublivelli.
Diciamo che è fattibile, anche se anche io credevo più nei 480 SP e clock maggiori.
Gli SP di ATI sono molto più piccoli di quelli Nvidia, perchè condividono gran parte delle risorse tra di loro, ed hanno clock inferiori.
Mercuri0
07-06-2008, 17:48
io non so più cosa pensare, ormai escono rumors talmente contrastanti tra loro uno dopo l'altro che sta volta ATI oltre al solito NDA di FERRO ha anche mandato probabilmente notizie false per confondere tutti (perchè poi?!).
Forse perché la volta scorsa nVidia ha tirato fuori il G92 giusto giusto una settimana prima del lancio di R670? :rolleyes:
Difficile che siano dedicati alla fisica: non ha nessun senso a nessun livello, nè tecnico nè di programmazione.
Una volta avevo fatto un piccolo calcolo e gli 800 SP ci sarebbero stati in un die di circa 260 mm^2, insieme con 32 TMU e 16 ROPs. 32 TMU sarebbero arrangiabilissime con 800 SP, avendo 5 SIMD da 32 SU ciascuna su 4 o 8 sublivelli.
Diciamo che è fattibile, anche se anche io credevo più nei 480 SP e clock maggiori.
Gli SP di ATI sono molto più piccoli di quelli Nvidia, perchè condividono gran parte delle risorse tra di loro, ed hanno clock inferiori.
una cosa IMHO è cmq certa: se ci sono i 480SP si hanno shader clock separati dal core clock (altrimenti non si spiegherebbe così tanto spazio per 160SP in più) mentre se gli SP sono 800 gli shader clock sono alla stessa freq del core clock.
In entrambi i casi IMHO il rapporto ALU:TU non cambierebbe perchè se gli SP fossero 800 sarebbe 5:1 ma se gli SP fossero 480 con clock + elevati, fisicamente il rapporto è 3:1 ma REALMENTE come potenza degli shader sarebbe più elevato (5:1).
Quindi ATI non ha assolutamente abbassato il rapporto ALU:TU ma anzi, l'avrebbe addirittura aumentato.
Altrimenti non si spiegherebbero prestazioni ventilate fino all'80% maggiori di RV670 con il 50% in più di SP!!
Forse perché la volta scorsa nVidia ha tirato fuori il G92 giusto giusto una settimana prima del lancio di R670? :rolleyes:
si ma il fatto è che sta volta le prestazioni le sanno bene o male tutti, almeno nel vantage, e i rumors concordano tra loro (FUD a parte...) mentre le specifiche sono una :confused: , con RV670 era esattamente il contrario...
Mercuri0
07-06-2008, 17:54
si ma il fatto è che sta volta le prestazioni le sanno bene o male tutti, almeno nel vantage
Beh, se io fossi stato AMD e avessi voluto andare fino in fondo nell'operazione di "mascheramento", non avrei rilasciato pubblicamente i driver prima del lancio, sopratutto per il vantage ;)
Forse perché la volta scorsa nVidia ha tirato fuori il G92 giusto giusto una settimana prima del lancio di R670? :rolleyes:
Ma fonti attendibili hanno detto che nvidia sa già tutto, quindi potrebbero ben smetterla con questo NDA fregnone :O
Ma fonti attendibili hanno detto che nvidia sa già tutto, quindi potrebbero ben smetterla con questo NDA fregnone :O
:asd: ti sei dimenticato GRANDE e GROSSO!! :Prrr: :Prrr:
Mister Tarpone
07-06-2008, 18:07
Beh, se io fossi stato AMD e avessi voluto andare fino in fondo nell'operazione di "mascheramento", non avrei rilasciato pubblicamente i driver prima del lancio, sopratutto per il vantage ;)
concordo... http://img73.imageshack.us/img73/7277/668501bohek8.gif (http://imageshack.us)
Beh, se io fossi stato AMD e avessi voluto andare fino in fondo nell'operazione di "mascheramento", non avrei rilasciato pubblicamente i driver prima del lancio, sopratutto per il vantage ;)
A questo punto attendiamo lo scadere dell'NDA e speriamo di essere piacevolmente sorpresi dai benchmark.
gianni1879
07-06-2008, 18:20
Ma fonti attendibili hanno detto che nvidia sa già tutto, quindi potrebbero ben smetterla con questo NDA fregnone :O
certo ci mancherebbe, hanno previsto tutto, la 9800gtx è lì apposta pronta ad aspettare la hd4850 con tre mesi in anticipo, considerando pure che l'hanno realizzata in una settimana...
La potenza è nulla senza il controllo :D
Badboyct
07-06-2008, 18:39
secondo voi queste nuove schede sfrutteranno il pc express 2?
Free Gordon
07-06-2008, 18:42
quoto, è impossibile raddoppiare TMU e SP con un die size più grande solo del 30%, a meno che gli SP occupino veramente poco spazio sul totale dello spazio.
Io spero nei 480SP con frequenze separate comunque.
Pare che lo shader domain in Rv670 occupi circa il 19% della grandezza complessiva del die. ;)
<^MORFEO^>
07-06-2008, 18:50
secondo voi queste nuove schede sfrutteranno il pc express 2?
Certamente ;)
certo ci mancherebbe, hanno previsto tutto, la 9800gtx è lì apposta pronta ad aspettare la hd4850 con tre mesi in anticipo, considerando pure che l'hanno realizzata in una settimana...
La potenza è nulla senza il controllo :D
http://www.webalice.it/shaithra/smile/modificati/nonquoto.gif
Dimentichi che G200 è pronto da Aprile del 2007. Pagano! :O
Free Gordon
07-06-2008, 19:02
Personalemente ritengo la storia dei 480+320 SP una cavolata bella e buona.
Se veramemente RV770 avrà 800 SP e con 32 TMU e 16 Rop's in versione HD 4850 vederla andare come la 9800GTX mi lascierebbe molto perplesso.
Ma perchè, la velocità di una scheda, mica dipende solo dalla quantità di SP?
Se davvero gli SP di Rv770 sono 800, penso che saranno ancora meno sfruttati dei 320 di R600... ;)
A meno che non abbiano trovato il modo di renderli molto utili/efficienti nell'AA resolve... :)
Ma perchè, la velocità di una scheda, mica dipende solo dalla quantità di SP?
Se davvero gli SP di Rv770 sono 800, penso che saranno ancora meno sfruttati dei 320 di R600... ;)
A meno che non abbiano trovato il modo di renderli molto utili/efficienti nell'AA resolve... :)
se fossero davvero 800 li hanno messi per questo penso... :)
Ma perchè, la velocità di una scheda, mica dipende solo dalla quantità di SP?
Se davvero gli SP di Rv770 sono 800, penso che saranno ancora meno sfruttati dei 320 di R600... ;)
A meno che non abbiano trovato il modo di renderli molto utili/efficienti nell'AA resolve... :)
I rapporti sarebbero circa gli stessi, il mercato, invece, mi sembra un po' più spostato verso un rapporto diverso tra potenza degli sp e unità di texturing.
Poi la filosofia AMD la si conosce già, certo che molto lavoro sui driver è già stato fatto.
gianni1879
07-06-2008, 19:43
http://www.webalice.it/shaithra/smile/modificati/nonquoto.gif
Dimentichi che G200 è pronto da Aprile del 2007. Pagano! :O
adesso mi autoflagello per 15 minuti, con il cavo del mouse inginocchiato sulla tastiera recitando tutto in codice binario il nome di una nota marca di vga, di cui non faccio il nome.
halduemilauno
07-06-2008, 19:53
adesso mi autoflagello per 15 minuti, con il cavo del mouse inginocchiato sulla tastiera recitando tutto in codice binario il nome di una nota marca di vga, di cui non faccio il nome.
in codice binario ati ti viene meglio.
Badboyct
07-06-2008, 20:08
Certamente ;)
certamente nel senso che usando una pc express 1 la scheda sarà limitata? perchè ho letto che ancora non ci sono schede che sfruttano pienamente la pc-e 1.
michelgaetano
07-06-2008, 20:11
adesso mi autoflagello per 15 minuti, con il cavo del mouse inginocchiato sulla tastiera recitando tutto in codice binario il nome di una nota marca di vga, di cui non faccio il nome.
in codice binario ati ti viene meglio.
ma lol
gianni1879
07-06-2008, 20:12
in codice binario ati ti viene meglio.
mi spiace già fatto, la parola da indovinare non era formata da tre lettere
Mister Tarpone
07-06-2008, 20:22
mi spiace già fatto, la parola da indovinare non era formata da tre lettere
in ginocchio a pregare nvidia. subito!! :mad:
per almeno 1 ora.
:fagiano: :fagiano: :fagiano:
halduemilauno
07-06-2008, 20:27
in ginocchio a pregare nvidia. subito!! :mad:
per almeno 1 ora.
:fagiano: :fagiano: :fagiano:
sui ceci. secchi ovviamente.
Mister Tarpone
07-06-2008, 20:29
sui ceci. secchi ovviamente.
esatto :fagiano:
:fagiano: altrimenti gianni1979 verrà :banned:
:fagiano:
IL NUMERO 320 è grande e grosso 64 no. capito il NUMERO. poi fregnoni perchè valgono meno dei 64.
io sinceramente non ho mai visto un test SINTETICO (perchè questo è l'unico modo di valutare l'efficienza degli shader, pixel vertex & geometry) in cui l'architettura ati stia dietro a quella nVidia, me ne linki qualcuno?
bYeZ!
Mister Tarpone
07-06-2008, 20:32
l'unico modo vero è testarle coi giochi ;)
ciao ;) ;) ;) ;)
:fagiano:
-noxius-
07-06-2008, 20:37
Scusate, ma cosa diavolo stà succedendo qui ?
Potreste cortesemente finirla con tutta questa marea di stronz@te e tornare in tema od almeno parlare di cose serie ? Non ci si capisce più un tubo con tutti questi commentini e battutine da scuola elementare ; fateci risparmiare la fatica di leggere 10.000 pagine del genere (fine sfogo) .
@ tarpone : e ci credo che hai tutti quei messaggi ;););););););););););););) (:rolleyes: ) . Tutte queste faccine del cavolo...come ho già detto stiamo perdendo l'ausilio della parola ..
Mister Tarpone
07-06-2008, 20:42
eh?? ma che hai :asd: ???
dai... giusto adesso abbiamo scritto qualche post "leggero" così per scherzare...
poi per il resto ho sempre postato seriamente in questo thread ;)
stai calmino e risparmiati il commento sul numero dei miei messaggi ;)
Critterix
07-06-2008, 20:47
l'unico modo vero è testarle coi giochi ;)
ciao ;) ;) ;) ;)
:fagiano:
Se si riuscisse a far partire una demo di Nvidia su hardware Ati penso che quest'ultima farebbe molti meno fps a parità di potenza di calcolo...
:fagiano: The Way It's Meant To Be Played:fagiano:
Se si riuscisse a far partire una demo di Nvidia su hardware Ati penso che quest'ultima farebbe molti meno fps a parità di potenza di calcolo...
:fagiano: The Way It's Meant To Be Played:fagiano:
si certo perche è ottimizzata a funzionare con schede video nvidia e non ati....sarebbe la stessa cosa facendo il contrario;)
Mister Tarpone
07-06-2008, 21:00
si certo perche è ottimizzata a funzionare con schede video nvidia e non ati....sarebbe la stessa cosa facendo il contrario;)
esatto... ( :fagiano:)
Critterix
07-06-2008, 21:05
si certo perche è ottimizzata a funzionare con schede video nvidia e non ati....sarebbe la stessa cosa facendo il contrario;)
Il problema è che anche molti giochi lo sono.... (:fagiano: The Way It's Meant To Be Played:fagiano: )
Mister Tarpone
07-06-2008, 21:06
Il problema è che anche molti giochi lo sono.... (:fagiano: The Way It's Meant To Be Played:fagiano: )
eh... per questo motivo ho fatto bene a prendere una scheda nvidia... :asd:
ciao :fagiano:
<^MORFEO^>
07-06-2008, 21:26
certamente nel senso che usando una pc express 1 la scheda sarà limitata? perchè ho letto che ancora non ci sono schede che sfruttano pienamente la pc-e 1.
Quello non so dirti...
Però le nuove schede saranno PCI-e 2.0
http://www.tomshw.it/guides/hardware/graphic/20070515/images/textureunit-big.jpg
Dite che potrebbero aver cambiato l'archiettura delle Texture Unit?
R600 ha 16 TA, 16 TF e 64 texture sampler ad uso delle texture.
A proposito, G80 non ha texture sampler? A cosa servono di preciso queste unità?
Il problema di R600 è proprio la bassa capacità di filtraggio giusto?
Potrebbe essere che abbiano raddoppiato anche le TFU per ognuna delle 8TUs di RV770? In totale avremmo 32 TA, 64 TF e 128 TS. Le capacità di filtraggio sarebbero quadruplicate rispetto R600, e l'aumento così consistente di SP porterebbe a più potenza anche per applicare l'MSAA e prestazioni con filtri attivi decisamente superiori a RV670.
l'unico modo vero è testarle coi giochi ;)
ciao ;) ;) ;) ;)
:fagiano:
e che risposta è? halduemilauno parlava di shader, non di giochi. E gli shader possono venire usati in altre applicazioni che non siano giochi :)
ps: se si vuole fare i tecnici, almeno assicurarsi di avere le basi per poterselo permettere ;)
bYeZ!
-noxius-
07-06-2008, 22:12
ati, una domanda ..
In merito al calcolo parallelo e ad esempio elaborazione di dati inerenti a librerie genomiche , pensate che possa essere più potente un crossfireX di 4870(eventualmente anche X2) oppure un triple SLI di gtx280 ?
ati, una domanda ..
In merito al calcolo parallelo e ad esempio elaborazione di dati inerenti a librerie genomiche , pensate che possa essere più potente un crossfireX di 4870(eventualmente anche X2) oppure un triple SLI di gtx280 ?
nettamente un triple sli di gtx280 su un sistema adeguato: doppio soket e 2 qx9770 a 4ghz
leoneazzurro
07-06-2008, 22:30
io sinceramente non ho mai visto un test SINTETICO (perchè questo è l'unico modo di valutare l'efficienza degli shader, pixel vertex & geometry) in cui l'architettura ati stia dietro a quella nVidia, me ne linki qualcuno?
bYeZ!
Qui ce ne sono alcuni.
http://techreport.com/articles.x/12458/3
chiaramente ci sono casi limite per l'una e per l'altra parte, in genere R6X0 lavora meglio su shader lunghi perchè si iesce a riordinare meglio le istruzioni per l'esecuzione. Ma comunque non è che G8X e successivi abbiano un 100% di efficienza, e il fatto di avere la seconda ALU che fa solo MUL sbilancia l'architettura verso questo tipo di calcoli, ad esempio con 800 SP a 750 MHz un RV770 avrebbe 600 GFlops di ADD e 600 di MUL di picco, mentre GT200 avrebbe nella sua incarnazione più potente 311 GFlofps di ADD e 622 di MUL, sempre di picco. Per il GPGPU direi che la scelta penderebbe pesantemente a favore di ATI: molto meno costosa, meno consumi e con più equilibrio, anche se in certi casi GT200 sarebbe più veloce.
leoneazzurro
07-06-2008, 22:32
nettamente un triple sli di gtx280 su un sistema adeguato: doppio soket e 2 qx9770 a 4ghz
Sta parlando di GPGPU, quindi sarebbe preferibile IMHO un Crossfire X di 4870X2, con processore singolo e non esageratamente potente, in quanto i calcoli li farebbero le GPU.
-noxius-
07-06-2008, 22:33
Si, però ovviamente bisognerebbe cercare di spendere una cifra che non sia troppo elevata .. ad esempio su piattaforma intel a doppio socket, sarebbe possibile portare 2 q6600 @ 3.6GHz ? Non avendo mai provato tale tipologia di piattaforme non so bene ancora come funziona, specialmente in overclock sulle cpu .
Poi , avendo visto la potenza elaborativa di una cpu rispetto ad una di queste ultime gpu , avrebbe senso spendere molto per una coppia di processori più veloci invece che metterne due meno potenti e magari potenziare maggiormente il comparto ''video'' ?
Queste 280gtx sembrano interessanti per questo motivo però a questo punto mi stavo chiedendo se non fossero effettivamente meglio le 4870X2 con 1600sp .
Un'altra domanda : bisogna considerare esclusivamente la potenza in Gigaflops in questi casi oppure quale altro elemento ?
Grazie
-noxius-
07-06-2008, 22:34
Sta parlando di GPGPU, quindi sarebbe preferibile IMHO un Crossfire X di 4870X2, con processore singolo e non esageratamente potente, in quanto i calcoli li farebbero le GPU.
Ecco, infatti ..
quindi , ad esempio sarebbe meglio un doppio socket con 2 q6600@3.6GHz e due x2 ? Quale sarebbe una eventuale differenza tra queste ultime e 3 gtx280 ? Effettivamente avendo visto i dati relativi alla potenza di elaborazione di questi processori forse alla fine converrebbe metterne uno solo, data l'inutilità o , se vogliamo, l'esiguità di un eventuale incremento prestazionale dato dal doppio processore ; credi che possa fare da collo di bottiglia o non centra nulla ?
ati, una domanda ..
In merito al calcolo parallelo e ad esempio elaborazione di dati inerenti a librerie genomiche , pensate che possa essere più potente un crossfireX di 4870(eventualmente anche X2) oppure un triple SLI di gtx280 ?
Perdonami , ma non capisco il senso della tua domanda....?
Prima di appurare quale sistema sia il più potente in termini di capacità di calcolo dovresti essere sicuro che il software che tu vuoi o devi utilizzare sia in grado di sfruttare la capacità di calcolo di una GPU e se sia preferibile per il tipo di calcolo da affrontare una GPU o una CPU...
Cmq la sola 4870 dovrebbe esser capace di un teraflop/secondo , ma mi chiedo se , nello specifico , la capacità di calcolo in virgola mobile sia o meno utile agli studi di librerie genomiche...:rolleyes:
leoneazzurro
07-06-2008, 22:44
Ecco, infatti ..
quindi , ad esempio sarebbe meglio un doppio socket con 2 q6600@3.6GHz e due x2 ? Quale sarebbe una eventuale differenza tra queste ultime e 3 gtx280 ? Effettivamente avendo visto i dati relativi alla potenza di elaborazione di questi processori forse alla fine converrebbe metterne uno solo, data l'inutilità o , se vogliamo, l'esiguità di un eventuale incremento prestazionale dato dal doppio processore ; credi che possa fare da collo di bottiglia o non centra nulla ?
Tre GTX280 avrebbero 3*933=2799 GFLOPS, ma di questi 1866 sarebbero MUL e 933 ADD. 2 4870X2 avrebbero 4800 GFlops, 2400 di ADD e 2400 di MUL,
Anche ponendo l'efficienza di una GTX280 al 100% e quella di RV770 al 70%, avremmo che la combinazione di schede ATI avrebbero 1680 GFLOPS di ADD e altrettanti di MUL (3360 totali). Quindi a meno di non avere una esagerata preponderanza di MUL rispetto agli ADD, RV770 sarebbe preferibile, e ancora di più se consideriamo clacoli in doppia precisione, e senza contare vantaggi riguardanti consumi, costo, ecc.
leoneazzurro
07-06-2008, 22:46
Perdonami , ma non capisco il senso della tua domanda....?
Prima di appurare quale sistema sia il più potente in termini di capacità di calcolo dovresti essere sicuro che il software che tu vuoi o devi utilizzare sia in grado di sfruttare la capacità di calcolo di una GPU e se sia preferibile per il tipo di calcolo da affrontare una GPU o una CPU...
Cmq la sola 4870 dovrebbe esser capace di un teraflop/secondo , ma mi chiedo se , nello specifico , la capacità di calcolo in virgola mobile sia o meno utile agli studi di librerie genomiche...:rolleyes:
Folding@home può, ad esempio, e riguarda lo studio delle proteine. Ovviamente si sta supponendo che il software possa sfruttare la GPU, altrimenti è meglio comprarsi un sistema di calcolo distribuito basato su X86, altrettanto ovviamente.
Folding@home può, ad esempio, e riguarda lo studio delle proteine. Ovviamente si sta supponendo che il software possa sfruttare la GPU, altrimenti è meglio comprarsi un sistema di calcolo distribuito basato su X86, altrettanto ovviamente.
Folding@home lo conosco...ma si occupa di tutt'altro :si tratta di simulazione del ripiegamento proteico (struttura tridimensionale della proteina).
Invece lo studio a cui è interessato l'utente noxius non credo tragga vantaggio dal calcolo in virgola mobile..parlava di librerie genomiche , ne credo esistano software in grado si svolgere questo compito usando le GPU.
leoneazzurro
07-06-2008, 23:06
Folding@home lo conosco...ma si occupa di tutt'altro :si tratta di simulazione del ripiegamento proteico (struttura tridimensionale della proteina).
Invece lo studio a cui è interessato l'utente noxius non credo tragga vantaggio dal calcolo in virgola mobile..parlava di librerie genomiche , ne credo esistano software in grado si svolgere questo compito usando le GPU.
Potrebbe essere, come potrebbe essere che esistano a breve dato che esistono librerie che consentono di sfruttare le GPU pe rcalcoli in virgola mobile sia da parte ATI che Nvidia.
Pagine e pagine di possibili prestazioni e caratteristiche delle schede, forse sarebbe meglio aspettare e scrivere quando si avranno dati certi :)visto che ormai manca davevro poco alla loro uscita^^
-noxius-
08-06-2008, 00:33
Perdonami , ma non capisco il senso della tua domanda....?
Prima di appurare quale sistema sia il più potente in termini di capacità di calcolo dovresti essere sicuro che il software che tu vuoi o devi utilizzare sia in grado di sfruttare la capacità di calcolo di una GPU e se sia preferibile per il tipo di calcolo da affrontare una GPU o una CPU...
Cmq la sola 4870 dovrebbe esser capace di un teraflop/secondo , ma mi chiedo se , nello specifico , la capacità di calcolo in virgola mobile sia o meno utile agli studi di librerie genomiche...:rolleyes:
Guarda, quella sarebbe solo una singola applicazione ; a me interesserebbe capire quale possa essere la configurazione che in teoria possa permettere più potenza di calcolo , poi in merito all'ottimizzazione ed al reale utilizzo ovviamente dipende dal programma in sè e dall'utilizzo che se ne deve fare .
Tre GTX280 avrebbero 3*933=2799 GFLOPS, ma di questi 1866 sarebbero MUL e 933 ADD. 2 4870X2 avrebbero 4800 GFlops, 2400 di ADD e 2400 di MUL,
Anche ponendo l'efficienza di una GTX280 al 100% e quella di RV770 al 70%, avremmo che la combinazione di schede ATI avrebbero 1680 GFLOPS di ADD e altrettanti di MUL (3360 totali). Quindi a meno di non avere una esagerata preponderanza di MUL rispetto agli ADD, RV770 sarebbe preferibile, e ancora di più se consideriamo clacoli in doppia precisione, e senza contare vantaggi riguardanti consumi, costo, ecc.
Ti ringrazio
Folding@home può, ad esempio, e riguarda lo studio delle proteine. Ovviamente si sta supponendo che il software possa sfruttare la GPU, altrimenti è meglio comprarsi un sistema di calcolo distribuito basato su X86, altrettanto ovviamente.
Infatti . Lo studio sul ripiegamento sarebbe ESTREMAMENTE INTERESSANTE, specialmente nell'ambito di :
1 :analizzare la sequenza che ci interessa , sequenziarla ,posizionare dei ''checkpoint'' o sequenze di interesse (andando magari a ricercare similitudini nelle altre sequenze più o meno correlate) in determinati punti e cercare analogie e differenze significative nel resto del genoma interessato
2 :in base ai dati ottenuti fare uno studio comparativo sul ripegamento proteico e fare una stima di associazione/dissociazione magari grazie ad agenti mutageni di varia natura
3 :elaborare e comparare le sequenze cercando di capire la funzionalità sia del trascritto originario che della struttura generata grazie ad esso .
E questo sarebbe solo una minuscola parte di ciò che spero, in teoria, possa esser fatto ;)
Ovviamente , perchè mi interesserebbe capire quale config è più performante ? Perchè se già una singola ricerca e comparazione richiede molto tempo, uno studio del genere , che molto probabilmente richiede di esser fatto e rifatto molte volte (per il semplice fatto che ogni volta dovrei ricercare sequenze diverse) , ovviamente sarebbe fantastico se fossi in grado di farlo nel minor tempo possibile ; se ciò poi costasse relativamente poco ci sarebbe pure la possibilità di ''ampliare il parco macchine'' e montarne delle nuove (magari in parallelo ma forse sarebbe davvero troppo ;) ) .
gianni1879
08-06-2008, 00:36
Pagine e pagine di possibili prestazioni e caratteristiche delle schede, forse sarebbe meglio aspettare e scrivere quando si avranno dati certi :)visto che ormai manca davevro poco alla loro uscita^^
beh visto che è un aspettare si aspetta fino all'ultimo giorno e si fanno ipotesi sui rumors che escono fuori.
Bhairava
08-06-2008, 00:37
Pagine e pagine di possibili prestazioni e caratteristiche delle schede, forse sarebbe meglio aspettare e scrivere quando si avranno dati certi :)visto che ormai manca davevro poco alla loro uscita^^
Ma che osservazione è? :mbe:
Se si vogliono scervellare parlando di TMU, ROPS, FLOPS e proteine che facciano pure, io li leggo con interesse....
Se non si fanno queste speculazioni, che mi leggo io la mattina?
Ma anche la sera... :O
visto che ormai si sta solo parlando di efficienza di SP e basta e non di prestazioni IN-GAME che alla fine è quello che conta di più, ho deciso di ASTENERMI ( :D ) dal scrivere sul thread fino a quando non ci saranno rumors più certi riguardo alle caratteristiche oppure fino a quando non ci saranno benchmark semi-certi e non qualche punto al vantage come fatto fin'ora.
a tra 10 giorni (se non esce nulla prima)... bye bye... :)
Mister Tarpone
08-06-2008, 02:17
e che risposta è? halduemilauno parlava di shader, non di giochi. E gli shader possono venire usati in altre applicazioni che non siano giochi :)
si è vero... ;) ma era per dire, che alla maggioranza delle persone, alla fine conta come vengan sfruttati nei giochi gli shader di ste schede...in genere gli frega poco di come vanno nei test sintetici come shadermark o nelle altre applicazioni.. ;)
capito?? ;)
ps: se si vuole fare i tecnici, almeno assicurarsi di avere le basi per poterselo permettere ;)
bYeZ!
ma smettila con sta frasina.. :D tutte le volte la tiri fuori come se tu fossi + bravo degli altri..... mentre qualche volta hai sparato acuni strafalcioni pure te, se non sbaglio..... tipo quella volta della 96gt.. che secondo te aveva SCURAMENTE 4 rops perchè lo diceva un gpu-z che era ovviamente buggato.. :D e se ne erano accorti tutti tranne te..... :O :sbonk:
ciao :ops:
http://www.tomshw.it/guides/hardware/graphic/20070515/images/textureunit-big.jpg
Dite che potrebbero aver cambiato l'archiettura delle Texture Unit?
R600 ha 16 TA, 16 TF e 64 texture sampler ad uso delle texture.
A proposito, G80 non ha texture sampler? A cosa servono di preciso queste unità?
Il problema di R600 è proprio la bassa capacità di filtraggio giusto?
Potrebbe essere che abbiano raddoppiato anche le TFU per ognuna delle 8TUs di RV770? In totale avremmo 32 TA, 64 TF e 128 TS. Le capacità di filtraggio sarebbero quadruplicate rispetto R600, e l'aumento così consistente di SP porterebbe a più potenza anche per applicare l'MSAA e prestazioni con filtri attivi decisamente superiori a RV670.
Sono finito nell'altra pagina... più che altro vorrei sapere cosa sono le texture sampler, perchè credo di aver capito cosa sono TF e TA, e perchè nell'architettura di G80 non si vedono.:D
Mercuri0
08-06-2008, 09:52
Guarda, quella sarebbe solo una singola applicazione ; a me interesserebbe capire quale possa essere la configurazione che in teoria possa permettere più potenza di calcolo , poi in merito all'ottimizzazione ed al reale utilizzo ovviamente dipende dal programma in sè e dall'utilizzo che se ne deve fare .
Il discorso è che le prestazioni che puoi ottenere sono così legate a quel che devi fare e i tool con cui li programmi, che attualmente prima di scegliere la GPU è molto più importante informarsi sui tool di sviluppo che nVidia e AMD mettono a disposizione, e magari fare pratica su una schedina economica prima di buttarsi sul quadri crossfire.
Per F@H mi sorpresi quando, alla prima uscita del client, non si riusciva a fruttare a dovere una 3870 (che arrivava giusto al 60% di utilizzo), perché neanche la CPU più potente era in grado di passargli i dati abbastanza velocemente.
Dovrebbero aver risolto fornendo working units molto molto più grandi e complesse, in modo da spostare il collo di bottiglia sulla GPU.
Perciò, scegliere la GPU per ora è l'ultimo dei problemi. Comunque all'uscita della next-gen qualche dato anche sulle prestazioni GPGPU dovrebbe venir fuori.
-noxius-
08-06-2008, 10:10
Se non erro è il primo dato che è uscito dalla casa di santa clara , bisogna vedere però se vale lo stesso per quella di redmond ;) . La 3870 da quel grafico non mi sembra che sia molto interessante .
Poi è ovvio che il lato software deve anticipare quello hardware o potrei ritrovarmi con tutto quel ben di dio per poi magari essere in grado solo di sfogliare la sezione ''help'' nel programmino di turno :ciapet: .
Comunque alla fine, se fosse possibile , sarebbe una vera manna dal cielo ; risoluzioni immediate ed elevatissime possibilità di ricerca, magari incrociata e simultanea .
Infatti . Lo studio sul ripiegamento sarebbe ESTREMAMENTE INTERESSANTE, specialmente nell'ambito di :
1 :analizzare la sequenza che ci interessa , sequenziarla ,posizionare dei ''checkpoint'' o sequenze di interesse (andando magari a ricercare similitudini nelle altre sequenze più o meno correlate) in determinati punti e cercare analogie e differenze significative nel resto del genoma interessato
2 :in base ai dati ottenuti fare uno studio comparativo sul ripegamento proteico e fare una stima di associazione/dissociazione magari grazie ad agenti mutageni di varia natura
3 :elaborare e comparare le sequenze cercando di capire la funzionalità sia del trascritto originario che della struttura generata grazie ad esso .
E questo sarebbe solo una minuscola parte di ciò che spero, in teoria, possa esser fatto ;)
Ovviamente , perchè mi interesserebbe capire quale config è più performante ? Perchè se già una singola ricerca e comparazione richiede molto tempo, uno studio del genere , che molto probabilmente richiede di esser fatto e rifatto molte volte (per il semplice fatto che ogni volta dovrei ricercare sequenze diverse) , ovviamente sarebbe fantastico se fossi in grado di farlo nel minor tempo possibile ; se ciò poi costasse relativamente poco ci sarebbe pure la possibilità di ''ampliare il parco macchine'' e montarne delle nuove (magari in parallelo ma forse sarebbe davvero troppo ;) ) .
Che la potenza di calcolo delle GPU sia incredibile è ormai cosa evidente , e si spera che possa esser utilizzata anche da aplicazioni per le quali sino ad oggi si è usata la CPU ....
Ciò su cui volevo porre l'attenzione non è la possibilità o meno di sfruttare la GPU in ambiti diverso a quelli a cui è normalmente destinata , bensì la praticabilità della cosa..
Leoneazzurro ha citato Folding@Home a giusta ragione, ma occorre aggiungere che sino a poco mesi addietro le uniche GPU che potevano essere utilizzare erano le GPU Radeon appartenenti alle "famiglie" ATI R520/R580 e solo da Aprile 2008 è possibile utilizzare anche R600/RV670...Inoltre , cosa non chiara a molti, Folding@Home è un client per eseguire calcolo distribuito sul proprio PC , non ti è concessa alcuna speculazione (come del resto è giusto); occorre solo fornire la propria capacità di calcolo..
Con questo voglio dire che quantunque si assemblasse un cluster di GPU occorrerebbe avere la capacità tecnica, (nell'ambito scientifico parliamo di team) per sviluppare le applicazione in grado di utilizzare le GPU , o nella migliore delle ipotesi sperare che i programmi utilizzati di routine possano un giorno sfruttare le GPU..
Insomma , vedo molto entusiasmo a riguardo , ma sono dell'avviso che per adesso è solo frutto del marketing....
Occorre vedere quanto faranno ATI e Nvidia per offrire tool e librerie di sviluppo per applicazioni GPGPU..
Per adesso crogiolarsi sul F@H (versante GPU) che è frutto di una intensa collaborazione tra gli studioso delll'università di Stanford e gli ingegneri ATI (e solo adesso Nvidia).....è prematuro :i primi animati dalla sete di conoscenza ed i secondi avidi di trovare nuovi clienti (da poco si è aggiunta Sony con il suo Cell)
In sostanza credo che i due maggiori produttori VGA(e non solo) siano interessati a crearsi nuovi mercati nell'ambito scientifico , laddove è richiesta una incredibile capacità computazionale ;non penso che nel breve termine tutto ciò possa interessare i singoli utenti.....:la ricerca si , ma non gli utenti!!
Sono finito nell'altra pagina... più che altro vorrei sapere cosa sono le texture sampler, perchè credo di aver capito cosa sono TF e TA, e perchè nell'architettura di G80 non si vedono.:D
I texture samplers dovrebbero essere le unità che si occupano di "prendere" le texture, ossia di fare il cosiddetto texture fetching. O mi sbaglio? :stordita:
Servirebbe leoneazzurro... :sofico:
Comunque in G80 l'architettura dovrebbe essere così: 64 texture samplers, 32 TAU, 64 TFU. Da G84 in poi le nuove gpu NVidia hanno TFU e TAU in egual numero (ad es. G92 ha 64 TAU e 64 TFU).
R600 e soci hanno 80 texture samplers, 32 TAU e 16 TFU, si riescono a contare anche a mano nel disegno che hai postato. I TS e TAU separati si occupano solo di vertex data e, nel caso dei TS, anche di pixel data, ma solo se unfiltered. Quindi a rigore si dovrebbe dire: 64 pixel texture samplers, 16 vertex or unfiltered texture samplers, 16 pixel TAU, 16 vertex TAU, 16 TFU. ;)
A rigore credo che RV770 potrebbe pure avere 4 soli blocchi di TMU, basterebbe raddoppiare il numero di TFU ed eliminare la distinzione tra vertex e pixel fetch per poter dire tranquillamente che ha 32TMU. Inoltre penso che possano aver seguito la via di G80 e modificato le prestazioni delle TMU in modo da avere il free trilinear filtering. :)
I rumors sulle prestazioni migliorate con AF attivo fanno propendere per questa ipotesi. A proposito di rumors, su PCinlife parlano delle performance di HD4870, e dicono che pare trarre grande beneificio dalle GDDR5 e che sembra andare il 35% in più della 8800Ultra (ovviamente cum grano salis, ecc, ecc...). ;)
http://we.pcinlife.com/thread-946374-1-1.html
-noxius-
08-06-2008, 11:11
Che la potenza di calcolo ..
Io infatti sto parlando puramente di ricerca (un mio possibile campo da qui a non molto tempo, altrimenti cosa ci farei da ''singolo utente'' con tutta questa robba?) e poi questo è il futuro, quindi non mi stupirei se da qui a 5 anni fossero fatti seri passi in avanti e rilasciati programmi ad hoc, che possano permettere una maggiore sfruttamento e possano essere altamente specifici ;) .
Anche qui c'è da aspettare un attimo e cercare di acquisire il know how però le premesse e le possibilità sono notevoli .
I texture samplers dovrebbero essere le unità che si occupano di "prendere" le texture, ossia di fare il cosiddetto texture fetching. O mi sbaglio? :stordita:
Servirebbe leoneazzurro... :sofico:
Comunque in G80 l'architettura dovrebbe essere così: 64 texture samplers, 32 TAU, 64 TFU. Da G84 in poi le nuove gpu NVidia hanno TFU e TAU in egual numero (ad es. G92 ha 64 TAU e 64 TFU).
R600 e soci hanno 80 texture samplers, 32 TAU e 16 TFU, si riescono a contare anche a mano nel disegno che hai postato. I TS e TAU separati si occupano solo di vertex data e, nel caso dei TS, anche di pixel data, ma solo se unfiltered. Quindi a rigore si dovrebbe dire: 64 pixel texture samplers, 16 vertex or unfiltered texture samplers, 16 pixel TAU, 16 vertex TAU, 16 TFU. ;)
Grazie ;)
A rigore credo che RV770 potrebbe pure avere 4 soli blocchi di TMU, basterebbe raddoppiare il numero di TFU ed eliminare la distinzione tra vertex e pixel fetch per poter dire tranquillamente che ha 32TMU. Inoltre penso che possano aver seguito la via di G80 e modificato le prestazioni delle TMU in modo da avere il free trilinear filtering. :)
I rumors sulle prestazioni migliorate con AF attivo fanno propendere per questa ipotesi.
Potrebbe essere... 4 TUs modificate come hai detto tu occuperebbero quasi lo stesso spazio sul die, e probabilmente non necessiterebbero nemmeno di aumentare la cache L1 e L2 dedicata. Infatti se si fanno i debiti calcoli (basandosi sul fatto che lo shader core è il 19% del die-size di RV670, come detto da Free Gordon) , le agguntive 96SU dovrebbe occupare circa 60 mm^2 a 55nm, che è proprio l'aumento del die-size da RV670 a RV770.
http://www.pcworldtech.com/Categories/GPU/reviews/ATI2xxx_files/image011.jpg
Però dovrebbero trovare un'altra soluzione per il vertex fetching e credo sia più dispendioso anche perchè significa riscrivere parte dei driver. Se raddoppiassero le TUs e aumentassero le TF per ogni TUs, l'architettura dovrebbe essere molto più equilibrata e i driver non necessiterebbero di essere rescritti. Aspettiamo ancora qualche giorno, ormai ci siamo quasi...
A proposito di rumors, su PCinlife parlano delle performance di HD4870, e dicono che pare trarre grande beneificio dalle GDDR5 e che sembra andare il 35% in più della 8800Ultra (ovviamente cum grano salis, ecc, ecc...). ;)
http://we.pcinlife.com/thread-946374-1-1.html
E' un risultato eccellente, sopratutto se con filtri e alte risoluzioni dove la Ultra stacca la 9800Gtx di anche il 10% e non è troppo distante dalla GX2. A esempio a 1600x1200@4xAA/16xAF la GX2 è mediamente solo il 25% più veloce di una Ultra ;)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/21/
leoneazzurro
08-06-2008, 11:30
Che la potenza di calcolo delle GPU sia incredibile è ormai cosa evidente , e si spera che possa esser utilizzata anche da aplicazioni per le quali sino ad oggi si è usata la CPU ....
Ciò su cui volevo porre l'attenzione non è la possibilità o meno di sfruttare la GPU in ambiti diverso a quelli a cui è normalmente destinata , bensì la praticabilità della cosa..
Leoneazzurro ha citato Folding@Home a giusta ragione, ma occorre aggiungere che sino a poco mesi addietro le uniche GPU che potevano essere utilizzare erano le GPU Radeon appartenenti alle "famiglie" ATI R520/R580 e solo da Aprile 2008 è possibile utilizzare anche R600/RV670...Inoltre , cosa non chiara a molti, Folding@Home è un client per eseguire calcolo distribuito sul proprio PC , non ti è concessa alcuna speculazione (come del resto è giusto); occorre solo fornire la propria capacità di calcolo..
Con questo voglio dire che quantunque si assemblasse un cluster di GPU occorrerebbe avere la capacità tecnica, (nell'ambito scientifico parliamo di team) per sviluppare le applicazione in grado di utilizzare le GPU , o nella migliore delle ipotesi sperare che i programmi utilizzati di routine possano un giorno sfruttare le GPU..
Insomma , vedo molto entusiasmo a riguardo , ma sono dell'avviso che per adesso è solo frutto del marketing....
Occorre vedere quanto faranno ATI e Nvidia per offrire tool e librerie di sviluppo per applicazioni GPGPU..
Per adesso crogiolarsi sul F@H (versante GPU) che è frutto di una intensa collaborazione tra gli studioso delll'università di Stanford e gli ingegneri ATI (e solo adesso Nvidia).....è prematuro :i primi animati dalla sete di conoscenza ed i secondi avidi di trovare nuovi clienti (da poco si è aggiunta Sony con il suo Cell)
In sostanza credo che i due maggiori produttori VGA(e non solo) siano interessati a crearsi nuovi mercati nell'ambito scientifico , laddove è richiesta una incredibile capacità computazionale ;non penso che nel breve termine tutto ciò possa interessare i singoli utenti.....:la ricerca si , ma non gli utenti!!
Da tempo entrambe le case rilasciano tools per il GPGPU, la prima è stata proprio ATI e poi è arrivata Nvidia con CUDA. Il problema è che chiaramente deve essere sviluppato del software che supporti le nuove librerie, ed inoltre deve essere anche ottimizzato per sfruttare al massimo il parallelismo. Architetture diverse poi richiedono a volte ottimizzazioni e "path" appositi. Questa è la ragione per cui anche il client Folding@home ha necessitato di parecchio tempo per essere rilasciato. C'è da dire poi che comunque il discorso GPGPU si fa oggi amcora più interessante, con le schede che possono sfruttare la doppia precisione.
Sono finito nell'altra pagina... più che altro vorrei sapere cosa sono le texture sampler, perchè credo di aver capito cosa sono TF e TA, e perchè nell'architettura di G80 non si vedono.:D
I texture samplers dovrebbero essere le unità che si occupano di "prendere" le texture, ossia di fare il cosiddetto texture fetching. O mi sbaglio? :stordita:
Servirebbe leoneazzurro... :sofico:
Comunque in G80 l'architettura dovrebbe essere così: 64 texture samplers, 32 TAU, 64 TFU. Da G84 in poi le nuove gpu NVidia hanno TFU e TAU in egual numero (ad es. G92 ha 64 TAU e 64 TFU).
R600 e soci hanno 80 texture samplers, 32 TAU e 16 TFU, si riescono a contare anche a mano nel disegno che hai postato. I TS e TAU separati si occupano solo di vertex data e, nel caso dei TS, anche di pixel data, ma solo se unfiltered. Quindi a rigore si dovrebbe dire: 64 pixel texture samplers, 16 vertex or unfiltered texture samplers, 16 pixel TAU, 16 vertex TAU, 16 TFU. ;)
A rigore credo che RV770 potrebbe pure avere 4 soli blocchi di TMU, basterebbe raddoppiare il numero di TFU ed eliminare la distinzione tra vertex e pixel fetch per poter dire tranquillamente che ha 32TMU. Inoltre penso che possano aver seguito la via di G80 e modificato le prestazioni delle TMU in modo da avere il free trilinear filtering. :)
I rumors sulle prestazioni migliorate con AF attivo fanno propendere per questa ipotesi. A proposito di rumors, su PCinlife parlano delle performance di HD4870, e dicono che pare trarre grande beneificio dalle GDDR5 e che sembra andare il 35% in più della 8800Ultra (ovviamente cum grano salis, ecc, ecc...). ;)
http://we.pcinlife.com/thread-946374-1-1.html
I texture samplers sono unità che si occupano di leggere il colore delle texture dalla memoria nei punti richiesti e di passarlo alle unità di elaborazione successive. Le TFU prendono questi valori da più texture samplers e li filtrano. G80 ha 256 texture samplers, RV770 se raddoppierà le unità potrebbe averne 160. Io penso che i blocchi siano comunque 8, ma sistemati in modo differente (2 per sublivello) per incrementare l'utilizzazione e per il "free trilinear".
I texture samplers sono unità che si occupano di leggere il colore delle texture dalla memoria nei punti richiesti e di passarlo alle unità di elaborazione successive. Le TFU prendono questi valori da più texture samplers e li filtrano. G80 ha 256 texture samplers, RV770 se raddoppierà le unità potrebbe averne 160. Io penso che i blocchi siano comunque 8, ma sistemati in modo differente (2 per sublivello) per incrementare l'utilizzazione e per il "free trilinear".
Ah ecco, avevo letto da qualche parte che G80 fa 2 texture fetch per pixel o una roba del genere... :fagiano:
Ma i TS in G80 sono nelle ALU come nelle vecchie vga? :stordita:
Se però l'architettura rimanesse come quella di R600 RV770 avrebbe 200TS, ossia 160 per pixel data filtered/unfiltered e 40 (160/4 per pixel data unfiltered e vertex data).
Forse i 160 avrebbero più senso se li si rendesse "tuttofare" (pixel e vertex data)... :stordita:
leoneazzurro
08-06-2008, 11:57
Ah ecco, avevo letto da qualche parte che G80 fa 2 texture fetch per pixel o una roba del genere... :fagiano:
Ma i TS in G80 sono nelle ALU come nelle vecchie vga? :stordita:
Se però l'architettura rimanesse come quella di R600 RV770 avrebbe 200TS, ossia 160 per pixel data filtered/unfiltered e 40 (160/4 per pixel data unfiltered e vertex data).
Forse i 160 avrebbero più senso se li si rendesse "tuttofare" (pixel e vertex data)... :stordita:
4 per pixel. I TS non sono nelle ALU (o stai parlando delle ALU adibite al TF)? NO, sarebbero 160 in tutto (128 dedicati al TF, 4 per TFU, e 32 dedicati al point sampling e vertex)
4 per pixel. I TS non sono nelle ALU (o stai parlando delle ALU adibite al TF)? NO, sarebbero 160 in tutto (128 dedicati al TF, 4 per TFU, e 32 dedicati al point sampling e vertex)
Uhm, però in R600 erano 4 per TFU, ma anche 1 per Shader Unit. Così il rapporto ALU:TEX aumenterebbe anche per le TAU, non solo per le TFU... :boh:
Ma secondo te come potrebbero aver implementato il free trilinear? :fagiano:
Direi che sulle TMU avranno avuto da lavorare parecchio, perchè se ci saranno cambiamenti architetturali, al di là dell'aumento di unità, io me li aspetto soprattutto lì, anche perchè l'aumento per certi versi "smisurato" di stream processors penso si giustifichi principalmente con l'esigenza di avere la potenza necessaria per gestire bene l'AA via shaders, quindi le ROPs saranno più o meno le stesse. ;)
E' un risultato eccellente, sopratutto se con filtri e alte risoluzioni dove la Ultra stacca la 9800Gtx di anche il 10% e non è troppo distante dalla GX2. A esempio a 1600x1200@4xAA/16xAF la GX2 è mediamente solo il 25% più veloce di una Ultra ;)
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/21/
Se fosse vero, sì. Il problema è che potrebbe anche essere una cavolata... :asd:
Aspettiamo ancora una settimana, anche perchè credo che dopo l'uscita di G200 AMD farà uscire qualche leak pilotato / recensione non ufficiale per poter tamponare l'euforia iniziale vs le schede NVidia. ;)
leoneazzurro
08-06-2008, 13:04
Uhm, però in R600 erano 4 per TFU, ma anche 1 per Shader Unit. Così il rapporto ALU:TEX aumenterebbe anche per le TAU, non solo per le TFU... :boh:
Ma secondo te come potrebbero aver implementato il free trilinear? :fagiano:
Direi che sulle TMU avranno avuto da lavorare parecchio, perchè se ci saranno cambiamenti architetturali, al di là dell'aumento di unità, io me li aspetto soprattutto lì, anche perchè l'aumento per certi versi "smisurato" di stream processors penso si giustifichi principalmente con l'esigenza di avere la potenza necessaria per gestire bene l'AA via shaders, quindi le ROPs saranno più o meno le stesse. ;)
I texture samplers servono primariamente per le TFU, perchè le texture vengono in gran parte dei casi passate agli shader già filtrate. Ma si possono passare anche dei samples non filtrati, ad esempio con la tecnica Fetch4 (Gather 4 in DX10). Potrebbero esserci altri texture samplers rispetto a R6X0, comunque, anche se ho come l'impressione che ci saranno in tutto 160 texture samplers. Tra l'altro, parte degli shader potrebbero essere utilizzati per il filtraggio di particolari formati, un pò come accadeva per FP16 in R580, risparmiando spazio nelle TU stesse. Per il free trilinear, non so dirti come potrebbe essere implementato.
Immortal
08-06-2008, 15:24
Uhm, però in R600 erano 4 per TFU, ma anche 1 per Shader Unit. Così il rapporto ALU:TEX aumenterebbe anche per le TAU, non solo per le TFU... :boh:
Ma secondo te come potrebbero aver implementato il free trilinear? :fagiano:
Direi che sulle TMU avranno avuto da lavorare parecchio, perchè se ci saranno cambiamenti architetturali, al di là dell'aumento di unità, io me li aspetto soprattutto lì, anche perchè l'aumento per certi versi "smisurato" di stream processors penso si giustifichi principalmente con l'esigenza di avere la potenza necessaria per gestire bene l'AA via shaders, quindi le ROPs saranno più o meno le stesse. ;)
Se fosse vero, sì. Il problema è che potrebbe anche essere una cavolata... :asd:
Aspettiamo ancora una settimana, anche perchè credo che dopo l'uscita di G200 AMD farà uscire qualche leak pilotato / recensione non ufficiale per poter tamponare l'euforia iniziale vs le schede NVidia. ;)
quoto, anche se la fascia di mercato rispetto a gtx 260 e gtx280 sarà ben diversa..
W0mbat, che è sotto NDA, ha confermato gli 800sp. Le TMUs però non ha confermato che siano 32. Potrebbe essere 40? (Rapporto 4:1 shader:tmu, come R600)
Ha anche aggiunto che 256mm^2 è il die-size mostrato da GPU-Z ma che potrebbe anche essere sbagliato.(quindi maggiore, ma sempre sotto i 300mm^2 aggiungo io perchè dalle foto il chip non sembra più grande di così)
Immortal
08-06-2008, 16:34
W0mbat, che è sotto NDA, ha confermato gli 800sp. Le TMUs però non ha confermato che siano 32. Potrebbe essere 40? (Rapporto 4:1 shader:tmu, come R600)
Ha anche aggiunto che 256mm^2 è il die-size mostrato da GPU-Z ma che potrebbe anche essere sbagliato.(quindi maggiore, ma sempre sotto i 300mm^2 aggiungo io perchè dalle foto il chip non sembra più grande di così)
se ci fossero 800sp e 40tmu, e se non ci fossero problemi ad arrivare ad 1ghz di core e infine se i driver proporranno un supporto adeguato, credo che sarebbe una gran bella bestia..molto più performante di quanto potremmo aspettarci.
-noxius-
08-06-2008, 17:35
ma sempre sotto alla gx2 pure in OC :( ...tutto stà nel prezzo e nel consumo per un eventuale CF
ma sempre sotto alla gx2 pure in OC :( ...tutto stà nel prezzo e nel consumo per un eventuale CF
col crossfire oltre a spendere di piu ci perdi pure in prtazioni.....c'è la gtx260 che secondo me è ottima e costera sulle 400 euro e senza dubbio sare piu performante della 4870 spero anche della gx2
col crossfire oltre a spendere di piu ci perdi pure in prtazioni.....c'è la gtx260 che secondo me è ottima e costera sulle 400 euro e senza dubbio sare piu performante della 4870 spero anche della gx2
Come fai a dire senza dubbio che la GTX260 andra' di+ della 4870?_?
Come fai a dire senza dubbio che la GTX260 andra' di+ della 4870?_?
perche alla ati non son mica scemi, non mettono la 4870 a 300 dollari se avesse le stesse prestazioni di una scheda video che costa 500........vosterebbe 500 dollari se non di piu
halduemilauno
08-06-2008, 17:49
http://i114.photobucket.com/albums/n273/Wirmish/GPU-Dies.png
perche alla ati non son mica scemi, non mettono la 4870 a 300 dollari se avesse le stesse prestazioni di una scheda video che costa 500........vosterebbe 500 dollari se non di piu
QUOTONE|!
toca1979
08-06-2008, 17:53
perche alla ati non son mica scemi, non mettono la 4870 a 300 dollari se avesse le stesse prestazioni di una scheda video che costa 500........vosterebbe 500 dollari se non di piu
Ati ha perso molte quote di mercato con la scorsa gen di schede video, se vuole recuperare qualcosa a nvidia un prezzo aggressivo e delle prestazioni quasi allineate sarebbero il modo migliore.
Immortal
08-06-2008, 17:54
perche alla ati non son mica scemi, non mettono la 4870 a 300 dollari se avesse le stesse prestazioni di una scheda video che costa 500........vosterebbe 500 dollari se non di piu
e chi ti dice che non siano scemi quelli di nvidia invece..che sovrastimano il valore della loro gtx260 pensando che alla ati nn facciano nulla di buono..
ovviamente è solo per farti capire il rovescio della medaglia, anche se pure per me gtx260 andrà parecchio veloce..
Immortal
08-06-2008, 17:55
http://i114.photobucket.com/albums/n273/Wirmish/GPU-Dies.png
i 276mm² da dove vengono fuori? sono una tua supposizione?
perche alla ati non son mica scemi, non mettono la 4870 a 300 dollari se avesse le stesse prestazioni di una scheda video che costa 500........vosterebbe 500 dollari se non di piu
Si ma se ti basi sul prezzo allora usi un metodo di misura completamente errato, pensavo avessi dei dati + sicuri xD, cioe' e' possibile che ATI/AMD abbia trovato il metodo di far pagare poco un ottimo prodotto e poi e' anche posisbile che sia Nvidia a far costare troppo i suoi, tutto e' possibile se ci si basa SOLO sul prezzo, io prima di dare per scontate certe cose aspetto :)
PS.basta vedere come ora sk video che costavano 300€ a quanto sono arrivate.
halduemilauno
08-06-2008, 18:11
i 276mm² da dove vengono fuori? sono una tua supposizione?
no. sul forum beyond un'utente si è divertito a ricalcolare in base ai nuovi rumors e testimonianze dei soliti beninformati.
W0mbat, che è sotto NDA, ha confermato gli 800sp. Le TMUs però non ha confermato che siano 32. Potrebbe essere 40? (Rapporto 4:1 shader:tmu, come R600)
Ha anche aggiunto che 256mm^2 è il die-size mostrato da GPU-Z ma che potrebbe anche essere sbagliato.(quindi maggiore, ma sempre sotto i 300mm^2 aggiungo io perchè dalle foto il chip non sembra più grande di così)
Sì, ha postato quel grafico fatto da un tizio che si chiama AnarchX su B3D... Boh...
La cosa più lollosa è che si è iscritto su Rage3D (forum storico vicino ad ATI) con la descrizione sotto all'avatar "There's no shaderclk"... :asd:
Mister Tarpone
08-06-2008, 18:26
allora ricapitolando... alla fine ste schede avranno il chip un pò più grande , 800(160)sp e forse anche + di 32TMU... giusto?? :confused:
ma è confermata al 100% sta cosa?? o ci sono ancora dei dubbi??:confused:
goldorak
08-06-2008, 18:27
perche alla ati non son mica scemi, non mettono la 4870 a 300 dollari se avesse le stesse prestazioni di una scheda video che costa 500........vosterebbe 500 dollari se non di piu
Si chiama concorrenza. :p
E per inciso la GTX260 dovrebbe costare 400 $ mentre la GTX280 600 $.
Ergo con 300 $ per la 4870 (se andasse meglio della GTX260), amazzerebbe quest'ultima e farebbe un danno non indifferente alla GTX280.
allora ricapitolando... alla fine ste schede avranno il chip un pò più grande , 800(160)sp e forse anche + di 32TMU... giusto?? :confused:
ma è confermata al 100% sta cosa?? o ci sono ancora dei dubbi??:confused:
Alla fine il 25 giugno scopriremo che AMD/ATi é ritornata ad avere pixel e vertex shader separati ;)
Mister Tarpone
08-06-2008, 18:31
Alla fine il 25 giugno scopriremo che AMD/ATi é ritornata ad avere pixel e vertex shader separati ;)
azz.. :asd:
-noxius-
08-06-2008, 18:38
col crossfire oltre a spendere di piu ci perdi pure in prtazioni.....c'è la gtx260 che secondo me è ottima e costera sulle 400 euro e senza dubbio sare piu performante della 4870 spero anche della gx2
Si ma se la differenza in prestazioni sarà dell'ordine del 30% in più rispetto ad una 4870 , se permetti , il gioco non vale la candela e costerebbe decisamente troppo (270 vs 400) . Alla fine amd ha fatto una bella mossa , vedere le reali prestazioni ed aggiustare i prezzi di conseguenza, per stringere ancora di più il cappio (oppure iniziare a stringerselo da sola ;) )
allora ricapitolando... alla fine ste schede avranno il chip un pò più grande , 800(160)sp e forse anche + di 32TMU... giusto?? :confused:
ma è confermata al 100% sta cosa?? o ci sono ancora dei dubbi??:confused:
Mie stime:
800SP->95%
32TMU->80%
40TMU->20%
270-280mm^2->50%
Si chiama concorrenza. :p
E per inciso la GTX260 dovrebbe costare 400 $ mentre la GTX280 600 $.
Ergo con 300 $ per la 4870 (se andasse meglio della GTX260), amazzerebbe quest'ultima e farebbe un danno non indifferente alla GTX280.
449$ per la GTX260, 649$ per la GTX280.
329$ per la HD4870.
Si chiama concorrenza. :p
E per inciso la GTX260 dovrebbe costare 400 $ mentre la GTX280 600 $.
Ergo con 300 $ per la 4870 (se andasse meglio della GTX260), amazzerebbe quest'ultima e farebbe un danno non indifferente alla GTX280.
se fosse veramente cosi me ne prenderei due di 4870 ma dato che non sra assolutamente cosi......infatti amd ati sta aspettando il rilascio di gt200 per fissare i prezzi e ripeto non son scemi se la 4870 andra piu veloce di gtx260 (cosa molto improbabile secondo me) costera se non uguale leggermente di piu rispetto alla concorrente
Si ma se la differenza in prestazioni sarà dell'ordine del 30% in più rispetto ad una 4870 , se permetti , il gioco non vale la candela e costerebbe decisamente troppo (270 vs 400) . Alla fine amd ha fatto una bella mossa , vedere le reali prestazioni ed aggiustare i prezzi di conseguenza, per stringere ancora di più il cappio (oppure iniziare a stringerselo da sola ;) )
io con un budget di 400 euro con il 30% di prestazioni mi prendo la nvidia e non la ati e poi credo che del 20% si deprezzeranno entrambe dopo un mese dal lancio
-noxius-
08-06-2008, 19:02
se fosse verame..
e quindi
270->225
400->330 .. non cambierebbe nulla ;) . Non credo che nVIDIA le deprezzerà così tanto ; gli sono costate parechcio ed ha difficoltà di produzione dovute alla bassa resa . Al massimo potrebbe abbassare di un 10% e tamponare a settembre con un refresh a 55nm , oppure con una G92b + spinta .
nVIDIA stà sul 40% mentre ati sul 70% (a quanto sembra, resa di prodizione) il che significa che nVIDIA non potrà abbassare di molto i prezzi di queste gt200 , specialmente le varie xfx/evga/zotac/pny/gigabyte , quanto ci guadagnerebbero ? Molte di queste aziende mi sembra di aver sentito che stanno lì lì per andare in passivo a causa di tutti questi ribbassi a causa di ati (come sapphire e compagnia bella del resto) . Quella che ci perderebbe di più, a lungo andare , sarebbe nVIDIA e non amd ;)
paolox86
08-06-2008, 19:03
Vediamo, Ati sulla carta delle supposizioni non è messa tanto male a questo giro... Speriamo bene
-noxius-
08-06-2008, 19:04
ma guarda un pò .... ecco la conferma a quanto ho scritto ;) :
Nvidia works on new 55nm GT200
Computex 08: Likely to launch in 2009
Nvidia is working on improved version of GT200 done in 55nm and the new chip is most likely to come next year. GT200 can support GDDR5 but we believe that this will be Nvidia's last resort.
The question remains if Nvidia really needs to push with a potential version of GDDR5 GT200 and this would only occur if ATI's R700, possibly called Radeon HD 4870 X2 bets Nvidia in performance crown match.
Nvidia cannot do its cool marketing without performance crown and therefore they will fight until their last breath. Some people suggeted that dual chip R700 card can beat Nvidia but we cannot confirm or deny these claims, as both are possible.
One thing is certain that Nvidia never sleeps.
e quindi
270->225
400->330 .. non cambierebbe nulla ;) . Non credo che nVIDIA le deprezzerà così tanto ; gli sono costate parechcio ed ha difficoltà di produzione dovute alla bassa resa . Al massimo potrebbe abbassare di un 10% e tamponare a settembre con un refresh a 55nm , oppure con una G92b + spinta .
nVIDIA stà sul 40% mentre ati sul 70% (a quanto sembra, resa di prodizione) il che significa che nVIDIA non potrà abbassare di molto i prezzi di queste gt200 , specialmente le varie xfx/evga/zotac/pny/gigabyte , quanto ci guadagnerebbero ? Molte di queste aziende mi sembra di aver sentito che stanno lì lì per andare in passivo a causa di tutti questi ribbassi a causa di ati (come sapphire e compagnia bella del resto) . Quella che ci perderebbe di più, a lungo andare , sarebbe nVIDIA e non amd ;)
non vorrei essere fregato io com'è successo con la ex top di gamma ati mono gpu; adesso voglio il massimo e una scheda video che almeno tenga i 40 fps in su a 1440x900 a crysis; settato su veryhigh con filtri al massimo; se lo fara la 4870 allora sara mia senno vado sulla nvidia che negli ultimi tempi non c'è nulla da fare va molto meglio
-noxius-
08-06-2008, 19:07
haha, ed allora mi sa che verrai deluso ; dovresti spendere almeno 650 dollari per quelle prestazioni ;)
haha, ed allora mi sa che verrai deluso ; dovresti spendere almeno 650 dollari per quelle prestazioni ;)
senno vado di crossfire di 4870 sperando che le riesca a trovare meno di 450 euro la coppia sempre se avranno in due prestazioni migliori della gtx260: una a luglio e l'altra a settembre...qua comunque il mistero continua
non vorrei essere fregato io com'è successo con la ex top di gamma ati mono gpu; adesso voglio il massimo e una scheda video che almeno tenga i 40 fps in su a 1440x900 a crysis; settato su veryhigh con filtri al massimo; se lo fara la 4870 allora sara mia senno vado sulla nvidia che negli ultimi tempi non c'è nulla da fare va molto meglio
Bo io di certo nn cambio sacheda solo per far girare crysis visto che a 1440x900 tutto si Very High con Vsync e AAx4 con il mio sli di 88GT mi fa 25 frame di media quindi nn credo che sia la potenza ma propio il game che va male e mi sembra + che accertato, cmq cambio scheda perhce' vorrei nn dover + utilizzare ne crossfire ne sli cosi da avere una sola VGA e giocare a 1920 decentemente, se poi riescono pure a far andare crysis meglio cosi ma credo sara' difficile visto l'ottimizzazione pessima del game sotto DX10.
Spero cmq che sia ATI che Nvidia facciano prodotti davvero nuovi e con prestazioni finalmente + alte visto che da un anno e 1/2 nn si vede in pratica nulla di meglio di una 88GTX/ultra.
-noxius-
08-06-2008, 19:29
guarda , se fosse confermato che una 4850 vada poco più di una 9800gtx (pure 5%) ed una 4870 il 30% in più di una 50 , allora un cf di queste ultime supererebbe significativamente una gtx280 ; il problema sarebbe nella gestione della memoria, non condivisa come per le nuove X2 , e nella presenza del bottleneck dato dall'interfaccia di ocnnessione (il che porterebbe a drammatici incrementi prestazionali dove ottimizzato e prestazioni pari od un pelo inferiori ad una singola 4870 ) .
La nuova X2 sembra una bella belva, non c'è che dire !
Bhairava
08-06-2008, 19:32
non vorrei essere fregato io com'è successo con la ex top di gamma ati mono gpu; adesso voglio il massimo e una scheda video che almeno tenga i 40 fps in su a 1440x900 a crysis; settato su veryhigh con filtri al massimo; se lo fara la 4870 allora sara mia senno vado sulla nvidia che negli ultimi tempi non c'è nulla da fare va molto meglio
Ancora con questa ossessione? Non valutate le schede grafiche sulle prestazioni in Crysis. Ormai si sa, quello è un benchmark, non un gioco.
goldorak
08-06-2008, 19:38
Ancora con questa ossessione? Non valutate le schede grafiche sulle prestazioni in Crysis. Ormai si sa, quello è un benchmark, non un gioco.
*
Ancora con questa ossessione? Non valutate le schede grafiche sulle prestazioni in Crysis. Ormai si sa, quello è un benchmark, non un gioco.
i benchmark a cosa servono allora se non a stabilire le prestazioni di una scheda video;)
goldorak
08-06-2008, 20:05
i benchmark a cosa servono allora se non a stabilire le prestazioni di una scheda video;)
Si diceva una cosa diversa, e cioe' che e' assurdo comprare una scheda video per giocare ad un benchmark.
Immortal
08-06-2008, 20:06
i benchmark a cosa servono allora se non a stabilire le prestazioni di una scheda video;)
si ma usare crysis come metro di valutazione sarebbe come valutare le prestazioni sullo sterrato tra una ferrari e una lamborghini...è stato detto e ridetto che è un gioco anomalo e pieno di tanti difetti di ottimizzazione, non mi pareva il caso di ripeterlo ;)
-noxius-
08-06-2008, 20:17
Ancora con questa ossessione? Non valutate le schede grafiche sulle prestazioni in Crysis. Ormai si sa, quello è un benchmark, non un gioco.
Proprio perchè mette in ginocchio queste schede è interesasnte capire come vanno QUI .
Si diceva una cosa diversa, e cioe' che e' assurdo comprare una scheda video per giocare ad un benchmark.
Giocare ad un benchmark ? Per come la vedo io mi è piaciuto molto ma molto di più rispetto a tutto quello che è uscito da anni a questa parte ! Grafica spettacolare, livelli vasti e gameplay diverso dal resto (come gli altri fps ma con più elementi) , vario e con una organizzazione dei livelli veramente ben fatta . Ho provato cod4 ma non è che mi sia piaciuto granchè ..
si ma usare crysis come metro di valutazione sarebbe come valutare le prestazioni sullo sterrato tra una ferrari e una lamborghini...è stato detto e ridetto che è un gioco anomalo e pieno di tanti difetti di ottimizzazione, non mi pareva il caso di ripeterlo ;)
Gioco anomalo ? Concordo per il fatto che sia pesantissimo (dx9.0c al massimo in versione ULTRA pompata) però è il primo tra quei titoli che si preannunciano pesanti (farcry2,alan wake,giochi basati su tech5 ,clear sky ..) . E' anomalo il fatto che diciamo che è pesantissimo senza considerare il fatto che è il massimo che possa esser creato adesso a livello grafico , e lo ripeto , il massimo (e non mi si venga a dire che cod4 è simile perchè basta un' occhiata generale per capire che è il motore di cod2 con qualche feature in più :read: ) .
Decideresti quale scheda video acquistare solo un base al 3dmark? E' la stessa cosa.....Potresti, certo, ma, imho, sarebbe un metro di valtazione sbagliatissimo.
Che significa ? Se quelle prestazioni riflettono quelle reali non vedo perchè non dovrei comprarmene una che Lì vada decentemente .
Bhairava
08-06-2008, 20:19
i benchmark a cosa servono allora se non a stabilire le prestazioni di una scheda video;)
Decideresti quale scheda video acquistare solo un base al 3dmark? E' la stessa cosa.....Potresti, certo, ma, imho, sarebbe un metro di valtazione sbagliatissimo.
goldorak
08-06-2008, 20:22
E un gioco anomalo perche' non scala un c@zzo col processore, single core, dual core, quadcore a parita' di frequenza vanno nello stesso identico modo con crysis.
E poi spendere 600 € per una scheda video che non ti garantisce neanche l'antialising ingame sa troppo di presa per il :ciapet:
La scheda video per crysis e' quella che ti da 60 fps con aa e af a 1280x1024.
Io ancora non l'ho vista e tu ? :asd: Forse e' il caso di sperare in Intel. :D
-noxius-
08-06-2008, 20:24
In minima parte un incremento c'è ed è lo stesso che è presente in tutti gli altri giochi usciti fino ad ora, quindi dovresti sparare a chi programma il gioco in sè , non a chi fa il processore ! Ad esempio il motore di HL2 è più sensibile all'aumento della frequenza del processore ma quella è pura ottimizzazione (oppure che alcune features sono assegnate al processore e non alla gpu) .
Che poi debbano ottimizzarlo meglio è evidente e necessario .
lo so ma se almeno andasse bene con un motore grafico pesantissimo mi darebbe piu garanzie per il futuro.....io voglio spendere una cifra consistente per avere un prodotto longevo e non che debba cambiare ogni 5-6 mesi.......
Bravo, io la penso allo stesso modo . Se va bene con crysis allora starai a posto per lungo tempo (motivo per cui stò aspettando una scheda video seria ..)
Decideresti quale scheda video acquistare solo un base al 3dmark? E' la stessa cosa.....Potresti, certo, ma, imho, sarebbe un metro di valtazione sbagliatissimo.
lo so ma se almeno andasse bene con un motore grafico pesantissimo mi darebbe piu garanzie per il futuro.....io voglio spendere una cifra consistente per avere un prodotto longevo e non che debba cambiare ogni 5-6 mesi.......
Bravo, io la penso allo stesso modo . Se va bene con crysis allora starai a posto per lungo tempo (motivo per cui stò aspettando una scheda video seria ..)
per fortuna che c'è qualcuno che la pensa come me:)
goldorak
08-06-2008, 20:50
Bravo, io la penso allo stesso modo . Se va bene con crysis allora starai a posto per lungo tempo (motivo per cui stò aspettando una scheda video seria ..)
Il mercato non la pensa come te, d'altronde tutti i giochi pc di rilevo adesso e nel prossimo futuro sono sempre porting da console che come ben saprai hanno un hardware un tantino inferiore alle schede video (neanche top di gamma) su pc.
Il tuo ragionamento e' pertanto fallato in partenza.
Guarda alla 8800Ultra e citami un solo gioco (non benchmark) che la metta in ginocchio ed e' uscita 2 anni fa ? :Perfido:
Secondo me forse ci potrà anche arrivare, se non a 40 a 35... tanto si gioca bene lo stesso xD
Mister Tarpone
08-06-2008, 20:57
Il mercato non la pensa come te, d'altronde tutti i giochi pc di rilevo adesso e nel prossimo futuro sono sempre porting da console che come ben saprai hanno un hardware un tantino inferiore alle schede video (neanche top di gamma) su pc.
Il tuo ragionamento e' pertanto fallato in partenza.
Guarda alla 8800Ultra e citami un solo gioco (non benchmark) che la metta in ginocchio ed e' uscita 2 anni fa ? :Perfido:
Call of Juarez DX10 :Perfido:
no cmq mi tocca quotarti il post perchè concordo..... :asd:
Bhairava
08-06-2008, 21:01
Il mercato non la pensa come te, d'altronde tutti i giochi pc di rilevo adesso e nel prossimo futuro sono sempre porting da console che come ben saprai hanno un hardware un tantino inferiore alle schede video (neanche top di gamma) su pc.
Il tuo ragionamento e' pertanto fallato in partenza.
Guarda alla 8800Ultra e citami un solo gioco (non benchmark) che la metta in ginocchio ed e' uscita 2 anni fa ? :Perfido:
Concordo.
supercomputer1
08-06-2008, 21:02
http://www.pctunerup.com/up/results/_200806/th_20080608215729_gtx280bench.jpg
Notate come l'architettura 3870X2 ne soffra con l' Anti Aliasing abilitato
addirittura il distacco tra la gtx 280 è del 123,10% quando viene abilitato AA 4x nella 3870X2
goldorak
08-06-2008, 21:12
Non e' solo l'antialiasing ma sopratutto il filtro anisotropico che abatte le prestazioni delle 3870x2 (e per la verita' di tutta la serie R600).
Cerano dei test in passato che dimostravano come la perdita di prestazione con il filtro AA abilitato in R600 e simili era piu' o meno sullo stesso piano delle schede Nvidia (G80 e simili).
Quello che distrugge l'architettura ATI e' il filtraggio anisotropico.
appleroof
08-06-2008, 21:15
Non e' solo l'antialiasing ma sopratutto il filtro anisotropico che abatte le prestazioni delle 3870x2 (e per la verita' di tutta la serie R600).
Cerano dei test in passato che dimostravano come la perdita di prestazione con il filtro AA abilitato in R600 e simili era piu' o meno sullo stesso piano delle schede Nvidia (G80 e simili).
Quello che distrugge l'architettura ATI e' il filtraggio anisotropico.
:confused: ma che test? non vorrei li avessi visti solo tu...:fagiano:
goldorak
08-06-2008, 21:17
:confused: ma che test? non vorrei li avessi visti solo tu...:fagiano:
Su quel famoso sito tedesco, se fai una ricerca nelle pagine precedenti le trovi.
supercomputer1
08-06-2008, 21:22
Non e' solo l'antialiasing ma sopratutto il filtro anisotropico che abatte le prestazioni delle 3870x2 (e per la verita' di tutta la serie R600).
Cerano dei test in passato che dimostravano come la perdita di prestazione con il filtro AA abilitato in R600 e simili era piu' o meno sullo stesso piano delle schede Nvidia (G80 e simili).
Quello che distrugge l'architettura ATI e' il filtraggio anisotropico.
Confermo goldorack se scarichi gpu shader analyzer dalla web page ATI e' crei un'applicazione che usi gli shaders il gpu shaders analyzer ti mostra che vi sono i seguenti colli di bottiglia ( o bottleneck come visualizzato dal programma) precisamente questo è quello che dice anisotropic filter ALU bottleneck, trlinear filter ALU bottleneck, bilinear filter ALU bottleneck
in parole povere significa che vi sono dei colli di bottiglia nelle ALU ed in particolare in queste istruzioni ( bilinear filter, trlinear filter, anisotropic filter)
sull' AA il programma non e' in grado di calcolare le prestazioni dell'antialiasing
che come si sa l'architettura R600 e derivati hanno un calo di performance pure qui.
Meno male che con 48XX questo è stato risolto oltre ad inserire nuovi tipi di istruzioni .
Aspettando R700;)
-noxius-
08-06-2008, 21:32
Il mercato non la pensa come te, d'altronde tutti i giochi pc di rilevo adesso e nel prossimo futuro sono sempre porting da console che come ben saprai hanno un hardware un tantino inferiore alle schede video (neanche top di gamma) su pc.
Il tuo ragionamento e' pertanto fallato in partenza.
Guarda alla 8800Ultra e citami un solo gioco (non benchmark) che la metta in ginocchio ed e' uscita 2 anni fa ? :Perfido:
Crysis E' un gioco ; secondo la tua logica allora queste gt200 non sarebbero nemmeno dovute uscire dato che con la tua ultra tutti i ''GIOCHI'' vanno al massimo :rolleyes: . Concordo per il discorso del porting ma da qui ad altri 2 anni dubito che una ultra continui a reggere , già adesso mostra pesanti segni di cedimento .
Infatti se avessi una ultra non la cambierei per molto tempo.
O al massimo per una 4870 se andrá meglio (vendendo oggi la ultra e pagando poca differenza). Di crysis mi importa ben poco, e la ultra oggi fa girare tutto a 1920x1200.
Ma infatti chi adesso ha una ultra secondo me , a meno che non abbia un 20'' su vista , dovrebbe fargli il Vmod e metterla sotto liquido .. i muscoli direi che ancora ce li ha ;)
Crysis E' un gioco ; secondo la tua logica allora queste gt200 non sarebbero nemmeno dovute uscire dato che con la tua ultra tutti i ''GIOCHI'' vanno al massimo :rolleyes:
Infatti se avessi una ultra non la cambierei per molto tempo.
O al massimo per una 4870 se andrá meglio (vendendo oggi la ultra e pagando poca differenza, forse anche niente). Di crysis mi importa ben poco, e la ultra oggi fa girare tutto a 1920x1200.
appleroof
08-06-2008, 21:45
Su quel famoso sito tedesco, se fai una ricerca nelle pagine precedenti le trovi.
non ha problemi solo di anisotropico ma anche di AA
Confermo goldorack se scarichi gpu shader analyzer dalla web page ATI e' crei un'applicazione che usi gli shaders il gpu shaders analyzer ti mostra che vi sono i seguenti colli di bottiglia ( o bottleneck come visualizzato dal programma) precisamente questo è quello che dice anisotropic filter ALU bottleneck, trlinear filter ALU bottleneck, bilinear filter ALU bottleneck
in parole povere significa che vi sono dei colli di bottiglia nelle ALU ed in particolare in queste istruzioni ( bilinear filter, trlinear filter, anisotropic filter)
sull' AA il programma non e' in grado di calcolare le prestazioni dell'antialiasing
che come si sa l'architettura R600 e derivati hanno un calo di performance pure qui.
Meno male che con 48XX questo è stato risolto oltre ad inserire nuovi tipi di istruzioni .
Aspettando R700;)
ecco
non vorrei essere fregato io com'è successo con la ex top di gamma ati mono gpu; adesso voglio il massimo e una scheda video che almeno tenga i 40 fps in su a 1440x900 a crysis; settato su veryhigh con filtri al massimo; se lo fara la 4870 allora sara mia senno vado sulla nvidia che negli ultimi tempi non c'è nulla da fare va molto meglio
I 40 fps con Crysis Very High DX10 con AA4x (quindi manco i filtri al max) a 1440x900 forse, e dico forse, riuscirai a toccarli di media con la GTX280, visto che la GX2 fa 18fps con quei settaggi. Quindi sto veramente sparando alto, presupponendo che la GX2 sia framebuffer limited o bandwidth limited anche a quella risoluzione. Ovviamente i fps minimi saranno ben più bassi.
haha, ed allora mi sa che verrai deluso ; dovresti spendere almeno 650 dollari per quelle prestazioni ;)
Forse non bastano manco quelli, ma servono 2*650$ + un ali da 80A totali. :rolleyes:
Giocare ad un benchmark ? Per come la vedo io mi è piaciuto molto ma molto di più rispetto a tutto quello che è uscito da anni a questa parte ! Grafica spettacolare, livelli vasti e gameplay diverso dal resto (come gli altri fps ma con più elementi) , vario e con una organizzazione dei livelli veramente ben fatta . Ho provato cod4 ma non è che mi sia piaciuto granchè ..
Gioco anomalo ? Concordo per il fatto che sia pesantissimo (dx9.0c al massimo in versione ULTRA pompata) però è il primo tra quei titoli che si preannunciano pesanti (farcry2,alan wake,giochi basati su tech5 ,clear sky ..) . E' anomalo il fatto che diciamo che è pesantissimo senza considerare il fatto che è il massimo che possa esser creato adesso a livello grafico , e lo ripeto , il massimo (e non mi si venga a dire che cod4 è simile perchè basta un' occhiata generale per capire che è il motore di cod2 con qualche feature in più :read: ) .
Vabbè, questo è un discorso molto ampio e OT, ma Crysis su Very High è certamente outstanding da certi punti di vista (le textures del terreno in primo luogo direi), ma non mi si venga a dire che CryEngine 2 è pensato per il futuro perchè un motore grafico che va meglio su un single core a millemila MHz che su un quadcore è una ciofeca di motore grafico.
Tra l'altro non ci sono solo Crysis e CoD4 al mondo, ma anche tanti giochi molto belli graficamente che girano da dio, e che ti consiglio di provare, da Bioshock a GRID, ma anche l'ultimo DMC (di quest'ultimo scaricati la demo, il gioco non è ancora uscito).
Scommettiamo che GTA4 girerà bene anche su G80 e su RV670 (e a detta della critica è uno dei più bei videogiochi mai creati, sia graficamente che come gameplay, soprattutto?).
http://www.pctunerup.com/up/results/_200806/th_20080608215729_gtx280bench.jpg
Notate come l'architettura 3870X2 ne soffra con l' Anti Aliasing abilitato
addirittura il distacco tra la gtx 280 è del 123,10% quando viene abilitato AA 4x nella 3870X2
Guarda che i distacchi non sono propriamente realistici... Come ho già detto quandomai si è vista una Ultra andare il 50% in più di una 9800GTX a 1900x1200 coi filtri. Al max va un 30% in più.
Certo è che le R600 coi filtri fanno abbastanza schifo, c'è poco da dire.
goldorak
08-06-2008, 21:59
non ha problemi solo di anisotropico ma anche di AA
ecco
Il calo di performance nel antialiasing e' ovvio che ce', cosi' come ce' sulle schede Nvidia. Ma il punto e' un altro, e cioe' che il calo di prestazione da no AA a AA sulle schede Nvidia e ATI e' piu' o meno equivalente.
Mentre la perdita di prestazione col filtro anistropico e' di gran lunga peggiore su R600 che su G80 (e sulla generazione R580 dov'era praticamente free). Capisci ora ? :stordita:
Immortal
08-06-2008, 22:03
http://www.pctunerup.com/up/results/_200806/th_20080608215729_gtx280bench.jpg
Notate come l'architettura 3870X2 ne soffra con l' Anti Aliasing abilitato
addirittura il distacco tra la gtx 280 è del 123,10% quando viene abilitato AA 4x nella 3870X2
SE realmente 3d mark vantage rispecchia in maniera abbastanza fedele le performance della vga, allora gtx260 non lo vedo poi così distante dalla 4870, anzi..
-noxius-
08-06-2008, 22:07
Vabbè, questo è un discorso molto ampio e OT, ma Crysis su Very High è certamente outstanding da certi punti di vista (le textures del terreno in primo luogo direi), ma non mi si venga a dire che CryEngine 2 è pensato per il futuro perchè un motore grafico che va meglio su un single core a millemila MHz che su un quadcore è una ciofeca di motore grafico.
Certo, io intendevo solo dire che allo stato attuale questo motore garantisce il massimo della qualità grafica, per l'ottimizzazione invece non credo che sia da prendere da esempio ; potrei dire invece che l'UT3 engine è semplicemente magnifico sotto quel punto di vista .
Tra l'altro non ci sono solo Crysis e CoD4 al mondo, ma anche tanti giochi molto belli graficamente che girano da dio, e che ti consiglio di provare, da Bioshock a GRID, ma anche l'ultimo DMC (di quest'ultimo scaricati la demo, il gioco non è ancora uscito).
Scommettiamo che GTA4 girerà bene anche su G80 e su RV670 (e a detta della critica è uno dei più bei videogiochi mai creati, sia graficamente che come gameplay, soprattutto?).
Mi ero scaricato la demo di bioshock ma non mi è piaciuta ; carine le ambientazioni ma c'èra qualcosa che non mi ha convinto . GRID sembra interessante , DMC ? GTA4 sicuramente si , però io mi voglio tutelare per MAFIA2 su di un 22/24'' ;)
appleroof
08-06-2008, 22:07
I 40 fps con Crysis Very High DX10 con AA4x (quindi manco i filtri al max) a 1440x900 forse, e dico forse, riuscirai a toccarli di media con la GTX280, visto che la GX2 fa 18fps con quei settaggi. Quindi sto veramente sparando alto, presupponendo che la GX2 sia framebuffer limited o bandwidth limited anche a quella risoluzione. Ovviamente i fps minimi saranno ben più bassi.
se sarà così con la gtx280, immagina con la 4870
penso volesse dire quello, e stando ai rumors è una valutazione esatta ;)
Il calo di performance nel antialiasing e' ovvio che ce', cosi' come ce' sulle schede Nvidia. Ma il punto e' un altro, e cioe' che il calo di prestazione da no AA a AA sulle schede Nvidia e ATI e' piu' o meno equivalente.
Mentre la perdita di prestazione col filtro anistropico e' di gran lunga peggiore su R600 che su G80 (e sulla generazione R580 dov'era praticamente free). Capisci ora ? :stordita:
:asd:
ti sbagli, informati meglio
Fin dall'uscita del R600, è immediatamente emerso il notevole impatto sulle prestazioni dell'Antialiasing applicato alla scena renderizzata, se confrontato con le soluzioni nVidia.
La perdita di prestazioni è da ricercarsi, essenzialmente, nella mancanza del circuito di resolve nelle rop's. Tale circuito normalmente si occupa di effettuare i calcoli di interpolazione per l'applicazione dei campioni dell'antialiasing alla scena visiva. L'assenza di questo componente porta l'R600 a caricare lo shader core [ma questo non doveva essere enormemente più prestante di quello di g80? :what: vabbè, il passato è passato :) N.D.R.] di questo compito, così facendo, nel rendering di una scena con l'antialiasing parte dello shader core risulta impegnato nelle operazioni sui vertex e sui pixel mentre un'altra parte è occupata nei calcoli di interpolazione.
http://www.nexthardware.com/recensioni/scheda/57_348.htm
e le cose non sono cambiate con rv670
;)
leoneazzurro
08-06-2008, 22:25
se sarà così con la gtx280, immagina con la 4870
penso volesse dire quello, e stando ai rumors è una valutazione esatta ;)
ti sbagli, informati meglio
Fin dall'uscita del R600, è immediatamente emerso il notevole impatto sulle prestazioni dell'Antialiasing applicato alla scena renderizzata, se confrontato con le soluzioni nVidia.
La perdita di prestazioni è da ricercarsi, essenzialmente, nella mancanza del circuito di resolve nelle rop's. Tale circuito normalmente si occupa di effettuare i calcoli di interpolazione per l'applicazione dei campioni dell'antialiasing alla scena visiva. L'assenza di questo componente porta l'R600 a caricare lo shader core [ma questo non doveva essere enormemente più prestante di quello di g80? :what: vabbè, il passato è passato :) N.D.R.] di questo compito, così facendo, nel rendering di una scena con l'antialiasing parte dello shader core risulta impegnato nelle operazioni sui vertex e sui pixel mentre un'altra parte è occupata nei calcoli di interpolazione.
http://www.nexthardware.com/recensioni/scheda/57_348.htm
e le cose non sono cambiate con rv670
;)
E nemmeno con Rv770: in realtà quanto scritto in quella recensione è un pò inesatto. Il primo colllo di bottiglia di R6X0 sono le TMU, il secondo le ROPs. Supercomputer ha scritto che lo shader analyzer ha riportato chiaramente che le operazioni di bilinear, anisotropic e trilinear sono il collo di bottiglia: queste operazioni sono a carico delle TMU, non delle ALU intese come Shader unit. In secondo luogo, è vero che con R600 l'impatto dell'AA è più gravoso rispetto a G80 sia perchè quest'ultimo ha il doppio degli Z sample per clock sia perchè il resolve via shader introduce un ulteriore livello di complessità nello scheduling delle operazioni shader, tuttavia rimarrebbe meno "drastico" se si evitasse di testare sempre l'AA insieme all'AF, in quanto in quel caso si sommano i due effetti. In sostanza, R600 avrebbe comunque meno "potenza" a disposizione per l'AA rispetto a G80, ma a questo si somma il problema dell'AF che agginge ulteriore danno.
Certo, io intendevo solo dire che allo stato attuale questo motore garantisce il massimo della qualità grafica, per l'ottimizzazione invece non credo che sia da prendere da esempio ; potrei dire invece che l'UT3 engine è semplicemente magnifico sotto quel punto di vista .
L'ultimo DMC è Devil May Cry 4. :p
se sarà così con la gtx280, immagina con la 4870
penso volesse dire quello, e stando ai rumors è una valutazione esatta ;)
Certo, ma se uno mi dice "no, guarda, non prendo RV770 perchè GTX280 mi farà sicuramente girare Crysis a millemila fps", allora io gli consiglio di prendersi una scheda da 100€ o poco più, manco la HD4870, perchè tanto spendere un mucchio di soldi per giocare a meno che 1280x1024, quando la cosa principale che volevi non l'avrai comunque, imho non ha tantissimo senso. ;)
Mercuri0
08-06-2008, 23:07
:confused: ma che test? non vorrei li avessi visti solo tu...:fagiano:
L'ho visto anche io, era stato linkato su beyond3d nel thread di R700 a sostegno della tesi che fosse l'AF a massacrare le R6xx, molto più che l'AA, ed era una serie i benchmark testati esplicitamente con il solo AA.
A mente nella comparazione con il solo AA R670 perdeva più o meno quanto il G92.
Comunque ci aspettiamo che con R770 abbiano steroidato le TMU. Penso che l'AA lo faranno sempre nelle ALU, la cosa sembra ragionevole e a R770 i flops non mancano.
L'ho visto anche io, era stato linkato su beyond3d nel thread di R700 a sostegno della tesi che fosse l'AF a massacrare le R6xx, molto più che l'AA, ed era una serie i benchmark testati esplicitamente con il solo AA.
A mente nella comparazione con il solo AA R670 perdeva più o meno quanto il G92.
Comunque ci aspettiamo che con R770 abbiano steroidato le TMU. Penso che l'AA lo faranno sempre nelle ALU, la cosa sembra ragionevole e a R770 i flops non mancano.
Confermo il test, me lo ricordo anche io. L' AF influenzava in modo molto piú pesante che l' AA nel calo delle performance, nella maggior parte dei giochi testati.
Comunque ci aspettiamo che con R770 abbiano steroidato le TMU. Penso che l'AA lo faranno sempre nelle ALU, la cosa sembra ragionevole e a R770 i flops non mancano.
Penso che, se fosse vero, l'aumento di SP a 800 andrebbe letto proprio in quell'ottica... Parte della potenza di shading è eccessiva senza AA, perchè texturing limited, ma con l'AA, soprattutto alle alte risoluzioni, torna utilissima. ;)
Non e' solo l'antialiasing ma sopratutto il filtro anisotropico che abatte le prestazioni delle 3870x2 (e per la verita' di tutta la serie R600).
Cerano dei test in passato che dimostravano come la perdita di prestazione con il filtro AA abilitato in R600 e simili era piu' o meno sullo stesso piano delle schede Nvidia (G80 e simili).
Quello che distrugge l'architettura ATI e' il filtraggio anisotropico.
L'ho visto anche io, era stato linkato su beyond3d nel thread di R700 a sostegno della tesi che fosse l'AF a massacrare le R6xx, molto più che l'AA, ed era una serie i benchmark testati esplicitamente con il solo AA.
A mente nella comparazione con il solo AA R670 perdeva più o meno quanto il G92.
Comunque ci aspettiamo che con R770 abbiano steroidato le TMU. Penso che l'AA lo faranno sempre nelle ALU, la cosa sembra ragionevole e a R770 i flops non mancano.
posso confermare in toto
e poi chiedo a voi,chi di voi ha avuto una hd2900xt e non un hd3870?
perchè chi la avuto sa benissimo i problemi di r600 e derivati, chi come me è stato sul 3d di r600 e sopratutto io ho avuto la fortuna di prender prima una 8800gts e poi una hd2900xt
confermo spesso su quel tread ci siamo chiesto quale fosse la causa dell abbassamento di performances di r600 con i filti attivi
e con qualche test abbiamo visto che non era l'aa ad azzoppare la scheda
ma appunto il filtraggio anisotropico, e quindi su quel tread gia parlavamo che le sole 16tmu su quella vga per come era eseguito l'anisotropico erano oggettivamente pocè, ma non poche nel senso che 16 sn poche, su r5x0 con 16tmu la perdita con af attivo era pochissima, poche per come r600 esegue i calcoli dell'af.
anche confrontando con i vecchi test sulla 8800gts (quella con il bus a 320bit e 96sp) mi ero reso conto che nonostante una superiorità di r600 in quasi tutto, attivando i filtri la distanza tra le 2 vga si assottigliava e si assottigliava in maniera maggiore quando erano attivi l'aa+af che non solo in condizioni di aa e basta.
lo so ma se almeno andasse bene con un motore grafico pesantissimo mi darebbe piu garanzie per il futuro.....io voglio spendere una cifra consistente per avere un prodotto longevo e non che debba cambiare ogni 5-6 mesi.......
per fortuna che c'è qualcuno che la pensa come me:)
Il problema e che il game nn e solo pesante ma ottimizzato alla cazzo sopratutto sotto DX10 perche' sotto le 9 lo gioco easy a 1920, si spera che i prossimi game nn siano fatti cosi in tema di ottimizzazione.
In + vedere le poche copie del gioco che sono state vendute per colpa di bug e scarsa ottimizzazione la dicono lunga, invece un COD4 che pur nn sia a livelli di crysis ha venduto mille mila volte d+.
posso confermare in toto
e poi chiedo a voi,chi di voi ha avuto una hd2900xt e non un hd3870?
perchè chi la avuto sa benissimo i problemi di r600 e derivati, chi come me è stato sul 3d di r600 e sopratutto io ho avuto la fortuna di prender prima una 8800gts e poi una hd2900xt
confermo spesso su quel tread ci siamo chiesto quale fosse la causa dell abbassamento di performances di r600 con i filti attivi
e con qualche test abbiamo visto che non era l'aa ad azzoppare la scheda
ma appunto il filtraggio anisotropico, e quindi su quel tread gia parlavamo che le sole 16tmu su quella vga per come era eseguito l'anisotropico erano oggettivamente pocè, ma non poche nel senso che 16 sn poche, su r5x0 con 16tmu la perdita con af attivo era pochissima, poche per come r600 esegue i calcoli dell'af.
anche confrontando con i vecchi test sulla 8800gts (quella con il bus a 320bit e 96sp) mi ero reso conto che nonostante una superiorità di r600 in quasi tutto, attivando i filtri la distanza tra le 2 vga si assottigliava e si assottigliava in maniera maggiore quando erano attivi l'aa+af che non solo in condizioni di aa e basta.
quoto la storia dei test sull'AA di RV670 che avevo visto anche io.
Tra l'altro con il solo AA RV67O scala leggermente peggio di G92 per il 4x ma scala MOLTO MEGLIO di G92 e G80 per l'8x dove le schede nvidia vengono massacrate mentre le ATI subiscono un normale calo di prestazioni in linea con il calo del 4x, quindi volendo ben vedere le ATI, come AA, sono messe pure meglio di G80/G92.
Il fatto che R600 e derivati subiscano tanto con l'AF, IMHO, è dato dalle TMU, probabilmente troppo poche per la "struttura" di R600 o programmate male.
Comunque il fatto che in RV770 abbiano raddoppiato le TMU significa che hanno risolto il problema e IMHO RV770 sarà molto più efficiente di RV670 nell'AA grazie agli 800SP e probabilmente anche a una gestione migliorata dello stesso. I Filtri con RV770 potrebbero tornare ad essere il punto di forza di ATI! :)
-noxius-
08-06-2008, 23:56
Il problema e che il game nn e solo pesante ma ottimizzato alla cazzo sopratutto sotto DX10 perche' sotto le 9 lo gioco easy a 1920, si spera che i prossimi game nn siano fatti cosi in tema di ottimizzazione.
In + vedere le poche copie del gioco che sono state vendute per colpa di bug e scarsa ottimizzazione la dicono lunga, invece un COD4 che pur nn sia a livelli di crysis ha venduto mille mila volte d+.
Che significa, pure ''the sims'' oppure ''laura pausini'' vende , non so se ci siamo capiti :Perfido:
L'ultimo DMC è Devil May Cry 4. :p
Certo, ma se uno mi dice "no, guarda, non prendo RV770 perchè GTX280 mi farà sicuramente girare Crysis a millemila fps", allora io gli consiglio di prendersi una scheda da 100€ o poco più, manco la HD4870, perchè tanto spendere un mucchio di soldi per giocare a meno che 1280x1024, quando la cosa principale che volevi non l'avrai comunque, imho non ha tantissimo senso. ;)
Straquotissimo.
Infatti io aspetto al varco, FAR CRY 2 e Crysis Warhead ( nuvo capitolo).
Se le prossime Vga , ati o nvidia che sia, non mi faranno girare questi 2 titoli (che tra l'altro, si dice, saranno + ottimizzati in DX10), a 1900x1200 ( ho il 24") , con tutto SPARATO a Cannone, salto sta generazione............e ad ati e nvidia , dico arrivederci a vga DX11 nel 2009 inoltrato!!!!!:muro:
Sta volta non mi fregano.....anche perchè intravedo un nuovo Windows 7 molto prima di quanto pensiamo ( Giugno-Luglio 2009) , con le nuove DX11 ed in contemporanea alle nuove architetture video dx11.
Forse nemmeno su VISTA , vedremo le DX11, ma solo su Win 7.
Vista, secondo me, muore cosi con le dx10........è troppo lento lato directx
Kharonte85
09-06-2008, 00:02
Straquotissimo.
Infatti io aspetto al varco, FAR CRY 2 e Crysis Warhead ( nuvo capitolo).
Se le prossime Vga , ati o nvidia che sia, non mi faranno girare questi 2 titoli (che tra l'altro, si dice, saranno + ottimizzati in DX10), a 1900x1200 ( ho il 24") , con tutto SPARATO a Cannone, salto sta generazione............e ad ati e nvidia , dico arrivederci a vga DX11 nel 2009 inoltrato!!!!!:muro:
Sta volta non mi fregano.....anche perchè intravedo un nuovo Windows 7 molto prima di quanto pensiamo ( Giugno-Luglio 2009) , con le nuove DX11 ed in contemporanea alle nuove architetture video dx11.
Forse nemmeno su VISTA , vedremo le DX11, ma solo su Win 7.
Vista, secondo me, muore cosi con le dx10........è troppo lento lato directx
Decisamente troppo presto...sul lato game poi ci sono le console che faranno da freno...
Che significa, pure ''the sims'' oppure ''laura pausini'' vende , non so se ci siamo capiti :Perfido:
beh ma se mi confronti COD4 a the sims vengo a prenderti e ti pesto! :D
scherzo ovviamente, cmq IMHO COD4 è molto meglio di CRYSIS, lo dico perchè io sono uno che gioca poco al PC e si stufa presto dei giochi e ti assicuro che un gioco che mi ha preso come COD4 non c'era mai stato. Ho comprato COD4 originale al mio compleanno, ho giocato il gioco single player in 2 giorni e da allora sto giocando online tutti i giorni senza mai stufarmi. Un gioco così longevo e che ti prende così tanto, soprattutto in multiplayer (fatto veramente bene!) non l'ho mai visto.
Se dovessi dare un voto al gioco migliore di sempre metterei in cima COD4, e pensare che prima di COD4 mi stavo sempre + allontanando dai videogiochi con la convinzione che i giochi vecchi divertivano molto di più di quelli nuovi.
Ho giocato anche a crysis, a parte che con la x1950xt devo mettere dettagli medi e va comunque male (perchè il gioco scala veramente da schifo), ma lo piantato li dopo poco perchè mi sn rotto le balle!!
Straquotissimo.
Infatti io aspetto al varco, FAR CRY 2 e Crysis Warhead ( nuvo capitolo).
Se le prossime Vga , ati o nvidia che sia, non mi faranno girare questi 2 titoli (che tra l'altro, si dice, saranno + ottimizzati in DX10), a 1900x1200 ( ho il 24") , con tutto SPARATO a Cannone, salto sta generazione............e ad ati e nvidia , dico arrivederci a vga DX11 nel 2009 inoltrato!!!!!:muro:
Sta volta non mi fregano.....anche perchè intravedo un nuovo Windows 7 molto prima di quanto pensiamo ( Giugno-Luglio 2009) , con le nuove DX11 ed in contemporanea alle nuove architetture video dx11.
Forse nemmeno su VISTA , vedremo le DX11, ma solo su Win 7.
Vista, secondo me, muore cosi con le dx10........è troppo lento lato directx
farcry 2 è un multipiattaforma quindi andrà di sicuro bene, crysis warhead correrà il "rischio" di andare molto meglio del predecessore se ottimizzeranno il motore grafico meglio e soprattutto gli faranno supportare le cpu multicore e SLI / CF!!
Che significa, pure ''the sims'' oppure ''laura pausini'' vende , non so se ci siamo capiti :Perfido:
Si ma per chi fa i game e le VGA contano le vendite, quindi per farti un esempio visto che la maggior parte della gente vuole giocare a COD4 e nn a crysis si prende una 9600GT da 100€ ed e' a posto^^ io poi personalmete gioco a tutto quello che posso finche nn mi fondo il cervello xD (pc-ps3-Wii) e su PC giocando a 1920 ovviamnete mi serve potenza e voglio anche io il massimo possibile tra prezzo/prestazioni, cmq mi accontenterei di una VGA che andasse come il mio SLI di GT allora sono contento :) se poi coi filtri e a risoluzioni alte vanno ancora d+ meglio^^
I 40 fps con Crysis Very High DX10 con AA4x (quindi manco i filtri al max) a 1440x900 forse, e dico forse, riuscirai a toccarli di media con la GTX280, visto che la GX2 fa 18fps con quei settaggi. Quindi sto veramente sparando alto, presupponendo che la GX2 sia framebuffer limited o bandwidth limited anche a quella risoluzione. Ovviamente i fps minimi saranno ben più bassi.
Forse non bastano manco quelli, ma servono 2*650$ + un ali da 80A totali. :rolleyes:
Vabbè, questo è un discorso molto ampio e OT, ma Crysis su Very High è certamente outstanding da certi punti di vista (le textures del terreno in primo luogo direi), ma non mi si venga a dire che CryEngine 2 è pensato per il futuro perchè un motore grafico che va meglio su un single core a millemila MHz che su un quadcore è una ciofeca di motore grafico.
Tra l'altro non ci sono solo Crysis e CoD4 al mondo, ma anche tanti giochi molto belli graficamente che girano da dio, e che ti consiglio di provare, da Bioshock a GRID, ma anche l'ultimo DMC (di quest'ultimo scaricati la demo, il gioco non è ancora uscito).
Scommettiamo che GTA4 girerà bene anche su G80 e su RV670 (e a detta della critica è uno dei più bei videogiochi mai creati, sia graficamente che come gameplay, soprattutto?).
Guarda che i distacchi non sono propriamente realistici... Come ho già detto quandomai si è vista una Ultra andare il 50% in più di una 9800GTX a 1900x1200 coi filtri. Al max va un 30% in più.
Certo è che le R600 coi filtri fanno abbastanza schifo, c'è poco da dire.
Ahh ,volevo aggiungere però, che i 40 fps a 1900x1200, non devono trarci in inganno vedendo il punteggio di GTX 280, ne 3d MERD VANTAGE, poichè sappiamo che sto benchmark , non ha alcuna ottimizzazione, ma è programmato dagli "andicappati", con tutto il rispetto x gli andicappati, che farebbero senz'altro meglio!!!!
Ma a 1900x1200, con tutto very high, in genere, se i nuovi titoli invernali , saranno ottimizzati, e driver maturi, forse..forse potranno girare anche a 55-60 fps di media.....con minimi di 40 fps.
Consideriamo che almeno sulla carta, GTX 280 , almeno, è un vero mostro, aggiungiamo nuovi titoli, + ottimizzati anche se + complessi, con driver maturi non presto, CUDA che si fà carico della fisica , forse anche in R700 ( sgravando del tutto la CPU), allora i 60 fps possono divenire realtà.
Ma questo, è ovvio in teoria, poi vedremo se la pratica corisponderà alla teoria....si spera!!
Cmq sia cazzolina a pochi giorni dall'usicta delle VGA Nvidia e ATI nn si sa ancora nulla di sicuro, magari se si muovono a mettere dati reali uno si organizza col resto del suo sistema, per esempio vorrei sapere quanto si perde ad usare una di ste nuove VGA su una porta PCI-e 16x 1.0 invece di una 2.0
farcry 2 è un multipiattaforma quindi andrà di sicuro bene, crysis warhead correrà il "rischio" di andare molto meglio del predecessore se ottimizzeranno il motore grafico meglio e soprattutto gli faranno supportare le cpu multicore e SLI / CF!!
ecco soprattutto altre al quad core, se supporteranno la gestone della fisica su GPU con CUDA , sgravando il procio, allora avremo davvero un incremento enorme di FPS, e diverrà finalmente giocabile appieno....con tutto al massimo:)
Bhairava
09-06-2008, 00:16
Cmq sia cazzolina a pochi giorni dall'usicta delle VGA Nvidia e ATI nn si sa ancora nulla di sicuro, magari se si muovono a mettere dati reali uno si organizza col resto del suo sistema, per esempio vorrei sapere quanto si perde ad usare una di ste nuove VGA su una porta PCI-e 16x 1.0 invece di una 2.0
Non si perde nulla.
Straquotissimo.
Infatti io aspetto al varco, FAR CRY 2 e Crysis Warhead ( nuvo capitolo).
Se le prossime Vga , ati o nvidia che sia, non mi faranno girare questi 2 titoli (che tra l'altro, si dice, saranno + ottimizzati in DX10), a 1900x1200 ( ho il 24") , con tutto SPARATO a Cannone, salto sta generazione............e ad ati e nvidia , dico arrivederci a vga DX11 nel 2009 inoltrato!!!!!:muro:
Sta volta non mi fregano.....anche perchè intravedo un nuovo Windows 7 molto prima di quanto pensiamo ( Giugno-Luglio 2009) , con le nuove DX11 ed in contemporanea alle nuove architetture video dx11.
Forse nemmeno su VISTA , vedremo le DX11, ma solo su Win 7.
Vista, secondo me, muore cosi con le dx10........è troppo lento lato directx
Il vero problema è che le risoluzioni e le dimensioni degli schermi sono andate troppo oltre le potenzialità delle vga...
1920x1200 e, peggio, 2560x1600 sono fighissimi da vedere, ma costringono ad un cambio di scheda video all'anno, praticamente (sempre che ce ne sia una abbastanza potente da comprare sul mercato).
Giocare a 1280x1024 allunga un casino la vita della scheda video (che si allungherebbe ancor di più se i giochi venissero ottimizzati come si deve)... A 1024x768 riesco a far girare decentemente pure la demo di Devil May Cry 4 sul mio portatile con una Mobility X1600, con tutto al max tranne Quality su High, no AA (se abbasso le Textures su High riesco ad attivare pure l'AA2x o a giocare a 1280x800), tanto per fare un esempio.
Come dico da un sacco di tempo, l'HD gaming è ancora di là da venire (a meno che uno non abbia soldi da spendere in vga tutti gli anni).
-noxius-
09-06-2008, 09:00
Se dovessi dare un voto al gioco migliore di sempre metterei in cima COD4, e pensare che prima di COD4 mi stavo sempre + allontanando dai videogiochi con la convinzione che i giochi vecchi divertivano molto di più di quelli nuovi.
Ho giocato anche a crysis, a parte che con la x1950xt devo mettere dettagli medi e va comunque male (perchè il gioco scala veramente da schifo), ma lo piantato li dopo poco perchè mi sn rotto le balle!!
Ma come ? Io ci ho giocato con una HD3650 a 1024x768 e stava sui 30 fps su medio , xp e q6600@3.6GHz ! :mbe: (Prima però con una 9800GTX stava a 98 , per dovere di cronaca , ed una gts a 93 )
Cmq sia cazzolina a pochi giorni dall'usicta delle VGA Nvidia e ATI nn si sa ancora nulla di sicuro, magari se si muovono a mettere dati reali uno si organizza col resto del suo sistema, per esempio vorrei sapere quanto si perde ad usare una di ste nuove VGA su una porta PCI-e 16x 1.0 invece di una 2.0
Non cambia nulla, al massimo non la alimenterai con due connettori bensì con uno solo ma ho seri dubbi pure su questo .
SE realmente 3d mark vantage rispecchia in maniera abbastanza fedele le performance della vga, allora gtx260 non lo vedo poi così distante dalla 4870, anzi..
be se impotizziamo che la 4850 sia alla pari con la 98gtx, si piò dire che tra quest'ultima e gtx260 c'è molto più del 30%, infatti ben un ~44% senza filtri e con il ~78%. quindi siccome il vantage cmq rispecchia abbastabza bene le peroformance delle vga, nei giochi la differenza tra 4870 senza filtri e gtx260 dovrebbe essere del ~15% e con nn si sa, perchè potrebbe essere che rv770 scali meglio di gt200 vista la sua enorme potenza ;)
cmq se vogliamo possiamo tirare anche una conclusione (da prendere con le pinze) 4870 vs gtx260 sarà come la 3870 vs 8800gt ;) con la differenza che la gtx260 nn costerà come la odierna gt... ;) ;)
Il vero problema è che le risoluzioni e le dimensioni degli schermi sono andate troppo oltre le potenzialità delle vga...
1920x1200 e, peggio, 2560x1600 sono fighissimi da vedere, ma costringono ad un cambio di scheda video all'anno, praticamente (sempre che ce ne sia una abbastanza potente da comprare sul mercato).
Giocare a 1280x1024 allunga un casino la vita della scheda video (che si allungherebbe ancor di più se i giochi venissero ottimizzati come si deve)... A 1024x768 riesco a far girare decentemente pure la demo di Devil May Cry 4 sul mio portatile con una Mobility X1600, con tutto al max tranne Quality su High, no AA (se abbasso le Textures su High riesco ad attivare pure l'AA2x o a giocare a 1280x800), tanto per fare un esempio.
Come dico da un sacco di tempo, l'HD gaming è ancora di là da venire (a meno che uno non abbia soldi da spendere in vga tutti gli anni).
vero cmq imho la soluzione sarà proprio il multi gpu ;)
Mercuri0
09-06-2008, 09:21
Consideriamo che almeno sulla carta, GTX 280 , almeno, è un vero mostro, aggiungiamo nuovi titoli, + ottimizzati anche se + complessi, con driver maturi non presto, CUDA che si fà carico della fisica , forse anche in R700 ( sgravando del tutto la CPU), allora i 60 fps possono divenire realtà.
La fisica accelerata sgrava la CPU ma grava sulla GPU, e siccome i giochi sono molto più GPU-limited che non CPU-limited, caricare ulteriormente la GPU per scaricare la CPU non è una gran furbata. ;)
L'accelerazione fisica sulle GPU non serve affatto per "sgravare la CPU", ma per fare nuovi effetti che la CPU non potrebbe mai fare. Perciò ci vorrà ancora qualche anno prima di vedere qualcosa in più che demo tecnologici.
Marko#88
09-06-2008, 09:35
Il vero problema è che le risoluzioni e le dimensioni degli schermi sono andate troppo oltre le potenzialità delle vga...
1920x1200 e, peggio, 2560x1600 sono fighissimi da vedere, ma costringono ad un cambio di scheda video all'anno, praticamente (sempre che ce ne sia una abbastanza potente da comprare sul mercato).
Giocare a 1280x1024 allunga un casino la vita della scheda video (che si allungherebbe ancor di più se i giochi venissero ottimizzati come si deve)... A 1024x768 riesco a far girare decentemente pure la demo di Devil May Cry 4 sul mio portatile con una Mobility X1600, con tutto al max tranne Quality su High, no AA (se abbasso le Textures su High riesco ad attivare pure l'AA2x o a giocare a 1280x800), tanto per fare un esempio.
Come dico da un sacco di tempo, l'HD gaming è ancora di là da venire (a meno che uno non abbia soldi da spendere in vga tutti gli anni).
come non quotare...:)
halduemilauno
09-06-2008, 09:45
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juni/weitere_hinweise_leistung_hd_4870_x2/
michelgaetano
09-06-2008, 09:47
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juni/weitere_hinweise_leistung_hd_4870_x2/
qualcuno prova a tradurre? di google non ho fiducia :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.