PDA

View Full Version : [Thread ufficiale] Aspettando GTX260 & GTX280


Pagine : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24 25

halduemilauno
29-05-2008, 13:12
:confused:

Ah ok.

cosa ti turbava prima e tranquillizza ora?
;)

paolo.guidx
29-05-2008, 13:13
http://www.nordichardware.com/news,7809.html

Both the GeForce GTX and Radeon HD 4800 series will arrive in about three weeks. Each series will bring two new cards to the market; GeForce GTX 280 and 260, and Radeon HD 4870 and 4850. There is a big difference between the cards though as the GeForce GTX series is enthusiast range, while Radeon HD 4800 series is more mid-range. There have been talks of what GeForce GTX 280 can do in Vantage, but it has now been completed with figures for the other cards.

These are of course in no way official and we can't say for certain where they come from. The only thing we know is that the numbers are not unreasonable, but some information about the rest of the system would be nice. ATI performance (with all cards) is still subpar due to poor drivers, and should improve in Vantage with coming releases. The numbers that are circulating the web are something like this;


Graphics card Vantage Xtreme profile*
GeForce GTX 280 41xx
GeForce GTX 260 38xx
GeForce 9800GX2 36xx
GeForce 8800 Ultra 24xx
Radeon HD 4870 XT 26xx
Radeon HD 3870X2 25xx
Radeon HD 4850 Pro 20xx
Radeon HD 3870 14xx
* 1920x1200 4AA/16AF

;)

Sono bench un po pesanti, cmq per le AMD era quello che ci si aspettava, la HD4870 va meglio della HD3870X2 e sta dietro la 9800GX2, la HD 4850 va meglio della HD3870 e presumo competa con la 9800GTX/8800GTS!
Per le Nvidia uguale, la GTX260 va meglio della 9800GX2 e la GTX280 é "quasi al settimo cielo" :D

Credo che rispecchi tutto sommato le vere prestazioni! ;)

Scusa, ma come fai a dire le la 4870 sta dietro la GX2????:confused: Ma se batte appena la 8800 GTX, che è una scheda di vecchia generazione e quindi in un test tipo Vantage parte già in svantaggio. Prendendo per buoni questi risultati (a me sembrano 1 pò strani e bassi, sarà un problema di vantage che non è troppo ottimizzato?), AMD deve pedalare e di brutto, anche se bisogna dire che il salto prestazionale tra 3870X2 (dual GPU) e 4870 (single GPU) è notevole. La nuova scheda è più veloce ed ha una GPU in meno.

halduemilauno
29-05-2008, 13:15
Scusa, ma come fai a dire le la 4870 sta dietro la GX2????:confused: Ma se batte appena la 8800 GTX, che è una scheda di vecchia generazione e quindi in un test tipo Vantage parte già in svantaggio. Prendendo per buoni questi risultati (a me sembrano 1 pò strani e bassi, sarà un problema di vantage che non è troppo ottimizzato?), AMD deve pedalare e di brutto, anche se bisogna dire che il salto prestazionale tra 3870X2 (dual GPU) e 4870 (single GPU) è notevole. La nuova scheda è più veloce ed ha una GPU in meno.

a me pare evidente e chiaramente visibile che la 4870 sta sotto alla 9800gx2. e pure di molto.

D4N!3L3
29-05-2008, 13:17
cosa ti turbava prima e tranquillizza ora?
;)

No è che non avevo tenuto conto del profilo Extreme e non capivo il significato di xx in fondo ai numeri poichè 4000 circa di punteggio mi sembrava basso.

Poi ho realizzato tutto. :D

Maurè
29-05-2008, 13:18
la 9800gtx starà sopra alla 4850 allora?

leoneazzurro
29-05-2008, 13:22
Oddio se questi numeri sono veritieri, mi preoccuperei fossi Amd. La 4800 le prende di santa ragione dalle GTX e va come una 8800Ultra. :eek:

Dunque, nel bench extreme si è a 1920x1200 con AA4x. Il che significa che si comincia ad essere limitati dallo Z fillrate nel caso della 9800 GTX dalla banda passante, nel quale la 8800 Ultra (24 ROPs*612Mhz) è superiore a RV770 (16*850 MHz sando ai rumors). Tanto è vero che la 9800 GTX (16*675) è dietro alla Ultra anch'essa e quasi alla pari con la 4850 (16*650). Se questi risultati fossero veri, sembrerebbe proprio che le ROPs (RBE) di RV770 abbiano effettivamente 4 Z sample per clock come le ROPs di G8X/G9x. Interessanti i dati di GTX 260 (28*576) e 280 (32*602) che mostrano un andamento superlineare nel confronto tra frequenze e numero di ROPs rispetto a G9x, questo potrebbe portare a pensare che ci sia un numero maggiore di Z sample (8 per clock) o che il clock sia più alto di quello evidenziato dai rumors.
Da notare che se la 4870x2 scalasse come la 3870x2, il suo score al 3DMark vantage sarebbe all'incirca 46xx, nello stesso ambito della GTX280.

Ovviamente a risoluzioni inferiori non si è così limitati dal fill rate, ma anche da shader e TMU per cui la 9800 GTX, come tutti sanno, è molto vicina e spesso sorpassa la 8800 Ultra.
Ricordiamo anche che RV770 è un chip da 250-260 mm^2, stando ai rumors, nella stessa lega di un G92b a 55nm, pensare che potesse andare come e più di una GX2 mi sembra "leggermente" troppo.

PS: dimentico sempre la questione "frame buffer", anche se dai dati sembrerebbe non tanto limitato dalla RAM, ma potrei sbagliarmi qui.

gutti
29-05-2008, 13:46
http://www.nordichardware.com/news,7809.html

Both the GeForce GTX and Radeon HD 4800 series will arrive in about three weeks. Each series will bring two new cards to the market; GeForce GTX 280 and 260, and Radeon HD 4870 and 4850. There is a big difference between the cards though as the GeForce GTX series is enthusiast range, while Radeon HD 4800 series is more mid-range. There have been talks of what GeForce GTX 280 can do in Vantage, but it has now been completed with figures for the other cards.

These are of course in no way official and we can't say for certain where they come from. The only thing we know is that the numbers are not unreasonable, but some information about the rest of the system would be nice. ATI performance (with all cards) is still subpar due to poor drivers, and should improve in Vantage with coming releases. The numbers that are circulating the web are something like this;


Graphics card Vantage Xtreme profile*
GeForce GTX 280 41xx
GeForce GTX 260 38xx
GeForce 9800GX2 36xx
GeForce 8800 Ultra 24xx
Radeon HD 4870 XT 26xx
Radeon HD 3870X2 25xx
Radeon HD 4850 Pro 20xx
Radeon HD 3870 14xx
* 1920x1200 4AA/16AF

;)

Grafico ottenuto dai dati del bench in questione
(I colori chiari sono relativi alle schede in uscita, quelli scuri alle schede già sul mercato)

http://web.tiscali.it/maingutisite/Bench.GIF

McGraw
29-05-2008, 13:56
Grafico ottenuto dai dati del bench in questione
(I colori chiari sono relativi alle schede in uscita, quelli scuri alle schede già sul mercato)

http://www.hwupgrade.it/forum/attachment.php?attachmentid=62764

Io includerei anche la 9800GTX, la 8800GTS, la 8800GT e la 9600GT tutte a 512MB! cosi il quadro appare piu chiaro!
Stavo ripensando alla 9800GTX, se fosse uscita con un quantitativo di memoria superiore (tipo 768MB) e avesse avuto le frequenze relativamente piu alte (tipo 9800GTX OC), la HD 4870 sarebbe stata alla portata del G92! :eek:

-noxius-
29-05-2008, 14:00
[url] Graphics card Vantage Xtreme profile*
GeForce GTX 280 41xx
GeForce GTX 260 38xx
GeForce 9800GX2 36xx
GeForce 8800 Ultra 24xx
Radeon HD 4870 XT 26xx
Radeon HD 3870X2 25xx
Radeon HD 4850 Pro 20xx
Radeon HD 3870 14xx
* 1920x1200 4AA/16AF

Quindi secondo questi dati una gts 280 sarebbe del 13% più veloce di una GX2 a quella risoluzione ?

-noxius-
29-05-2008, 14:03
Amd punta alla fascia media con queste schede. La highEnd sarà per la HD4870X2.
Se il prezzo sarà <300€ per la HD4870 direi che è un'ottima scheda.

A quel prezzo decisamente no , ad ogni modo rimane tutto da verificare , soprattutto in ambito driver .

i rumors la danno tra i 399 e i 449$. quindi in € calcolando il fattore italia, iva e altri credo che staremo sulle cifre da me indicate sopra. poi tocca vedere nel dettaglio come si pone la concorrente 4870 che sempre i rumors la danno a 349$.

Concordo, forse da lì a 2 settimane toccherà i 320 se non meno .



Credo che rispecchi tutto sommato le vere prestazioni! ;)

Assolutamente no, qui si parlava di un minimo del 50% in più per la nuova gtx280 rispetto alla gx2, non di un 13% (da ottimizzare etc,etc..) . Comunque prima di arrivare a verdetti sarebbe bene e logico aspettare le recensioni .

Come detto dall'ottimo leoneazzurro , sarebbe interessante il fatto che un CF di 4870 sarebbe più performante di una gtx 280 , e costerebbe grossomodo uguale .

Giustaf
29-05-2008, 14:05
Quindi secondo questi dati una gts 280 sarebbe del 13% più veloce di una GX2 a quella risoluzione ?

se andava il 130% in più della gx2 potevo anche pensare di prenderla! :sofico: :p

per ora prevedo il mio cambio scheda moooooolto lontano...

halduemilauno
29-05-2008, 14:16
A quel prezzo decisamente no , ad ogni modo rimane tutto da verificare , soprattutto in ambito driver .



Concordo, forse da lì a 2 settimane toccherà i 320 se non meno .



Assolutamente no, qui si parlava di un minimo del 50% in più per la nuova gtx280 rispetto alla gx2, non di un 13% (da ottimizzare etc,etc..) . Comunque prima di arrivare a verdetti sarebbe bene e logico aspettare le recensioni .

qui qualcuno diceva pure il 50% in + rispetto alla 9800gtx. mentre io dicevo il doppio. il famoso 50% in + era un rumors (che si riferiva ai giochi) ed è grazie a me che si è capito da dove usciva fuori.

-noxius-
29-05-2008, 14:17
Se posso permettermi, mi sembrano leggermente sottotono , l'unica nota interessante sarebbe che il mitico fudzilla confermerebbe per l'ennesima volta l'indubbia qualità delle sue previsioni , ovvero una serie di idiozie campate per aria :) (per evitare incomprensioni non mi stò riferendo a questa news, ad altre in merito alle 4870)

qui qualcuno diceva pure il 50% in + rispetto alla 9800gtx. mentre io dicevo il doppio. il famoso 50% in + era un rumors (che si riferiva ai giochi) ed è grazie a me che si è capito da dove usciva fuori.

50% in più rispetto alla gtx mi sembra ovvio che sia alquanto sproporzionato e non conforme alle specifiche ; che vada più di una gx2 dev'essere per forza di cose VERO, rispetto al quanto invece non mi azzardo a fare previsioni , semplicemente per il fatto che manca qualsiasi termine di paragone e quindi sarebbe campato per aria . Tu hai detto 50% in più IN MEDIA rispetto ad una GX2 , si vedrà ;) (spero per tutti che sia così, anche perchè sarebbe un eccezionale risultato, però ho seri dubbi in merito ; mi ero pronunciato su un 30% al massimo, ed ero pure ottimista ..) .

Qualora dovesse essere come hai ipotizzato te, ti comprerò un bel logo della nVIDIA da attaccare sul case :ciapet:

HackaB321
29-05-2008, 14:23
Dunque, nel bench extreme si è a 1920x1200 con AA4x. Il che significa che si comincia ad essere limitati dallo Z fillrate nel caso della 9800 GTX dalla banda passante, nel quale la 8800 Ultra (24 ROPs*612Mhz) è superiore a RV770 (16*850 MHz sando ai rumors). Tanto è vero che la 9800 GTX (16*675) è dietro alla Ultra anch'essa e quasi alla pari con la 4850 (16*650). Se questi risultati fossero veri, sembrerebbe proprio che le ROPs (RBE) di RV770 abbiano effettivamente 4 Z sample per clock come le ROPs di G8X/G9x. Interessanti i dati di GTX 260 (28*576) e 280 (32*602) che mostrano un andamento superlineare nel confronto tra frequenze e numero di ROPs rispetto a G9x, questo potrebbe portare a pensare che ci sia un numero maggiore di Z sample (8 per clock) o che il clock sia più alto di quello evidenziato dai rumors.


Il test extreme, oltre che con aa4x, è fatto anche con AF16x. Se una RV770pro sta dietro ad una 9800 pur con la metà (minimo) delle TMU e più o meno la stessa banda forse hanno davvero messo l'AF in un clock come dicevamo un pò di tempo fa (come sembrano dire anche le slide ufficiali di AMD)


Ricordiamo anche che RV770 è un chip da 250-260 mm^2, stando ai rumors, nella stessa lega di un G92b a 55nm, pensare che potesse andare come e più di una GX2 mi sembra "leggermente" troppo.

Visto anche che pare consumerà 50watt in meno in full e una tonnellata in meno in idle, oltre alle ovvie differenze di prezzo.

Crysis90
29-05-2008, 14:35
Grafico ottenuto dai dati del bench in questione
(I colori chiari sono relativi alle schede in uscita, quelli scuri alle schede già sul mercato)

http://web.tiscali.it/maingutisite/Bench.GIF

C'è una cosa che non capisco...come fa la 3870X2 a prenderle dalla 4870, che ha un singolo chip??? Comunque se sono veri, la GTX 280 sarà un mostro assurdo!!!

leoneazzurro
29-05-2008, 14:41
Il test extreme, oltre che con aa4x, è fatto anche con AF16x. Se una RV770pro sta dietro ad una 9800 pur con la metà (minimo) delle TMU e più o meno la stessa banda forse hanno davvero messo l'AF in un clock come dicevamo un pò di tempo fa (come sembrano dire anche le slide ufficiali di AMD)


9800 GX2, perchè rispetto alla GTX è davanti in 3DMark vantage (la 9800 GTX fa circa 2100 punti a quei settaggi)

HackaB321
29-05-2008, 14:43
C'è una cosa che non capisco...come fa la 3870X2 a prenderle dalla 4870, che ha un singolo chip??? Comunque se sono veri, la GTX 280 sarà un mostro assurdo!!!

se è per quello anche le due GTX sono a singolo chip mentre la GX2 ne ha 2. Si chiama generazione successiva :D

halduemilauno
29-05-2008, 14:44
C'è una cosa che non capisco...come fa la 3870X2 a prenderle dalla 4870, che ha un singolo chip??? Comunque se sono veri, la GTX 280 sarà un mostro assurdo!!!

il doppio anzi quasi il doppio di una scialuppa fa una scialuppona. scialuppona di un naufragio. cmq stando a quei dati stanno li li. e l'rv770 non è l'rv670.
;)

HackaB321
29-05-2008, 14:44
9800 GX2, perchè rispetto alla GTX è davanti in 3DMark vantage (la 9800 GTX fa circa 2100 punti a quei settaggi)

Mi riferivo alla 4850 (2000 punti) vs 9800 GTX (2100 punti)

@ndrey
29-05-2008, 14:51
9800 GX2, perchè rispetto alla GTX è davanti in 3DMark vantage (la 9800 GTX fa circa 2100 punti a quei settaggi)

Ecco infatti..
Gt280 = 9800gtx in sli niente di piu niente in meno..
PS.Basta un CF di 4850pro per avere stessi risultati e non parliamo di consumi e di prezzi..

D4N!3L3
29-05-2008, 14:53
Ecco infatti..
Gt280 = 9800gtx in sli niente di piu niente in meno..
PS.Basta un CF di 4850pro per avere stessi risultati e non parliamo di consumi e di prezzi..

Beh insomma, uno SLI ha degli svantaggi rispetto a un chip singolo.

DriftKing
29-05-2008, 15:00
:) vedendo quello smile finale, quasi ci godi di questo svalutamento :)
:) dato che tu non l'hai voluta prendere la GTS :)
:) proprio per aspettare le nuove gpu :)


o sbaglio?? (:Perfido: :asd: ) :)

:Perfido:


:asd::asd::asd:

anche se il 3dmark nn si puo definire un bench affidabile ... ma cmq quei rsultati mi lasciano un po cosi ... dov'e il 50% in+ rispetto alla gx2???

@ndrey
29-05-2008, 15:03
Beh insomma, uno SLI ha degli svantaggi rispetto a un chip singolo.

cf no :D

PS.Naturalmente la scelta migliore è una singola vga.., ho fatto solo un esempio tutto qui..
PPS.Cmq nvidia stessa spinge su piattaforme sli, perciò non vedo il problema :O

Mat-Canniccia
29-05-2008, 15:07
overclokko la mia 9800gx2 fino a 750 mhz come faccio gia ora ed ecco che il 13% si va a far benedire

Jason001
29-05-2008, 15:08
sinceramente mi aspettavo di più ...

un 5000 punti ce li vedevo bene.. ma così è poca la differenza con la 9800 gx2..

vabè che nVidia poi magari fa la gtx290 e chissà cos'altro...

D4N!3L3
29-05-2008, 15:13
sinceramente mi aspettavo di più ...

un 5000 punti ce li vedevo bene.. ma così è poca la differenza con la 9800 gx2..

vabè che nVidia poi magari fa la gtx290 e chissà cos'altro...

Concordo, anche a me non sembra proprio tutto sto mostro che si dice, davvero di poco più potente della GX2. :rolleyes:

-noxius-
29-05-2008, 15:14
Aspettate a parlare .. non citano nemmeno la fonte :rolleyes:

E lo dice uno dei più scettici della 280 qui presenti ..

halduemilauno
29-05-2008, 15:14
:Perfido:


:asd::asd::asd:

anche se il 3dmark nn si puo definire un bench affidabile ... ma cmq quei rsultati mi lasciano un po cosi ... dov'e il 50% in+ rispetto alla gx2???

il rumors diceva nei giochi e io ho svelato da dove usciva fuori quel dato. personalmente io ho sempre detto il doppio di una 9800gtx e quei dati stanno li. poi certo partendo da quella base(a mio modesto avviso naturale e scontata ma come visto di certo non per tutti)ho creduto che quel + 50% fosse realistico. e cmq per dirla tutta sapevo anche di frequenze superiori. quindi se mi collego a quest'ultimo aspetto l'idea che nvidia abbia utilizzato frequenze un tantinello conservative(magari anche per altre cause quali consumo/calore)per aspettare al varco la 4870x2 annunciata per agosto forse non è campata in aria. forse. e magari si aspetta il pp a 55nm. ripeto forse.
cmq quelli postati son dati non ufficiali(anche se indicativi, credo)e molto parziali quindi come al solito aspettiamo rece esaustive. con i giochi ovviamente.
;)


ps sempre stando a quei dati. ve lo dicevo io che anche la gtx260 era superiore alla 9800gx2. sempre stando a quei dati.

Mister Tarpone
29-05-2008, 15:22
http://www.nordichardware.com/news,7809.html



Graphics card Vantage Xtreme profile*
GeForce GTX 280 41xx
GeForce GTX 260 38xx
GeForce 9800GX2 36xx
GeForce 8800 Ultra 24xx
Radeon HD 4870 XT 26xx
Radeon HD 3870X2 25xx
Radeon HD 4850 Pro 20xx
Radeon HD 3870 14xx
* 1920x1200 4AA/16AF

;)


non mi torna... troppa poca differenza tra GTX 280 vs GTX 260.

se guardate sti punteggi c'è più differenza tra le 2 4800 che preticamente tranne che per le ddr5 ed il core + tirato sul 4870 poi per il resto sono uguali...

mentre tra GTX 260 e 280 le differenze HW sono ben + elevate (a favore della 280) e c'è solo 300pt di differenza??? :sbonk: :confused:

-noxius-
29-05-2008, 15:22
il rumors diceva nei giochi e io ho svelato da dove usciva fuori quel dato. personalmente io ho sempre detto il doppio di una 9800gtx e quei dati stanno li. poi certo partendo da quella base(a mio modesto avviso naturale e scontata ma come visto di certo non per tutti)ho creduto che quel + 50% fosse realistico. e cmq per dirla tutta sapevo anche di frequenze superiori. quindi se mi collego a quest'ultimo aspetto l'idea che nvidia abbia utilizzato frequenze un tantinello conservative(magari anche per altre cause quali consumo/calore)per aspettare al varco la 4870x2 annunciata per agosto forse non è campata in aria. forse. e magari si aspetta il pp a 55nm. ripeto forse.

Eh no ! Tu hai SEMPRE DETTO il 50% in più rispetto ad una GX2 .. Ma intendi dire ''il doppio di una gtx matematico'' oppure ''GTX in SLI''(che non è affatto il doppio matematico ma dovrebbe esserlo, in teoria) ? In base a quali fattori prevedi che l'inceremento sia di tale portata ? E' questo che ancora non ho capito ;)

cmq quelli postati son dati non ufficiali(anche se indicativi, credo)e molto parziali quindi come al solito aspettiamo rece esaustive. con i giochi ovviamente.

Bravo ;)

Mister Tarpone
29-05-2008, 15:25
anch'io dissi -mediamente- il 50% in + della GX2 ;)

dopo rettificai per un 30%. e sono abb. convinto che questa sarà la differenza effettiva (ma forse anche un pochettino di +), nei giochi...


...che a me i punteggi nel vantage mi dicono poco sinceramente.. :D

okorop
29-05-2008, 15:27
comunque dal finto bench postato la gtx260 va un misero 10% in meno della gtx280 con costi decisamente diversi...secondo me se fosse vero nvidia avrebbe fatto un flop con gtx280 perche avrebbe un mercato di utenti ristrettissimo

appleroof
29-05-2008, 15:27
Concordo, anche a me non sembra proprio tutto sto mostro che si dice, davvero di poco più potente della GX2. :rolleyes:

esatto: 1 chip che da solo và più di 2

che schifo.















:asd: :asd:

D4N!3L3
29-05-2008, 15:29
esatto: 1 chip che da solo và più di 2

che schifo.















:asd: :asd:

Beh non ho detto questo. Comunque la prendo anche perchè ormai ho venduto la GX2.

DriftKing
29-05-2008, 15:30
esatto: 1 chip che da solo và più di 2

che schifo.

:asd: :asd:

credo che si stava riferendo a quel 50% in+ di cui si parlava ...


p.s. ho accorciato un po il tuo post ... spero mi perdonerai x questo :D

halduemilauno
29-05-2008, 15:30
Eh no ! Tu hai SEMPRE DETTO il 50% in più rispetto ad una GX2 .. Ma intendi dire ''il doppio di una gtx matematico'' oppure ''GTX in SLI''(che non è affatto il doppio matematico ma dovrebbe esserlo, in teoria) ? In base a quali fattori prevedi che l'inceremento sia di tale portata ? E' questo che ancora non ho capito ;)

il doppio di una 9800gtx a carattere generale + o -. questo ho sempre detto. mi stai chiedendo perchè io ho capito e tu no? una base completamente scevra da pregiudizzi e malafede e maggior conoscenza e competenza.

Mister Tarpone
29-05-2008, 15:30
comunque dal finto bench postato la gtx260 va un misero 10% in meno della gtx280 con costi decisamente diversi...secondo me se fosse vero nvidia avrebbe fatto un flop con gtx280 perche avrebbe un mercato di utenti ristrettissimo

ma te dai retta a quei test... :asd:

tra GTX 260 e 280 la differenza sarà + alta... ma non scherziamo :asd:

HackaB321
29-05-2008, 15:31
comunque dal finto bench postato la gtx260 va un misero 10% in meno della gtx280 con costi decisamente diversi...secondo me se fosse vero nvidia avrebbe fatto un flop con gtx280 perche avrebbe un mercato di utenti ristrettissimo

come è sempre accaduto dalla notte dei tempi per una top di gamma assoluta.

@ndrey
29-05-2008, 15:31
anch'io dissi -mediamente- il 50% in + della GX2 ;)

dopo rettificai per un 30%. e sono abb. convinto che questa sarà la differenza effettiva, nei giochi...


...che a me i punteggi nel vantage mi dicono poco sinceramente.. :D

Infatti lol
Non si nemmeno che cpu hanno usato.., magari ati con cpu amd e nvidia con cpu intel , ora tira fuori i numeri :sofico:

DriftKing
29-05-2008, 15:33
il doppio di una 9800gtx a carattere generale + o -. questo ho sempre detto. mi stai chiedendo perchè io ho capito e tu no? una base completamente scevra da pregiudizzi e malafede e maggior conoscenza e competenza.

al tuo posto starei un po piu attento a scrivere queste cose ... la sospensione precedente nn ti ha insegnato nulla?

okorop
29-05-2008, 15:33
Infatti lol
Non si nemmeno che cpu hanno usato.., magari ati con cpu amd e nvidia con cpu intel , ora tira fuori i numeri :sofico:

dunque cosi intendi che le ati sono cpu limited e quindi il test non da il massimo potenziale delle 4870-4850?

DriftKing
29-05-2008, 15:34
dunque cosi intendi che le ati sono cpu limited e quindi il test non da il massimo potenziale delle 4870-4850?

secondo me intende che quel "test" nn e valido :D

-noxius-
29-05-2008, 15:35
il doppio di una 9800gtx a carattere generale + o -. questo ho sempre detto. mi stai chiedendo perchè io ho capito e tu no? una base completamente scevra da pregiudizzi e malafede e maggior conoscenza e competenza.

Partendo dal fatto che ti ho chiesto quale sia la tua ''BASE'' da cui hai ipotizzato quel 50% in più , te lo ripeto : quale sarebbe questa base ?

Pregiudizi ?

Malafede ?

Competenza ?

Ma a cosa ti stai riferendo ? Fattelo dire, con rispetto , pecchi troppo spesso di presunta superiorità morale sulla controparte , che tra l'altro nemmeno conosci ; qui la questione è semplice , se un prodotto è buono lo si evidenzia , se non è buono lo si fa notare ..dove starebbero i pregiudizi , la malafede e la competenza ? Mah :rolleyes:

halduemilauno
29-05-2008, 15:39
comunque dal finto bench postato la gtx260 va un misero 10% in meno della gtx280 con costi decisamente diversi...secondo me se fosse vero nvidia avrebbe fatto un flop con gtx280 perche avrebbe un mercato di utenti ristrettissimo

flop = fallimento ovvero quando fallisci l'obbiettivo, il tuo intento. l'obbiettivo, l'intento di nvidia era presentare una scheda + potente in tutto e per tutto della sua top precedente. obbiettivo perfettamente raggiunto. e se non stacca la gtx260 è perchè anche la gtx260 è ottima non a caso anch'essa stacca(con le debite proporzioni)la precedente 9800gx2.
per farti un'esempio molto vicino a noi flop è la 2900xt che ha fallito(anche miseramente)l'obbiettivo, l'intento di controbattere la 8800gtx. più in generale tutta la serie 2000 di ati è stata un vero, autentico, completo e totale flop. su tutta la linea.
ma questo era solo un'esempio torniamo a parlare delle gtx260/280.

@ndrey
29-05-2008, 15:41
secondo me intende che quel "test" nn e valido :D

Come ho detto prima, mi gioco in lotto sti numeri :ciapet:

Vantage non mi dici proprio niente e Futuremark puo fallire gia oggi.
I giochi mi interessano, altrimenti a cosa servano qst vga..

Mister Tarpone
29-05-2008, 15:42
Come ho detto prima, mi gioco in lotto sti numeri :ciapet:

Vantage non mi dici proprio niente e Futuremark puo fallire gia oggi.
I giochi mi interessano, altrimenti a cosa servano qst vga..

INFATTI!!!!
:mano: :mano: :mano:
:mano: :mano: :mano:
:mano: :mano: :mano:



;)

Marko91
29-05-2008, 15:43
il rumors diceva nei giochi e io ho svelato da dove usciva fuori quel dato. personalmente io ho sempre detto il doppio di una 9800gtx e quei dati stanno li. poi certo partendo da quella base(a mio modesto avviso naturale e scontata ma come visto di certo non per tutti)ho creduto che quel + 50% fosse realistico. e cmq per dirla tutta sapevo anche di frequenze superiori. quindi se mi collego a quest'ultimo aspetto l'idea che nvidia abbia utilizzato frequenze un tantinello conservative(magari anche per altre cause quali consumo/calore)per aspettare al varco la 4870x2 annunciata per agosto forse non è campata in aria. forse. e magari si aspetta il pp a 55nm. ripeto forse.
cmq quelli postati son dati non ufficiali(anche se indicativi, credo)e molto parziali quindi come al solito aspettiamo rece esaustive. con i giochi ovviamente.
;)


ps sempre stando a quei dati. ve lo dicevo io che anche la gtx260 era superiore alla 9800gx2. sempre stando a quei dati.


E' anche vero che in questo test la GX2 scala paurosamente bene (71%), lontano dalle prestazioni reali. Imho la GTX280 sarà circa il 40-50% più veloce di una GX2.

okorop
29-05-2008, 15:43
flop = fallimento ovvero quando fallisci l'obbiettivo, il tuo intento. l'obbiettivo, l'intento di nvidia era presentare una scheda + potente in tutto e per tutto della sua top precedente. obbiettivo perfettamente raggiunto. e se non stacca la gtx260 è perchè anche la gtx260 è ottima non a caso anch'essa stacca(con le debite proporzioni)la precedente 9800gx2.
per farti un'esempio molto vicino a noi flop è la 2900xt che ha fallito(anche miseramente)l'obbiettivo, l'intento di controbattere la 8800gtx. più in generale tutta la serie 2000 di ati è stata un vero, autentico, completo e totale flop. su tutta la linea.
ma questo era solo un'esempio torniamo a parlare delle gtx260/280.

dato che molto probabilmente la gtx280 verra posta a 600$ e la gtx260 sui 500 non vedo dove e come ci possa essere una tale differenza di prezzo quando le prestazioni del test che mi pare non del tutto attendibile mettono la gtx280 solo del 10-15% piu performante di gtx260...tutto qui poi se fara il 30% in piu capisco ma il 15% no...con flop intendo che gtx280 vendera molto poco se cosi stanno le cose

DriftKing
29-05-2008, 15:44
quoto andrey ... quello che conta sono le prestazioni nei giochi ... quindi aspettiamo ;)

A.L.M.
29-05-2008, 15:46
non mi torna... troppa poca differenza tra GTX 280 vs GTX 260.

se guardate sti punteggi c'è più differenza tra le 2 4800 che preticamente tranne che per le ddr5 ed il core + tirato sul 4870 poi per il resto sono uguali...

mentre tra GTX 260 e 280 le differenze HW sono ben + elevate (a favore della 280) e c'è solo 300pt di differenza??? :sbonk: :confused:

ma te dai retta a quei test... :asd:

tra GTX 260 e 280 la differenza sarà + alta... ma non scherziamo :asd:

Boh, tutto può essere. Anch'io penso che la differenza sarà superiore, ma magari non enorme. Se così fosse (differenza non esagerata tra le 2 schede, inferiore alla differenza di specifiche, comunque), potrebbe essere una conferma al fatto che l'architettura di G80 scala tutt'altro che proporzionalmente al numero di shaders (essendo invece parecchio legata ai valori di banda e TMUs). :)

esatto: 1 chip che da solo và più di 2

che schifo.

:asd: :asd:

Beh, un chip solo che però ha specifiche simili a 2 dell'altro... ;)

appleroof
29-05-2008, 15:47
Beh non ho detto questo. Comunque la prendo anche perchè ormai ho venduto la GX2.

scherzavo, ovviamente tutto dipende dall'hype che si ha: se ti aspetti lo stesso distacco che ci fu tra 7950gx2 e 8800gtx è praticamente ovvio che rimarrai deluso, perchè lì ci fu un cambio di generazione, qui solo una (forte, ma pur sempre) evoluzione

io dico che era proprio inutile prendere la 9800gx2 (non so che scheda avevi tu prima però) e se uno ce l'ha se la doveva tenere e magari aspettare il prox refresh di gtx280: la gtx280 non è certo la sua sostituta

credo che si stava riferendo a quel 50% in+ di cui si parlava ...


p.s. ho accorciato un po il tuo post ... spero mi perdonerai x questo :D

:nonsifa: per questa volta và....:ciapet: :D ;)

halduemilauno
29-05-2008, 15:48
Partendo dal fatto che ti ho chiesto quale sia la tua ''BASE'' da cui hai ipotizzato quel 50% in più , te lo ripeto : quale sarebbe questa base ?

Pregiudizi ?

Malafede ?

Competenza ?

Ma a cosa ti stai riferendo ? Fattelo dire, con rispetto , pecchi troppo spesso di presunta superiorità morale sulla controparte , che tra l'altro nemmeno conosci ; qui la questione è semplice , se un prodotto è buono lo si evidenzia , se non è buono lo si fa notare ..dove starebbero i pregiudizi , la malafede e la competenza ? Mah :rolleyes:

quindi avevo capito bene mi stavi chiedendo perchè io sono arrivato facile facile a prevedere che la gtx280 sarebbe andata il doppio della 9800gtx?
se vuoi lo ripeto conoscenza(dei dati, delle caratteristiche), un minimo(faccio il modesto)di competenza(sugli gli stessi campi di prima) e ripeto zero pregiudizzi e zero malafede.
credini una ricetta perfetta che spessissimo ti fa arrivare alla giusta conclusione. e non solo in schede video parlo proprio della vita in generale.
tutto qui.
ora se vuoi torniamo in topic.

HackaB321
29-05-2008, 15:49
E' anche vero che in questo test la GX2 scala paurosamente bene (71%), lontano dalle prestazioni reali. Imho la GTX280 sarà circa il 40-50% più veloce di una GX2.

esatto. Anche se il Vantage rispecchia meglio le prestazioni nei giochi rispetto al 2006 un suo limite, rispetto a quello che si vede nella realtà, è che usa un motore di rendering molto ottimizzato per il dual-gpu (nei giochi non c'è nemmeno in media l'80% di differenza tra la 3870 e la 3870x2).
Un' analoga ottimizzazione si vede solo con il Source e con l'UT3 engine. D'altra parte è anche vero che il dual-gpu è, comunque la si veda, una tecnologia in espansione e quindi in futuro (anche prossimo) vedremo sempre più giochi ottimizzati per sfruttarla.

halduemilauno
29-05-2008, 15:52
dato che molto probabilmente la gtx280 verra posta a 600$ e la gtx260 sui 500 non vedo dove e come ci possa essere una tale differenza di prezzo quando le prestazioni del test che mi pare non del tutto attendibile mettono la gtx280 solo del 10-15% piu performante di gtx260...tutto qui poi se fara il 30% in piu capisco ma il 15% no...con flop intendo che gtx280 vendera molto poco se cosi stanno le cose

quanto venderà ovviamente aspettiamo il futuro prossimo. da prezzo e da fascia alla quale essa appartiene è ovvio che una scheda da + o - 600$ quanto vuoi che venda? ripeto il primo punto. ma da qui dire flop non solo ce ne corre ma è un termine completamente fuori luogo.
asppetiamo bench. aspettiamo i prezzi e aspettiamo la concorrenza. ed eventualmente aspettiamoci(qualora fosse necessario)anche un rilancio. nvidia non è esente da questo atteggiamento.

ale0bello0pr
29-05-2008, 15:59
Grafico ottenuto dai dati del bench in questione
(I colori chiari sono relativi alle schede in uscita, quelli scuri alle schede già sul mercato)

http://web.tiscali.it/maingutisite/Bench.GIF

non mi frega molto del vantage vintage o quello che è ma a me sembra molto FAKE:D

gutti
29-05-2008, 16:03
quanto venderà ovviamente aspettiamo il futuro prossimo. da prezzo e da fascia alla quale essa appartiene è ovvio che una scheda da + o - 600$ quanto vuoi che venda? ripeto il primo punto. ma da qui dire flop non solo ce ne corre ma è un termine completamente fuori luogo.
asppetiamo bench. aspettiamo i prezzi e aspettiamo la concorrenza. ed eventualmente aspettiamoci(qualora fosse necessario)anche un rilancio. nvidia non è esente da questo atteggiamento.

Quoto in peno quanto sottolineato... ma mi dissocio dal resto: è tutto giusto... ma il tono... quel "qualora fosse necessario"... non siamo mica a questi punti!

okorop
29-05-2008, 16:07
facendo qualche calcolo ecco come dovrebbe essere lo scenario delle vga sulla base del test postato 2 pagine fa con anche la 4870x2...nvidia perdera davvero il trono
http://img140.imageshack.us/img140/3162/bench2yo1.th.gif (http://img140.imageshack.us/my.php?image=bench2yo1.gif)

gutti
29-05-2008, 16:09
facendo qualche calcolo ecco come dovrebbe essere lo scenario delle vga sulla base del test postato 2 pagine fa con anche la 4870x2...nvidia perdera davvero il trono
http://img140.imageshack.us/img140/3162/bench2yo1.th.gif (http://img140.imageshack.us/my.php?image=bench2yo1.gif)

Hai osato! NOOOOOOooooooooooo!

Io non c'entro :ops:

halduemilauno
29-05-2008, 16:09
dato che molto probabilmente la gtx280 verra posta a 600$ e la gtx260 sui 500 non vedo dove e come ci possa essere una tale differenza di prezzo quando le prestazioni del test che mi pare non del tutto attendibile mettono la gtx280 solo del 10-15% piu performante di gtx260...tutto qui poi se fara il 30% in piu capisco ma il 15% no...con flop intendo che gtx280 vendera molto poco se cosi stanno le cose

perchè, scusami, ma tu non comprendi bene la fascia enthusiast. questi non comprano la scheda in base a calcoli particolari se uno pretende il massimo lo compra. tra le due gtx ci saranno anche meno differenza in $(e + differenza in prestazioni)che ci fu tra la 8800gtx e 8800ultra(quando usci quest'ultima sia chiaro). chiaro come esempio? il top non ha prezzo. costa 100$ in +? se lo voglio lo pago anche se vale solo il 15% in +.

okorop
29-05-2008, 16:12
Hai osato! NOOOOOOooooooooooo!

Io non c'entro :ops:

se halduemilauno fosse un moderatore sarei bannato a vita per il bench che ho postato:D

-noxius-
29-05-2008, 16:15
perchè, scusami, ma tu non comprendi bene la fascia enthusiast. questi non comprano la scheda in base a calcoli particolari se uno pretende il massimo lo compra. tra le due gtx ci saranno anche meno differenza in $(e + differenza in prestazioni)che ci fu tra la 8800gtx e 8800ultra(quando usci quest'ultima sia chiaro). chiaro come esempio? il top non ha prezzo. costa 100$ in +? se lo voglio lo pago anche se vale solo il 15% in +.

Purtroppo è vero, il fatto è che ormai con tutta questa potenza si vuole sempre di più e non ci basta mai ! :sofico: .. Poi la logica del rapporto prezzo prestazioni per le top di gamma non ha senso .

Fate come me ,vendetevi tutto e amen :Prrr: (qua l'ho sparata grossa, però è per sdrammatizzare ..)

halduemilauno
29-05-2008, 16:16
facendo qualche calcolo ecco come dovrebbe essere lo scenario delle vga sulla base del test postato 2 pagine fa con anche la 4870x2...nvidia perdera davvero il trono
http://img140.imageshack.us/img140/3162/bench2yo1.th.gif (http://img140.imageshack.us/my.php?image=bench2yo1.gif)

al 3d mark. tocca vedere nei giochi. anche la 2900xt era ben superiore alla 8800gtx. cmq ci può essere dove fallisce il solo doppio magari il quadruplo(960shader)...può riuscire.

@ndrey
29-05-2008, 16:17
Cmq da considerare ageia in vantage.. non integra niente fisicamente parlando all'interno della gpu, hanno solo tradotto tutto il software ageia in CUDA, che cmq tira fuori i risultati diversi in 3dmark..

I giochi è il vero campo di battaglia :O

halduemilauno
29-05-2008, 16:19
se halduemilauno fosse un moderatore sarei bannato a vita per il bench che ho postato:D

per carità per molto meno.
:asd:


ps prima che qualcuno equivochi anche questa è una battuta.

Mister Tarpone
29-05-2008, 16:20
I giochi è il vero campo di battaglia :O
:boxe: :boxe: :boxe:

e a questo giro crysis in very high 1920x1200 a 70fps di media non ce lo leva nessuno :sborone:

ATi7500
29-05-2008, 16:20
al 3d mark. tocca vedere nei giochi. anche la 2900xt era ben superiore alla 8800gtx. cmq ci può essere dove fallisce il solo doppio magari il quadruplo(960shader)...può riuscire.

e si fissa con sti shader come indicatore di prestazioni... :D
il numero di shader (stream processors, per essere esatti) e' l'unico elemento nell'architettura ATi corrente (e imminente) superiore rispetto a quella nVidia..quante volte te lo dobbiamo ricordare? :)

bYeZ!

appleroof
29-05-2008, 16:21
non mi frega molto del vantage vintage o quello che è ma a me sembra molto FAKE:D

:asd: :asd: :asd: :asd:

perchè, scusami, ma tu non comprendi bene la fascia enthusiast. questi non comprano la scheda in base a calcoli particolari se uno pretende il massimo lo compra. tra le due gtx ci saranno anche meno differenza in $(e + differenza in prestazioni)che ci fu tra la 8800gtx e 8800ultra(quando usci quest'ultima sia chiaro). chiaro come esempio? il top non ha prezzo. costa 100$ in +? se lo voglio lo pago anche se vale solo il 15% in +.

*

Cmq da considerare ageia in vantage.. non integra niente fisicamente parlando all'interno della gpu, hanno solo tradotto tutto il software ageia in CUDA, che cmq tira fuori i risultati diversi in 3dmark..

I giochi è il vero campo di battaglia :O

per ora non credo proprio

@ndrey
29-05-2008, 16:21
:boxe: :boxe: :boxe:

e a questo giro crysis in very high 1920x1200 a 70fps di media non ce lo leva nessuno :sborone:

Magari :D :ciapet:

halduemilauno
29-05-2008, 16:22
e si fissa con sti shader come indicatore di prestazioni... :D
il numero di shader (stream processors, per essere esatti) e' l'unico elemento nell'architettura ATi corrente (e imminente) superiore rispetto a quella nVidia..quante volte te lo dobbiamo ricordare? :)

bYeZ!

in quel contesto di frase/battuta era l'unico esempio che potessi fare. capito? esempio. battuta.

appleroof
29-05-2008, 16:27
in quel contesto di frase/battuta era l'unico esempio che potessi fare. capito? esempio. battuta.

:D :D

halduemilauno
29-05-2008, 16:31
:D :D

potevo mai dire/citare le 32/64 tmu? suonava male no?
;)

Tioz90
29-05-2008, 16:31
VAntage mi sembra il più fake di tutti i 3dmark

ale0bello0pr
29-05-2008, 16:32
VAntage mi sembra il più fake di tutti i 3dmark

ghigliottina! :mad:

okorop
29-05-2008, 16:32
VAntage mi sembra il più fake di tutti i 3dmark

ed è pure il piu brutto da vedere!!!!!! poi qualcuno potrebbe aver da ridire visto che c'è su la barca targata sapphire:)

appleroof
29-05-2008, 16:35
potevo mai dire/citare le 32/64 tmu? suonava male no?
;)

:asd: :asd:

VAntage mi sembra il più fake di tutti i 3dmark

invece io credo l'opposto: come tutti i 3dmark è solo indicativo (ovviamente) e non è oro colato, ma questo mi pare abbia un meccanismo di punteggio più esatto del 3d06...

ed è pure il piu brutto da vedere!!!!!! poi qualcuno potrebbe aver da ridire visto che c'è su la barca targata sapphire:)

anche qui dissento :D il secondo bench, quello nello spazio, mi è piaciuto davvero molto

Mister Tarpone
29-05-2008, 16:37
ed è pure il piu brutto da vedere!!!!!! poi qualcuno potrebbe aver da ridire visto che c'è su la barca targata sapphire:)

:Perfido:

:asd:

HackaB321
29-05-2008, 16:58
e si fissa con sti shader come indicatore di prestazioni... :D
il numero di shader (stream processors, per essere esatti) e' l'unico elemento nell'architettura ATi corrente (e imminente) superiore rispetto a quella nVidia..quante volte te lo dobbiamo ricordare? :)

bYeZ!

in realtà sono inferiori anche quelli: 64 vs 128
:ops2:

Mister Tarpone
29-05-2008, 17:03
in realtà sono inferiori anche quelli: 64 vs 128
:ops2:

AZZ... questa è dura eh... :ops2: :ops2:

elninus85
29-05-2008, 17:14
non mi frega molto del vantage vintage o quello che è ma a me sembra molto FAKE:D

quoto... Dai quei punteggi sono stati sparati a caso dal primo niubbo preso in mezzo alla strada :asd:

Mister Tarpone
29-05-2008, 17:21
quoto... Dai quei punteggi sono stati sparati a caso dal primo niubbo preso in mezzo alla strada :asd:

e allora quota me... visto che sono stato il primo a dubitare... :mad: :mad: :mad: !!!!!!




:sborone:

elninus85
29-05-2008, 17:38
e allora quota me... visto che sono stato il primo a dubitare... :mad: :mad: :mad: !!!!!!




:sborone:


eheh hai ragione scusa! :friend:
Infatti ho notato anche io il divario troppo marcato delle ati rispetto alle nvidia... Solo che il tuo post era indietro e non avevo voglia di tornare indietro per cercarlo :Prrr:

A.L.M.
29-05-2008, 17:39
quoto... Dai quei punteggi sono stati sparati a caso dal primo niubbo preso in mezzo alla strada :asd:

Mah, CJ ha detto che perlomeno i valori delle NVidia sono corretti, e da quello che ho capito sul forum in cui sono stati postati per la prima volta, pure quelli delle ATI più o meno potrebbero esserlo. ;)

Mister Tarpone
29-05-2008, 17:39
eheh hai ragione scusa! :friend:
Infatti ho notato anche io il divario troppo marcato delle ati rispetto alle nvidia... Solo che il tuo post era indietro e non avevo voglia di tornare indietro per cercarlo :Prrr:

vabbè.... per questa volta sei perdonato :ubriachi:




ciao...... ;) ;) ;) ;) ;) ;) ;)

appleroof
29-05-2008, 17:42
Mah, CJ ha detto che perlomeno i valori delle NVidia sono corretti, e da quello che ho capito sul forum in cui sono stati postati per la prima volta, pure quelli delle ATI più o meno potrebbero esserlo. ;)

e non è esattamente il "primo niubbo preso in mezzo alla strada" :D :asd: :asd:

Mister Tarpone
29-05-2008, 17:44
e non è esattamente il "primo niubbo preso in mezzo alla strada" :D :asd: :asd:

mahh.. io sono niubbo ed i test non mi tornano al 100%.

però scommetti che alla fine ho ragione io?? :asd:

DVD2005
29-05-2008, 17:45
mahh.. io sono niubbo ed i test non mi tornano al 100%.

però scommetti che alla fine ho ragione io?? :asd:

Tarpo rulez :cool:

Mister Tarpone
29-05-2008, 17:48
Tarpo rulez :cool:


:D


qualche volta c'ho azzeccato pure io :sborone:

e senza esser così "tecnico" come altri utenti...(:asd:) :sborone:





:sborone:

appleroof
29-05-2008, 17:49
mahh.. io sono niubbo ed i test non mi tornano al 100%.

però scommetti che alla fine ho ragione io?? :asd:

mitico, ti posteremo su beyond3d :cool: :D :D

Mister Tarpone
29-05-2008, 17:50
mitico, ti posteremo su beyond3d :cool: :D :D

:asd:

elninus85
29-05-2008, 17:50
Mah, CJ ha detto che perlomeno i valori delle NVidia sono corretti, e da quello che ho capito sul forum in cui sono stati postati per la prima volta, pure quelli delle ATI più o meno potrebbero esserlo. ;)

Sarà ma io sono molto scettico... Non credo finchè non vedrò risultati ufficiali! :O
E comunque il 3d mark rimane sempre un test del tutto inaffidabile per calcolare le prestazioni delle gpu! Rimango in attesa di vedere come si comportano nei giochi ;)




vabbè.... per questa volta sei perdonato :ubriachi:




ciao...... ;) ;) ;) ;) ;) ;) ;)




:ubriachi:

appleroof
29-05-2008, 17:51
:asd:

;)

Sarà ma io sono molto scettico... Non credo finchè non vedrò risultati ufficiali! :O
E comunque il 3d mark rimane sempre un test del tutto inaffidabile per calcolare le prestazioni delle gpu! Rimango in attesa di vedere come si comportano nei giochi ;)


:ubriachi:

bè non hai torto nè sull'aspettare prove ufficiali (e sopratutto quelle degli utenti), nè sul fatto che i giochi sono il vero campo diprova per le vga ;)

-noxius-
29-05-2008, 17:59
E comunque il 3d mark rimane sempre un test del tutto inaffidabile per calcolare le prestazioni delle gpu! Rimango in attesa di vedere come si comportano nei giochi ;)

Aridaje...eccone un'altro ...

Leggiti(leggetevi) questo e commenta/te , possibilmente lì così non si va OT .

http://www.hwupgrade.it/forum/showthread.php?t=1110519&page=77

A.L.M.
29-05-2008, 18:15
mahh.. io sono niubbo ed i test non mi tornano al 100%.

però scommetti che alla fine ho ragione io?? :asd:

:D


qualche volta c'ho azzeccato pure io :sborone:

e senza esser così "tecnico" come altri utenti...(:asd:) :sborone:





:sborone:

Non si tratta di fare commenti tecnici o meno (o di essere newbie). Si tratta di conoscere direttamente o indirettamente dati riservati (ed è il caso di CJ, PHK, Napoleon, e tanti altri che scrivono sui forum esteri) o dare pareri basati sul proprio understanding (che è quello che fanno il 99.9% degli utenti registrati su questo forum, me e te compresi). ;)

Mister Tarpone
29-05-2008, 18:19
Non si tratta di fare commenti tecnici o meno (o di essere newbie). Si tratta di conoscere direttamente o indirettamente dati riservati (ed è il caso di CJ, PHK, Napoleon, e tanti altri che scrivono sui forum esteri) o dare pareri basati sul proprio understanding (che è quello che fanno il 99.9% degli utenti registrati su questo forum, me e te compresi). ;)

ma io mi ricordo (molto tempo fa) che alcune di queste persone pronosticavano prestazioni super anche per R600... ma poi.. quando uscì, non fu così... ;)

quindi finchè ste schede non escono... non mi fido manco di loro..... ;)

halduemilauno
29-05-2008, 18:24
ma io mi ricordo (molto tempo fa) che alcune di queste persone pronosticavano prestazioni super anche per R600... ma poi.. quando uscì, non fu così... ;)

quindi finchè ste schede non escono... non mi fido manco di loro..... ;)

basta ricordarsi chi erano(io me li ricordo tutti)e comportarsi di conseguenza ovvero non dar loro la minima fiducia, il minimo credito. semplice.
;)

jok3r87
29-05-2008, 18:30
basta ricordarsi chi erano(io me li ricordo tutti)e comportarsi di conseguenza ovvero non dar loro la minima fiducia, il minimo credito. semplice.
;)

E chi erano i tizzi ?
La discussione su R600 l'ho seguita solo alla fine, e ricordo solo di un utente che diceva che la HD2900xt andava di più che l'aveva visto con i suoi occhi ecc.

halduemilauno
29-05-2008, 18:34
E chi erano i tizzi ?
La discussione su R600 l'ho seguita solo alla fine, e ricordo solo di un utente che diceva che la HD2900xt andava di più che l'aveva visto con i suoi occhi ecc.

si ma quello era uno. c'era proprio un drappello anzi un vero plotone di personaggi assidui frequentatori di questa sezione che raccontavano frottole su frottole. se vuoi te ne posso fare un'elenco ma in pvt. cmq sono evidentissimi.
ma qui parliamo di gtx260/280.
;)

A.L.M.
29-05-2008, 18:43
si ma quello era uno. c'era proprio un drappello anzi un vero plotone di personaggi assidui frequentatori di questa sezione che raccontavano frottole su frottole. se vuoi te ne posso fare un'elenco ma in pvt. cmq sono evidentissimi.
ma qui parliamo di gtx260/280.
;)

Sinceramente non me ne ricordo così tanti, su questo forum. :)
Forse confondi le opinioni personali (che come tali possono essere sbagliate) con le frottole, che sono ben altre (ossia fingere di avere chissà quali informazioni riservate e /o informatori). ;)

DriftKing
29-05-2008, 18:48
si ma quello era uno. c'era proprio un drappello anzi un vero plotone di personaggi assidui frequentatori di questa sezione che raccontavano frottole su frottole. se vuoi te ne posso fare un'elenco ma in pvt. cmq sono evidentissimi.
ma qui parliamo di gtx260/280.
;)

xche in pvt? capisco che nn vuoi sporcare questo 3d ... pero credo che se lo scrivi una sola volta nn succede nulla ... e poi credo che tutti vogliono sapere i nomi di quei utenti ...

appleroof
29-05-2008, 18:51
Non vi scannate dai. Chi ha curiosità basta che faccia un giro sui tread chiamati in causa o quelli che interessano di volta in volta, è tutto nero su bianco (in realtà azzurrino :D )

;)


p.s.: poco tempo fà un utente mi chiedeva perchè avevo causato il panico nel tread "apsettando r600" dicendo che ero andato in Tunisia e avevo assistito alla presentazione della vga :asd: :stordita: :doh: gli ho appunto indicato quel tread, dove si vede che non ero io il "terrorista" (parole sue :D) ;)

halduemilauno
29-05-2008, 18:55
Sinceramente non me ne ricordo così tanti, su questo forum. :)
Forse confondi le opinioni personali (che come tali possono essere sbagliate) con le frottole, che sono ben altre (ossia fingere di avere chissà quali informazioni riservate e /o informatori). ;)

ribadisco e poi concludo per ovvi motivi. sto parlando di un nutrito gruppo di ciarlatancialtroni da me (all'atto della presentazione della 2900xt) sbugiardati. tutti dal primo all'ultimo. e per quello ho ricevuto pubblicamente molti moltissimi atti di stima. moltissimi. e moltissimi si ricordano tutto questo.
quindi per favore non facciamo i finti tonti. basta andare indietro con la memoria e i post e/o sentire i testimoni.
ripeto qui si parla di gtx260/280. e parliamo di quelle che è meglio.

Mister Tarpone
29-05-2008, 18:57
ripeto qui si parla di gtx260/280. e parliamo di quelle che è meglio.

quoto.

non stiamo a fissarci su altre cose.. ;)

halduemilauno
29-05-2008, 18:59
xche in pvt? capisco che nn vuoi sporcare questo 3d ... pero credo che se lo scrivi una sola volta nn succede nulla ... e poi credo che tutti vogliono sapere i nomi di quei utenti ...

vuoi sapere? mandami un pvt in cui mi chiedi questo. qui si parla di gtx260/280.


Non vi scannate dai. Chi ha curiosità basta che faccia un giro sui tread chiamati in causa o quelli che interessano di volta in volta, è tutto nero su bianco (in realtà azzurrino :D )

;)


p.s.: poco tempo fà un utente mi chiedeva perchè avevo causato il panico nel tread "apsettando r600" dicendo che ero andato in Tunisia e avevo assistito alla presentazione della vga :asd: :stordita: :doh: gli ho appunto indicato quel tread, dove si vede che non ero io il "terrorista" (parole sue :D) ;)

quoto e cito appleroof.
;)

jok3r87
29-05-2008, 19:00
si ma quello era uno. c'era proprio un drappello anzi un vero plotone di personaggi assidui frequentatori di questa sezione che raccontavano frottole su frottole. se vuoi te ne posso fare un'elenco ma in pvt. cmq sono evidentissimi.
ma qui parliamo di gtx260/280.
;)

Ah ecco era riferito a questo forum, credevo ti riferissi alle fonti postate da A.L.M.

okorop
29-05-2008, 19:00
quoto.

non stiamo a fissarci su altre cose.. ;)

ci fossero delle notizie attendibili ma ancora nulla.....

ale0bello0pr
29-05-2008, 19:04
attenzione a menzionare i personaggi xkè va distinto ben qualcosa

Foglia Morta
29-05-2008, 19:06
già postato ?

http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes



THE LAST TIME Nvidia's CPU mouthed off about Intel, the firm followed it up with the stunning NV5800 'Dustbuster'. This time, he mouthed off, and the successor to the GT200 had already taped out. NV is in deep trouble once again.

You heard that right, the successor for the GT200 chip has already taped out, and it too will be nothing special. Documents seen by the INQ indicate that this one is called, wait for it, the GT200b, it is nothing more than a 55nm shrink of the GT200. Don't expect miracles, but do expect the name to change.

There are several problems with the GT200, most of which are near fatal. The first is the die size, 576mm^2, bigger than most Itanics. One might trust Intel to make a chip that big with decent yields, especially if it is basically an island of logic in the middle of a sea of cache. Nvidia using a foundry process doesn't have a chance of pulling this off.

Word has come out of Satan Clara that the yields are laughable. No, make that abysmal, they are 40 per cent. To add insult to injury, that 40 per cent includes both the 280 and the 260 yield salvage parts. With about 100 die candidates per wafer, that means 40 good dice per wafer. Doing the maths, a TSMC 300mm 65nm wafer runs about $5000, so that means each good die costs $125 before packaging, testing and the like. If they can get away with sub-$150 costs per GPU, we will be impressed.

So, these parts cost about $150, and the boards will sell for $449 and $649 for the 260 and 280 respectively, so there is enough play room there to make money, right? Actually, most likely yes. There are costs though, but not enough to kill profit for any one touching these.

The biggest cost is memory. The 512b memory width means that they will have to use at least 16 chips. This ends up making the board very complex when you have to route all those high speed signals, and that means more layers, more cost, and more defect fallout with the added steps. You also have to solder on eight more memory chips which costs yet more.

To add insult to injury, the TDPs of the 260 and 280 are 182W and 236W respectively. This means big copper heatsinks, possibly heatpipes, and high-end fans. Those parts cost a lot of money to buy, assemble and ship. Not fatal, but not a good situation either. It also precludes a dual GPU board without losing a lot of speed.

Basically, these boards are going to cost a lot of money to make, not just to buy. The $449 price is justified by the cost. The last round of GX2 boards cost OEMs about $425, meaning that NV charges OEMs about 70 per cent of retail for high-end parts. After packaging, shipping and add-ins, there is almost nothing left for the OEMs, quite possible explaining why one of their biggest one is teetering on the verge of bankruptcy, kept alive because NV won't call their debt while still shiping to them. Watch for this to melt down once NV loses the high end.

So, you end up with an expensive chip on an expensive board that makes few if any people money. Fair enough, bleeding-edge parts mean bleeding-edge prices. The problem is that ATI is going to make a chip that competes with GT200, and lines up with it point for point. NV wins big Z Fill, ATI crushes them on Shader Flops. What this translates to in the real world is still up in the air, but it looks like the 770 and the 260 will be about equal for most things.

The GT200 is about six months late, blew out their die size estimates and missed clock targets by a lot. ATI didn't. This means that buying a GT260 board will cost about 50 per cent more than an R770 for equivalent performance. The GT280 will be about 25 per cent faster but cost more than twice as much. A month or so after the 770 comes the 700, basically two 770s on a slab. This will crush the GT280 in just about every conceivable benchmark and likely cost less. Why? Because.

So, what is a company to do when it promised the financial world that ATI was lost, and GT200 would raise their margins by 100 basis points or so? Surely they knew what was coming a few weeks ago during their financial call, right? I mean, if word was leaking days later, the hierarchy surely was aware at the time, right?

The answer to that is to tape out the GT200b yesterday. It has taped out, and it is a little more than 400mm^2 on a TSMC 55nm process. Given that TSMC tends to price things so that on an equivalent area basis, the new process is marginally cheaper than the old, don't look for much cost saving there. Any decrease in defectivity due to smaller area is almost assuredly going to be balanced out by the learning curve on the new process. Being overly generous, it is still hard to see how the GT200b will cost less than $100 per chip. Don't look for much cost savings there.

The new shrink will be a much better chip though, mainly because they might fix the crippling clock rate problems of the older part. This is most likely not a speed path problem but a heat/power issue. If you get a better perf/watt number through better process tech, you can either keep performance the same and lower net power use, or keep power use the same and raise performance.

Given NV's woeful 933GFLOPS number, you can guess which way they are going to go. This means no saving on heatsinks, no savings on components, and a slightly cheaper die. For consumers, it will likely mean a $50 cheaper board, but no final prices have come my way yet. It will also mean a cheaper and faster board in a few months.

The GT200b will be out in late summer or early fall, instantly obsoleting the GT200. Anyone buying the 65nm version will end up with a lemon, a slow, hot and expensive lemon. Kind of like the 5800. It would suck for NV if word of this got out. Ooops, sorry.

What are they going to do? Emails seen by the INQ indicate they are going to play the usual PR games to take advantage of sites that don't bother checking up on the 'facts' fed to them. They plan to release the GT200 in absurdly limited quantities, and only four AIBs are going to initially get parts.

There is also serious talk of announcing a price drop to put them head to head with the R770 and giving that number to reviewers. When the boards come out, the reviews are already posted with the lower numbers, and no reviewer ever updates their pricing or points out that the price performance ratio was just blown out of the water. There is also internal debate about giving a few etailers a real price cut for a short time to 'back up' the 'MSRP'.

We would hope the reviewers are able to look at the numbers they were given on editors' day, $449 and $649, and take any $100+ last minute price drop with the appropriate chunk of NaCl. Just given the component cost, there is no way NV can hit the same price point as the 770 boards. "We lose money on each one, but we make it up in volume" is not a good long term strategy, nor is it a way to improve margins by 100 basis points.

In the end, NV is facing a tough summer in the GPU business. They are effectively out of the Montevina market, and they are going to lose the high end in a spectacular way. Nvidia has no effective countermeasure to the R770, the GT200 was quite simply botched, and now they are going to pay for it. When all you have is a hammer, everything looks like a 5800. µ

gervi
29-05-2008, 19:06
Allora, x ora ho molti dubbi, insomma non so se al prossimo giro, passerò all'azienda verde o alla rossa canadese :D

Però dagli Nvidiosi :D vorrei sapere questo.

Dato che da quando uso Vista ho avuto solo Vga Ati, voglio sapere,

in Ambiente windows Vista 64 , la qualità dei i driver delle Vga Nvidia , a partire dalla serie 8800 , com'è.

Ma ripeto , parlo solo della qualità driver solo su Vista 64!!

Io da quanto vedo in tutti i topic, noto che su Vista 64 , i driver Nvidia fanno pena rispetto a quelli Ati ( ripeto, stabilità ecc)

E' una mia impressione fondata o sbaglio????

Chiedo questo a tutti i possessori di Vga Nvidia dalla serie 8 in poi e che hanno vista 64 bit!!!

Grazie:confused:

Mister Tarpone
29-05-2008, 19:06
non saprei... io vista non lo uso manco per sogno :asd:

attenzione a menzionare i personaggi xkè va distinto ben qualcosa

infatti... :Perfido: ;)






( :sofico: )

appleroof
29-05-2008, 19:16
Allora, x ora ho molti dubbi, insomma non so se al prossimo giro, passerò all'azienda verde o alla rossa canadese :D

Però dagli Nvidiosi :D vorrei sapere questo.

Dato che da quando uso Vista ho avuto solo Vga Ati, voglio sapere,

in Ambiente windows Vista 64 , la qualità dei i driver delle Vga Nvidia , a partire dalla serie 8800 , com'è.

Ma ripeto , parlo solo della qualità driver solo su Vista 64!!

Io da quanto vedo in tutti i topic, noto che su Vista 64 , i driver Nvidia fanno pena rispetto a quelli Ati ( ripeto, stabilità ecc)

E' una mia impressione fondata o sbaglio????

Chiedo questo a tutti i possessori di Vga Nvidia dalla serie 8 in poi e che hanno vista 64 bit!!!

Grazie:confused:

ciao, io ti rispondo sinceramente, da quando ho Vista64 non ho mai avuto problemi particolari, e cmq sempre meno man mano che le release si avvicendavano fino ad oggi, che praticamente sono zero

l'unico problemino rimane con dreamscene: se avvii un'applicazione 3d (tipo anche 3dmark che ogni tanto torna al desktop, tra un bench e l'altro) c'è la possibilità che il sistema crashi, ma non con un bsod, semplicemente torna al desktop e si disabilita da solo dreamscene, finchè non lo rimetti. Il problema esiste (per quanto mi riguarda) da quando c'è vista e non so se è colpa di quest'ultimo o dei driver (non mi sono interessato molto al riguardo, sinceramente)

cmq con i giochi problemi zero, mai avuti, nè con driver beta nè whql ed il supporto è a dir poco eccezionale: ci sono periodi in cui escono nuovi driver quasi ad una settimana di distanza dall'altra :)


cut

infatti... :Perfido: ;)

( :sofico: )

:asd: :asd:

Andrea deluxe
29-05-2008, 19:17
Allora, x ora ho molti dubbi, insomma non so se al prossimo giro, passerò all'azienda verde o alla rossa canadese :D

Però dagli Nvidiosi :D vorrei sapere questo.

Dato che da quando uso Vista ho avuto solo Vga Ati, voglio sapere,

in Ambiente windows Vista 64 , la qualità dei i driver delle Vga Nvidia , a partire dalla serie 8800 , com'è.

Ma ripeto , parlo solo della qualità driver solo su Vista 64!!

Io da quanto vedo in tutti i topic, noto che su Vista 64 , i driver Nvidia fanno pena rispetto a quelli Ati ( ripeto, stabilità ecc)

E' una mia impressione fondata o sbaglio????

Chiedo questo a tutti i possessori di Vga Nvidia dalla serie 8 in poi e che hanno vista 64 bit!!!

Grazie:confused:
io non ho notato grosse differenze rispetto ai 32bit!

A.L.M.
29-05-2008, 19:20
ribadisco e poi concludo per ovvi motivi. sto parlando di un nutrito gruppo di ciarlatancialtroni da me (all'atto della presentazione della 2900xt) sbugiardati. tutti dal primo all'ultimo. e per quello ho ricevuto pubblicamente molti moltissimi atti di stima. moltissimi. e moltissimi si ricordano tutto questo.
quindi per favore non facciamo i finti tonti. basta andare indietro con la memoria e i post e/o sentire i testimoni.
ripeto qui si parla di gtx260/280. e parliamo di quelle che è meglio.

Vabbè, tanto l'ultima volta bastava dire che R600 sarebbe stata una ciofeca o quasi per avere ragione, incredibilmente (nella realtà si rivelò quasi peggio di quanto previsto dai più pessimisti). :asd: ;)
Questa volta potrebbe essere diverso, ed essere più difficile azzeccare verso quale parte di Santa Clara tirerà il vento. ;) :Perfido:
Chiuso OT anche per me. :)

nico88desmo
29-05-2008, 19:21
già postato ?

http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes

[cut]


Per il ritorno a scuola e contro R700 nVidia farà uscire la GT200 a 55nm?
Non è male, anche se mi sembra che i periodi siano troppo brevi tra GT200 e GT200b.

Foglia Morta
29-05-2008, 19:25
Per il ritorno a scuola e contro R700 nVidia farà uscire la GT200 a 55nm?
Non è male, anche se mi sembra che i periodi siano troppo brevi tra GT200 e GT200b.

articolo troppo catastrofista... nelle performance e nelle rese produttive del die .
Nel complesso poco credibile. Forse questa gpu (65nm ) era prevista effettivamente per qualche mese fa , ma sul resto porta "info" troppo esagerate.

appleroof
29-05-2008, 19:30
Per il ritorno a scuola e contro R700 nVidia farà uscire la GT200 a 55nm?
Non è male, anche se mi sembra che i periodi siano troppo brevi tra GT200 e GT200b.

vabbè, adesso magicamente the Inquirer diventa affidabile, inoltre quell'articolo sembra scritto dal padre dei fanboy Ati, o dal Ceo Amd (che forse è la stessa persona :asd: )

anche se devo dire contiene spunti interessanti.

Mister Tarpone
29-05-2008, 19:34
vabbè, adesso magicamente the Inquirer diventa affidabile, inoltre quell'articolo sembra scritto dal padre dei fanboy Ati, o dal Ceo Amd (che forse è la stessa persona :asd: )

anche se devo dire contiene spunti interessanti.

:asd: :D

Errik89
29-05-2008, 19:51
già postato ?

http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes



THE LAST TIME Nvidia's CPU mouthed off about Intel, the firm followed it up with the stunning NV5800 'Dustbuster'. This time, he mouthed off, and the successor to the GT200 had already taped out. NV is in deep trouble once again.

You heard that right, the successor for the GT200 chip has already taped out, and it too will be nothing special. Documents seen by the INQ indicate that this one is called, wait for it, the GT200b, it is nothing more than a 55nm shrink of the GT200. Don't expect miracles, but do expect the name to change.

There are several problems with the GT200, most of which are near fatal. The first is the die size, 576mm^2, bigger than most Itanics. One might trust Intel to make a chip that big with decent yields, especially if it is basically an island of logic in the middle of a sea of cache. Nvidia using a foundry process doesn't have a chance of pulling this off.

Word has come out of Satan Clara that the yields are laughable. No, make that abysmal, they are 40 per cent. To add insult to injury, that 40 per cent includes both the 280 and the 260 yield salvage parts. With about 100 die candidates per wafer, that means 40 good dice per wafer. Doing the maths, a TSMC 300mm 65nm wafer runs about $5000, so that means each good die costs $125 before packaging, testing and the like. If they can get away with sub-$150 costs per GPU, we will be impressed.

So, these parts cost about $150, and the boards will sell for $449 and $649 for the 260 and 280 respectively, so there is enough play room there to make money, right? Actually, most likely yes. There are costs though, but not enough to kill profit for any one touching these.

The biggest cost is memory. The 512b memory width means that they will have to use at least 16 chips. This ends up making the board very complex when you have to route all those high speed signals, and that means more layers, more cost, and more defect fallout with the added steps. You also have to solder on eight more memory chips which costs yet more.

To add insult to injury, the TDPs of the 260 and 280 are 182W and 236W respectively. This means big copper heatsinks, possibly heatpipes, and high-end fans. Those parts cost a lot of money to buy, assemble and ship. Not fatal, but not a good situation either. It also precludes a dual GPU board without losing a lot of speed.

Basically, these boards are going to cost a lot of money to make, not just to buy. The $449 price is justified by the cost. The last round of GX2 boards cost OEMs about $425, meaning that NV charges OEMs about 70 per cent of retail for high-end parts. After packaging, shipping and add-ins, there is almost nothing left for the OEMs, quite possible explaining why one of their biggest one is teetering on the verge of bankruptcy, kept alive because NV won't call their debt while still shiping to them. Watch for this to melt down once NV loses the high end.

So, you end up with an expensive chip on an expensive board that makes few if any people money. Fair enough, bleeding-edge parts mean bleeding-edge prices. The problem is that ATI is going to make a chip that competes with GT200, and lines up with it point for point. NV wins big Z Fill, ATI crushes them on Shader Flops. What this translates to in the real world is still up in the air, but it looks like the 770 and the 260 will be about equal for most things.

The GT200 is about six months late, blew out their die size estimates and missed clock targets by a lot. ATI didn't. This means that buying a GT260 board will cost about 50 per cent more than an R770 for equivalent performance. The GT280 will be about 25 per cent faster but cost more than twice as much. A month or so after the 770 comes the 700, basically two 770s on a slab. This will crush the GT280 in just about every conceivable benchmark and likely cost less. Why? Because.

So, what is a company to do when it promised the financial world that ATI was lost, and GT200 would raise their margins by 100 basis points or so? Surely they knew what was coming a few weeks ago during their financial call, right? I mean, if word was leaking days later, the hierarchy surely was aware at the time, right?

The answer to that is to tape out the GT200b yesterday. It has taped out, and it is a little more than 400mm^2 on a TSMC 55nm process. Given that TSMC tends to price things so that on an equivalent area basis, the new process is marginally cheaper than the old, don't look for much cost saving there. Any decrease in defectivity due to smaller area is almost assuredly going to be balanced out by the learning curve on the new process. Being overly generous, it is still hard to see how the GT200b will cost less than $100 per chip. Don't look for much cost savings there.

The new shrink will be a much better chip though, mainly because they might fix the crippling clock rate problems of the older part. This is most likely not a speed path problem but a heat/power issue. If you get a better perf/watt number through better process tech, you can either keep performance the same and lower net power use, or keep power use the same and raise performance.

Given NV's woeful 933GFLOPS number, you can guess which way they are going to go. This means no saving on heatsinks, no savings on components, and a slightly cheaper die. For consumers, it will likely mean a $50 cheaper board, but no final prices have come my way yet. It will also mean a cheaper and faster board in a few months.

The GT200b will be out in late summer or early fall, instantly obsoleting the GT200. Anyone buying the 65nm version will end up with a lemon, a slow, hot and expensive lemon. Kind of like the 5800. It would suck for NV if word of this got out. Ooops, sorry.

What are they going to do? Emails seen by the INQ indicate they are going to play the usual PR games to take advantage of sites that don't bother checking up on the 'facts' fed to them. They plan to release the GT200 in absurdly limited quantities, and only four AIBs are going to initially get parts.

There is also serious talk of announcing a price drop to put them head to head with the R770 and giving that number to reviewers. When the boards come out, the reviews are already posted with the lower numbers, and no reviewer ever updates their pricing or points out that the price performance ratio was just blown out of the water. There is also internal debate about giving a few etailers a real price cut for a short time to 'back up' the 'MSRP'.

We would hope the reviewers are able to look at the numbers they were given on editors' day, $449 and $649, and take any $100+ last minute price drop with the appropriate chunk of NaCl. Just given the component cost, there is no way NV can hit the same price point as the 770 boards. "We lose money on each one, but we make it up in volume" is not a good long term strategy, nor is it a way to improve margins by 100 basis points.

In the end, NV is facing a tough summer in the GPU business. They are effectively out of the Montevina market, and they are going to lose the high end in a spectacular way. Nvidia has no effective countermeasure to the R770, the GT200 was quite simply botched, and now they are going to pay for it. When all you have is a hammer, everything looks like a 5800. µ
tutte cose su cui anche noi avevamo già discusso anche sul 3d di RV770, non penso proprio che alla NVIDIA siano così scemi da non averci pensato, non sono mica come AMD eh! :D

no scherzo, comunque se RV770 si dimostrerà un'ottima GPU probabilmente NVIDIA avrà qualche problema, ma non penso così tragico come è scritto su the inquirer... più che altro vedremo tornare un po' di concorrenza e forse anche un "meritato" (moltro tra " " ) risanamento delle finanze di AMD/ATI...

paolox86
29-05-2008, 20:19
In effetti il chippone è di dimensioni disumane al limite del fantozziano, ma non credo che Nvidia abbia tutti quei problemi come dice l'articolo...

Crysis90
29-05-2008, 20:19
vabbè, adesso magicamente the Inquirer diventa affidabile, inoltre quell'articolo sembra scritto dal padre dei fanboy Ati, o dal Ceo Amd (che forse è la stessa persona :asd: )

anche se devo dire contiene spunti interessanti.

In effetti sembra troppo catastrofico pure a me, però qualcosa mi dice che questa volta NVidia potrebbe inciampare...non lo so ho un brutto presentimento...e parlo da fan sfegatato di NVidia...speriamo bene, che NVidia non si sia seduta troppo sugli allori...

Amph
29-05-2008, 20:22
La GTX280 verrà presentata a 600+$, che, al lancio, temo, si tradurranno in 600+€ (non dimentichiamoci del molto probabile aumento di prezzi dei chip da parte di TSMC, e quindi della conseguente ipotetica stagnazione dei prezzi).. Vedo, quindi, improbabile, per non dire impossibile, un calo di 200€ in soli due mesi; inoltre non è plausibile confrontare l'andamento dei prezzi di una scheda del tutto nuova (parlo di architettura) con un semplice "SLI inscatolato". Certo è, che molto dipenderà anche da ATI e dalla sua politica di mercato. In aggiunta tra un paio di mesi la 8800gts si sarà svalutata ulteriormente, e a meno di un pollo, venderla a 150€, usata e con tutti gli ACCELERO che vuoi, sembra inverosimile [personalmente non vedo la necessità di montare un dissipatore aftermarket sulla 8800gts dato che quello originale è già molto efficiente per bassi regimi della ventola].

Ovviamente, tutto ciò IMHO.

Sinceramente preferirei che tu avessi ragione. E' bello fantasticare di poter avere tutta quella potenza per la "modica" cifra di 400€ ;)

Ciao:)
:oink:

to ci metto 300 euro, tanto capirai 50 euro in + non mi creano problemi, invece per la questione del accelero sulla gts 512 , fidati che serve e come, quando vai di giochi pesanti la temperatura va sopra i 60 anche con ventola a 70% e questo ora che ci sono 25 gradi ambiente, figuriamoci quando si arrivera a 32°... ritornando al discorso prezzo credo che in due mesi, scenderà di sicuro sotto i 500(e non di poco), ne sono convinto.

Foglia Morta
29-05-2008, 20:24
Per il ritorno a scuola e contro R700 nVidia farà uscire la GT200 a 55nm?
Non è male, anche se mi sembra che i periodi siano troppo brevi tra GT200 e GT200b.

Ecco che però CJ dice che su qualche cosa quell'articolo potrebbe avere ragione... forse proprio ai 55nm , forse altro , ci vuole tempo e pazienza

leoneazzurro
29-05-2008, 20:26
articolo troppo catastrofista... nelle performance e nelle rese produttive del die .
Nel complesso poco credibile. Forse questa gpu (65nm ) era prevista effettivamente per qualche mese fa , ma sul resto porta "info" troppo esagerate.

Forse non sarà il 40% ma temo che la resa di un wafer di GT200 sia comunque lontana da un 80%, per dire.

Amph
29-05-2008, 20:28
Da possessore di gts512, un prezzo onesto, adesso, sarebbe di 100-120€ al massimo. Figurati tra due o più mesi....

lol..., il regolamento dice il 20% in meno rispetto al minor prezzo trovato ad esempio su trovaprezzi, quindi se ora la 8800gts512 sta sui 170 euro il 20% sono 136 euro, non certo 110, se poi tu vuoi venderla a quel prezzo affari tuoi, io a meno di 135 euro ora come ora non la venderei mai e con l'accelero siamo sui 155(contando anche il turbo module) fra due mesi sui 125...

Foglia Morta
29-05-2008, 20:31
Forse non sarà il 40% ma temo che la resa di un wafer di GT200 sia comunque lontana da un 80%, per dire.

Certo , ma con un die da 576mm2 questo è il primo problema da mettere in conto, non può essere un problema dell'ultimo minuto. Ci devono essere per forza notevoli ridonzanze per ovviare al problema

mircocatta
29-05-2008, 20:34
NON so l'inglese, ho 4, quindi qualcuno mi potrebbe spiegare di che problemi parla l'articolo? resa? di cosa?

appleroof
29-05-2008, 20:36
In effetti sembra troppo catastrofico pure a me, però qualcosa mi dice che questa volta NVidia potrebbe inciampare...non lo so ho un brutto presentimento...e parlo da fan sfegatato di NVidia...speriamo bene, che NVidia non si sia seduta troppo sugli allori...

cose del genere capitano spesso in questo settore (addirittura è capitato ad Intel in passato e ci ha messo un bel pò a riprendersi, con core2duo, mentre Amd faceva lo stesso percorso...) ma insomma questo non mi sembra assolutamente il caso, ancora...

dicevo che quell'articolo ha spunti interessanti, nonostante toni "esagerati", e in effetti la mia impressione (non solo mia veramente), che dico da tempo qui su questo stesso tread, è che gt200 a 55nm sia alle porte (pochi mesi, max fine anno): se così non fosse, se cioè il die-shrink non fosse a breve, allora si che comincerei a vederla più dura ma ripeto non credo succederà, imho

piuttosto uno scossone lo potrebbe (condionale ancora d'obbligo ovviamente) portare r700, del quale sono anche per questo curiosissimo

appleroof
29-05-2008, 20:40
NON so l'inglese, ho 4, quindi qualcuno mi potrebbe spiegare di che problemi parla l'articolo? resa? di cosa?

in sostanza dice che gt200 ha una resa molto bassa e questo incide sui costi in maniera eccessiva, questo ha già portato al tipe-out della versione gt200 a 55nm, che cmq secondo l'autore avrebbe una dimensione di 400mm^ e quindi cmq troppo grande per garantire lauti guadagni, e tutto questo mentre Ati sembra riprendersi con chip senza dubbio positivi

conclude associando la gtx280 ad una fx5800 ( :sbonk: )

-noxius-
29-05-2008, 20:42
vuoi sapere? mandami un pvt in cui mi chiedi questo

pvt con i nomi :)

:asd: :D

Evidentemente ancora gli brucia il fatto di non esser stati invitati alla presentazione ufficiale .

appleroof
29-05-2008, 20:44
pvt con i nomi :)

e finitela dai....il pvt potevi mandarglielo evitando questo post.

Foglia Morta
29-05-2008, 20:44
Forse non sarà il 40% ma temo che la resa di un wafer di GT200 sia comunque lontana da un 80%, per dire.

Among things.
( 55nm )

quindi c' è dell'altro. A rigor di logica il problema di rese è quello più plausibile

Mister Tarpone
29-05-2008, 20:44
conclude associando la gtx280 ad una fx5800 ( :sbonk: )
:sbonk:



questa poi.... che cavolata... :doh: :doh: :doh:

mircocatta
29-05-2008, 20:46
in sostanza dice che gt200 ha una resa molto bassa e questo incide sui costi in maniera eccessiva, questo ha già portato al tipe-out della versione gt200 a 55nm, che cmq secondo l'autore avrebbe una dimensione di 400mm^ e quindi cmq troppo grande per garantire lauti guadagni, e tutto questo mentre Ati sembra riprendersi con chip senza dubbio positivi

conclude associando la gtx280 ad una fx5800 ( :sbonk: )

cioè l'articolo dice che ci sono problemi di consumi e costi ma non di prestazioni giusto?

bè ci sarà tampo per i 55nm..o anche 45nm chissà :sofico:

quella della fx5800 è tutto un dire.. :asd:

che tra l'altro cosa aveva che non andava la fx5800 ultra??? non sfigurava qui contro la 9700 ati http://www.hardocp.com/article.html?art=NDIxLDIsLGhlbnRodXNpYXN0

appleroof
29-05-2008, 20:48
:sbonk:



questa poi.... che cavolata... :doh: :doh: :doh:

:D è, diciamo, leggermente di parte l'amico: non solo i toni generali, ma proprio questo riferimento al cavallo di battaglia dei fan Ati (la serie fx) mi ha tolto ogni dubbio sulla serietà delle sue affermazioni :)

cioè l'articolo dice che ci sono problemi di consumi e costi ma non di prestazioni giusto?

bè ci sarà tampo per i 55nm..o anche 45nm chissà :sofico:

quella della fx5800 è tutto un dire.. :asd:

si, in sostanza questo ;)

halduemilauno
29-05-2008, 20:49
in sostanza dice che gt200 ha una resa molto bassa e questo incide sui costi in maniera eccessiva, questo ha già portato al tipe-out della versione gt200 a 55nm, che cmq secondo l'autore avrebbe una dimensione di 400mm^ e quindi cmq troppo grande per garantire lauti guadagni, e tutto questo mentre Ati sembra riprendersi con chip senza dubbio positivi

conclude associando la gtx280 ad una fx5800 ( :sbonk: )

delira.
cmq è una riduzione del 35% anche aumentando le frequenze sicuramente rimarrebbe ampio margine per ridurre costi, consumi e calore.
;)

ps dal tape-out ai negozzi 100 giorni.

-noxius-
29-05-2008, 20:52
delira.
cmq è una riduzione del 35% anche aumentando le frequenze sicuramente rimarrebbe ampio margine per ridurre costi, consumi e calore.
;)

ps dal tape-out ai negozzi 100 giorni.

MMhhh ... sento puzza di 2900XT--> HD3870 , speriamo di no :ciapet:
Aggiornamenti per la 9800GT ? Ma quando dovrebbe uscire ?

jok3r87
29-05-2008, 21:00
cioè l'articolo dice che ci sono problemi di consumi e costi ma non di prestazioni giusto?

bè ci sarà tampo per i 55nm..o anche 45nm chissà :sofico:

quella della fx5800 è tutto un dire.. :asd:

che tra l'altro cosa aveva che non andava la fx5800 ultra??? non sfigurava qui contro la 9700 ati http://www.hardocp.com/article.html?art=NDIxLDIsLGhlbnRodXNpYXN0

:rotfl: diciamo che in quel test le schede nvidia si "perdevano" un pezzo...

Ma con i 55nm riuscirebbero a mantenere il bus a 512bit ?

halduemilauno
29-05-2008, 21:01
MMhhh ... sento puzza di 2900XT--> HD3870 , speriamo di no :ciapet:
Aggiornamenti per la 9800GT ? Ma quando dovrebbe uscire ?

vuoi paragonare la gtx280 a un naufragio e alla sua scialuppa? ricordiamo che la fonte ha paragonato la gtx280 alla 5800.
detto questo detto tutto.

Foglia Morta
29-05-2008, 21:01
Ma con i 55nm riuscirebbero a mantenere il bus a 512bit ?

si. R600 ha un die di 408mm2 . un GT200 a 55nm dovrebbe avere un die di 410mm2

appleroof
29-05-2008, 21:06
:rotfl: diciamo che in quel test le schede nvidia si "perdevano" un pezzo...

Ma con i 55nm riuscirebbero a mantenere il bus a 512bit ?

chissà che non approfittino del refresh per ridisegnare il pcb (che non l'abbiano già fatto?) per le gddr5....:)

Futura12
29-05-2008, 21:09
mi iscrivo:)

leoneazzurro
29-05-2008, 21:11
Among things.
( 55nm )

quindi c' è dell'altro. A rigor di logica il problema di rese è quello più plausibile

Ovviamente. Tutte le GPU hanno un certo grado di ridondanza, anzi in realtà le GPU più grandi ne hanno -percentualmente rispetto al die- di meno.
E un chip da 576 mm^2 è in partenza svantaggiato in questo ambito. Basta pensare che mediamente un wafer può avere statisticamente un certo numero di difetti, e che a parità di processo e con processo stabile questo numero di difetti medi è abbastanza costante. Ora, supponiamo che per un chip da 250 mm^2 ci siano circa 200 chip su un wafer da 300 mm, e che di un chip da 575 mm^2 ce ne siano 100 (in realtà la proporzione sarebbe circa 245 a 100) e che tra difetti reticolari, di mascheratura, di contaminazione, di diffusione, ecc. ecc. e tra chip non in specifica e difetti critici il chip da 250 mm^2 abbia una resa del 90% (che è una resa MOLTO ALTA per questo tipo di chip), quindi per ogni 100 chip se ne buttano 10, il che vuol dire che avremmo circa 20 fallimenti critici su un wafer. Sul 575 mm^2 il numero di fallimenti critici non si dimezza, al massimo potrà accadere che più difetti appaiono sullo stesso chip, diciamo quindi che invece che 20 chip difettosi ne abbiamo 15: la resa quindi si abbassa all'85%. Tenete presente che le rese per un chip da 250 mm^2 sono più vicine al 70% che al 90% e fate due calcoli...

jok3r87
29-05-2008, 21:14
chissà che non approfittino del refresh per ridisegnare il pcb (che non l'abbiano già fatto?) per le gddr5....:)

Se possono mantenere il bus perchè farlo ? Altrimenti oltre al pcb devono anche riprogettare il un bus a 256bit per GT200 e compatibile con le GDDR5 e svilupparci i driver :boh: sembra un cambio netto per un refresh... vedremo tanto la vga si acquista dopo l'estate :asd: c'è tempo :sofico:

Futura12
29-05-2008, 21:15
chissà che non approfittino del refresh per ridisegnare il pcb (che non l'abbiano già fatto?) per le gddr5....:)

Quoto;) ...a pensare al processo produttivo delle nostre G80 c'è da impazzire 484mm2.....:banned:
Unica cosa speravo che le GDDR5 fossero implementate da subito....chissa che spinta notevole nella banda passante:O

Mister Tarpone
29-05-2008, 21:19
Se possono mantenere il bus perchè farlo ? Altrimenti oltre al pcb devono anche riprogettare il bus a 256bit per GT200 e compatibile con le GDDR5 e svilupparci i driver :bho: sembra un cambio netto per un refresh... vedremo tanto la vga si acquista dopo l'estate :asd: c'è tempo :sofico:

ed anche le rops ecc ...a quel punto.... (:confused:) ;)

poi quoto.. se resta il bus a 512bit le ddr5 sono inutili...
bastano le ddr3 e la banda passante resta altissima uguale..

però con ddr5 + bus a 256bit si potrebbero avere altri vantaggi... tipo consumi minori ecc..

Futura12
29-05-2008, 21:21
ed anche le rops ecc ...a quel punto.... (:confused:) ;)

poi quoto.. se resta il bus a 512bit le ddr5 sono inutili...
bastano le ddr3 e la banda passante resta altissima uguale..

però con ddr5 + bus a 256bit si potrebbero avere altri vantaggi... tipo consumi minori ecc..

decisamente...secondo me un GT200 a 256 Bit e GDDR5 ipotizzo sui 3000Mhz...renderà da paura:sofico:

mircocatta
29-05-2008, 21:35
cmq per ora gddr3 più bus 512bit ha una banda passante maggiore rispetto a 256bit x gddr5...e costa forse meno..per ora

Marko#88
29-05-2008, 21:52
cmq per ora gddr3 più bus 512bit ha una banda passante maggiore rispetto a 256bit x gddr5...e costa forse meno..per ora

beh, dipende dalle freqeunze...:)

Mister Tarpone
29-05-2008, 21:52
decisamente...secondo me un GT200 a 256 Bit e GDDR5 ipotizzo sui 3000Mhz...renderà da paura:sofico:
:oink:

però sarò un noob io...

ma cmq a parità di banda passante vorrei capire quale delle 2 soluzioni sarebbe la + prestante... sullo stesso hw.
perchè a me mi fa l'idea che 512bit + ddr3 a prestazioni rendano meglio del 256bit + ddr5...

però... :boh: chissà..

halduemilauno
29-05-2008, 21:54
cmq per ora gddr3 più bus 512bit ha una banda passante maggiore rispetto a 256bit x gddr5...e costa forse meno..per ora

esatto. per eguagliare la gddr3 a 2200 con bus a 512 ci vorrebbe la gddr5 a 4400 con bus a 256.

;)

appleroof
29-05-2008, 21:56
Se possono mantenere il bus perchè farlo ? Altrimenti oltre al pcb devono anche riprogettare il un bus a 256bit per GT200 e compatibile con le GDDR5 e svilupparci i driver :boh: sembra un cambio netto per un refresh... vedremo tanto la vga si acquista dopo l'estate :asd: c'è tempo :sofico:

non vedo tanta difficoltà...con il crossbar pronto non devono riprogettare nulla , idem i driver

a parte che non dimentichiamo che non è che decidono oggi di ridisegnare una scheda in funzione delle gddr5 e domani è pronta, decisioni di questo tipo vengono prese con largo anticipo e chissà che non ci stiano già lavorando da settimane, anzi credo proprio che sia così, se hanno scommesso anche loro sulle gddr5 (e credo proprio che in ottica futura sarà così)


Quoto;) ...a pensare al processo produttivo delle nostre G80 c'è da impazzire 484mm2.....:banned:
Unica cosa speravo che le GDDR5 fossero implementate da subito....chissa che spinta notevole nella banda passante:O

questo invece mi pare una lezione da tenere ben presente a chi fà discorsi catastrofistici come il "ceo amd" che ha scritto quell'articolo su Inquirer...:)

ed anche le rops ecc ...a quel punto.... (:confused:) ;)

poi quoto.. se resta il bus a 512bit le ddr5 sono inutili...
bastano le ddr3 e la banda passante resta altissima uguale..

però con ddr5 + bus a 256bit si potrebbero avere altri vantaggi... tipo consumi minori ecc..

hai ragione: 512bit + gddr3 per ora danno più banda di 256bit+ gddr5 ma le frequenze delle ddr5 sono destinate a salire mentre quelle delle ddr3 sono al limite, inoltre su un chip tipo gt200, un bus a 256bit di tipo crossbar potrebbe ridurre ulteriormente il die-size ecc...

forse ci saranno 2 step: 55nm ed il resto uguale ad ora e poi 55nm (o addirittura meno?) e gddr5 con tutto quello che consegue, oppure nulla proprio (ma quest'ultima ripeto non credo)...chissà vedremo :)

Mister Tarpone
29-05-2008, 21:59
forse ci saranno 2 step: 55nm ed il resto uguale ad ora e poi 55nm (o addirittura meno?) e gddr5 con tutto quello che consegue, oppure nulla proprio (ma quest'ultima ripeto non credo)...chissà vedremo :)

infatti... :Perfido: ;)

magari poi esce una gtx 2x00 con mem. ddr6 @ 10.000mhz :sofico: :sofico: :sofico:

appleroof
29-05-2008, 22:05
infatti... :Perfido: ;)

magari poi esce una gtx 2x00 con mem. ddr6 @ 10.000mhz :sofico: :sofico: :sofico:

paraculo :read: :D :D :D :ciapet: :ciapet:

Foglia Morta
29-05-2008, 22:05
Ovviamente. Tutte le GPU hanno un certo grado di ridondanza, anzi in realtà le GPU più grandi ne hanno -percentualmente rispetto al die- di meno.
E un chip da 576 mm^2 è in partenza svantaggiato in questo ambito. Basta pensare che mediamente un wafer può avere statisticamente un certo numero di difetti, e che a parità di processo e con processo stabile questo numero di difetti medi è abbastanza costante. Ora, supponiamo che per un chip da 250 mm^2 ci siano circa 200 chip su un wafer da 300 mm, e che di un chip da 575 mm^2 ce ne siano 100 (in realtà la proporzione sarebbe circa 245 a 100) e che tra difetti reticolari, di mascheratura, di contaminazione, di diffusione, ecc. ecc. e tra chip non in specifica e difetti critici il chip da 250 mm^2 abbia una resa del 90% (che è una resa MOLTO ALTA per questo tipo di chip), quindi per ogni 100 chip se ne buttano 10, il che vuol dire che avremmo circa 20 fallimenti critici su un wafer. Sul 575 mm^2 il numero di fallimenti critici non si dimezza, al massimo potrà accadere che più difetti appaiono sullo stesso chip, diciamo quindi che invece che 20 chip difettosi ne abbiamo 15: la resa quindi si abbassa all'85%. Tenete presente che le rese per un chip da 250 mm^2 sono più vicine al 70% che al 90% e fate due calcoli...

Ecco che parlando di die spunta fuori quello di GT200 :D

http://img126.imageshack.us/img126/2564/gt200cjzo7.jpg

Come hanno già fatto notare si vedono distintamente i 10 cluster ( 24 sp ciascuno )

Edit: e 1.4 miliardi di transistors

Mister Tarpone
29-05-2008, 22:07
paraculo :read: :D :D :D :ciapet: :ciapet:

eh eh eh... :ops2:

appleroof
29-05-2008, 22:08
eh eh eh... :ops2:

:asd: :asd: :asd:

;)

-noxius-
29-05-2008, 22:10
vuoi paragonare la gtx280 a un naufragio e alla sua scialuppa? ricordiamo che la fonte ha paragonato la gtx280 alla 5800.
detto questo detto tutto.

Guarda, io non mi riferivo a quel tuo link , bensì al fattore consumo-prezzo-longevità ed ultimo, prestazioni . Spero di esser felicemente smentito ma ho un triste presentimento ..:(

leoneazzurro
29-05-2008, 22:12
Ecco che parlando di die spunta fuori quello di GT200 :D

http://img126.imageshack.us/img126/2564/gt200cjzo7.jpg

Come hanno già fatto notare si vedono distintamente i 10 cluster ( 24 sp ciascuno )

Edit: e 1.4 miliardi di transistors

E anche le ROPs.

Futura12
29-05-2008, 22:13
Ecco che parlando di die spunta fuori quello di GT200 :D

http://img126.imageshack.us/img126/2564/gt200cjzo7.jpg

Come hanno già fatto notare si vedono distintamente i 10 cluster ( 24 sp ciascuno )

Edit: e 1.4 miliardi di transistors

minchia devi essere un vero genio per creare un core del genere.....è cosi complesso...

Foglia Morta
29-05-2008, 22:14
E anche le ROPs.

quali sono ?

Mister Tarpone
29-05-2008, 22:15
minchia devi essere un vero genio per creare un core del genere.....è cosi complesso...

AZZ... :asd:

che poi io manco li vedo sti cluster :asd:

appleroof
29-05-2008, 22:16
Guarda, io non mi riferivo a quel tuo link , bensì al fattore consumo-prezzo-longevità ed ultimo, prestazioni . Spero di esser felicemente smentito ma ho un triste presentimento ..:(

c'è una "piccola" differenza che non tieni in conto nella tua analogia: dando per buona la teoria del die-shrink a breve, il problema come lo metti tu non si pone lato utente, questo avrà sempre una scheda da prestazioni uber, anche se in autunno uscirà il die-shrink a 55nm (presumibilmente votato più ad altri aspetti che non prestazioni assolute)

la 2900xt invece fà pietà, obiettivamente, e la 3870 non brilla, ma almeno a fronte di prestazioni dignitose (che cmq aveva pure la 2900xt) corregge quei difetti cui facevi riferimento e che hanno reso la 2900xt nel complesso appunto pietosa

non credo proprio sia la stessa situazione quindi....

appleroof
29-05-2008, 22:17
Ecco che parlando di die spunta fuori quello di GT200 :D

cut
Come hanno già fatto notare si vedono distintamente i 10 cluster ( 24 sp ciascuno )

Edit: e 1.4 miliardi di transistors

dimmi, li hai contati uno ad uno su quell'immagine? :asd: :asd: :asd: :asd:

Futura12
29-05-2008, 22:19
AZZ... :asd:

che poi io manco li vedo sti cluster :asd:

capito:asd:.....non so come si possa progettare una cosa simile...veramente rimango impressionato quando vedo i 'core' di GPU e CPU...

appleroof
29-05-2008, 22:20
capito:asd:.....non so come si possa progettare una cosa simile...veramente rimango impressionato quando vedo i 'core' di GPU e CPU...

in effetti.....

Foglia Morta
29-05-2008, 22:20
dimmi, li hai contati uno ad uno su quell'immagine? :asd: :asd: :asd: :asd:

complimenti per il tuo contributo al thread ;)

leoneazzurro
29-05-2008, 22:21
quali sono ?

i 32 blocchi uniformi disposti a croce tra i cluster.

appleroof
29-05-2008, 22:22
complimenti per il tuo contributo al thread ;)

sorridi dai, ogni tanto fà bene :) ;)

Foglia Morta
29-05-2008, 22:24
sorridi dai, ogni tanto fà bene :) ;)

veramente dicevo sul serio... è evidente il tuo contributo :)

leoneazzurro
29-05-2008, 22:24
dimmi, li hai contati uno ad uno su quell'immagine? :asd: :asd: :asd: :asd:

I cluster sono disposti agli angoli del chip, 2+2 nella parte superiore dell'immagine e 3+3 nella parte inferiore, con le ROPs disposte in mezzo "a croce". In ogni blocco si possono notare rispettivamente i 3 blocchi di SP e i due blocchi di TMU collegati a ciascun cluster

Errik89
29-05-2008, 22:26
in sostanza dice che gt200 ha una resa molto bassa e questo incide sui costi in maniera eccessiva, questo ha già portato al tipe-out della versione gt200 a 55nm, che cmq secondo l'autore avrebbe una dimensione di 400mm^ e quindi cmq troppo grande per garantire lauti guadagni, e tutto questo mentre Ati sembra riprendersi con chip senza dubbio positivi

conclude associando la gtx280 ad una fx5800 ( :sbonk: )
ci mancava solo che l'avessero paragonata a R600 e poi avevano finito in grande stile :D

Foglia Morta
29-05-2008, 22:26
i 32 blocchi uniformi disposti a croce tra i cluster.

ah ecco , però mi da l'impressione che tutti quei blocchi non siano di dimensioni identiche :confused:

-noxius-
29-05-2008, 22:27
c'è una "piccola" differenza che non tieni in conto nella tua analogia: dando per buona la teoria del die-shrink a breve, il problema come lo metti tu non si pone lato utente, questo avrà sempre una scheda da prestazioni uber, anche se in autunno uscirà il die-shrink a 55nm (presumibilmente votato più ad altri aspetti che non prestazioni assolute)

la 2900xt invece fà pietà, obiettivamente, e la 3870 non brilla, ma almeno a fronte di prestazioni dignitose (che cmq aveva pure la 2900xt) corregge quei difetti cui facevi riferimento e che hanno reso la 2900xt nel complesso appunto pietosa

non credo proprio sia la stessa situazione quindi....

Guarda, intendevo dire che se fosse rilasciato questo die shrink entro novembre-dicembre alla fine una somiglianza ci sarebbe, ovvero prestazioni livellate o leggermente superiori ma minori consumi,minori temp, ottimizzazione pcb e rumorosità, maggiori rese produttive, ottimizzazione core e magari introduzione di qualche nuova feature ; non stò assolutamente dicendo che QUESTO futuro ED IPOTETICO die shrink possa essere una cosa negativa (mi sembra alquanto evidente che sarebbe un paradosso se affermassi tale fatto) , solo facendo una similitudine tra le due situazioni . Poi è ovvio, alcune cose sono da verificare, però sarebbe curioso se nVIDIA ricadesse nella stessa trappola del ''mega-chippone'' con ''mega-architettura'' e''potenziali performance strabilianti'' ; ben vengano le ottimizzazioni però se fosse vera la news di the inquirer in merito al GT200b questo GT200 sarà tanto longevo quanto ,appunto , la 2900XT e qui, detto chiaro e tondo, non credo che si possa obbiettare molto ;) (Ovviamente, SE .. ;) )

la 2900xt invece fà pietà, obiettivamente, e la 3870 non brilla, ma almeno a fronte di prestazioni dignitose (che cmq aveva pure la 2900xt) corregge quei difetti cui facevi riferimento e che hanno reso la 2900xt nel complesso appunto pietosa

Prestazionalmente sono quasi identiche , ti rendi conto che se fosse vero questo GT200b sarebbe uguale ? Forse conquisterebbe il trono di vga più potente ma per quanto ? Se , e ripeto SE, quelle fossero le prestazioni della 770XT , un CF andrebbe più della 280 a causa della scalabilità SICURAMENTE superiore al 50% . Trovo interessanti le considerazioni in merito al rapporto tra costo di produzione,profitti per unità ed efficienza del prodotto (media dei consumi per W e tutto il resto) . Già le 3870 sono state interessanti per via del fatto che ATI tutto sommato ha sfornato un buon progetto di fascia media, con dei buoni margini di guadagno iniziali che hanno creato qualche problema ad nVIDIA, causando un ribasso dei margini di guadagno e dell'utile netto , compensato in parte dai volumi (no?) .

Se fosse ancora meglio per le nuove arrivate da parte di ATI, non avrò conquistato il trono (anche se non si conoscono le performance della X2, mentre per le 280 è uscito qualcosa) ma almeno ci guadagno di più e non ho troppi problemi per la produzione e per eventuali ribassi di prezzo e di un riposizionamento sul mercato ;) .

appleroof
29-05-2008, 22:29
veramente dicevo sul serio... è evidente il tuo contributo :)

per quello ti consigliavo di sorridere, vedo che però non mi segui (a si, hai messo la faccina)

I cluster sono disposti agli angoli del chip, 2+2 nella parte superiore dell'immagine e 3+3 nella parte inferiore, con le ROPs disposte in mezzo "a croce". In ogni blocco si possono notare rispettivamente i 3 blocchi di SP e i due blocchi di TMU collegati a ciascun cluster

si era una semplice e banale battuta nei confronti di quell'utente che diceva "si vedono chiaramente....1,4 miliardi di transistor" tutto qui :stordita:

Foglia Morta
29-05-2008, 22:32
per quello ti consigliavo di sorridere, vedo che però non mi segui (a si, hai messo la faccina)


tardi ma ci sei arrivato

:D

Errik89
29-05-2008, 22:32
Guarda, intendevo dire che se fosse rilasciato questo die shrink entro novembre-dicembre alla fine una somiglianza ci sarebbe, ovvero prestazioni livellate o leggermente superiori ma minori consumi,minori temp, ottimizzazione pcb e rumorosità, maggiori rese produttive, ottimizzazione core e magari introduzione di qualche nuova feature ; non stò assolutamente dicendo che QUESTO futuro ED IPOTETICO die shrink possa essere una cosa negativa (mi sembra alquanto evidente che sarebbe un paradosso se affermassi tale fatto) , solo facendo una similitudine tra le due situazioni . Poi è ovvio, alcune cose sono da verificare, però sarebbe curioso se nVIDIA ricadesse nella stessa trappola del ''mega-chippone'' con ''mega-architettura'' e''potenziali performance strabilianti'' ; ben vengano le ottimizzazioni però se fosse vera la news di the inquirer in merito al GT200b questo GT200 sarà tanto longevo quanto ,appunto , la 2900XT e qui, detto chiaro e tondo, non credo che si possa obbiettare molto ;) (Ovviamente, SE .. ;) )
:D lo sapevo che qualcuno dopo quell'articolo se ne sarebbe uscito a fare paragoni con R600.
GT200 non sarà come R600 per 2 semplici motivi:
- R600 non aveva il primato di prestazioni (e GT200 è scontato che l'avrà)
- R600 era una nuova architettura con tutte le incognite ad essa legate mentre GT200 è un raddoppiamento della scorsa architettura (G80 o GT100 - fa più figo chiamarla così - :D ) per questo R600 aveva un'architettura evidentemente sbilanciata per i giochi attuali mentre GT200 l'avrà bilanciatissima per i giochi attuali

Poi sul fatto che la strategia di ATI sia più vincente di quella di NVIDIA lo penso anche io e lo penso tutt'ora, ma paragonare GT200 a R600 o peggio a NV30 mi sembra MOLTO eccessivo.
GT200 è un chip che avrà il suo successo comunque e che sarà il chip singolo più potente almeno per un anno (considerando anche lo shrink a 55nm). :)

leoneazzurro
29-05-2008, 22:32
ah ecco , però mi da l'impressione che tutti quei blocchi non siano di dimensioni identiche :confused:

Penso ci sia anche della logica di controllo.

appleroof
29-05-2008, 22:34
Guarda, intendevo dire che se fosse rilasciato questo die shrink entro novembre-dicembre alla fine una somiglianza ci sarebbe, ovvero prestazioni livellate o leggermente superiori ma minori consumi,minori temp, ottimizzazione pcb e rumorosità, maggiori rese produttive, ottimizzazione core e magari introduzione di qualche nuova feature ; non stò assolutamente dicendo che QUESTO futuro ED IPOTETICO die shrink possa essere una cosa negativa (mi sembra alquanto evidente che sarebbe un paradosso se affermassi tale fatto) , solo facendo una similitudine tra le due situazioni . Poi è ovvio, alcune cose sono da verificare, però sarebbe curioso se nVIDIA ricadesse nella stessa trappola del ''mega-chippone'' con ''mega-architettura'' e''potenziali performance strabilianti'' ; ben vengano le ottimizzazioni però se fosse vera la news di the inquirer in merito al GT200b questo GT200 sarà tanto longevo quanto ,appunto , la 2900XT e qui, detto chiaro e tondo, non credo che si possa obbiettare molto ;) (Ovviamente, SE .. ;) )

si, messa così l'analogia c'è ed evidentemente non avevo colto appieno prima

quello però che cambia rispetto a 2900xt/3870, e che volevo significare, è che chi compra adesso gtx280 prende cmq una schedona che gli garantirà prestazioni uber chissà per quanto, cosa che la 2900xt non offriva nemmeno al lancio (parlo come se avessimo già visto gtx280 all'opera, ma insomma tutto propende per questa conclusione...)

A.L.M.
29-05-2008, 22:35
Tradotto dall'olandese con Babelfish... :sofico:

Altri 2 post di CJ su GTX280. :)

GTX 280 are 1.8x as rapidly as HD3870X2 in Crysis on 25x16.

Considerando che la HD3870x2 in High DX9 fa 15fps a quella risoluzione (rece HWU), la GTX280 ne farebbe 27.
In Very High DX10 meglio stendere un velo pietoso su entrambe, mi sa. :stordita:

Plc has problems with GT200 on 65nm. Those want put GT200b as soon as possible on the market. GT200 is expensive. And many AIBs really do not sit bite on this chip…. RV770 on the other hand…

Fonte, il forum olandese di cui CJ è moderatore: http://gathering.tweakers.net/forum/list_messages/1294247/6

appleroof
29-05-2008, 22:35
tardi ma ci sei arrivato

:D

anche tu mi sà che ci sei arrivato tardi alla mia battuta

vabbè dai chiusa qui ;)

-noxius-
29-05-2008, 22:37
Guarda, intendevo dire che se fosse rilasciato questo die shrink entro novembre-dicembre alla fine una somiglianza ci sarebbe, ovvero prestazioni livellate o leggermente superiori ma minori consumi,minori temp, ottimizzazione pcb e rumorosità, maggiori rese produttive, ottimizzazione core e magari introduzione di qualche nuova feature ; non stò assolutamente dicendo che QUESTO futuro ED IPOTETICO die shrink possa essere una cosa negativa (mi sembra alquanto evidente che sarebbe un paradosso se affermassi tale fatto) , solo facendo una similitudine tra le due situazioni . Poi è ovvio, alcune cose sono da verificare, però sarebbe curioso se nVIDIA ricadesse nella stessa trappola del ''mega-chippone'' con ''mega-architettura'' e''potenziali performance strabilianti'' ; ben vengano le ottimizzazioni però se fosse vera la news di the inquirer in merito al GT200b questo GT200 sarà tanto longevo quanto ,appunto , la 2900XT e qui, detto chiaro e tondo, non credo che si possa obbiettare molto ;) (Ovviamente, SE .. ;) )



Prestazionalmente sono quasi identiche , ti rendi conto che se fosse vero questo GT200b sarebbe uguale ? Forse conquisterebbe il trono di vga più potente ma per quanto ? Se , e ripeto SE, quelle fossero le prestazioni della 770XT , un CF andrebbe più della 280 a causa della scalabilità SICURAMENTE superiore al 50% . Trovo interessanti le considerazioni in merito al rapporto tra costo di produzione,profitti per unità ed efficienza del prodotto (media dei consumi per W e tutto il resto) . Già le 3870 sono state interessanti per via del fatto che ATI tutto sommato ha sfornato un buon progetto di fascia media, con dei buoni margini di guadagno iniziali che hanno creato qualche problema ad nVIDIA, causando un ribasso dei margini di guadagno e dell'utile netto , compensato in parte dai volumi (no?) .

Se fosse ancora meglio per le nuove arrivate da parte di ATI, non avrò conquistato il trono (anche se non si conoscono le performance della X2, mentre per le 280 è uscito qualcosa) ma almeno ci guadagno di più e non ho troppi problemi per la produzione e per eventuali ribassi di prezzo e di un riposizionamento sul mercato ;) .

Scusatemi, ho appena terminato di scrivere il messaggio con l'edit, ora si capisce tutto meglio ed è completo .

Errik89
29-05-2008, 22:38
si, messa così l'analogia c'è ed evidentemente non avevo colto appieno prima

quello però che cambia rispetto a 2900xt/3870, e che volevo significare, è che chi compra adesso gtx280 prende cmq una schedona che gli garantirà prestazioni uber chissà per quanto, cosa che la 2900xt non offriva nemmeno al lancio (parlo come se avessimo già visto gtx280 all'opera, ma insomma tutto propende per questa conclusione...)
quoto è quello che ho detto anche io e proprio per il fatto che GT200 avrà il primato di prestazioni come singolo chip almeno per un anno mentre R600 non l'ha mai avuto che GT200 non si può paragonare a R600.

Foglia Morta
29-05-2008, 22:39
Penso ci sia anche della logica di controllo.

per curiosità ma le tmu sono quei blocchi interi ( 10 ) immediatamente adiacenti agli stream processors o quei blocchi sdoppiati ( quindi 10 x 2 ) ancora dopo ?

Chiedo perchè quei blocchi sdoppiati sono di dimensioni diverse , quindi se sono quelli sembra proprio che TAU e TFU siano in numero diverso ( se per ipotesi fossero di dimensioni simili )

Edit: aggiungo per cercare di chiarire

a giudicare dallo schema

http://www.ixbt.com/video3/images/g92-3/diag_g92.png

a me pare che la disposizione della cache e delle tmu è invertita... quindi magari ho confuso prima . E i 2 blocchi corrispondono 1 alla cache di 1° livello e l'altro alla cahce di 2° livello

oppure cos'altro ?

appleroof
29-05-2008, 22:39
cut


Considerando che la HD3870x2 in High DX9 fa 15fps a quella risoluzione (rece HWU), la GTX280 ne farebbe 27.
In Very High DX10 meglio stendere un velo pietoso su entrambe, mi sa. :stordita:

cut

sulla 3870x2 si sà, ma vorrò vedere gtx280 a 1920x1200 o ancora meno, prima di stendere facili veli a 2560 x 1600 :D

Mister Tarpone
29-05-2008, 22:40
Scusatemi, ho appena terminato di scrivere il messaggio con l'edit, ora si capisce tutto meglio ed è completo .

complimenti praticamente hai scritto un libro.. :sofico:

Mister Tarpone
29-05-2008, 22:41
sulla 3870x2 si sà, ma vorrò vedere gtx280 a 1920x1200 o ancora meno, prima di stendere facili veli a 2560 x 1600 :D

già... ;)

Errik89
29-05-2008, 22:42
Guarda, intendevo dire che se fosse rilasciato questo die shrink entro novembre-dicembre alla fine una somiglianza ci sarebbe, ovvero prestazioni livellate o leggermente superiori ma minori consumi,minori temp, ottimizzazione pcb e rumorosità, maggiori rese produttive, ottimizzazione core e magari introduzione di qualche nuova feature ; non stò assolutamente dicendo che QUESTO futuro ED IPOTETICO die shrink possa essere una cosa negativa (mi sembra alquanto evidente che sarebbe un paradosso se affermassi tale fatto) , solo facendo una similitudine tra le due situazioni . Poi è ovvio, alcune cose sono da verificare, però sarebbe curioso se nVIDIA ricadesse nella stessa trappola del ''mega-chippone'' con ''mega-architettura'' e''potenziali performance strabilianti'' ; ben vengano le ottimizzazioni però se fosse vera la news di the inquirer in merito al GT200b questo GT200 sarà tanto longevo quanto ,appunto , la 2900XT e qui, detto chiaro e tondo, non credo che si possa obbiettare molto ;) (Ovviamente, SE .. ;) )



Prestazionalmente sono quasi identiche , ti rendi conto che se fosse vero questo GT200b sarebbe uguale ? Forse conquisterebbe il trono di vga più potente ma per quanto ? Se , e ripeto SE, quelle fossero le prestazioni della 770XT , un CF andrebbe più della 280 a causa della scalabilità SICURAMENTE superiore al 50% . Trovo interessanti le considerazioni in merito al rapporto tra costo di produzione,profitti per unità ed efficienza del prodotto (media dei consumi per W e tutto il resto) . Già le 3870 sono state interessanti per via del fatto che ATI tutto sommato ha sfornato un buon progetto di fascia media, con dei buoni margini di guadagno iniziali che hanno creato qualche problema ad nVIDIA, causando un ribasso dei margini di guadagno e dell'utile netto , compensato in parte dai volumi (no?) .

Se fosse ancora meglio per le nuove arrivate da parte di ATI, non avrò conquistato il trono (anche se non si conoscono le performance della X2, mentre per le 280 è uscito qualcosa) ma almeno ci guadagno di più e non ho troppi problemi per la produzione e per eventuali ribassi di prezzo e di un riposizionamento sul mercato ;) .
detta così è molto meglio e ti quoto! ;)

appleroof
29-05-2008, 22:42
quoto è quello che ho detto anche io e proprio per il fatto che GT200 avrà il primato di prestazioni come singolo chip almeno per un anno mentre R600 non l'ha mai avuto che GT200 non si può paragonare a R600.

si hai postato mentre scrivevo, chiaramente d'accordissimo con quello che sostieni ;)

-noxius-
29-05-2008, 22:45
complimenti praticamente hai scritto un libro.. :sofico:

L'ho rifatto una seconda volta con il secondo commento :p


RIEDITATO IL PRECEDENTE E MESSO QUI :

- R600 non aveva il primato di prestazioni (e GT200 è scontato che l'avrà)

--> Dove lo hai letto ? Se costasse pari ad un CF di 4870 con queste ultime che andranno di più dove stà il primato , nel prezzo per singola VGA ? E' scontato che è tutto da dimostrare ma se questo è l'andazzo ...

per questo R600 aveva un'architettura evidentemente sbilanciata per i giochi attuali mentre GT200 l'avrà bilanciatissima per i giochi attuali

Se dobbiamo parlare di longevità, ma me ne guarderei bene per entrambe, non ti scordare le dx10.1 ...Certo però che dovrebbero sviluppare giochi degni di tal nome di pari passo a vga mostruose ; di belva nera qui ne ho vista solo una, speriamo bene :sofico: (almeno così troverò un' utilità, o forse 2, per tutta questa potenza :ciapet: )

GT200 è un chip che avrà il suo successo comunque e che sarà il chip singolo più potente almeno per un anno (considerando anche lo shrink a 55nm).

E 2... 4870X2 ? Hai già visto i bench ?

quello però che cambia rispetto a 2900xt/3870, e che volevo significare, è che chi compra adesso gtx280 prende cmq una schedona che gli garantirà prestazioni uber chissà per quanto, cosa che la 2900xt non offriva nemmeno al lancio (parlo come se avessimo già visto gtx280 all'opera, ma insomma tutto propende per questa conclusione...)

Non ti scordare però del fatto che la 2900XT non era in competizione con le GTX-ULTRA bensì con le GTS 640 che superava leggermente , ma costava anche poco di più

A.L.M.
29-05-2008, 22:48
sulla 3870x2 si sà, ma vorrò vedere gtx280 a 1920x1200 o ancora meno, prima di stendere facili veli a 2560 x 1600 :D

Ma non è cpu limited a 1920x1200 AA4x? http://img356.imageshack.us/img356/6325/bumgzy9.gif

Errik89
29-05-2008, 22:48
Scusatemi, ho appena terminato di scrivere il messaggio con l'edit, ora si capisce tutto meglio ed è completo .




--> Dove lo hai letto ? Se costasse pari ad un CF di 4870 con queste ultime che andranno di più dove stà il primato , nel prezzo per singola VGA ? E' scontato che è tutto da dimostrare ma se questo è l'andazzo ...



Se dobbiamo parlare di longevità, ma me ne guarderei bene per entrambe, non ti scordare le dx10.1 ...Certo però che dovrebbero sviluppare giochi degni di tal nome di pari passo a vga mostruose ; di belva nera qui ne ho vista solo una, speriamo bene :sofico: (almeno così troverò un' utilità, o forse 2, per tutta questa potenza :ciapet: )



E 2... 4870X2 ? Hai già visto i bench ?



Non ti scordare però del fatto che la 2900XT non era in competizione con le GTX-ULTRA bensì con le GTS 640 che superava leggermente , ma costava anche poco di più
alt alt... io parlo di singola GPU con il primato di prestazioni, non di X2! È ovvio che se ATI con R700 (4870X2) avrà il primato di prestazioni davvero allora la strada intrapresa da ATI si rivela davvero la più vincente, come io credo che sia. Però sta di fatto che probabilmente con GT200b anche NVIDIA potrà fare un X2 se le rese fossero buone e quindi saremmo ancora al punto di partenza... :)

per il discorso longevità ti quoto, ma io non l'ho "tirato in ballo" nel mio discorso e poi bisogna vedere se sti giochi dx10.1 o se c'è la censura by NVIDIA dietro a quelle DX.
Trovo abbastanza vergognoso cmq che GT200 non abbia il supporto DX10.1, per quanto inutile possa essere...

P.s.: mi sono messo anche io ad aggiungere pezzi di commenti :)

Errik89
29-05-2008, 22:49
L'ho rifatto una seconda volta con il secondo commento :p
:rotfl: tra un po' scrivi 2 libri... ;)

-noxius-
29-05-2008, 22:52
alt alt... io parlo di singola GPU con il primato di prestazioni, non di X2! È ovvio che se ATI con R700 (4870X2) avrà il primato di prestazioni davvero allora la strada intrapresa da ATI si rivela davvero la più vincente, come io credo che sia. Però sta di fatto che probabilmente con GT200b anche NVIDIA potrà fare un X2 se le rese fossero buone e quindi saremmo ancora al punto di partenza... :)

Vedi, io alla fine credo che dipenda esclusivamente dal prezzo ... Per esempio potremmo dire: '' Va bene ma non ha senso paragonare un single chip contro un dual , se mettessimo in SLI 2 280 allora nVIDIA si riprenderebbe il primato prestazionale'' .. Peccato che se una X2 costasse 500$ ed una singola 280 600 , uno SLI di 280 verrebbe 1000 dollari ;) ; si potrebbero mettere s 260 in SLI , però quanto ci costerebbero rapportate al reale incremento prestazionale ? E' ovvio che una persona che segue l'high tech ed ha soldi da investire (non buttare, uno con i soldi ci fa tutto quello che gli pare ; personalmente non vado a puttane, non fumo, non mi drogo, non gioco nè al lotto nè al totocalcio, non vado allo stadio, non seguo scientology , quindi ... ;) )

Secondo me il prezzo di riferimento è fondamentale , ne abbiamo già discusso con le 3870 vs 9600gt , mentre prima gareggiava con le 8800GT .


http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_asus_radeon_hd_3850_x2/17/#abschnitt_crysis

UNA GTX280 CHE FA 40 FPS A CRYSIS 1280x1024 1xAA/1xAF very high ?

appleroof
29-05-2008, 22:52
Ma non è cpu limited a 1920x1200 AA4x? http://img356.imageshack.us/img356/6325/bumgzy9.gif

bella la gif, la tenevi per l'occasione?

cmq non sono io che affermo quello, anche se ovviamente è un'opinione affascinante (lo sarebbe anche se si riferisse ad una vga Ati ;) )

Foglia Morta
29-05-2008, 22:57
Tradotto dall'olandese con Babelfish... :sofico:

Altri 2 post di CJ su GTX280. :)

Considerando che la HD3870x2 in High DX9 fa 15fps a quella risoluzione (rece HWU), la GTX280 ne farebbe 27.
In Very High DX10 meglio stendere un velo pietoso su entrambe, mi sa. :stordita: ]

Probabile che sia la quantità di memoria l'ostacolo principale delle soluzioni multi gpu . Da 1900 a 2560 c'è un calo enorme. Quindi dato che la GTX280 ha un Gbyte intero ne trae beneficio. Anche rispetto la GX2 il salto è molto ampio...


http://www.hwupgrade.it/articoli/skvideo/1926/crysis_high.png

leoneazzurro
29-05-2008, 23:02
per curiosità ma le tmu sono quei blocchi interi ( 10 ) immediatamente adiacenti agli stream processors o quei blocchi sdoppiati ( quindi 10 x 2 ) ancora dopo ?

Chiedo perchè quei blocchi sdoppiati sono di dimensioni diverse , quindi se sono quelli sembra proprio che TAU e TFU siano in numero diverso ( se per ipotesi fossero di dimensioni simili )


I blocchi sdoppiati sono le TMU.

A.L.M.
29-05-2008, 23:05
bella la gif, la tenevi per l'occasione?

cmq non sono io che affermo quello, anche se ovviamente è un'opinione affascinante (lo sarebbe anche se si riferisse ad una vga Ati ;) )

Carina, vero? Ne ho molte altre in verità... :asd:

Mister Tarpone
29-05-2008, 23:09
Probabile che sia la quantità di memoria l'ostacolo principale delle soluzioni multi gpu . Da 1900 a 2560 c'è un calo enorme. Quindi dato che la GTX280 ha un Gbyte intero ne trae beneficio. Anche rispetto la GX2 il salto è molto ampio...


[IMG]http://www.hwupgrade.it/articoli/skvideo/1926/crysis_high.png

scusa ma se la GX2 a 2560x1600 fa sui 15fps mentre la GTX 280 ne fa sui 30 (il doppio) ma allora a 1920x1200 una GTX280 quanti ne fa??? una 90ina - 100???... :confused: :eek:

:confused:

leoneazzurro
29-05-2008, 23:11
scusa ma se la GX2 a 2560x1600 fa sui 15fps mentre la GTX 280 ne fa sui 30 (il doppio) ma allora a 1920x1200 una GTX280 quanti ne fa??? una 90ina - 100???... :confused: :eek:

:confused:

A occhio qualcosa in più di 50. Forse 60.

thx
29-05-2008, 23:12
scusa ma se la GX2 a 2560x1600 fa sui 15fps mentre la GTX 280 ne fa sui 30 (il doppio) ma allora a 1920x1200 una GTX280 quanti ne fa??? una 90ina - 100???... :confused: :eek:

:confused:

Prima di tutto e' impossibile che gt200 vada il doppio di gx2:read:
E poi sono bench dx9

Mister Tarpone
29-05-2008, 23:13
A occhio qualcosa in più di 50. Forse 60.

:sob:

quindi è solo per la maggior vram che c'è quel guadagno doppio a 2560x... :sob:

Mister Tarpone
29-05-2008, 23:14
Prima di tutto e' impossibile che gt200 vada il doppio di gx2:read:
E poi sono bench dx9

eh no. a 2560x1600 a quanto pare va praticamente il doppio di una Gx2 :read:




ciao :tie:

A.L.M.
29-05-2008, 23:15
scusa ma se la GX2 a 2560x1600 fa sui 15fps mentre la GTX 280 ne fa sui 30 (il doppio) ma allora a 1920x1200 una GTX280 quanti ne fa??? una 90ina - 100???... :confused: :eek:

:confused:

A 1920x1200 AA4x DX10 very high mi pare che PHK avesse detto che uno SLI di GTX280 facesse 25fps.
Penso comunque anch'io che la differenza possa essere inferiore allo scendere di risoluzione perchè a certi livelli i 512MB per gpu di GX2 si fanno sentire.
Inoltre 27fps (15x1.8) non è il doppio di quasi 23. ;)
Recensione HWU più recente di quella postata prima. ;)

http://www.hwupgrade.it/articoli/skvideo/1942/crysis.png

thx
29-05-2008, 23:15
eh no. a 2560x1600 a quanto pare va praticamente il doppio di una Gx2 :read:

Ma se e' gia' un miracolo che vada (andra') il doppio di una 9800gtx

-noxius-
29-05-2008, 23:18
Ma se e' gia' un miracolo che vada (andra') il doppio di una 9800gtx

Heheh, qui si pretende che vada 4 volte tanto ... :sofico:

leoneazzurro
29-05-2008, 23:18
:sob:

quindi è solo per la maggior vram che c'è quel guadagno doppio a 2560x... :sob:

A 2560x1600 la GX2 è pesantemente limitata dal framebuffer. Anche la 8800 Ultra va più veloce in quel caso.

Errik89
29-05-2008, 23:20
Heheh, qui si pretende che vada 4 volte tanto ... :sofico:
:rotfl: ... io punto su 8 volte tanto...

Mister Tarpone
29-05-2008, 23:20
Ma se e' gia' un miracolo che vada (andra') il doppio di una 9800gtx

si ma l'hai capito o no che a 2560x1600 tutta la potenza della gx2 va a farsi fott.. per via della poca vram...??? :)

e che quindi per questo motivo, in quella situazione una 280 è avvantaggiata.
andando parecchio meglio. magari non il doppio... ma quasi...:mano:

thx
29-05-2008, 23:25
si ma l'hai capito o no che a 2560x1600 tutta la potenza della gx2 va a farsi fott.. per via della poca vram...??? :)

e che quindi per questo motivo, in quella situazione una 280 è avvantaggiata.
andando parecchio meglio. magari non il doppio... ma quasi...:mano:

Sara'...ma resta il fatto che la maggiorparte giochera' a 1680x1050 e la differenza fra le 2 schede sara' del 30% su per giu'.
Inoltre molti (facendo riferimento a Crysis)preferiranno giocare in dx10 e Vista abbassera' ulteriormente quegli fps mostrati in precedenza

Mister Tarpone
29-05-2008, 23:27
Sara'...ma resta il fatto che la maggiorparte giochera' a 1680x1050 e la differenza fra le 2 schede sara' del 30% su per giu'.
Inoltre molti (facendo riferimento a Crysis)preferiranno giocare in dx10 e Vista abbassera' ulteriormente quegli fps mostrati in precedenza

idem.. se guardi qualche post indietro vedrai che la penso = a te.

ho sempre ipotizzato un 30% + in media..ed alle risoluzioni + normali...
forse forse anche un qualche cosina +... ma forse :) ;)

Futura12
29-05-2008, 23:32
Sara'...ma resta il fatto che la maggiorparte giochera' a 1680x1050 e la differenza fra le 2 schede sara' del 30% su per giu'.
Inoltre molti (facendo riferimento a Crysis)preferiranno giocare in dx10 e Vista abbassera' ulteriormente quegli fps mostrati in precedenza

volevi dire 1280x1024:asd:....

thx
29-05-2008, 23:37
idem.. se guardi qualche post indietro vedrai che la penso = a te.

ho sempre ipotizzato un 30% + in media..ed alle risoluzioni + normali...
forse forse anche un qualche cosina +... ma forse :) ;)

Questa affermazione...
"2nd gen. Unified architecture delivers %50 more gaming performance over 1st generation through 240 sp

addirittura mi fa pensare che sia il 50% piu' veloce di G80 (8800gtx),ma spero che non lo sia davvero.

volevi dire 1280x1024:asd:....

Quindi peggio ancora,pero' credo che 1680x1050 sia all'ordine del giorno

The_SaN
29-05-2008, 23:39
addirittura mi fa pensare che sia il 50% piu' veloce di G80 (8800gtx),ma spero che non lo sia davvero.

PSSST non lo dire in giro :eek:
L' inquisizione non ammette malafede...
:stordita:

The_SaN
29-05-2008, 23:40
Sara'...ma resta il fatto che la maggiorparte giochera' a 1680x1050 e la differenza fra le 2 schede sara' del 30% su per giu'.
Inoltre molti (facendo riferimento a Crysis)preferiranno giocare in dx10 e Vista abbassera' ulteriormente quegli fps mostrati in precedenza

Ma se uno compra una scheda del calibro di gtx280 e 4870x2 avrá un monitor con le controbolas...(1920x1200 minimo)
Sennó é potenza sprecata ;)
E la bolletta ringrazia...

Mister Tarpone
29-05-2008, 23:45
Questa affermazione...
"2nd gen. Unified architecture delivers %50 more gaming performance over 1st generation through 240 sp

addirittura mi fa pensare che sia il 50% piu' veloce di G80 (8800gtx),ma spero che non lo sia davvero.

secondo me no..andrà ben di + ;)

Ma se uno compra una scheda del calibro di gtx280 e 4870x2 avrá un monitor con le controbolas...(1920x1200 minimo)
Sennó é potenza sprecata ;)
E la bolletta ringrazia...


quoto. sta scheda è per gli "entusiasti" :asd: e questi usano monitor esagerati per giocare :asd: ;)

thx
29-05-2008, 23:47
secondo me no..andrà ben di + ;)

E' solo il prezzo ad indicarmi che la scheda dovra' andare piu' del 50% di una 8800gtx

Mister Tarpone
29-05-2008, 23:50
E' solo il prezzo ad indicarmi che la scheda dovra' andare piu' del 50% di una 8800gtx

quello è molto indicativo :asd:

thx
29-05-2008, 23:52
quello è molto indicativo :asd:

Ok, ma anche Nvidia e' consapevole che la gente non e' fessa :)

-noxius-
29-05-2008, 23:52
Ok, ma anche Nvidia e' consapevole che la gente non e' fessa :)

A dire il vero a me sembra il contrario ;)

A.L.M.
29-05-2008, 23:54
A dire il vero a me sembra il contrario ;)

:sbonk:

Ma lol, mi sa che non hai tutti i torti... :asd:

Mister Tarpone
29-05-2008, 23:57
A dire il vero a me sembra il contrario ;)

vedi chi si è preso una gts 512 e dopo è passato ad una gtx 512 pensando che andasse parecchio di + ;)


AZZ...:ops:


mi è scappata :ops:

thx
30-05-2008, 00:00
A dire il vero a me sembra il contrario ;)

:sbonk:

Ma lol, mi sa che non hai tutti i torti... :asd:

E' fessa fino ad un certo punto,perche' se fosse vero che va il 50% in piu' di 8800gtx con queste gt200 non ci guadagnerebbe nulla

thx
30-05-2008, 00:02
vedi chi si è preso una gts 512 e dopo è passato ad una gtx 512 pensando che andasse parecchio di + ;)


AZZ...:ops:


mi è scappata :ops:

Vero, ma la differenza di prezzo fra una gts e una gtx (512) e' irrilevante

Mister Tarpone
30-05-2008, 00:04
E' fessa fino ad un certo punto,perche' se fosse vero che va il 50% in piu' di 8800gtx con queste gt200 non ci guadagnerebbe nulla

quoto...

visto anche quanto costeranno ste schede...

ma sinceramente non ho dubbi che andra parecchio di più di un 50%

vedremo i bench quando usciranno..

Giustaf
30-05-2008, 00:13
Ma se uno compra una scheda del calibro di gtx280 e 4870x2 avrá un monitor con le controbolas...(1920x1200 minimo)
Sennó é potenza sprecata ;)
E la bolletta ringrazia...

premetto che non la comprerò e che aspetterò soluzioni mooolto più performanti e meno esose di corrente...però non sono d'accordo che sia potenza sprecata per risoluzioni più basse di 1920x1200: basta vedere crysis (in futuro poi far cry 2 e sicuramente qualche altro titolone nel 2009) che con una 9800gtx rimane giocabile tutto very-high senza AA a 1200x800! :eek: poi sarà programmato male e tutto il resto, però per giocare a palla ai futuri titoloni (e speriamo che ne escano un po') ci vuole sicuramente qualcosa di ancora più potente della gtx280, per stare sui 50fps a 1680x1050 aa4x e Afx16! tutto questo imho eh! ;)

Mister Tarpone
30-05-2008, 00:18
sono abb. sicuro che Far Cry 2 non sarà pesante come Crysis (gioco creato e pensato per pc pompati)
il nuovo Far Cry uscirà anche su console...
quindi credo che automaticamente girerà + che decentemente anche con le schede medie... come tutti gli altri giochi che vengono da console..

secondo me ;)

-noxius-
30-05-2008, 00:22
vedi chi si è preso una gts 512 e dopo è passato ad una gtx 512 pensando che andasse parecchio di + ;)


AZZ...:ops:


mi è scappata :ops:

E chi sarebbe ?

Se è una frecciatina nei miei confronti io 210 l'ho pagata e 210 me la sono rivenduta, dopo 3 giorni , e di certo non avevo in mente di tenermela per più di una settimana dato che era solo un test :rolleyes: (rileggiti i miei post nel thread in firma) . Era solo per dare conferma a quanto sospettavo fin dall'inizio ovvero che quella scehda non valesse nulla più di una 8800GTS 512 ; preferisco provare le cose di persona e poi dare consigli e/o commentare seriamente, non sparare a cavolo senza aver provato nulla .

Se poi tale test non mi costa nulla non vedo perchè non dovrei approfittarne .

Mister Tarpone
30-05-2008, 00:23
E chi sarebbe ?

boh..

qualcuno c'è che ha fatto sto passaggio...

i nomi non li ricordo però :asd:

Se è una frecciatina nei miei confronti io 210 l'ho pagata e 210 me la sono rivenduta, dopo 3 giorni , e di certo non avevo in mente di tenermela per più di una settimana dato che era solo un test :rolleyes: (rileggiti i miei post nel thread in firma)
ecco.. :D
era per rispondere in maniera "scherzosa " a quello che avevi scritto nel tuo post :D :D :D
niente frecciatina cmq... ;)
ciao :ops: :ops: :ops:

okorop
30-05-2008, 00:26
boh..

qualcuno c'è che ha fatto sto passaggio...

i nomi non li ricordo però :asd:

dipende quanta convenienza hanno avuto a fare il cambio: se poi rivendendo la gts e prendendo la gtx li costava meno di 50 euro allora è stato per loro un affare

-noxius-
30-05-2008, 00:29
Se è una frecciatina nei miei confronti io 210 l'ho pagata e 210 me la sono rivenduta, dopo 3 giorni , e di certo non avevo in mente di tenermela per più di una settimana dato che era solo un test (rileggiti i miei post nel thread in firma) . Era solo per dare conferma a quanto sospettavo fin dall'inizio ovvero che quella scehda non valesse nulla più di una 8800GTS 512 ; preferisco provare le cose di persona e poi dare consigli e/o commentare seriamente, non sparare a cavolo senza aver provato nulla .

Se poi tale test non mi costa nulla non vedo perchè non dovrei approfittarne .

;)

Mister Tarpone
30-05-2008, 00:31
;)

beh allora hai fatto bene a sperimentare ;)visto che non ci hai rimesso nulla.. ;);) ;)

-noxius-
30-05-2008, 00:39
beh allora hai fatto bene a sperimentare ;)visto che non ci hai rimesso nulla.. ;);) ;)

La cosa buffa è che ero intervenuto preventivamente nel thread della 9800gtx dicendo che secondo me sarebbe stata una bufala, per tot motivi .. e tutti a darmi già pesante dicendo che sarebbe stata potente, che non ci capivo una mazza , etc,etc .. E' stato un valido motivo per testarla e fargli crollare il piccolo castello di carte in cui si erano rinchiusi, con un soffio :ciapet:

Dai un'occhiata qui :

http://www.hwupgrade.it/forum/showthread.php?t=1701718&page=10

http://www.hwupgrade.it/forum/showthread.php?t=1701718&page=12

Se scorri giù ci sono tutte le foto ed i grafici ..

ale0bello0pr
30-05-2008, 00:48
insomma bisogna aspettare settembre:mad:

Mister Tarpone
30-05-2008, 00:48
@ noxius

cmq avevo già visto un tuo confronto delle 2 schede nel thread della GTS 512 ;)
mi sembra in alcuni test con Crysis...

-noxius-
30-05-2008, 00:49
insomma bisogna aspettare settembre:mad:

L'andazzo sembrerebbe quello, anche perchè non si sa nulla delle nuove X2 solo che temo per i consumi :(

Sergio_Di_Rio
30-05-2008, 00:56
il doppio di una 9800gtx a carattere generale + o -. questo ho sempre detto. mi stai chiedendo perchè io ho capito e tu no? una base completamente scevra da pregiudizzi e malafede e maggior conoscenza e competenza.

quindi avevo capito bene mi stavi chiedendo perchè io sono arrivato facile facile a prevedere che la gtx280 sarebbe andata il doppio della 9800gtx?
se vuoi lo ripeto conoscenza(dei dati, delle caratteristiche), un minimo(faccio il modesto)di competenza(sugli gli stessi campi di prima) e ripeto zero pregiudizzi e zero malafede.
credini una ricetta perfetta che spessissimo ti fa arrivare alla giusta conclusione. e non solo in schede video parlo proprio della vita in generale.
tutto qui.
ora se vuoi torniamo in topic.

AHA! Pensavo fosse un errore di battitura, ma come vedo, si ripete! Oltre alle millantate conoscenze tecniche (se solo sapessi.. :asd:) un pò di itagliano non ti farebbe male!

PS = so che sei alquanto permaloso, quindi, onde evitare disastri diplomatici, specifico: sto scherzando :)

Ciao;)

to ci metto 300 euro, tanto capirai 50 euro in + non mi creano problemi, invece per la questione del accelero sulla gts 512 , fidati che serve e come, quando vai di giochi pesanti la temperatura va sopra i 60 anche con ventola a 70% e questo ora che ci sono 25 gradi ambiente, figuriamoci quando si arrivera a 32°... ritornando al discorso prezzo credo che in due mesi, scenderà di sicuro sotto i 500(e non di poco), ne sono convinto.

lol..., il regolamento dice il 20% in meno rispetto al minor prezzo trovato ad esempio su trovaprezzi, quindi se ora la 8800gts512 sta sui 170 euro il 20% sono 136 euro, non certo 110, se poi tu vuoi venderla a quel prezzo affari tuoi, io a meno di 135 euro ora come ora non la venderei mai e con l'accelero siamo sui 155(contando anche il turbo module) fra due mesi sui 125...

Insomma siamo passati da 250€ a 300€ di aggiunta; da 400€ in meno di due mesi a "sotto" i 500€..Amph! Mi sembri un tipo alquanto indeciso! Fidati che l'ACCELERO non serve (cmq non ho nulla in contrario con chi lo ha comprato :)), con la 8800gts in OC ed i 32° (che qui già sono arrivati :D) e con ventola al 60% (praticamente inudibile) sotto stress non supera i 65°...temperatura più che fresca per una GPU. Magari, invece di spendere soldi in dissipatori aftermarket dai nomi altisonanti, sarebbe meglio investire nel miglioramento del flusso d'aria all'interno del case, con maggiori benefici per ogni componente del sistema.

Il regolamento può dire quello che vuole, ritengo da veri polli D.O.C. (e ce ne sono..) comprare adesso una 8800 gts 512 a più di 120€. Con l'uscita delle nuove schede ATI ed Nvidia, subiranno un ulteriore deprezzamento.

Comunque, in bocca al lupo..o al pollo! ;)

Vero, ma la differenza di prezzo fra una gts e una gtx (512) e' irrilevante

Trovi che 50€ siano una differenza irrilevante?:rolleyes:

:oink:

michelgaetano
30-05-2008, 00:57
Certo no ncrescono sugli alberi :D

Per una dfferenza di 50 euro credo punterei alla gtx però.

Speriamo davvero far cry 2 sia leggero, vorrei giocarlo :D

Sergio_Di_Rio
30-05-2008, 01:03
Certo no ncrescono sugli alberi :D

Per una dfferenza di 50 euro credo punterei alla gtx però.

Speriamo davvero far cry 2 sia leggero, vorrei giocarlo :D

Punteresti Male!:D

Perchè pagare di più per avere le stesse identiche prestazioni? AH! dimenticavo...il 3-way SLI :asd:

Leggero non credo, ma sicuramente non "pesante" (come C****S..mi autocensuro, l'ho nominato troppe volte!).

Ciao:)

:oink:

The_SaN
30-05-2008, 01:45
Vero, ma la differenza di prezzo fra una gts e una gtx (512) e' irrilevante

Giá...costa il 30% in piú...
e va la bellezza di....0% in piú a paritá di frequenze ;)
Vabbé, hanno il dissi piú bellino :D

The_SaN
30-05-2008, 01:50
dipende quanta convenienza hanno avuto a fare il cambio: se poi rivendendo la gts e prendendo la gtx li costava meno di 50 euro allora è stato per loro un affare

Almeno per me, 50 euro su 175 sono tanti...
Per non avere migliorie significative...

Se andasse un po' di piú...dico almeno il 15%

-noxius-
30-05-2008, 02:10
Giá...costa il 30% in piú...
e va la bellezza di....0% in piú a paritá di frequenze ;)
Vabbé, hanno il dissi piú bellino :D


Eh no !! A parità di frequenze quando l'ho testata io andava pure meno di un FPS !!! :read: :read:

michelgaetano
30-05-2008, 02:40
Punteresti Male!:D

Perchè pagare di più per avere le stesse identiche prestazioni? AH! dimenticavo...il 3-way SLI :asd:

Leggero non credo, ma sicuramente non "pesante" (come C****S..mi autocensuro, l'ho nominato troppe volte!).

Ciao:)

:oink:

Ho centrato male il discorso, pensavo si parlasse tra 260 e 280, e 50 euro sui 300 o più mi parevano pochi :asd:

Ho detto gtx memore della distinzione tra 8800 gtx e gts 640 :D

gts tutta la vita, 50 euro in meno :D

A.L.M.
30-05-2008, 07:47
Ecco che parlando di die spunta fuori quello di GT200 :D

http://img126.imageshack.us/img126/2564/gt200cjzo7.jpg

Come hanno già fatto notare si vedono distintamente i 10 cluster ( 24 sp ciascuno )

Edit: e 1.4 miliardi di transistors

Piccolo confronto con un negativo del die di G80. ;)

http://img524.imageshack.us/img524/5223/g80dieshotinfocx2.jpg

Ecco inoltre cosa dice Arun, che pare abbia partecipato anche lui all'editor's day di NV, a proposito di GT200....

Originally Posted by Arun
It's 10, 3x8 in each, no coarse redundancy. Anyway, since we're letting the cat out of the bag here... This is also based on a die shot, although a better one so if you can't corroborate it, you'll just have to believe me:
~26.5% SMs, ~26% Non-SM Clusters (TMUs etc.), ~14.25% memory I/O, ~13.25% unique, ~8% MCs, ~6.25% ROPs, ~2% Misc. I/O, 4%+ Misc. (intrachip I/O, rounding errors, unidentifiable units, etc.)

Riguardo alla porzione che chiama "unique":

Originally Posted by Arun
Global Scheduler, Triangle Setup, Input Assembly, Rasterization, L2 Cache, I/O controllers, and so forth presumably - it's really just everything that isn't duplicated elsewhere on the chip.

Sergio_Di_Rio
30-05-2008, 07:53
Piccolo confronto con un negativo del die di G80. ;)

Ecco inoltre cosa dice Arun, che pare abbia partecipato anche lui all'editor's day di NV, a proposito di GT200....


Riguardo alla porzione che chiama "unique":

Belle immagini, grazie mi servivano;)

Ciao:)
:oink:

Sergio_Di_Rio
30-05-2008, 07:54
gts tutta la vita, 50 euro in meno :D

;)

Enochian
30-05-2008, 08:22
insomma bisogna aspettare settembre:mad:

Per quale motivo scusa? la gt200 non usciva a metà giugno? che mi sono perso? :D

Valdis
30-05-2008, 08:31
Per 3 mesi tanto vale aspettare settembre :) (naturalmente imho)
http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes
gt200b a 55nm dovrebbe avere frequenze più alte e consumi (quasi) umani :).
Tirare fuori lo shrink dopo solo 3 mesi mi pare esagerato (con G80 l'hanno fatto dopo un annetto), una mezza beffa per chi compra al day0 (si, lo sò sono enthusiast e poco interessati a queste cose), aspettavo lo shrink dopo al meno 6-8 mesi :confused:


bye

Fray
30-05-2008, 08:37
Per 3 mesi tanto vale aspettare settembre :) (naturalmente imho)
http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes
gt200b a 55nm dovrebbe avere frequenze più alte e consumi (quasi) umani :).
Tirare fuori lo shrink dopo solo 3 mesi mi pare esagerato (con G80 l'hanno fatto dopo un annetto), una mezza beffa per chi compra al day0 (si, lo sò sono enthusiast e poco interessati a queste cose), aspettavo lo shrink dopo al meno 6-8 mesi :confused:


bye

è una decisione quasi obbligata (consumi mostruosi e ricavi bassi) per non parlare del fatto che i 55nm dovrebbero essere più che maturi...ati li usa da un bel pò ormai e le cpu son ancora più in là...

D4N!3L3
30-05-2008, 08:57
Nemmeno questa ce la fa a far girare Crysis????? :confused: :mbe:

Wikkle
30-05-2008, 09:07
A 2560x1600 la GX2 è pesantemente limitata dal framebuffer. Anche la 8800 Ultra va più veloce in quel caso.

sei sicuro? io volevo proprio cambiare la ultra con la gx2 per giocare a 2560x1600.

Se è così come dici devo necessariamente aspettare la gtx280

Tioz90
30-05-2008, 09:18
Nemmeno questa ce la fa a far girare Crysis????? :confused: :mbe:
Crysis è stato ottimizzato da un drogato:rolleyes:
Non capisco perchè ogni volta salta fuori questa storia "ma se prendo un sistema skulltrail, e 3 gtx280 in sli riesco a fare girare crysis?":rolleyes:
Bah..