View Full Version : [Thread ufficiale] Aspettando GTX260 & GTX280
Ibracadabra08
14-06-2008, 21:45
giuro che della gtx290 non ne ho mai parlato. in pubblico.
;)
Notizia ANSA:read:
Ciò che più mi rattrista non è leggere dei risulati della GTX280 (che reputo di tutto rispetto) bensì osservare le mostruose aspettative che l'utenza aveva sulle performance di questa GPU...
Leggiamo e scriviamo su un forum tecnico, e ciò nonostante la gran parte dell'utenza non è immune a palesi falsificazioni pubblicitarie....insomma dovremmo esser i primi a distinguere ciò che è vero da ciò che non lo è ,o se volete ciò che è possibile da ciò che è non possibile....e invece..? Tutti a sperare..., alcuni addirittura certi , che GTX280 stracciasse le prestazioni di G80X2...non dico che era impossibile che ciò avvenisse ma quantomeno che fosse molto, molto difficile...
Addirittura alcuni utenti hanno messo in programma la vendita della propria GX2 per il nuovo acquisto.
Insomma se le cose stanno in questi termini il forum fallisce laddove vi è il motivo stesso per cui è nato: fare informazione..!!!Tutto molto triste. :(
P.S.: Grazie di cuore a quegli utenti che con la loro continua e palese disinformazione aiutano il forum nel suo scopo.. :tapiro:
;)
Quoto...
Ma i paragoni non si dovrebbero fare con la 9800gtx al posto di una gx2? che sono sempre 2 schede in una... bisognerebbe fare 2gtx280 vs gx2 ma qua incombe un problema nuovo, la fascia di prezzo della gtx280 e' molto piu' alta della 9800gtx... la quale invece e' appropriata la gx2, inoltre uscira' mai una gtx280*2?
Dunque si dovrebbe fare il paragone: prezzo per fps che da ora battezzero' pfps, cosi' si avra' il giusto valore prezzo prestazioni. Il problema maggiore e' trovare sistemi assemblati uguali nei bench e risoluzioni + filtri uguali, bisogna poi prendere le versioni lisce, come mamma nvidia l'ha fatta. Per esempio la versione 9800gtx di asus, e' quella che rispecchia a perfezione la reference nvidia
http://www.hwupgrade.it/articoli/skvideo/1987/crysis_high.png
Prendiamo come fascia di riferimento la 1900*1200 in quanto chi si compra un monitor adesso lo prende 24" a quella risoluzione nativa
il prezzo d'uscita era di 240-245E, prendiamo il fantomatico crysis che e' diventato piu' un benchmark che gioco a questo punto :) 29fps@high noAA
http://www.hwupgrade.it/articoli/skvideo/1987/geforce-9800gtx-zotac-msi-asus-a-confronto_6.html
245/29= 8euro e 45 centesimi pfps
se potete aiutarmi a stilare una tabella esatta passandomi vari benchmark conoscendone il sistema di prova (di cui sta recensione non ne parla mi servica per fare un esempio) ve ne sarei grato, cosi' da essere per tutti piu' chiari prezzo prestazioni. Questo sistema funziona solo per i videogames, un ottimo pfps potrebbe essere inadatta come stabilita' per i programmi di grafica (nei programmi di grafica 3D una gx2 cioe' una sli, non la vedo molto bene...)
Inoltre consiglio di dividere i vari segmenti, enthusiast e mainstream, ovviamente le enthusiast avranno un pfps maggiore almeno del 30% del mainstream
ecco il mio post ;) Ho semplicemente esposto la mia idea, peraltro senza arroganza, semplicemente incisività ;)
Io vedo solamente che l'hai presa sul personale visto che dopo le dovute spiegazioni ti ostini a continuare il discorso.:) Se poi vuoi che ti dia ragione per una soddisfazione personale,allora quello è un altro discorso.:)
ps affermi di non essere stato arrogante ma con un'unica parola nel tuo ultimo post,l'hai dimostrato!
ciao!:)
in complesso direi che hai ragione. Tutto il 3D gioca attorno a "illusioni ottiche" che a fronte di qualità grafica estremamente elevata bilanciano con un esiguo "spreco" di risorse..mi viene da pensare ad esempio alle normal maps, che consentono di dare "volume" alle superfici texture senza aumentare il dettaglio poligonale (e quindi i carichi sulla geometria) oppure alla tessellazione, che consente la visualizzazione di geometrie "morbide" e curve, partendo da funzioni estremamente semplici, come le lineari :)
bYeZ!
Esempi molto intelligenti,bravo!!;)
Ibracadabra08
14-06-2008, 21:49
Anche perchè la 9800gx2 non mi sembra che siano 2 9800gtx messe insieme... leggiamo le frequenze prima di parlare!
Allora dimmi che scheda è..... perchè se una scheda è definita in base alle frequenze sai quanti 9800GTX esisitono????
LA GX2 E' UNO SLI DI 2 9800GTX CON FREQUENZE RIDOTTE PER DIMINUIRE CONSUMI E CALORE.;)
DriftKing
14-06-2008, 22:49
Allora dimmi che scheda è..... perchè se una scheda è definita in base alle frequenze sai quanti 9800GTX esisitono????
LA GX2 E' UNO SLI DI 2 9800GTX CON FREQUENZE RIDOTTE PER DIMINUIRE CONSUMI E CALORE.;)
a me mi sembra che la gx2 e uno sli di gts512 con frequenze ridotte ... xche la 98gtx ha le memorie da 0.8 ns (l'unica cosa in pratica (apparte le freq.) che la differenzia dalla gts) ... la gx2 invece le ha da 1.0 ... come la gts ...
a me mi sembra che la gx2 e uno sli di gts512 con frequenze ridotte ... xche la 98gtx ha le memorie da 0.8 ns (l'unica cosa in pratica (apparte le freq.) che la differenzia dalla gts) ... la gx2 invece le ha da 1.0 ... come la gts ...
penso ricordi bene.
ma cosa è successo oggi ? non ho potuto seguire e ci sono molti post, è uscito qualche primo bench ? se si di che tenore è ? ho letto alla veloce, però era un pò un "tutti contro tutti" :p
DriftKing
14-06-2008, 23:03
penso ricordi bene.
ma cosa è successo oggi ? non ho potuto seguire e ci sono molti post, è uscito qualche primo bench ? se si di che tenore è ? ho letto alla veloce, però era un pò un "tutti contro tutti" :p
;)
beh ... si ... sn usciti qualche bench ... c'e stato quel tutti contro tutti xche alcuni si aspettavano il 50% in+ di una gx2 ... e le loro aspettative nn si sn rivelate ... la gtx280 va ,con i driver di adesso, +o- un 30% in+ di una gx2 ... o anche qualcosa in meno ... ora ... e meglio aspettare lunedi ... e poi tirare le somme ... anche xche gira anche un immagine secondo la quale cambiando i driver le nuove gtx aquistano un 6-7 fps ... con crysis ... quindi ... anche se e gia stato scritto +o- da tutti 10000000 di volte ... aspettiamo :D
;)
beh ... si ... sn usciti qualche bench ... c'e stato quel tutti contro tutti xche alcuni si aspettavano il 50% in+ di una gx2 ... e le loro aspettative nn si sn rivelate ... la gtx280 va ,con i driver di adesso, +o- un 30% in+ di una gx2 ... o anche qualcosa in meno ... ora ... e meglio aspettare lunedi ... e poi tirare le somme ... anche xche gira anche un immagine secondo la quale cambiando i driver le nuove gtx aquistano un 6-7 fps ... con crysis ... quindi ... anche se e gia stato scritto +o- da tutti 10000000 di volte ... aspettiamo :D
ok, grazie per il riassunto :D
ciao ;)
DriftKing
14-06-2008, 23:06
ok, grazie per il riassunto :D
ciao ;)
:D ;)
potrei aver tralasciato qualcosa ... ma credo di aver detto piu o meno tutto quello di cui siamo venuti a conoscenza oggi ... ;)
Foglia Morta
14-06-2008, 23:09
:D ;)
potrei aver tralasciato qualcosa ... ma credo di aver detto piu o meno tutto quello di cui siamo venuti a conoscenza oggi ... ;)
a quali bench ti riferivi ( di quale fonte intendo ) ?
cristian-BG
14-06-2008, 23:16
sta skeda deve andare come una disperata.. sennò col cax che li spendo 600€ mi prendo una s3 virge x protesta:sofico:
DriftKing
14-06-2008, 23:18
a quali bench ti riferivi ( di quale fonte intendo ) ?
beh ... io mi riferivo +o- a tutte quelle che sn state postate fin ora ... xche? ho sbagliato a scrivere qualcosa? in tal caso chiedo venia :)
DriftKing
14-06-2008, 23:19
sta skeda deve andare come una disperata.. sennò col cax che li spendo 600€ mi prendo una s3 virge x protesta:sofico:
:asd:
cmq ... nn credo che il prezzo sara quello ... se nn x i primi giorni ...
Foglia Morta
14-06-2008, 23:26
beh ... io mi riferivo +o- a tutte quelle che sn state postate fin ora ... xche? ho sbagliato a scrivere qualcosa? in tal caso chiedo venia :)
sono usciti bench da varie fonti... una che compara solo GTX 260 e GTX 280 senza altre schede di riferimento: http://img213.imageshack.us/my.php?image=immagine2xc3.gif . Una rece completa della quale si spera siano stati usati driver inadeguati ma che dovrebbe essere pubblicata Lunedì: http://forums.vr-zone.com/showthread.php?t=288666
E ieri uno scan di una rivista che mostra buoni incrementi in WIC e Crysis ma va male in HL2 Ep. 1 e un altro gioco che non ricordo.
Nella rece più completa la GTX 280 è a volte un po sopra e a volte un po sotto la GX2 , quindi mi chiedevo a quali bench ti riferissi :) .
Comunque Lunedì ci saranno moltissime recensioni, manca poco
Io vedo solamente che l'hai presa sul personale visto che dopo le dovute spiegazioni ti ostini a continuare il discorso.:) Se poi vuoi che ti dia ragione per una soddisfazione personale,allora quello è un altro discorso.:)
ps affermi di non essere stato arrogante ma con un'unica parola nel tuo ultimo post,l'hai dimostrato!
ciao!:)
1 Ho solo risposto ad Ati7500, non continuo il discorso, e non ho intenzione di continuarlo se non in pvt ;)
2 Per la soddisfazione personale, perfavore, sembra di stare a parlare con bambini.
3 Ripeto, mi limito ad esprimere il mio pensiero, se te la chiami arroganza io la chiamo incisività ;)
Ciao ;)
Foglia Morta
14-06-2008, 23:28
sta skeda deve andare come una disperata.. sennò col cax che li spendo 600€ mi prendo una s3 virge x protesta:sofico:
uno in repubblica ceca l'ha pagata 500 euro se non sbaglio... meglio attendere che l'abbiano a listino diversi shop e probabilmente non sarà così cara come ci si poteva aspettare
Per chi si fosse perso la puntata:
I bench di crysis sarebbero stati eseguiti con questi settaggi:
http://img.techpowerup.org/080614/Capture333.jpg
http://img.techpowerup.org/080614/Capture334.jpg
Come sono finiti i bench in rete, l'autore (http://www.xtremesystems.org/forums/member.php?u=2422) e il motivo della loro stramberia, (perche IMO sembrano assolutamente inaffidabili) qui:
http://www.xtremesystems.org/forums/showthread.php?p=3061346#post3061346
[img]http://www.abload.de/img/gpuz_ocvwy.gif
http://8ynme6w1.multipic.de/750x445/clipboard09gh.jpg
http://s7.directupload.net/images/080614/xvcccx4m.jpg
http://8ynme6w1.multipic.de/750x637/clipboard06fg.jpg
http://8ynme6w1.multipic.de/750x641/clipboard08g.jpg
http://s5.directupload.net/images/080614/4v6a4yct.jpg
http://8ynme6w1.multipic.de/750x644/gtx28093.jpg
http://8ynme6w1.multipic.de/750x654/clipboard035.jpg
http://8ynme6w1.multipic.de/750x648/clipboard02f.jpg
http://8ynme6w1.multipic.de/750x652/clipboard04ff.jpg
http://8ynme6w1.multipic.de/750x649/clipboard05f.jpg
http://8ynme6w1.multipic.de/750x636/clipboard07g.jpg
http://www.abload.de/img/farcry_1600_1200jji.gif http://www.abload.de/img/farcry_2048_1536gl5.gif
http://www.pic-upload.de/14.06.08/p4eppx.PNG
http://www.abload.de/img/power_averagezc7.gif http://www.abload.de/img/power_peak9ah.gif
http://img180.imageshack.us/img180/5518/112222398no9.png (http://imageshack.us)
:eek:
Non ho ancora letto tutti i post che seguono questo, cosi mi chiedevo se ci puoi dire da dove proviene questa tabella, nel frattempo cerco nel forum. :D
Per i benchmark di cui disponiamo parlare di performance superiori del 30% a quelle della GX2 è erroneo .......
Sempre attenendoci agli stessi bench possiamo dire che le prestazioni di una GTX280 vanno più o meno dal -5% al +10% rispetto alla GX2...
Per i benchmark di cui disponiamo parlare di performance superiori del 30% a quelle della GX2 è erroneo .......
Sempre attenendoci agli stessi bench possiamo dire che le prestazioni di una GTX280 vanno più o meno dal -5% al +10% rispetto alla GX2...
Che non è poco per una Gpu singola, rispetto alla 9800GX2 che invece è dual Gpu.
goldorak
15-06-2008, 00:25
Che non è poco per una Gpu singola, rispetto alla 9800GX2 che invece è dual Gpu.
Beh insomma, guardando i grafici risulta che la GX2 consuma meno sotto sforzo della GTX280 e va anche dippiu'.
Io questo non lo considero un passo avanti (per la GTX280 intendo). :rolleyes:
Ibracadabra08
15-06-2008, 00:29
:stordita: :stordita:
A parte che non capisco il motivo del tuo urlare...(io ci sento bene, e credo anche gli altri che leggono. :boh: ) non capisco assolutamente xkè le vga non sarebbero definibili dalle frequenze... forse non sai che (tanto per fare alcuni es.) le ati hd 3870 e 3850 sono identiche e si differenziano esclusivamente per le frequenze di funzionamento di ram e core... così come era per le 2900pro rispetto alle 2900xt. Sarebbe così anche per 9800gtx e 8800gts 512... se non fosse che le prime hanno memorie più performanti in termini di ns (e di frequenze massime raggiungibili).
Che??? Il nome cambia non per il clock ma per il diverso chipset utilizzato (RV670XT per la 3870 e RV670PRO per la 3850, idem per le HD2900, XT e PRO). Che le differenze siano inesistenti è quasi ovvio, ma non è per le frequenze che si cambia nome ad un modello. Quanto riguarda la 9800GTX, beh, non lo scopri certo te che non c'è differenza con una 8800 GTS 512.... Ma non è lo stesso con le 9600 GT? Questa è solo una speculazione commerciale, non c'entra nulla.
P.S. Non urlavo.;)
Ibracadabra08
15-06-2008, 00:33
a me mi sembra che la gx2 e uno sli di gts512 con frequenze ridotte ... xche la 98gtx ha le memorie da 0.8 ns (l'unica cosa in pratica (apparte le freq.) che la differenzia dalla gts) ... la gx2 invece le ha da 1.0 ... come la gts ...
I chip delle memorie sono gli stessi della 9800, solo funzionano alle frequenze della GTS.;) Poi tra 8800GTS 512 e 9800GTX non è che ci sià differenze...... Cambia il nome per la scatola, ma il resto no.
http://img185.imageshack.us/img185/1740/superfagianoperfidoac0.png
:asd:
cmq, qui ci si lamenta tanto che costano tanto per quel che danno, ma io sto spendendo un bel pò soldi per delle ram che mi daranno un up di performance si e no di qualche punto percentuale, sono un pirla :asd:
Carino... :asd:
E' praticamente confermato che la GTX280 andrà quanto una GX2, su xtremesystems sono stati eliminati tutti i bench per imposizione di nVidia (NDA still up).
Possiamo cominciare ad aspettare i driver del miracolo (cit.)
http://img185.imageshack.us/img185/1740/superfagianoperfidoac0.png :asd:
http://img115.imageshack.us/img115/5774/48up3.gif (http://imageshack.us)
LOL!!!
ma come, non avevi detto che la GTX280, l'Asso, era pronto da mesi? E si riducono adesso a dedicargli un driver?
bYeZ!
Da anni. Aprile 2007. http://img115.imageshack.us/img115/5774/48up3.gif (http://imageshack.us) ;)
cos'è? :stordita:
GGF=Grandi Grossi e Fregnoni. E' una lunga storia... :asd:
diciamo che una scheda per raggiungere la quale la concorrenza (e la stessa casa produttrice :eek: ) devono affiancare 2 gpu non mi fà esattamente rammaricare :asd:
a te si? :mbe:
Anche se le 2 singole gpu sono grandi e costano la metà (o meno) della succitata? Mah, io un pensierino al rammarico ce lo farei... :asd:
Dai scherzo, aspettiamo le rece coi 177.34. :)
Tornando un po' più IT, da questo link già postato (http://img213.imageshack.us/my.php?image=immagine2xc3.gif) si desumono un po' di prestazioni, se si confrontano i dati con questo link (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/#abschnitt_einleitung). I valori della GTX280 sembrano essere lievemente superiori, con punte del 15-20% in più, ad uno SLI di 9800GTX (che oggi costerebbe in media sui 480€).
Il problema piuttosto sarà la competitività vs un CF di HD4850 (che di € ne costerà 380 già al lancio).
Naturalmente può darsi che ci saranno incrementi di prestazioni coi nuovi drivers. :)
2 immagini di GTX260, Asus e Zotac.
http://img76.imageshack.us/img76/2898/engtx260fidonanimhabercjw9.th.jpg (http://img76.imageshack.us/my.php?image=engtx260fidonanimhabercjw9.jpg) http://img76.imageshack.us/img76/9922/zotacgtx260odhfx57tn9.th.jpg (http://img76.imageshack.us/my.php?image=zotacgtx260odhfx57tn9.jpg)
fatemi capire.. se la GTX280 in generale va quanto una 9800GX2 o poco più.. e in stress consuma più watt di un sistema SLI.. mi sà proprio che Ati stavolta avrà la meglio :oink:
su trovaprezzi è comparsa una gtx280 asus e costa la bellezza di 551 euri.. mesà ke sela tengono!!!
ps. nessuno ha notizie del chip G92b di cui si parlava??
Che non è poco per una Gpu singola, rispetto alla 9800GX2 che invece è dual Gpu.
Concordo...al 100% ;)
Ma, c'è da aggiungere che, considerate le dimensioni, i consumi ed il calore prodotto, non ultimi yield e costi al produttore ...penso sia giunto il momento di chiedersi se, la scelta del multiGPU da parte di ATI sia solo motivata da ristrettezze economiche o sia anzitutto una scelta strategica per il futuro.....
Del resto, se la memoria non mi inganna, ricordo che ATI abbia scelto questa strada prima ancora della stessa acquisizione da parte di AMD...
goldorak
15-06-2008, 03:23
I valori della GTX280 sembrano essere lievemente superiori, con punte del 15-20% in più, ad uno SLI di 9800GTX (che oggi costerebbe in media sui 480€).
Il problema piuttosto sarà la competitività vs un CF di HD4850 (che di € ne costerà 380 già al lancio).
Naturalmente può darsi che ci saranno incrementi di prestazioni coi nuovi drivers. :)
Dimentichi pero' che chi ha schede madri Nvidia non potra' usufruire del crossfire di 4850. Dici che ci sono persone che si stanno mangiando le mani in questo momento ? :p
Mister Tarpone
15-06-2008, 05:51
Non ho ancora letto tutti i post che seguono questo, cosi mi chiedevo se ci puoi dire da dove proviene questa tabella, nel frattempo cerco nel forum. :D
è semplice. proviene da Paint del mio computer. ti piace?? :rotfl: :sbonk: :rotfl: :sbonk: :rotfl:
ci eravate cascati tutti :rotfl:
dai daaaiiii.... aspettimo le rece di lunedi e via.. :asd:
Foglia Morta
15-06-2008, 07:44
Asus GTX 280 a $328 !!!!
http://www.pcvonline.com/productDetails.aspx?id=7246
sarà un "errore pubblicitario" dello shop :D
Foglia Morta
15-06-2008, 08:07
Preview di Vr-Zone con qualche bench:
http://resources.vr-zone.com/tux/gtx280/1944.jpg
http://www.vr-zone.com/articles/NVIDIA_GeForce_GTX_280_Preview/5872.html
http://img72.imageshack.us/img72/5734/3dmvdq7.th.jpg (http://img72.imageshack.us/my.php?image=3dmvdq7.jpg)
http://img72.imageshack.us/img72/5701/crysislq1.th.jpg (http://img72.imageshack.us/my.php?image=crysislq1.jpg)
http://img72.imageshack.us/img72/5451/wicxd6.th.jpg (http://img72.imageshack.us/my.php?image=wicxd6.jpg)
http://img72.imageshack.us/img72/8704/etqwix4.th.jpg (http://img72.imageshack.us/my.php?image=etqwix4.jpg)
Apparently preliminary testing did not show any jaw-dropping results. The NVIDIA GeForce GTX 280 can be considered as somewhat of a 're-work' of the GeForce 9800 GX2 into a single core package with faster processing capability and more bandwidth.
There is not much performance boost for older games, but for DirectX 10 games like World in Conflict, there is a more noticable improvement over the GeForce 9800 GX2. Not only DirectX 10 titles get a boost when you pick the GeForce GTX 280 over the GeForce 9800 GX2, using the former is more advantageous when you move up to a very high resolution of 2560 x 1600, a resolution found on 30-inch LCDs.
A point to note is abnormal performance in Crysis. We've tried re-benching the GeForce GTX 280 a few times but were greeted with the same results. However during benching, we did notice periodic stutters which were not present while benching the older GeForce 9800 GX2 cards. We are looking into this issue.
We are in the midst of testing Crysis on High settings (and with AA), as well as AA/AF on the other games. Stay tuned, as we work hard to bring you more results from the NVIDIA GeForce GTX 280 1GB.
Edit: mi ero dimenticato lo screen di un bench
goldorak
15-06-2008, 08:30
Asus GTX 280 a $328 !!!!
http://www.pcvonline.com/productDetails.aspx?id=7246
sarà un "errore pubblicitario" dello shop :D
Ma :sbonk: sicuramente sara' un errore.
Certo che se un provasse a ordinarla a quel prezzo chissa....
Foglia Morta
15-06-2008, 08:37
Ma :sbonk: sicuramente sara' un errore.
Certo che se un provasse a ordinarla a quel prezzo chissa....
Forse è tattica: tutti quelli che cercano la scheda prima della disponibilità si segnano lo shop con il prezzo più basso , quando poi sarà disponibile aggiustano il prezzo e non è possibile acquistare a 328$ , ma intanto tutti si sono segnati quel link ed eventuali concorrenti hanno perso visibilità a cause del prezzo bassissimo, appena sarà disponibile gli acquirenti che acquistano subito andranno su quello shop invece che negli altri. Idea suggerita su un altro forum , imho è proprio così :read:
Enochian
15-06-2008, 08:55
Beh insomma, guardando i grafici risulta che la GX2 consuma meno sotto sforzo della GTX280 e va anche dippiu'.
Io questo non lo considero un passo avanti (per la GTX280 intendo). :rolleyes:
Assolutamente, e sono cavoli amari per nvidia, nel senso che o ritira le gx2 dal mercato o di gtx280/260 ne vende pochine.
Il 10% in più mi sembra troppo poco, a meno che i prezzi non siano quelli riportati in dollari da qualche utente, perchè la 280 a 320 dollari sarebbe un crack e io ne prenderei al volo due per lo sli.
Enochian
15-06-2008, 08:59
Forse è tattica: tutti quelli che cercano la scheda prima della disponibilità si segnano lo shop con il prezzo più basso , quando poi sarà disponibile aggiustano il prezzo e non è possibile acquistare a 328$ , ma intanto tutti si sono segnati quel link ed eventuali concorrenti hanno perso visibilità a cause del prezzo bassissimo, appena sarà disponibile gli acquirenti che acquistano subito andranno su quello shop invece che negli altri. Idea suggerita su un altro forum , imho è proprio così :read:
Non credo, perchè prenotare un bene equivale a sottoscrivere un precontratto a quel prezzo. Se il prezzo sale, il sottoscrittore può rifiutare di acquistare a quella cifra e il venditore se la piglia in quel posto, per così dire.
Robbysca976
15-06-2008, 09:21
fatemi capire.. se la GTX280 in generale va quanto una 9800GX2 o poco più.. e in stress consuma più watt di un sistema SLI.. mi sà proprio che Ati stavolta avrà la meglio :oink:
su trovaprezzi è comparsa una gtx280 asus e costa la bellezza di 551 euri.. mesà ke sela tengono!!!
Quoto alla grande...Mi sa che l'avidità sta accecando Nvidia a sto giro..
halduemilauno
15-06-2008, 09:34
In attesa della presentazione ufficiale di domani 16 ore 15...
http://img388.imageshack.us/img388/5821/img0435iq4.jpg
http://resources.vr-zone.com/tux/gtx280/1944.jpg
http://img137.imageshack.us/img137/9387/engtx260nhdonanimhabercpk1.jpg
prezzo ufficiale 649$.
da noi...
http://www.trovaprezzi.it/categoria.aspx?libera=gtx280&id=28&prezzoMin=&prezzoMax=&sbox=sb
;)
halduemilauno
15-06-2008, 09:34
faccio notare il numero delle tmu...
altre immagini...
http://resources.vr-zone.com/tux/gtx280/1960.jpg
http://resources.vr-zone.com/tux/gtx280/1951.jpg
http://resources.vr-zone.com/tux/gtx280/1982.jpg
primi bench...
http://resources.vr-zone.com/tux/gtx280/benches/3dmv.jpg
http://resources.vr-zone.com/tux/gtx280/benches/crysis.jpg
http://resources.vr-zone.com/tux/gtx280/benches/wic.jpg
http://resources.vr-zone.com/tux/gtx280/benches/etqw.jpg
http://images.vnu.net/gb/inquirer/news/2008/06/14/complete-gtx280-scores-here/nv_280_scores_1.jpg
http://images.vnu.net/gb/inquirer/news/2008/06/14/complete-gtx280-scores-here/nv_280_scores_2.jpg
http://images.vnu.net/gb/inquirer/news/2008/06/14/complete-gtx280-scores-here/nv_280_scores_3.jpg
;)
mercoledì mi giro Torino e l'acquisto.. sperando che domani nelle reviews ufficiali risulti positiva :)
Asus GTX 280 a $328 !!!!
http://www.pcvonline.com/productDetails.aspx?id=7246
sarà un "errore pubblicitario" dello shop :D
Se fosse vero la prendero DI SICURO per quel prezzo!!!!!!! Ah ah sono andato sul sito e ho messo notifica quando disponibile!!! Cmq fanno spedizioni internazioneli li?? perche a prenderla in america costa SICURAMENTE meno nonostante tasse e spedizione
mercoledì mi giro Torino e l'acquisto.. sperando che domani nelle reviews ufficiali risulti positiva :)
finalmente la sofferenza per tè è finita:D ....cmq appunto come dici tù conviene aspettare lunedi per le review ufficiali per farsi un quadro della situazione prestazioni visto che non costa due lire...
gillan85
15-06-2008, 09:45
Chissà perchè Crysis sempre su medium o su high al massimo per le recensioni.Per queste schede o very high o niente. Credo che questa volta ATI avrà la meglio,anche a vedere i prezzi e i bench della 4850 e 4870. Nvidia si è seduta sugli allori
Voglio vedere come se la cavano una contro l'altra. Ma anche contro le nuove Radeon. Perchè il prezzo della 280 è altino, e fra l'altro pare consumare parecchio.
Deve esserci un errore nelle TMU, è impossibile ottenere una configurazione simile (cioè 56 per la GTX260 / 128 per la GTX280).
Le slide UFFICIALI Nvidia dicevano che ognugno dei 10 Cluster ha 8 TF. Presubilmente ha anche 8 TA, perciò le TMU sono 80 su GTX280 e 64 sulla GTX260.
halduemilauno
15-06-2008, 09:50
Deve esserci un errore nelle TMU, è impossibile ottenere una configurazione simile (cioè 56 per la GTX260 / 128 per la GTX280).
Le slide UFFICIALI Nvidia dicevano che ognugno dei 10 Cluster ha 8 TF. Presubilmente ha anche 8 TA, perciò le TMU sono 80 su GTX280 e 64 sulla GTX260.
lo credo anch'io. infatti ho fatto notare il loro numero diciamo anomalo. aspettiamo le rece.
http://www.pctunerup.com/up/results/_200806/20080615095030_xfx_geforce_gtx_280_itocp.jpg
Mi iscrivo anche se non ho intenzione di cambiare scheda... adesso:D
gianni1879
15-06-2008, 10:11
Che non è poco per una Gpu singola, rispetto alla 9800GX2 che invece è dual Gpu.
si infatti, ci sono meno inconvenienti dello SLi, però da dire che il chip è moolto grosso, la cosa strana sono i consumi un pò elevati anche rapportati alla gx2.
Altra cosa il prezzo elevato di lancio, ricordiamo che un semplice SLi di GTS costa di meno e va di più, non andiamo a scomodare la concorrenza che a sto giro potrebbe aver fatto un buon lavoro.
C'è chi criticava la scelta di Ati della doppia Gpu, sinceramente non so fino a che punto ha sbagliato, un chip che lo piazzi su tre schede, può permettere una certa flessibilità oltre che costa decisamente meno e non ha i problemi di rese produttive. GTX280 la vedo bene con un processo produttivo più evoluto
L'unica cosa che ho capito al momento è che, dovendo sostituire il pc fisso (avevo "puntato" la 9800gx2) e in vista dei lanci di nvidia e ati con conseguente ristrutturazione del listino, sarà meglio aspettare un attimo, leggere le recensioni e vedere i dati delle prove, altrimenti corro il rischio di avere una generazione vecchia o di pagarla cara prima delle probabili riduzioni di prezzo. A parte le date di presentazione, quando credete saranno disponibili sugli scaffali italiani?
Salve a tutti!
Da questi primi bench mi sembra che le cose non vadano male, al 3DMark Vantage mi aspettavo un punteggio leggermente superiore e in Crysis forse mancano i filtri e driver ottimizzati, cmq si evince chiaramente che la GTX280 é una scheda per risoluzioni alte-altissime e che supporta molto bene i filtri, ma che dire in attesa delle rece ufficiali inviterei chi la vuol comprare a farsi prima un LCD da paura...:eek:
DriftKing
15-06-2008, 10:29
sono usciti bench da varie fonti... una che compara solo GTX 260 e GTX 280 senza altre schede di riferimento: http://img213.imageshack.us/my.php?image=immagine2xc3.gif . Una rece completa della quale si spera siano stati usati driver inadeguati ma che dovrebbe essere pubblicata Lunedì: http://forums.vr-zone.com/showthread.php?t=288666
E ieri uno scan di una rivista che mostra buoni incrementi in WIC e Crysis ma va male in HL2 Ep. 1 e un altro gioco che non ricordo.
Nella rece più completa la GTX 280 è a volte un po sopra e a volte un po sotto la GX2 , quindi mi chiedevo a quali bench ti riferissi :) .
Comunque Lunedì ci saranno moltissime recensioni, manca poco
Per i benchmark di cui disponiamo parlare di performance superiori del 30% a quelle della GX2 è erroneo .......
Sempre attenendoci agli stessi bench possiamo dire che le prestazioni di una GTX280 vanno più o meno dal -5% al +10% rispetto alla GX2...
si ... forse nel mio riassuntino sono stato troppo ottimista x queste vga ... vabbe ... cmq ... aspettiamo domani ;)
si infatti, ci sono meno inconvenienti dello SLi, però da dire che il chip è moolto grosso, la cosa strana sono i consumi un pò elevati anche rapportati alla gx2.
Altra cosa il prezzo elevato di lancio, ricordiamo che un semplice SLi di GTS costa di meno e va di più, non andiamo a scomodare la concorrenza che a sto giro potrebbe aver fatto un buon lavoro.
C'è chi criticava la scelta di Ati della doppia Gpu, sinceramente non so fino a che punto ha sbagliato, un chip che lo piazzi su tre schede, può permettere una certa flessibilità oltre che costa decisamente meno e non ha i problemi di rese produttive. GTX280 la vedo bene con un processo produttivo più evoluto
quoto ... raga ... pero nn ho capito una cosa ... mi sembra di aver sentito che a 55nm un bus a 512bit nn si puo fare ... xche? troppo grande?
è semplice. proviene da Paint del mio computer. ti piace?? :rotfl: :sbonk: :rotfl: :sbonk: :rotfl:
ci eravate cascati tutti :rotfl:
dai daaaiiii.... aspettimo le rece di lunedi e via.. :asd:
http://img115.imageshack.us/img115/5774/48up3.gif :asd:
Che cinico, giochi con le speranze della gente... :nonsifa: :asd:
Preview di Vr-Zone con qualche bench:
..CUT..
Beh, che dire, continuano i presagi di sventura. :asd:
"Attendiamo nuove rece e nuovi drivers." [cit.]
EDIT: a proposito dei nuovi drivers... Guardate cosa dice W1zzard. ;)
no gpuz for 48xx yet because german customs is holding my card that i should have received this week
nvidia recommends the 177.34 driver for testing.. "There are no significant performance differences between this driver and 177.26."
http://www.xtremesystems.org/forums/showpost.php?p=3061346&postcount=11
Crysis90
15-06-2008, 10:56
Uao ragazzi GT200 è veramente mastodontico...comunque spero che i risultati con Crysis in High e Very High siano migliori di quelli della 9800 GX2 sennò non ha senso comprare questa scheda...
Kharonte85
15-06-2008, 11:02
è semplice. proviene da Paint del mio computer. ti piace?? :rotfl: :sbonk: :rotfl: :sbonk: :rotfl:
ci eravate cascati tutti :rotfl:
dai daaaiiii.... aspettimo le rece di lunedi e via.. :asd:
Preview di Vr-Zone con qualche bench:
http://resources.vr-zone.com/tux/gtx280/1944.jpg
http://www.vr-zone.com/articles/NVIDIA_GeForce_GTX_280_Preview/5872.html
http://img72.imageshack.us/img72/5734/3dmvdq7.th.jpg (http://img72.imageshack.us/my.php?image=3dmvdq7.jpg)
http://img72.imageshack.us/img72/5701/crysislq1.th.jpg (http://img72.imageshack.us/my.php?image=crysislq1.jpg)
http://img72.imageshack.us/img72/5451/wicxd6.th.jpg (http://img72.imageshack.us/my.php?image=wicxd6.jpg)
http://img72.imageshack.us/img72/8704/etqwix4.th.jpg (http://img72.imageshack.us/my.php?image=etqwix4.jpg)
Apparently preliminary testing did not show any jaw-dropping results. The NVIDIA GeForce GTX 280 can be considered as somewhat of a 're-work' of the GeForce 9800 GX2 into a single core package with faster processing capability and more bandwidth.
There is not much performance boost for older games, but for DirectX 10 games like World in Conflict, there is a more noticable improvement over the GeForce 9800 GX2. Not only DirectX 10 titles get a boost when you pick the GeForce GTX 280 over the GeForce 9800 GX2, using the former is more advantageous when you move up to a very high resolution of 2560 x 1600, a resolution found on 30-inch LCDs.
A point to note is abnormal performance in Crysis. We've tried re-benching the GeForce GTX 280 a few times but were greeted with the same results. However during benching, we did notice periodic stutters which were not present while benching the older GeForce 9800 GX2 cards. We are looking into this issue.
We are in the midst of testing Crysis on High settings (and with AA), as well as AA/AF on the other games. Stay tuned, as we work hard to bring you more results from the NVIDIA GeForce GTX 280 1GB.
Edit: mi ero dimenticato lo screen di un bench
Interessante...perche' provengono da una fonte nota, pare che il 3dvantage e il solito WIC (qui la differenza è mostruosa) si rivelino essere i benchmarck piu' indicativi...probabilmente la scheda si distanziera' dalla gx2 solo nei casi di maggiore sforzo (a risoluzioni folli :asd:)...
Ma la scheda non va affatto poco...
Crysis invece a quanto pare ha manifestato problemi di driver (a parte che il test su medio sarebbe stato comunque poco indicativo...), a quanto pare hanno usato i 177.26...quindi puo' essere che la tabella fake di Tarpone per crysis si rivelerà corretta se nei successivi driver sistemeranno il problema...:asd:
halduemilauno
15-06-2008, 11:09
Interessante...perche' provengono da una fonte nota, pare che il 3dvantage e il solito WIC (qui la differenza è mostruosa) si rivelino essere i benchmarck piu' indicativi...probabilmente la scheda si distanziera' dalla gx2 solo nei casi di maggiore sforzo (a risoluzioni folli :asd:)...
Ma la scheda non va affatto poco...
Crysis invece a quanto pare ha manifestato problemi di driver (a parte che il test su medio sarebbe stato comunque poco indicativo...), a quanto pare hanno usato i 177.26...quindi puo' essere che la tabella fake di Tarpone per crysis si rivelerà corretta se nei successivi driver sistemeranno il problema...:asd:
rimane il fatto che se nvidia raccomanda di usare i 177.34 ci sarà un motivo.
Interessante...perche' provengono da una fonte nota, pare che il 3dvantage e il solito WIC (qui la differenza è mostruosa) si rivelino essere i benchmarck piu' indicativi...probabilmente la scheda si distanziera' dalla gx2 solo nei casi di maggiore sforzo (a risoluzioni folli :asd:)...
Ma la scheda non va affatto poco...
Crysis invece a quanto pare ha manifestato problemi di driver (a parte che il test su medio sarebbe stato comunque poco indicativo...), a quanto pare hanno usato i 177.26...quindi puo' essere che la tabella fake di Tarpone per crysis si rivelerà corretta se nei successivi driver sistemeranno il problema...:asd:
La scheda va bene, certo. :)
Supera GX2 soprattutto dove GX2 non ha un incremento enorme vs single G92. Infatti imho se si facesse un confronto vs 2 9800GTX in SLI il divario sarebbe ancora minore. ;)
Il problema sono le aspettative eccessive che si sono create intorno a G200.
Se queste info si rivelassero corrette, la mia teoria sullo scaling meno che proporzionale dell'architettura G80 non era così sbagliata, allora... ;)
Quanto ai drivers, leggi il mio post precedente. :read:
Kharonte85
15-06-2008, 11:22
La scheda va bene, certo. :)
Supera GX2 soprattutto dove GX2 non ha un incremento enorme vs single G92. Infatti imho se si facesse un confronto vs 2 9800GTX in SLI il divario sarebbe ancora minore. ;)
Il problema sono le aspettative eccessive che si sono create intorno a G200.
Se queste info si rivelassero corrette, la mia teoria sullo scaling meno che proporzionale dell'architettura G80 non era così sbagliata, allora... ;)
Puo' essere comunque la differenza (togliendo Crysis che ha problemi e il vantage che non è un gioco) prendendo le risoluzioni piu' elevate (quindi con entrambe le schede non "CPU limited" [anche se io parlerei di Game limited nel caso di quake wars :asd:]) facendo la media dei 2 giochi è di circa 30%...che guardacaso era proprio il valore che mi aspettavo...poi sono molto curioso di vedere come sara' coi filtri attivi...
Quanto ai drivers, leggi il mio post precedente. :read:
Non c'entra...io dico anche con revision successive, se Vr-zone dice che stuttera vuol dire che evidentemente c'è qualcosa che non va proprio nei driver...
halduemilauno
15-06-2008, 11:44
http://forums.vr-zone.com/showthread.php?t=288990
http://img356.imageshack.us/img356/4528/asusengtx280obdonanimhahv3.jpg
http://img518.imageshack.us/img518/1021/asusengtx280ob2donanimhee3.jpg
la gddr3 a 2430 è impressionante.
;)
dai aspettiamo lunedì per review più dettagliate fatte con driver più maturi...
Asus GTX 280 a $328 !!!!
http://www.pcvonline.com/productDetails.aspx?id=7246
sarà un "errore pubblicitario" dello shop :D
Non per rovinare la vostra festa, ma il negozio è canadese e quelli sono dollari canadesi.
Ora non ho voglia di verificare a quanto corrisponde un dollaro canadese, ma dateci un occhio prima di fare l'ordine. :mbe:
Foglia Morta
15-06-2008, 11:49
Non per rovinare la vostra festa, ma il negozio è canadese e quelli sono dollari canadesi.
Ora non ho voglia di verificare a quanto corrisponde un dollaro canadese, ma dateci un occhio prima di fare l'ordine. :mbe:
vale poco meno del dollaro americano...
ma scordatevela la scheda a quel prezzo. è solo per farsi pubblicità
goldorak
15-06-2008, 11:50
dai aspettiamo lunedì per review più dettagliate fatte con driver più maturi...
Secondo te in un giorno spuntano i driver miracolosi ? :mbe:
Mi aspettavo molto ma molto di più da questa scheda ..
;)
Mister Tarpone
15-06-2008, 11:58
la gddr3 a 2430 è impressionante.
;)
iscritto ;)
queste le tiri a 2500 netti.
Puo' essere comunque la differenza (togliendo Crysis che ha problemi e il vantage che non è un gioco) prendendo le risoluzioni piu' elevate (quindi con entrambe le schede non "CPU limited" [anche se io parlerei di Game limited nel caso di quake wars :asd:]) facendo la media dei 2 giochi è di circa 30%...che guardacaso era proprio il valore che mi aspettavo...poi sono molto curioso di vedere come sara' coi filtri attivi...
Non c'entra...io dico anche con revision successive, se Vr-zone dice che stuttera vuol dire che evidentemente c'è qualcosa che non va proprio nei driver...
Quello sì, ma il salto "a la Tarpo's table", lo vedo difficile. Le architetture sono già mature, e al di là dei tweaks vari, non mi aspetto grossi incrementi prestazionali col tempo, nè per ATI, nè per NVidia. :)
dai aspettiamo lunedì per review più dettagliate fatte con driver più maturi...
Ho un dejavù...
Vabè, XFX GTX280 up su Amazon. :)
http://img505.imageshack.us/img505/5355/amazoncomxfxgx280nzdf9gmf3.png
http://img247.imageshack.us/img247/9571/ve3dawgu8.jpg
Qualche info sul timing delle prossime schede NVidia.
D10U = 65NM GT 200
D11U = 55NM GT 200 with some minor enhancements mid next year
D12U = Completely new architecture.
That's what I've heard around the web. Plus, the fact that Nvidia has already stated that the G92b (9800 series on 55nm) will be around for 6-12 months more so yea, no new high end very soon.
Perkam
http://www.xtremesystems.org/forums/showpost.php?p=3062591&postcount=1775
goldorak
15-06-2008, 12:17
Non siamo un po' in anticipo per aprire il thread ufficiale ? :stordita:
è semplice. proviene da Paint del mio computer. ti piace?? :rotfl: :sbonk: :rotfl: :sbonk: :rotfl:
ci eravate cascati tutti :rotfl:
dai daaaiiii.... aspettimo le rece di lunedi e via.. :asd:
sei stato citato in un articolo interessante :read: :
http://www.hardware-infos.com/news.php?news=2151
tradotto in inglese:
http://66.102.9.104/translate_c?hl=en&u=http://www.hardware-infos.com/news.php%3Fnews%3D2151
Mister Tarpone
15-06-2008, 12:19
non ci credo.... :sbonk: :rotfl: :rotfl: :rotfl:
ma poi aprite anche un tread ufficiale gtx260 oppure sono assieme sommo halduemilauno?
speriamo ne driver migliori per domani sera:)
non ci credo.... :sbonk: :rotfl: :rotfl: :rotfl:
:ave: :ave: http://img115.imageshack.us/img115/5774/48up3.gif
Qualcuno del forum l'avrà postato in qualche forum straniero... :sofico: :doh:
Mister Tarpone
15-06-2008, 12:25
:ave: :ave: http://img115.imageshack.us/img115/5774/48up3.gif
Qualcuno del forum l'avrà postato in qualche forum straniero... :sofico: :doh:
azz...... possibile che quella tabella fosse così convincente?? :asd: http://img115.imageshack.us/img115/5774/48up3.gif !!!
appleroof
15-06-2008, 12:25
http://forums.vr-zone.com/showthread.php?t=288990
cut
la gddr3 a 2430 è impressionante.
;)
effettivamente...:)
appleroof
15-06-2008, 12:27
Secondo te in un giorno spuntano i driver miracolosi ? :mbe:
questa me la metto nei preferiti :asd: :asd:
Asus Gtx280 a 550euro..
http://www.trovaprezzi.it/categoria.aspx?id=28&libera=gtx280&prezzomin=-1&prezzomax=-1
Mister Tarpone
15-06-2008, 12:35
ma poi aprite anche un tread ufficiale gtx260 oppure sono assieme sommo halduemilauno?
speriamo ne driver migliori per domani sera:)
falla finita:)
appleroof
15-06-2008, 12:36
non so se già postato: gtx280 sui 550€ al lancio
http://www.trovaprezzi.it/categoria.aspx?id=28&libera=gtx280&prezzomin=-1&prezzomax=-1
edit: già postato in "aspettando"
Skullcrusher
15-06-2008, 12:38
dai aspettiamo lunedì per review più dettagliate fatte con driver più maturi...
Ho paura che le recensioni saranno fatte con drivers "vecchi", di sicuro non si mettono a rifare i test 2 giorni prima del rilascio mi sa....comunque domani si vedrà.
Enochian
15-06-2008, 12:41
Io devo stare calmino perchè stavo per preordinare la gtx 280 nonostante volessi prendere la gx2.... :rolleyes:
Asus Gtx280 a 550euro..
http://www.trovaprezzi.it/categoria.aspx?id=28&libera=gtx280&prezzomin=-1&prezzomax=-1
vedrai che in poco tempo scenderà sotto i 500 ;)
Io devo stare calmino perchè stavo per preordinare la gtx 280 nonostante volessi prendere la gx2.... :rolleyes:
+ soldi si hanno + si vuole spendere :asd:
goldorak
15-06-2008, 12:42
non so se già postato: gtx280 sui 550€ al lancio
http://www.trovaprezzi.it/categoria.aspx?id=28&libera=gtx280&prezzomin=-1&prezzomax=-1
Non disponibile.
E facile mettere prezzo a 500 €, 400 € o quello che e' senza avere uno straccio di disponibilita'.
Aspettiamo i prezzi veri sui negozi che avranno disponibilita' effettiva e non virtuale. :rolleyes:
Edit : su uno dei due negozi danno adirittura disponibilita' di 5 pezzi per il primo luglio 2008. :asd:
Alla faccia del hard launch.
appleroof
15-06-2008, 12:43
Io devo stare calmino perchè stavo per preordinare la gtx 280 nonostante volessi prendere la gx2.... :rolleyes:
ormai aspetta domani, ma insomma è ormai chiaro (fanboy rossi a parte :asd: ) che è meglio la gtx280
cmq come detto ormai manca pochissimo, aspetta :)
appleroof
15-06-2008, 12:45
Non disponibile.
E facile mettere prezzo a 500 €, 400 € o quello che e' senza avere uno straccio di disponibilita'.
Aspettiamo i prezzi veri sui negozio che avranno disponibilita' effettiva e non virtuale. :rolleyes:
ti darei ragione se ci fosse un prezzo tipo 300€ (tattica vecchia) ma quei prezzi mi sembrano verosimili e negli ultimi mesi all'uscita di nuove vga, abbiamo assistito 1000 volte a cose del genere, si chiama "preordine" sai? :D
per il resto, ti dispiacerebbe se non costasse + di 600 euri come vai pronosticando da giorni?
edit, hai completato dopo: si sà da tempo purtroppo (ovviamente non per te) che le gtx saranno immesse in pochi esemplari, al lancio (e quindi nelle prime settimane)
ormai aspetta domani, ma insomma è ormai chiaro (fanboy rossi a parte :asd: ) che è meglio la gtx280
cmq come detto ormai manca pochissimo, aspetta :)
Se i bench visti sino ad ora fossero confermati non vedo motivo per cui comperare una GTX280 piuttosto che una GX2....:confused:
Secondo me le prestazioni di queste schede sono ottime,non mi aspettavo un boost del 50% rispetto alle G80.Però i consumi sono davvero esagerati!!! :rolleyes:
goldorak
15-06-2008, 12:55
ti darei ragione se ci fosse un prezzo tipo 300€ (tattica vecchia) ma quei prezzi mi sembrano verosimili e negli ultimi mesi all'uscita di nuove vga, abbiamo assistito 1000 volte a cose del genere, si chiama "preordine" sai? :D
per il resto, ti dispiacerebbe se non costasse + di 600 euri come vai pronosticando da giorni?
edit, hai completato dopo: si sà da tempo purtroppo (ovviamente non per te) che le gtx saranno immesse in pochi esemplari, al lancio (e quindi nelle prime settimane)
Ma figurati, meglio che costi 500 € piuttosto che 650 €. :p
Anche se per ancora qualche settimana si troveranno GX2 a prezzi ancora piu' concorrenziali.
Chi si deve prendere una top di gamma Nvidia in queste settimane farebbe bene a pensare alla GX2 (che costa meno, va dippiu' e consuma meno sotto sforzo).
Insomma trovami una buona ragione per preferire la GTX280 alla GX2.
Secondo me le prestazioni di queste schede sono ottime,non mi aspettavo un boost del 50% rispetto alle G80.Però i consumi sono davvero esagerati!!! :rolleyes:
Meno di una GX2 certamente però:)
Per i consumi bisognerà aspettare i 55nm
goldorak
15-06-2008, 12:58
Se i bench visti sino ad ora fossero confermati non vedo motivo per cui comperare una GTX280 piuttosto che una GX2....:confused:
*
Se i bench visti sino ad ora fossero confermati non vedo motivo per cui comperare una GTX280 piuttosto che una GX2....:confused:
La GX2 cosuma di più e poi ha problemi di microstuttering
La GX2 cosuma di più e poi ha problemi di microstuttering
e costa....mhh....150 euro in meno :D
bluefrog
15-06-2008, 13:02
Ma figurati, meglio che costi 500 € piuttosto che 650 €. :p
Anche se per ancora qualche settimana si troveranno GX2 a prezzi ancora piu' concorrenziali.
Chi si deve prendere una top di gamma Nvidia in queste settimane farebbe bene a pensare alla GX2 (che costa meno, va dippiu' e consuma meno sotto sforzo).
Insomma trovami una buona ragione per preferire la GTX280 alla GX2.
Forse, e sottolineo forse, chi gioca ad altissime ris. a titoli dx10. Ma bisogna attendere i bench per una conferma. Se ad esempio Crysis (uno a caso :asd:) a 1920x1200 VH fa una decina di fps in più è senz'altro da preferire la GTX280.
e costa....mhh....150 euro in meno :D
E vabbè ma caleranno tutte grazie a mamma ATI:fagiano:
Anche la GTX260 sarà costretta a calare per star vicina alla HD4870 a 329$
Appena si sentirà mnacciata ATI abbasserà ancora e alla fine verranno regalate come le HD38xx
ormai aspetta domani, ma insomma è ormai chiaro (fanboy rossi a parte :asd: ) che è meglio la gtx280
cmq come detto ormai manca pochissimo, aspetta :)
Ora come ora (per quello visto in rete) e' chiaro (fanboy verdi a parte) che la gtx280 e' una mezza fregatura, considerati consumi e prezzo al quale arrivera', nonche' in ultima istanza prestazioni del tutto simili se non equivalenti alla gx2 che costa un 40% in meno, stando ai rpezzi annunciati.
Stech1987
15-06-2008, 13:11
ormai aspetta domani, ma insomma è ormai chiaro (fanboy rossi a parte :asd: ) che è meglio la gtx280
cmq come detto ormai manca pochissimo, aspetta :)
Non credo sia necessario essere fanboy ati per rendersi conto che questa scheda, allo stato attuale, costa di più, va mediamente uguale e scalda e consuma più di uno sli della vecchia generazione... Piuttosto credo bisogni essere fanboy nVidia per negarlo... Onestamente o sparano fuori i driver del miracolo (:sofico: ) con incrementi alla tarpone, oppure è una vga che non ha ragion d'essere. Il tutto IMHO, naturalmente...
La GX2 cosuma di più e poi ha problemi di microstuttering
nei test e' sembrato che in pieno carico la gx2 consumasse addirittura qualche watt in meno.
Quindi non spariamo fesserie.
Per sfruttare tutta questa potenza ci vogliono anche monitor di un bel pò di pollici.Qui tutti con 30" e più?:D
Ma la per la GTX 260 quando termina l'NDA?
ormai aspetta domani, ma insomma è ormai chiaro (fanboy rossi a parte :asd: ) che è meglio la gtx280
cmq come detto ormai manca pochissimo, aspetta :)
E ci mancherebbe pure che andasse di meno... :sofico:
E vabbè ma caleranno tutte grazie a mamma ATI:fagiano:
Anche la GTX260 sarà costretta a calare per star vicina alla HD4870 a 329$
Appena si sentirà mnacciata ATI abbasserà ancora e alla fine verranno regalate come le HD38xx
La GX2 sarà EOL. ;)
Kharonte85
15-06-2008, 13:17
sei stato citato in un articolo interessante :read: :
http://www.hardware-infos.com/news.php?news=2151
tradotto in inglese:
http://66.102.9.104/translate_c?hl=en&u=http://www.hardware-infos.com/news.php%3Fnews%3D2151
non ci credo.... :sbonk:
non ci posso credere... :rotfl: :rotfl: :rotfl:
Ecco come i siti creano le news...:asd:
Visti i risultati meglio affrettarsi a prendere la 9800gx2 prima che la ritirino :D
Scherzi a parte sulla carta ci si sarebbe aspettato molto ma molto di più... saranno forse i driver da migliorare? ...
non so se già postato: gtx280 sui 550 al lancio
http://www.trovaprezzi.it/categoria.aspx?id=28&libera=gtx280&prezzomin=-1&prezzomax=-1
edit: già postato in "aspettando"
l'ho vista a meno di 550€ naturalmente non ordinabile.....
se ti ricordi diversi giorni fà dissi che la gtx280 avrebbe avuto un prezzo simile al lancio della 7800gtx che è stato appunto intorno alle 550 euro..;)
Crysis90
15-06-2008, 13:29
"D10U = 65NM GT 200
D11U = 55NM GT 200 with some minor enhancements mid next year
D12U = Completely new architecture.
That's what I've heard around the web. Plus, the fact that Nvidia has already stated that the G92b (9800 series on 55nm) will be around for 6-12 months more so yea, no new high end very soon".
Cavolo se non fosse per Crysis e i suoi successivi episodi, aspetterei D12U per mandare in pensione la mia 8800GTX, sono curioso di sapere cosa intendono per "Completely new architecture"...
appleroof
15-06-2008, 13:29
Ma figurati, meglio che costi 500 € piuttosto che 650 €. :p
Anche se per ancora qualche settimana si troveranno GX2 a prezzi ancora piu' concorrenziali.
Chi si deve prendere una top di gamma Nvidia in queste settimane farebbe bene a pensare alla GX2 (che costa meno, va dippiu' e consuma meno sotto sforzo).
Insomma trovami una buona ragione per preferire la GTX280 alla GX2.
sli, visto che me ne chiedi solo una, ma ce ne sono altre volendo
a parte fondi di magazzino, la gx2 poi si troverà sull'usato (poi al singolo utente decidere quale gli risulta più conveniente)
l'ho vista a meno di 550€ naturalmente non ordinabile.....
se ti ricordi diversi giorni fà dissi che la gtx280 avrebbe avuto un prezzo simile al lancio della 7800gtx che è stato appunto intorno alle 550 euro..;)
si mi ricordo ;)
Crysis90
15-06-2008, 13:29
Mah...
Kharonte85
15-06-2008, 13:29
Quello sì, ma il salto "a la Tarpo's table", lo vedo difficile. Le architetture sono già mature, e al di là dei tweaks vari, non mi aspetto grossi incrementi prestazionali col tempo, nè per ATI, nè per NVidia. :)
Si ma sai anche tu che è ben diverso quando si parla di problema su un singolo gioco (come pare in questo caso, o magari si è palesato solo per quelli di vr-zone) ci si puo' aspettare di tutto, specie se si considerano le prestazioni di WIC è difficile credere che la gtx280 sara' < della gx2 con impostazioni di dettaglio VH...o almeno, mi pare + ragionevole pensarla cosi' (anche nel magazine da te postato, sebbene un po' strani, i maggiori incrementi si ritrovavano proprio in WIC e in Crysis)
appleroof
15-06-2008, 13:35
Ora come ora (per quello visto in rete) e' chiaro (fanboy verdi a parte) che la gtx280 e' una mezza fregatura, considerati consumi e prezzo al quale arrivera', nonche' in ultima istanza prestazioni del tutto simili se non equivalenti alla gx2 che costa un 40% in meno, stando ai rpezzi annunciati.
ecco, addirittura i citati (rossi) che premiano la gx2 (ma un mese fà non la definivate una scheda mostruos ed inutile? :confused: :asd: )
ti dico i punti di debolezza della gx2 rispetto a gtx280:
1) sli, i driver sapranno senz'altro sfruttare meglio gt200 nelle varie release, rispetto allo sli
2) 512mb di v-ram effettiva: il terreno di elezione di queste schede sono risoluzioni fullhd, dove la v-ram in più di gtx280 si fà sentire
3) tante piccole grandi migliorie a livello di sp e di gestione del chip rispetto a g80/g92
4) consumi in idle irrisori per una scheda di tale potenza 25W, cosa che gx2 non può dare
basta? io credo di si (e dimmi se ci trovi qualcosa di fanboistico o se sono considerazioni obiettive, dove voi non argomentate in nulla se non il prezzo)
Si ma sai anche tu che è ben diverso quando si parla di problema su un singolo gioco (come pare in questo caso, o magari si è palesato solo per quelli di vr-zone) ci si puo' aspettare di tutto, specie se si considerano le prestazioni di WIC è difficile credere che la gtx280 sara' < della gx2 con impostazioni di dettaglio VH...o almeno, mi pare + ragionevole pensarla cosi' (anche nel magazine da te postato, sebbene un po' strani, i maggiori incrementi si ritrovavano proprio in WIC e in Crysis)
Aggiungi Age of Conan :)
Kharonte85
15-06-2008, 13:43
ecco, addirittura i citati (rossi) che premiano la gx2 (ma un mese fà non la definivate una scheda mostruos ed inutile? :confused: :asd: )
infatti, mi pare che si cambi idea un po' troppo spesso...
ti dico i punti di debolezza della gx2 rispetto a gtx280:
1) sli, i driver sapranno senz'altro sfruttare meglio gt200 nelle varie release, rispetto allo sli
2) 512mb di v-ram effettiva: il terreno di elezione di queste schede sono risoluzioni fullhd, dove la v-ram in più di gtx280 si fà sentire
3) tante piccole grandi migliorie a livello di sp e di gestione del chip rispetto a g80/g92
4) consumi in idle irrisori per una scheda di tale potenza 25W, cosa che gx2 non può dare
basta? io credo di si (e dimmi se ci trovi qualcosa di fanboistico o se sono considerazioni obiettive, dove voi non argomentate in nulla se non il prezzo)
Non si puo' non essere d'accordo
ricordo che ai tempi dell'uscita della 8800gtx qualcuno difendeva e perorava la causa della 7950gx2 che nel frattempo si era deprezzata parecchio ma alla lunga si è visto chi aveva ragione e credo che la situazione di oggi sara' speculare, anche perche' il supporto per la gx2 cessera' fisiologicamente di essere costante e puntuale (cosa che fra l'altro non è mai stata per le dual gpu sia da una parte che dall'altra...:asd:)
Domani avremo le idee più chiare, si spera...
DavidM74
15-06-2008, 13:49
Forse, e sottolineo forse, chi gioca ad altissime ris. a titoli dx10. Ma bisogna attendere i bench per una conferma. Se ad esempio Crysis (uno a caso :asd:) a 1920x1200 VH fa una decina di fps in più è senz'altro da preferire la GTX280.
secondo me la GX2 andra meglio della GTX280 a 1680 da 1680 in su con una 280 si potranno avere credo anche 15 fps in piu con driver ottimizzati, ma cmq e tutto da vedere :D
bluefrog
15-06-2008, 13:53
Io devo stare calmino perchè stavo per preordinare la gtx 280 nonostante volessi prendere la gx2.... :rolleyes:
E se poi R700 che esce ad agosto la prende a mazzate la "tua" GTX280? :)
E ti ritrovi con 100€ in più nel portafoglio. :)
Ti consiglio di aspettare. ;)
fr4nc3sco
15-06-2008, 13:54
ecco, addirittura i citati (rossi) che premiano la gx2 (ma un mese fà non la definivate una scheda mostruos ed inutile? :confused: :asd: )
ti dico i punti di debolezza della gx2 rispetto a gtx280:
1) sli, i driver sapranno senz'altro sfruttare meglio gt200 nelle varie release, rispetto allo sli
2) 512mb di v-ram effettiva: il terreno di elezione di queste schede sono risoluzioni fullhd, dove la v-ram in più di gtx280 si fà sentire
3) tante piccole grandi migliorie a livello di sp e di gestione del chip rispetto a g80/g92
4) consumi in idle irrisori per una scheda di tale potenza 25W, cosa che gx2 non può dare
basta? io credo di si (e dimmi se ci trovi qualcosa di fanboistico o se sono considerazioni obiettive, dove voi non argomentate in nulla se non il prezzo)
5) La possibilità di gestire 2 MONITOR cosa che lo sli nn permette cosi da poter usare un monitor piu grande o tv HD semplicemente swiccando dai driver senza dover sempre cambiare cavo, risoluzione, ecc o dover disabilitare lo sli con ripercussioni sulle prestazioni
alex oceano
15-06-2008, 13:55
aspettimo quando ci saranno prove certe e benk ok!!! con i driver giusti e vedremo quanto andrà di più!!!
aspettare dobbiamo:read:
Stech1987
15-06-2008, 13:55
Non so: personalmente per quello che si è visto finora non si può obiettivamente parlare di scheda bomba come ci si aspettava.. D'accordo con chi invece sostiente che con un processo produttivo inferiore GTX2607GTX280 sarebbero molto preferibili a GX2... Ma ora come ora non mi convince per nulla...
http://www.hwupgrade.it/forum/showthread.php?t=1764477
CLOSED!!
>bYeZ<
Comunque ragazzi, definirla "Flop" è veramente eccessivo. La scheda costerà tanto "almeno all'inizio", consuma tanto, ma ricodiamoci che è la soluzione TOP di casa Nvidia!
Non è una scheda di massa, ma si rivolge esclusivamente all'utente che vuole ottenere il massimo dal suo Pc. Sicuramente questo utente, non bada a spese ne tantomeno quanto consuma!
E' una dimostrazione di forza su singola GPU da parte di Nvidia, con i suoi pro e contro.
Infatti questa singola GPU va in alcuni casi meglio della soluzione 9800GX2 che è una dual Gpu in SLI!
Porca miseria ragazzi, ma quanto parlate :asd:, mi son dovuto leggere più di 10 pagine dall'ultimo mio intervento (parlo del thread "aspettando"), comunque ormai ho venduto la GX2 e mi prenderò questa ammesso che non si scopra che è proprio una scheda schifosa.
I bench che per ora si vedono sono come al solito contrastanti ma in generale non mi sembrano delle prestazioni poi così ridicole.
Con la GX2 a Crysis ci giocavo abbastanza bene ma, c'è un ma, in alcuni punti inspiegabilmente andava a scatti e magari non c'era nessun nemico e la scena da renderizzare non era poi così complessa, anzi (sicuramente sono problemi dovuti allo SLI), questo su XP con i fix.
Su vista tutti sappiamo che Crysis (e più o meno tutti i giochi) soffre di cali di performances, a me succedeva una cosa strana, caricavo un livello a caso, e mi andava fluidissimo il gioco, davvero bene, caricavo successivamente altri livelli (per fare un po' di prove) e il gioco cominciava ad andare sempre più lento, poi magari ricaricavo il livello che avevo caricato all'inizio e mi andava a scatti in modo pauroso (anche questo sicuramente dovuto allo SLI) e vi assicuro che era ingiocabile, con la 8800 GTX invece avevo prestazioni inferiori in media ma nessuno di questi problemi.
Perciò per concludere sono contento di aver provato la GX2 e sono convinto che la GTX 280 non avrà di questi problemi proprio perchè GPU singola e che con le successive revisioni di driver migliorerà comunque.
Infine sono contento anche per ATI perchè sembra che sforni anche lei delle ottime schede.
Per concludere Crysis è comunque troppo pesante e sarebbe anche l'ora di lasciarlo perdere, il secondo episodio sicuramente sarà migliore come prestazioni, avranno imparato dall'esperienza fatta con il primo.
In breve sono fiducioso. ;)
Comunque ragazzi, definirla "Flop" è veramente eccessivo. La scheda costerà tanto "almeno all'inizio", consuma tanto, ma ricodiamoci che è la soluzione TOP di casa Nvidia!
Non è una scheda di massa, ma si rivolge esclusivamente all'utente che vuole ottenere il massimo dal suo Pc. Sicuramente questo utente, non bada a spese ne tantomeno quanto consuma!
E' una dimostrazione di forza su singola GPU da parte di Nvidia, con i suoi pro e contro.
Infatti questa singola GPU va in alcuni casi meglio della soluzione 9800GX2 che è una dual Gpu in SLI!
In realtà sono le prestazioni ad essere meno stupefacenti delle aspettative... è per questo che c'è chi critica la scheda.
nico88desmo
15-06-2008, 14:17
Iscritto :)
edit:
P.S.= che tristezza vedere i soliti flames di okorop e la gente che con millemila post ancora non sa che per iscriversi alla discussione si può evitare di inondare il thread con 100 post con scritto solo "iscritto".
ops.
Attendo con un certo interesse le prestazioni di questa scheda.
Eccomi qui... vediamo un pò cosa diranno i bench ufficiali domani.
A questo punto inutile parlare ancora di rumors & co. ;)
Ho visto la XFX nella pag. precedente... stupenda esteticamente!! :eek:
P.S.= che tristezza vedere i soliti flames di okorop e la gente che con millemila post ancora non sa che per iscriversi alla discussione si può evitare di inondare il thread con 100 post con scritto solo "iscritto". :rolleyes:
eccolo il john!;)
In realtà sono le prestazioni ad essere meno stupefacenti delle aspettative... è per questo che c'è chi critica la scheda.
Ho capito ragazzi, ma le aspettative a volte vengono create solo per far parlare di se!.....a volte non importa parlare bene o male di una cosa, l'importante è parlarne!:)
SSLazio83
15-06-2008, 14:19
Mi aspettavo molto ma molto di più da questa scheda ..
;)
già,la solita minestra riscaldata con l'aggiunta di un pò di spezie in +:rolleyes:
Enochian
15-06-2008, 14:28
Per sfruttare tutta questa potenza ci vogliono anche monitor di un bel pò di pollici.Qui tutti con 30" e più?:D
Ho uno stupendo 24'' e ti assicuro che per farlo andare a 19x12 mi serve una bella schedona.
Stech1987
15-06-2008, 14:29
Iscritto (anche se per ora non mi interessa cambiare VGA:D )
Per ora sono rimasto piuttosto deluso da quanto visto nei vari bench, anche se ad onor del vero si tratta di bench non ufficiali, che potrebbero essere fatti alla tarpone per quanto ne sappiamo (:sofico: ), cmq se il massimo che questa scheda riesce a tirare fuori è questo, a parte chi gioca in fullhd che quindi ha bisogno di più gddr e bus maggiore, secondo me è ancora preferibile la 9800GX2.
Lietissimo se i bench di domani mi smentiranno:D
DavidM74
15-06-2008, 14:29
Porca miseria ragazzi, ma quanto parlate :asd:, mi son dovuto leggere più di 10 pagine dall'ultimo mio intervento (parlo del thread "aspettando"), comunque ormai ho venduto la GX2 e mi prenderò questa ammesso che non si scopra che è proprio una scheda schifosa.
I bench che per ora si vedono sono come al solito contrastanti ma in generale non mi sembrano delle prestazioni poi così ridicole.
Con la GX2 a Crysis ci giocavo abbastanza bene ma, c'è un ma, in alcuni punti inspiegabilmente andava a scatti e magari non c'era nessun nemico e la scena da renderizzare non era poi così complessa, anzi (sicuramente sono problemi dovuti allo SLI), questo su XP con i fix.
Su vista tutti sappiamo che Crysis (e più o meno tutti i giochi) soffre di cali di performances, a me succedeva una cosa strana, caricavo un livello a caso, e mi andava fluidissimo il gioco, davvero bene, caricavo successivamente altri livelli (per fare un po' di prove) e il gioco cominciava ad andare sempre più lento, poi magari ricaricavo il livello che avevo caricato all'inizio e mi andava a scatti in modo pauroso (anche questo sicuramente dovuto allo SLI) e vi assicuro che era ingiocabile, con la 8800 GTX invece avevo prestazioni inferiori in media ma nessuno di questi problemi.
Perciò per concludere sono contento di aver provato la GX2 e sono convinto che la GTX 280 non avrà di questi problemi proprio perchè GPU singola e che con le successive revisioni di driver migliorerà comunque.
Infine sono contento anche per ATI perchè sembra che sforni anche lei delle ottime schede.
Per concludere Crysis è comunque troppo pesante e sarebbe anche l'ora di lasciarlo perdere, il secondo episodio sicuramente sarà migliore come prestazioni, avranno imparato dall'esperienza fatta con il primo.
In breve sono fiducioso. ;)
sinceramente? ho finito crysis 2 volte da quando ho la GX2 e non ho mai rilevato scatti caricando il livelli, andava liscio come l'olio dall'inizio alla fine. il fatto che dici, certo, la 280 e una single da paura senz'altro, ma riguardo a problemi di SLI mi sento di dire che non ne ho mai riscontrati.
@ Hal
Non x essere scortese con te, ma visto che l’ultimamente i 3D ufficiali delle vga Nvidia apri esclusivamente te e poi non curi mai la prima pagina, magari in futuro lo fai fare a qualcun altro.., magari partendo dalla gtx260
Thx..
Originariamente inviato da Kharonte85
ricordo che ai tempi dell'uscita della 8800gtx qualcuno difendeva e perorava la causa della 7950gx2 che nel frattempo si era deprezzata parecchio ma alla lunga si è visto chi aveva ragione e credo che la situazione di oggi sara' speculare, anche perche' il supporto per la gx2 cessera' fisiologicamente di essere costante e puntuale (cosa che fra l'altro non è mai stata per le dual gpu sia da una parte che dall'altra...)
La situazione è ben diversa, invece. Perchè ci stava che G80 dovesse essere supportato sempre meglio, essendo un'architettura completamente diversa dalla precedente. Invece G80->G200 è sempre la stessa architettura di fondo, non è certo un passaggio epocale (fix e tweaks vari, riorganizzazione delle unità).
Detto questo, la GX2 non sarà più in vendita, quindi il paragone non regge a prescindere.
E comunque, se anche GTX280 e GX2 andassero esattamente uguali, preferirei la single card comunque.
IMHO comunque il nodo non sono le prestazioni della GTX280, bensì quelle della GTX260, visto che i volumi di una scheda del genere dovrebbero essere molto più alti. Se il distacco vs la HD4870 sarà basso rispetto alla differenza di prezzo, mi sa che ne venderanno pochine.
DavidM74
15-06-2008, 14:36
Eccomi qui... vediamo un pò cosa diranno i bench ufficiali domani.
We bellissimo! :D
si attendiamo sti bench tanto c'e stà poco da sapè ormai :D :Prrr:
Enochian
15-06-2008, 14:37
Soprattutto si dovrà vedere come andranno le hd4870, perchè se un crossfire di queste dovesse andare meglio di una gtx280 ma costare meno allora...
Stech1987
15-06-2008, 14:40
Soprattutto si dovrà vedere come andranno le hd4870, perchè se un crossfire di queste dovesse andare meglio di una gtx280 ma costare meno allora...
Quoto, ma vorrei anche vedere i consumi delle ATI, che fino a prova contraria di solito non sono bassissimi..
Quoto, ma vorrei anche vedere i consumi delle ATI, che fino a prova contraria di solito non sono bassissimi..
150-160W di TDP per la HD4870, e forse <10W in idle. Fonte slides AMD. :)
Curioso di vedere come va VERAMENTE questa scheda:)
DavidM74
15-06-2008, 14:47
riguardo alle prestazioni cmq e prematuro trarre deduzioni ogni chip ha il suo processo evolutivo, di sicuro non mi vendero ancora la GX2 per me va piu che bene, magari ci pensero alla prossima revision
goldorak
15-06-2008, 14:48
150-160W di TDP per la HD4870, e forse <10W in idle. Fonte slides AMD. :)
Meno di 10W in idle e' veramente impressionante. Tantopiu' che questa funzione di risparmio energetico funzionera' indipendetemente dalla scheda madre. :Perfido:
Sapete di cosa ho paura?
Che non riescano più a dare quella svolta epocale tra la serie 5 e la serie 6 e la serie 7 e la 8:(
E se stessimo arrivando ad un punto oltre il quale non si può andare avanti con le prestazioni?
Sapete di cosa ho paura?
Che non riescano più a dare quella svolta epocale tra la serie 5 e la serie 6 e la serie 7 e la 8:(
E se stessimo arrivando ad un punto oltre il quale non si può andare avanti con le prestazioni?
Allora come in Matrix.., un bel reloaded e via :D
http://www.pctunerup.com/up/results/_200806/20080615095030_xfx_geforce_gtx_280_itocp.jpg
la comprerei solo x il dissipatore
Sapete di cosa ho paura?
Che non riescano più a dare quella svolta epocale tra la serie 5 e la serie 6 e la serie 7 e la 8:(
E se stessimo arrivando ad un punto oltre il quale non si può andare avanti con le prestazioni?
basta mettere 16 vga in parallelo:D
scherzo
comunque nn credo che possa succedere
almeno fino a quando nn raggiungiamo la potenza del computer della nasa in un palmare:ciapet:
Sapete di cosa ho paura?
Che non riescano più a dare quella svolta epocale tra la serie 5 e la serie 6 e la serie 7 e la 8:(
E se stessimo arrivando ad un punto oltre il quale non si può andare avanti con le prestazioni?
Magari se Nvidia avesse implementato le DX10.1 sulle sue nuove GTX260/280....qualcosa in più in prestazioni si sarebbe potuto guadagnare.....vedi Assassin's Creed.....o quantomeno si sarebbe stimolato maggiormente il mercato dei giochi, in quanto "magari" le case produttrici avrebbero rilasciato giochi con l'implementazione delle nuove librerie di Microsoft....la mia è una provocazione!:D
Kharonte85
15-06-2008, 14:58
Io aspetto domani prima di proferire giudizio...
goldorak
15-06-2008, 14:59
Sapete di cosa ho paura?
Che non riescano più a dare quella svolta epocale tra la serie 5 e la serie 6 e la serie 7 e la 8:(
E se stessimo arrivando ad un punto oltre il quale non si può andare avanti con le prestazioni?
No secondo me la spiegazione e' piu' semplice, le consoles.
La stessa Nvidia ha riconosciuto pubblicamente che ormai i giochi nativi per pc (almeno quelli della fascia ex hardcore gamer) sono sviluppati prima su console e poi "aggiustati" per pc. Di fatto questi giochi non richiedono piu' il non plus ultra del hardware pc che e' sempre in continua evoluzione.
Si basano su un hardware che e' ormai obsoleto per gli standard pc, basta guardare i giochi della Capcom (LP escluso) come girano al massimo dettaglio su configurazioni pc modeste. Il vero salto prestazionale lo vedremo con la prossima generazione di console (che secondo me corrispondera' alle dx 11/larrabee). Ma fino ad allora ci ritroveremo con G80 e R600 in tutte le salse.
Sapete di cosa ho paura?
Che non riescano più a dare quella svolta epocale tra la serie 5 e la serie 6 e la serie 7 e la 8:(
E se stessimo arrivando ad un punto oltre il quale non si può andare avanti con le prestazioni?
no questo credo di no... secondo me ci vanno piano... purtroppo per un unico motivo validissimo... il dio denaro.
io la vedo cosi : se facessero una scheda ultra potente che durasse 2 anni come la 8800 gtx a parte la fase iniziale poi col tempo ci guadagnerebbero molto di meno. meglio fare passi piu piccoli alla volta, magari spingendo a comprarne piu di una, anche in merito allo sli, spingono cosi sia schede sia schede madri con chip nvidia. in questo modo riescono a buttar piu soldi nelle casse. tantopiu se hanno poca concorrenza, in questo gioca un ruolo importante ati/amd. se la risposta di ati sara' convincente ad agosto o quando sara' allora magari abbasseranno un po i prezzi, potenzieranno ulteriormente le schede in futuro come facevano tempo fa.
tutto qui. è per questo che spero a questo punto che amd la butti nel mercato grossa. ma grossa davvero.
basta mettere 16 vga in parallelo:D
scherzo
comunque nn credo che possa succedere
almeno fino a quando nn raggiungiamo la potenza del computer della nasa in un palmare:ciapet:
Non mi dire :eek: tipo Crysis tutto al max ke gira sul mio futuro telefonino @ 100fps :asd:
goldorak
15-06-2008, 15:03
Questo è tutto da vedere... gli slide AMD sono poco attendibili.
E la stessa attendibilita' che riscontri nelle slide ufficiali Nvidia. :ciapet:
No secondo me la spiegazione e' piu' semplice, le consoles.
La stessa Nvidia ha riconosciuto pubblicamente che ormai i giochi nativi per pc (almeno quelli della fascia ex hardcore gamer) sono sviluppati prima su console e poi "aggiustati" per pc. Di fatto questi giochi non richiedono piu' il non plus ultra del hardware pc che e' sempre in continua evoluzione.
Si basano su un hardware che e' ormai obsoleto per gli standard pc, basta guardare i giochi della Capcom (LP escluso) come girano al massimo dettaglio su configurazioni pc modeste. Il vero salto prestazionale lo vedremo con la prossima generazione di console (che secondo me corrispondera' alle dx 11/larrabee). Ma fino ad allora ci ritroveremo con G80 e R600 in tutte le salse.
E quello ke farro io..
Una console della nuova generazione e basta le pipe mentali :D
Kharonte85
15-06-2008, 15:04
La situazione è ben diversa, invece. Perchè ci stava che G80 dovesse essere supportato sempre meglio, essendo un'architettura completamente diversa dalla precedente. Invece G80->G200 è sempre la stessa architettura di fondo, non è certo un passaggio epocale (fix e tweaks vari, riorganizzazione delle unità).
Questo è vero ma io mi riferisco proprio ai giochi su cui pare andare meglio...sono convinto che alla lunga come fu per la gtx e gx2 la differenza aumentera' anziche' diminuire...
Detto questo, la GX2 non sarà più in vendita, quindi il paragone non regge a prescindere.
Meglio...:asd:
E comunque, se anche GTX280 e GX2 andassero esattamente uguali, preferirei la single card comunque.
Senza dubbio
IMHO comunque il nodo non sono le prestazioni della GTX280, bensì quelle della GTX260, visto che i volumi di una scheda del genere dovrebbero essere molto più alti. Se il distacco vs la HD4870 sarà basso rispetto alla differenza di prezzo, mi sa che ne venderanno pochine.
Si' è il punto focale, ma credo che quella scheda fara' bene...il tutto si inserisce nello scenario che descrissi un po' di tempo fa...i rapporti fra le schede sono definiti solo che sarebbero stati livellati tutti verso il basso, cosa che in effetti sembra verificarsi...
DavidM74
15-06-2008, 15:06
Sapete di cosa ho paura?
Che non riescano più a dare quella svolta epocale tra la serie 5 e la serie 6 e la serie 7 e la 8:(
E se stessimo arrivando ad un punto oltre il quale non si può andare avanti con le prestazioni?
in un cero senso credo sia vero ma il limite e quello delle CPU piu che altro.
Queste super schede partendo dalla serie 8, hanno una capacita elaborativa mostruosa ma purtroppo non esistono ancora CPU in grado di sfruttarle,una GX2 per esempio manco con un QX9775 a 6 Ghz la sfrutti al 100%
Io aspetto domani prima di proferire giudizio...
idem ;)
Ci credete?:sofico:
http://www.techpowerup.org/uploaded.php?file=080615/9800GTX_174_vs_177.jpg
sinceramente? ho finito crysis 2 volte da quando ho la GX2 e non ho mai rilevato scatti caricando il livelli, andava liscio come l'olio dall'inizio alla fine. il fatto che dici, certo, la 280 e una single da paura senz'altro, ma riguardo a problemi di SLI mi sento di dire che non ne ho mai riscontrati.
Beh buon per te allora, dipende anche dalla Motherboard forse, comunque l'hai giocato su Vista o XP? E a che dettagli?
OT
beh vendimi la WS quando lo farai
/OT :D :sofico:
ti piacerebbe :Perfido: ho sudato troppo x svenderlo :fuck:
Lo attacco al mulo e via :D
DavidM74
15-06-2008, 15:18
Beh buon per te allora, dipende anche dalla Motherboard forse, comunque l'hai giocato su Vista o XP? E a che dettagli?
su Vista 64 Very High 1680x1050 senza filtri ovviamente , ma ti ripeto cali solo nell'ultimo livello quando sei sulla nave per il resto nessun problema.
perche tu che MB hai?
Inscritto anche io!
Non vedo l' ora delle rece ufficiali di domani :O
:sperem:
Si, ma non tutti hanno mainboard e alimentatori adatti a sfruttare il cf... non tutti hanno una X38-X48. :rolleyes:
Certo, ma sicuramente molti più di quelli che hanno una scheda SLI (dato che volendo il CF lo fai pure su una P35). ;)
Questo è tutto da vedere... gli slide AMD sono poco attendibili.
Beh, i precedenti sono a favore di ATI almeno quanto a consumi.
E la stessa attendibilita' che riscontri nelle slide ufficiali Nvidia. :ciapet:
Infatti. ;)
Questo è vero ma io mi riferisco proprio ai giochi su cui pare andare meglio...sono convinto che alla lunga come fu per la gtx e gx2 la differenza aumentera' anziche' diminuire...
Questo lo penso anch'io, ma aspettarsi gli stessi incrementi di G80 vs G70 mi pare un po' troppo ottimistico, per i motivi di cui sopra. :)
fr4nc3sco
15-06-2008, 15:31
mi iscrivo attendendo domani :D
iscritto, la prenderò quasi sicuramente, o al max prenderò la sorella maggiore a 55nm :D
Stech1987
15-06-2008, 15:35
No secondo me la spiegazione e' piu' semplice, le consoles.
La stessa Nvidia ha riconosciuto pubblicamente che ormai i giochi nativi per pc (almeno quelli della fascia ex hardcore gamer) sono sviluppati prima su console e poi "aggiustati" per pc. Di fatto questi giochi non richiedono piu' il non plus ultra del hardware pc che e' sempre in continua evoluzione.
Si basano su un hardware che e' ormai obsoleto per gli standard pc, basta guardare i giochi della Capcom (LP escluso) come girano al massimo dettaglio su configurazioni pc modeste. Il vero salto prestazionale lo vedremo con la prossima generazione di console (che secondo me corrispondera' alle dx 11/larrabee). Ma fino ad allora ci ritroveremo con G80 e R600 in tutte le salse.
Purtroppo, lo credo anche io...:muro: :muro: :muro:
550€ per una scheda che fra 6 mesi è già vecchia non se ne po' più... :doh:
in 2 settimane vedrai che starà sotto i 500
si ok ma la cosa che non mi và giù è un altra cioè esempio quando mi comprai la 8800ultra un anno fà era la più potente ma poi vedere che non riesco a far girare cod4 a 1920*1080 a 60fps... pero' lo vedo girare su xbox360 a quella risoluzione e fluido sempre a 60fps mi fà pensare... anche perchè parliamo di 700€ appena uscita contro 300€...e non vorrei trovarmi con una gtx280 da 550€ poi magari esce una "xbox460" a 400€ che mi fà girare tutto al max a 2560*1600 e io invece con il mio pc mi devo accontetare di un porting fatto male con i piedi e giocare a 1440*900 per avere 60fps fissi... :doh:
non riesco a far girare cod4 a 1920*1080 a 60fps... pero' lo vedo girare su xbox360 a quella risoluzione e fluido sempre a 60fps mi fà pensare...
Ma che ti eri fumato x vedere cod4 su console a 1080p, dimmelo xche deve essere buono :D
Cod4 su console non arriva neanche ad HDReady(720p) ma a 640p o poco +
Quello che tu hai visto è un upscaling e non centra una mazza con la risoluzione effettiva con cui gira il gioco
paolox86
15-06-2008, 16:34
550€ per una scheda che fra 6 mesi è già vecchia non se ne po' più... :doh:
Tranquillo non dovrebbe reggere per molto questo prezzo.. Visto che a questo giro le Radeon sembrerebbero essere super competitive per quanto riguarda il rapporto prezzo/prestazioni, il prezzo dovrà per forza di cose subire un ribasso già nei periodi iniziali... Almeno lo spero.:D
Si, lo fai su P35... ma con che bande? 16x su uno slot e 8x sull'altro? Oppure 8x + 8x? :stordita:
Già con le 8800gts 640\2900xt avere uno slot che non andava a 16x significava castrare un bel pò la vga... ;)
Consumi a favore di ati... spè: a che vga ti riferisci? Ad una 2900xt non credo proprio... :sbonk: Mentre tra vga di stessa fascia... come ad es. 9600gt e hd3870 le rilevazioni di hwu mostrano un consumo inferiore per la 9600gt rispetto sia alla 3870 che alla 3850oc.
http://www.hwupgrade.it/articoli/skvideo/1906/power.png
Forse dicendo consumi a favore di Ati lo intendevi nel senso che consumano di più?! :boh:
P35 ha un canale a 16 e l'altro a 4
Credo
Ho uno stupendo 24'' e ti assicuro che per farlo andare a 19x12 mi serve una bella schedona.
Ma infatti non era una critica ai possessori di monitor da tanti pollici...E poi certe cose non posso capirle visto che vado avanti con un 17"!
Sono uno che si accontenta di poco...:Prrr:
Si, lo fai su P35... ma con che bande? 16x su uno slot e 8x sull'altro? Oppure 8x + 8x? :stordita:
Infatti ho scritto "volendo". Ossia anche a 8x + 8x volendo il CF si può fare. Lo SLI no, c'è poco da dire.
Consumi a favore di ati... spè: a che vga ti riferisci? Ad una 2900xt non credo proprio... :sbonk: Mentre tra vga di stessa fascia... come ad es. 9600gt e hd3870 le rilevazioni di hwu mostrano un consumo inferiore per la 9600gt rispetto sia alla 3870 che alla 3850.
http://www.hwupgrade.it/articoli/skvideo/1906/power.png
Forse dicendo consumi a favore di Ati lo intendevi nel senso che consumano di più?! :boh:
E l'idle della HD3850 non lo guardi? :asd:
Tra l'altro il consumo varia molto da recensione a recensione, e da cosa intendi per idle e full: e moltissime rece mostrano che invece RV670, sia Pro che XT, consuma, soprattutto in idle, meno di tutte le schede della stessa fascia. ;)
http://www.bit-tech.net/hardware/2008/02/21/g94_nvidia_geforce_9600_gt_graphics_card/13
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/24/#abschnitt_leistungsaufnahme
http://www.firingsquad.com/hardware/nvidia_geforce_9600_gt_performance/page15.asp
ecc, ecc...
Il PowerPlay è un sistema di risparmio energetico migliore rispetto a quello NVidia attuale, dato che varia pure i voltaggi, oltre ai clocks.
Detto questo, le info lette finora dicono questo: ossia TDP 150-160W per la HD4870 e 110W per la HD4850 e <10W in idle.
Se non ci credi, libero di non farlo. :)
E l'idle della HD3850 non lo guardi? :asd:
Tra l'altro il consumo varia molto da recensione a recensione, e da cosa intendi per idle e full: e moltissime rece mostrano che invece RV670, sia Pro che XT, consuma, soprattutto in idle, meno di tutte le schede della stessa fascia. ;)
http://www.bit-tech.net/hardware/2008/02/21/g94_nvidia_geforce_9600_gt_graphics_card/13
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/24/#abschnitt_leistungsaufnahme
http://www.firingsquad.com/hardware/nvidia_geforce_9600_gt_performance/page15.asp
ecc, ecc...
Il PowerPlay è un sistema di risparmio energetico migliore rispetto a quello NVidia attuale, dato che varia pure i voltaggi, oltre ai clocks.
Detto questo, le info lette finora dicono questo: ossia TDP 150-160W per la HD4870 e 110W per la HD4850 e <10W in idle.
Se non ci credi, libero di non farlo. :)
si in idle grazie al sistema di riparmio energetico effettivamente le gpu ATi consumano decisamente meno,sia per la fascia media che alta:
http://www.xbitlabs.com/articles/video/display/gigabyte-radeonhd3870-3850_5.html#sect0
http://www.xbitlabs.com/articles/video/display/geforce9800gtx_7.html#sect0
pronto per gustarmi i bench !:D
Athlon 64 3000+
15-06-2008, 17:03
anche io per dare un giudizio aspetto le recensioni di domani
si in idle grazie al sistema di riparmio energetico effettivamente le gpu ATi consumano decisamente meno,sia per la fascia media che alta:
http://www.xbitlabs.com/articles/video/display/gigabyte-radeonhd3870-3850_5.html#sect0
http://www.xbitlabs.com/articles/video/display/geforce9800gtx_7.html#sect0
Infatti. ;)
EVGA GTX280.
http://i5.ebayimg.com/03/i/000/f7/2f/f828_1.JPG
EDIT: The Inquirer posta altri bench (ovviamente penso siano abbastanza biased, però offrono la panoramica più ampia vista finora, credo).
http://images.vnu.net/gb/inquirer/news/2008/06/14/complete-gtx280-scores-here/nv_280_scores_1.jpg
http://www.theinquirer.net/gb/inquirer/news/2008/06/14/complete-gtx280-scores-here
River Phoenix
15-06-2008, 17:06
Infatti ho scritto "volendo". Ossia anche a 8x + 8x volendo il CF si può fare. Lo SLI no, c'è poco da dire.
E l'idle della HD3850 non lo guardi? :asd:
Tra l'altro il consumo varia molto da recensione a recensione, e da cosa intendi per idle e full: e moltissime rece mostrano che invece RV670, sia Pro che XT, consuma, soprattutto in idle, meno di tutte le schede della stessa fascia. ;)
http://www.bit-tech.net/hardware/2008/02/21/g94_nvidia_geforce_9600_gt_graphics_card/13
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/24/#abschnitt_leistungsaufnahme
http://www.firingsquad.com/hardware/nvidia_geforce_9600_gt_performance/page15.asp
ecc, ecc...
Il PowerPlay è un sistema di risparmio energetico migliore rispetto a quello NVidia attuale, dato che varia pure i voltaggi, oltre ai clocks.
Detto questo, le info lette finora dicono questo: ossia TDP 150-160W per la HD4870 e 110W per la HD4850 e <10W in idle.
Se non ci credi, libero di non farlo. :)
Quoto, le 3870-3850 lo sanno anche i sassi che consumano meno delle equivalenti nvidia ;)
L'8x è stato dimostrato che non castra in maniera evidente le prestazioni su queste schede, basta usare un pò google ;)
Iscritto :O
Vediamo come rulla sta scheda
Posto questo, magari interessa a qualcuno:
http://www.sweclockers.com/forum/showthread.php?s=&threadid=781143:clap::clap:
come sempre sperando non sia old, visto che scrivete 20 pagine al minuto :D
Perchè lo SLI non può farsi a 16x+8x o 8x+8x?! :mbe:
No, perchè lo puoi fare su schede con chipset NVidia, ecco quale era il mio punto. ;)
River Phoenix
15-06-2008, 17:18
Ho avuto la 3870x2 e mai un problema di powerplay....funzionato sempre perfettamente :eek:
appleroof
15-06-2008, 17:20
Ho avuto la 3870x2 e mai un problema di powerplay....funzionato sempre perfettamente :eek:
peccato per tutto il resto :Perfido: :ciapet:
peccato per tutto il resto :Perfido: :ciapet:
:D
River Phoenix
15-06-2008, 17:25
peccato per tutto il resto :Perfido: :ciapet:
Quale resto si più preciso,che problemi hai riscontrato? :cool:
peccato per tutto il resto :Perfido: :ciapet:
E per favore che poi scateni flame inutili...
Mi iscrivo; son curioso di vedere domani alle 15 cosa succederà, ma ancora di più son curioso di vedere cosa succederà quando finalmente le due nuove schede ati e nvidia saranno paragonate.
Al momento, per quanto la 280gtx potrà essere un mostro, finchè non avrà un rafronto diretto di rapporto di qualità e prezzo si può soltanto valutare sommariamente il risultato di nvidia.
Enochian
15-06-2008, 17:35
Interessanti i benchmark di inquirer, ma non si capisce bene:
1 - Se è in H o VH
2 - Perchè mai fanno i test con AA e IA ma non li fanno senza AA e IA, sarebbe un dato di comparazione interessante per molti sapere quanto fa a 1900*1200 no AA-IA
3 - Se il valore in frames per second è il min, max o med
E il cf lo puoi fare solo su chipset intel... quindi?!
Onestamente non capisco... :p
Peccato che i chipset Intel e AMD sommati vendano qualcosa come credo il triplo o il quadruplo i chipset NVidia. :)
su Vista 64 Very High 1680x1050 senza filtri ovviamente , ma ti ripeto cali solo nell'ultimo livello quando sei sulla nave per il resto nessun problema.
perche tu che MB hai?
Io ho un chipset Intel X38, per la precisione ho una GA-X38-DQ6.
River Phoenix
15-06-2008, 17:50
E il cf lo puoi fare solo su chipset intel... quindi?!
Onestamente non capisco... :p
Intanto se leggevi attentamente il mio post avresti messo a fuoco un punto molto interessante.
Per il discorso 8x vs 16x... certo fino alle vga di generazione precedenti quali 7900gtx e x1900xtx questo poteva essere vero, ma già con 8800gts 640 le cose sono cambiate... ci sono molti giochi in cui la differenza di banda si nota anche nell'ordine del 50% ca. di performance in meno tra uno slot 4x e uno 16x... e nell'ordine del 15% ca. tra 8x e 16x. Come detto da te, basta documentarsi un pò. :D
Beh... semplice fortuna, ma non puoi negare che i problemi ci siano stati eccome... altrimenti xkè in giro si troverebbero bios con fix per il powerplay da flashare sulle vga che danno problemi? :p
Per l'ultimo commento evito di commentare in quanto evidentemente di parte.
Tutti i miei amici che hanno avuto 3870x2 non hanno dovuto ricorrere a flash di bios vari....fortuna....accidenti abbiamo vinto all'enalotto senza saperlo :doh: :doh:
Si potrebbero controbattere le magagne di 790i ma poi passerei per fanboy quale io non sono. :cool:
Foglia Morta
15-06-2008, 17:50
Scusa A.L.M. ma dato che sembra una rece completa posto i test di TheInq al completo:
http://images.vnu.net/gb/inquirer/news/2008/06/14/complete-gtx280-scores-here/nv_280_scores_1.jpg
http://images.vnu.net/gb/inquirer/news/2008/06/14/complete-gtx280-scores-here/nv_280_scores_2.jpg
http://images.vnu.net/gb/inquirer/news/2008/06/14/complete-gtx280-scores-here/nv_280_scores_3.jpg
http://images.vnu.net/gb/inquirer/news/2008/06/14/complete-gtx280-scores-here/nv_280_scores_4.jpg
Crysis90
15-06-2008, 18:01
Cavolo vedendo i risultati di The Inquerer non mi sembra che questo GT200 sia 2 volte più veloce di G92 (9800GTX) come si diceva sulla carta eppure c'è il doppio di Stream Processors...questo fatto mi ricorda un certo R600, che sulla carta doveva battere chiunque, poi invece era un catorcio...speriamo che sia solo un fatto di drivers...ma Hardware Upgrade con quali drivers la farà la rece?? Perchè se la fa coi 177.26 o 177.34 i risultati saranno gli stessi di The Inquerer...
DavidM74
15-06-2008, 18:04
Io ho un chipset Intel X38, per la precisione ho una GA-X38-DQ6.
quindi forse e come dici tu io avendo un 590 SLI vado pochetto meglio :)
gianni1879
15-06-2008, 18:16
vedendo i test di inquirer direi che non proprio il max, anche se i distacchi maggiori si hanno ad alte risoluzioni + filtri, ovviamente un giga di ram non fa da collo di bottiglia, come sulla 9800gtx più che altro il motivo è questo
iscritto voglio vedere quanto caleranno i prezzi delle schede video nvidia cosi da poter fare uno SLI
quindi forse e come dici tu io avendo un 590 SLI vado pochetto meglio :)
Può darsi, altrimenti non me lo spiego il perchè, la scheda di sicuro non era guasta ne sotto-alimentata.
Stech1987
15-06-2008, 18:18
Sì ok, i risultati di The Inquirer sembrano buoni, ma non dimentichiamo che 9800gtx, nonostante il suffisso, NON È il top di gamma nVidia... A parte casi limite, dovuti a mio parere esclusivamente alla maggior memoria ed ampiezza di bus, il valore è mediamente del 70% superiore di una scheda di fascia media della generazione precedente... onestamente non mi pare poi così eclatante..
Cavolo vedendo i risultati di The Inquerer non mi sembra che questo GT200 sia 2 volte più veloce di G92 (9800GTX) come si diceva sulla carta eppure c'è il doppio di Stream Processors...questo fatto mi ricorda un certo R600, che sulla carta doveva battere chiunque, poi invece era un catorcio...speriamo che sia solo un fatto di drivers...ma Hardware Upgrade con quali drivers la farà la rece?? Perchè se la fa coi 177.26 o 177.34 i risultati saranno gli stessi di The Inquerer...
Ma a questo punto non so che pensare (anche se la 9800 GTX è OC), tanto prima avevo la GX2 e ora prendo questa, anche se è uguale almeno non è multigpu.
Stech1987
15-06-2008, 18:19
Ma a questo punto non so che pensare, tanto prima avevo la GX2 e ora prendo questa, anche se è uguale almeno non è multigpu.
E nonostante questo consuma di più:read:
Cavolo vedendo i risultati di The Inquerer non mi sembra che questo GT200 sia 2 volte più veloce di G92 (9800GTX) come si diceva sulla carta eppure c'è il doppio di Stream Processors...questo fatto mi ricorda un certo R600, che sulla carta doveva battere chiunque, poi invece era un catorcio...speriamo che sia solo un fatto di drivers...ma Hardware Upgrade con quali drivers la farà la rece?? Perchè se la fa coi 177.26 o 177.34 i risultati saranno gli stessi di The Inquerer...
se la pubblica domani, penso l'abbia già bella e fatta.
Sì ok, i risultati di The Inquirer sembrano buoni, ma non dimentichiamo che 9800gtx, nonostante il suffisso, NON È il top di gamma nVidia... A parte casi limite, dovuti a mio parere esclusivamente alla maggior memoria ed ampiezza di bus, il valore è mediamente del 70% superiore di una scheda di fascia media della generazione precedente... onestamente non mi pare poi così eclatante..
ora, dire che la 9800GTX sia di fascia media mi pare un azzardo.
ora, dire che la 9800GTX sia di fascia media mi pare un azzardo.
Infatti è medio-bassa...:D :D :D
ora, dire che la 9800GTX sia di fascia media mi pare un azzardo.
Non lo è grazie alle sue prestazioni, ma di fatto, andrà in quel segmento.
Stech1987
15-06-2008, 18:29
ora, dire che la 9800GTX sia di fascia media mi pare un azzardo.
Dal momento che ha le stesse prestazioni (grossomodo) della 8800GT, che è fascia media, e della GTS512 (scheda identica tranne che nel pcb), non vedo come dovrei definirla... medio-alta? ok, vada per medio-alta. Certo è che fascia alta ora come ora c'è solo la GX2
EDIT: tra l'altro mi pare che la fascia di prezzo in cui la stessa nvidia l'ha collocata confermi che si tratta di fascia media/medioalta
Danielao
15-06-2008, 18:30
Sì ok, i risultati di The Inquirer sembrano buoni, ma non dimentichiamo che 9800gtx, nonostante il suffisso, NON È il top di gamma nVidia... A parte casi limite, dovuti a mio parere esclusivamente alla maggior memoria ed ampiezza di bus, il valore è mediamente del 70% superiore di una scheda di fascia media della generazione precedente... onestamente non mi pare poi così eclatante..
Mi pare che al momento non sia di fascia media.
Al momento cosa consigliereste per giocare a 1680 tra GX2 e GTX280 GTS260?
Io sceglierei una scheda con un chip monolitico e voi?
E cosa avrei detto di tanto fanboystico da farti passare la voglia di rispondere? :rolleyes:
Ho solo detto che se ti prendi la briga di entrare nel thread di 3870 i problemi li trovi eccome... e non solamente riguardo al powerplay che in molti casi andava fixato con un bios apposito.
Se questi sono commenti da fan-boy! :doh:
Trovo piuttosto di cattivo gusto il commento sull'enalotto... anche perchè indirettamente così scrivendo, dai dell'incapace a tutti quelli che i problemi li hanno avuti. :stordita:
Poi cosa c'entra il 790i?! Stiamo parlando di mainboard o vga? Mi sembra un tentativo di deviare in caciara il discorso... tanto più che quei problemi poi sono stati risolti ufficialmente già da oltre 1 mese, mentre di vga che hanno bisogno di fixare il powerplay ce ne sono ancora... senza considerare le 3870 che a molti utenti non andavano su X38. :boh:
nvidia > ati
Stech1987
15-06-2008, 18:33
Mi pare che al momento non sia di fascia media.
Al momento cosa consigliereste per giocare a 1680 tra GX2 e GTX280 GTS260?
Io sceglierei una scheda con un chip monolitico e voi?
Più che per il chip solo, per la memoria più ampia... Ma se la GX2 avesse lo stesso bus della GTX280, personalmente non ti consiglierei la nuova arrivata..
Infatti è medio-bassa...:D :D :D
:Prrr: :Prrr: :Prrr:
Non lo è grazie alle sue prestazioni, ma di fatto, andrà in quel segmento.
sicuramente ci finirà, tuttavia allo stato attuale è la vga singola di fascia alta cha ha nvidia.
halduemilauno
15-06-2008, 18:40
Cavolo vedendo i risultati di The Inquerer non mi sembra che questo GT200 sia 2 volte più veloce di G92 (9800GTX) come si diceva sulla carta eppure c'è il doppio di Stream Processors...questo fatto mi ricorda un certo R600, che sulla carta doveva battere chiunque, poi invece era un catorcio...speriamo che sia solo un fatto di drivers...ma Hardware Upgrade con quali drivers la farà la rece?? Perchè se la fa coi 177.26 o 177.34 i risultati saranno gli stessi di The Inquerer...
la 9800gtx è oc da 675 a 770.
;)
Athlon 64 3000+
15-06-2008, 18:43
la 9800gtx è oc da 675 a 770.
;)
Scommetto che incide non poso un overclock del genere sulla 9800GTX.
Spero che facciano le recensioni con i 177.34 per vedere come va effettivamente la GTX 280.
Stech1987
15-06-2008, 18:45
la 9800gtx è oc da 675 a 770.
;)
Senza offesa, ma :mc::
Appena 4 giorni fa questo stesso sito ha pubblicato una comparativa tra 3 9800gtx con diverse frequenze (se scorri la pagina fino in fondo è ancora lì), dimostrando che la differenza tra le frequenze def e un OC di questa entità è praticamente nulla... si parla di un valore tra l'8 e il 10%...
EDIT: anzi, in molti casi anche molto meno, vedo...
http://www.hwupgrade.it/articoli/skvideo/1987/geforce-9800gtx-zotac-msi-asus-a-confronto_5.html:read:
halduemilauno
15-06-2008, 18:48
Senza offesa, ma :mc::
Appena 4 giorni fa questo stesso sito ha pubblicato una comparativa tra 3 9800gtx con diverse frequenze (se scorri la pagina fino in fondo è ancora lì), dimostrando che la differenza tra le frequenze def e un OC di questa entità è praticamente nulla... si parla di un valore tra l'8 e il 10%...
EDIT: anzi, in molti casi anche molto meno, vedo...
http://www.hwupgrade.it/articoli/skvideo/1987/geforce-9800gtx-zotac-msi-asus-a-confronto_5.html:read:
ammesso che sia vero il 10% non mi pare praticamente nulla. e cmq mi pare giusto dirlo farlo presente.
geminibruni
15-06-2008, 18:49
Non credo che ci sia da sorprendersi se il boost prestazionale arrivi sopratutto a risoluzioni alte, credo che sia chiaro a tutti che schede come la GTX280 si destinata all'utenza che ha monitor di dimensioni ragguardevoli (22 o 24 pollici), mentre per chi ha schermi dalla diagonale "standard" può benissimo rivolgere le sue attenzioni a soluzioni di fascia minore visto che per muovere adeguatamente qualsiasi vg a 1280x1024 sono più che sufficenti...
Aspettiamo che HWupgrade ci illumini la strada..:D
:Prrr: :Prrr: :Prrr:
sicuramente ci finirà, tuttavia allo stato attuale è la vga singola di fascia alta cha ha nvidia.
Fino a domani!:D
Stech1987
15-06-2008, 18:53
ammesso che sia vero il 10% non mi pare praticamente nulla. e cmq mi pare giusto dirlo farlo presente.
Se è vero o no dovresti chiederlo alla redazione (o magari fare prove di OC con qualunque G92...), cmq certo che è giusto farlo presente, ma se anche avessero preso una versione ref la differenza percentuale con la 280GTX non sarebbe stata del 10% in più, ma di molto meno (non ho voglia di farmi il calcolo onestamente, ma dato che qui di stupidi non ce ne sono credo sia evidente quello che intendo dire...):)
Detto questo, mi fermo perché non vorrei si scatenassero flame già alla 4 pagina di thread:sofico: :sofico: :sofico:
Senza offesa, ma :mc::
Appena 4 giorni fa questo stesso sito ha pubblicato una comparativa tra 3 9800gtx con diverse frequenze (se scorri la pagina fino in fondo è ancora lì), dimostrando che la differenza tra le frequenze def e un OC di questa entità è praticamente nulla... si parla di un valore tra l'8 e il 10%...
EDIT: anzi, in molti casi anche molto meno, vedo...
http://www.hwupgrade.it/articoli/skvideo/1987/geforce-9800gtx-zotac-msi-asus-a-confronto_5.html:read:
In quella rece, i risultati ottenuti con il gioco Crysis sono palesemente sballati......lo ammette anche l'Amministratore Alessandro Bordin!
Devono sistemarli!....lunedi lo faranno!
Quindi non considerate i test in Crysis.
bho, io tanto con questa non posso campare ancora per molto.. a 1920X1200 non mi gira quasi più un cazzo :D
la prendo e bon.. al massimo non faccio l'affare del secolo, ma nella tecnologia in generale non lo è praticamente mai prendendo i top di gamma, in tutti i vari rami.. ormai dovreste averlo imparato anche voi :)
Scusa A.L.M. ma dato che sembra una rece completa posto i test di TheInq al completo:
http://images.vnu.net/gb/inquirer/news/2008/06/14/complete-gtx280-scores-here/nv_280_scores_1.jpg
http://images.vnu.net/gb/inquirer/news/2008/06/14/complete-gtx280-scores-here/nv_280_scores_2.jpg
http://images.vnu.net/gb/inquirer/news/2008/06/14/complete-gtx280-scores-here/nv_280_scores_3.jpg
http://images.vnu.net/gb/inquirer/news/2008/06/14/complete-gtx280-scores-here/nv_280_scores_4.jpg
Da quel che si vede pare che la GTX280 vada un 70-80% più di quella 9800GTX OC in media. Sarà 75%-85% vs una "normale".
Come pensavo i migliori risultati li ha in quei giochi e a quelle risoluzioni in cui la 9800GTX era bandwidth/framebuffer limited: ossia più che grazie all'incremento della potenza di calcolo stacca di molto G92 a causa della rimozione delle "castrature" di G92 stesso.
Alle risoluzioni medie senza AA poi è probabile che sia cpu-limited.
io se fossi voi nn avrei troppa fretta di comprare una GTX280.. vedrete che molto presto nvidia sfornerà subito qualcosa tipo "GTX280 Ultra" o "GTX280gx2" per contrastare l'uscita delle HD4870x2 :read:
Stech1987
15-06-2008, 19:11
In quella rece, i risultati ottenuti con il gioco Crysis sono palesemente sballati......lo ammette anche l'Amministratore Alessandro Bordin!
Devono sistemarli!....lunedi lo faranno!
Quindi non considerate i test in Crysis.
solo in dx10 se non erro...;)
Potevate aspettare di aprire il Thread ufficiale, cioe' dove aprilo uno che la scheda gia' l'aveva^^visto che ci stanno gia' 7 pagine e nessuno ha la VGA.
halduemilauno
15-06-2008, 19:24
Se è vero o no dovresti chiederlo alla redazione (o magari fare prove di OC con qualunque G92...), cmq certo che è giusto farlo presente, ma se anche avessero preso una versione ref la differenza percentuale con la 280GTX non sarebbe stata del 10% in più, ma di molto meno (non ho voglia di farmi il calcolo onestamente, ma dato che qui di stupidi non ce ne sono credo sia evidente quello che intendo dire...):)
Detto questo, mi fermo perché non vorrei si scatenassero flame già alla 4 pagina di thread:sofico: :sofico: :sofico:
ammesso che sia vero il 10% che dici te. la redazione non centra nulla ho la massima fiducia in loro.
detto questo ripeto è assolutamente giusto che si faccia notare che in quel caso la 9800gtx sia oc e(da 675 a 770)non di poco.
Kharonte85
15-06-2008, 19:28
Da quel che si vede pare che la GTX280 vada un 70-80% più di quella 9800GTX OC in media. Sarà 75%-85% vs una "normale".
Non è poco...anzi, direi il confronto con la 9800gtx fa impressione, ed è chiaro che quel 30% medio in piu' sulla GX2 lo guadagnera' in quei giochi dove la gx2 fara cilecca...per ora, tutto regolare e secondo me era impossibile aspettarsi di piu'.
Come pensavo i migliori risultati li ha in quei giochi e a quelle risoluzioni in cui la 9800GTX era bandwidth/framebuffer limited: ossia più che grazie all'incremento della potenza di calcolo stacca di molto G92 a causa della rimozione delle "castrature" di G92 stesso.
Se per togliere le castrature intendi il raddoppio di tutto :sofico: allora si' :sofico:
Capirai che non sono d'accordo...:D
Alle risoluzioni medie senza AA poi è probabile che sia cpu-limited.
Non solo, pare che alcuni giochi siano proprio troppo leggeri per poter valutare la scheda...
Danielao
15-06-2008, 19:31
lo so non è il thread giusto ma mediamente la 260GTS quanto andrà rispetto alla 9800GTX?
lo so non è il thread giusto ma mediamente la 260GTS quanto andrà rispetto alla 9800GTX?
bella domanda :rolleyes:
lo so non è il thread giusto ma mediamente la 260GTS quanto andrà rispetto alla 9800GTX?
GTX260 :)
cmq non sappiamo ancora quanto va realmente e ufficialmente la 280.. figurati la 260 :D
Stech1987
15-06-2008, 19:40
ammesso che sia vero il 10% che dici te. la redazione non centra nulla ho la massima fiducia in loro.
detto questo ripeto è assolutamente giusto che si faccia notare che in quel caso la 9800gtx sia oc e(da 675 a 770)non di poco.
Anche io ho la massima fiducia nella redazione:)
Cmq ok, d'accordo che l'OC sia abbastanza evidente, ma come detto non influisce poi molto in fondo sulle prestazioni...
Cmq dai, ora basta, tanto fino a che non si vedranno driver maturi è come parlare di aria fritta!
(per inciso, anche io sono convinto che questa scheda potrebbe dare molto, dato che sulla carta è eccezionalmente potente... Dico solo che per quel che si è visto finora consuma troppo per dare troppo poco rispetto al top di gamma della serie precedente, ovvero 9800GX2... In tutta onestà non credo che nVidia farà lo stesso errore di ATI con HD2900...)
solo in dx10 se non erro...;)
Certo!:)
goldorak
15-06-2008, 19:44
Non è poco...anzi, direi il confronto con la 9800gtx fa impressione, ed è chiaro che quel 30% medio in piu' sulla GX2 lo guadagnera' in quei giochi dove la gx2 fara cilecca...per ora, tutto regolare e secondo me era impossibile aspettarsi di piu'.
Se per togliere le castrature intendi il raddoppio di tutto :sofico: allora si' :sofico:
Capirai che non sono d'accordo...:D
Non solo, pare che alcuni giochi siano proprio troppo leggeri per poter valutare la scheda...
La GTX280 e' sostanzialmente la versione a singolo chip della GX2. L'unico difetto della GX2 era appunto la castratura del bus e della memoria che ne condizionavano le prestazioni ad alte risoluzioni, limiti che non sono piu' presenti nella GTX280. Quindi si A.L.M ha ragione.
Chi ancora crede che la GTX280 sia qualcosa di "diverso" da GX2 sbaglia.
Adesso pure i giochi sono troppo leggeri :rolleyes:, e con cosa dovremmo valutarla la scheda ? Con il 3d mark ? :asd: :fagiano:
Non siamo un po' in anticipo per aprire il thread ufficiale ? :stordita:
Infatti il perché è stata aperta prima della presentazione, prima di sapere con certezza i dati, ed il perché è stata chiusa quella più idonea, ovvero "Aspettando.." è un mistero. Finora si è parlato di fuffa.
vabbè io aggiungo un link con recensione (preso da B3D):
http://www.hardware-aktuell.com/viewtest.php?article=51&seite=1
Kharonte85
15-06-2008, 20:01
La GTX280 e' sostanzialmente la versione a singolo chip della GX2. L'unico difetto della GX2 era appunto la castratura del bus e della memoria che ne condizionavano le prestazioni ad alte risoluzioni, limiti che non sono piu' presenti nella GTX280. Quindi si A.L.M ha ragione.
Chi ancora crede che la GTX280 sia qualcosa di "diverso" da GX2 sbaglia.
Sbagliato, la gx2 non c'entra nulla nel discorso che faceva ALM, quindi la GTX280 non è solo un togliere le castrature, dato che ha caratteristiche BEN superiori e quindi è la scheda TUTTA che ottiene quei risultati, in altre parole se ti potessi immaginare una 9800gtx con infinita banda andrebbe comunque di meno.
E si' la GTX280 è sicuramente ben diversa dalla GX2.
Adesso pure i giochi sono troppo leggeri :rolleyes:, e con cosa dovremmo valutarla la scheda ? Con il 3d mark ? :asd: :fagiano:
Col Vantage si', specie nel profilo X...se invece di fare battutine giusto per scaldare l'atmosfera spendessi quello stesso tempo a capire che cosa ho voluto dire con quella frase ti renderesti conto non solo che è una osservazione pertinente, ma anche evidente o pertinente perche' evidente mettila come vuoi ;)
Oppure secondo te i giochi sopra i 200FPS danno qualche indicazione sensata di come va la scheda? Allora perche' non reinserire quake 3 come benchmark...
Scrambler77
15-06-2008, 20:03
Eccomi.
Auguri ad Hal per il suo thread ufficiale. ;)
Auguri ad Hal per il suo thread ufficiale. ;)
Grazie, è importante essere qui oggi.
Voglio ringraziare innanzittuto la mia fidanzata.
Senza di lei non sarei mai riuscito :cry:
Sbagliato, la gx2 non c'entra nulla nel discorso che faceva ALM, quindi la GTX280 non è solo un togliere le castrature, dato che ha caratteristiche BEN superiori e quindi è la scheda TUTTA che ottiene quei risultati, in altre parole se ti potessi immaginare una 9800gtx con infinita banda andrebbe comunque di meno.
Ovvio che andrebbe meno. Ma andrebbe più di quanto va ora (e le Ultra ne sono la prova). Tanto è vero che alle basse risoluzioni, nei giochi più pesanti, la distanza sembra essere abbastanza limitata. Questo è spiegabile:
- o col cpu-limited
- oppure col fatto che il grosso dell'incremento è dato dalla rimozione dei "limiti" di G92. :)
Kharonte85
15-06-2008, 20:14
vabbè io aggiungo un link con recensione (preso da B3D):
http://www.hardware-aktuell.com/viewtest.php?article=51&seite=1
Riporto i grafici, purtroppo pochi test:
http://img297.imageshack.us/img297/7434/3dmarkoq9.jpg
http://img165.imageshack.us/img165/6261/fearlg0.jpg
http://img165.imageshack.us/img165/4905/preyvb2.jpg
http://img164.imageshack.us/img164/5773/crysishs1.jpg
http://img297.imageshack.us/img297/8306/performancetotts8.jpg
Consumi:
IDLE:
http://img123.imageshack.us/img123/1954/idlewy3.jpg
FULL:
http://img127.imageshack.us/img127/2143/fullck0.jpg
halduemilauno
15-06-2008, 20:17
Eccomi.
Auguri ad Hal per il suo thread ufficiale. ;)
:mano:
Kharonte85
15-06-2008, 20:23
Ovvio che andrebbe meno. Ma andrebbe più di quanto va ora (e le Ultra ne sono la prova). Tanto è vero che alle basse risoluzioni, nei giochi più pesanti, la distanza sembra essere abbastanza limitata. Questo è spiegabile:
- o col cpu-limited
- oppure col fatto che il grosso dell'incremento è dato dalla rimozione dei "limiti" di G92. :)
Infatti non è che va mostruosamente di piu', quindi parlerei proprio di limiti della scheda tutta, piuttosto che bandwidth limited (che ovviamente c'è in alcune condizioni)...e il cpu-limited è una spiegazione sensata con quelle (della gtx 280) potenze...
Ti ripeto: per me non ha senso parlare di rimozione dei limiti di G92 dato che neppure 2xG92 sembrano riuscire a starle davanti...è chiaro che siamo di fronte ad un'altra scala di valori...o no? :fagiano:
Mi pare che al momento non sia di fascia media.
Al momento cosa consigliereste per giocare a 1680 tra GX2 e GTX280 GTS260?
Io sceglierei una scheda con un chip monolitico e voi?
gtx 260.
_TeRmInEt_
15-06-2008, 20:28
Ragazzi
un processore Q6600 e P5W Deluxe, Corsair HX 620W, vanno bene?
Grazie :)
Kharonte85
15-06-2008, 20:30
Ragazzi
un processore Q6600 e P5W Deluxe, Corsair HX 620W, vanno bene?
Grazie :)
Si, ma per cosa? :stordita:
halduemilauno
15-06-2008, 20:31
Ragazzi
un processore Q6600 e P5W Deluxe, Corsair HX 620W, vanno bene?
Grazie :)
Si, ma per cosa? :stordita:
immagino per la gtx280.
si.
_TeRmInEt_
15-06-2008, 20:33
Grazie :D
Ora sono indeciso se cambiare la 8800, o processore e scheda madre :stordita:
200watt in idle con e6850, 2gb di ram e un hd :confused:
Grazie :D
Ora sono indeciso se cambiare la 8800, o processore e scheda madre :stordita:
Perché li devi cambiare? Cos'è che non ce la fa ad essere eseguito in maniera fluida? :rolleyes:
200watt in idle con e6850, 2gb di ram e un hd :confused:
Assurdo, deve esserci qualche problema, oppure la scheda video è oltre che spropositata nel prezzo anche nei consumi.
sertopica
15-06-2008, 20:38
Mmmh... questi consumi sono preoccupanti... mi sa che il mio da 525W gli starebbe parecchio stretto... azz, l'ho appena cambiato!
Mmmh... questi consumi sono preoccupanti... mi sa che il mio da 525W gli starebbe parecchio stretto... azz, l'ho appena cambiato!
nelle conf. di oggi convine come minimo un 650W o il 750W meglio.
appleroof
15-06-2008, 20:41
:D
;)
Quale resto si più preciso,che problemi hai riscontrato? :cool:
:D :D
200watt in idle con e6850, 2gb di ram e un hd :confused:
dove?
Infatti non è che va mostruosamente di piu', quindi parlerei proprio di limiti della scheda tutta, piuttosto che bandwidth limited (che ovviamente c'è in alcune condizioni)...e il cpu-limited è una spiegazione sensata con quelle (della gtx 280) potenze...
Ti ripeto: per me non ha senso parlare di rimozione dei limiti di G92 dato che neppure 2xG92 sembrano riuscire a starle davanti...è chiaro che siamo di fronte ad un'altra scala di valori...o no? :fagiano:
Mah, ho fatto un rapido calcolo su excel sulla media degli incrementi delle tabelle di Inquirer, e in realtà sono moolto più bassi di quanto ci si potrebbe immaginare. Ho normalizzato eliminando i 2 valori più alti ed i 2 più bassi (considerando che valori negativi sono dovuti a problemi drivers, non può andare meno della 9800GTX, e lo stesso dicasi per i casi in cui va oltre 20 volte la 9800GTX).
In media l'incremento GTX280 vs 9800GTX OC è 55.06%. ;)
Anche aggiungendo il 5-10% per la versione non OC, direi che siamo sui 60-65% in più.
2xG92 hanno sempre gli stessi limiti di 1 G92. Sul fatto che non riescano a starle davanti, se la media fosse davvero questa, inizierei a nutrire qualche dubbio.
_TeRmInEt_
15-06-2008, 20:44
Perché li devi cambiare? Cos'è che non ce la fa ad essere eseguito in maniera fluida? :rolleyes:
Mi serve cpu veloce per fare encoding video.
Invece la gpu la userei per giocare :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.