PDA

View Full Version : QUALE GTS X RISOLUZIONE 1440X900?


quentin74
24-08-2007, 22:38
ciao a tutti. qualcuno potrebbe consigliarmi quale vga tra 8800 gts 320 mb e 8800 gts 640 mb,considerando che posseggo un monitor philips 190cw7 wide 19'' per uso principalmente da gioco? mi pare di aver letto che la 640mb sia eccessiva per la suddetta risoluzione... perche'? grazie

Mazda RX8
25-08-2007, 12:29
ciao a tutti. qualcuno potrebbe consigliarmi quale vga tra 8800 gts 320 mb e 8800 gts 640 mb,considerando che posseggo un monitor philips 190cw7 wide 19'' per uso principalmente da gioco? mi pare di aver letto che la 640mb sia eccessiva per la suddetta risoluzione... perche'? grazie

va bene anke una 8800GTS 320MB;)

jim91my
25-08-2007, 22:20
a livello di framerate le due schede con i giochi attuali sono quasi uguali, con una differenza veramente non notevole per la differenza di prezzo...la cosa che cambia è la quantità di memoria, quindi con 320 mb di memoria in piu giocheresti a giochi pesanti(veramente pesanti), come crysis o alan wake per esempio, acquisendo un framerate piu elevato...io, personalmente ti consiglio una 8800 320, che sarebbe l' acquisto piu azzeccato anche per la tua risoluzione di gioco!;) ;)

legend2005
26-08-2007, 13:04
io andre su una 2900xt e sarei piu tranquillo

Mazda RX8
26-08-2007, 13:12
ciao a tutti. qualcuno potrebbe consigliarmi quale vga tra 8800 gts 320 mb e 8800 gts 640 mb,considerando che posseggo un monitor philips 190cw7 wide 19'' per uso principalmente da gioco? mi pare di aver letto che la 640mb sia eccessiva per la suddetta risoluzione... perche'? grazie

ma ke config hai?

quentin74
28-08-2007, 18:21
la configurazione sara' questa: e6750, p5k, 2gb corsair xms2 800, ali tagan 600w, hd samsung 320gb sata2. x la vga vedremo.....

freddy69bz
28-08-2007, 18:49
se non hai fretta aspetta le nuove nvidia a novembre...

halduemilauno
28-08-2007, 19:28
ciao a tutti. qualcuno potrebbe consigliarmi quale vga tra 8800 gts 320 mb e 8800 gts 640 mb,considerando che posseggo un monitor philips 190cw7 wide 19'' per uso principalmente da gioco? mi pare di aver letto che la 640mb sia eccessiva per la suddetta risoluzione... perche'? grazie

la 320 va benissimo.
;)

halduemilauno
28-08-2007, 19:29
se non hai fretta aspetta le nuove nvidia a novembre...

chiariamolo per l'ennesima volta a novembre non usciranno le sostitute delle gts ma delle gtx/ultra. quindi schede da 500 e passa €.
;)

quentin74
28-08-2007, 19:35
immagino che bisogna andarci piano con i filtri....

halduemilauno
28-08-2007, 19:38
immagino che bisogna andarci piano con i filtri....

assolutamente no.
;)

quentin74
28-08-2007, 19:47
dici che con antialiasing e anisotropo al massimo si puo' giocare in modo dignitoso anche con alcuni titoli cosiddetti pesanti?

Mazda RX8
28-08-2007, 20:44
dici che con antialiasing e anisotropo al massimo si puo' giocare in modo dignitoso anche con alcuni titoli cosiddetti pesanti?

mi sa ke hai sotto valutato la potenza della GTS a 320MB...;)

quentin74
28-08-2007, 21:36
be' raga', mi sa proprio che la prendo....

Mazda RX8
28-08-2007, 21:43
be' raga', mi sa proprio che la prendo....

bravo, ottima scelta...;)

Grey 7
28-08-2007, 22:36
dici che con antialiasing e anisotropo al massimo si puo' giocare in modo dignitoso anche con alcuni titoli cosiddetti pesanti?

dipende dal gioco. ora come ora, giochi mal ottimizzati esclusi, i filtri te li puoi permettere

quentin74
28-08-2007, 22:40
intendi stalker,immagino. pero' mi pare di aver capito che la vga non c'entri nulla,quanto piuttosto il software.....che ne pensi?

quentin74
28-08-2007, 22:42
voglio dire il software del gioco.....

Bollit
28-08-2007, 23:03
In linea di massima la 320 MB ha prestazioni identiche, e stranamente in alcuni casi superiori rispetto alla 640, sino ad una risoluzione di 1600*1200...questo credo sia il limite oltre il quale sia più sensato prendere la 640...dal canto mio, ho una 8800 GTS da 320 overcloccata di fabbrica, e spesso e volentieri raggiungo prestazioni molto simili alla GTX...questo per quanto riguarda le DX9. Per il discorso DX10, a novembre usciranno le nuove schede di fascia alta che avranno prestazioni in DX10 molto superiori rispetto alle schede attuali. Ovviamente, l'esborso sarà di conseguenza...

x.vegeth.x
28-08-2007, 23:12
chiariamolo per l'ennesima volta a novembre non usciranno le sostitute delle gts ma delle gtx/ultra. quindi schede da 500 e passa €.
;)

non erano le sostitute delle gts 640 e gtx?

quentin74
28-08-2007, 23:19
ciao bollit.visto che la sopra citata vga supporta gia' le future librerie dx10,quale sara' la differenza di prestazioni,a parte il prezzo e le varie dimensioni di memoria?

Bollit
29-08-2007, 09:17
ciao bollit.visto che la sopra citata vga supporta gia' le future librerie dx10,quale sara' la differenza di prestazioni,a parte il prezzo e le varie dimensioni di memoria?

Beh, quantificare è difficile...di certo l'architettura a shaders unificati sarà ottimizzata, con un sicuro e consistente guadagno in termini di prestazioni, anche se, ripeto, quantificare è prematuro. Io consiglierei, se uno non ha fretta e/o problemi di budget, di aspettare l'uscita delle prossime schede. Naturalmente, la spesa sarà elevata, anche se non penso maggiore rispetto all'acquisto in questo momento di una 8800GTX.

blade9722
29-08-2007, 10:47
In linea di massima la 320 MB ha prestazioni identiche, e stranamente in alcuni casi superiori rispetto alla 640, sino ad una risoluzione di 1600*1200...questo credo sia il limite oltre il quale sia più sensato prendere la 640...dal canto mio, ho una 8800 GTS da 320 overcloccata di fabbrica, e spesso e volentieri raggiungo prestazioni molto simili alla GTX...questo per quanto riguarda le DX9. Per il discorso DX10, a novembre usciranno le nuove schede di fascia alta che avranno prestazioni in DX10 molto superiori rispetto alle schede attuali. Ovviamente, l'esborso sarà di conseguenza...

Ciao Bollit,

potresti produrre un rapporto di test e valutazioni tecniche effettuate sul prototipo di G92 in tuo possesso, a supporto dell'affermazione:

Per il discorso DX10, a novembre usciranno le nuove schede di fascia alta che avranno prestazioni in DX10 molto superiori rispetto alle schede attuali


Tieni presente che con "molto superiori" si intende qualcosa che va oltre il numero di stream processor e la frequenza degli stessi.

Bollit
29-08-2007, 12:05
Ciao Bollit,

potresti produrre un rapporto di test e valutazioni tecniche effettuate sul prototipo di G92 in tuo possesso, a supporto dell'affermazione:




Tieni presente che con "molto superiori" si intende qualcosa che va oltre il numero di stream processor e la frequenza degli stessi.

Guarda, ho letto recentemente un articolo molto interessante su TechReport, dove si faceva una comparativa sulle prestazioni di alcuni giochi in DX10 sulle attuali schede di fascia alta, quindi 8800 e XT2900...le prestazioni erano, imho e anche secondo lo stesso giornalista, orride...è ovvio che non posso dire con certezza quali saranno le prestazioni sulle nuove schede, se però il guadagno sarà solo marginalmente superiore, allora forse converrà aspettare le Geforce 10? Mi sembra plausibile ipotizzare, e ripeto ipotizzare, che i nuovi G9x si comporteranno meglio in ambito DX10, tutto qua...e se non fosse così, che senso avrebbe fare uscire delle nuove VGA? E fai conto che non do neanche troppo peso alle affermazioni di alcuni "esperti" del settore in base alle quali le nuove GPU avranno prestazioni doppie rispetto alle 8800 Ultra. Può darsi che mi sia mostrato troppo ottimista...;)
Ciao.

blade9722
29-08-2007, 14:47
Guarda, ho letto recentemente un articolo molto interessante su TechReport, dove si faceva una comparativa sulle prestazioni di alcuni giochi in DX10 sulle attuali schede di fascia alta, quindi 8800 e XT2900...le prestazioni erano, imho e anche secondo lo stesso giornalista, orride...è ovvio che non posso dire con certezza quali saranno le prestazioni sulle nuove schede, se però il guadagno sarà solo marginalmente superiore, allora forse converrà aspettare le Geforce 10? Mi sembra plausibile ipotizzare, e ripeto ipotizzare, che i nuovi G9x si comporteranno meglio in ambito DX10, tutto qua...e se non fosse così, che senso avrebbe fare uscire delle nuove VGA? E fai conto che non do neanche troppo peso alle affermazioni di alcuni "esperti" del settore in base alle quali le nuove GPU avranno prestazioni doppie rispetto alle 8800 Ultra. Può darsi che mi sia mostrato troppo ottimista...;)
Ciao.

Dunque, se escludi la Ge-Force FX che é stato un caso anomalo (rappresenta il momento piú difficile per la casa di Santa Clara, diretta conseguenza del divorzio con la Microsoft che ha sviluppato le specifiche DX9.0 basandosi solo sulla Ati), l'evoluzione delle GPU Nvidia é sempre avvenuto a coppie.

Riva TNT - Riva TNT2
Geforce 256 - Geforce 2
Geforce 3 - Geforce 4
Geforce 6x00 - Geforce 7x00

In queste accoppiate, la seconda generazione differiva dalla prima per la quantitá di unitá di calcolo (TMU, ROPs, vertex shaders, pixel shaders) e per la frequenza, di solito in virtú di uno shrink tecnologico. In alcuni casi c'é stata qualche piccola e irrilevante ottimizzazione, ma nulla di piú.

Ripercorrendo la strategia della Nvidia dal 1998 ad oggi, per la serie G9x non mi aspetto nulla di piú che uno shrink tecnologico che permetterá di integrare piú unitá di calcolo nel die size, e l'integrazione di un paio di righe di codice per la compatibilita DX10.1. Di certo non una rivoluzione.

Per quanto riguarda le prestazioni in DX10, io ho provato la demo di Lost Planet, ed in DX10 a paritá di dettaglio ho gli stessi frame che in DX9, ma con una qualitá leggermente superiore del motion blur e dei particle effects. Nel topic che ho dedicato, un utente con 8600GTS mi ha confermato ció

Se poi uno attiva il massimo dettaglio delle ombre, disponibile solo su DX10 e il cui unico effetto sembra sia dimezzare il frame rate, e in conseguenza di ció incomincia a gridare "al lupo - al lupo" nei confronti delle DX10..... sta commettendo un errore.

Mi chiedo come possa questo fantomatico giornalista effettuare una valutazione quando di DX10 é uscita solo qualche demo preliminare...

Per inciso, da un paio di fatti di cronaca (un furto nella mia abitazione, ed uno di cronaca nera nel mio paese), ho sperimentato con mano quanto poco sia credibile ció che scrivono i giornalisti.

x.vegeth.x
29-08-2007, 14:58
Dunque, se escludi la Ge-Force FX che é stato un caso anomalo (rappresenta il momento piú difficile per la casa di Santa Clara, diretta conseguenza del divorzio con la Microsoft che ha sviluppato le specifiche DX9.0 basandosi solo sulla Ati), l'evoluzione delle GPU Nvidia é sempre avvenuto a coppie.

Riva TNT - Riva TNT2
Geforce 256 - Geforce 2
Geforce 3 - Geforce 4
Geforce 6x00 - Geforce 7x00

In queste accoppiate, la seconda generazione differiva dalla prima per la quantitá di unitá di calcolo (TMU, ROPs, vertex shaders, pixel shaders) e per la frequenza, di solito in virtú di uno shrink tecnologico. In alcuni casi c'é stata qualche piccola e irrilevante ottimizzazione, ma nulla di piú.

Ripercorrendo la strategia della Nvidia dal 1998 ad oggi, per la serie G9x non mi aspetto nulla di piú che uno shrink tecnologico che permetterá di integrare piú unitá di calcolo nel die size, e l'integrazione di un paio di righe di codice per la compatibilita DX10.1. Di certo non una rivoluzione.

Per quanto riguarda le prestazioni in DX10, io ho provato la demo di Lost Planet, ed in DX10 a paritá di dettaglio ho gli stessi frame che in DX9, ma con una qualitá leggermente superiore del motion blur e dei particle effects. Nel topic che ho dedicato, un utente con 8600GTS mi ha confermato ció

Se poi uno attiva il massimo dettaglio delle ombre, disponibile solo su DX10 e il cui unico effetto sembra sia dimezzare il frame rate, e in conseguenza di ció incomincia a gridare "al lupo - al lupo" nei confronti delle DX10..... sta commettendo un errore.

Mi chiedo come possa questo fantomatico giornalista effettuare una valutazione quando di DX10 é uscita solo qualche demo preliminare...

Per inciso, da un paio di fatti di cronaca (un furto nella mia abitazione, ed uno di cronaca nera nel mio paese), ho sperimentato con mano quanto poco sia credibile ció che scrivono i giornalisti.

e le 5x00 dove le metti?

Bollit
29-08-2007, 15:12
Dunque, se escludi la Ge-Force FX che é stato un caso anomalo (rappresenta il momento piú difficile per la casa di Santa Clara, diretta conseguenza del divorzio con la Microsoft che ha sviluppato le specifiche DX9.0 basandosi solo sulla Ati), l'evoluzione delle GPU Nvidia é sempre avvenuto a coppie.

Riva TNT - Riva TNT2
Geforce 256 - Geforce 2
Geforce 3 - Geforce 4
Geforce 6x00 - Geforce 7x00

In queste accoppiate, la seconda generazione differiva dalla prima per la quantitá di unitá di calcolo (TMU, ROPs, vertex shaders, pixel shaders) e per la frequenza, di solito in virtú di uno shrink tecnologico. In alcuni casi c'é stata qualche piccola e irrilevante ottimizzazione, ma nulla di piú.

Ripercorrendo la strategia della Nvidia dal 1998 ad oggi, per la serie G9x non mi aspetto nulla di piú che uno shrink tecnologico che permetterá di integrare piú unitá di calcolo nel die size, e l'integrazione di un paio di righe di codice per la compatibilita DX10.1. Di certo non una rivoluzione.

Per quanto riguarda le prestazioni in DX10, io ho provato la demo di Lost Planet, ed in DX10 a paritá di dettaglio ho gli stessi frame che in DX9, ma con una qualitá leggermente superiore del motion blur e dei particle effects. Nel topic che ho dedicato, un utente con 8600GTS mi ha confermato ció

Se poi uno attiva il massimo dettaglio delle ombre, disponibile solo su DX10 e il cui unico effetto sembra sia dimezzare il frame rate, e in conseguenza di ció incomincia a gridare "al lupo - al lupo" nei confronti delle DX10..... sta commettendo un errore.

Mi chiedo come possa questo fantomatico giornalista effettuare una valutazione quando di DX10 é uscita solo qualche demo preliminare...

Per inciso, da un paio di fatti di cronaca (un furto nella mia abitazione, ed uno di cronaca nera nel mio paese), ho sperimentato con mano quanto poco sia credibile ció che scrivono i giornalisti.

Capisco..sei sempre molto preciso e informato. Sinceramente mi auguro che anche in questo caso la strategia Nvidia sia questa, perchè, a dirla tutta, ho sempre preferito saltare ALMENO una generazione di schede...quanto al giornalista, come ho già detto, anch'io ho preso con le pinze quanto da lui affermato. C'è anche da considerare che attorno a queste famigerate DX10 si sta creando un polverone forse ingiustificato, se non fossero un'esclusiva appannaggio di Vista credo se ne parlerebbe meno...
Buona giornata.

blade9722
29-08-2007, 15:24
e le 5x00 dove le metti?

Leggi bene cosa ho scritto:

Dunque, se escludi la Ge-Force FX che é stato un caso anomalo (rappresenta il momento piú difficile per la casa di Santa Clara, diretta conseguenza del divorzio con la Microsoft che ha sviluppato le specifiche DX9.0 basandosi solo sulla Ati), l'evoluzione delle GPU Nvidia é sempre avvenuto a coppie.

:read:

La 5x00 é la FX.... che é stato un caso anomalo: il pixel shader era cosi' poco performante nei confronti di quello della Ati R300 che sono saltati direttamente alla versione con SM 3.0.

darek
29-08-2007, 16:08
512 Mb preferibilmente.8800\320 oggi va ,domani :confused:

gatto23
03-09-2007, 15:52
512 Mb preferibilmente.8800\320 oggi va ,domani :confused:

Dipende sempre dalle risoluzioni e dai filtri che intendete attivare. Io per esempio gioco su un Samsung 40" con risoluzione massima di 1360x768 e quindi 320Mb mi bastano e avanzano anche per il futuro con tutti i filtri attivati. Ovviamente se intendete giocare a Crisys a 1920 indubbiamente vi servirà almeno la 640 a meno di accontentarsi di non impostare l'AA (e non mi venite a dire che a tale risoluzione si vedono le scalettature)

omar8792
03-09-2007, 20:14
Dipende sempre dalle risoluzioni e dai filtri che intendete attivare. Io per esempio gioco su un Samsung 40" con risoluzione massima di 1360x768 e quindi 320Mb mi bastano e avanzano anche per il futuro con tutti i filtri attivati.

concordo in pieno bastano anke a me a 1680x1050