View Full Version : Radeon X1800 CrossFire Edition: scontro ai vertici
Redazione di Hardware Upg
20-12-2005, 16:34
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1405/index.html
Dopo la presentazione e l'arrivo sul mercato delle schede video Radeon X1800, ATI lancia la sua nuova generazione di soluzioni CrossFire basate su architettura R520. Rispetto a quanto visto con le Radeon X850 e X800, fornisce prestazioni ben più elevate superando parte delle limitazioni presenti
Click sul link per visualizzare l'articolo.
Max Power
20-12-2005, 16:36
Tutto molto bello, La 7800GTX è + veloce normalmente, mentre con i filtri passa davanti la X1800XT.
Comunque aspetto con ansia la recensione delle "VECCHIE GLORIE" ;)
------------
A chi interessa spendere poco, c'è la 6600DDr2 256MB, con poco più di 100€ si hanno le prestazioni di una 6600GT che ne costa il doppio!!! :cool:
http://www.tomshardware.com/2005/11/09/the_ddr2_joker_upgrades_geforce_6600/page9.html
stalker170
20-12-2005, 16:46
è veramente paurosa sia la potenza di tutte e 3 le configurazioni sia i prezzi che sono ancora + paurosi, se nn scandalosi!!!
int main ()
20-12-2005, 17:03
impressionante :eek: :sofico:
dottorkame
20-12-2005, 17:13
e' impressionante che con una scheda da 700€ non si riesca a giocare a riddick con i filtri al massimo e una risoluzione un po alta
ultimate_sayan
20-12-2005, 17:22
E' impressionante quanto sia programmato male Riddick... un gioco che non offre granchè se non pesantezza IMHO.
Riguardo alle schede nulla da dire: strepitose! Certo... il prezzo è per pochi...
int main ()
20-12-2005, 17:24
poi dite che io sono un tipo d parte.... è vergognoso che con la nuova architettura rivoluzoinaria che hanno le ATI le NVIDIA siano ankora avanti!!!! a casa ATI devo darsi na mossa!! adesso ditemi un pò dopo stì benchamark chi è quel fesso che si prenderebbe una x1800xt!!!! su tutti i bench fatti le NVIDIA vincono tranne che per il super AA dove si vede la potenza del processore ATI da 84 Gflops della x1800xt. Io sono orgogliosissimo di essere di parte ad Nvidia perkè nn ha mai forato tranne che per la serie 5xxx (nv 30-35)dove le ati trionfavano e dove secondo me ha avuto tutta la fama che ha ora. Domani mattina mi arriva la 7800gt e farò festa al contrario d quei poverini(nel senso che nn erano al corrente delle vere potenzialità ati) che hanno comprato la x1800xl o xt :rolleyes: . Le NVIDIA vincono anke sui gioki creati apposta per avvantaggiare ATI come splitercell e fear :O provate a contraddirmi su questo che ho detto...ma non dite che sono di parte perkè in questo caso è dovere. :read: :read:
Conferma quello che avevo già provato singolarmente con le singole schede... nVidia ha potenza bruta da vendere ma cede il passo con i filtri attivati.. anche si di poco (GTX 512 Esclusa ovviamente).
Considerando che io gioco con i filtri sempre attivi e con tutto a palla sceglierò ancora una volta Ati
Naquadar
20-12-2005, 17:26
Ma secondo voi è piu potente una X1800 XL 512mb oppure due X800 in crossfire...?
ci vuole una scheda madre apposita per il crossfire..??
int main ()
20-12-2005, 17:30
Conferma quello che avevo già provato singolarmente con le singole schede... nVidia ha potenza bruta da vendere ma cede il passo con i filtri attivati.. anche si di poco (GTX 512 Esclusa ovviamente).
Considerando che io gioco con i filtri sempre attivi e con tutto a palla sceglierò ancora una volta Ati
e no ma che ragionamenti fai!! tu paragoni la configurazione sli d 2 7800gtx 256 cn quella della ati x1800xt 512???...no comment :eek: cmq leggite bene la recensione e vedrai che la vera potenza stà in mano nvidia sempre
Premetto che io sono di parte (Nvidia) per motivi ben diversi dal gioco ;), e non comprerei una ATI nemmeno se me la dessero a metà del prezzo. Sta di fatto che, viste le 100 euro di differenza e la distanza poco marcata in termini di prestazioni tra X1800 e 7800 GTX 256Mb, non so quanto sia da preferire la soluzione ATI... Vista anche la minor rumorosità e consumo, e vista anche l'immaturità del crossfire (infondo la tecnologia SLI ha alle spalle ben più esperienza).
Chi si può permettere di spendere over 500 Euro, secondo il mio parere o si compra un 7800GTK 256MB (500 euro precisi e quindi "risparmia") o si fa la 7800GTK 512MB e la x1800 nemmeno la considera ammeno che non sia un utilizzatore ATI abituale. Il tutto merito anche della intrinseca "brutta pubblicità" fatta con gli ultimi ritardi.
int main ()
20-12-2005, 17:35
Ma secondo voi è piu potente una X1800 XL 512mb oppure due X800 in crossfire...?
ci vuole una scheda madre apposita per il crossfire..??
si ci vuola una scheda apposta per il crossfire e cmq per il fatto della velocità tra 2 x800 e 1 x1800xl sarebberp + avvantaggiate le 2 x800 è normale!! perkè avendo 2 core da la velocità sarebbe maggioree :)
int main ()
20-12-2005, 17:37
Premetto che io sono di parte (Nvidia) per motivi ben diversi dal gioco ;), e non comprerei una ATI nemmeno se me la dessero a metà del prezzo. Sta di fatto che, viste le 100 euro di differenza e la distanza poco marcata in termini di prestazioni tra X1800 e 7800 GTX 256Mb, non so quanto sia da preferire la soluzione ATI... Vista anche la minor rumorosità e consumo, e vista anche l'immaturità del crossfire (infondo la tecnologia SLI ha alle spalle ben più esperienza).
Chi si può permettere di spendere over 500 Euro, secondo il mio parere o si compra un 7800GTK 256MB (500 euro precisi e quindi "risparmia") o si fa la 7800GTK 512MB e la x1800 nemmeno la considera ammeno che non sia un utilizzatore ATI abituale. Il tutto merito anche della intrinseca "brutta pubblicità" fatta con gli ultimi ritardi.
up :mano: :cincin: tu si che ne capisci:D bravo/a
P.S. sei maskio o femmina:D? risp in privato
Caro Int main () il mio ragionamento è il seguente... dato che a me piace giocare con i filtri attivati e dato che nVidia sia da questi test, sia da quelli che ho condotto io con le schede singole cede di poco ad nVidia io resto su Ati.. tutto qui... dire che la vera potenza l'ha nVidia basandosi su una GTX 512 è come dire che la Ferrari va più dell'Alfa Romeo GTA.. sono due cose diverse!
Ma secondo voi è piu potente una X1800 XL 512mb oppure due X800 in crossfire...?
ci vuole una scheda madre apposita per il crossfire..??
Io ho da poco finito di confrontare 2 X850XT in CF e una X1800XT...
Dall'articolo che ho fatto si vede che 2 X850 stanno un pelo davanti alla 1800XT, e di conseguenza anche alla XL.
Se vuoi leggerlo è in sign.
Dr House
20-12-2005, 17:40
i grafici prestazionali su F.E.A.R. non sono stati messi perchè il gioco non va col crossfire o è una semplice dimenticanza?
mancano i grafici di fear....
up :mano: :cincin: tu si che ne capisci:D bravo/a
P.S. sei maskio o femmina:D? risp in privato
Vado OT ma per una buona causa, la mia! sono un ragazzo ho 22 anni e sono metallaro ... chiaro a tutti? Scusate :D
Tornando IT : Dai test non si evince una evidente superiorità in termini di prestazione da parte di Nvidia ;), quindi non sono in accordo con le tue affermazioni ma contando prezzo e i -1000 punti che do ad ATI per via del suo supporto al mio OS quasi deprimente, opterei per Nvidia.
int main ()
20-12-2005, 17:50
Io ho da poco finito di confrontare 2 X850XT in CF e una X1800XT...
Dall'articolo che ho fatto si vede che 2 X850 stanno un pelo davanti alla 1800XT, e di conseguenza anche alla XL.
Se vuoi leggerlo è in sign.
bella recensione anke se mi sembra che tu ce l'abbia un pò cn l'nvidia per il fatto dell'hdr ma per il resto ok
Sammy.73
20-12-2005, 17:51
sinceramente mi aspettavo di più (e sono un fanATIco :D)
ma sono fiducioso: chissà con le prossime versioni di driver... visto quello che hanno tirato fuori gli ingenieri di Ati con l'ultimo fix Doom3/Quake4... il controlle programmabile fa ben sperare
nonikname
20-12-2005, 17:57
http://www.anandtech.com/video/showdoc.aspx?i=2649&p=6
http://www.anandtech.com/video/showdoc.aspx?i=2607&p=4
Feeeek!!!! a parte il multi gpu , come mai B&W2 va così male sull'R52x ???
AAA , patch B&W2 cercasi.... :D
Graphicmaniac
20-12-2005, 18:02
ma cosa la fanno uscire a fare la crossfire a gennaio (il che significa febbraio dati i soliti ritardi) se poi entro 2 mesi escono le schede video nuove ???
per me alla ati sn fessi
alla nvidia sono stati polli con nv 30
mai i + geni d tutti sarannocoloro che si piglieranno una qualsiasi di queste schede da gennaio in poi ..
spendere 500-1500 euro e avere una scheda obsoleta 2 mesi dopo, e "inutile" con le directx 10 è proprio geniale
OverClocK79®
20-12-2005, 18:03
Le NVIDIA vincono anke sui gioki creati apposta per avvantaggiare ATI come splitercell e fear :O provate a contraddirmi su questo che ho detto...ma non dite che sono di parte perkè in questo caso è dovere. :read: :read:
Splinter Cell e FEAR creati per ATI???? ma da quanto?? :confused:
S.C. è una conversione da Xbox (gioco microsoft che girava su console con scheda video nVidia)
FEAR quando parte ha il bel logo nVidia
ed è pure publicizzato sul sito www.nvidia.com
mi sa che quello che dici non corrisponde a realtà.
BYEZZZZZZZZZZZZ
Splinter Cell e FEAR creati per ATI???? ma da quanto?? :confused:
S.C. è una conversione da Xbox (gioco microsoft che girava su console con scheda video nVidia)
FEAR quando parte ha il bel logo nVidia
ed è pure publicizzato sul sito www.nvidia.com
mi sa che quello che dici non corrisponde a realtà.
BYEZZZZZZZZZZZZ
mi viene in mente una puntata dei griffin o dei simpson, non ricordo, dove in tribunale l'avvocato lesse un papiro assurdo di prove schiaccianti, tra cui un taquino con su scritto "uccidere caio" (sostituite a caio un nome che non ricordo :fagiano: )... comunque immaginatevi la scena.
P.S.: Adirittura il logo nVidia all'inizio del gioc :eek:
int main ()
20-12-2005, 18:12
Splinter Cell e FEAR creati per ATI???? ma da quanto?? :confused:
S.C. è una conversione da Xbox (gioco microsoft che girava su console con scheda video nVidia)
FEAR quando parte ha il bel logo nVidia
ed è pure publicizzato sul sito www.nvidia.com
mi sa che quello che dici non corrisponde a realtà.
BYEZZZZZZZZZZZZ
intendevo che dovrebbero funzionare meglio sulle ati per i vari effetti delle nuove schede che le nvidia nn hanno
intendevo che dovrebbero funzionare meglio sulle ati per i vari effetti delle nuove schede che le nvidia nn hanno
Tipo?
http://www.anandtech.com/video/showdoc.aspx?i=2649&p=6
http://www.anandtech.com/video/showdoc.aspx?i=2607&p=4
Feeeek!!!! a parte il multi gpu , come mai B&W2 va così male sull'R52x ???
AAA , patch B&W2 cercasi.... :D
Storia lunga, corretta con la patch di gennaio :)
Comunque l'articolo e' decisamente errato, ho scritto una mail a chi lo ha scritto ma non ho ricevuto alcuna risposta.
In particolare qui:
In order to make up for the lack of MSAA support, Lionhead implemented SSAA (Supersample Antialiasing) in their game. While SSAA can trash performance on low-end to midrange hardware (even at modest resolutions), high performance cards can generally handle it.
Non c'e' alcun SSAA, BW2 supporta MSAA sia quando il postprocessing e' attivo sia quando e' disattivo e ignora i settaggi del driver (da qui l'errore dell'articolista).
poi dite che io sono un tipo d parte.... è vergognoso che con la nuova architettura rivoluzoinaria che hanno le ATI le NVIDIA siano ankora avanti!!!! a casa ATI devo darsi na mossa!! adesso ditemi un pò dopo stì benchamark chi è quel fesso che si prenderebbe una x1800xt!!!! su tutti i bench fatti le NVIDIA vincono tranne che per il super AA dove si vede la potenza del processore ATI da 84 Gflops della x1800xt. Io sono orgogliosissimo di essere di parte ad Nvidia perkè nn ha mai forato tranne che per la serie 5xxx (nv 30-35)dove le ati trionfavano e dove secondo me ha avuto tutta la fama che ha ora. Domani mattina mi arriva la 7800gt e farò festa al contrario d quei poverini(nel senso che nn erano al corrente delle vere potenzialità ati) che hanno comprato la x1800xl o xt :rolleyes: . Le NVIDIA vincono anke sui gioki creati apposta per avvantaggiare ATI come splitercell e fear :O provate a contraddirmi su questo che ho detto...ma non dite che sono di parte perkè in questo caso è dovere. :read: :read:
Ma perché nn la finiamo di dire stronzate una volta tanto? Entrambe sono ottime schede ed è stato anche evidenziato più volte che con i filtri (per altro unico motivo per accattarsi un sistema a doppia GPU) ATi sia superiore, tant'è che la consigliano pur avendo un prezzo di acquisto superiore.
Cosa sarebbe dovere scusa? Ognuno compra quello che gli pare.
Come vedi ho una nVidia nel pc mio, se dovessi cambiare scheda punterei su una ATi.
Oh questi fan boys... ma quanti anni hai?
*Pegasus-DVD*
20-12-2005, 18:35
poi dite che io sono un tipo d parte.... è vergognoso che con la nuova architettura rivoluzoinaria che hanno le ATI le NVIDIA siano ankora avanti!!!! a casa ATI devo darsi na mossa!! adesso ditemi un pò dopo stì benchamark chi è quel fesso che si prenderebbe una x1800xt!!!! su tutti i bench fatti le NVIDIA vincono tranne che per il super AA dove si vede la potenza del processore ATI da 84 Gflops della x1800xt. Io sono orgogliosissimo di essere di parte ad Nvidia perkè nn ha mai forato tranne che per la serie 5xxx (nv 30-35)dove le ati trionfavano e dove secondo me ha avuto tutta la fama che ha ora. Domani mattina mi arriva la 7800gt e farò festa al contrario d quei poverini(nel senso che nn erano al corrente delle vere potenzialità ati) che hanno comprato la x1800xl o xt :rolleyes: . Le NVIDIA vincono anke sui gioki creati apposta per avvantaggiare ATI come splitercell e fear :O provate a contraddirmi su questo che ho detto...ma non dite che sono di parte perkè in questo caso è dovere. :read: :read:
AHAHAHAHAHAHAAHHAHAHAHAAHAHAHSHSADHgASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHAAfHAHAHSfHSADHASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHAghAHfAHSHSfADHASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHfAHAHAHAAdghHAHSHSADHASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAfHAAHHAHAHAHAAHAHAHSHfSADHAggSDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHhfgAAghAHAHSHSADHASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAfHAAHAgHAHSHSADHgfASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHAAHAhHAHSHSADHASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHAAHAHAHSHSADHhASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHAAHAHAHSHSADHASDHASHAHGAHGHAGHAG
AHAHAHAHAHAHAAHHAHAHAHAAHAHAHSHSADHASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHAAHAHAHSHSADHASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHAAHAHAHSHSADHASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHAAHAHAHSHSADHASDHASHAHGAHGHAGHAGH
ma vi rendete conto che nvidia ha iniziato il trend schede video al di sopra del milione
700 euri c@zzo
bella recensione anke se mi sembra che tu ce l'abbia un pò cn l'nvidia per il fatto dell'hdr ma per il resto ok
Grazie per il complimento sulle recensione, sono contento che sia piaciuta.
Personalmente comunque non ce l'ho ne con nVidia ne con ATI, sono sinceramente indifferente al punto di avere entrambe le marche nei miei pc.
Sono però dell'avviso che il non poter utilizzare l'HDR insieme all'AA in schede di tale potenza elaborativa sia una pecca. Giocare senza filtri quando si ha a disposizione una macchina in grado di non sentirli è controproducente.
Di sicuro però nVidia questa cosa la sa, e meglio di noi; stiamo certi che la prossima evoluzione del chip grafico supporterà anche questo. ;)
Davide.
sdjhgafkqwihaskldds
20-12-2005, 19:02
Due GeForce 7800 GTX 512 MB fanno 349,6w
che dire...
55 - 63 db di rumore... mamma mia
Fortuna che nella recensione questi particolari vengono tenuti presente, io solo per questo ci penserei due volte prima di comprare uno di questi due mostri.
zerothehero
20-12-2005, 19:03
Io questo bench di riddick non lo capisco...ci ho giocato benissimo al massimo @1280x1024 4x-8x con una 6800gt, non mi è parso neanche un gioco così pesante..è analogo a doom3 come pesantezza.
O il bench non c'entra nulla con il gioco reale o io ho avuto le allucinazioni. :fagiano:
zerothehero
20-12-2005, 19:06
è veramente paurosa sia la potenza di tutte e 3 le configurazioni sia i prezzi che sono ancora + paurosi, se nn scandalosi!!!
Costano troppo poco come schede...io fossi in invidia aumenterei i prezzi..quelle che ci sono in giro in Italia sono sparite subito...dovrebbero metterle sugli 800euro cadauna. :fagiano:
Dr House
20-12-2005, 19:06
ma vi rendete conto che nvidia ha iniziato il trend schede video al di sopra del milione
700 euri c@zzo
beh?
ha capito che c'è gente che li spende, quindi perchè non farglieli spendere
Buono. Cosi sia che corsfiure che sli hanno stesso guadagno con una seconda scheda.
E se prima ero sicuro al 100% (da 1800mhz a 2700mhx in fear ho guadanato un 4% :rolleyes: ) che la CPU non conta più un cavolo ora coi test di scalabitlità lo sono al 1000%.
Alla fine lo sli non verrà più a costare cosi tanto. Fino al 2007 me ne stò con la stessa mb, ram e cpu cambiando solo le sv. Aspettero' le ddr3 e il socket M3.
Dr House
20-12-2005, 19:10
Io questo bench di riddick non lo capisco...ci ho giocato benissimo al massimo @1280x1024 4x-8x con una 6800gt, non mi è parso neanche un gioco così pesante..è analogo a doom3 come pesantezza.
O il bench non c'entra nulla con il gioco reale o io ho avuto le allucinazioni. :fagiano:
http://www.hwupgrade.it/articoli/1398/riddick_2.png
boh
Ma perché nn la finiamo di dire stronzate una volta tanto? Entrambe sono ottime schede ed è stato anche evidenziato più volte che con i filtri (per altro unico motivo per accattarsi un sistema a doppia GPU) ATi sia superiore, tant'è che la consigliano pur avendo un prezzo di acquisto superiore.
Cosa sarebbe dovere scusa? Ognuno compra quello che gli pare.
Oh questi fan boys... ma quanti anni hai?
Completamente d'accordo.
MiKeLezZ
20-12-2005, 19:19
azz ma quanto consumano...350W solo per due VGA?? :D :D :D
Ecco perchè tutti consigliano gli alimentatori da 650W... :D :D
A chi interessa spendere poco, c'è la 6600DDr2 256MB, con poco più di 100€ si hanno le prestazioni di una 6600GT che ne costa il doppio!!! :cool:
http://www.tomshardware.com/2005/11/09/the_ddr2_joker_upgrades_geforce_6600/page9.html
Una 6600Gt costa 130,80€ due costano 260€ e si trovano in commercio. :)
e' impressionante che con una scheda da 700€ non si riesca a giocare a riddick con i filtri al massimo e una risoluzione un po alta
Ma lo hai mai visto riddick con gli SM2.0++ attivati?? A mio parere e' in assoluto il piu' bel gioco che ci sia al momento (quanto a impatto grafico).
A me sembra che con entrambe le configurazioni SLI si possa giocare anche a 1600, certo che a 1280 e' meglio (1024 con i filtri).
Conferma quello che avevo già provato singolarmente con le singole schede... nVidia ha potenza bruta da vendere ma cede il passo con i filtri attivati.. anche si di poco (GTX 512 Esclusa ovviamente).
Considerando che io gioco con i filtri sempre attivi e con tutto a palla sceglierò ancora una volta Ati
Allora ti conviene aspettare la versione a 90nm delle GTX (G71) o R580.
Altrimenti spera in una fornitura decente delle GTX512 a prezzo di listino (650$). Tanto per la X1800XT CF devi attendere ugualmente a quel punto chi la compra e' fesso (a meno che non costi considerevolmente di meno di ora).
Come vedi ho una nVidia nel pc mio, se dovessi cambiare scheda punterei su una ATi.
Se dovessi cambiare "tra due mesi" vorrai dire.. e sei sicuro che l'R580 sara' superiopre al G71?? perche' ovviamente di questo si parlera' quando ATI avra' tempestivamente immesso sul mercato la VGA recensita oggi.
Se dovessi cambiare ora cosa prenderesti?? te lo dico io nVidia per (perche' non hai scelte, mi sembra ovvio).
Sono però dell'avviso che il non poter utilizzare l'HDR insieme all'AA in schede di tale potenza elaborativa sia una pecca. Giocare senza filtri quando si ha a disposizione una macchina in grado di non sentirli è controproducente.
Di sicuro però nVidia questa cosa la sa, e meglio di noi; stiamo certi che la prossima evoluzione del chip grafico supporterà anche questo. ;)
Davide.
Quoto, spendendo tanto si chiede il massimo, pero' questo massimo e' diviso in vari argomenti, l'HDR (alpha blending FP) senza AA e' un problema relegato a 2 o 3 titoli che per altro devono essere presenti tra le preferenze di chi acquista la VGA. Non penso abbia (per ora) questo gran peso, poi da fan dell'HDR, mi auguro che la situazione cambi (in quanto a numero di titoli).
Due GeForce 7800 GTX 512 MB fanno 349,6w
che dire...
55 - 63 db di rumore... mamma mia
Fortuna che nella recensione questi particolari vengono tenuti presente, io solo per questo ci penserei due volte prima di comprare uno di questi due mostri.
Penso che ridero' per questi post per tutta la vita!! :D Senza offesa Kuru, mi riferisco ad una discussione con i redattori riguardo al fatto che moltissima gente si basa SOLO sui grafici, nemmeno ne legge le intestazioni!! (dunque non devono essere solo un complemento della recensione, bensì un corretto riassunto leggibile a colpo d'occhio).
Comunque c'e' scritto chiaramente che e' il cosuno TOTALE del sistema, HD memorie CPU e quant'altro ti venga in mente. :)
Io questo bench di riddick non lo capisco...ci ho giocato benissimo al massimo @1280x1024 4x-8x con una 6800gt, non mi è parso neanche un gioco così pesante..è analogo a doom3 come pesantezza.
O il bench non c'entra nulla con il gioco reale o io ho avuto le allucinazioni. :fagiano:
Attiva gli SM 2.0++ (sulle ATI non puoi, eccezion fatta per le X1X00), poi torna a dirci come hai giocato. :D
sinceramente mi aspettavo di più (e sono un fanATIco :D)
ma sono fiducioso: chissà con le prossime versioni di driver... visto quello che hanno tirato fuori gli ingenieri di Ati con l'ultimo fix Doom3/Quake4... il controlle programmabile fa ben sperare
Infatti giusto le speranze restano.. I fatti?? ci siamo fermati a Domm3??
azz ma quanto consumano...350W solo per due VGA?? :D :D :D
Ecco perchè tutti consigliano gli alimentatori da 650W... :D :D
Mamma mia.... la simpatia a fiumi :D :sofico:
Angolo degli appunti.. :D
Come e' possibile che nel grafico di BF2 la configurazione SLI della 512 sfoderi prestazioni superiori del 112%?? Errore?? Incremento percentuale riscontrabile anche tra le due configurazioni delle GTX da 256mb (anche se in questo caso e' solo di poco superiore al 100%). Se Yoss aleggia da queste parti, sentiamo cosa ne pensa. Ho notato altri dati un po' "strani", ma questo mi sembra il piu' evidente.
nonikname
20-12-2005, 19:49
Storia lunga, corretta con la patch di gennaio
Ottimo !!! Ho delle clienti (ragazze) letteralmente imbufalite dal fatto che tale gioco gira meglio su X850 che su 1800XL-XT...
Spero almeno che dopo la patch , le prestazioni delle 1800 raddoppino , dato che sono stato io a consigliargli tali schede al posto delle X850XT che volevano comprare allo stesso prezzo....
Naturalmente il gioco è uscito dopo... e delle 2 ragazze una è canadese :D mentre l'altra è la sua migliore amica... quindi x loro nVIDIA=satana....
Anand: "On a side note, it is very interesting to see that ATI cards perform horribly under Black & White 2 at the highest settings, especially since a huge ATI logo splash screen pops up while the game is loading. It seems that the Achilles heel for ATI parts is processing large numbers of units at a time. Of course, the worse possible time for playability to go down hill is when a large number of enemy troops appear. "
Quindi , quello sopra , non è il vero motivo delle pessime prestazioni della serie 1k in questo gioco... altrimenti sarebbeo dolori anche per molti altri titoli di strategia(SM3.0) in arrivo per il prossimo anno....
Poi insisto riguardo alla rumorosita' della GTX, specialmente a riposo non si sente, non ho un fonometro, ma non supera i 30db nemmeno se ci attacchi l'orecchio e mi sto tenendo larghissimo!! (parlo ovviamente di dissipatori reference). Chi la ha puo' dirmi se mi sbaglio?? Io ne ho vendute parecchie (quasi tutte POV) e non c'e' confronto con le vecchie 6800GT/Ultra, quelle si che erano da 50db!!
Altra nota per la redazione:
Lo so che mi ritenete un rompipalle, ma poco importa. :D Mi spiegate come fate a consigliare la configurazione CF di ATI che uscira' tra un mese e mezzo quando sara' vecchia e passata piu' di quanto non lo sia ora?? Proprio non lo capisco.
non c'è che dire, la forza bruta è dalla parte di nvidia ma con i filtri ati è veramente a suo agio - soprattutto con super aa rispett a sli aa - anche se l'utilizzo dei filtri super aa e sli aa è quantomeno discutibile ad una risoluzione di 1920*1440 con aa 8x e aniso 4x :asd:
in conclusione...corrente sprecata :)
azz ma quanto consumano...350W solo per due VGA?? :D :D :D
Ecco perchè tutti consigliano gli alimentatori da 650W... :D :D
boh.. ho un Tagan 530Watt e mi supporta il sistema in signs... calcola che ho anche 4 hdd scsi e controller.
Angolo degli appunti.. :D
Come e' possibile che nel grafico di BF2 la configurazione SLI della 512 sfoderi prestazioni superiori del 112%?? Errore?? Incremento percentuale riscontrabile anche tra le due configurazioni delle GTX da 256mb (anche se in questo caso e' solo di poco superiore al 100%). Se Yoss aleggia da queste parti, sentiamo cosa ne pensa. Ho notato altri dati un po' "strani", ma questo mi sembra il piu' evidente.
Guarda è probabile che con scheda singola il risultato sia molto castrato dalla banda passante e che, quindi, in modalità SLI dove questo problema viene superato perché ogni scheda elabora meno dati di un frame, le prestazioni schizzano letteralmente. Comunque è una mia supposizione, sarebbe da chiederlo alla Electronic Arts :)
Comunque Battlefield 2 verrà sottoposto da me interamente ad una revisione dei test perché spesso i suoi risultati sono sorprendenti, anche se alla fine rispecchia il trend visto con altri giochi.
Poi insisto riguardo alla rumorosita' della GTX, specialmente a riposo non si sente, non ho un fonometro, ma non supera i 30db nemmeno se ci attacchi l'orecchio e mi sto tenendo larghissimo!! (parlo ovviamente di dissipatori reference). Chi la ha puo' dirmi se mi sbaglio?? Io ne ho vendute parecchie (quasi tutte POV) e non c'e' confronto con le vecchie 6800GT/Ultra, quelle si che erano da 50db!!
Altra nota per la redazione:
Lo so che mi ritenete un rompipalle, ma poco importa. :D Mi spiegate come fate a consigliare la configurazione CF di ATI che uscira' tra un mese e mezzo quando sara' vecchia e passata piu' di quanto non lo sia ora?? Proprio non lo capisco.
ne hi due e rispetto alla 6800Gt fanno molto meno rumero. Dissi default
Poi insisto riguardo alla rumorosita' della GTX, specialmente a riposo non si sente, non ho un fonometro, ma non supera i 30db nemmeno se ci attacchi l'orecchio e mi sto tenendo larghissimo!! (parlo ovviamente di dissipatori reference). Chi la ha puo' dirmi se mi sbaglio?? Io ne ho vendute parecchie (quasi tutte POV) e non c'e' confronto con le vecchie 6800GT/Ultra, quelle si che erano da 50db!!
Altra nota per la redazione:
Lo so che mi ritenete un rompipalle, ma poco importa. :D Mi spiegate come fate a consigliare la configurazione CF di ATI che uscira' tra un mese e mezzo quando sara' vecchia e passata piu' di quanto non lo sia ora?? Proprio non lo capisco.
Riguardo la rumorosità c'è poco da fare. Io non faccio altro che prendere il fonometro e posizionarlo a 10 cm di distanza dalla scheda video in modo che non venga influenzato dalle turbolenze del sistema di dissipazione. Per il resto esce un numeretto che vi riporto :D
Comunque come sta anche scritto nell'articolo, non dovete considerare quel numero come indicativo della rumorosità in termini assoluti. Ovvio che in un case chiuso non si arriverà mai a 60 dB. E' solo un confronto tra le schede: chi è + rumorosa di chi. Niente di più.
Oggi è 20, quindi al massimo esce tra un mese e non ritengo che nessuna scheda attualmente sul mercato tra un mese sarà vecchia.
Guarda è probabile che con scheda singola il risultato sia molto castrato dalla banda passante e che, quindi, in modalità SLI dove questo problema viene superato perché ogni scheda elabora meno dati di un frame, le prestazioni schizzano letteralmente. Comunque è una mia supposizione, sarebbe da chiederlo alla Electronic Arts :)
Comunque Battlefield 2 verrà sottoposto da me interamente ad una revisione dei test perché spesso i suoi risultati sono sorprendenti, anche se alla fine rispecchia il trend visto con altri giochi.
Li chiami tu?? :D io ho un po' da fare ora!! :p
int main ()
20-12-2005, 20:40
Ma perché nn la finiamo di dire stronzate una volta tanto? Entrambe sono ottime schede ed è stato anche evidenziato più volte che con i filtri (per altro unico motivo per accattarsi un sistema a doppia GPU) ATi sia superiore, tant'è che la consigliano pur avendo un prezzo di acquisto superiore.
Cosa sarebbe dovere scusa? Ognuno compra quello che gli pare.
Come vedi ho una nVidia nel pc mio, se dovessi cambiare scheda punterei su una ATi.
Oh questi fan boys... ma quanti anni hai?
tu che ti credi di esser tutto tu il + figo fammi vedere dove le 7800gtx 512mb(d cui mi riferivo io) vengono fregate dalle ati!!! solo dove ho scritto sono stato coerente con quel che intendevo quindi leggi bene prima d parlare si tu che pegasus dvd e per il resto è tutto così.e basta potete dire quel che volete
int main ()
20-12-2005, 20:42
Io questo bench di riddick non lo capisco...ci ho giocato benissimo al massimo @1280x1024 4x-8x con una 6800gt, non mi è parso neanche un gioco così pesante..è analogo a doom3 come pesantezza.
O il bench non c'entra nulla con il gioco reale o io ho avuto le allucinazioni. :fagiano:
no secondo me hai ragione perkè anke oi c ho giokato appena uscito cn la 5900xt cn aa2x e aniso 8x e a 1024 e senza nessuno scatto :sofico:
Riguardo la rumorosità c'è poco da fare. Io non faccio altro che prendere il fonometro e posizionarlo a 10 cm di distanza dalla scheda video in modo che non venga influenzato dalle turbolenze del sistema di dissipazione. Per il resto esce un numeretto che vi riporto :D
Comunque come sta anche scritto nell'articolo, non dovete considerare quel numero come indicativo della rumorosità in termini assoluti. Ovvio che in un case chiuso non si arriverà mai a 60 dB. E' solo un confronto tra le schede: chi è + rumorosa di chi. Niente di più.
Oggi è 20, quindi al massimo esce tra un mese e non ritengo che nessuna scheda attualmente sul mercato tra un mese sarà vecchia.
E chi lo ha mai avuto un case chiuso?? :D quelle che ho venduto io a case aperto (ed anche senza case :D) non si sentono.. come conferma apple80.
Non so il perche' sinceramente. Mentre confermo la rumorosita' delle X1800XT (anche XL) al pari delle 6800/X850.
Per quanto riguarda il mese.. conosci ATI e vedremo.. tra un mese sara' il 2006.. praticamente arrivera' a ridosso dei nuovi mostri e non penso proprio che dovendo fare uno SLI/CF sia il caso di spendere 200€ in piu' ora (sono il 20%).
Sconsiglio caldamente sia le GTX512 che le X1800XT, certo che qualora babbo natale ci portasse le GTX 512 a prezzo di listino la storia sarebbe differente. (per inteso, non consiglio MAI un dual VGA come acquisto diretto, se mai lo posso considerare come espansione in un secondo memento, trattandosi pero' del thread di tale articolo, questa mia idea la devo accantonare).
P.S. Mi sembrava ovvio attendersi un calo di prestazioni da parte delle nVidia con i fitri SLI AA 8 e 16x. Segue perfettamente il trend delle VGA singole.
Hai da qualche parte dei test qualitativi (con screenshot) di tali filtri??
int main ()
20-12-2005, 20:46
AHAHAHAHAHAHAAHHAHAHAHAAHAHAHSHSADHgASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHAAfHAHAHSfHSADHASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHAghAHfAHSHSfADHASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHfAHAHAHAAdghHAHSHSADHASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAfHAAHHAHAHAHAAHAHAHSHfSADHAggSDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHhfgAAghAHAHSHSADHASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAfHAAHAgHAHSHSADHgfASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHAAHAhHAHSHSADHASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHAAHAHAHSHSADHhASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHAAHAHAHSHSADHASDHASHAHGAHGHAGHAG
AHAHAHAHAHAHAAHHAHAHAHAAHAHAHSHSADHASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHAAHAHAHSHSADHASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHAAHAHAHSHSADHASDHASHAHGAHGHAGHAGH
AHAHAHAHAHAHAAHHAHAHAHAAHAHAHSHSADHASDHASHAHGAHGHAGHAGH
guarda che sò perkè ridi -.-' perkè tu sei un fun sfegatato ati esattamente come un mio amico che dice che la sua 9800 è meglio della mia 6600 go che fà andare cod2 a 1440x900 senza scatti e a lui a solo 1024 asd hahah
no secondo me hai ragione perkè anke oi c ho giokato appena uscito cn la 5900xt cn aa2x e aniso 8x e a 1024 e senza nessuno scatto :sofico:
Non dire assurdita', per quanto io sia del parere che la 5900XT sia l'unica buona VGA della serie FX (assieme alla 5200), trovo la tua affermazione inaudibile. Non solo perche' non e' possibile per una mera capacita' di calcolo, ma anche perche' con le DX9 quell'architettura andava letteralmente in tilt. Poi ti invito a leggere tutti i post, poco fa ho spiegato per quale motivo le prestazioni siano cosi' basse. Buona lettura. :)
http://www.tomshw.it/graphic.php?guide=20050705&page=vga-charts-pcie-09
Tieni, qui c'e' senza filtri a 1024 con un bel 21.0 FPS.. giocabilissimo.. Nei test con i filtri nemmeno c'e'. :)
Ti ricordo sempre di leggere quello che ho scritto prima, perche' nella modalita' della prova (presumo e chiedo conferme dalla regia) le FX5 come le radeon (esclusa la serie nuova) non possono nemmeno lavorare.
guarda che sò perkè ridi -.-' perkè tu sei un fun sfegatato ati esattamente come un mio amico che dice che la sua 9800 è meglio della mia 6600 go che fà andare cod2 a 1440x900 senza scatti e a lui a solo 1024 asd hahah
Non e' meno verosimile di quanto hai detto tu poco fa riguardo la tua 5900XT. :)
int main ()
20-12-2005, 21:01
Non dire assurdita', per quanto io sia del parere che la 5900XT sia l'unica buona VGA della serie FX (assieme alla 5200), trovo la tua affermazione inaudibile. Non solo perche' non e' possibile per una mera capacita' di calcolo, ma anche perche' con le DX9 quell'architettura andava letteralmente in tilt. Poi ti invito a leggere tutti i post, poco fa ho spiegato per quale motivo le prestazioni siano cosi' basse. Buona lettura. :)
http://www.tomshw.it/graphic.php?guide=20050705&page=vga-charts-pcie-09
Tieni, qui c'e' senza filtri a 1024 con un bel 21.0 FPS.. giocabilissimo.. Nei test con i filtri nemmeno c'e'. :)
Ti ricordo sempre di leggere quello che ho scritto prima, perche' nella modalita' della prova (presumo e chiedo conferme dalla regia) le FX5 come le radeon (esclusa la serie nuova) non possono nemmeno lavorare.
e chi te l'ha detto a te che è n'assurdità??
io c ho giokato eccome avevo il p4 3200mhz prescott che ho venduto venerdì e andava in quel modo e anke doom 3 mi fila veloce che 6 invidioso? nn capisco credi che tutto dipenda solo dalla scheda video? bò...che ragionamenti...
P.S. nn sono arrabbiato
int main ()
20-12-2005, 21:02
Non e' meno verosimile di quanto hai detto tu poco fa riguardo la tua 5900XT. :)
guarda che la mia 6600 go ha 8 pipe e 3 vertex nn è d quelle che si trovano ne cellulari!! cm lo stesso la 59000xt che tu ti credi così figo devi provarle le cose prima d parlare :mad:
int main ()
20-12-2005, 21:07
Non dire assurdita', per quanto io sia del parere che la 5900XT sia l'unica buona VGA della serie FX (assieme alla 5200), trovo la tua affermazione inaudibile. Non solo perche' non e' possibile per una mera capacita' di calcolo, ma anche perche' con le DX9 quell'architettura andava letteralmente in tilt. Poi ti invito a leggere tutti i post, poco fa ho spiegato per quale motivo le prestazioni siano cosi' basse. Buona lettura. :)
http://www.tomshw.it/graphic.php?guide=20050705&page=vga-charts-pcie-09
Tieni, qui c'e' senza filtri a 1024 con un bel 21.0 FPS.. giocabilissimo.. Nei test con i filtri nemmeno c'e'. :)
Ti ricordo sempre di leggere quello che ho scritto prima, perche' nella modalita' della prova (presumo e chiedo conferme dalla regia) le FX5 come le radeon (esclusa la serie nuova) non possono nemmeno lavorare.
ma che centra!!!!! mica tutte le schede sono uguali!!! la mia era overcloccata cm la 5950 ultra!!!!! quindi ce la faceva eccome e poi mica ho detto che si tirava 6000000 fps!!! nn scattava quindi saranno stati na 40ntina!!! leggi prima d farti il figo
xXxCoKxXx
20-12-2005, 21:15
3 motivi per cui le r520 sono migliori delle g70: 1) composition engine moddabile via driver.. nvida non può2) driver giovani contro driver più che maturi di nvidia 3) scheda madri immature contro schede madri mature..
e siam li come prestazioni tra 520 e g70 ... ditemi voi se questo non è ben sperare per il futuro e per r580 ... magariho una visione sbagliata io.. ma così a prima vista mi sembra la più logica.,
2) driver giovani contro driver più che maturi di nvidia
lasciamo stare i driver. Quelli vanno più che bene sia Ati che Nvidia.
xXxCoKxXx
20-12-2005, 21:24
io direi proprio il contrario ... come fai a dire che van più che bene per entrambi?
capitan_crasy
20-12-2005, 21:24
ma vi rendete conto che nvidia ha iniziato il trend schede video al di sopra del milione
700 euri c@zzo
non è mica una tassa... :O
xXxCoKxXx
20-12-2005, 21:28
mauhauha vabè capitan allora che dire di ati :P stessa storia .. certo che 700 euro per un g70 con memorie più spinte e frequenze più alte è decisamente tr :) se dovessi prendere una configurazione sli ADESSO come ADESSO prenderei 2 7800 gtx a 256mb .. ripeto.. ADESSO come ADESSO.. poichè sono molto fiducioso nel progetto ati
int main ()
20-12-2005, 21:30
3 motivi per cui le r520 sono migliori delle g70: 1) composition engine moddabile via driver.. nvida non può2) driver giovani contro driver più che maturi di nvidia 3) scheda madri immature contro schede madri mature..
e siam li come prestazioni tra 520 e g70 ... ditemi voi se questo non è ben sperare per il futuro e per r580 ... magariho una visione sbagliata io.. ma così a prima vista mi sembra la più logica.,
guarda che i driver maturi come anke le mobo mature sono una buona cosa nn una cosa a sfavore!!! che ragionamenti fai??? :sofico: :sofico:
xXxCoKxXx
20-12-2005, 21:33
allora nn ci arrivi proprio ... -.- caro funboy ... da quanto tempo le 7800gtx in sli sn in commercio
e da quanto invece le x1800xt in CF sn in commercio .... -.- rispondi
int main ()
20-12-2005, 21:35
Originariamente inviato da Fox1984
ma vi rendete conto che nvidia ha iniziato il trend schede video al di sopra del milione
700 euri c@zzo
ma nn lamentatevi dei soldi !!! mica vi obbligano a comprare io mi sono potuto permettere la 7800gt ma se avevo 700 euri prendevo quella!! senza pensarci!che vi lamentate a fà sempre dei soldi quì!!! io nn lo sò!-.-'
int main ()
20-12-2005, 21:36
allora nn ci arrivi proprio ... -.- caro funboy ... da quanto tempo le 7800gtx in sli sn in commercio
e da quanto invece le x1800xt in CF sn in commercio .... -.- rispondi
le nvidia da 1 pezzo le ati 1 mesetto o 2 credo
e chi te l'ha detto a te che è n'assurdità??
io c ho giokato eccome avevo il p4 3200mhz prescott che ho venduto venerdì e andava in quel modo e anke doom 3 mi fila veloce che 6 invidioso? nn capisco credi che tutto dipenda solo dalla scheda video? bò...che ragionamenti...
P.S. nn sono arrabbiato
ma che centra!!!!! mica tutte le schede sono uguali!!! la mia era overcloccata cm la 5950 ultra!!!!! quindi ce la faceva eccome e poi mica ho detto che si tirava 6000000 fps!!! nn scattava quindi saranno stati na 40ntina!!! leggi prima d farti il figo
Cloccando la 5900XT si poteva guadagnare fino al 35% se ti diceva veramente veramente bene. Dunque 21+35%=28.. Wow 28FP, fluidissimo.. Ovviamente la bruci che e' una bellezza dopo 20 minuti.
Se invece la tenevi come la Ultra, vedi c'e' anche quella sulla prova, facevi 24FPS.. evito commenti al riuguardo. :D
Vuoi che ti dica pure a quanto vada con Doom3?? considera che questi test sono fatti con un AMD 64 che distrugge in prescot in tutto, ma nell'ambito ludico lo umilia letteralmente.
Comunque attendo che mi spieghi come funziona una "scheda video" ed il perche' non "dipenda solo da quella". :) Ero convinto del contrario, tanto che ho comprato solo la VGA e l'ho inserita nel tostapane (ho fatto combaciare bene i piedini con la griglia termica, spero di aver fatto tutto bene!!).
xXxCoKxXx
20-12-2005, 21:38
... mauahuahauhauhaa scusa da quanti mesi ?
xXxCoKxXx
20-12-2005, 21:41
ok forse devo esprimermi meglio x farti capire... da quano sono disponibili in volumi per svluppatori e case le gtx in sli e le xt in CF?
3 motivi per cui le r520 sono migliori delle g70: 1) composition engine moddabile via driver.. nvida non può2) driver giovani contro driver più che maturi di nvidia 3) scheda madri immature contro schede madri mature..
e siam li come prestazioni tra 520 e g70 ... ditemi voi se questo non è ben sperare per il futuro e per r580 ... magariho una visione sbagliata io.. ma così a prima vista mi sembra la più logica.,
Io penso di non aver capito il tuo post..
Stai dicendo che ATI ha driver piu' aggiornati per la X1x00 di quanto nVidia non ne abbia per la serie 7800??
Stai dicendo che il g70 consuma di piu' perche' non ha controllo via driver??
Dici anche che le mainboard nVidia osno meno mature delle ATI??
Scusa ma cosa hai bevuto/fumato/sniffato?? :)
Eri ironico vero?? :) Ti prego toglimi 'sto peso. :D
xXxCoKxXx
20-12-2005, 21:46
punto prima x la storia dei driver dico il contrario... per il consumo e MB esatto.. hai capito benissimo!!
int main ()
20-12-2005, 21:46
Cloccando la 5900XT si poteva guadagnare fino al 35% se ti diceva veramente veramente bene. Dunque 21+35%=28.. Wow 28FP, fluidissimo.. Ovviamente la bruci che e' una bellezza dopo 20 minuti.
Se invece la tenevi come la Ultra, vedi c'e' anche quella sulla prova, facevi 24FPS.. evito commenti al riuguardo. :D
Vuoi che ti dica pure a quanto vada con Doom3?? considera che questi test sono fatti con un AMD 64 che distrugge in prescot in tutto, ma nell'ambito ludico lo umilia letteralmente.
Comunque attendo che mi spieghi come funziona una "scheda video" ed il perche' non "dipenda solo da quella". :) Ero convinto del contrario, tanto che ho comprato solo la VGA e l'ho inserita nel tostapane (ho fatto combaciare bene i piedini con la griglia termica, spero di aver fatto tutto bene!!).
siccome nn mi và d insultare ma te li meriteresti davvero un paio..cercherò d stare calmo...io nn c poxo fare un c@xo se a me andava fluido vabene??? non devo dare conto a te e nn mi ammazzo perkè mi andava fluido anzi sono orgoglioso! e non mi frega niente d quello che scrivono i test io nn li calcolo mai! perkè le schede fanno sempre d + a parte qualke scheda d merda cm quelle che avrai avuto tu! nn lo sò ma sono fatti tuoi!! quindi se propio devi rompere qualkosa rompiti le schede video e nn ormpere le @@ a me. :banned:
xXxCoKxXx
20-12-2005, 21:48
e si bannato si mi sa :lol:
int main ()
20-12-2005, 21:49
punto prima x la storia dei driver dico il contrario... per il consumo e MB esatto.. hai capito benissimo!!
oi invece credo che sesse parlando seriamente e adesso per nn fare la figura d merda fà così perkè dagli altri post che ha scritto per ripsondere a me si capisce chiaramente che era serio :rotfl: :rotfl:
int main ()
20-12-2005, 21:50
e si bannato si mi sa :lol:
ma che bannat e bannato era un emoticon per dire che sono incazzato -.-'
xXxCoKxXx
20-12-2005, 21:50
certo hai ragione genio.. aspetto con impazienza la tua bannata :D
xXxCoKxXx
20-12-2005, 21:52
sei sempre OT e utilizzi termini scurrili... le premesse per il ban ci sn tt caro ;)
int main ()
20-12-2005, 21:52
certo hai ragione genio.. aspetto con impazienza la tua bannata :D sei sempre OT e utilizzi termini scurrili... le premesse per il ban ci sn tt caro
dubito avvenga :D cmq tu aspetta e spera :D
purtroppo per te nn sono off topic :D è un 3d d schede video quindi si parla d quello:D ed è normale paragonare a vecchie architteture e parlarne anke :D
I love OC!!
20-12-2005, 22:06
Cloccando la 5900XT si poteva guadagnare fino al 35% se ti diceva veramente veramente bene. Dunque 21+35%=28.. Wow 28FP, fluidissimo.. Ovviamente la bruci che e' una bellezza dopo 20 minuti.
Se invece la tenevi come la Ultra, vedi c'e' anche quella sulla prova, facevi 24FPS.. evito commenti al riuguardo. :D
Vuoi che ti dica pure a quanto vada con Doom3?? considera che questi test sono fatti con un AMD 64 che distrugge in prescot in tutto, ma nell'ambito ludico lo umilia letteralmente.
Comunque attendo che mi spieghi come funziona una "scheda video" ed il perche' non "dipenda solo da quella". :) Ero convinto del contrario, tanto che ho comprato solo la VGA e l'ho inserita nel tostapane (ho fatto combaciare bene i piedini con la griglia termica, spero di aver fatto tutto bene!!).
Non voglio ASSOLUTAMENTE scatenare flame, ma solo per tentare di capirci qualcosa, voglio far presente il fatto che col mio vecchio sistema (prescott @ 3.7 e fx5700 liscia 256mb no OC!!) giocavo a 1024x768 senza filtri abbastanza fluido.
Ho visto strani comportamenti di questo gioco... che giri meglio quando gli pare?
Ora col nuovo sistema non l'ho ancora installato e non ho provato, cmq mai fatto bench, ma a giocarci con la buona vecchia 5700 girava benino...
Ciao a tutti!
int main ()
20-12-2005, 22:12
Non voglio ASSOLUTAMENTE scatenare flame, ma solo per tentare di capirci qualcosa, voglio far presente il fatto che col mio vecchio sistema (prescott @ 3.7 e fx5700 liscia 256mb no OC!!) giocavo a 1024x768 senza filtri abbastanza fluido.
Ho visto strani comportamenti di questo gioco... che giri meglio quando gli pare?
Ora col nuovo sistema non l'ho ancora installato e non ho provato, cmq mai fatto bench, ma a giocarci con la buona vecchia 5700 girava benino...
Ciao a tutti!
nono parla pure fregatene dei flames ecc(a meno che nn siano vietati dal regolamento) perkè lui deve capire che c sono schede e schede e se le sue sono sempre state schifose nn è colpa nostra.
nono parla pure fregatene dei flames ecc(a meno che nn siano vietati dal regolamento) perkè lui deve capire che c sono schede e schede e se le sue sono sempre state schifose nn è colpa nostra.
I flame sono assolutamente vietati dal regolamento di questo forum. Regolati di conseguenza.
int main ()
20-12-2005, 22:19
I flame sono assolutamente vietati dal regolamento di questo forum. Regolati di conseguenza.
ok allora chiedo scusa :D si però dillo anke a quel tizio nn solo a me :p perkè se continua io nn mi ritengo responsabile delle mie azioni :Prrr: :Prrr: a parte gli scherzi ok :ciapet:
Tetsujin
20-12-2005, 22:29
bha..che dire..sono del tutto indifferente a una eventuale soluziona Sli o Crossfire perchè mi sembra fuori dal mondo spendere cifre cosi alte per giocare (ripeto...GIOCARE) quando si puo' farlo benissimo con una scheda singola (e una volta che vai a 60 fps coi filtri attivi non ti serve nulla di piu) ...a meno di non essere ricchi sfondati ovviamente :p
IMHO, per giocare i discorsi sulla potenza bruta contano poco (anche perche giocare con scarti di 5 frames non cambia molto) invece è altrettanto importante la qualità dell'immagine
io amo molto l'HDR, e da quando l'ho provato non voglio piu farne a meno, per me questo basta per decidere l'acquisto di una X1800 in quanto è l'unica che da la possibilita di usare l'AA (sto giocando a SC Chaos Theory in HDR ed è molto piu bello che senza, peccato pero' che non posso attivare l'AA e scusatemi ma nel 2005 vedere quelle linee seghettate mi da alquanto fastidio :)
MiKeLezZ
20-12-2005, 22:36
bha... ho finito ora ora splinter cell (il primo!)
giocato tutto a 1280x1024, AA8xS, AF16X, transparent, ecc, tutto al massimo.
nel livello "urbano" mi sballonzava 30/60 fps, mentre invece per tutto il resto stava a 60fps fisso, chiaramente con vsync (alcune cadute a 50)
francamente non mi aspettavo quei cali.. la grafica è molto carina, ma la complessità è piuttosto bassa..
per godersi tutti i nuovi giochi con i filtri "a palla", serve davvero lo sli e crossfire
che tristezza... :(
int main ()
20-12-2005, 22:42
bha... ho finito ora ora splinter cell (il primo!)
giocato tutto a 1280x1024, AA8xS, AF16X, transparent, ecc, tutto al massimo.
nel livello "urbano" mi sballonzava 30/60 fps, mentre invece per tutto il resto stava a 60fps fisso, chiaramente con vsync (alcune cadute a 50)
francamente non mi aspettavo quei cali.. la grafica è molto carina, ma la complessità è piuttosto bassa..
per godersi tutti i nuovi giochi con i filtri "a palla", serve davvero lo sli e crossfire
che tristezza... :(
ma dai è impossibile!!! io c ho giokato e finito tutto a 1024x 768 cn tutto a manetta aami sembra nn c fosse però XD mentre l'aniso c'è sempre nn lo tolgo mai e stà fisso ad 8x e andava fluidissimo dovunque e l'ho giokato cn la 5900xt!! e domani mi arriva la 800gt e dopo stà cosa che hai detto mi è venuto un brivido:| cmq secondo me è colpa del tuo pc perkè il procesore è un pò deboluccio overcloccalo :sofico: cmq tu intendi il primo splintercell giusto? ho capito bene :confused:
MiKeLezZ
20-12-2005, 22:51
ma dai è impossibile!!! io c ho giokato e finito tutto a 1024x 768 cn tutto a manetta aami sembra nn c fosse però XD mentre l'aniso c'è sempre nn lo tolgo mai e stà fisso ad 8x e andava fluidissimo dovunque e l'ho giokato cn la 5900xt!! e domani mi arriva la 800gt e dopo stà cosa che hai detto mi è venuto un brivido:| cmq secondo me è colpa del tuo pc perkè il procesore è un pò deboluccio overcloccalo :sofico: cmq tu intendi il primo splintercell giusto? ho capito bene :confused:
sì ma non è disastroso.. il vsync limita a 60fps, quindi stava sempre al massimo
però quel livello urbano mi ha lasciato un po' l'amaro in bocca, mi è sceso a 30! ARG :D
bello, e ancora affascinante se giocato con i filtri.. ma corto come gioco però!
int main ()
20-12-2005, 22:52
sì ma non è disastroso.. il vsync limita a 60fps, quindi stava sempre al massimo
però quel livello urbano mi ha lasciato un po' l'amaro in bocca, mi è sceso a 30! ARG :D
bello, e ancora affascinante se giocato con i filtri.. ma corto come gioco però!
infatti nn era chissà chè a lunghezza :mc:
richie_kotzen
20-12-2005, 23:17
bha... ho finito ora ora splinter cell (il primo!)
giocato tutto a 1280x1024, AA8xS, AF16X, transparent, ecc, tutto al massimo.
nel livello "urbano" mi sballonzava 30/60 fps, mentre invece per tutto il resto stava a 60fps fisso, chiaramente con vsync (alcune cadute a 50)
francamente non mi aspettavo quei cali.. la grafica è molto carina, ma la complessità è piuttosto bassa..
per godersi tutti i nuovi giochi con i filtri "a palla", serve davvero lo sli e crossfire
che tristezza... :(
Non ti preoccupare, con tutta la pubblicità gratuita che fai a nVidia e tutti gli attacchi metodici e guidati contro ATI vedrai che i tuoi capi ti regaleranno un bel sistema SLI... :p
Fai parte anche tu di questo programma marketing di nVidia? :read:
http://www.nvitalia.com/forum/showthread.php?t=50882
Tetsujin
20-12-2005, 23:22
per godersi tutti i nuovi giochi con i filtri "a palla", serve davvero lo sli e crossfire
perchè con un AA4x AF8x non te li godi? :fagiano:
YaYappyDoa
20-12-2005, 23:44
Ragassuoli, abbandonate le diatribe e concentratevi qui! Se avete un PC con almeno
- A 1.5GHz Pentium3/Athlon or faster.
- 512MB of RAM (or more)
- A Geforce4Ti (or higher) or ATI Radeon8500 (or higher) graphics card
supporting pixel shaders 1.3, preferably with 128MB or more of VRAM.
- Some kind of sound hardware
- DirectX 9.0b
potete provare questo gioco 3D
www.theprodukkt.com
la bellezza del gioco risiede nella sua piccolezza, solo 96 Kbyte! Non ci saranno dozzine di mostri diversi ma in soli 96 K quel che si vede è un autentico miracolo!! Ho faticato un po' per trovarlo, è un gioco dimostrativo del 2004...
edit- Dimenticavo, il nome del gioco è Kkrieger - chapter 1
Chainbreaker
21-12-2005, 00:17
Scusate ma nel precedente articolo in cui si testavano le X850XT si menzionava dell'impossibilità di far girare un gioco in finestra sfruttando il crossfire: praticamente se uno aveva due X850Xt in CF e voleva giocare in finestra, una scheda se ne stava a dormire... Bene, è possibile sapere se questa limitazione è stata superata con il nuovo composing engine?
Scusate ma nel precedente articolo in cui si testavano le X850XT si menzionava dell'impossibilità di far girare un gioco in finestra sfruttando il crossfire: praticamente se uno aveva due X850Xt in CF e voleva giocare in finestra, una scheda se ne stava a dormire... Bene, è possibile sapere se questa limitazione è stata superata con il nuovo composing engine?
No, non è stata eliminata. CrossFire è solo fullscreen e secondo me ci rimarrà visto che il loro approccio con il composing engine mi sembra molto screen-based. Comunque potrei sbagliarmi, magari arrivano driver che risolvono questo problema.
int main ()
21-12-2005, 00:51
No, non è stata eliminata. CrossFire è solo fullscreen e secondo me ci rimarrà visto che il loro approccio con il composing engine mi sembra molto screen-based. Comunque potrei sbagliarmi, magari arrivano driver che risolvono questo problema.
nn ho capito bene il problema puoi spiegare :confused: :sofico:
yossarian
21-12-2005, 01:29
Angolo degli appunti.. :D
Come e' possibile che nel grafico di BF2 la configurazione SLI della 512 sfoderi prestazioni superiori del 112%?? Errore?? Incremento percentuale riscontrabile anche tra le due configurazioni delle GTX da 256mb (anche se in questo caso e' solo di poco superiore al 100%). Se Yoss aleggia da queste parti, sentiamo cosa ne pensa. Ho notato altri dati un po' "strani", ma questo mi sembra il piu' evidente.
considerando attendibili i test con BF2, in attesa della revisione da parte di Vifani, propenderei per una situazione bandwidth limited per le single vga (termine molto generico in cui, oltre all'ampiezza fisica della banda, si dovrebbe includere la capacità del chip di gestire gli accessi alla memoria)
p.s. vi siete accorti che fino a 1280x1024, con filtri, le GTX 512 MB in SLI sono cpu limited? :D
le nvidia da 1 pezzo le ati 1 mesetto o 2 credo
Le ATI in CF TRA un mesetto o due vorrai dire. :)
JohnPetrucci
21-12-2005, 03:00
Non ti preoccupare, con tutta la pubblicità gratuita che fai a nVidia e tutti gli attacchi metodici e guidati contro ATI vedrai che i tuoi capi ti regaleranno un bel sistema SLI... :p
Fai parte anche tu di questo programma marketing di nVidia? :read:
http://www.nvitalia.com/forum/showthread.php?t=50882
Sai mi ricordi qualcuno........, non è che conosci un area manager Ati per caso?
punto prima x la storia dei driver dico il contrario... per il consumo e MB esatto.. hai capito benissimo!!
I driver maturissimi di nVidia sono migliori, dunque e' un punto a favore, visto che quelli ATI non li sviluppano a quanto pare, l'unica patch degna di nota e' quella di Doom3 (per altro non aspettatevi incrementi simili per tioli in DX).
I driver nVidia lasciano sempre spazio a migliorie e ce ne sono sempre, ad ogni nuova versione.
Le mainboard nVidia sono maturissime quelle ATI no, le nVidia sono palesemente in TUTTO, non capisco cosa possano avere di migliore le ATI. Se me lo spiegassi avrei imparato qualcosa di nuovo.
Se mi parli di possibili miglioramenti, ti avverto che mi metto a ridere, le speranze non sono esattamente materia di un informatico. :)
Se mi parli di miglioramenti delle prestazioni (sempre in vista di miglioramenti, magari da bios) mi strappi un altro sorriso, perche' la gestione della memoria da parte della CPU (in caso di AMD, non credo tu voglia giocare con Intel :) ) lascia poco spazio alla "bontà" del chip, figuriamoci i margini di "perfezionamento".
P.S. La mia MSI neo4 regge l'FSB fino a 400Mhz (ovviamente x2) non credo si possa (e serva) andare oltre. :)
I consumi sono migliori quelli di nVidia, le VGA americane possono variare il clock ed i voltaggi (in tre step differenti) a seconda della modalita' di lavoro, quanto le canadesi non possono fare. Via software puoi regolare le velocita' di entrambe. Ma risichi molto poco.
Se permetti nVidia che ci pensa da sola e' un po' meglio. :) Inoltre scalda meno.
Ti do un consiglio, se vuoi fare retorica sui vantaggi dell'una o dell'altra, usa argomenti adatti (ad esempio ti consiglio i filtri o l'avivo per ATI, per nVidia non te ne consiglio perche' ho l'impressione che non li useresti), questa volta li hai scelti proprio maluccio. :)
No, non è stata eliminata. CrossFire è solo fullscreen e secondo me ci rimarrà visto che il loro approccio con il composing engine mi sembra molto screen-based. Comunque potrei sbagliarmi, magari arrivano driver che risolvono questo problema.
Secondo me hai ragione, ma a parte chi le usa professionalmente (pochi) a che altro servirebbe?? :)
considerando attendibili i test con BF2, in attesa della revisione da parte di Vifani, propenderei per una situazione bandwidth limited per le single vga (termine molto generico in cui, oltre all'ampiezza fisica della banda, si dovrebbe includere la capacità del chip di gestire gli accessi alla memoria)
p.s. vi siete accorti che fino a 1280x1024, con filtri, le GTX 512 MB in SLI sono cpu limited? :D
Aspetta, avanzo un'ipotesi generica: La singola VGA possiede un limite di banda 10 che viene raggiunto da un fattore X=12 (inutile elencare cosa possa costituire questo fattore), suddividendo il lavoro tra le due VGA questo fattore X verra' ovviamente suddiviso in 6 e 6, dunque le due bande saranno piu' libere anche se molto piene (perche' il fattore crescera' fino a 6+Y) e fin quando il programma non richiedera' un calcolo doppio di quello richiesto dalla singola VGA non si saturera' la capacita' della doppia banda. (ho detto calcolo doppio, ma basterebbe di meno).
Non so se nel groviglio sia riuscito a spiegarmi bene. :D
siccome nn mi và d insultare ma te li meriteresti davvero un paio..cercherò d stare calmo...io nn c poxo fare un c@xo se a me andava fluido vabene??? non devo dare conto a te e nn mi ammazzo perkè mi andava fluido anzi sono orgoglioso! e non mi frega niente d quello che scrivono i test io nn li calcolo mai! perkè le schede fanno sempre d + a parte qualke scheda d merda cm quelle che avrai avuto tu! nn lo sò ma sono fatti tuoi!! quindi se propio devi rompere qualkosa rompiti le schede video e nn ormpere le @@ a me. :banned:
Sei orgoglioso di una cosa che non sai come avviene, che non dipende da te e che non e' merito tuo??
Dovresti formulare la teoria della relativita' dell'informatica. :)
Qualcuno ha una gogna??
dubito avvenga :D cmq tu aspetta e spera :D
purtroppo per te nn sono off topic :D è un 3d d schede video quindi si parla d quello:D ed è normale paragonare a vecchie architteture e parlarne anke :D
Non sei in tema, mi sembra che te ne sottragga e basta.
Non voglio ASSOLUTAMENTE scatenare flame, ma solo per tentare di capirci qualcosa, voglio far presente il fatto che col mio vecchio sistema (prescott @ 3.7 e fx5700 liscia 256mb no OC!!) giocavo a 1024x768 senza filtri abbastanza fluido.
Ho visto strani comportamenti di questo gioco... che giri meglio quando gli pare?
Ora col nuovo sistema non l'ho ancora installato e non ho provato, cmq mai fatto bench, ma a giocarci con la buona vecchia 5700 girava benino...
Ciao a tutti!
Certo, dipende dai dettagli che setti nel titolo. :)
Non ti preoccupare, con tutta la pubblicità gratuita che fai a nVidia e tutti gli attacchi metodici e guidati contro ATI vedrai che i tuoi capi ti regaleranno un bel sistema SLI... :p
Fai parte anche tu di questo programma marketing di nVidia? :read:
http://www.nvitalia.com/forum/showthread.php?t=50882
Lo ricordi anche a me..
bha... ho finito ora ora splinter cell (il primo!)
giocato tutto a 1280x1024, AA8xS, AF16X, transparent, ecc, tutto al massimo.
nel livello "urbano" mi sballonzava 30/60 fps, mentre invece per tutto il resto stava a 60fps fisso, chiaramente con vsync (alcune cadute a 50)
francamente non mi aspettavo quei cali.. la grafica è molto carina, ma la complessità è piuttosto bassa..
per godersi tutti i nuovi giochi con i filtri "a palla", serve davvero lo sli e crossfire
che tristezza... :(
Setta la frequenza del monitor du 75Hz, anche gli LCD la reggono.
Date un'occhiata al gioco che ha consigliato YaYappyDoa, ne ho vista di roba da 96K, ma questi l'hanno fata fuori dal vasetto. :)
http://kk.kema.at/files/kkrieger-beta.zip
JohnPetrucci
21-12-2005, 04:00
Date un'occhiata al gioco che ha consigliato YaYappyDoa, ne ho vista di roba da 96K, ma questi l'hanno fata fuori dal vasetto. :)
http://kk.kema.at/files/kkrieger-beta.zip
Lo conosco da tempo.
Grande esempio di come si possa realizzare molto con una buona programmazione, senza occupare giga e giga.
Le texture in alcuni punti sono davvero eccellenti, cmq non credo sia una strada che verrà percorsa in modo intensivo dagli addetti ai lavori.
Lo conosco da tempo.
Grande esempio di come si possa realizzare molto con una buona programmazione, senza occupare giga e giga.
Le texture in alcuni punti sono davvero eccellenti, cmq non credo sia una strada che verrà percorsa in modo intensivo dagli addetti ai lavori.
Non penso proprio purtroppo infatti.. la buona programmazione e' morta con il 68000. ;)
Comunque e' pesantino.. :) Non ho visto l'autore, ma perche' non si buttano a fare giochi, anziche' queste cose!?!?
MiKeLezZ
21-12-2005, 05:29
Setta la frequenza del monitor du 75Hz, anche gli LCD la reggono.La reggono in analogico, in digitale è fissa a 60Hz.
int main ()
21-12-2005, 09:45
Sei orgoglioso di una cosa che non sai come avviene, che non dipende da te e che non e' merito tuo??
Dovresti formulare la teoria della relativita' dell'informatica. :)
Qualcuno ha una gogna??
vedi di smetterla cn st'atteggiamento da superiore che hai perkè mi stai sul bip...
e cmq nn c vuole niente a capire perkè avevo fluidità
perkè i driver erano ottimizzati bene il sistema era occupava poca memoria quindi avevo + ram per me, avevo pokissimi programmi accesi ed avevo la scheda overcloccta che quando overclocco va da dio e sei fortunato che nn poxo + farti screen perkè l'ho venduta settimana scorsa altrimenti ti farei vedere cm mi stà a 1280 x 1204 senza aa ma con anisotropico ad 8x e alta qualità a DOOM 3 ...si tirava almeno quei 30 fps!!! che in gioko come quello sono d'oro!!!ed 1 annetto fà appena preso il pc nuovo cn la 9600xt 256mb doom 3 a 1600x1200 cn aa 6x e anisotropico 8x mi andava a 12 fps(sò che sono pokissimi ma è per farti capire che se uno sà ottimizzare il tutto stà benissimo e io come gli altri a cui tu ti credi superiore nn poxiamo farci niente se tu nn lo sai fare.)
cma STOP
P.S. quando sei nel sito apri il dos e scrivi
shutdwon -a e premi invio
così alleggerisci per un pò il sito
Robbysca976
21-12-2005, 09:49
Ragazzi secondo me è troppo presto per prendere queste schede.Ora come ora costano troppo.Sarebbe meglio fare buoni affari con l'acquisto di schede video top dello scorso semestre. Io infatti ho preso una club3d x850xt a 290E e sono veramente entusiasta. Credo proprio che la cambierò quando usciranno le schede con dx10 nativo altrimenti prenderò una xbox360. :)
Comunque nonostante i grandissimi sforzi che int main () fa per convircerci che le schede video nvidia hanno piu' potenza elaborativa che sono piu' belle che annientano in tutti i test le ati ecc ecc rimane il fatto che fino a prova contraria uno puo' ancora comprare quello che gli pare e siccome io in particolare preferisco la qualita' dell'immagine nei giochi piuttosto che i fps comprero' una ati x1800.
Puntogt95
21-12-2005, 10:28
Buongiorno a tutti,
Possiedo da 1 anno la scheda Sapphire X800 XT e da circa un mese ho acquistato la scheda madre e la scheda video crossfire sempre dello stesso brand.
Dopo avere installato tutti i driver e abilitato la modalità crossfire ho notato che nei giochi le prestazioni sono molto basse..
Utilizzando il programma fraps ho potuto constatare che le prestazioni di una sola scheda video (che sia la X800XT o la X800 crossfire edition) sono superiori a quelle della modalità crossfire.
Si parla tanto di questa nuova tecnologia ma ancora non è stata ottimizzata dal punto di vista dei driver-software, spero che sui modelli X850 e X1800 i benchmark siano decisamente migliori.
Per chi dovesse acquistare una soluzione crossfire lo sconsiglio vivamente (per lo meno per ora..).Chi avesse commesso lo stesso errore può darmi un pò di opinioni sul proprio sistema crossfire e magari darmi qualche dritta per ottimizzare le prestazioni?(sempre che sia possibile..)
Grazie
JohnMullins
21-12-2005, 10:38
Vorrei ricordare a tutti quelli di parte (sia nvidia che ati) che comunque le prestazioni a video di entrambe le schede sono molto buone e penso che i giochi vadano alla grande con entrambe le soluzioni.
L'unica obbiezione da fare a tutte e due è sul prezzo: TROPPO ALTO.. ma che ci vogliamo fare è il mercato, cambi veloci e prezzi esagerati e allora:.....w la fascia media..!
A quelli che dicono che Riddick gli gira bene, dico solo che evidentemente non l'hanno provato con l'opzione PS2.0++, come ha detto qualcuno che nemmeno è stato preso in considerazione; questa opzione è attivabile solo con le Geffo6x00/7800 e ATI X1x00, ricordando anche che il gioco uscì un anno fa, quando ancora non c'erano né le 7800 né tanto meno le X1x00: con la mia 6800GT e i 2.0++, AA4X e AF8X, era semplicemente ingiocabile, tra i 10 e i 20 fps (un po' quello che succede ora con CoD2 con il rendering DX7/DX9). Per quanto riguarda SplinterCell, non vorrei dire una vaccata, ma mi pare che non supportasse affatto l'AA, così come anche il seguito PandoraTomorrow (non c'era nelle opzioni di gioco e non funzionava nemmeno se abilitato dal pannello dei driver, almeno con le schede nVidia: magari è uscita una patch successiva, ma inizialmente non era possibile attivarlo)
yossarian
21-12-2005, 10:58
aggiungo cha il CF ha evidentemente ancora driver da ottimizzare (visto lo scarso guadagno relativo nel pixel fillrate in multitexturing, rispetto al caso di singola vga).
Io ho preso ad agosto una 7800 GTX (passando da una ATi 9700pro del 2001..) e devo dire che giocando da Chaos theory a 1600x1200 con tutti i filtri attivi col sistema in sign sono rimasto letteralmente imperessionato... :eek:
Non e' chiaramente un elogio a nvidia (penso che la x1800xl/xt sia altrettanto mostruosa :sofico: ) ma solo per dire da possessore di queste schede che lo SLI e il Crossfire sono al momento, IMHO, completamente inutili.
Finche' non ci saranno applicativi (e processori)che riusciranno a sfruttare realmente questa potenza.
Cmq confermo la silenziosita' del dissi della 7800, sulla confezione della mia leadtek e' scritto <30 db ma davvero in alcuni casi e' inudibile rispetto ad altri componenti...
Ciao!
credo che a questo livello di schede i bench senza filtri attivati potrebbero addirittura essere evitati ;)
nn ho capito bene il problema puoi spiegare :confused: :sofico:
Quello che voglio dire è che il composing engine lavora sull'immagine in output dall'uscita DVI-I dei due chip R520. Ciò significa che lavora sull'intera immagine visualizzata a schermo (ecco cosa intendo con screen-based). L'unico modo per applicare il CrossFire probabilmente sarebbe abilitarlo anche nel 2D e fargli elaborare tutto, compresa grafica di Windows, come se fosse 3D cosa che attualmente non accade, ma che con Windows Vista ci sarà ad esempio.
Quindi per il momento dubito che funzionerà mai nelle applicazioni in finestra, almeno fino all'arrivo di Windows Vista.
Secondo me hai ragione, ma a parte chi le usa professionalmente (pochi) a che altro servirebbe?? :)
Praticamente a niente. Ormai tutti i giochi partono in fullscreen.
Io il "gioco in finestra" lo sto utilizzando solo ora con World of Warcraft, mentre aspetto che si formi un raid da 40 persone chatto e navigo su internet senza andare continuamente in alt tab, l'unico problema è che si disabilita il sonoro ogni volta che clicco fuori dalla finestra del gioco...
La reggono in analogico, in digitale è fissa a 60Hz.
Chissa' perche' uso l'analogico. :p
Buongiorno a tutti,
Possiedo da 1 anno la scheda Sapphire X800 XT e da circa un mese ho acquistato la scheda madre e la scheda video crossfire sempre dello stesso brand.
Dopo avere installato tutti i driver e abilitato la modalità crossfire ho notato che nei giochi le prestazioni sono molto basse..
Utilizzando il programma fraps ho potuto constatare che le prestazioni di una sola scheda video (che sia la X800XT o la X800 crossfire edition) sono superiori a quelle della modalità crossfire.
Si parla tanto di questa nuova tecnologia ma ancora non è stata ottimizzata dal punto di vista dei driver-software, spero che sui modelli X850 e X1800 i benchmark siano decisamente migliori.
Per chi dovesse acquistare una soluzione crossfire lo sconsiglio vivamente (per lo meno per ora..).Chi avesse commesso lo stesso errore può darmi un pò di opinioni sul proprio sistema crossfire e magari darmi qualche dritta per ottimizzare le prestazioni?(sempre che sia possibile..)
Grazie
La tua CF e' XT anch'essa??
A quelli che dicono che Riddick gli gira bene, dico solo che evidentemente non l'hanno provato con l'opzione PS2.0++, come ha detto qualcuno che nemmeno è stato preso in considerazione; questa opzione è attivabile solo con le Geffo6x00/7800 e ATI X1x00, ricordando anche che il gioco uscì un anno fa, quando ancora non c'erano né le 7800 né tanto meno le X1x00: con la mia 6800GT e i 2.0++, AA4X e AF8X, era semplicemente ingiocabile, tra i 10 e i 20 fps (un po' quello che succede ora con CoD2 con il rendering DX7/DX9). Per quanto riguarda SplinterCell, non vorrei dire una vaccata, ma mi pare che non supportasse affatto l'AA, così come anche il seguito PandoraTomorrow (non c'era nelle opzioni di gioco e non funzionava nemmeno se abilitato dal pannello dei driver, almeno con le schede nVidia: magari è uscita una patch successiva, ma inizialmente non era possibile attivarlo)
L'ho scritto in tre post e nessuno mi ha calcolato (nemmeno tu evidentemente :) ), basta che fanno i spientino doposcuola e sono felici.
DioBrando
21-12-2005, 16:27
l'articolo è ben fatto ed interessante nel capire verso quali mete Nvidia e ATI stanno spingendo l'evoluzione delle schede video...
io cmq resto dell'idea, la stessa che avevo all'indomani della presentazione dello SLI, che sn ambedue tecnologie che fanno la "fortuna" di quei giocatori ( hardcore, patiti ecc. ecc.) che hanno le disponibilità economica e la volontà di investire sugli ultimi ritrovati commerciali...
ma alla resa dei conti per l'utente medio non servono...anche il discorso di poi riciclare una scheda video dopo un pò, metterla in SLI...gli ultimi tempi hanno dimostrato come tutti i competitors abbiano accelerato l'uscita di nuove schede ( che ormai si succedono al ritmo di mesi) e relative nuovi processi produttivi ecc. ecc., tanto che conviene di + prendere una scheda singola e cambiare con questa la precedente +ttosto che spendere 1000 Euro subito e vedere però il proprio sistema video dopo n molto tempo inevitabilmente svalutato.
Senza contare che restano i prob di rumorosità, di calore sviluppato, consumo, driver che devono essere necessariamente metabolizzati...
Insomma se si vuole spendere per avere lo stato dell'arte, benissimo, per tutti gli altri,direi che se ne può fare, altrettanto bene, a meno :)
Praticamente a niente. Ormai tutti i giochi partono in fullscreen.
Appunto.
vedi di smetterla cn st'atteggiamento da superiore che hai perkè mi stai sul bip...
e cmq nn c vuole niente a capire perkè avevo fluidità
perkè i driver erano ottimizzati bene il sistema era occupava poca memoria quindi avevo + ram per me, avevo pokissimi programmi accesi ed avevo la scheda overcloccta che quando overclocco va da dio e sei fortunato che nn poxo + farti screen perkè l'ho venduta settimana scorsa altrimenti ti farei vedere cm mi stà a 1280 x 1204 senza aa ma con anisotropico ad 8x e alta qualità a DOOM 3 ...si tirava almeno quei 30 fps!!! che in gioko come quello sono d'oro!!!ed 1 annetto fà appena preso il pc nuovo cn la 9600xt 256mb doom 3 a 1600x1200 cn aa 6x e anisotropico 8x mi andava a 12 fps(sò che sono pokissimi ma è per farti capire che se uno sà ottimizzare il tutto stà benissimo e io come gli altri a cui tu ti credi superiore nn poxiamo farci niente se tu nn lo sai fare.)
cma STOP
P.S. quando sei nel sito apri il dos e scrivi
shutdwon -a e premi invio
così alleggerisci per un pò il sito
La tua prosopopea e' pari solo alla tua ignoranza.
shutdwon -a e' un comando che non fa altro che interrompere il processo d'arresto del sistema (a=abort) se avessi studiato le basi (ma proprio terra terra) lo sapresti, visto che non e' nemmeno proprietario di windows. Evidentemente hai scimmiottato qualcuno senza nemmeno sapere cosa stessi facendo. :)
L'ottimizzazione del sistema della prova e' perfetta e la RAM e' anche troppa.
Su tom's ci sono i miei record al 3dmark nel thread della classifica, c'e' posto anche per te e per le tue ottimizzazioni, ti aspettiamo. :)
Menomale che qualcuno mi rallegra la giornata ogni tanto. :D
Ragazzi secondo me è troppo presto per prendere queste schede.Ora come ora costano troppo.Sarebbe meglio fare buoni affari con l'acquisto di schede video top dello scorso semestre. Io infatti ho preso una club3d x850xt a 290E e sono veramente entusiasta. Credo proprio che la cambierò quando usciranno le schede con dx10 nativo altrimenti prenderò una xbox360. :)
Sicuro?? per 340€ si trova una 7800GT, per la stessa cifra io avrei preso una 6800Ultra/GT (come ha fatto il 70% del mondo da un anno e mezzo a questa parte) e con la GT/GS avresti speso anche meno.
Comunque nonostante i grandissimi sforzi che int main () fa per convircerci che le schede video nvidia hanno piu' potenza elaborativa che sono piu' belle che annientano in tutti i test le ati ecc ecc rimane il fatto che fino a prova contraria uno puo' ancora comprare quello che gli pare e siccome io in particolare preferisco la qualita' dell'immagine nei giochi piuttosto che i fps comprero' una ati x1800.
Bella grafica quella di ATI.. non c'e' che dire!! :D
Incollo anche qui le schermate di raffronto?? cosi' ci pensi due volte.
credo che a questo livello di schede i bench senza filtri attivati potrebbero addirittura essere evitati ;)
Invece oltre che per la longevita' (non ne ridiscutero' qui :) ) sono utili per chi si ci vedesse abbastanza oltre da capire che spendere il doppio per giocare con i filtri o ad una risoluzione un po' maggiore (sempre che il monitor la regga) e' una cazzata. :)
Personalmente credo che Sli e Crossfire siano due architetture quasi virtuali, nel senso che assomigliano ad uno scontro dei due Colossi nella fascia "stato dell'arte", a dimostrare chi è il più potente in modo accademico, sono quasi degli spot pubblicitari.
E' un po come quando si leggono le riviste di automibili e vengono presentate quelle super-car da 600mila euro o più: belle, però nessuno di noi, credo, ci fa una malattia se non le possiede.
Idem in questo caso, 1400 euro solo per la parte video....
Senza dimenticare che nel case invece che diventare obsolete nel giro di 8 mesi una sola scheda video lo diventano due in un colpo solo...!!!
Ciò non toglie che se me le regalano le prendo ;)
MiKeLezZ
21-12-2005, 17:25
Bella grafica quella di ATI.. non c'e' che dire!! :D
Incollo anche qui le schermate di raffronto?? cosi' ci pensi due volte.MAGARI! Qui c'è confusione sia da una parte che dall'altra... Secondo me sono uguali.. poi bho :/
MAGARI! Qui c'è confusione sia da una parte che dall'altra... Secondo me sono uguali.. poi bho :/
Sì, fregano un po' entrambi, anche nVidia frega se capita, basti guardare il 3dmark, su ATI e' decisamente piu' bello da qualunque punto di vista, ma capisco anche perche' questo avvenga. Non si hanno molte scelte quando un programma di parte (ATI) diventa il primo punto di riferimento, il primo dato confrontato. Per quanto tutti sappiano che quel risultato non voglia dire nulla, quando acquista tale importanza, e' fondamentale spuntarla.
Motosauro
21-12-2005, 18:24
Certo che shutdown -a è stata proprio carina :rotfl:
Io mi sentirei di consigliare un bel
#mount /dev/brain /ndo_te_pare
prima di postare
Un grazie in generale a tutti i quindicenni che coi loro post sboroni mi rallegrano la giornata
L'ho scritto in tre post e nessuno mi ha calcolato (nemmeno tu evidentemente :) ), basta che fanno i spientino doposcuola e sono felici.
Infatti io ho scritto
come ha detto qualcuno che nemmeno è stato preso in considerazione, ma non mi andava di andare a ricercare il nome. ;)
Infatti io ho scritto
, ma non mi andava di andare a ricercare il nome. ;)
Sorry. :)
Comuqnue il succo del discorso non cambmia, c'e' sempre la solita manciata di teste calde che non capiscono nulla di nulla e vogliono vantarsi di cose assurde. Mah, contenti loro, contenti tutti!! :)
Certo che shutdown -a è stata proprio carina :rotfl:
Io mi sentirei di consigliare un bel
#mount /dev/brain /ndo_te_pare
prima di postare
Un grazie in generale a tutti i quindicenni che coi loro post sboroni mi rallegrano la giornata
Dovremmo cominciare a scriverle su un libro.. potremmo farci un po' di soldi a parer mio. :)
int main ()
21-12-2005, 19:33
infatti ho sbagliato a scrivere asd
dovevo scrivere shutdown -s :sofico:
cmq le 7800gt a meno d 340 c sono ed io me la sono presa e euqsta è la chiara dimostrazione che io nn dico cazzate
7800gt a meno d 340 euro (http://www.pixmania.com/it/it/174698/art/pixmania/geforce-7aiigt-25e-mb-pci.html?srcid=71&Partenaire=trovaprezzi_007&CodePromo=oui#fichetechnique)
int main ()
21-12-2005, 19:35
infatti ho sbagliato a scrivere asd
dovevo scrivere shutdown -s :sofico:
cmq le 7800gt a meno d 340 c sono ed io me la sono presa e euqsta è la chiara dimostrazione che io nn dico cazzate
7800gt a meno d 340 euro (http://www.pixmania.com/it/it/174698/art/pixmania/geforce-7aiigt-25e-mb-pci.html?srcid=71&Partenaire=trovaprezzi_007&CodePromo=oui#fichetechnique)
ma che sfiga hanno tolto l'offerta :D sono stato uno dei pochi fortunati a prendersi la 7800gt a 322 euro che bello asd alla faccia vostra :sofico: :sofico: :sofico:
ma che sfiga hanno tolto l'offerta :D sono stato uno dei pochi fortunati a prendersi la 7800gt a 322 euro che bello asd alla faccia vostra
Sicuro che ci fosse? :D
Secondo me la compreresti anche a 600€ solo per far piacere a mammina :)
int main ()
21-12-2005, 20:02
Sicuro che ci fosse? :D
Secondo me la compreresti anche a 600€ solo per far piacere a mammina :)
certamente e cmq anke se fosse costata 600 euro avrei preso la gtx nn t pare :D cmq appena può vi faccio confermare da un amico visto che mi ha dato lui il link
infatti ho sbagliato a scrivere asd
dovevo scrivere shutdown -s :sofico:
cmq le 7800gt a meno d 340 c sono ed io me la sono presa e euqsta è la chiara dimostrazione che io nn dico cazzate
7800gt a meno d 340 euro (http://www.pixmania.com/it/it/174698/art/pixmania/geforce-7aiigt-25e-mb-pci.html?srcid=71&Partenaire=trovaprezzi_007&CodePromo=oui#fichetechnique)
s sta per sistema, dunque hai provato maldestramente a farmi arrestare il pc, ma se vuoi fare uno scherzo imbecille allora dimmi di scrivere anche -t x(numero) -f (f=force) che chiude forzatamente le applicazioni aperte senza chiedere conferma, perche' in caso contrario bastera' dire "annulla" ed il tuo scherzo idiota non verrebbe.
Parliamo di francobolli?? magari ti riesce meglio. :)
ma che sfiga hanno tolto l'offerta :D sono stato uno dei pochi fortunati a prendersi la 7800gt a 322 euro che bello asd alla faccia vostra :sofico: :sofico: :sofico:
Sei troppo figo, io la pago di meno, ma molto meno!! :D
int main ()
21-12-2005, 20:10
cliccate e guardate (http://gamesonnet.altervista.org/immagini/pix7800gt.JPG)
guardate ho messo un pezzo della fattura :sofico: :sofico: :sofico:
int main ()
21-12-2005, 20:11
Sei troppo figo, io la pago di meno, ma molto meno!! :D
beato te ma se poi ti funzionano in modo da nn farti girare nemmeno riddick... :sofico: :sofico: :sofico: :sofico: hahahaa
int main ()
21-12-2005, 20:15
s sta per sistema, dunque hai provato maldestramente a farmi arrestare il pc, ma se vuoi fare uno scherzo imbecille allora dimmi di scrivere anche -t x(numero) -f (f=force) che chiude forzatamente le applicazioni aperte senza chiedere conferma, perche' in caso contrario bastera' dire "annulla" ed il tuo scherzo idiota non verrebbe.
Parliamo di francobolli?? magari ti riesce meglio. :)
intanto tu scrivi shutdown -s così smetti di rompere per un pò :sofico:
Chainbreaker
21-12-2005, 23:16
Praticamente a niente. Ormai tutti i giochi partono in fullscreen.
Col cavolo. Io ho posto questa domanda perchè gioco molto in finestra. Ho un monitor 20 pollici 16/10 della Dell e se giocassi in fullscreen dovrei giocare a 1680x1050, invece gioco in finestra a 1280x1024 (tutti i giochi recenti possono partire in finestra) e mi tengo skipe e messenger sulla destra in vista, è comodissimo!
Per me poter giocare in questo modo è non dico fondamentale, ma sicuramente una gran comodità. Sono proprio l'unico beota che gioca in finestra? :mbe:
MiKeLezZ
21-12-2005, 23:22
in finestra un gioco non te lo godi
Chainbreaker
21-12-2005, 23:26
in finestra un gioco non te lo godi
Mah questione di gusti. Certo in fullscreen la situazione è sicuramente + immersiva, pero' mi piacerebbe avere la possibilità di giocare anche in finestra se volessi... Dio poi il problema nasce solo con il CF e forse non mi prendero' mai due X1800Xt... :cry:
Er_Monnezza
22-12-2005, 01:06
Scusate!Chi non metterebbe i filtri avendo 2 schede così?Un idiota!E chi compra un pc di questa potenza di sicuro non ha problemi di assorbimenti di corrente,si compra pure 2 dissi coi controcazzi e via il rumore... Senza dubbi scelgo ATI!Figurarsi tra 2 o 3 mesi quando escono driver decenti...
Scusate!Chi non metterebbe i filtri avendo 2 schede così?Un idiota!E chi compra un pc di questa potenza di sicuro non ha problemi di assorbimenti di corrente,si compra pure 2 dissi coi controcazzi e via il rumore... Senza dubbi scelgo ATI!Figurarsi tra 2 o 3 mesi quando escono driver decenti...
Vedila anche come possibile espansione, oggi prendi la singola che preferisci e domani, quando i giochi saranno fatti per VGA tre volte piu' potenti, allora metterai la seconda (che costera' 150€) e giocherai senza filtri.. e settaggi grafici bassi. :D Almeno pero' allungherai la vita del sistema.
Col cavolo. Io ho posto questa domanda perchè gioco molto in finestra. Ho un monitor 20 pollici 16/10 della Dell e se giocassi in fullscreen dovrei giocare a 1680x1050, invece gioco in finestra a 1280x1024 (tutti i giochi recenti possono partire in finestra) e mi tengo skipe e messenger sulla destra in vista, è comodissimo!
Per me poter giocare in questo modo è non dico fondamentale, ma sicuramente una gran comodità. Sono proprio l'unico beota che gioca in finestra? :mbe:
Io gli affiancherei un monitor LCD anche piccolo per tenere Skipe e tutto il resto.
P.S. Non sei obbligato a giocare a 1600 in fullscreen. :)
intanto tu scrivi shutdown -s così smetti di rompere per un pò :sofico:
E tu scrivi po' con l'apostrofo perche' vuol dire poco e cade in apocope.. Mah.. Con l'informatica ti va male, con l'italiano non ti dico.. Torno a consigliarti la filatelia.. ah, scusa, i francobolli. :)
Perche' non lo mettete un po' a tacere?? :(
beato te ma se poi ti funzionano in modo da nn farti girare nemmeno riddick... :sofico: :sofico: :sofico: :sofico: hahahaa
Ti aspetto qui, ci conto!! :)
http://www.tomshw.it/forum/showthread.php?t=19974
int main ()
22-12-2005, 10:33
Ti aspetto qui, ci conto!! :)
http://www.tomshw.it/forum/showthread.php?t=19974
ma che roba è quel sito?? tutti pazzzi per il 3d mark 2005? c sono dei punteggi impossibili per 2 6800gt sli cmqnn mi piace
Impossible is nothing if you overclock... ;)
int main ()
22-12-2005, 11:15
Impossible is nothing if you overclock... ;)
si ma si esagera !!gente che cn una 6600gt ha fatto oltre 4000 punti cn un 3500+!! ma dai! e il processore nn era overcloccato era overcloccata solo scheda video! anke se mettono screen ecc io nn c credo
C'è gente che overclocca un P4 a 7GHz, una X1800XT a 1GHz (tutti con azoto liquido)... A quanto era occata questa 6600?
OverClocK79®
22-12-2005, 12:30
intendevo che dovrebbero funzionare meglio sulle ati per i vari effetti delle nuove schede che le nvidia nn hanno
anche questo proprio non mi risulta. :rolleyes:
BYEZZZZZZZZZZZ
int main ()
22-12-2005, 13:24
anche questo proprio non mi risulta. :rolleyes:
BYEZZZZZZZZZZZ
infatti chiedo scusa mea culpa ho detto na cazzata là :sofico:
int main ()
22-12-2005, 13:27
C'è gente che overclocca un P4 a 7GHz, una X1800XT a 1GHz (tutti con azoto liquido)... A quanto era occata questa 6600?
le cose che dici le sappiamo tutti grazie :D cmq la cosa strana è quella di sti link
clicca su questi link
link 1 (http://www.tomshw.it/forum/showthread.php?t=19974&page=98)
link 2 [quello che secondo me è na cavolata] (http://img320.imageshack.us/my.php?image=3dmark0557511503cf.jpg)
ma che roba è quel sito?? tutti pazzzi per il 3d mark 2005? c sono dei punteggi impossibili per 2 6800gt sli cmqnn mi piace
Io conto di toccare i 10mila punti con una GTX, devo solo ultimare la vmod o cambiare la main, pero' il mio sistema e' mal ottimizzato, speravo venissi tu a spiegarcelo!! :D
P.S. Forse con la tua 7800GT riesci a passare la mia 6800GT ;) .. forse..
si ma si esagera !!gente che cn una 6600gt ha fatto oltre 4000 punti cn un 3500+!! ma dai! e il processore nn era overcloccato era overcloccata solo scheda video! anke se mettono screen ecc io nn c credo
E' un punteggio plausibilissimo!! ti rendi conto che hai detto che usavi CoR a 40fps con filtri attivi con una 5900XT ed un prescot (cioe' hai detto che la tua configurazione aveva IL TRIPLO se non il quadruplo delle prestazioni che dovrebbe avere :ciapet: ) e non credi a quei record?? Beh, al contrario delle tue favolette, quelli sono TUTTI documentati. Ti aspettiamo a braccia aperte.
anche questo proprio non mi risulta. :rolleyes:
BYEZZZZZZZZZZZ
Questa mi era sfuggita, fattela spiegare meglio, arriviamo ad una nuova perla. :D
Una al giorno, come i calendari. :D
Non accontentarti del mea culpa. :p
le cose che dici le sappiamo tutti grazie :D cmq la cosa strana è quella di sti link
clicca su questi link
link 1 (http://www.tomshw.it/forum/showthread.php?t=19974&page=98)
link 2 [quello che secondo me è na cavolata] (http://img320.imageshack.us/my.php?image=3dmark0557511503cf.jpg)
Nessun punteggio lì e' una cavolata, nessun processore e' raffreddato criogenicamente, al massimo qualcuno ricorre al liquido.
I miei record sono tutti ad aria e tutti con materiale abbastanza economico (ad esempio non uso gli FX).
Non rosicare, pensa che c'e' gente che ci passa la vita sui computer, da quando e' nata. Io con le prime 6600GT un SLI ho sfiorato gli 8000pt, con le CPU attuali li passerei ed anche di parecchio. Con raffreddamento alternativo si arriva fino a superare i 9000 punti. Considera che non c'e' MAI un raddoppio con lo SLI, vuol dire che una 6600GT puo' passare i 5000pt. Che tu non sia capace e' ovvio e scontato, ma non dare del millantatore a qualcuno solo perche' rosichi. Qui finisce l'OT. Se vuoi parlarne ancora ti aspetto lì.
int main ()
22-12-2005, 21:21
Questa mi era sfuggita, fattela spiegare meglio, arriviamo ad una nuova perla. :D
Una al giorno, come i calendari. :D
Non accontentarti del mea culpa. :p
Nessun punteggio lì e' una cavolata, nessun processore e' raffreddato criogenicamente, al massimo qualcuno ricorre al liquido.
I miei record sono tutti ad aria e tutti con materiale abbastanza economico (ad esempio non uso gli FX).
Non rosicare, pensa che c'e' gente che ci passa la vita sui computer, da quando e' nata. Io con le prime 6600GT un SLI ho sfiorato gli 8000pt, con le CPU attuali li passerei ed anche di parecchio. Con raffreddamento alternativo si arriva fino a superare i 9000 punti. Considera che non c'e' MAI un raddoppio con lo SLI, vuol dire che una 6600GT puo' passare i 5000pt. Che tu non sia capace e' ovvio e scontato, ma non dare del millantatore a qualcuno solo perche' rosichi. Qui finisce l'OT. Se vuoi parlarne ancora ti aspetto lì.
ahuhauahua aspetta soltanto domani che mi arriva il 3200+ che poi t faccio vedere io i limiti dell'overclock ad aria asd
Chainbreaker
22-12-2005, 22:28
Io gli affiancherei un monitor LCD anche piccolo per tenere Skipe e tutto il resto.
P.S. Non sei obbligato a giocare a 1600 in fullscreen. :)
Si hai ragione, pero' non mi va tanto di giocare ad una risoluzione non nativa del mio pannello, per il discorso del rescaling dei pixel...
Sono un maniaco perfezionista? :p
int main ()
23-12-2005, 00:37
ragà guardate quanto mi tira a me ss2 però senza hdr perkè l'ho provato cn la 6600go del potatile naturalmente aa4x e anisotropico 8x e tutti i dettagli d ss2 al massimo risoluzione 1024x768 freuqnze scheda video 450/750 :sofico: guardate che sballo così madrat finalmente mi crederà che nn sono un conta balle :sofico:
immagine di ss2 cn realtivo conto di fps con fraps in alto a sinistra (http://www.lgkclan.com/forum/index.php?act=Attach&type=post&id=125)
nn oso immaginare cosa farà la 7800gt!!!!! cmq ss2 mi gira meglio d quei grafici d questo articolo oppure hdr è pesante da morire?
Si hai ragione, pero' non mi va tanto di giocare ad una risoluzione non nativa del mio pannello, per il discorso del rescaling dei pixel...
Sono un maniaco perfezionista? :p
Aspetta, fammi capire.. il tuo 20" e' LCD?? :-/ Perche' oltre ad essere costosissimi, i pannelli da 20" in genere sono lentissimi.
Comunque l'adattamento di alcuni pannelli e' eccellente, in alcuni giochi fa una sorta di antialias gratuito.
int main ()
23-12-2005, 08:54
Aspetta, fammi capire.. il tuo 20" e' LCD?? :-/ Perche' oltre ad essere costosissimi, i pannelli da 20" in genere sono lentissimi.
Comunque l'adattamento di alcuni pannelli e' eccellente, in alcuni giochi fa una sorta di antialias gratuito.
:eek: NN CREDO AI MIEI OCCHI :eek: devo upparti per il ragionamento dell'AA gratuito :eek: wow ma non prenderci gusto asd :D
ragà guardate quanto mi tira a me ss2 però senza hdr perkè l'ho provato cn la 6600go del potatile naturalmente aa4x e anisotropico 8x e tutti i dettagli d ss2 al massimo risoluzione 1024x768 freuqnze scheda video 450/750 :sofico: guardate che sballo così madrat finalmente mi crederà che nn sono un conta balle :sofico:
immagine di ss2 cn realtivo conto di fps con fraps in alto a sinistra (http://www.lgkclan.com/forum/index.php?act=Attach&type=post&id=125)
nn oso immaginare cosa farà la 7800gt!!!!! cmq ss2 mi gira meglio d quei grafici d questo articolo oppure hdr è pesante da morire?
Non racconti balle, ma enormi minc.. :) Forse lo fai senza malizia, cio' non toglie che ne hai dette di colossali.
Una 6600GT (desk, dunque piu' potente) impostata in massima qualita' con processori molto piu' potenti del tuo, arriva a 40 o poco piu' frame per secondo SENZA nessuno filtro attivo.
La tua avra' un picco di poco meno di 50fps in stato d'immobilita'.
Comuqnue ti do un consiglio; non andare in giro a raccontare che le VGA che hai tu sono 3 volte piu' potenti di quelle identiche nel resto del mondo, non vieni preso molto sul serio e non dire nemmeno che non sappiamo ottimizzare un computer come si deve, perche' non catturi esattamente le nostre simpatie.
Fai un benchmark al tuo SS2 senza filtri a 1024 e vedi il framerate medio a quanto piomba. :)
Apri un thread per proseguire questo discorso (penso che in molti verremo ad ammirare le meraviglie dei tuoi computer), se non te ne fossi accorto qui sei palesemente OT.
int main ()
23-12-2005, 09:04
Non racconti balle, ma enormi minc.. :) Forse lo fai senza malizia, cio' non toglie che ne hai dette di colossali.
Una 6600GT (desk, dunque piu' potente) impostata in massima qualita' con processori molto piu' potenti del tuo, arriva a 40 o poco piu' frame per secondo SENZA nessuno filtro attivo.
La tua avra' un picco di poco meno di 50fps in stato d'immobilita'.
Comuqnue ti do un consiglio; non andare in giro a raccontare che le VGA che hai tu sono 3 volte piu' potenti di quelle identiche nel resto del mondo, non vieni preso molto sul serio e non dire nemmeno che non sappiamo ottimizzare un computer come si deve, perche' non catturi esattamente le nostre simpatie.
Fai un benchmark al tuo SS2 senza filtri a 1024 e vedi il framerate medio a quanto piomba. :)
Apri un thread per proseguire questo discorso (penso che in molti verremo ad ammirare le meraviglie dei tuoi computer), se non te ne fossi accorto qui sei palesemente OT.
cosa!?!? ma porca miseria !!! ma come devo fare per fartelo capire!!! ma dai!!! se faccio il filmato con fraps nn esce il conteggio degli fps altrimenti ti farei vedere!! nn sò + che fare ormai è chiaro che nn vuoi ammetterlo che t devo dire e quando gioko e non c sono nemici arrivo anke sui 52 fps.
cmq mi sà che è meglio che metto la configurazione del mio portatile...
allora:
intel centrino (dothan)1.73ghz bus 533mhz 2mb d cache
ram ddr2 512mb 533 mhz in sincrono
6600go 350/450 600/750
le altre cose nn servono
mo dimmi che è un computer di merda e giuro che nn posto + sul forum perkè vuol dire che il liverllo del forum per colpa tua è sceso sotto terra.
cmq io quel frame rate nn è cn il picco come dici t
int main ()
23-12-2005, 09:06
Non racconti balle, ma enormi minc.. :) Forse lo fai senza malizia, cio' non toglie che ne hai dette di colossali.
Una 6600GT (desk, dunque piu' potente) impostata in massima qualita' con processori molto piu' potenti del tuo, arriva a 40 o poco piu' frame per secondo SENZA nessuno filtro attivo.
La tua avra' un picco di poco meno di 50fps in stato d'immobilita'.
Comuqnue ti do un consiglio; non andare in giro a raccontare che le VGA che hai tu sono 3 volte piu' potenti di quelle identiche nel resto del mondo, non vieni preso molto sul serio e non dire nemmeno che non sappiamo ottimizzare un computer come si deve, perche' non catturi esattamente le nostre simpatie.
Fai un benchmark al tuo SS2 senza filtri a 1024 e vedi il framerate medio a quanto piomba. :)
Apri un thread per proseguire questo discorso (penso che in molti verremo ad ammirare le meraviglie dei tuoi computer), se non te ne fossi accorto qui sei palesemente OT.
cosa!?!? ma porca miseria !!! ma come devo fare per fartelo capire!!! ma dai!!! se faccio il filmato con fraps nn esce il conteggio degli fps altrimenti ti farei vedere!! nn sò + che fare ormai è chiaro che nn vuoi ammetterlo che t devo dire e quando gioko e non c sono nemici arrivo anke sui 52 fps.
cmq mi sà che è meglio che metto la configurazione del mio portatile...
allora:
intel centrino (dothan)1.73ghz bus 533mhz 2mb d cache
ram ddr2 512mb 533 mhz in sincrono
6600go 350/450 600/750
le altre cose nn servono
mo dimmi che è un computer di merda e giuro che nn posto + sul forum perkè vuol dire che il liverllo del forum per colpa tua è sceso sotto terra.
cmq io quel frame rate nn è cn il picco come dici tu!! ficcatelo in testa che c sono pezzi e pezzi!!! ognuno dei quali è particolrae nn esistono quasi mai componenti hardware perfettamente uguali. e t ho anke fatto lo screen cmq vedrò d fare molti screen così vedi
int main ()
23-12-2005, 09:07
Non racconti balle, ma enormi minc.. :) Forse lo fai senza malizia, cio' non toglie che ne hai dette di colossali.
Una 6600GT (desk, dunque piu' potente) impostata in massima qualita' con processori molto piu' potenti del tuo, arriva a 40 o poco piu' frame per secondo SENZA nessuno filtro attivo.
La tua avra' un picco di poco meno di 50fps in stato d'immobilita'.
Comuqnue ti do un consiglio; non andare in giro a raccontare che le VGA che hai tu sono 3 volte piu' potenti di quelle identiche nel resto del mondo, non vieni preso molto sul serio e non dire nemmeno che non sappiamo ottimizzare un computer come si deve, perche' non catturi esattamente le nostre simpatie.
Fai un benchmark al tuo SS2 senza filtri a 1024 e vedi il framerate medio a quanto piomba. :)
Apri un thread per proseguire questo discorso (penso che in molti verremo ad ammirare le meraviglie dei tuoi computer), se non te ne fossi accorto qui sei palesemente OT.
cioè basta nn faccio + screen d niente mi hai rotto vuoi sempre ragione tu basta finiamola anke con il flame stop.
No no, non te la cavi così eh ! :D :D :D
Mo' vogliamo vedere questi screen!!! :D ;)
int main ()
23-12-2005, 10:39
No no, non te la cavi così eh ! :D :D :D
Mo' vogliamo vedere questi screen!!! :D ;)
ok li poxo anke fare fare dovete promettere che siete seri e nn come madrat! che qualsiasi cosa faccia per dimostrarlo nn mi crede :(
cosa!?!? ma porca miseria !!! ma come devo fare per fartelo capire!!! ma dai!!! se faccio il filmato con fraps nn esce il conteggio degli fps altrimenti ti farei vedere!! nn sò + che fare ormai è chiaro che nn vuoi ammetterlo che t devo dire e quando gioko e non c sono nemici arrivo anke sui 52 fps.
cmq mi sà che è meglio che metto la configurazione del mio portatile...
allora:
intel centrino (dothan)1.73ghz bus 533mhz 2mb d cache
ram ddr2 512mb 533 mhz in sincrono
6600go 350/450 600/750
le altre cose nn servono
mo dimmi che è un computer di merda e giuro che nn posto + sul forum perkè vuol dire che il liverllo del forum per colpa tua è sceso sotto terra.
cmq io quel frame rate nn è cn il picco come dici tu!! ficcatelo in testa che c sono pezzi e pezzi!!! ognuno dei quali è particolrae nn esistono quasi mai componenti hardware perfettamente uguali. e t ho anke fatto lo screen cmq vedrò d fare molti screen così vedi
Stai dicendo un mucchio di str.. non aggiungo altro perche' e' OT. Se vuoi che ti spieghi il perche', lo faccio in PVT o apri un thread e dillo a tutti (che esistono hw differenti e che a parita' di HW tu fai il triplo :D), per diventare lo zimbello dell'universo.
P.S. Io ti ho postato i risultati della 6600GT (GITTI), la tua VGA vale la meta'.
P.P.S Esiste la time demo di SS2.
asdasdasd le comiche...
comunque vi prego continuate da un altra parte! (mandatemi in pm dove :D :stordita: :fagiano: ) ho letto pagine solo per leggere robe totalmente OT
asdasdasd le comiche...
comunque vi prego continuate da un altra parte! (mandatemi in pm dove :D :stordita: :fagiano: ) ho letto pagine solo per leggere robe totalmente OT
Ma io devo pur lavora'!! Va be', mandero' avanti la cosa per la comunita'!! Apriro' un thread apposta per lui se e' d'accordo!! :D
Chainbreaker
23-12-2005, 22:07
Aspetta, fammi capire.. il tuo 20" e' LCD?? :-/ Perche' oltre ad essere costosissimi, i pannelli da 20" in genere sono lentissimi.
Comunque l'adattamento di alcuni pannelli e' eccellente, in alcuni giochi fa una sorta di antialias gratuito.
Si veramente il mio monitor è LCD certo! Davo per scontato questo, scusate.
E' questo qua sotto ed è il 2005FPW, mi ci trovo bene, ha un tempo di risposta di 16 millisecondi REALI, il pannello è prodotto da Viewsonic.
http://accessories.euro.dell.com/sna/ProductDetail.aspx?sku=29081&c=it&category_id=6198&cs=itdhs1&image_flag=True&l=it&s=dhs&show_summary=False&page=productlisting.aspx
Si veramente il mio monitor è LCD certo! Davo per scontato questo, scusate.
E' questo qua sotto ed è il 2005FPW, mi ci trovo bene, ha un tempo di risposta di 16 millisecondi REALI, il pannello è prodotto da Viewsonic.
http://accessories.euro.dell.com/sna/ProductDetail.aspx?sku=29081&c=it&category_id=6198&cs=itdhs1&image_flag=True&l=it&s=dhs&show_summary=False&page=productlisting.aspx
Non era cosi' ovvio, il monitor costa piu' di tutto il pc. :D
Chainbreaker
23-12-2005, 23:48
Non era cosi' ovvio, il monitor costa piu' di tutto il pc. :D
Eh già! Ha i suoi quasi due anni sulle spalle e mi sta ancora dando soddisfazioni. Ora pero' sta per essere sostituito con qualcosa di + corposo e al passo con i tempi. A patto che l'Opteron 146 che ho ordinato arrivi!
Quindi tra non molto ci saranno grosse novità in sign! :sofico:
Eh già! Ha i suoi quasi due anni sulle spalle e mi sta ancora dando soddisfazioni. Ora pero' sta per essere sostituito con qualcosa di + corposo e al passo con i tempi. A patto che l'Opteron 146 che ho ordinato arrivi!
Quindi tra non molto ci saranno grosse novità in sign! :sofico:
Ho piazzato dei bellissimi 165, non e' difficile trovarne da 2,7Ghz!! hanno il doppio della cache degli x2 normali e costano meno (se li trovi :D).
Poi hanno un dissipatore reference che e' spettacolare, enorme con HP. Siamo al livello di uno zalman.
nudo_conlemani_inTasca
24-12-2005, 19:02
e' impressionante che con una scheda da 700€ non si riesca a giocare a riddick con i filtri al massimo e una risoluzione un po alta
E' normale... i programmatori l'hanno programmato da cani apposta! :O ;)
direi.. dei bei gingilli inutilmente costosi (sotto tutti i punti di vista):
COSTO, CONSUMI, LONGEVITA', FLESSIBILITA' (titoli che sfruttano tali tecnologie.. fanno ridere talmente sono pochi).
Tutto questo per soli 1.500€? E' una cifra tutto sommato prossima ad una rapina armata, con tanto di mitra.
Tra qualche mese proporranno la XYZ1900 "cazzabubola".. che con un solo chip Video raggiungerà se non surclasserà le attuali soluzioni
(sia SLi, che Crossfire).. dite di no?
Bene, andate a vedere la "mitica" e osannata GeForce 6800 Ultra.. che era la punta di diamante solo ad inizio 2005.. che ha prestazioni (a distanza di 6 mesi) dimezzate e rispetto agli attuali chip Video.. e quanto costava..?
Ah già vero, manco si trovava..! :O
Facciamo un 1.100€ in SLi.. ? :asd:
Opss.. ho dimenticato di sommare l'alimentatore da 600W certificato
dall'esiguo costo di 150€!!! :fiufiu:
in Totale: 1.100€ + 150€ = 1.250€!!! :eek:
SVEGLIATEVI... vi vogliono solo rubare un sacco di soldi..
(mio personale parere)
Una ATi X800GTO 256MB, è un ottimo compromesso per giocare a tutto...
senza farsi "SPENNARE"!
Quando andate in negozio, prima di ordinare una di queste svga..
aspettatevi che il commesso vi dica: "mani in alto.. questo è un acquisto!"
:sbonk:
Spendeteli con oculatezza gli €! ;) :angel:
Happy Xmas 4 everybody !!! :cool:
Chainbreaker
25-12-2005, 03:47
SVEGLIATEVI... vi vogliono solo rubare un sacco di soldi..
(mio personale parere)
Una ATi X800GTO 256MB, è un ottimo compromesso per giocare a tutto...
senza farsi "SPENNARE"!
Spendeteli con oculatezza gli €! ;) :angel:
Happy Xmas 4 everybody !!! :cool:
Si ok il tuo ragionamento non fa una grinza, pero' se io voglio giocare a 1600x1200 o 1280x1024 con filtri 4x8x con tutti i giochi (anche quelli che usciranno da qui a pochi mesi) e tutto al massimo con fluidità totale (picchi MINIMI 30/35 fps) devo comprarmi una di queste schede. Non ho scelta. Con una x800GTO non ci faccio girare niente.
Mi potresti dire che sono un malato a voler giocare a 1600x1200 con filtri e potrei darti ragione, pero' rimane una tua opinione.
Mandi!
Si ok il tuo ragionamento non fa una grinza, pero' se io voglio giocare a 1600x1200 o 1280x1024 con filtri 4x8x con tutti i giochi (anche quelli che usciranno da qui a pochi mesi) e tutto al massimo con fluidità totale (picchi MINIMI 30/35 fps) devo comprarmi una di queste schede. Non ho scelta. Con una x800GTO non ci faccio girare niente.
Mi potresti dire che sono un malato a voler giocare a 1600x1200 con filtri e potrei darti ragione, pero' rimane una tua opinione.
Mandi!
Il suo ragionamento non fila nemmeno un po', non essere benevolo solo perche' e' natale :D.. CoR e' programmato benisimo, semplicemente propone una qualita' che nessun'altro gioco possiede ancora oggi. Possedendo lui una fantastica GTO, ovviamente non ha potuto nemmeno vedere cio' di cui parla (veramente grande scheda, non c'e' che dire :)).
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.