View Full Version : nVidia GeForce 6800 - Thread Ufficiale: Parte2
Dark Schneider
02-07-2004, 15:39
Originariamente inviato da Il Demiurgo
Monsieur e Medame, sono lieto di annunciarvi che ho superato i 12K pts a 3DMark2003 v340:
:yeah: 12084 :yeah:
:smack: Cliccami tutto (http://service.futuremark.com/compare?2k3=2723690) :smack:
CPU a 2460 MHz
GPU a 418 MHz /1130 MHz
Qualche info in +:
_________________________________________________________________________________________________
ForceWare v61.34 Beta / Default Settings
nForce v4.24
DirectX 9.0b
Windows XP SP1 / Full update 2 July 2004
CPU Z v1.23:
FSB = 205,5 MHz
Multiplier = 12,0
Voltage = 1,888 V
Channels = Dual
FSB : DRAM = 1:1
CAS Latency = 2,0 clocks
RAS to CAS Delay = 3 clocks
RAS Precharge = 3 clocks
Cycle Time = 11 clocks
RivaTuner 2.0 RC 15:
GPU Core = 416,8 MHz;
GPU RAM = 1128,6 MHz.
_________________________________________________________________________________________________
Non ho visto traccia di errori grafici...
Ho raggiunto il mio obiettivo ed ho migliorato il punteggio rispetto alla configurazione stock di quasi il 20% :sofico:
Complimenti!! :) Si in effetti anche a me niente artefatti..va tranquillo. Ma non so a quanto mi potrebbe al max. Il fatto è che ripeto, cmq son sicuro che d'inverno ci salgono di più queste schede. D'inverno già le temperature in idle sicuro son sotto a 50.
andreamarra
02-07-2004, 15:39
Originariamente inviato da nonikname
Ciao a tutti , come vanno le GT ??
Se mi sono perso qualcosa , vi chiedo scusa in anticipo , ma vi consiglio caldamente di leggere (se già non l'avete fatto) queste recensioni sulla patch 1.2 di FARCRY (shader 3.0 )
The Tech Report (http://techreport.com/etc/2004q3/farcry/index.x?pg=1)
PC Perspective (http://www.pcper.com/article.php?aid=55)
T-Break (http://www.tbreak.com/reviews/article.php?id=322)
NVNews (http://www.nvnews.net/vbulletin/showthread.php?t=31104)
Se ne vedono delle belle!!!
In the meantime, lets show you some of the improvements that Pixel Shader 3.0 brings with itself. The screenshot below shows Far Cry with PS 3.0- and it sure makes you remind of the difference we saw when we first installed the Voodoo card:
http://www.tbreak.com/reviews/imageview.php?image=8721
ancora sto screen???
CMq, a quanto ho letto, i risultati così "sorprendenti" sono dati dal fatto che non sono test ma dei demo fatti proprio da nvidia per mettere in risalto più del lecito le differenze tra ps2.0 e ps3.0
Dark Schneider
02-07-2004, 15:42
Originariamente inviato da amd-novello
stica!!!
:eek:
mi dite come cavolo overcloccate? tutti i passaggi in cui lo fate.
vado li meto oc automatico riavvio ma è sempre uguale. che coolbits metto?
Ma io semplicemente faccio rilevare e clicco applica. Cmq le modifiche sono istantanee. Ma poi se vuoi andare oltre..aumenti le frequenze te e fai "prova modifiche". Quindi se va a buon fine riapplichi.
KenMasters
02-07-2004, 15:43
Originariamente inviato da andreamarra
In the meantime, lets show you some of the improvements that Pixel Shader 3.0 brings with itself. The screenshot below shows Far Cry with PS 3.0- and it sure makes you remind of the difference we saw when we first installed the Voodoo card:
http://www.tbreak.com/reviews/imageview.php?image=8721
ancora sto screen???
CMq, a quanto ho letto, i risultati così "sorprendenti" sono dati dal fatto che non sono test ma dei demo fatti proprio da nvidia per mettere in risalto più del lecito le differenze tra ps2.0 e ps3.0
a me sembra proprio un fotomontaggio...
andreamarra
02-07-2004, 15:44
Originariamente inviato da ballero
Mi sembrano dei buoni risultati :oink:
http://images.anandtech.com/graphs/farcry%20sm3%20benches_07010410708/2792.png
In realtà questi "bech" sono farlocchi, nel senso che sono dei demo fatti apposta da nvidia per far vedere risultati pompati.
Ne stiamo parlando anche qui http://forum.hwupgrade.it/showthread.php?s=&threadid=718632&perpage=20&pagenumber=5
p.s. tra l'altro in un altro sito la situazione è invece (sempre confronto ps2.0 VS ps3.0) nettamente favorevole a R420... :confused: ??
Il Demiurgo
02-07-2004, 15:45
Originariamente inviato da andreamarra
In the meantime, lets show you some of the improvements that Pixel Shader 3.0 brings with itself. The screenshot below shows Far Cry with PS 3.0- and it sure makes you remind of the difference we saw when we first installed the Voodoo card:
http://www.tbreak.com/reviews/imageview.php?image=8721
ROTFL
:rotfl: :hic: :Prrr: :ahahah: :rolleyes: :ubriachi: :eheh: :gluglu:
andreamarra
02-07-2004, 15:45
Originariamente inviato da KenMasters
a me sembra proprio un fotomontaggio...
E' un fotomontaggio... in ogni caso (considerando anche che a livello visivo non ci saranno differenze tra i due shader...) non capisco come si possa prendere per buoni dei test fatti da un sito che usa in prima pagina questa farloccheria...
ultimate trip
02-07-2004, 15:45
Originariamente inviato da KenMasters
a me sembra proprio un fotomontaggio...
non sembra, è un fotomontaggio :old:
andreamarra
02-07-2004, 15:47
Originariamente inviato da Il Demiurgo
ROTFL
:rotfl: :hic: :Prrr: :ahahah: :rolleyes: :ubriachi: :eheh: :gluglu:
La cosa drammatica è che non l'ho inventata io questa cosa qua... è presa pari pari da un sito postato da nonickname :confused: ?
E la cosa ancor più drammatica sarà vedere ragazzini comprarsi la NV40 per vedere "quei ps3.0".....
KenMasters
02-07-2004, 15:48
Originariamente inviato da ultimate trip
non sembra, è un fotomontaggio :old:
scusate l'ignoranza, forse sto diventando :old: anch'io
:sofico:
Arruffato
02-07-2004, 15:49
[B]L'SDA consegna di sabato?
Non mi risulta.
Originariamente inviato da Arruffato
Non mi risulta.
non consegna ma con il numero di track sipuò andare a ritirare al magazzino della proprio città
andreamarra
02-07-2004, 15:59
Ragazzuoli nvidiosi :D vi va di provare questo bellissimo bench e di dirmi quanti fps circa fa la vostra schedozza (niente filtri, lasciate le ris. che è impostata di default)
;)
edit... non funzia il link... :(
Cmq qualcuno di voi sa dove trovare il demo di quelle sfere che giravano cambiando colore? Era stupendo :flower:
andreamarra
02-07-2004, 16:03
Originariamente inviato da andreamarra
Ragazzuoli nvidiosi :D vi va di provare questo bellissimo bench e di dirmi quanti fps circa fa la vostra schedozza (niente filtri, lasciate le ris. che è impostata di default)
;)
edit... non funzia il link... :(
Cmq qualcuno di voi sa dove trovare il demo di quelle sfere che giravano cambiando colore? Era stupendo :flower:
EDIT :D
trovato, andate qua http://forum.hwupgrade.it/showthread.php?threadid=681576&pagenumber=1 e cercate il link postato da belin (In neretto c'è scritto "Tech Demo Per tutte le schede video che supportino Vertex Shader 2.0 e Pixel Shader 2.0")
:)
Il Demiurgo
02-07-2004, 16:05
[B]Cmq qualcuno di voi sa dove trovare il demo di quelle sfere che giravano cambiando colore? Era stupendo :flower:
nVidiot mode ON:
Si, quel bench dove ci sono le pudenda di quelli che hanno speso + di 450€ per l'X800 Pro :D
nVidiot mode OFF.
Dark Schneider
02-07-2004, 16:10
Originariamente inviato da capoz
non consegna ma con il numero di track sipuò andare a ritirare al magazzino della proprio città
Ma di sabato son aperti i magazzini SDA?
Housem@n
02-07-2004, 16:11
Originariamente inviato da Dark Schneider
Ma di sabato son aperti i magazzini SDA?
si al 200%:)
amd-novello
02-07-2004, 16:13
Originariamente inviato da Il Demiurgo
Per i coolbits guarda qui:
CoolBits2 (http://www.nvnews.net/vbulletin/showthread.php?t=29541)
Sali di pochi MHz per volta (max +10 !!! e quando superi i 400 fai massimo +3 !!!), fino a quando non trovi il limite.
Per verificare la stabilità fai un bench di 3DMark03, se è instabile lo noti prima di tutto nel 3° test, quello dei trolls; la prima cosa che vedi sono ombre sbagliate che appaiono, scompaiono, si muovono a casaccio.
Sali prima col core, una volta trovato il limite cominci a salire di memoria questa colta con incrementi di 0.01/0.02 GHz max...
Per essere sicuro di non rovinare la scheda facci girare sotto RivaTuner 2 RC 15 (guru3d), con il monitoring delle temperature attivo, quando vedi che hai picchi di +80/85 °C bloccati, non continuare nell'OC...
Scrivi se hai dubbi...
ok 400/1100
68gradi sotto sforzo (:D ho il ventilatore attaccato se no l'hd arriva a 60 :( )
grazie
PS: fra poco un mio amico mi presta farcry e lo provo visto che la merdaccia della demo non parte.
Dark Schneider
02-07-2004, 16:14
Originariamente inviato da Housem@n
si al 200%:)
Bene...sempre se arriva di sabato nel magazzino!! :)
amd-novello
02-07-2004, 16:23
beccatevi sta pic del bumpmapping. e pensare che sono texture piatte ed è un'illusione!!! ma mettere questo nei giochi invece di 800.000 effetti?
è nel test di humus (?) che hanno postato qualche pag indietro. :D
nonikname
02-07-2004, 16:55
Originariamente inviato da andreamarra
La cosa drammatica è che non l'ho inventata io questa cosa qua... è presa pari pari da un sito postato da nonickname :confused: ?
E la cosa ancor più drammatica sarà vedere ragazzini comprarsi la NV40 per vedere "quei ps3.0".....
Guru 3d (http://www.guru3d.com/article/gamereviews/137/)
"The SM3 performance differences between the levels are big, some levels simple make more use of shaders.The demo's provided come from CryTek and not from NVIDIA to kill of a presumtion. These levels are inside the new patch.Hey as you can see, that's extra performance people. We measured an up to 25% (not overall) performance increase on the overall framerate which makes Shader Model 3 somewhat more interesting then it did a few weeks ago. The performance increase is level dependant though and in some level just a few percent. The NVIDIA 6800 cards obviously have room for small performance gains making the 6800 series even more interesting.
Andrea , qui non si parla di effetti in più , ma di un path più snello dovuto alla più potente gestione degli shaders con le schede Nvidia : effetti uguali , performance maggiori con minore sforzo della GPU !! e ricorda , siamo solo all'inizio!!!
Monday the patch will be publicly available. If you grab the new patch and update everything yourself and would like to try a test-run then this is what you need to observe for the proper codepath.......
amd-novello
02-07-2004, 17:04
secondo te devo mettere sto dll in FC
www.tommti-systems.de - Far Cry v1.1 Image quality fix for nvidia geforce fx/6 cards
- place this d3d9.dll in the \Far Cry\Bin32 folder
- this simply enables the R3xx path on nvidia cards, which could be slower on geforce fx cards
- run the game
dice che abilita x l'rXX quindi a me non frega niente giusto?
volevo usare e provare se andavano i PS3. metto la 1.1 e basta?
ho le dx9.0b le c non le trovo sono indispensabili?
grazie
andreamarra
02-07-2004, 17:11
Originariamente inviato da nonikname
Guru 3d (http://www.guru3d.com/article/gamereviews/137/)
"The SM3 performance differences between the levels are big, some levels simple make more use of shaders.The demo's provided come from CryTek and not from NVIDIA to kill of a presumtion. These levels are inside the new patch.Hey as you can see, that's extra performance people. We measured an up to 25% (not overall) performance increase on the overall framerate which makes Shader Model 3 somewhat more interesting then it did a few weeks ago. The performance increase is level dependant though and in some level just a few percent. The NVIDIA 6800 cards obviously have room for small performance gains making the 6800 series even more interesting.
Andrea , qui non si parla di effetti in più , ma di un path più snello dovuto alla più potente gestione degli shaders con le schede Nvidia : effetti uguali , performance maggiori con minore sforzo della GPU !! e ricorda , siamo solo all'inizio!!!
Monday the patch will be publicly available. If you grab the new patch and update everything yourself and would like to try a test-run then this is what you need to observe for the proper codepath.......
Questo è sicuro :)
La cosa che non ho capito è il motivo per cui ancora va in giro quel fake di Far Cry :confused: ...
Praticamente da alcune parti vogliono far coltivare l'idea che i ps3.0 servano per avere qualità maggiore. Ma usare quella foto... :D
e che sono dei bontemponi:D :D eco arrrivvvaaaa la brigata dell’allegrrriaaaaaa:sofico:
Dark Schneider
02-07-2004, 17:20
Originariamente inviato da andreamarra
Questo è sicuro :)
La cosa che non ho capito è il motivo per cui ancora va in giro quel fake di Far Cry :confused: ...
Praticamente da alcune parti vogliono far coltivare l'idea che i ps3.0 servano per avere qualità maggiore. Ma usare quella foto... :D
Veramente quel fake ricordo uscì la prima volta (o almeno qui sul forum) dicendo che era FC con l'R420, pensa un po'...
Ovviamente ben pochi ci hanno creduto.
Dark Schneider
02-07-2004, 17:24
Originariamente inviato da amd-novello
secondo te devo mettere sto dll in FC
www.tommti-systems.de - Far Cry v1.1 Image quality fix for nvidia geforce fx/6 cards
- place this d3d9.dll in the \Far Cry\Bin32 folder
- this simply enables the R3xx path on nvidia cards, which could be slower on geforce fx cards
- run the game
dice che abilita x l'rXX quindi a me non frega niente giusto?
volevo usare e provare se andavano i PS3. metto la 1.1 e basta?
ho le dx9.0b le c non le trovo sono indispensabili?
grazie
Guarda non devi modificare proprio nulla.
Metti la patch 1.1 e se hai i drivers corretti la grafica è corretta.
Aspetta la patch 1.2 prima di mettere le dx9.0c!!
L'FSAA però abilitalo dal gioco. Mentre l'AF dal pannello di controllo.
andreamarra
02-07-2004, 17:24
Originariamente inviato da Dark Schneider
Veramente quel fake ricordo uscì la prima volta (o almeno qui sul forum) dicendo che era FC con l'R420, pensa un po'...
Ovviamente ben pochi ci hanno creduto.
Si, infatti ricordo le risate all'epoca :D
Però non ho capito il senso di riportarla in prima pagina (prima pagina :eek: ) su di un sito che fa review serie :fagiano:
Cmq, aspetto con ansia la patch 1.2 per vedere come sarà il risultato finale (magari con lòa versione finale si guadagna qualcosa in più :oink: )
rammarico mode ON
peccato solo per il 3DC, utile o inutile che sia... sarebbe stato un ulteriore aggiunto alla NV40... cazz, così non avrei avuto nessunissimo dubbio :D
rammarico mode OFF
Originariamente inviato da amd-novello
secondo te devo mettere sto dll in FC
www.tommti-systems.de - Far Cry v1.1 Image quality fix for nvidia geforce fx/6 cards
- place this d3d9.dll in the \Far Cry\Bin32 folder
- this simply enables the R3xx path on nvidia cards, which could be slower on geforce fx cards
- run the game
dice che abilita x l'rXX quindi a me non frega niente giusto?
volevo usare e provare se andavano i PS3. metto la 1.1 e basta?
ho le dx9.0b le c non le trovo sono indispensabili?
grazie
Non è giusto!!! :D
Dice che abilita sulle GeForceFX l'R3XX path per risolvere i problemi legati al banding (questo lo aggiungo io, e comunque se ne è parlato nell'altro 3d).
BYEZZZZZZ!!!!!! ;)
Dark Schneider
02-07-2004, 17:51
Originariamente inviato da andreamarra
Si, infatti ricordo le risate all'epoca :D
Però non ho capito il senso di riportarla in prima pagina (prima pagina :eek: ) su di un sito che fa review serie :fagiano:
Cmq, aspetto con ansia la patch 1.2 per vedere come sarà il risultato finale (magari con lòa versione finale si guadagna qualcosa in più :oink: )
rammarico mode ON
peccato solo per il 3DC, utile o inutile che sia... sarebbe stato un ulteriore aggiunto alla NV40... cazz, così non avrei avuto nessunissimo dubbio :D
rammarico mode OFF
Può darsi che ce l'hanno messo giusto così. Non penso che l'intenzione era far credere alla gente una simile qualità di NV40....e nemmeno di R420 quando uscì stessa foto per R420. :)
Dark Schneider
02-07-2004, 17:53
Originariamente inviato da Zak84
Non è giusto!!! :D
Dice che abilita sulle GeForceFX l'R3XX path per risolvere i problemi legati al banding (questo lo aggiungo io, e comunque se ne è parlato nell'altro 3d).
BYEZZZZZZ!!!!!! ;)
Esatto. Tra l'altro con i drivers nuovi è risolto pure. Quindi non c'è proprio utilità. :)
peccato solo per il 3DC, utile o inutile che sia... sarebbe stato un ulteriore aggiunto alla NV40... cazz, così non avrei avuto nessunissimo dubbio
perchè nvidia crede molto nel Displacement Mapping che ci vuoi fa...........
andreamarra
02-07-2004, 18:59
Originariamente inviato da Ren
perchè nvidia crede molto nel Displacement Mapping che ci vuoi fa...........
Bene, il problema è che sullo stesso displacement mapping ci sono versioni differenti.
Da una parte leggi che tutte e due i nuovi chip lo sfruttano, da un'altra parte leggi che NV40 si e R420 no, da un'altra ancora leggi che entrambe lo sfruttano con la differenza di non essere un DM adattivo.
Fek stesso ha detto che il displacement mapping su Nv40 e R420 è il medesimo, ma non adattivo.
Non so più che dire, troppi misteri :cry: !!
Cmq, a livello qualitativo il Displacement mapping è sicuramente superiore al 3DC!
andreamarra
02-07-2004, 19:08
Originariamente inviato da Dark Schneider
Può darsi che ce l'hanno messo giusto così. Non penso che l'intenzione era far credere alla gente una simile qualità di NV40....e nemmeno di R420 quando uscì stessa foto per R420. :)
Però hai visto la prima pagiona del link che ha postato nonickname :D ?
Analisi buona, credo, ma in prima pagina c'è la foto incriminata con la scritta "Questo è un esempio della potenzialità degli shader 3.0" :asd:
Il Demiurgo
02-07-2004, 19:44
Domandina tecnica:
Quale filtro ha una qualità maggiore: bilineare o trilineare?
L'anistropico sostituisce i primi due o si aggiunge?
Grazie:)
alla fin fine il 3dc è solo un algoritmo di compressione le normal map si possono applicare anke senza, pensa che riddick su xbox ha le normal map...
andreamarra
02-07-2004, 20:12
Originariamente inviato da Ren
alla fin fine il 3dc è solo un algoritmo di compressione le normal map si possono applicare anke senza, pensa che riddick su xbox ha le normal map...
Si, ovviamente più che per l'effetto (riproducibile) era interessante il fatto che aumentavi la qualità migliorando di molto la velocità.
menomale che gli shader 3 erano inutili :sofico:
Ati x me nn ha presentato un'architettura nuova anke per via dello xenon di microsoft......presentagli una GPU di un'anno fa potenziata a zio Bill e ti fucila
R500 = Xenon = 2005 molto inoltrato x i PC
andreamarra
02-07-2004, 20:15
Scusate, ma era troppo forte :asd:
http://www.stud.ntnu.no/~shane/stasj/pics/humor/div/nvidia_test_rig.jpg
:rotfl:
Si, ovviamente più che per l'effetto (riproducibile) era interessante il fatto che aumentavi la qualità migliorando di molto la velocità.
penso che comporti solo un aumento di memoria in sua assenza
Originariamente inviato da Il Demiurgo
Domandina tecnica:
Quale filtro ha una qualità maggiore: bilineare o trilineare?
Trilineare
L'anistropico sostituisce i primi due o si aggiunge?
Grazie:)
L'anisotropico è un filtro che può usare bilineare o trilineare.
Originariamente inviato da Ren
penso che comporti solo un aumento di memoria in sua assenza
Considera che comprimendo le normal map con DTX5 (come cacchio si chiamaaaa!!!!!?????) si possono ottenere in alcuni casi degli artefatti, che non si ottengono usando il 3dc di Ati.
Si usano molto poco le Normal Map (a farne uso pesante per primo probabile sia il motore nuovo di Unreal 3) perchè sono grosse da gestire, compresse invece possono essere utilizzate, vuoi perchè stanno in memoria, vuoi perchè sono più piccole da gestire.
nonikname
02-07-2004, 20:57
NVIDIA SLI (dual 6800u PCIe) 21185pt 3dmarks03
the Inquirer (http://www.theinquirer.net/?article=16965) :eek: :eek:
TheDarkAngel
02-07-2004, 21:00
Originariamente inviato da nonikname
NVIDIA SLI (dual 6800u PCIe) 21185pt 3dmarks03
the Inquirer (http://www.theinquirer.net/?article=16965) :eek: :eek:
e con che processore hanno tirato fuori un tal punteggio?
Originariamente inviato da TheDarkAngel
e con che processore hanno tirato fuori un tal punteggio?
con due sch video avrei pensato d+
andreamarra
02-07-2004, 21:07
Ma questo SLI può essere fatto solo tra due NV40? Le R420 non possono?
Originariamente inviato da andreamarra
Ma questo SLI può essere fatto solo tra due NV40? Le R420 non possono?
di quello n ho ancora visto nulla............:(
Originariamente inviato da DjLode
L'anisotropico è un filtro che può usare bilineare o trilineare.
non è esatto..
l'anisotropico è un'alternativa alla natura isotropica dei filtri trilineare e bilineare..l'unico problema è ke il filtro anistropico "puro" rikiede enormi quantitativi di bandwidth e potenza di calcolo, quindi è tuttora inutilizzabile sulle schede anke di fascia altissima
per questo, finora si è ricorso, nel mercato consumer, a un anisotropico di tipo adattivo, cioè che basandosi alternativamente su un filtro trilineare e bilineare a seconda dell'angolazione delle texture rispetto al punto di vista, dando l'impressione di un anisotropico puro, ma con una rikiesta di calcolo nettamente inferiore :)
bYeZ!
Originariamente inviato da TheDarkAngel
e con che processore hanno tirato fuori un tal punteggio?
ancora si stanno kiedendo a ke risoluzione sia stato eseguito il bench...ricordate gli oltre 15000 col geforce 6800ultra? :asd: fatti a 800x600 :sofico:
bYeZ!
Originariamente inviato da ATi7500
non è esatto..
l'anisotropico è un'alternativa alla natura isotropica dei filtri trilineare e bilineare..l'unico problema è ke il filtro anistropico "puro" rikiede enormi quantitativi di bandwidth e potenza di calcolo, quindi è tuttora inutilizzabile sulle schede anke di fascia altissima
per questo, finora si è ricorso, nel mercato consumer, a un anisotropico di tipo adattivo, cioè che basandosi alternativamente su un filtro trilineare e bilineare a seconda dell'angolazione delle texture rispetto al punto di vista, dando l'impressione di un anisotropico puro, ma con una rikiesta di calcolo nettamente inferiore :)
bYeZ!
Il che in sostanza altro non vuole dire che l'anisotropico usa bilineare o trilineare per ottenere quello che deve ottenere :)
nonikname
02-07-2004, 21:37
Originariamente inviato da andreamarra
Ma questo SLI può essere fatto solo tra due NV40? Le R420 non possono?
In teoria si perchè la serie 6 nVidia è stata costruita appositamente con un canale di sincronizzazione per poter bilanciare il carico di lavoro su due GPU....
Nei driver Nvidia , quando si collegano 2 6800 uguali (che siano lisce , GT o Ultra non cambia , ma devono essere 2 schede uguali) , appare una finestra che chiede in che modo ripartire il carico di lavoro fra le 2 GPU :
Bilanciato: il carico di lavoro viene automaticamente ripartito fra LE 2 gpu , in base alla complessità della parte superiore rispetto a quella inferiore ... l'immagine 3D non è mai perfettamente simmetrica : c'è ne sempre una parte più "pesante" , quindi l'immagine viene renderizzata in 2 parti , una più piccola (con più poligoni , texture o effetti vari) e una piu grande con meno carico di lavoro... Esempio: la parte superiore di un paesaggio 3d comprende il cielo che è meno "complesso" , perciò la prima GPU renderizzerà il 60% del Frame , mentre la seconda il 40% a seconda dei casi...
Alternato: una GPU renderizza un frame , mentre l'altra "prepara" il prossimo frame da renderizzare , quindi le 2 GPU si alternano...
Oltre ad essere una feature gestita dai driver , bisogna che la GPU sia in grado di comunicare con l'altra con un canale dedicato: il Bridge SLI Nvidia è stato progettato per questo , ma nell'NV40 è stato implementato un canale di sincronizzazione/scambio dati in fase di progettazione , quindi , per far girare 2 schede ATI (o di qualsiasi altra marca) , c'è bisogno di una scheda di supporto + driver , altrimenti la sola motherboard con 2 porte PCIe non basta....
Per cambiare discorso e inserire un po di pepe , a sentire The Inquirer , ATI per la fine dell'anno ha intenzione di recuperare il Gap tecnologico che c'è con Nvidia , lanciando una nuova scheda Top gamma con supporto agli shaders 3.0 : e menomale che non servivano a nulla :muro:
nonikname
02-07-2004, 21:39
Originariamente inviato da ATi7500
ancora si stanno kiedendo a ke risoluzione sia stato eseguito il bench...ricordate gli oltre 15000 col geforce 6800ultra? :asd: fatti a 800x600 :sofico:
bYeZ!
Io sono quasi a 14000 , ma a 1024x768 :D
Edit : correzione sboronaggine:D
Originariamente inviato da nonikname
Io sono a 14600 , ma a 1024x768 :D
si ma io mi riferivo ai primissimi test con i primi driver proprio..e a frequenze default..
bYeZ!
Originariamente inviato da DjLode
Il che in sostanza altro non vuole dire che l'anisotropico usa bilineare o trilineare per ottenere quello che deve ottenere :)
beh da un punto di vista tecnico credo di poter affermare ke l'anisotropico puro non si basa nè su trilineare nè su bilineare, era questo il senso del mio intervento ;)
bYeZ!
Originariamente inviato da ATi7500
beh da un punto di vista tecnico credo di poter affermare ke l'anisotropico puro non si basa nè su trilineare nè su bilineare, era questo il senso del mio intervento ;)
bYeZ!
E io nun c'avevo voglia di fare un discorso sull'anisotropico e ho tagliato la testa al toro :)
amd-novello
02-07-2004, 21:53
Originariamente inviato da nonikname
ATI per la fine dell'anno ha intenzione di recuperare il Gap tecnologico che c'è con Nvidia , lanciando una nuova scheda Top gamma con supporto agli shaders 3.0 : e menomale che non servivano a nulla :muro:
:eek: :eek: :eek: :eek:
nonikname
02-07-2004, 21:53
Sia che si tratti di filtro bilineare, trilineare o anisotropico vengono presi punti campione sui quali si eseguono operazioni distinte. Il punto campione prende il valore di colore dal pixel più vicino al centro dell'oggetto che viene filtrato. Usando il Filtro Bilineare si prende il valore del colore dai 4 pixel adiacenti (texels) e si interpola il risultato. Con il Filtro Trilineare si aggiunge, alla precedente procedura, l’acquisizione di 2 ulteriori punti prese sulle texture sovrapposte. Il valore definitivo del colore visualizzato sarà la risultante di 8 texels.
Attivando il filtro anisotropo vengono presi molti più campioni di texels in una porzione ellittica della superficie che si sta filtrando.
Tale filtro si aggiunge a quello bilineare o trilineare come segue: - Nella Filtrazione Anisotropica Bilineare, vengono prelevati 4 campioni di texels più vicini al centro dell'oggetto che è osservato e 8 campioni di texel da ogni pixel. In pratica il valore finale del colore è dato dalla miscela dei 32 (4*8) punti analizzati.
- Nella Filtrazione Anisotropica Trilineare, vengono prelevati 4 campioni di texels più vicini al centro dell'oggetto che è osservato su 2 livelli di mip-map e 8 campioni del texel da ciascuno di essi. In pratica il valore finale del colore è dato dalla miscela dei 64 (4*2*8) punti analizzati.
Thunder82
02-07-2004, 21:59
Originariamente inviato da nonikname
Sia che si tratti di filtro bilineare, trilineare o anisotropico vengono presi punti campione sui quali si eseguono operazioni distinte. Il punto campione prende il valore di colore dal pixel più vicino al centro dell'oggetto che viene filtrato. Usando il Filtro Bilineare si prende il valore del colore dai 4 pixel adiacenti (texels) e si interpola il risultato. Con il Filtro Trilineare si aggiunge, alla precedente procedura, l’acquisizione di 2 ulteriori punti prese sulle texture sovrapposte. Il valore definitivo del colore visualizzato sarà la risultante di 8 texels.
Attivando il filtro anisotropo vengono presi molti più campioni di texels in una porzione ellittica della superficie che si sta filtrando.
Tale filtro si aggiunge a quello bilineare o trilineare come segue: - Nella Filtrazione Anisotropica Bilineare, vengono prelevati 4 campioni di texels più vicini al centro dell'oggetto che è osservato e 8 campioni di texel da ogni pixel. In pratica il valore finale del colore è dato dalla miscela dei 32 (4*8) punti analizzati.
- Nella Filtrazione Anisotropica Trilineare, vengono prelevati 4 campioni di texels più vicini al centro dell'oggetto che è osservato su 2 livelli di mip-map e 8 campioni del texel da ciascuno di essi. In pratica il valore finale del colore è dato dalla miscela dei 64 (4*2*8) punti analizzati.
Però stiamo andando avanti da anni con la stessa tecnologia... solo il Deltachrome si è sforzato un attimo riuscendo ad avere un aniso full trilinear che ha le stesse prestazioni di un aniso bilinear... pensate se con la potenza di ATi e nVidia utilizzassero quell'algoritmo, si avrebbe veramente un aniso gratis.
nonikname
02-07-2004, 22:02
Originariamente inviato da Thunder82
Però stiamo andando avanti da anni con la stessa tecnologia... solo il Deltachrome si è sforzato un attimo riuscendo ad avere un aniso full trilinear che ha le stesse prestazioni di un aniso bilinear... pensate se con la potenza di ATi e nVidia utilizzassero quell'algoritmo, si avrebbe veramente un aniso gratis.
Perfettamente daccordo!!!
C'è anche lo smart filtering che non scherza : altro che anisotropico+trilineare....
Edit: Esempio Smart filtering (http://www.gamedev.ru/articles/graph/smartbin.zip)
Lo posto anche qua visto che si è accennato alle recensioni.
http://www.beyond3d.com/forum/viewtopic.php?t=13723&start=60
Viene detto che:
"The reason our overall results vary so considerably is because we're using AA & AF on both NVIDIA cards, whereas Anand is using just AF on his NV boards. If you look at both of our ATI numbers with 4xAA/8xAF you'll see they results are pretty similar, with mine a little higher (most likely because my CPU is faster).
I'm sure he'll update his graphs accordingly. Right now the ATI boards are doing more work than the NVIDIA cards (4xAA & 8xAF versus just 8xAF on the NV cards) which is why the consistently come out ahead by such a large margin."
In pratica si hanno quei risultati perchè le 6800 non calcolano l'AA ma solo l'anisotropico per un errore di configurazione. Rimangono quindi aumenti del 5/10% circa.
Thunder82
02-07-2004, 22:11
Originariamente inviato da nonikname
Perfettamente daccordo!!!
C'è anche lo smart filtering che non scherza : altro che anisotropico+trilineare....
Edit: Esempio Smart filtering (http://www.gamedev.ru/articles/graph/smartbin.zip)
che è sto smart filtering? :eek:
ho provato quel programmino su una voodoo3 3000 perchè la mia vga è in assistenza, e mi va fluidissimo e sembra che abbia un aniso oltre il 16x applicato :eek:
nonikname
02-07-2004, 22:17
No so cosa dicono su quel forum , ma con tutti i driver che ho provato , da i 61.34 in su , l'AA viene applicato sia dal pannello di controllo che dal gioco ....
Comunque , per tagliare la testa al toro , basta guardare le altre 15 recensioni con i 61.45 o 61.71 che fanno il loro sporco lavoro egregiamente.....
Poi , sinceramente , trovo difficile credere che su 20 recensioni , nessun sito si sia accorto che con la 6800 l'AA non veniva applicato.. ;)
ragazzi vi chiedo scusa se vi chiedo questo, ma volevo sapere se qualcuno mi poteva dire che alimentatore serve per le rispettive 6800ultra e gt?Sono rimasto ancora agli inizi quando si sparavano numeri a caso!450,400,ecc!:)
Infatti lì si parla di Anandtech e dei sti che hanno ottenuto risultati a lui simili, gli altri mostrano aumenti del 5/10% che sono più che plausibili.
nonikname
02-07-2004, 22:25
Originariamente inviato da Thunder82
che è sto smart filtering? :eek:
ho provato quel programmino su una voodoo3 3000 perchè la mia vga è in assistenza, e mi va fluidissimo e sembra che abbia un aniso oltre il 16x applicato :eek:
Bello eh??
Credo sia un'invenzione di uno studente russo , e credo che il tipo se non è già milionario , sia in procinto di diventarlo :D
Naturalmente scherzavo , perchè , se non ricordo male , quella tecnica è stata messa in rete con tutto il source code , quindi fruibile da chiunque sia intenzionato ad usarlo...
Pensa che , se gira così bene solo su software , in hardware è praticamente for-free...
A me su una S3 da 4mb di un portatile passa da 15fps senza niente (opzione uno) a 11 fps circa con Smart Filtering attivato.
Bisognerebbe vederlo su qualche cosa di più decente che quella palla :)
nonikname
02-07-2004, 22:28
Originariamente inviato da Haku
ragazzi vi chiedo scusa se vi chiedo questo, ma volevo sapere se qualcuno mi poteva dire che alimentatore serve per le rispettive 6800ultra e gt?Sono rimasto ancora agli inizi quando si sparavano numeri a caso!450,400,ecc!:)
300W-350W per GT
350W-450W per ultra
Naturalmente dipende da quanta roba deve gestire l'ali oltre alla scheda grafica...
Esempio: il mio sistema in sign funziona benissimo anche con un buon 350W ;)
nonikname
02-07-2004, 22:33
Originariamente inviato da DjLode
Infatti lì si parla di Anandtech e dei sti che hanno ottenuto risultati a lui simili, gli altri mostrano aumenti del 5/10% che sono più che plausibili.
Lunedi dovrebbe essere disponibile , così la proviamo : mi da solo fastidio che debba di nuovo installare le DX9c beta , dato che poi disistallandole il sistema ne risente leggermente :rolleyes:
se non vado troppo Off Topic riguardo le x800?
Originariamente inviato da Haku
se non vado troppo Off Topic riguardo le x800?
Parli ancora di alimentazione? Fai i conti con gli stessi valori che ti hanno dato per le 6800. Se ci sono differenze sono talmente minime che non si vedono neanche.
nonikname
02-07-2004, 22:39
Con un buon 300W-350W la X800pro va da dio
L'X800XT dicono che assorba leggermente di meno della 6800ultra , ma poca cosa , quindi con un 400W dovresti stare tranquillo ....
http://www.vr-zone.com/newspics/Jun04/29/SLI-1.jpg
E vai di normal Map
amd-novello
02-07-2004, 22:42
aiuto!!
perchè farcry non mi attiva i riflessi a mo di metallo traslucido sui tubi?
ho messo tutto al max,dx9 dal gioco e palle varie ma nn vanno.
tuto tranne quello a 1280 è fluido ma voglio il bump!!!
le texture non sono compresse o è una mia impressione? cioè se mi avvicino si vede la sfocatura. altro che halo :D
ho i 61.36 whql
Thunder82
02-07-2004, 22:53
Originariamente inviato da amd-novello
aiuto!!
perchè farcry non mi attiva i riflessi a mo di metallo traslucido sui tubi?
ho messo tutto al max,dx9 dal gioco e palle varie ma nn vanno.
tuto tranne quello a 1280 è fluido ma voglio il bump!!!
le texture non sono compresse o è una mia impressione? cioè se mi avvicino si vede la sfocatura. altro che halo :D
ho i 61.36 whql
a parte che mi devi spiegare come fa un metallo a essere traslucido... :confused: (:D)
Cmq non tutti i tubi hanno i riflessi
amd-novello
02-07-2004, 23:02
si ma i miei sono delle merde conclamate!! non come il tubo di quell'utente
adesso scarico gli ultimissim i ultrabeta così vedo la difference.
61.71 scelgo teeeeeeeeee
Pipposuperpippa
03-07-2004, 00:06
In serata (perchè adesso è sabato!) se tutto va bene :sperem: avrò una 6800GT nel case... :D
Che driver mi consigliate?
Inoltre, visto che escono driver un giorno sì e l'altro pure, che procedura usate per aggiornarli?? Thanks :cool: :)
Dark Schneider
03-07-2004, 00:12
Originariamente inviato da Pipposuperpippa
In serata (perchè adesso è sabato!) se tutto va bene :sperem: avrò una 6800GT nel case... :D
Che driver mi consigliate?
Inoltre, visto che escono driver un giorno sì e l'altro pure, che procedura usate per aggiornarli?? Thanks :cool: :)
Io ho i 61.36 WHQL beta. Pare vanno bene. :)
Per aggiornarli? Disinstalli..ed installi quelli nuovi!! :D
Dark Schneider
03-07-2004, 00:13
Originariamente inviato da amd-novello
si ma i miei sono delle merde conclamate!! non come il tubo di quell'utente
adesso scarico gli ultimissim i ultrabeta così vedo la difference.
61.71 scelgo teeeeeeeeee
"Quell'utente" sarei io?:D
Cmq ma hai installato la patch 1.1?
amd-novello
03-07-2004, 01:37
si saresti tu :( :D dove l'hai fatta quella foto?
cmq ho messo i 61.71 beta e va da dio non swappa neanche. :D
la mia si oc a 400/1100 ma mo la lascio a default. dopo un'ora di farcry sta a 65 gradi. GOOOOOOD
Pipposuperpippa
03-07-2004, 08:07
Originariamente inviato da Dark Schneider
Io ho i 61.36 WHQL beta. Pare vanno bene. :)
Per aggiornarli? Disinstalli..ed installi quelli nuovi!! :D
Ma non sono meglio i 61.71 che sono gli ultimi usciti? :confused:
Per cambiare driver ricordo ai tempi della Gefo4 (l'ultima nvidia che ho avuto) che a volte la procedura di sostituzione dei driver poteva portare "incasinamenti" di windows... ora basta disinstallare, riavviare, mettere i nuovi driver e riavviare di nuovo, giusto? :)
Dark Schneider
03-07-2004, 09:04
Originariamente inviato da amd-novello
si saresti tu :( :D dove l'hai fatta quella foto?
cmq ho messo i 61.71 beta e va da dio non swappa neanche. :D
la mia si oc a 400/1100 ma mo la lascio a default. dopo un'ora di farcry sta a 65 gradi. GOOOOOOD
Si ma l'FSAA l'hai abilitato dal gioco? Dal pannello non si abilita.
Dark Schneider
03-07-2004, 09:06
Originariamente inviato da Pipposuperpippa
Ma non sono meglio i 61.71 che sono gli ultimi usciti? :confused:
Per cambiare driver ricordo ai tempi della Gefo4 (l'ultima nvidia che ho avuto) che a volte la procedura di sostituzione dei driver poteva portare "incasinamenti" di windows... ora basta disinstallare, riavviare, mettere i nuovi driver e riavviare di nuovo, giusto? :)
Si addirittura ho tutto una disinstallazione unificata...puoi scegliere nforce,audio,video,ecc. quindi disinstalla.
Cmq io mi trovo bene con i 61.36 WHQL che appunto sono anche certificati..anche se son sempre beta.
Pipposuperpippa
03-07-2004, 09:10
Originariamente inviato da Dark Schneider
Si addirittura ho tutto una disinstallazione unificata...puoi scegliere nforce,audio,video,ecc. quindi disinstalla.
Cmq io mi trovo bene con i 61.36 WHQL che appunto sono anche certificati..anche se son sempre beta.
Ma i 61.71 li hai provati? non dovrebbero essere meglio?
Tra l'altro qui (http://www.nvitalia.com/drivers/forceware.htm) i 61.36 non esistono.... :confused:
Originariamente inviato da andreamarra
Ma questo SLI può essere fatto solo tra due NV40? Le R420 non possono?
in teoria si ma in pratica no x il senplice fatto che la totalita dei brevetti sli sono di proprieta di nvidia (indovinate da dove arrivano:D :D ) x ati da questo punto di vista la vedo male:mc:
Dark Schneider
03-07-2004, 09:26
Si li ho provati. :)
Però preferisco quelli con certificazione. :)
Ragà ho scoperto "forse" una cosettina su Far Cry: il livello ALTO dell'FSAA corrisponde mi sa all'8X. Ed io come un matto ci stavo giocando ad 8X probabilmente. Se ricordate l'8X del NV40 è un FSAA un po' diverso dal 2x e 4x e al momento nVidia ancora non l'ha ottimizzato per poterne fare un utilizzo tranquillo(ho sentito che forse lo sostituiscono prossimamente nei drivers con un altro dello stesso tipo del 2x-4x..ma ovviamente con qualità maggiore del 4x e prestazioni superiori all'8X attuale).
E' anche vero che swapping a parte i primi 10 livelli li ho giocati bene anche con questo assurdo settaggio, ma adesso iniziano ad esserci livelli molto più vasti e quindi vuole parecchia memoria. E' forse è il caso di settare a 4X (che dovrebbe essere MEDIO), anche perchè più si pompano i filtri e più memoria video vuole...con Far Cry che poi non è il max riguardo la gestione della memoria.
nonikname
03-07-2004, 09:33
Da tutti i test che ho effettuato , i 61.45 sono i più veloci a 1024x768 con o senza filtri in quasi tutti i giochi , oltre ad essere quelli che girano meglio con farcry....(sono anche quelli con meno Bug di tutti , imho)
Poi , questa storia dello swap di farcry , deve finire!!! ;)
Non vi siete mai chiesti perchè il gioco carica dalla ram di sistema!! (non è sicuramente swap da disco , se no il gioco farebbe delle pause di qualche secondo!!!)
Se ve lo risolvo , mi pagate una cena :
Che voi abbiate 512Mb o 1024Mb di ram , i 128Mb o 256Mb della scheda video , bastano e avanzano , dato che un livello scompattato , fra i più grandi , arriva a pesare massimo 48-64Mb !!!
Allora voi direte , perchè il gioco ha quelle micro interruzioni , tipo lag in multiplayer , che danno così fastidio???
Bene , ci sono 3 cose da fare , se poi il gioco (o bench che sia) continua a far "girare le p@lle" andate a Fatima!!!
Le prime due si trovano nel BIOS , precisamente nell' Advanced Bios Feature ....
1) La voce System Bios Cacheable va settata a OFF o Disable
2) l'altra è Video shadow oppure C000,32K Shadow(a seconda del tipo di bios che avete) , va sempre disabilitata!! : in certi bios c'è la possibilità di scegliere Enable , Disable o Cacheable... ma in qualsiasi caso è sempre meglio disattivarla !!
3) Poi , dato che la ram di sistema serve all'Havok (engine fisico) è sempre meglio abbassare a 64Mb l'AGP aperture Size , così il programma prende possesso di tutta la mem disponibile , lasciando 64Mb alla porta AGP (che non dovrebbe in nessun modo lavorare , dato che le vostre schede grafiche hanno tutta la mem che serve per gestire un'intero livello di FarCry , anche a risoluzioni superiori a 1024x768 con filtri a manetta : solo a 1600x1200 con AA6-8x e AF16x , la scheda video ha bisogno di tutti i 256Mb , ma solo con le mappe più pesanti, quindi no problem.....)
Io , con questi piccoli accorgimenti , ho messo a posto diversi PC che avevano il vostro stesso problema di "swap" , tutti naturalmente con 512Mb di Ram di sistema....
Se poi il problema continua a riproporsi , c'è sicuramente qualche programma in background di troppo o avete la maledizione del Pianto lontano!!! :D
Ah , dimenticavo , dato che lunedi dovrebbe uscire la patch 1.2 di Farcry , gli unici Forceware che supportano gli shaders 3.0 , sono i 61.45 !!! ma da soli non bastano , dato che , fino a quando non uscirà una versione ufficiale di driver Nvidia , gli shaders 3.0 per funzionare hanno bisogno delle DX9c :cry: ....
Comunque , a sentire i Betatester , la release ufficiale è stata rimandata già 2 volte , dato che ogni volta che era in procinto di essere distribuita , qualche programmatore dello Staff Forceware , se ne esce con nuovi miglioramenti prestazionali e con qualche correzione di Bug!!!
Mercoledi , se non ci sono altri ritardi , dovrebbe fare bella mostra di se , la relase ufficiale sul sito Nvidia , con la famosa scritta " prestazioni aumentate del 25%" (naturalmente noi sappiamo bene che quel 25% sta ad indicare l'aumento massimo di prestazioni riscontrabile in qualche gioco)
Ho anche sentito dire che , oltre al controller di memoria a 256bit , sono programmabili anche le latenze delle GDDR3 via driver , quindi oltre al "Mistico" Programmable Primitive Processor , c'è da massimizzare il controller integrato delle GDDR3 , che influisce nel bene e nel male sulle prestazioni (con o senza filtri) e in moltissime altre cose che adesso non posso spiegarvi perchè è entrato un cliente: the job calls to me!!! :coffee: (non ho più l'età per stare sveglio fino alle 4 di mattina : sto PC maledetto è un divora tempo ....)
Arrivo , arrivo ... : quanto costano gli Athlon 64 3800+???? , ma è vero che vanno 2800mhz e non 3800mhz!!! ma va da via il ........:muro: ma capitano tutti a me , sigh....
nonikname
03-07-2004, 09:35
Originariamente inviato da Pipposuperpippa
Ma i 61.71 li hai provati? non dovrebbero essere meglio?
Tra l'altro qui (http://www.nvitalia.com/drivers/forceware.htm) i 61.36 non esistono.... :confused:
Prova qui (http://downloads.guru3d.com/download.php?det=810)
Pipposuperpippa
03-07-2004, 09:38
Originariamente inviato da nonikname
Prova qui (http://downloads.guru3d.com/download.php?det=810)
Ok grazie :)
Metterò questi
andreamarra
03-07-2004, 09:41
Originariamente inviato da nonikname
In teoria si perchè la serie 6 nVidia è stata costruita appositamente con un canale di sincronizzazione per poter bilanciare il carico di lavoro su due GPU....
Nei driver Nvidia , quando si collegano 2 6800 uguali (che siano lisce , GT o Ultra non cambia , ma devono essere 2 schede uguali) , appare una finestra che chiede in che modo ripartire il carico di lavoro fra le 2 GPU :
Bilanciato: il carico di lavoro viene automaticamente ripartito fra LE 2 gpu , in base alla complessità della parte superiore rispetto a quella inferiore ... l'immagine 3D non è mai perfettamente simmetrica : c'è ne sempre una parte più "pesante" , quindi l'immagine viene renderizzata in 2 parti , una più piccola (con più poligoni , texture o effetti vari) e una piu grande con meno carico di lavoro... Esempio: la parte superiore di un paesaggio 3d comprende il cielo che è meno "complesso" , perciò la prima GPU renderizzerà il 60% del Frame , mentre la seconda il 40% a seconda dei casi...
Alternato: una GPU renderizza un frame , mentre l'altra "prepara" il prossimo frame da renderizzare , quindi le 2 GPU si alternano...
Oltre ad essere una feature gestita dai driver , bisogna che la GPU sia in grado di comunicare con l'altra con un canale dedicato: il Bridge SLI Nvidia è stato progettato per questo , ma nell'NV40 è stato implementato un canale di sincronizzazione/scambio dati in fase di progettazione , quindi , per far girare 2 schede ATI (o di qualsiasi altra marca) , c'è bisogno di una scheda di supporto + driver , altrimenti la sola motherboard con 2 porte PCIe non basta....
Per cambiare discorso e inserire un po di pepe , a sentire The Inquirer , ATI per la fine dell'anno ha intenzione di recuperare il Gap tecnologico che c'è con Nvidia , lanciando una nuova scheda Top gamma con supporto agli shaders 3.0 : e menomale che non servivano a nulla :muro:
Ottima spiegazione :)
In effetti ati ha capito che una rimodernizzata la deve dare. Credevo avesse fatto bene a mettere un sistema di shader come via di mezzo tra i 2.0 e i 3.0, perchè non credevo che uscissero giochi full ps3.0 subito.
Meglio così, avremo tutti i giochi ottimizzati per questo shader model :cool:
nonikname
03-07-2004, 09:42
Originariamente inviato da Dark Schneider
Si li ho provati. :)
Però preferisco quelli con certificazione. :)
Ragà ho scoperto "forse" una cosettina su Far Cry: il livello ALTO dell'FSAA corrisponde mi sa all'8X. Ed io come un matto ci stavo giocando ad 8X probabilmente. Se ricordate l'8X del NV40 è un FSAA un po' diverso dal 2x e 4x e al momento nVidia ancora non l'ha ottimizzato per poterne fare un utilizzo tranquillo(ho sentito che forse lo sostituiscono prossimamente nei drivers con un altro dello stesso tipo del 2x-4x..ma ovviamente con qualità maggiore del 4x e prestazioni superiori all'8X attuale).
E' anche vero che swapping a parte i primi 10 livelli li ho giocati bene anche con questo assurdo settaggio, ma adesso iniziano ad esserci livelli molto più vasti e quindi vuole parecchia memoria. E' forse è il caso di settare a 4X (che dovrebbe essere MEDIO), anche perchè più si pompano i filtri e più memoria video vuole...con Far Cry che poi non è il max riguardo la gestione della memoria.
Ti confermo che non è AA8x , dato che se così fosse , sarebbe totalmente ingiocabile ( sei su una media di 20-25FPS senza AF)
P.S. l'AA8x è un supersampling + un RGmulti sampling ... e nella forma attuale è l'unico AA che smussa perfino le scalettature delle ombre !!!
redbaron
03-07-2004, 09:53
Un video esemplicativo delle normal maps. -> http://www.gamershell.com/download_6182.shtml
halduemilauno
03-07-2004, 09:53
Originariamente inviato da nonikname
Da tutti i test che ho effettuato , i 61.45 sono i più veloci a 1024x768 con o senza filtri in quasi tutti i giochi , oltre ad essere quelli che girano meglio con farcry....(sono anche quelli con meno Bug di tutti , imho)
Poi , questa storia dello swap di farcry , deve finire!!! ;)
Non vi siete mai chiesti perchè il gioco carica dalla ram di sistema!! (non è sicuramente swap da disco , se no il gioco farebbe delle pause di qualche secondo!!!)
Se ve lo risolvo , mi pagate una cena :
Che voi abbiate 512Mb o 1024Mb di ram , i 128Mb o 256Mb della scheda video , bastano e avanzano , dato che un livello scompattato , fra i più grandi , arriva a pesare massimo 48-64Mb !!!
Allora voi direte , perchè il gioco ha quelle micro interruzioni , tipo lag in multiplayer , che danno così fastidio???
Bene , ci sono 3 cose da fare , se poi il gioco (o bench che sia) continua a far "girare le p@lle" andate a Fatima!!!
Le prime due si trovano nel BIOS , precisamente nell' Advanced Bios Feature ....
1) La voce System Bios Cacheable va settata a OFF o Disable
2) l'altra è Video shadow oppure C000,32K Shadow(a seconda del tipo di bios che avete) , va sempre disabilitata!! : in certi bios c'è la possibilità di scegliere Enable , Disable o Cacheable... ma in qualsiasi caso è sempre meglio disattivarla !!
3) Poi , dato che la ram di sistema serve all'Havok (engine fisico) è sempre meglio abbassare a 64Mb l'AGP aperture Size , così il programma prende possesso di tutta la mem disponibile , lasciando 64Mb alla porta AGP (che non dovrebbe in nessun modo lavorare , dato che le vostre schede grafiche hanno tutta la mem che serve per gestire un'intero livello di FarCry , anche a risoluzioni superiori a 1024x768 con filtri a manetta : solo a 1600x1200 con AA6-8x e AF16x , la scheda video ha bisogno di tutti i 256Mb , ma solo con le mappe più pesanti, quindi no problem.....)
Io , con questi piccoli accorgimenti , ho messo a posto diversi PC che avevano il vostro stesso problema di "swap" , tutti naturalmente con 512Mb di Ram di sistema....
Se poi il problema continua a riproporsi , c'è sicuramente qualche programma in background di troppo o avete la maledizione del Pianto lontano!!! :D
Ah , dimenticavo , dato che lunedi dovrebbe uscire la patch 1.2 di Farcry , gli unici Forceware che supportano gli shaders 3.0 , sono i 61.45 !!! ma da soli non bastano , dato che , fino a quando non uscirà una versione ufficiale di driver Nvidia , gli shaders 3.0 per funzionare hanno bisogno delle DX9c :cry: ....
Comunque , a sentire i Betatester , la release ufficiale è stata rimandata già 2 volte , dato che ogni volta che era in procinto di essere distribuita , qualche programmatore dello Staff Forceware , se ne esce con nuovi miglioramenti prestazionali e con qualche correzione di Bug!!!
Mercoledi , se non ci sono altri ritardi , dovrebbe fare bella mostra di se , la relase ufficiale sul sito Nvidia , con la famosa scritta " prestazioni aumentate del 25%" (naturalmente noi sappiamo bene che quel 25% sta ad indicare l'aumento massimo di prestazioni riscontrabile in qualche gioco)
Ho anche sentito dire che , oltre al controller di memoria a 256bit , sono programmabili anche le latenze delle GDDR3 via driver , quindi oltre al "Mistico" Programmable Primitive Processor , c'è da massimizzare il controller integrato delle GDDR3 , che influisce nel bene e nel male sulle prestazioni (con o senza filtri) e in moltissime altre cose che adesso non posso spiegarvi perchè è entrato un cliente: the job calls to me!!! :coffee: (non ho più l'età per stare sveglio fino alle 4 di mattina : sto PC maledetto è un divora tempo ....)
Arrivo , arrivo ... : quanto costano gli Athlon 64 3800+???? , ma è vero che vanno 2800mhz e non 3800mhz!!! ma va da via il ........:muro: ma capitano tutti a me , sigh....
GRANDE.
:)
Dark Schneider
03-07-2004, 09:55
Originariamente inviato da nonikname
Da tutti i test che ho effettuato , i 61.45 sono i più veloci a 1024x768 con o senza filtri in quasi tutti i giochi , oltre ad essere quelli che girano meglio con farcry....(sono anche quelli con meno Bug di tutti , imho)
Poi , questa storia dello swap di farcry , deve finire!!! ;)
Non vi siete mai chiesti perchè il gioco carica dalla ram di sistema!! (non è sicuramente swap da disco , se no il gioco farebbe delle pause di qualche secondo!!!)
Se ve lo risolvo , mi pagate una cena :
Che voi abbiate 512Mb o 1024Mb di ram , i 128Mb o 256Mb della scheda video , bastano e avanzano , dato che un livello scompattato , fra i più grandi , arriva a pesare massimo 48-64Mb !!!
Allora voi direte , perchè il gioco ha quelle micro interruzioni , tipo lag in multiplayer , che danno così fastidio???
Bene , ci sono 3 cose da fare , se poi il gioco (o bench che sia) continua a far "girare le p@lle" andate a Fatima!!!
Le prime due si trovano nel BIOS , precisamente nell' Advanced Bios Feature ....
1) La voce System Bios Cacheable va settata a OFF o Disable
2) l'altra è Video shadow oppure C000,32K Shadow(a seconda del tipo di bios che avete) , va sempre disabilitata!! : in certi bios c'è la possibilità di scegliere Enable , Disable o Cacheable... ma in qualsiasi caso è sempre meglio disattivarla !!
3) Poi , dato che la ram di sistema serve all'Havok (engine fisico) è sempre meglio abbassare a 64Mb l'AGP aperture Size , così il programma prende possesso di tutta la mem disponibile , lasciando 64Mb alla porta AGP (che non dovrebbe in nessun modo lavorare , dato che le vostre schede grafiche hanno tutta la mem che serve per gestire un'intero livello di FarCry , anche a risoluzioni superiori a 1024x768 con filtri a manetta : solo a 1600x1200 con AA6-8x e AF16x , la scheda video ha bisogno di tutti i 256Mb , ma solo con le mappe più pesanti, quindi no problem.....)
Io , con questi piccoli accorgimenti , ho messo a posto diversi PC che avevano il vostro stesso problema di "swap" , tutti naturalmente con 512Mb di Ram di sistema....
Se poi il problema continua a riproporsi , c'è sicuramente qualche programma in background di troppo o avete la maledizione del Pianto lontano!!! :D
Ah , dimenticavo , dato che lunedi dovrebbe uscire la patch 1.2 di Farcry , gli unici Forceware che supportano gli shaders 3.0 , sono i 61.45 !!! ma da soli non bastano , dato che , fino a quando non uscirà una versione ufficiale di driver Nvidia , gli shaders 3.0 per funzionare hanno bisogno delle DX9c :cry: ....
Comunque , a sentire i Betatester , la release ufficiale è stata rimandata già 2 volte , dato che ogni volta che era in procinto di essere distribuita , qualche programmatore dello Staff Forceware , se ne esce con nuovi miglioramenti prestazionali e con qualche correzione di Bug!!!
Mercoledi , se non ci sono altri ritardi , dovrebbe fare bella mostra di se , la relase ufficiale sul sito Nvidia , con la famosa scritta " prestazioni aumentate del 25%" (naturalmente noi sappiamo bene che quel 25% sta ad indicare l'aumento massimo di prestazioni riscontrabile in qualche gioco)
Ho anche sentito dire che , oltre al controller di memoria a 256bit , sono programmabili anche le latenze delle GDDR3 via driver , quindi oltre al "Mistico" Programmable Primitive Processor , c'è da massimizzare il controller integrato delle GDDR3 , che influisce nel bene e nel male sulle prestazioni (con o senza filtri) e in moltissime altre cose che adesso non posso spiegarvi perchè è entrato un cliente: the job calls to me!!! :coffee: (non ho più l'età per stare sveglio fino alle 4 di mattina : sto PC maledetto è un divora tempo ....)
Arrivo , arrivo ... : quanto costano gli Athlon 64 3800+???? , ma è vero che vanno 2800mhz e non 3800mhz!!! ma va da via il ........:muro: ma capitano tutti a me , sigh....
Ma veramente io ad esempio l'agp aperture size ce l'ho settato a 64 MB. Ma è lo stesso...quando vado a caricare un livello o un chekpoint la prima volta...swappa. Addirittura l'alto giorno mi s'è bloccato il gioco..son andato a vedere l'occupazione della memoria: 540 MB. Praticamente mi stava un pochino distruggendo!! :D
Dark Schneider
03-07-2004, 10:04
Originariamente inviato da nonikname
Ti confermo che non è AA8x , dato che se così fosse , sarebbe totalmente ingiocabile ( sei su una media di 20-25FPS senza AF)
P.S. l'AA8x è un supersampling + un RGmulti sampling ... e nella forma attuale è l'unico AA che smussa perfino le scalettature delle ombre !!!
Ma sei sicuro?
Perchè non tornano tanto i conti: Disabilitato, Basso, Medio,Alto. Dovrebbero essere disabilitato, 2x, 4, 8x. Non mi spiego il basso e medio cosa sono allora.
E' anche vero che ci gioco bene con Alto. Però non capisco se Alto è 4X, cosa sono gli altri due. Non penso che FC riconosca anche dal gioco direttamente il 2xQ oltre al 2X normale.
nonikname
03-07-2004, 10:06
Originariamente inviato da Dark Schneider
Ma veramente io ad esempio l'agp aperture size ce l'ho settato a 64 MB. Ma è lo stesso...quando vado a caricare un livello o un chekpoint la prima volta...swappa. Addirittura l'alto giorno mi s'è bloccato il gioco..son andato a vedere l'occupazione della memoria: 540 MB. Praticamente mi stava un pochino distruggendo!! :D
Allora setta l'AGP aperture size a 32 ;)
Quando gioco , l'occupazione della ram rimane sempre sotto i 450Mb (con Farcry) , quindi chiudi tutto quello che puoi e vedi che ci stai dentro!!! (le altre 2 voci che ti ho consigliato di disabilitare sul bios , servono appunto a ridurre al minimo lo spreco di ram , senza compromettere minimamente le prestazioni , dato che si usavano ai tempi delle Voodoo2!!)
Ciaooooooooo Hal2001!!!!
nonikname
03-07-2004, 10:12
Originariamente inviato da Dark Schneider
Ma sei sicuro?
Perchè non tornano tanto i conti: Disabilitato, Basso, Medio,Alto. Dovrebbero essere disabilitato, 2x, 4, 8x. Non mi spiego il basso e medio cosa sono allora.
E' anche vero che ci gioco bene con Alto. Però non capisco se Alto è 4X, cosa sono gli altri due. Non penso che FC riconosca anche dal gioco direttamente il 2xQ oltre al 2X normale.
Su Nvidia è off , AA2x , AA2xq (quincunx) , AA4x
Su ATI è off , AA2x , AA4x , AA6x ....
Edit: per tagliare la testa al toro prova a settare AA8xS dal pannello di controllo dei driver e poi dimmi come va ...
andreamarra
03-07-2004, 10:28
Originariamente inviato da DjLode
Lo posto anche qua visto che si è accennato alle recensioni.
http://www.beyond3d.com/forum/viewtopic.php?t=13723&start=60
Viene detto che:
"The reason our overall results vary so considerably is because we're using AA & AF on both NVIDIA cards, whereas Anand is using just AF on his NV boards. If you look at both of our ATI numbers with 4xAA/8xAF you'll see they results are pretty similar, with mine a little higher (most likely because my CPU is faster).
I'm sure he'll update his graphs accordingly. Right now the ATI boards are doing more work than the NVIDIA cards (4xAA & 8xAF versus just 8xAF on the NV cards) which is why the consistently come out ahead by such a large margin."
In pratica si hanno quei risultati perchè le 6800 non calcolano l'AA ma solo l'anisotropico per un errore di configurazione. Rimangono quindi aumenti del 5/10% circa.
Quindi i vantaggi tra ps2.0 e ps3.0 in Far Cry sono dati dall'assenza di AA? :confused: ????
Thunder82
03-07-2004, 10:28
Originariamente inviato da nonikname
Da tutti i test che ho effettuato , i 61.45 sono i più veloci a 1024x768 con o senza filtri in quasi tutti i giochi , oltre ad essere quelli che girano meglio con farcry....(sono anche quelli con meno Bug di tutti , imho)
Poi , questa storia dello swap di farcry , deve finire!!! ;)
Non vi siete mai chiesti perchè il gioco carica dalla ram di sistema!! (non è sicuramente swap da disco , se no il gioco farebbe delle pause di qualche secondo!!!)
Se ve lo risolvo , mi pagate una cena :
Che voi abbiate 512Mb o 1024Mb di ram , i 128Mb o 256Mb della scheda video , bastano e avanzano , dato che un livello scompattato , fra i più grandi , arriva a pesare massimo 48-64Mb !!!
Allora voi direte , perchè il gioco ha quelle micro interruzioni , tipo lag in multiplayer , che danno così fastidio???
Bene , ci sono 3 cose da fare , se poi il gioco (o bench che sia) continua a far "girare le p@lle" andate a Fatima!!!
Le prime due si trovano nel BIOS , precisamente nell' Advanced Bios Feature ....
1) La voce System Bios Cacheable va settata a OFF o Disable
2) l'altra è Video shadow oppure C000,32K Shadow(a seconda del tipo di bios che avete) , va sempre disabilitata!! : in certi bios c'è la possibilità di scegliere Enable , Disable o Cacheable... ma in qualsiasi caso è sempre meglio disattivarla !!
3) Poi , dato che la ram di sistema serve all'Havok (engine fisico) è sempre meglio abbassare a 64Mb l'AGP aperture Size , così il programma prende possesso di tutta la mem disponibile , lasciando 64Mb alla porta AGP (che non dovrebbe in nessun modo lavorare , dato che le vostre schede grafiche hanno tutta la mem che serve per gestire un'intero livello di FarCry , anche a risoluzioni superiori a 1024x768 con filtri a manetta : solo a 1600x1200 con AA6-8x e AF16x , la scheda video ha bisogno di tutti i 256Mb , ma solo con le mappe più pesanti, quindi no problem.....)
Io , con questi piccoli accorgimenti , ho messo a posto diversi PC che avevano il vostro stesso problema di "swap" , tutti naturalmente con 512Mb di Ram di sistema....
Se poi il problema continua a riproporsi , c'è sicuramente qualche programma in background di troppo o avete la maledizione del Pianto lontano!!! :D
Ah , dimenticavo , dato che lunedi dovrebbe uscire la patch 1.2 di Farcry , gli unici Forceware che supportano gli shaders 3.0 , sono i 61.45 !!! ma da soli non bastano , dato che , fino a quando non uscirà una versione ufficiale di driver Nvidia , gli shaders 3.0 per funzionare hanno bisogno delle DX9c :cry: ....
Comunque , a sentire i Betatester , la release ufficiale è stata rimandata già 2 volte , dato che ogni volta che era in procinto di essere distribuita , qualche programmatore dello Staff Forceware , se ne esce con nuovi miglioramenti prestazionali e con qualche correzione di Bug!!!
Mercoledi , se non ci sono altri ritardi , dovrebbe fare bella mostra di se , la relase ufficiale sul sito Nvidia , con la famosa scritta " prestazioni aumentate del 25%" (naturalmente noi sappiamo bene che quel 25% sta ad indicare l'aumento massimo di prestazioni riscontrabile in qualche gioco)
Ho anche sentito dire che , oltre al controller di memoria a 256bit , sono programmabili anche le latenze delle GDDR3 via driver , quindi oltre al "Mistico" Programmable Primitive Processor , c'è da massimizzare il controller integrato delle GDDR3 , che influisce nel bene e nel male sulle prestazioni (con o senza filtri) e in moltissime altre cose che adesso non posso spiegarvi perchè è entrato un cliente: the job calls to me!!! :coffee: (non ho più l'età per stare sveglio fino alle 4 di mattina : sto PC maledetto è un divora tempo ....)
Arrivo , arrivo ... : quanto costano gli Athlon 64 3800+???? , ma è vero che vanno 2800mhz e non 3800mhz!!! ma va da via il ........:muro: ma capitano tutti a me , sigh....
no no ti assicuro che sono tutti swap sul disco perchè finisce la memoria :D
Se tieni tutto al max con 512MB per giocare decentemente devi chiudere TUTTE le applicazioni (anche explorer.exe) e anche così ogni tanto c'è uno swap (ad esempio la prima volta che spari, deve caricare il suono dell'arma ma nella ram non c'è quindi carica da hd)
Inoltre in alcune mappe (tipo Research) all'aperto e molto incasinate già a 1024x768 senza filtri i 128MB non bastano, eccoti la prova: la 9600xt 256 ha frequenze delle ram inferiori alla 128 ma nonostante questo va più veloce, segno che non ricorre alla memoria agp
http://www.hwupgrade.it/articoli/1035/farcry_3.gif
L'unico modo che ho trovato per diminuire lo swap è:
impostare l'agp aperture size a 32 o 64MB
killare tutto il killabile prima di lanciarlo
un bel defrag
quando hai caricato il livello, ricaricarlo subito prima di giocare
andreamarra
03-07-2004, 10:29
Originariamente inviato da andreamarra
trovato, andate qua http://forum.hwupgrade.it/showthread.php?threadid=681576&pagenumber=1 e cercate il link postato da belin (In neretto c'è scritto "Tech Demo Per tutte le schede video che supportino Vertex Shader 2.0 e Pixel Shader 2.0")
:)
Qualcuno possessore di NV40 può far partire questo bellismo demo e mi può dire quanti fps fa??? :) ;)
nonikname
03-07-2004, 10:31
nVidia GeForce 6800 - Thread Ufficiale: Parte2
Never Ending Thread
Sta 6800GT sta facendo rosicare non poco ATI e i possessori della X800pro :D
E' proprio vero che la fascia medio alta di Nvidia ha sempre una marcia in più !! :4200ti - 5900XT - 6800GT .....non me ne vogliano i fanatici , ma il rapporto prezzo/prestazioni di queste schede è spettacolare !!
Poi , ero abituato ai catalyst che ti permettono di settare pochissimi parametri , mentre nei forceware , per uno smanettone come me , c'è da perdersi :D......
Dark Schneider
03-07-2004, 10:36
Originariamente inviato da andreamarra
Qualcuno possessore di NV40 può far partire questo bellismo demo e mi può dire quanti fps fa??? :) ;)
L'ho fatto girare questa Techdemo ATI. Gira bene..però la media degli fps non te lo saprei dire...non mi pare la calcoli.
andreamarra
03-07-2004, 10:41
Originariamente inviato da Dark Schneider
L'ho fatto girare questa Techdemo ATI. Gira bene..però la media degli fps non te lo saprei dire...non mi pare la calcoli.
Non è una tech demo ati :)
E' una tech demo per tutte le schede DX9 ;)
Sono quelle sfere di marmo e altri materiali che girano intorno alla luce di vario colore, il numero di fps lo indica in alto a sinistra.
Per favore :ave: :D
redbaron
03-07-2004, 11:01
Originariamente inviato da andreamarra
Non è una tech demo ati :)
E' una tech demo per tutte le schede DX9 ;)
Sono quelle sfere di marmo e altri materiali che girano intorno alla luce di vario colore, il numero di fps lo indica in alto a sinistra.
Per favore :ave: :D
Purtroppo la mia non e' una prova attendibile perche' ho un po' di roba che sta girando. Comunque con la gt a default e le impostazioni della techdemo a default ho avuto punte di 65/67fps e comunque mai sotto i 60. nforce2-2500@3200@200 e 1gb di ram.
Originariamente inviato da nonikname
Su Nvidia è off , AA2x , AA2xq (quincunx) , AA4x
Su ATI è off , AA2x , AA4x , AA6x ....
ne sei sicuro ?
a me pare sia cosi' :
Low = 2x per NV/ATI
Med = 4x per NV, 2x per ATI
High = 4x per NV, 6x per ATI
con ATI puoi usare il pannello di controllo dei driver, mentre se usi i driver Nvidia per settare l'AA non funza ( 0 AA ).
nonikname
03-07-2004, 11:06
L'unico modo che ho trovato per diminuire lo swap è:
impostare l'agp aperture size a 32 o 64MB
killare tutto il killabile prima di lanciarlo
un bel defrag
quando hai caricato il livello, ricaricarlo subito prima di giocare
Con 512Mb di ram non ho mai avuto swap : qui si parla sempre di schede video a 256Mb che gestiscono egregiamente il reparto Video del Gioco ....
Il problema risiede proprio nei settaggi su Bios dello Shadow delle mem Video e del bios : una volta disabilitate quelle 2 voci e settato al minimo la apertura AGP , il gioco sta perfettamente dentro i canonici 512Mb...
Rimanane la certezza che le applicazioni superflue vadano disabilitate , senza arrivare all'estremo killaggio di Explorer , il gioco dovrebbe non swappare mai su disco....
Il brutto (a seconda dei punti di vista) di Farcry è che il livello va completamente caricato sulla ram , mentre sulla Vram , se non ricordo male , va caricato solo 1 Km quadrato attorno al giocatore , poi i vari dialoghi , scenette e collocazione dei mercenari , vengono caricati proseguendo nel livello , dalla ram di sistema alla mem Video : se la ram di sistema è occupata , windows usa l'hard-disk --> mem video , che è infinitamente più lento come passaggio ....
Quindi una volta liberata la ram di sistema , necessaria a caricare un'isola , lo swap non dovrebbe più esistere...
Comunque non possiamo lamentarci di brutta gestione della mem , dato che questo gioco offre un'isola completa per volta , con tanto di routine per l'IA , engine fisico sempre attivo , una marea di texture spettacolari e non per ultimi , effetti P.S. da 40 istruzioni e passa .. (il vapore dei tubi mi fa impazzire ... e se non bastasse si vede anche sott'acqua con l'aggiunta della rifrazione e del riflesso che l'elemento liquido necessita!!)
Una cosa strana l'ho notata : gli AMD "soffrono" di più dei pentium4 (a parità di processore e mem di sistema) , dato che gestiscono peggio più thread : grazie all'Hyper Threading che avvantaggia i P4 , gli swap sono molto meno avvertibili ( o almeno credo sia per quello , dato che i P4 su cui ho visto girare farcry con 512Mb , hanno meno probl. degli Athlon con 512Mb , però , che sia effettivamente l'HT , non ci metterei la mano sul fuoco )
andreamarra
03-07-2004, 11:08
Originariamente inviato da redbaron
Purtroppo la mia non e' una prova attendibile perche' ho un po' di roba che sta girando. Comunque con la gt a default e le impostazioni della techdemo a default ho avuto punte di 65/67fps e comunque mai sotto i 60. nforce2-2500@3200@200 e 1gb di ram.
Praticamente si va verso i 70 tranquilli :)
Hai OC la GT?
io con il sistema in sign (ma decisamente sporco...) faccio circa 45 fps, mai sotto i 40 :)
Isomarcus
03-07-2004, 11:11
ho appena provato painkiller... dunque... 1024*768, aa4x af8x, dettagli al massimo... però... non dico che "scatta", ma quando tipo sparo col fucile a qualcosa di molto vicino (quindi fumo e schegge che volano ovunque) il gioco diventa "gommoso"... per darvi l'idea, per un paio di secondi se muovo il mouse il movimento ingame parte qualche attimo dopo... succede a qualcun'altro?? :confused: nn riesco a capire cosa sia, finora nn riesco a giocare a nulla di perfettamente fluido, neanche a 1024*768... mah :mbe: mi sa che il barton è alla frutta ormai.
redbaron
03-07-2004, 11:11
Originariamente inviato da andreamarra
Hai OC la GT?
No, frequenze di default. 350/1000
Dark Schneider
03-07-2004, 11:13
Originariamente inviato da andreamarra
Non è una tech demo ati :)
E' una tech demo per tutte le schede DX9 ;)
Sono quelle sfere di marmo e altri materiali che girano intorno alla luce di vario colore, il numero di fps lo indica in alto a sinistra.
Per favore :ave: :D
Beh ho visto che è scaricabile sul sito Ati. Ed altrove richiedevano 9500/9700. Boh!!
Cmq gli fps non te li saprei dire..cioè li fa vedere si, ma appunto di media non so quanto vanno. Per di più è un po' palloso...fa 100 test sarà...infatti visti i primi poi ti rompi le scatole.
Ma cmq non è per niente adatto a misurare le prestazioni di una scheda. Non è nemmeno un bench. :)
Dark Schneider
03-07-2004, 11:16
Originariamente inviato da Isomarcus
ho appena provato painkiller... dunque... 1024*768, aa4x af8x, dettagli al massimo... però... non dico che "scatta", ma quando tipo sparo col fucile a qualcosa di molto vicino (quindi fumo e schegge che volano ovunque) il gioco diventa "gommoso"... per darvi l'idea, per un paio di secondi se muovo il mouse il movimento ingame parte qualche attimo dopo... succede a qualcun'altro?? :confused: nn riesco a capire cosa sia, finora nn riesco a giocare a nulla di perfettamente fluido, neanche a 1024*768... mah :mbe: mi sa che il barton è alla frutta ormai.
Ma sei sicuro? Io ho fatto una prova veloce l'altro giorno con Painkiller....1280x1024 FSAA 4X e AF16X si attestava sui 120-160 fps.
Ma hai provato il Barton alle frequenze di default?
andreamarra
03-07-2004, 11:17
Originariamente inviato da Dark Schneider
Beh ho visto che è scaricabile sul sito Ati. Ed altrove richiedevano 9500/9700. Boh!!
Cmq gli fps non te li saprei dire..cioè li fa vedere si, ma appunto di media non so quanto vanno. Per di più è un po' palloso...fa 100 test sarà...infatti visti i primi poi ti rompi le scatole.
Ma cmq non è per niente adatto a misurare le prestazioni di una scheda. Non è nemmeno un bench. :)
Questo qui :)
http://www.daionet.gr.jp/~masa/archives/thdribl_1_2.zip
Non è preso dal sito ati :)
Volevo saperlo perchè in giro avevo letto che una NV40 faceva davvero pochissimo (tipo 20-25 fps...)
Invece non è così.
andreamarra
03-07-2004, 11:18
Originariamente inviato da Isomarcus
ho appena provato painkiller... dunque... 1024*768, aa4x af8x, dettagli al massimo... però... non dico che "scatta", ma quando tipo sparo col fucile a qualcosa di molto vicino (quindi fumo e schegge che volano ovunque) il gioco diventa "gommoso"... per darvi l'idea, per un paio di secondi se muovo il mouse il movimento ingame parte qualche attimo dopo... succede a qualcun'altro?? :confused: nn riesco a capire cosa sia, finora nn riesco a giocare a nulla di perfettamente fluido, neanche a 1024*768... mah :mbe: mi sa che il barton è alla frutta ormai.
Avrai il sistema sporco, possibile? :)
nonikname
03-07-2004, 11:18
Originariamente inviato da andreamarra
Non è una tech demo ati :)
E' una tech demo per tutte le schede DX9 ;)
Sono quelle sfere di marmo e altri materiali che girano intorno alla luce di vario colore, il numero di fps lo indica in alto a sinistra.
Per favore :ave: :D
E' una tech demo realizzata da un utente (credo giapponese) che l'ha scritta in HLSL , però è stata ottimizzata per funzionare sulla scheda che aveva quando ha scritto questa demo : una 9700pro...
Quindi è poco attendibile come soluzione per paragonare due marche diverse , mentre è utilissima per ottimizzare il proprio sistema : per l'OC delle schede grafiche è ottima , dato che è propensa ad artefatti sia di GPU che di MEM , vista la mole di decimali che deve calcolare , ogni piccolo errore viene amplificato e rimandato su schermo...
andreamarra
03-07-2004, 11:19
Originariamente inviato da Dark Schneider
Io ho fatto una prova veloce l'altro giorno con Painkiller....1280x1024 FSAA 4X e AF16X si attestava sui 120-160 fps.
Staminchiazza :eek: !
Originariamente inviato da andreamarra
Staminchiazza :eek: !
:eek: :cry: :cry:
Legolas84
03-07-2004, 11:28
Originariamente inviato da Dark Schneider
Painkiller....1280x1024 FSAA 4X e AF16X si attestava sui 120-160 fps.
Porc.... Point of View Sbrigati :cry:
Originariamente inviato da nonikname
E' una tech demo realizzata da un utente (credo giapponese) che l'ha scritta in HLSL , però è stata ottimizzata per funzionare sulla scheda che aveva quando ha scritto questa demo : una 9700pro...
Io con la mia X800pro@default e il barton@2500mhz sono sui 80-90 fps. Se scendo a 3200+ se volete vi posto un'img :)
anche le 6800 di Leadtek Rulano:D e la GPU lavora a 425 MHz(di default)
http://www.ixbt.com/video2/nv40-3-p1.shtml
http://www.ixbt.com/video2/images/nv40-3/leadtek-6800u-front-small.jpg
http://www.ixbt.com/video2/images/nv40-3/leadtek-6800-front-small.jpghttp://www.ixbt.com/video2/images/nv40-3/leadtek-6800u-scan-front-small.jpg [URL=Leadtek WinFast A400 Ultra TDH ]
[IMG]http://www.ixbt.com/video2/images/nv40-3/leadtek-6800u-scan-back-small.jpg
andreamarra
03-07-2004, 11:31
Originariamente inviato da Legolas84
Porc.... Point of View Sbrigati :cry:
Se ti va prova a mettere un "1" a pennarello giallo davanti le due cifre di fps (di fraps) che genera il tuo catorcetto :ciapet: quando lanci PK :asd:
Così almeno per un pò stai tranquillo :asd:
:flower: :D
Dark Schneider
03-07-2004, 11:39
Originariamente inviato da nonikname
E' una tech demo realizzata da un utente (credo giapponese) che l'ha scritta in HLSL , però è stata ottimizzata per funzionare sulla scheda che aveva quando ha scritto questa demo : una 9700pro...
Quindi è poco attendibile come soluzione per paragonare due marche diverse , mentre è utilissima per ottimizzare il proprio sistema : per l'OC delle schede grafiche è ottima , dato che è propensa ad artefatti sia di GPU che di MEM , vista la mole di decimali che deve calcolare , ogni piccolo errore viene amplificato e rimandato su schermo...
Ah ecco!! Interessante. :)
Cmq a me con il mio sistema tutto default...fino a dove ho visto (poi mi son rotto un po' le scatole a guardare 100 test di palline che girano..mal di testa sigh)....più o meno mi stava come ha detto redbaron...però ho visto punte di 70 anche.
nonikname
03-07-2004, 11:41
Originariamente inviato da andreamarra
Questo qui :)
http://www.daionet.gr.jp/~masa/archives/thdribl_1_2.zip
Non è preso dal sito ati :)
Volevo saperlo perchè in giro avevo letto che una NV40 faceva davvero pochissimo (tipo 20-25 fps...)
Invece non è così.
minimo 72 max 79.......
Dark Schneider
03-07-2004, 11:44
Originariamente inviato da nonikname
minimo 72 max 79.......
Ho ritrovato come si chiama il giapponese che l'ha ideato sulla sua 9700: Masaki Kawase. :D
Cmq ad essere carino lo è...ma fa enire il mal di testa.
Isomarcus
03-07-2004, 11:48
Originariamente inviato da Dark Schneider
Ma sei sicuro? Io ho fatto una prova veloce l'altro giorno con Painkiller....1280x1024 FSAA 4X e AF16X si attestava sui 120-160 fps.
Ma hai provato il Barton alle frequenze di default?
:cry: no beh ormai aspetto il p4... :(
Isomarcus
03-07-2004, 11:50
Originariamente inviato da andreamarra
Avrai il sistema sporco, possibile? :)
ho formattato prima di montare la scheda... :( ormai sono rassegnato, aspetto il p4 la mobo nuova poi installo tutto e via... vediamo se farò ancora meno di quanto facevo con la 9700pro :(
Dark Schneider
03-07-2004, 11:53
Originariamente inviato da andreamarra
Staminchiazza :eek: !
Si praticamente non ricordo che livello è...mi pare del terzo capitolo...quello dove ci son carro armati, un botto di soldati, ecc.
Dark Schneider
03-07-2004, 11:55
Originariamente inviato da Isomarcus
:cry: no beh ormai aspetto il p4... :(
Cmq è strano. Però vabbè se hai ordinato il P4...vediamo come ti va. Però è anomalo come comportamento...a me appunto non fa così ed ho un sistema inferiore.
Isomarcus
03-07-2004, 11:58
eppure... cioè fossi un niubbo direi ok, ho sbagliato a settare qualcosa nel bios, ma porca pupazza l'ho controllato voce per voce ed è tutto ok... dato che mi piace estirpare i problemi alla radice :D ora arriva p4 2800 e p4p800 e partiamo da zero...
andreamarra
03-07-2004, 12:00
Originariamente inviato da Isomarcus
eppure... cioè fossi un niubbo direi ok, ho sbagliato a settare qualcosa nel bios, ma porca pupazza l'ho controllato voce per voce ed è tutto ok... dato che mi piace estirpare i problemi alla radice :D ora arriva p4 2800 e p4p800 e partiamo da zero...
Perchè non hai preso in considerazione l'AthlonFX 64?
ragazzi ho scoperto il perchè dei soli 8800p. al 3d mark 03 con la GT,
ho registrato i risultati che facevo sia con la 5900XT che con la 9800PRO, e nel cpu score facevo circa 600 punti ora invece ne faccio la metà circa 300 punti e la cpu è sempre la stessa un P4 3Ghz...
Da cosa può dipendere ?
Dark Schneider
03-07-2004, 12:11
Originariamente inviato da andreamarra
Perchè non hai preso in considerazione l'AthlonFX 64?
In effetti era meglio l'A64..anche non FX.
Dark Schneider
03-07-2004, 12:16
Originariamente inviato da dwfgerw
ragazzi ho scoperto il perchè dei soli 8800p. al 3d mark 03 con la GT,
ho registrato i risultati che facevo sia con la 5900XT che con la 9800PRO, e nel cpu score facevo circa 600 punti ora invece ne faccio la metà circa 300 punti e la cpu è sempre la stessa un P4 3Ghz...
Da cosa può dipendere ?
Ho provato a vedere il mio CPU score con il primo test al 3d mark 2003 che ho fatto, con appunto la CPU Default (2600+ 2083 Mhz) e GT Default, il Cpu Score è 595.
Hai provato qlc bench per cpu se ti va uguale a prima?
Originariamente inviato da viko
anche le 6800 di Leadtek Rulano:D e la GPU lavora a 425 MHz(di default)
http://www.ixbt.com/video2/nv40-3-p1.shtml
http://www.ixbt.com/video2/images/nv40-3/leadtek-6800u-front-small.jpg
http://www.ixbt.com/video2/images/nv40-3/leadtek-6800-front-small.jpghttp://www.ixbt.com/video2/images/nv40-3/leadtek-6800u-scan-front-small.jpg [URL=Leadtek WinFast A400 Ultra TDH ]
[IMG]http://www.ixbt.com/video2/images/nv40-3/leadtek-6800u-scan-back-small.jpg
idem per la PoV
:)
Isomarcus
03-07-2004, 12:23
Originariamente inviato da andreamarra
Perchè non hai preso in considerazione l'AthlonFX 64?
$$$$$$$$ :D a meno di nn voler prendere il s.754 ma allora preferisco di gran lunga il p4 ;)
ragazzi per quanto riguarda l'occupazione della memoria in un gioco come farcry, perchè non usate il grafico prestazioni presente nei driver nvidia? :D io ieri l'ho usato..è una figata :D e painkiller non ci sta proprio in 64 mega :cry:
bYeZ!
Isomarcus
03-07-2004, 12:26
Originariamente inviato da Dark Schneider
In effetti era meglio l'A64..anche non FX.
per un altro annetto penso che un p4 sopra i 3ghz e una 6800gt possano farmi campare. poi ci sarà da upgradare tutto il pc... spendere ora una barca di € per un a 64 mi sembra inutile, dato che prima che vengano davvero sfrutttati i pc saranno ampiamente rivoluzionati... insomma mi da troppo l'idea di sprecato l'a64
Dark Schneider
03-07-2004, 12:36
Originariamente inviato da ATi7500
ragazzi per quanto riguarda l'occupazione della memoria in un gioco come farcry, perchè non usate il grafico prestazioni presente nei driver nvidia? :D io ieri l'ho usato..è una figata :D e painkiller non ci sta proprio in 64 mega :cry:
bYeZ!
Mi dici dove sta? Mi pae di averlo visto da qlc parte...ma non lo ritrovo adesso!!:D
andreamarra
03-07-2004, 12:36
Edit, ho visto male :p
Dark Schneider
03-07-2004, 12:37
Trovato...come non detto. Ma poi come funziona?
Originariamente inviato da Dark Schneider
Mi dici dove sta? Mi pae di averlo visto da qlc parte...ma non lo ritrovo adesso!!:D
nei 56.72+coolbits è nelle impostazioni avanzate del direct3d :)
bYeZ!
Originariamente inviato da Dark Schneider
Trovato...come non detto. Ma poi come funziona?
metti grafico + legenda e avvia un'applicazione direct3d ;)
bYeZ!
Dark Schneider
03-07-2004, 12:46
E ma poi dove devo vedere?
Originariamente inviato da Dark Schneider
E ma poi dove devo vedere?
sullo skermo appaiono i grafici in sovraimpressione..
bYeZ!
Legolas84
03-07-2004, 12:53
Originariamente inviato da andreamarra
Se ti va prova a mettere un "1" a pennarello giallo davanti le due cifre di fps (di fraps) che genera il tuo catorcetto :ciapet: quando lanci PK :asd:
Così almeno per un pò stai tranquillo :asd:
:flower: :D
:asd:
Dark Schneider
03-07-2004, 12:54
Originariamente inviato da ATi7500
sullo skermo appaiono i grafici in sovraimpressione..
bYeZ!
Azz non mi appaiono in Far Cry. :(
andreamarra
03-07-2004, 13:56
Una domandina: le normal maps che verranno sfruttate... potranno essere utilizzate sia da ati che da nvidia?
Non c'entra nulla il 3DC o altri algoritmi per comprimere???
:)
Originariamente inviato da dwfgerw
ragazzi ho scoperto il perchè dei soli 8800p. al 3d mark 03 con la GT,
ho registrato i risultati che facevo sia con la 5900XT che con la 9800PRO, e nel cpu score facevo circa 600 punti ora invece ne faccio la metà circa 300 punti e la cpu è sempre la stessa un P4 3Ghz...
Da cosa può dipendere ?
ciao, che directx usi ?
sulla mia PoV GT dopo aver installato le 9.0c beta, il 3dmark03 mi e' sceso da 11900 a 8900 :eek:
i giochi funzionano bene pero'.
Dark Schneider
03-07-2004, 14:07
Originariamente inviato da andreamarra
Una domandina: le normal maps che verranno sfruttate... potranno essere utilizzate sia da ati che da nvidia?
Non c'entra nulla il 3DC o altri algoritmi per comprimere???
:)
Certo da entrambi. Ovviamente con tecniche di compressione..si possono comprimere.
PSYCOMANTIS
03-07-2004, 14:19
Originariamente inviato da andreamarra
Una domandina: le normal maps che verranno sfruttate... potranno essere utilizzate sia da ati che da nvidia?
Non c'entra nulla il 3DC o altri algoritmi per comprimere???
:)
Le normal maps sono utilizzabili da entrambe il 3dc di ati serve a comprimerle meglio, comunque alla fine tra il 3dc e il dxt5 non mi sembra ci sia tutta sta' differenza visiva, casomai il 3dc e' un po' piu' veloce.
ragazzi oggi a quel mio amico sono arrivate due ultra !!!
incrociate le dita per me...... !!! :yeah:
cmq lui è di catania io di trapani....la parte opposta della sicilia..spero di averla al più presto possibile.....
Wizard77
03-07-2004, 14:58
Originariamente inviato da Dark Schneider
Si ma io ne ero convinto che Gainward anche questa volta non era migliore.
Le Ultra hanno le mem da 1.6 ns.
Le POV GT dichiarano 2 ns...anche se probabilmente sono da 1.8 ns (cmq alle frequenze a 1100 ci vanno...2 ns sono 1000).
ho guardato sul sito della gainward, e c'è scritto che le ram sono a 1.6ns come quelle della Ultra e della Extreme, il core c'è scritto 350+mhz, quindi credo che sia qualcosina in più di 350, però non ha lo stesso sistema di raffreddamento della Ultra.
Dark Schneider
03-07-2004, 15:05
Originariamente inviato da Wizard77
ho guardato sul sito della gainward, e c'è scritto che le ram sono a 1.6ns come quelle della Ultra e della Extreme, il core c'è scritto 350+mhz, quindi credo che sia qualcosina in più di 350, però non ha lo stesso sistema di raffreddamento della Ultra.
La Gainward pompa sempre le sue schede...se guardi anche la liscia parte da 800.....il fatto è che semplicemente poi ha margine minore degli altri...che arrivano anche a quelle frequenze ma hanno frequenze iniziali classiche. La Gainward OC di fabbrica.
Le memorie dicono 1.6 ns...secondo me c'è un errore. Quell'utente ha detto cha la sua era da 2.0 ns.
Wizard77
03-07-2004, 15:15
Originariamente inviato da Dark Schneider
La Gainward pompa sempre le sue schede...se guardi anche la liscia parte da 800.....il fatto è che semplicemente poi ha margine minore degli altri...che arrivano anche a quelle frequenze ma hanno frequenze iniziali classiche. La Gainward OC di fabbrica.
Le memorie dicono 1.6 ns...secondo me c'è un errore. Quell'utente ha detto cha la sua era da 2.0 ns.
mi sa che ha detto che erano a 2ns, perché così è scritto sul sito N€XT, cioè dove l'ha comprata.
E visto che io di solito vado la a prendere tutti i miei componenti, mi sa che dovrò prendermi proprio quella di GT, a meno che entro sett/ott non gli arrivino altre marche
EVVAIIIIIIIIIIi
ASUS V9999 Ultra Deluxe in arrivo !!
http://www.asus.it/products/vga/v9999ultra/overview.htm
peccato dovrò aspettare ancora 15giorni perchè il mio amico deve andarsi a fare un corso di lavoro nel nord.......beh anche lui dovrà aspettare prima di provarla con me quindi in un certo senso mi consolo !!!:D
Ciao:)
StIwY, se mi permetti proverei per prima io la tua ultra :asd: Poi ovviamente se va bene te la spedisco :O :D
Originariamente inviato da Xfree
StIwY, se mi permetti proverei per prima io la tua ultra :asd: Poi ovviamente se va bene te la spedisco :O :D
.....ne riparliamo tra due settimane.....:D
Originariamente inviato da giggino
ciao, che directx usi ?
sulla mia PoV GT dopo aver installato le 9.0c beta, il 3dmark03 mi e' sceso da 11900 a 8900 :eek:
i giochi funzionano bene pero'.
ho le 9.0B ....
ragazzi leggete questa, sembra che stiano lavorando ad un bios che consenta di abilitare le 4 pipes nelle GeForce 6800 lisce...
http://www.hardware-mania.it/modules.php?name=News&file=article&sid=208&mode=&order=0&thold=0
Dark Schneider
03-07-2004, 19:02
Originariamente inviato da Wizard77
mi sa che ha detto che erano a 2ns, perché così è scritto sul sito N€XT, cioè dove l'ha comprata.
E visto che io di solito vado la a prendere tutti i miei componenti, mi sa che dovrò prendermi proprio quella di GT, a meno che entro sett/ott non gli arrivino altre marche
Cmq non è che volevo screditare Gainward...anche quella sale sicuro...solo che di solito costano di più. Magari dichiarano una cosa ma poi è uguale alle altre.
Oddio 2 ns...che poi magari lo sono...ma solo rimarchiate...le POV anche dicono 2 ns...ma il limite non è di certo 1000 Mhz...appunto si va oltre i 1100...quindi minimo 1.8 ns è di sicuro. :)
Ma quantè che la devi prendere?
Dark Schneider
03-07-2004, 19:05
Originariamente inviato da dwfgerw
ragazzi leggete questa, sembra che stiano lavorando ad un bios che consenta di abilitare le 4 pipes nelle GeForce 6800 lisce...
http://www.hardware-mania.it/modules.php?name=News&file=article&sid=208&mode=&order=0&thold=0
Ne ero certo!! :) Qlc mese fa uscì la notizia che le pipeline erano abilitabili-disabilitabili.
Per di più lo conferma il piccolo "giallo" che avva afflitto un utente di Leadtek 6800 liscia...il cui bios 1.0 gli abilitava 8 Pipeline...dopo aver chiesto spiegazione alla Leadtek..questi hanno fornito il 2.0 che era esente da bug....e guarda caso ecco abilitate tutte le 12 Pipeline. :)
amd-novello
03-07-2004, 19:18
wonderful quel test per le dx9
:D :D
30 frame fanno un po schifino non capisco cos'è quel 4x multisample io l'aa l'ho disabilitato.
azz quanti poligoni le sfere e environmental mapping reale a manetta. :eek: :eek: :sofico:
Wizard77
03-07-2004, 19:35
Originariamente inviato da Dark Schneider
Cmq non è che volevo screditare Gainward...anche quella sale sicuro...solo che di solito costano di più. Magari dichiarano una cosa ma poi è uguale alle altre.
Oddio 2 ns...che poi magari lo sono...ma solo rimarchiate...le POV anche dicono 2 ns...ma il limite non è di certo 1000 Mhz...appunto si va oltre i 1100...quindi minimo 1.8 ns è di sicuro. :)
Ma quantè che la devi prendere?
la dovrei prendere verso sett/ott quando cambio tutto con l'A64
amd-novello
03-07-2004, 19:56
qui a 1280x1024 tutto a palla
guardate che velocità!!! :D
20framesssssssss
mo provo overcloccando a 400/1100
niente a 400/1150 va tutto uguale
booooooooooooo
Pipposuperpippa
03-07-2004, 20:16
La 6800GT Gainward è nel mio case!!
Senza formattare e senza alcun overclock della scheda faccio 10500 al 3dmark2003 con i 61.36 :yeah:
amd-novello
03-07-2004, 20:50
buono buono dimmi quando overclocchi e a quanto arrivi di clock :D
ma con la ventolozza mi sta sempre a 60 gradi e non si schioda!! come sono gasato è dai tempi della banshee che non sono così!!!!!!
Originariamente inviato da dwfgerw
ragazzi leggete questa, sembra che stiano lavorando ad un bios che consenta di abilitare le 4 pipes nelle GeForce 6800 lisce...
http://www.hardware-mania.it/modules.php?name=News&file=article&sid=208&mode=&order=0&thold=0
Adesso aspetto qualche cavia... :D
Originariamente inviato da Pipposuperpippa
La 6800GT Gainward è nel mio case!!
Senza formattare e senza alcun overclock della scheda faccio 10500 al 3dmark2003 con i 61.36 :yeah:
Grande, ma a temperature come sta?
Vogliamo l'OC!!!! :D
;)
Pipposuperpippa
03-07-2004, 21:38
Guarda che è la scheda di Ynned... :D :D
Lui l'ha venduta in quanto vuole una Ultra che salga di più e io sono stato pronto come un falco sulla preda :cool:
L'OC per ora non l'ho provato (mi va bene a default), vi basta guardare a quanto è arrivato lui...
La temp dopo una serata passata a giocare sta sui 64 gradi, giocando ha raggiunto picchi di 74.
Thunder82
04-07-2004, 00:02
Originariamente inviato da Dark Schneider
Ho provato a vedere il mio CPU score con il primo test al 3d mark 2003 che ho fatto, con appunto la CPU Default (2600+ 2083 Mhz) e GT Default, il Cpu Score è 595.
Hai provato qlc bench per cpu se ti va uguale a prima?
Ma come hai fatto a fare 595 con un 2600+? :confused:
E' oltre il punteggio di un 3200+ :confused:
http://www.xbitlabs.com/images/cpu/celeron-d/3dmark03-1.png
Dark Schneider
04-07-2004, 01:13
Originariamente inviato da Thunder82
Ma come hai fatto a fare 595 con un 2600+? :confused:
E' oltre il punteggio di un 3200+ :confused:
http://www.xbitlabs.com/images/cpu/celeron-d/3dmark03-1.png
Scusa era 593 non 595.
Cmq...ma perchè non è normale per un Thorogbread 2600+? :)
Guarda ti posto la foto del mio primissimo bench al 3d Mark 2003, come vedi la CPU è tutto tranne che OC, ed anche la GT è a default(alle frequenze della Ultra faccio 11.144):
http://www.tombraiders.it/public/GeFor_1.JPG
Dark Schneider
04-07-2004, 01:21
Originariamente inviato da Pipposuperpippa
La 6800GT Gainward è nel mio case!!
Senza formattare e senza alcun overclock della scheda faccio 10500 al 3dmark2003 con i 61.36 :yeah:
Grande!! :)
Dai che alle frequenze della Ultra dovresti guadagnare altri 1000 punti almeno. :)
Io con XP 2600+ default, GT default e 61.36 come drivers 10.007 (contro i 10.006 dei 61.45)...OC la GT ancora non ho provato con questi drivers, ma con i 61.45 a 405/1.11 Ghz (praticamente qlc mhz in più della Ultra) ho fatto 11.144!! :) Oltre 1.100 punti guadagnati!! :)
Wizard77
04-07-2004, 01:24
Originariamente inviato da Pipposuperpippa
La 6800GT Gainward è nel mio case!!
Senza formattare e senza alcun overclock della scheda faccio 10500 al 3dmark2003 con i 61.36 :yeah:
mi puoi dire a quanto stanno le frequenze di base???
grazie, ciao
Dark Schneider
04-07-2004, 01:33
Originariamente inviato da amd-novello
qui a 1280x1024 tutto a palla
guardate che velocità!!! :D
20framesssssssss
mo provo overcloccando a 400/1100
niente a 400/1150 va tutto uguale
booooooooooooo
Beh il test normale è a 640x480.... :D
Dark Schneider
04-07-2004, 01:51
Originariamente inviato da Wizard77
la dovrei prendere verso sett/ott quando cambio tutto con l'A64
Vedrai che ti rullerà da dio allora la 6800 GT, è una gran scheda!! :D
antonio_colli
04-07-2004, 07:32
in arrivo domani 6800 Ultra POV by TC:D :D
poi si ragiona!
playmake
04-07-2004, 08:16
Originariamente inviato da Isomarcus
per un altro annetto penso che un p4 sopra i 3ghz e una 6800gt possano farmi campare. poi ci sarà da upgradare tutto il pc... spendere ora una barca di € per un a 64 mi sembra inutile, dato che prima che vengano davvero sfrutttati i pc saranno ampiamente rivoluzionati... insomma mi da troppo l'idea di sprecato l'a64
come mai affermi ciò? oramai si trovano usati, io ho preso quello che ho in sign, mobo più procio @ 250, nn è tanto ma VA tanto... 22500 al 3d merd :) molto meglio di p IV soprattutto perkè alla fine forse ti costa pure meno.... poi ho pèrovato la beta di xp64 e già solo cambiando SO si guadagnano circa 300-400pti al 3d merd ;)
amd-novello
04-07-2004, 08:19
le freq del core della ultra a quanto sono?
io sto a 420/1120 e regge speriamo farcry è sempre + fluido. :)
Pipposuperpippa
04-07-2004, 09:19
Originariamente inviato da Dark Schneider
Grande!! :)
Dai che alle frequenze della Ultra dovresti guadagnare altri 1000 punti almeno. :)
Io con XP 2600+ default, GT default e 61.36 come drivers 10.007 (contro i 10.006 dei 61.45)...OC la GT ancora non ho provato con questi drivers, ma con i 61.45 a 405/1.11 Ghz (praticamente qlc mhz in più della Ultra) ho fatto 11.144!! :) Oltre 1.100 punti guadagnati!! :)
Farò sicuramente la prova con la scheda @ultra, ti farò sapere :)
Pipposuperpippa
04-07-2004, 09:20
Originariamente inviato da Wizard77
mi puoi dire a quanto stanno le frequenze di base???
grazie, ciao
Sono quelle standard: 350mhz , 1Ghz :)
Dark Schneider
04-07-2004, 09:51
Originariamente inviato da amd-novello
le freq del core della ultra a quanto sono?
io sto a 420/1120 e regge speriamo farcry è sempre + fluido. :)
400/1100
Io ci gioco con le frequenze di default: 350/1000!! Va già bene così. :)
Dark Schneider
04-07-2004, 09:54
Originariamente inviato da Pipposuperpippa
Farò sicuramente la prova con la scheda @ultra, ti farò sapere :)
Fai rilevare l'OC dai coolbit prima. :)
Cmq non sempre da valori uguali il rilevamento...però bene o male son quelli...tipo a me stanotte che faceva freschetto ho riprovato: 407/1.11 Ghz, un altra volta invece il Core a 404, un altra volta 405. Ma stiamo lì come suggerimento di OC.
Pipposuperpippa
04-07-2004, 10:15
Originariamente inviato da Dark Schneider
Fai rilevare l'OC dai coolbit prima. :)
Cmq non sempre da valori uguali il rilevamento...però bene o male son quelli...tipo a me stanotte che faceva freschetto ho riprovato: 407/1.11 Ghz, un altra volta invece il Core a 404, un altra volta 405. Ma stiamo lì come suggerimento di OC.
Col caldo che c'è qui da me i coolbits hanno rilevato 393\1.08, comunque ho impostato la scheda a 400\1.1 e ho fatto 11600 punti al 3dmark03. ;)
Ora la rimetto standard :D
Dark Schneider
04-07-2004, 10:31
Originariamente inviato da Pipposuperpippa
Col caldo che c'è qui da me i coolbits hanno rilevato 393\1.08, comunque ho impostato la scheda a 400\1.1 e ho fatto 11600 punti al 3dmark03. ;)
Ora la rimetto standard :D
Ottimo punteggio!! :) Probabilmente a 12.000 ci arrivi.
Cmq si anchio l'uso normale l'ho faccio a 350/1000.
antonio_colli
04-07-2004, 10:32
in arrivo 6800ultra POV
Drivers Consigliati?
:D
evvai con l'OC
amd-novello
04-07-2004, 10:47
eheh arrivato a 435/1150 pero' ho artefatti :( torno giu :D :D
i puntini neri notate? sono quasi invisibili
nella seconda pic invece si vede che i bordin della torcia sono seghettati ma sono così anche sulle ati?
amd-novello
04-07-2004, 10:47
bordi torcia
andreamarra
04-07-2004, 10:58
Originariamente inviato da amd-novello
bordi torcia
No, su ati non c'è questo problema.
E' il famoso banding, stai giocando con fp16 anzichè fp32.
Ma non era stato risolto con i nuovi driver sto problema?? :confused: ?
Cmq fra un pò potrai mettere la patch 1.2, e qualche cosa si guadagna :)
amd-novello
04-07-2004, 10:59
ma il banding non sarebbe quando non hai attivato il vsync e vedi spezzettamenti orizzontali quando ad essempio ti giri velocemente?
andreamarra
04-07-2004, 11:09
Originariamente inviato da amd-novello
ma il banding non sarebbe quando non hai attivato il vsync e vedi spezzettamenti orizzontali quando ad essempio ti giri velocemente?
No, il banding è un difetto grafico.
Praticamente è come se mancassero colori e soprattutto definizione, e quindi uno shader lo vedi squadrettato. Con fp16 si vedono questi problemi (anche se dovevano essere risolti...), con fo32 assolutamente no.
amd-novello
04-07-2004, 11:17
puo' essere che ho messo i driver 61.71 ultramegabeta?
non era risolto con dei driver specifici
Dark Schneider
04-07-2004, 11:31
Originariamente inviato da andreamarra
No, su ati non c'è questo problema.
E' il famoso banding, stai giocando con fp16 anzichè fp32.
Ma non era stato risolto con i nuovi driver sto problema?? :confused: ?
Cmq fra un pò potrai mettere la patch 1.2, e qualche cosa si guadagna :)
Infatti io con i 61.36 WHQL beta ho incontrato diversi dei punti "incriminati" dei mesi precedenti...non ci son più. :)
Pipposuperpippa
04-07-2004, 11:31
Originariamente inviato da Dark Schneider
Ottimo punteggio!! :) Probabilmente a 12.000 ci arrivi.
Cmq si anchio l'uso normale l'ho faccio a 350/1000.
Può darsi che se tiro un po' il collo al sistema a 12000 ci arrivo, ma non mi interessa, con la 9800pro facevo 5500 punti e ora sono il doppio... :p
Dark Schneider
04-07-2004, 11:34
Originariamente inviato da Pipposuperpippa
Può darsi che se tiro un po' il collo al sistema a 12000 ci arrivo, ma non mi interessa, con la 9800pro facevo 5500 punti e ora sono il doppio... :p
Infatti!! :) Alla fine che ti frega...è giocare che conta. :D
Pipposuperpippa
04-07-2004, 11:36
Originariamente inviato da Dark Schneider
Infatti!! :) Alla fine che ti frega...è giocare che conta. :D
Infatti... a proposito, ho provato ieri Far Cry ed è perfetto, invece Need for Speed Underground va bene quasi sempre (filtri 4X 8X) tuttavia in certi punti precisi presenta ancora qualche scattino di cattiva programmazione (primo giro pista terminal).
amd-novello
04-07-2004, 12:24
come mai faccio solo 36.000 ad aquamark??
questo qui fa moltissimo
Configurazione:
- P4 3.06 @ 3623
- Ati Radeon 9800 Pro @ 390/710
- 512 Mb Ram @ CL 2
- Case Thermaltake Xaser III
- SoundBlaster Creative 2 ZS
- Hercules XPS 5.100
3Dmark2001 --> 18547 3Dmark2003 --> 6234
Aquamark --> 45914 Codecreatures --> 44.9
sarà il procio o il test non è affidabilissimo?
e la scheda è pure overcloccata. tutti i test vanno oltre i 30/40 tranne la merdaccia di large scale vegetation rendering che è a 20 :(
edit : mi rispondo da solo tutti quelli del forum che hanno punteggi pazzeschi hanno la ultra e un pentium4. alcuni superano i 60.000. sigh
pero' al 3dmerd non fanno molto :D
Wizard77
04-07-2004, 12:33
Originariamente inviato da amd-novello
come mai faccio solo 36.000 ad aquamark??
questo qui fa moltissimo
Configurazione:
- P4 3.06 @ 3623
- Ati Radeon 9800 Pro @ 390/710
- 512 Mb Ram @ CL 2
- Case Thermaltake Xaser III
- SoundBlaster Creative 2 ZS
- Hercules XPS 5.100
3Dmark2001 --> 18547 3Dmark2003 --> 6234
Aquamark --> 45914 Codecreatures --> 44.9
sarà il procio o il test non è affidabilissimo?
e la scheda è pure overcloccata. tutti i test vanno oltre i 30/40 tranne la merdaccia di large scale vegetation rendering che è a 20 :(
edit : mi rispondo da solo tutti quelli del forum che hanno punteggi pazzeschi hanno la ultra e un pentium4. alcuni superano i 60.000. sigh
pero' al 3dmerd non fanno molto :D
fai pochissimo tu, arrivo io a 37000 con la config in signature
è impossibile che fai solo 36000, dovresti suprerare i 50000 abbondantemente
Dark Schneider
04-07-2004, 12:33
In ogni caso il tuo punteggio è molto basso. 36.000 è basso.
Ma sei sicuro di averlo fatto eseguire a default? Non è che sta chessò a 1280, fsaa,ecc.?
Il test default è 1024, af 4x e tutto i dettagli al massimo. Niente FSAA.
andreamarra
04-07-2004, 13:42
Effettivamente sono risultati bassissimi, considera che con il sistema in sign ad Aquamark faccio 43000 pt circa.
ho fatto un po di prove in overclock della PoV 6800GT, regge senza artefatti i 400/1100 come la ultra...
amd-novello
04-07-2004, 14:36
Originariamente inviato da Dark Schneider
In ogni caso il tuo punteggio è molto basso. 36.000 è basso.
Ma sei sicuro di averlo fatto eseguire a default? Non è che sta chessò a 1280, fsaa,ecc.?
Il test default è 1024, af 4x e tutto i dettagli al massimo. Niente FSAA.
tutto defaut e non penso che i settaggi nel nvidia panel cambino qualcosa no?
andreamarra
04-07-2004, 14:39
Originariamente inviato da dwfgerw
ho fatto un po di prove in overclock della PoV 6800GT, regge senza artefatti i 400/1100 come la ultra...
Ottimo :)
Dovresti vedere le ram fino a quanto salgono, mi sembra di aver capito che in queste schede video nvidia la frequenza di ram è un fattore determinante, ancor più che la frequenza del core ;)
redbaron
04-07-2004, 14:47
Originariamente inviato da amd-novello
tutto defaut e non penso che i settaggi nel nvidia panel cambino qualcosa no?
Certo che cambiano, se hai impostato l'AA da control panel devi toglierlo.
redbaron
04-07-2004, 15:16
Usciti i 61.80!!! ;)
http://downloads.guru3d.com/download.php?det=812
Pipposuperpippa
04-07-2004, 15:21
Ma ogni 2 gg bisogna cambiare driver? :confused:
Io userei solo quelli WHQL...
amd-novello
04-07-2004, 15:26
CHE FELICITA'
3dmerd03/340 9850 questo è normale pero'
aquamark 36.000
e il bello è che sono a 430/1100
:( :( :(
pero' farcry va benissimo :D :D
redbaron
04-07-2004, 16:32
61.80 con GT@default
http://www.tombraiders.it/public/3dmark.jpg
Pipposuperpippa
04-07-2004, 16:42
Originariamente inviato da redbaron
61.80 con GT@default
Di quanto hai migliorato? :)
andreamarra
04-07-2004, 16:45
Scusate l'ignoranza, ma i fps al nature mi sembrano bassi rispetto a dei bench della X800pro che ho visto.
Il punteggio finale mi sembra che sia leggermente superiore per la GT, ma in quel test MN mi ricordavo valori decisamente più alti, sbaglio??
:confused:
redbaron
04-07-2004, 16:51
Originariamente inviato da Pipposuperpippa
Di quanto hai migliorato? :)
Simile ai precedenti, non ricordo esattamente.
andreamarra
04-07-2004, 16:54
Originariamente inviato da redbaron
Simile ai precedenti, non ricordo esattamente.
Hai notato qualche migliramento nella gestione di shader o altro?
Magari sono stati sistemati dei problemi che prima avevi? :)
(non ho mai installato questi tipi di driver, non capisco in cosa differiscano da una versione all'altra :) )
redbaron
04-07-2004, 17:02
Originariamente inviato da andreamarra
Hai notato qualche migliramento nella gestione di shader o altro?
Magari sono stati sistemati dei problemi che prima avevi? :)
No, non avevo nessun particolare problema. Volevo provarli, tutto qua. :)
(non ho mai installato questi tipi di driver, non capisco in cosa differiscano da una versione all'altra :) )
Cosa intendi per "Questi tipi di driver"? :confused:
Tutti i driver sono piu' o meno beta, anche quelli ufficiali.
andreamarra
04-07-2004, 18:03
Originariamente inviato da redbaron
No, non avevo nessun particolare problema. Volevo provarli, tutto qua. :)
Cosa intendi per "Questi tipi di driver"? :confused:
Tutti i driver sono piu' o meno beta, anche quelli ufficiali.
Significa che non jo mai installato driver nvidia, eccetto quelli di quando avevo la geffoIIMX (mi sembra che avessero anche il nome diverso..)
Sembra che i WHQL dovrebbero uscire in contemporanea con la nuova patch di Far Cry. ;)
Originariamente inviato da Koji
Sembra che i WHQL dovrebbero uscire in contemporanea con la nuova patch di Far Cry. ;)
Quelli ufficiali intendi ??
Magari anche con le demo definitive ?
amd-novello
04-07-2004, 20:38
non dovrebbe uscire settimana prossima la patch?
tiro ad indovinare occuperà 50 megozzi :D :D
Originariamente inviato da andreamarra
Ottimo :)
Dovresti vedere le ram fino a quanto salgono, mi sembra di aver capito che in queste schede video nvidia la frequenza di ram è un fattore determinante, ancor più che la frequenza del core ;)
non solo per nvidia direi, il bus a 256bit è ora il vero collo di bottiglia di queste gpu
amd-novello
04-07-2004, 20:57
si ma hanno gigatexel/sec non credo che il collo sia li perchè di informazioni ne passano tantissime.
certo che a 512 costicchierebbe un po'
scusate ma sarebbe come i 32/64 bit dei processori sta roba dei 256?
Nell'attesa della POV 6800 Ultra, mi sono dilettato con la vecchia ma fedele ATI Radeon VIVO (alias 7200). Ed ecco uscire il record al 3DMark03 !!!!!
Punti: 270
Link: Futuremark (http://service.futuremark.com/compare?2k3=2733207)
Configurazione:
Pentium 4 3,00Ghz (Prescott - HT - Bus 800Mhz) @ 3,75Ghz (250x15)
Abit IC7-MAX3 (875P)
2x512MB PC4000 A-Data Vitesta DDR500 (3-8-4-4)
ATI Radeon VIVO 64MB DDR: core 200 / ram 200
Non male ehh ???
Per verificare il record di suddetta scheda, andate in Project Search & Compare (http://service.futuremark.com/servlet/Index?pageid=/orb/projectsearch) , e selezionate solo il chip grafico (ATI Radeon 7200 Series), il resto lasciatelo a default.
Ahhhh ... dimenticavo, il tutto è raffreddato ad aria !!! I WB li ri-metterò settimana prossima insieme alla 6800 Ultra !!!!!!
E qui (http://forum.hwupgrade.it/showthread.php?s=&postid=5041301#post5041301) trovate i vari SuperPi che ho effettuaro e gli shot del sistema !!
;)
Wizard77
04-07-2004, 21:10
Originariamente inviato da lanfste
Non male ehh ???
c@zzo se non è male, tutti sperano di fare quei punti in 3Dmark2003 :D :D :D
Originariamente inviato da lanfste
Nell'attesa della POV 6800 Ultra, mi sono dilettato con la vecchia ma fedele ATI Radeon VIVO (alias 7200). Ed ecco uscire il record al 3DMark03 !!!!!
Punti: 270
Link: Futuremark (http://service.futuremark.com/compare?2k3=2733207)
Configurazione:
Pentium 4 3,00Ghz (Prescott - HT - Bus 800Mhz) @ 3,75Ghz (250x15)
Abit IC7-MAX3 (875P)
2x512MB PC4000 A-Data Vitesta DDR500 (3-8-4-4)
ATI Radeon VIVO 64MB DDR: core 200 / ram 200
Non male ehh ???
Per verificare il record di suddetta scheda, andate in Project Search & Compare (http://service.futuremark.com/servlet/Index?pageid=/orb/projectsearch) , e selezionate solo il chip grafico (ATI Radeon 7200 Series), il resto lasciatelo a default.
Ahhhh ... dimenticavo, il tutto è raffreddato ad aria !!! I WB li ri-metterò settimana prossima insieme alla 6800 Ultra !!!!!!
Davvero niente male, visto che sono tutti con la 7200 che tentano di fare il punteggio + alto :rolleyes:
Originariamente inviato da Wizard77
c@zzo se non è male, tutti sperano di fare quei punti in 3Dmark2003 :D :D :D
:D :D :D
magari si facessero questi punti con le attuali schede !!!! :ahahah:
Originariamente inviato da Yagami
Davvero niente male, visto che sono tutti con la 7200 che tentano di fare il punteggio + alto :rolleyes:
Guarda, più che per il punteggio con la 7200 ho fatto un pò di prove per vedere fino dove potevo tirare il sistema ad aria ;).
Comunque sono ancora molto lontano dal limite visto che ri-metterò i WB settimana prossima ... :cool:
guglielmit
04-07-2004, 21:16
Originariamente inviato da lanfste
Nell'attesa della POV 6800 Ultra, mi sono dilettato con la vecchia ma fedele ATI Radeon VIVO (alias 7200). Ed ecco uscire il record al 3DMark03 !!!!!
Piu' che un record mi sembra un monologo :sofico:
In classifica praticamente ci sei solo tu! :read:
Originariamente inviato da guglielmit
Piu' che un record mi sembra un monologo :sofico:
In classifica praticamente ci sei solo tu! :read:
Bhe si ... :D
ma visto che la mia GeForce 4 Ti 4600 mi ha lasciato qualche tempo fà ho aspettato la 6800 Ultra e nell'attesa ho messo la 7200 !!!
Poi, visto che non posso oggettivamente giocare come ero abituato, mi sono divertito a cercare di spremerla al massimo. ;)
nonikname
04-07-2004, 21:25
....."Following requests for information about the Farcry 1.2 patch, here's a message [dated 29/06/04] from the producer regarding its status. Since this thread is for information only, it's already locked. ;)
Farcry 1.2 patch is in its final stage of production: a nasty scoreboard bug and a CDkey security issue remain to be fixed, but otherwise a huge list of improvement/fixes have been implemented and tested successfully.
We're now localizing all the readme files, and the final candidate will be tested extensively later this week to make sure it is really solid - we don't want to rush in the last few days after such a long development time.
Thanks for your patience,
Matthieu Boulard - Far Cry UbiSoft Producer
Here's the changelog as of yesterday. Obviously features may change."........
Made the run speed about 15% faster
Made sprint last 30% longer
Adjusted damage to vehicles
(vehicles now survive longer in multiplayer and behave consistently between weapon damage types) Bullet damage can be disabled by "g_vehicleBulletDamage" cvar: 0 = no bullet damage (default), 1 = bullet damage; this works only in MP.
MP vehicles can get the same damage from every kind of bullet (no distinction between sniper rifle and the deagle), this value is set by 'dmgBulletMP' variable inside 'DamageParams' table of the vehicle.
buggy, humvee and gunboat can be destroyed with one rocket.
bigtruck can be destroyed with three rockets.
buggy and gunboat can be destroyed with 100 bullets (if g_vehicleBulletDamage = 1)
humvee can be destroyed with 150 bullets (if g_vehicleBulletDamage = 1)
bigtruck can be destroyed with 500 bullets (if g_vehicleBulletDamage = 1)
vehicle damage code cleaned and made more consistent.
Fixed a number of serious issues with headshot detection
Ported a number of sensitive routines into non SDK sources
Fixed some issues with ladder animations appearing odd to other players
Added quicksave support for single player (still in process)
Fixed bug where players name tag didn't show up
Fixed bug where console would accept letters as variable states
Fixed a number of ladder related issues
Fixed error with warning message in connection dialogue
Fixed a significant number of bugs relating to quicksave (~100 bugs)
Fixed a connection dialogue error
Fixed an incorrectly localized HUD message
Fixed bug with server shutdown dialogue error
Addressed a number of issues with the server list UI
Fixed bug causing cancel button to stop working
Server create sessions are now saved
Fixed a bug causing game freezes when player joins and player rotates
Fixed a rendering issue with Radeon 9600 graphics cards
Fixed Punkbuster crash when switching from punkbuster online server to hosting LAN server
Fixed issue with punkbuster icon not showing up in the server listing
Fixed random crash relating to punkbuster server listing info
Fixed issue with punkbuster refusing connection to a server that is destroyed and then re-hosted
Fixed a number of crash problems related to punkbuster server creation with non-dedicated servers
Fixed issue with punkbuster enabled in multiple server profiles
Disabled e_vegetation_min_size in multiplayer (used as cheat)
Added optimizations for character effects including invulnerability shader
Added optimizations for scoreboard performance. Scoreboard no longer updates fields that have not changed
Fixed issue where radar would not be drawn correctly with certain game type changes
Fixed framerate issue when player touched assault ammo pickups
Fixed issue with password protected servers not removing password after restart
Fixed issue with spectators not being able to hear ambient sounds
Fixed message printout for multiplayer statistics (was only working with log_verbosity 1, not it works with 0 (default) as well)
Fixed listplayer on the client (was only working on the server)
Changed multiplayer scoreboard system for less bandwidth and easier extendibility
Fixed bug in scoreboard that reported ping incorrectly by a factor of 2. Pings now appear correctly (half the old values). Note: ping is still the same, the output value was inaccurate)
Fixed check in server/client version check (now you cannot connect to servers with old network code)
Fixed bug in submitted Punkbuster ID causing random CD Key hash to be generated. Global ID unique to CD keys is now parsed correctly.
Added MultiplayerUtils:onChatMessage a script function which is called on the server for every chat message (to enable saving out chats)
Made several changes to improve network packet scheduling
Separated multiplayer and single player weapon code better functionality with mod developers and support for changes to MP balance without affecting single player.
Made a number of changes to multiplayer weapon parameters, outlined below:
All weapons - Increase accuracy while standing still by 25%
Made the medic packs give 50% more health for the engineer class
Reduced rocket launcher clip to 1, no change to lethality.
Increased MP5 damage by 30% with full auto, 50% increase with semi-automatic
Adjusted AG36 damage to head and torso.
Reduced AG36 grenade radius.
Increased OICW accuracy by 30% when zoomed.
Reduced OICW grenade clip to 3 with max carry of 3 in the gun and 3 in reserve
Increased Pancor damage slightly
Reduced P90 damage by 10% and reduced max range by 25%
Increased lethality of mounted weapons.
Improved detection code for player name tags, fixed issue causing name tags not to appear if crosshair was on arms and legs
Fixed collision detection on the dedicated server with different arm position because of different weapons. Hit detection is now more accurate.
The record console variable was makred as protected because it opened up some cheat possibilities
Fixed a bug that sometimes caused players hit by a buggy not to credit the driver with a kill
Fixed a number of issues with discrepancies between player cameras in 1st and 3rd person
In addition to the improvements mentioned in the updated changelog, the 1.2 patch will enable much-anticipated Shader Model 3.0 support for NVIDIA's new GeForce 6-series cards. Leveraging Microsoft's DirectX 9.0c, SM 3.0 support will enable gamers with supported hardware to achieve unprecedented levels of realism in their Far Cry experience.
....."Ubisoft has announced the release dates for the SDK, the Patch 1.2 and for the dedicated Windows/Linux Server. The SDK will be released about the 14. June 2004, the Patch 1.2 between the 7 and 14 June 2004 and the dedicated Windows/Linux between the 15 and 18 June 2004. The moddingscene will be very glad about this news, because they are waiting a long time ago for it.
E per i più smanettoni , una chicca che risponderà a molte delle vostre domande : Far Cry Tweak Guide (http://www.tweakguides.com/Farcry_1.html) : io sinceramente ho letto solo il sommario e la pagina Advanced Tweaking e devo dire che è davvero fatta bene : a voi l'arduo giudizio.... :read:
Da Nonikname è tutto , linea al forum !!!
P.S. lanfste :rotfl:
Ma si potra' montare una vga agp8x su una futura mobo pci-e???
Probabilmente cambiero' vga in agosto, pensavo ad una GT, ma ho questa domanda che mi tormenta.....non vorrei trovarmi legato per 2 anni all'agp8x ( visto che ad inizio 2005 vorrei prendermi una bella nforce4 con A64 )
amd-novello
04-07-2004, 21:39
Originariamente inviato da lanfste
Guarda, più che per il punteggio con la 7200 ho fatto un pò di prove per vedere fino dove potevo tirare il sistema ad aria ;).
Comunque sono ancora molto lontano dal limite visto che ri-metterò i WB settimana prossima ... :cool:
sei un mito :D
nonikname
04-07-2004, 21:50
Originariamente inviato da lanfste
Bhe si ... :D
ma visto che la mia GeForce 4 Ti 4600 mi ha lasciato qualche tempo fà ho aspettato la 6800 Ultra e nell'attesa ho messo la 7200 !!!
Poi, visto che non posso oggettivamente giocare come ero abituato, mi sono divertito a cercare di spremerla al massimo. ;)
Mi togli una curiosità ???
dove li hai presi i Forceware 63.02 (http://lanfste.altervista.org/pc/pc.htm) :confused:
amd-novello
04-07-2004, 22:06
forse sono meeeeeeega beta su un sito russo :D
OT: ragazzi avete mai visto quelle schermate nel gioco che avevano delle scritte confuse? ecco uno le ha trascitte qui
http://ubbxforums.ubi.com/6/ubb.x?a=tpc&s=400102&f=452106891&m=968104102
nonikname
04-07-2004, 22:14
http://fiberoptikz.thegfcc.com/farcry/farcry-isms-2.jpg :sofico:
Originariamente inviato da amd-novello
OT: ragazzi avete mai visto quelle schermate nel gioco che avevano delle scritte confuse? ecco uno le ha trascitte qui
http://ubbxforums.ubi.com/6/ubb.x?a=tpc&s=400102&f=452106891&m=968104102
:old:
amd-novello
04-07-2004, 22:19
Originariamente inviato da Manp
:old:
:ncomment: :ncomment: :ncomment:
nonikname
04-07-2004, 22:28
:old: :ncomment: :boxe: :cincin: :mano: :vicini: :friend: :kiss: :help:
:confused:
se è old non è colpa mia, vatti a vedere il thread ufficiale di Far Cry ;)
:)
edit: o forse addirittura nel thread ufficiale della demo :confused:
Originariamente inviato da amd-novello
ma il banding non sarebbe quando non hai attivato il vsync e vedi spezzettamenti orizzontali quando ad essempio ti giri velocemente?
Questo difetto grafico si chiama "tearing" ed accade perché il monitor non riesce a star dietro alla scheda grafica.
Dark Schneider
05-07-2004, 09:06
Finalmente oggi mi areriva la Volcano 12. Ho visto sul sito dell'SDA il numero di Tracking...e sta scritto "in consegna" nella città dove sto. Quindi penso stamattina arriva!! :)
Originariamente inviato da nonikname
Mi togli una curiosità ???
dove li hai presi i Forceware 63.02 (http://lanfste.altervista.org/pc/pc.htm) :confused:
Certo !!
Li avevo presi da un sito di un produttore (avevo trovato il link diretto su un forum ma non ricordo quale, cmq sono solo per WinXP in inglese), cmq la 6800 Ultra mi deve arrivare questa settimana e penso che metterò quelli FM approved per vedere di testare un pò il sistema. Poi proverà anche i 61.3x, 61.71, 61.80 ... un pò tutti e seglierò quelli che vanno meglio con i giochi !
P.S.: Della 7200 non mi interessa un granchè, ma ho incominciato a scaldarre i motori per accogliere la 6800 Ultra conoscendo fino dove potevo andare con cpu e ddr (cmq ancora non sono al limite, anzi ! :cool: )
nonikname
05-07-2004, 11:44
CryTek Far Cry Interview su FiringSquad!!!! (http://www.firingsquad.com/features/crytek_far_cry/default.asp) :eek: ;)
Dark Schneider
05-07-2004, 11:49
Si interessante. Son molto curioso di vedere l'HDR sulla 6800 GT. Peccato sarà supportato dalla patch 1.3!!
La patch 1.2 sinceramente non so se voglio installarla. Non mi piace che ci siano quick save...FC mi piace senza quick save. Non vorrei che se metto la 1.2 poi sono obbligato ai quick save.
Ciao Dark Ti è arrivato il Volcano12?Io ho ricevuto stamattina il polo 735 che dovrebbe essere uguale......spero così di poter tornare a 2400 mhz a 1.80 volt.....stasera provo ;)
Ciauz!
Originariamente inviato da nonikname
CryTek Far Cry Interview su FiringSquad!!!! (http://www.firingsquad.com/features/crytek_far_cry/default.asp) :eek: ;)
:old:
http://forum.hwupgrade.it/showthread.php?s=&threadid=720779
m.savazzi
05-07-2004, 12:39
Io non riesco a trovare nessuno che le abbia.
Mi piacevano la Asus e la XFXForce
Voi cosa avete preso ?
Max
P.S.
POV: chevvuoldire ?
Io ho preso una POV (Point of View) 6800 Ultra da HwMagic che mi arriverà mercoledì !!! :cool:
Originariamente inviato da m.savazzi
P.S.
POV: chevvuoldire ?
Point of View
http://www.pointofview-online.com/index.php
amd-novello
05-07-2004, 12:45
Originariamente inviato da MaBru
:old:
http://forum.hwupgrade.it/showthread.php?s=&threadid=720779
ahah ben gli sta :D :D :D
:sboroneeeeeeee:
Da Tecno è ritornata la 6800 Gt mentre la ultra è esaurita....ma che le vendono come il pane :D?
"Mi dia 2 etti di 6800 GT e mezzo di ultra che stasera ho gente ..." :D
Ciauz!
le demo della 6800 sono su emule.
;)
Originariamente inviato da Dark Schneider
Si interessante. Son molto curioso di vedere l'HDR sulla 6800 GT. Peccato sarà supportato dalla patch 1.3!!
La patch 1.2 sinceramente non so se voglio installarla. Non mi piace che ci siano quick save...FC mi piace senza quick save. Non vorrei che se metto la 1.2 poi sono obbligato ai quick save.
che cosa è l'hdr che non mi ricordo più ?
Thunder82
05-07-2004, 14:05
Originariamente inviato da dwfgerw
che cosa è l'hdr che non mi ricordo più ?
high dynamic range
è un sistema di illuminazione in floating point, che dovrebbe far vedere meglio i dettagli in zone buie quando queste zone sono accanto a fonti di luce intense
marcowave
05-07-2004, 14:08
io ho ordinato una 6800 ultra da tecnocomputer quando ancora si poteva... :D
speriamo che arrivi in settimana :D:D:D:sofico: :sofico:
Hiperblade
05-07-2004, 14:31
Originariamente inviato da marcowave
io ho ordinato una 6800 ultra da tecnocomputer quando ancora si poteva... :D
speriamo che arrivi in settimana :D:D:D:sofico: :sofico:
Anche tu? ma il prezzo quant'era?
Quando la ho ordinata stava a 560€ ma stamattina per un po' la davano a 620€ poi è diventata non disponibile...
Allora il mio fornitore ufficiale di pezzi Hardware (un negozietto niente male qui a Napoli) ha la Asus Geforce 6800Ultra a 620€....forse troppi ma volevo sapere se con l'iniziativa Vola con Internet del governo (con la quale dovrei avere uno sconto di 175€ acquistando un Pc) potrei avere questo sconto facendo scendere così il prezzo della 6800Ultra a 445€.
Sul foglio che mi ha mandato il Ministero dice che posso usufruire dello sconto comprando un Pc, ma io il Pc l'ho comprato sempre dal "negozietto" circa 4 mesi fa e non presi la scheda video...secondo voi vale lo stesso??
Fatemi sapere cosa ne pensate che se tutto va bene oggi pomeriggio sono da lui (ne aveva 2-3 in magazzino e solo 1 non era prenotata) ;)
Saluti Ham :oink:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.