PDA

View Full Version : Radeon serie X1000: le nuove GPU ATI


Pagine : 1 2 [3]

ThePunisher
10-10-2005, 11:20
[QUOTE=street]in un fps frenetico, magari online, é la prima cosa che viene tolta. Anzi, se qualcuno riesce tende a togliere anche texture e tutto per vedere meglio :asd:[QUOTE]

C.V.D.

:D

Bah, non è vero... io a DoD: Source gioco con Full HDR perchè mi piace vivere al massimo l'esperienza di gioco, anche graficamente e spacco comunque :D.

street
10-10-2005, 13:01
[QUOTE=street]in un fps frenetico, magari online, é la prima cosa che viene tolta. Anzi, se qualcuno riesce tende a togliere anche texture e tutto per vedere meglio :asd:[QUOTE]

C.V.D.

:D

Non ho aggiunto "purtroppo" :cry:

Oltretutto nella nuova versione non si può togliere il sonoro di sottofondo come nelle versioni precedenti (con stopsound).

Reazione mia e di molti: "finalmente, che bello, come é immersivo così". i pVo: "nooo e ora come faccio a sentire quello che cammina dall' altra parte della mappa con tutto sto casino in sottofondo?"

street
10-10-2005, 13:02
Bah, non è vero... io a DoD: Source gioco con Full HDR perchè mi piace vivere al massimo l'esperienza di gioco, anche graficamente e spacco comunque :D.

scusate l' OT:

*

Con che nick giochi? sei nei server italiani? A me trovate come Billy

Fine OT e scusate di nuovo

Free Gordon
10-10-2005, 13:24
A parte che questo comincia ad essere un po' OT, passi giusto perche' si puo' parlare della validita' di tali schede in vista della nuova serie.. Comunque non intendevo le ram della VGA, bensì quelle del computer, hai delle 4800, dunque a 600Mhz. :) Si racimolano molti punti ottimizzando proprio frequenze e timing della ram stessa.

Le ram di sistema contano ancora meno delle ram della vga, nel 2005.
Come del resto la cpu: nel 2005 contano praticamente solo le performance della GPU. :D
Se faccio il 3d mark a 270x10 è la stessa cosa, se lo faccio con una frequenza del procio più bassa perdo pochi punti..



In ogni caso non ritengo che la XT (specialmente la PE) sia una scheda da OC, i margini d'incremento in percentuale, in genere (come nel tuo caso) sono bassi, dato che e' OC di serie ed e' anche discretamente delicata. Inoltre, non tutti l'hanno pagata poco come te, diciamo che sei un fortunato, considerando anche il fatto che il 3dm, sia notoriamente di parte ATI (e dunque la realta' nei giochi e' ben differente), direi che 6575 punti con una scheda di pari livello di una X800XL, siano piu' che soddisfacenti. :) Almeno per me lo sono (partendo da 4900 ad occhio e' croce e' il 32%, non il 15,spicci% ottenibile in media con una PE).

Questo vale per tutti i componenti: l'overclock che si può applicare ad un componente di fascia bassa o media è sempre in percentuale più alto dell'OC che si applica a componenti di fascia alta. ;)
Un venice 3000 parte da 1800mhz e lo porti spesso e volentieri a (300x9) 2700: 900mhz di OC!
Un FX57 parte da 2800 e lo porti a 3100 se ti va bene (ovviamente parlo ad aria in tutti e due i casi): 300mhz di OC! ;)



Comunque 7500 punti con una Ultra ben riuscita, non sono poi cosi' inavvicinabili, te lo dico perche' ci sono quasi arrivato con la scheda della quale ti ho parlato (piu' o meno 7400).

Beh, i pezzi fortunati ci sono da tutte e due le parti, ovviamente. :D
Il ragazzo che mi ha venduto la vga, aveva una 850 che faceva 650mhz di core ad aria, e 7900 al 2005. ;)

ps.
Cmq per me, fine OT. ;)
Saluti!

MadRat
10-10-2005, 14:36
Le ram di sistema contano ancora meno delle ram della vga, nel 2005.
Come del resto la cpu: nel 2005 contano praticamente solo le performance della GPU. :D
Se faccio il 3d mark a 270x10 è la stessa cosa, se lo faccio con una frequenza del procio più bassa perdo pochi punti..


La teoria delal relativita' del futuremark.. Il sistema conta tantissimo, nella CPU, nelle RAM e nella configurazione de SO stesso.
Comuqnue va bene tutto, ad ognuno l'esperienza insegna qualcosa. :)

Questo vale per tutti i componenti: l'overclock che si può applicare ad un componente di fascia bassa o media è sempre in percentuale più alto dell'OC che si applica a componenti di fascia alta. ;)
Un venice 3000 parte da 1800mhz e lo porti spesso e volentieri a (300x9) 2700: 900mhz di OC!
Un FX57 parte da 2800 e lo porti a 3100 se ti va bene (ovviamente parlo ad aria in tutti e due i casi): 300mhz di OC! ;)
Vale per le CPU, ma non sempre per le VGA, le 7800GTX salgono come le 7800GT e spesso le 6800Ultra salgono come le GT (in percentiuale).


Beh, i pezzi fortunati ci sono da tutte e due le parti, ovviamente. :D
Il ragazzo che mi ha venduto la vga, aveva una 850 che faceva 650mhz di core ad aria, e 7900 al 2005. ;)
ps.
Cmq per me, fine OT. ;)
Saluti!
Come i venice 3000-3200 che arrivano a 2850-2900 ad aria, ne ho passati una 15ina prima di trovarne due per i due pc che uso in questo momento.

P.S. Magari a qualcuno le nostre esperienze possono tornare utili nella scelta di una scheda per il momento attuale, dunque non e' eccessivamente OT. :)

davestas
10-10-2005, 16:19
A parte che questo comincia ad essere un po' OT, passi giusto perche' si puo' parlare della validita' di tali schede in vista della nuova serie.. Comunque non intendevo le ram della VGA, bensì quelle del computer, hai delle 4800, dunque a 600Mhz. :) Si racimolano molti punti ottimizzando proprio frequenze e timing della ram stessa.

In ogni caso non ritengo che la XT (specialmente la PE) sia una scheda da OC, i margini d'incremento in percentuale, in genere (come nel tuo caso) sono bassi, dato che e' OC di serie ed e' anche discretamente delicata.
Inoltre, non tutti l'hanno pagata poco come te, diciamo che sei un fortunato, considerando anche il fatto che il 3dm, sia notoriamente di parte ATI (e dunque la realta' nei giochi e' ben differente), direi che 6575 punti con una scheda di pari livello di una X800XL, siano piu' che soddisfacenti. :) Almeno per me lo sono (partendo da 4900 ad occhio e' croce e' il 32%, non il 15,spicci% ottenibile in media con una PE).

Comunque 7500 punti con una Ultra ben riuscita, non sono poi cosi' inavvicinabili, te lo dico perche' ci sono quasi arrivato con la scheda della quale ti ho parlato (piu' o meno 7400). :)

Grazie per il link, gli daro' un occhiata. :)




Viste le vendite e visto che:
GeForce 6800Ultra 256Mb PciExp MSI 2xDVI/Tv-Out € 279,00 € 334,80
GeForce 7800GT 256Mb PciExp Asus DVI/Tv-Out € 339,00 € 406,80

questi sono i prezzi di un negozio al pubblico, direi: "ti credo, se non le liquidano in questo mese-mese e mezzo, gli rimarranno sul groppone per sempre".
Con la stessa cifra ci compro una 6800Ultra, che, anche se in alcuni casi e' piu' lenta (ed in altri piu' veloce), e' indubbiamente piu' avanti e con 70 euro in piu' ci prendi una 7800GT.. Fai tu.. Considera che i miei fornitori (ai quali interessa solo il commercio), non prendono piu' le top ATI da molti e molti mesi, solo su richiesta. (nota: unica ATI non di bassissima gamma fuori dal coro e' stata la XL,ottimo rapporto prezzo prestazioni e che ho ed hanno venduto moltissimo, prima del calo del prezzo della 6800GT).


Per farti capire cosa intendo..

http://www.atm.it/home.aspx?FID=13&PID=1139 Credo evitino volentieri di ritrovarsi certe rimanenze a prezzi improponibili per il futuro. :)

Ho dato un'occhiata piu' approfondita a quel sito, o hai preso l'unico prezzo buono o hai trovato l'unico sbagliato!! vedi questa
http://www.atm.it/home.aspx?FID=13&PID=5453
appena 107€ piu' di quanto la si possa trovare altrove!!

MSI K8N Neo4 Diamond SLI sk.939 nForce4 SLI (Sound, G-LAN, FW, SATA RAID) € 135,00 € 162,00 !!!!!!!! Questi sono matti!! :doh:

ATM sono lad*i di prima categoria...li conosco..
cmq parlando sempre di ATI, se uno trova la GTO2 e la mossdda a x850xt o x850xtPE :D fa tanto schifo??

HaCKeR.InSiDe
10-10-2005, 16:30
il negozio dove lavoro io la vende a 175 euro quindi nn mi sembra male no?

davestas
10-10-2005, 17:31
cosa Hacker a 170 euro la GTO O LA GTO2, guarda che sono diverse...
Cmq continuando a parlare di pixel shader 3.0 vi invito a leggere questa recensione http://hardware.multiplayer.it/articoli.php3?id=12413
che definisce i picel shader fondamentali per i nuovi giochi che usciranno e soprattutto di Vista . Il contrario di cio' che è stato detto anche in questo topic, dove è stato detto che questi non saranno mai cosi fondamentali in attesa dei ps 4.0...
Cio' non fa che farmi aumentare di tanto i dubbi sulla sceltra i la GT02@850xt E LA 6800GT che invece i ps 3.0 li supporta.... :muro: :cry:
Ripeto spero che nei bench di hwupgrade che usciranno SI PRENDA IN CONSIDERAZIONE ANCHE LA GTO2... VIFANI MI CONFERMI?

MadRat
10-10-2005, 17:37
cosa Hacker a 170 euro la GTO O LA GTO2, guarda che sono diverse...
Cmq continuando a parlare di pixel shader 3.0 vi invito a leggere questa recensione http://hardware.multiplayer.it/articoli.php3?id=12413
che definisce i picel shader fondamentali per i nuovi giochi che usciranno e soprattutto di Vista . Il contrario di cio' che è stato detto anche in questo topic, dove è stato detto che questi non saranno mai cosi fondamentali in attesa dei ps 4.0...
Cio' non fa che farmi aumentare di tanto i dubbi sulla sceltra i la GT02@850xt E LA 6800GT che invece i ps 3.0 li supporta.... :muro: :cry:
Ripeto spero che nei bench di hwupgrade che usciranno SI PRENDA IN CONSIDERAZIONE ANCHE LA GTO2... VIFANI MI CONFERMI?

Non tutti in questo topic lo sostengono. ;)

Vifani
10-10-2005, 17:47
Ripeto spero che nei bench di hwupgrade che usciranno SI PRENDA IN CONSIDERAZIONE ANCHE LA GTO2... VIFANI MI CONFERMI?

Mi dispiace, ma non abbiamo nessuna GTO2 a disposizione. Comunque ci sarà il confronto con X850XT e X850 XT PE.

DjLode
10-10-2005, 17:49
Non tutti in questo topic lo sostengono. ;)

Perchè è assolutamente la realtà :)
Vista basato sullo SM3 è una cosa che sento oggi per la prima volta. L'indispensabilità dello SM3 nei giochi è una cosa che sento oggi per la prima volta.

MadRat
10-10-2005, 18:01
Perchè è assolutamente la realtà :)
Vista basato sullo SM3 è una cosa che sento oggi per la prima volta. L'indispensabilità dello SM3 nei giochi è una cosa che sento oggi per la prima volta.

Dunque non ci sono differenze tra SM2 e 3.. Non c'e' differenza tra le potenzialita' degli uni e degli altri.. che dirti, va bene così. :)
Non comporta vantaggi poter raggruppare piu' shader in uno solo o poterne scrivere di piu' lunghi e complessi, come non comporta vantaggi avere una precisione FP32 rispetto ad una 16 o 24. Sara', non dico di no, ma resta difficile crederlo.

__________________________


Comunque nell'articolo indicato poco fa, trovo interessante la parte relativa al "Ultra-Threading Dispatch Processor", in qualche modo si avvicina concettualmente alle future architetture unificate.


P.S. Io lo sapevo di vista o meglio, ne avevo letto qualcosa in giro e da un po' di tempo a questa parte, sui pc un po' piu' "buoni", installo solo VGA Nvidia con 256 Mb, sperando che bastino come caratteristiche.

street
10-10-2005, 18:15
Dunque non ci sono differenze tra SM2 e 3.. Non c'e' differenza tra le potenzialita' degli uni e degli altri.. che dirti, va bene così. :)
Non comporta vantaggi poter raggruppare piu' shader in uno solo o poterne scrivere di piu' lunghi e complessi, come non comporta vantaggi avere una precisione FP32 rispetto ad una 16 o 24. Sara', non dico di no, ma resta difficile crederlo.

__________________________


Comunque nell'articolo indicato poco fa, trovo interessante la parte relativa al "Ultra-Threading Dispatch Processor", in qualche modo si avvicina concettualmente alle future architetture unificate.


P.S. Io lo sapevo di vista o meglio, ne avevo letto qualcosa in giro e da un po' di tempo a questa parte, sui pc un po' piu' "buoni", installo solo VGA Nvidia con 256 Mb, sperando che bastino come caratteristiche.

scusa, ma oltre al fatto che tu stesso dici che usi nel 3dm i ps2 e non 3 per questioni di velocità e qualità di immagine, gli itnerventi di gente che i ps li usa davvero, non li legge solo, non ti bastano?

Oltre ai vari pr che hai citato, programmatori veri, fek per esempio, non hanno valore quando dicono che la differenza tra ps2 e 3 é nella velocità di esecuzione? nel senso che hanno istruzioni per fare lo stesso effetto delle due ma più velocemente...

Oltre a questo, da quanto visto in questi ultimi tempi (GI per esempio, HDR etc), sembra che i due colossi delle schede video siano poco legati agli standard, quindi il fatto che usino solo ps2 o solo ps3 non vuol dire che non supportino le operazioni più importanti del set superiore.

Una curiosità, mi sembra di aver capito che il chip di casa ati sia programmabile (o forse il successivo). Vorrebbe dire che volendo potrebbe essere "aggiornato" per supportare futuri standard?

MadRat
10-10-2005, 19:03
scusa, ma oltre al fatto che tu stesso dici che usi nel 3dm i ps2 e non 3 per questioni di velocità e qualità di immagine, gli itnerventi di gente che i ps li usa davvero, non li legge solo, non ti bastano?

Oltre ai vari pr che hai citato, programmatori veri, fek per esempio, non hanno valore quando dicono che la differenza tra ps2 e 3 é nella velocità di esecuzione? nel senso che hanno istruzioni per fare lo stesso effetto delle due ma più velocemente...

Oltre a questo, da quanto visto in questi ultimi tempi (GI per esempio, HDR etc), sembra che i due colossi delle schede video siano poco legati agli standard, quindi il fatto che usino solo ps2 o solo ps3 non vuol dire che non supportino le operazioni più importanti del set superiore.


Ti risponderei allo stesso modo di prima.. dunque sta qui sopra. :)
Per quanto riguarda l'attendibilita' dei programmatori, hai ragione a volerci credere, ma a qualcuno non basta credere, preferisce capire.

Nell'articolo c'e' anche un qualche accenno al HDR, come detto piu' volte in questa sede, ribadisce ulteriormente come si possa fare anche con la vecchia gamma ATI (di minor qualita'), ma: **"con l'R520 introduce alcune nuove funzioni come l'HDR (High Dynamic Range), che del resto deriva dallo Shader Model 3.0"**.
Dunque non sono tutti perfettamente d'accordo a quanto pare. Il mondo e' bello perche' vario. :)

DjLode
10-10-2005, 19:13
HDR che deriva dallo SM3? E allora come mai in HL2 lost coast (l'espansione o il livello con hdr si chiama così?) è attivabile anche su X800? Mistero della fede?

davestas
10-10-2005, 19:21
Perchè è assolutamente la realtà :)
Vista basato sullo SM3 è una cosa che sento oggi per la prima volta. L'indispensabilità dello SM3 nei giochi è una cosa che sento oggi per la prima volta.

http://hardware.multiplayer.it/articoli.php3?id=12413
allora questi di multiplayer so tutti cazzari.... :D

MadRat
10-10-2005, 19:46
HDR che deriva dallo SM3? E allora come mai in HL2 lost coast (l'espansione o il livello con hdr si chiama così?) è attivabile anche su X800? Mistero della fede?

Infatti l'articolo parla di qualita', se non erro, HDR si puo' implementare in vari modi e probabilmente non sara' propriamente HDR "vero".
Se ho capito bene, in lost coast si puo' utilizzare assieme al filtro AA anche su Nvidia.
Anche se riguardo quell'affermazione, dovresti fare domande a chi l'ha scritta, piu' che a me. :)

Lakitu
10-10-2005, 20:21
Infatti l'articolo parla di qualita', se non erro, HDR si puo' implementare in vari modi e probabilmente non sara' propriamente HDR "vero".


Vogliamo sfatare il mito secondo cui l'HDR di Lost Coast sia falso o un artificio? E' HDR A TUTTI GLI EFFETTI.
Non vedo l'ora di leggere la recensione, Raffaele... fai presto!

:)

Vifani
10-10-2005, 20:24
HDR che deriva dallo SM3? E allora come mai in HL2 lost coast (l'espansione o il livello con hdr si chiama così?) è attivabile anche su X800? Mistero della fede?

Non c'entra niente lo SM3 con l'HDR. L'HDR come lo fa Splinter Cell Chaos Theory (sulle schede NVIDIA) e Far Cry è realizzato renderizzando la scena su texture in formato floating point a 16 bit. Le schede Radeon X800 non possono renderizzare su texture in formato floating point, mentre le NVIDIA si anche se non possono farlo con antialiasing abilitato.

Half-Life 2 implementa l'HDR renderizzando su texture intere a 16 bit (o 32 bit, non ricordo) per canale di colore. In questo modo supporta HDR e AntiAliasing su tutte le schede, Radeon X800 comprese. Lo scotto da pagare è che la loro è un'implementazione più complicata perché hanno dovuto modificare praticamente tutti gli shader dei materiali, mentre l'implementazione con texture in floating point è più semplice e immediata da realizzare

yossarian
10-10-2005, 20:38
Non c'entra niente lo SM3 con l'HDR. L'HDR come lo fa Splinter Cell Chaos Theory (sulle schede NVIDIA) e Far Cry è realizzato renderizzando la scena su texture in formato floating point a 16 bit. Le schede Radeon X800 non possono renderizzare su texture in formato floating point, mentre le NVIDIA si anche se non possono farlo con antialiasing abilitato.

Half-Life 2 implementa l'HDR renderizzando su texture intere a 16 bit (o 32 bit, non ricordo) per canale di colore. In questo modo supporta HDR e AntiAliasing su tutte le schede, Radeon X800 comprese. Lo scotto da pagare è che la loro è un'implementazione più complicata perché hanno dovuto modificare praticamente tutti gli shader dei materiali, mentre l'implementazione con texture in floating point è più semplice e immediata da realizzare

credo 16 bit; al tempo di R300 e NV30, Newell disse qualcosa a proposito dell'utilizzo dell'hdr in hl2 e, in riferimento agli allora attuali chip, le sue conclusioni furono del tipo che avevano intenzione di adoperare una modalità che facesse uso di 16 bit INT ma che ci avevano rinunciato perchè tale modalità non era utilizzabile sui chip NV

DjLode
10-10-2005, 20:45
Non c'entra niente lo SM3 con l'HDR.

Lo so Raffaele, non devi spiegarlo a me :)
La domanda era retorica.

Lakitu
10-10-2005, 20:53
Lo so Raffaele, non devi spiegarlo a me :)
La domanda era retorica.
Avrà sbagliato a quotare, credo. :)

Ma nessuno saprebbe dirmi quando verrà pubblicata la recensione? Grazie. :stordita:

Lakitu
10-10-2005, 20:55
Altra domanda: nessuno ha idea se l'AF-HQ potrà essere abilitato anche sulle X800 e derivati, stile Adaptive-AA?

yossarian
10-10-2005, 20:57
Altra domanda: nessuno ha idea se l'AF-HQ potrà essere abilitato anche sulle X800 e derivati, stile Adaptive-AA?

no; la circuiteria dedicata all'AF di R4x0 è un po' più "scarna"

Free Gordon
10-10-2005, 21:06
La teoria delal relativita' del futuremark.. Il sistema conta tantissimo, nella CPU, nelle RAM e nella configurazione de SO stesso.
Comuqnue va bene tutto, ad ognuno l'esperienza insegna qualcosa. :)
Vale per le CPU, ma non sempre per le VGA, le 7800GTX salgono come le 7800GT e spesso le 6800Ultra salgono come le GT (in percentiuale).



Ora ti dimostro che hai torto: (lo conosco bene il 2005) :D


Ecco il risultato del test, in config VGA default e cpu a 300x9 con ram in sincrono.

Hypertransport a 300x3=900mhz. :)

http://img152.imageshack.us/img152/6960/2005default300x92ut.th.jpg (http://img152.imageshack.us/my.php?image=2005default300x92ut.jpg)

6557pt.



Mentre questo è il risultato con la cpu alla stessa frequenza ma con le ram a 270mhz, sempre in sincrono. ;)
Stessi identici timings di sopra, VGA default. ;)

Hypertransport a 270x3=810mhz. :) Molto più più basso di prima!

http://img423.imageshack.us/img423/9804/2005default270x102sc.th.jpg (http://img423.imageshack.us/my.php?image=2005default270x102sc.jpg)

6539pt

Ben 18pt in meno di prima e con un link Ht 100mhz in meno! :D
Questo ti può dare un'idea di quanto contino le ram nel 2005.. ;)

Il decremento è dello 0.3%.



Ma vediamo un pò con la cpu a DEFAULT, quale è il decremento percentuale in un test come il 2005, a mio modo di vedere totalmente GPU-dipendente. :)

500mhz in meno di OC sulla CPU e ram a 200, al posto di 300:

http://img425.imageshack.us/img425/3694/2005default3eg.th.jpg (http://img425.imageshack.us/my.php?image=2005default3eg.jpg)

6423pt

Il decremento è di 134pt, il 2.1% con 500mhz in meno sulla cpu e un bus verso le ram ad un terzo della banda (300 --> 200).


Come vedi il 2005 è un test completamente GPU dipendente, nelle config attuali e "il sistema" non conta praticamente nulla. ;)

Lakitu
10-10-2005, 21:08
no; la circuiteria dedicata all'AF di R4x0 è un po' più "scarna"
Intanto grazie per la risposta, yossarian.
Beh... peccato. A mio modo di vedere la presenza (il ritorno) di questo tipo di AF vale, da sola, a far propendere per l'acquisto di una delle nuove schede ATi. Spero e credo che anche nVidia tornerà all'antico, riguardo l'AF.

yossarian
10-10-2005, 21:12
Intanto grazie per la risposta, yossarian.
Beh... peccato. A mio modo di vedere la presenza (il ritorno) di questo tipo di AF vale, da sola, a far propendere per l'acquisto di una delle nuove schede ATi. Spero e credo che anche nVidia tornerà all'antico, riguardo l'AF.

anche nVIDIA, per farlo, dovrebbe mettere qualche transitor in più nel circuito dedicato all'anisotropico

leoneazzurro
10-10-2005, 21:15
anche nVIDIA, per farlo, dovrebbe mettere qualche transitor in più nel circuito dedicato all'anisotropico

Quelli che ha tolto nel passaggio GF3-4 -> GF FX? ;)

Lakitu
10-10-2005, 21:18
anche nVIDIA, per farlo, dovrebbe mettere qualche transitor in più nel circuito dedicato all'anisotropico
E nel successore del G70 dovrebbe/potrebbe esserci, o al riguardo non si sa ancora proprio niente?

Lakitu
10-10-2005, 21:19
Quelli che ha tolto nel passaggio GF3-4 -> GF FX? ;)
No, l'han tolto nel passaggio da NV3X a NV4X.

MadRat
10-10-2005, 21:37
Ora ti dimostro che hai torto: (lo conosco bene il 2005) :D
Ecco il risultato del test, in config VGA default e cpu a 300x9 con ram in sincrono.

Hypertransport a 300x3=900mhz. :)

6557pt.

Mentre questo è il risultato con la cpu alla stessa frequenza ma con le ram a 270mhz, sempre in sincrono. ;)
Stessi identici timings di sopra, VGA default. ;)

Hypertransport a 270x3=810mhz. :) Molto più più basso di prima!

6539pt

Ben 18pt in meno di prima e con un link Ht 100mhz in meno! :D
Questo ti può dare un'idea di quanto contino le ram nel 2005.. ;)

Il decremento è dello 0.3%.

Ma vediamo un pò con la cpu a DEFAULT, quale è il decremento percentuale in un test come il 2005, a mio modo di vedere totalmente GPU-dipendente. :)

500mhz in meno di OC sulla CPU e ram a 200, al posto di 300:

6423pt

Il decremento è di 134pt, il 2.1% con 500mhz in meno sulla cpu e un bus verso le ram ad un terzo della banda (300 --> 200).

Come vedi il 2005 è un test completamente GPU dipendente, nelle config attuali e "il sistema" non conta praticamente nulla. ;)

Questo dimostra solo che il tuo sistema funziona cosi' (o non e' ottimizzato a dovere o la tua VGA non e' assolutamente "CPU limited").
Se hai la fantasia di leggerti tutto il foum, c'e' scritto passo per passo, come ho racimolato i vari incrementi. Byez

Free Gordon
10-10-2005, 21:46
Questo dimostra solo che il tuo sistema funziona cosi' (o non e' ottimizzato a dovere o la tua VGA non e' assolutamente "CPU limited").
Se hai la fantasia di leggerti tutto il foum, c'e' scritto passo per passo, come ho racimolato i vari incrementi. Byez


Se non fosse ottimizzato a dovere, non farei 6500 e passa punti con la vga a default, non credi? :stordita:

Il 2005 è totalmente GPU-limited, lo sanno anche le pietre... ma vabbè, ognuno si tenga le sue opinioni. :D

Io le prove te le ho portate. ;)

MadRat
10-10-2005, 21:48
Non c'entra niente lo SM3 con l'HDR. L'HDR come lo fa Splinter Cell Chaos Theory (sulle schede NVIDIA) e Far Cry è realizzato renderizzando la scena su texture in formato floating point a 16 bit. Le schede Radeon X800 non possono renderizzare su texture in formato floating point, mentre le NVIDIA si anche se non possono farlo con antialiasing abilitato.

Half-Life 2 implementa l'HDR renderizzando su texture intere a 16 bit (o 32 bit, non ricordo) per canale di colore. In questo modo supporta HDR e AntiAliasing su tutte le schede, Radeon X800 comprese. Lo scotto da pagare è che la loro è un'implementazione più complicata perché hanno dovuto modificare praticamente tutti gli shader dei materiali, mentre l'implementazione con texture in floating point è più semplice e immediata da realizzare

Un ripiego con molti svantaggi, un po' come accadeva anche in un'altro articolo che ho indicato un po' di post fa (nel quale si parlava di una demo che in quel caso surrogava alle mancanze degli sm3.0).
Tutto sta nel vedere se l'utilizzo di tale tecnica, porti a risultati di pari livelo. In ogni caso, non credo verra' adoperata molto in futuro (tecnica dalla quale trae vantaggio anche Nvidia, vedi AA), perche' come tu dici, sara' molto piu' semplice (e forse bello), utilizzare il classico l'hdr che fin'ora abiamo visto.

MadRat
10-10-2005, 21:50
Se non fosse ottimizzato a dovere, non farei 6500 e passa punti con la vga a default, non credi? :stordita:

Il 2005 è totalmente GPU-limited, lo sanno anche le pietre... ma vabbè, ognuno si tenga le sue opinioni. :D

Io le prove te le ho portate. ;)

Io anche, ho dato un link molto piu' complesso ed evoluto, ma ora basta, non mi sembra proprio il luogo adatto. :)

Una piccola cosa.. il 2-3% in un incremento nell'ordine delle percentuali del tuo, e' un incremento significativo. :)

bjt2
11-10-2005, 09:10
Riporto, per completezza, un link che ho già riportato altre volte (per chi si è scocciato di vederlo ogni volta... scusate, non resisto, ma qui sembra che nessuno lo abbia letto... :D )

http://msdn.microsoft.com/archive/en-us/directx9_c_Dec_2004/directx/graphics/tutorialsandsamples/samples/hdrformats.asp

Ciao.

street
11-10-2005, 09:21
Perchè è assolutamente la realtà :)
Vista basato sullo SM3 è una cosa che sento oggi per la prima volta. L'indispensabilità dello SM3 nei giochi è una cosa che sento oggi per la prima volta.

sbaglio o tempo fa qualcuno tirò fuori la notizia che per far girare longhorn ci sarebbero voluti 100 Gb di ram? E che l' istallazione da sola era molti Gb?

leoneazzurro
11-10-2005, 09:25
No, l'han tolto nel passaggio da NV3X a NV4X.

Si, hai ragione. Ricordavo male io :)

DjLode
11-10-2005, 09:26
sbaglio o tempo fa qualcuno tirò fuori la notizia che per far girare longhorn ci sarebbero voluti 100 Gb di ram? E che l' istallazione da sola era molti Gb?

Si parlava anche di cpu da 4ghz e via discorrendo se per quello :D

junkman1980
11-10-2005, 15:29
secondo voi e' meglio una x1600xl 128mb o una x1300pro 256mb?
mi sono posto il quesito in quanto costano uguale.
quale dovrebbe essere migliore con i giochi?
per il video hd tipo h.264,vanno tutte bene.vero?

fek
11-10-2005, 19:06
finalmente lavora, è sempre a spammare :sofico: :p

Veramente sono in vacanza :D
(A Milano)

fek
11-10-2005, 19:12
Nell'articolo c'e' anche un qualche accenno al HDR, come detto piu' volte in questa sede, ribadisce ulteriormente come si possa fare anche con la vecchia gamma ATI (di minor qualita'), ma: **"con l'R520 introduce alcune nuove funzioni come l'HDR (High Dynamic Range), che del resto deriva dallo Shader Model 3.0"**.

L'HDR (o meglio fp blending) non deriva dall'SM3.0. Sono due cose nettamente separate.
E' perfettamente legale fare blending in un render target in floating point usando un pixel shader 2.0 (anche 1.x).

yossarian
11-10-2005, 19:43
Veramente sono in vacanza :D
(A Milano)

ben tornato (sul forum) :)

yossarian
11-10-2005, 19:46
L'HDR (o meglio fp blending) non deriva dall'SM3.0. Sono due cose nettamente separate.
E' perfettamente legale fare blending in un render target in floating point usando un pixel shader 2.0 (anche 1.x).

oltretutto l'hdr risale alla metà degli anni '80 e l'algoritmo di OPenEXR, adoperato da ATi e nVIDIA è del 1998-1999 (ben precedente alla definizione dello sm3.0), anche se è stato presentato ufficialmente nel 2003.
Infine ci sono algoritmi di hsr che fanno uso di notazioni differenti rispetto a fp16 che sono ugualmente lecite e riconosciute (oltre quelle offerte dalla possibilità di fare render to texture).

ThePunisher
11-10-2005, 19:58
scusate l' OT:

*

Con che nick giochi? sei nei server italiani? A me trovate come Billy

Fine OT e scusate di nuovo

Eccolo il mio nick, in cima alla classifica :p :sofico:, scherzo, eccomi:
http://m4tribes.m4d.it/puni/dods_1.jpg

:D

ForeverBlue
11-10-2005, 20:19
non è per fare l'impaziente, perchè lo sono, e all'ennesima potenza :D
domani arriva?

PS: mi raccomando, non dare retta a l'idiota che ti parla, se devi prendere un giorno in più e aumentare la qualità è meglio, ma non posso resistere.....
vedo a cercare in impianto criogenico.......oppure mi faccio prestare il Mach II da GIGI :sofico:

Stargazer
11-10-2005, 22:36
http://hardware.multiplayer.it/articoli.php3?id=12413
allora questi di multiplayer so tutti cazzari.... :D
Davestas ascolatmi se puoi

I siti e tantomeno i forum vanno presi sempre con le pinze perchè molte volte gli articoli possono essere fatti da semplici boci che copiano e incollano le notizie altrui. Tant'è vero che se uno fa una cappella in ciò che scrive questa viene moltiplicata e vai così di disinformazione pura!
Quintalate di teoria e benchmark di provenienza dubbi non servono a nulla dato quel che conta è chi e come gioca! Non ci si basa sui punti che provengono solitamente da programm ifatti ad hoc per esaltare una o l'altra casa di hardware (è un po' complesso da spiegare in 2 righe)

Poi mi risulta che tu non sei adatto come dire a smanettare, quindi lascia pure perdere pratiche di overclock e tantomeno direi di abbandonare il pc che ormai lo vedo troppo complesso da gestire per molti (leggi pc zombie ecc)

Prenditi la console e risparmia pure i soldi che perderesti nel pc dato dovresti ogni tot aggiornarlo

che poi sarà da vedere con il discorso XNA e aumento di risoluzione qunto il pc ne gioverà a una standarizzazione di massa multipiattaforma

Free Gordon
12-10-2005, 00:40
Veramente sono in vacanza :D
(A Milano)


Bel posto per andare in vacanza!! :sofico:

Free Gordon
12-10-2005, 00:44
che poi sarà da vedere con il discorso XNA e aumento di risoluzione qunto il pc ne gioverà a una standarizzazione di massa multipiattaforma

Pensavo fosse un caso di omonimìa, ma quando ho letto ciò che hai scritto non ho avuto più dubbi... :D
Sei lo stesso Star di Xeye... :sofico:

Maury
12-10-2005, 08:27
Veramente sono in vacanza :D
(A Milano)


sei a 8 km da casa mia :sofico: ti sequestro e chiedo il riscatto a Peter :p

Sammy.73
12-10-2005, 10:01
Questo dimostra solo che il tuo sistema funziona cosi' (o non e' ottimizzato a dovere o la tua VGA non e' assolutamente "CPU limited").
Se hai la fantasia di leggerti tutto il foum, c'e' scritto passo per passo, come ho racimolato i vari incrementi. Byez

caro MadRat, probabilmente a causa della tua poca esperienza qui su Hwupgrade, non conosci bene Free Gordon, le cui esperienza e capacità di clocker sono ben conosciute e più che apprezzate ;)

come ha già detto lui (e anche ampiamente dimostrato) il 3dMark2005 è un benchmark GPU dipendente: pensa che con un amico abbiamo provato a fare un 3dmark2005 con la sua 9800, sul suo pc (Athlon XP 2500+) e con il mio A64 a 2800mhz, e il punteggio è cambiato di soli 50 punti, che su 3100 sono pochini (1,6%) :)

tornando IT... quando arrivano i bench? :D siamo tutti impazienti, anche perché sappiamo con che perizia lavorano i ragazzi di hwupgrade... finalmente ci sarà in rete una rece affidabile! ;)

buon lavoro

street
12-10-2005, 11:29
siete tutti a leggere?

http://www.hwupgrade.it/articoli/skvideo/1361/index.html

MadRat
13-10-2005, 16:29
L'HDR (o meglio fp blending) non deriva dall'SM3.0. Sono due cose nettamente separate.
E' perfettamente legale fare blending in un render target in floating point usando un pixel shader 2.0 (anche 1.x).
Ma infatti quella non e' un'affermazione "mia". Penso di aver letto il possibile e l'impossibile riguardo l'HDR sul sito dell'inventore stesso. So che non e' legato ai MS in genere, ma stando a quanto si sentiva fino a pochi giorni fa, pareva lo fosse (secondo alcuni che come vedi lo sostengono ancora). Magari ne avrebbero potuto avvantaggiare l'implementazione in ambito ludico.
Cosa accadrebbe se togliessimo l'hdr da FarCry e lasciassimo il blooming del quale si parlava con Yoss??


__________________


caro MadRat, probabilmente a causa della tua poca esperienza qui su Hwupgrade, non conosci bene Free Gordon, le cui esperienza e capacità di clocker sono ben conosciute e più che apprezzate ;)
come ha già detto lui (e anche ampiamente dimostrato) il 3dMark2005 è un benchmark GPU dipendente: pensa che con un amico abbiamo provato a fare un 3dmark2005 con la sua 9800, sul suo pc (Athlon XP 2500+) e con il mio A64 a 2800mhz, e il punteggio è cambiato di soli 50 punti, che su 3100 sono pochini (1,6%) :)


Parlare di incrementi del 2 o 3% come ha fatto e dimostrato lui, significa molto in virtu' del modesto incremento (10-15%) che riesce ad avere con una x850**. Significa aumentere il risultato (la percentuale di incremento) del 20% circa, Se a te come a lui, questo non e' fondamentale per arrivare avanti agli altri.. che dirvi.. tutti quelli che fanno super record con CPU raffreddate criogenicamente (A64 a 4ghz o giu' di lì), sono tutti incompetenti come me, ce sono riuscito ad avere un modesto incremento del 32% ad aria da una VGA. Che dire, sono in buona compagnia. :)
Porta pazienza, siamo nati per soffrire, come puo' uno scoglio arginare il mare, che ne sai tu di un campo di grano!!

Sammy.73
13-10-2005, 20:18
Parlare di incrementi del 2 o 3% come ha fatto e dimostrato lui, significa molto in virtu' del modesto incremento (10-15%) che riesce ad avere con una x850**. Significa aumentere il risultato (la percentuale di incremento) del 20% circa, Se a te come a lui, questo non e' fondamentale per arrivare avanti agli altri.. che dirvi.. tutti quelli che fanno super record con CPU raffreddate criogenicamente (A64 a 4ghz o giu' di lì), sono tutti incompetenti come me, ce sono riuscito ad avere un modesto incremento del 32% ad aria da una VGA. Che dire, sono in buona compagnia. :)
Porta pazienza, siamo nati per soffrire, come puo' uno scoglio arginare il mare, che ne sai tu di un campo di grano!!

non mi pare di aver detto che non conta nulla, infatti fare OC sulla CPU può solo migliorare le performance, anche se di una percentuale minima (2-3%) e poi non si è parlato di WR...

tu hai detto "Il sistema conta tantissimo, nella CPU, nelle RAM e nella configurazione de SO stesso.": sembra evidente che un 2-3% NON è "tantissimo".

ottimizzando tutti i parametri, si può guadagnare molto di più di un 2-3%, ed è questo il punto: l'ottimizzazione del sistema conta percentualmente molto di + dell'Oc della CPU nel 3dMark2005, senza tolgiere il fatto che se oc anche quella le performance non possono far altro che migliorare ;)

Free Gordon
14-10-2005, 00:07
Quoto l'amico Sammy. :D

junkman1980
14-10-2005, 10:16
secondo voi e' meglio una x1600xl 128mb o una x1300pro 256mb?
mi sono posto il quesito in quanto costano uguale.
quale dovrebbe essere migliore con i giochi?
per il video hd tipo h.264,vanno tutte bene.vero?

ma non mi caga nessuno? :cry:

yossarian
14-10-2005, 11:28
ma non mi caga nessuno? :cry:

1) la 1600
2) si

junkman1980
14-10-2005, 12:26
1) la 1600
2) si

e allora perche costano uguale? :mbe:
per via dei 256 mb?ma non era appurato che nella fascia bassa,256mb sono inutili?

street
14-10-2005, 12:28
beh, bf2 vuole come minimo 128, mi sembra i limiti si stiano alzando...

yossarian
14-10-2005, 15:04
e allora perche costano uguale? :mbe:
per via dei 256 mb?ma non era appurato che nella fascia bassa,256mb sono inutili?

la 1600 ha tre quad per pixel shading, la 1300 uno solo

fantoibed
14-10-2005, 16:45
Il 2005 è totalmente GPU-limited, lo sanno anche le pietre... ma vabbè, ognuno si tenga le sue opinioni. :DLa mia opinione è "che dipende dalla CPU e dalla GPU" :p http://www.vr-zone.com/?i=2367&s=12

http://www.vr-zone.com/reviews/NVIDIA/G70/Graphs/3DMark05-CPUScale.gifhttp://www.vr-zone.com/reviews/NVIDIA/G70/Graphs/3DMark05-GPUScale.gif

Stargazer
14-10-2005, 19:57
Pensavo fosse un caso di omonimìa, ma quando ho letto ciò che hai scritto non ho avuto più dubbi... :D
Sei lo stesso Star di Xeye... :sofico:
embe' e allora?
E' tutta tua internet?
Che tra la'latro io mi firmo tu vedo hai un fake account dato sull'occhio non mi risulta un nick simile

Free Gordon
14-10-2005, 21:28
embe' e allora?
E' tutta tua internet?
Che tra la'latro io mi firmo tu vedo hai un fake account dato sull'occhio non mi risulta un nick simile


Su forumeye infatti sono gattofelino :D

Ciauu

Sammy.73
14-10-2005, 23:16
La mia opinione è "che dipende dalla CPU e dalla GPU" :p http://www.vr-zone.com/?i=2367&s=12

http://www.vr-zone.com/reviews/NVIDIA/G70/Graphs/3DMark05-CPUScale.gifhttp://www.vr-zone.com/reviews/NVIDIA/G70/Graphs/3DMark05-GPUScale.gif

mmm... mi paiono strani sti risultati... già che ci sono faccio un po' di test ;)

MadRat
15-10-2005, 05:48
non mi pare di aver detto che non conta nulla, infatti fare OC sulla CPU può solo migliorare le performance, anche se di una percentuale minima (2-3%) e poi non si è parlato di WR...

tu hai detto "Il sistema conta tantissimo, nella CPU, nelle RAM e nella configurazione de SO stesso.": sembra evidente che un 2-3% NON è "tantissimo".

ottimizzando tutti i parametri, si può guadagnare molto di più di un 2-3%, ed è questo il punto: l'ottimizzazione del sistema conta percentualmente molto di + dell'Oc della CPU nel 3dMark2005, senza tolgiere il fatto che se oc anche quella le performance non possono far altro che migliorare ;)

Sono completamente d'accordo in parte!! :p
Ribadisco che il 2-3% del totale,in molti casi si avvicina (se non supera) al 20% dell'incremento totale. Visto cosi', non sembrerebbe poi cosi' poco.
E ti voglio passare gli incrementi sull'ordine delle percentuali che hai detto tu, perche' comunque le mie esperienze ha fornito risultati differenti dai tuoi, volendo piu' simili ai grafici che ha mostrato fantoibed. A me non sembrano affatto strani.
Ora direi che basti cosi' (almeno in questo 3d). Vediamo le stesse cose da due punti di vista differenti, credo per via delle nostre esperienze. Probabilmente abbiamo anche due criteri differenti di ottimizzazione (che io chiamo anche armonizzazione, cavolo come sono poetico :D) del sistema, tutto qui. :)

e allora perche costano uguale? :mbe:
per via dei 256 mb?ma non era appurato che nella fascia bassa,256mb sono inutili?
Purtroppo ci sono dei prodotti "commerciali" fatti per chi non ci capisce nulla e crede che 256mb facciano la differenza, gente che non sa nemmeno cosa sia un chip, cosi' si possono utilizzare tente vecchie ram "difettose" o di rimanenza fregando soldini preziosi dalle tasche dell'ignaro acquirente.
Diciamo in breve, che poter disporre di un quantitativo di VRam richiesto solo da giochi che, comunque, richiedono potenze di calcolo superiori alla VPU montata sulla scheda stessa, e' (e logicamente) inutile.