View Full Version : ATI Radeon X1800: quando 16 pipeline sono meglio di 24
[QUOTE=DjLode]
Comunque impara a leggere, io ho detto che "la XT e' l'unica ATI di nuova generazione che possa valer l'attesa", non venirmi a criticare il contrario.
Quindi manco tu sai quello che scrivi? Rileggitelo va, prima di accusare la gente. Non hai scritto "solo se si hanno "preferenze""? Sognato io? Evidentemente no.
Sembra che si e no tu legga cio' che ti viene scritto per la fretta di dire la tua, come la fantomatiche 6600gt a 200€ o le miriadi di interpretazioni assurde che fai di cio' che ti stiamo dicendo.
Interpretazioni assurde? Tipo? Non sei forse tu che hai detto che la XT è preferibile solo se si hanno "preferenze"? Affermi il contrario?
Ti appigli all' italiano quando non hai più argomenti? Hai capito benissimo cosa intendevo.
No, semplicemente sei tu che hai detto di non avermi accusato di inventare le cose. Argomenti? Sono 3 pagine che non fate altro che attaccarvi al fatto che la XT non è disponibile, cosa mai dichiarata da nessuno. Sicuramente chi ha finito gli argomenti sono altri :)
[QUOTE=MadRat]
Quindi manco tu sai quello che scrivi? Rileggitelo va, prima di accusare la gente. Non hai scritto "solo se si hanno "preferenze""? Sognato io? Evidentemente no.
Interpretazioni assurde? Tipo? Non sei forse tu che hai detto che la XT è preferibile solo se si hanno "preferenze"? Affermi il contrario?
Senti, e con questo finisco, io ho detto che se non ci si pone il problema di soldi la XT e' sicuramente un'ottima scheda DA ATTENDERE, ma chi aspetterebbe ULTERIORMENTE, per spendere poi un patrimonio se non ha obbiettivamente delle preferenze?? Ora basta grazie!!
Quindi esattamente quello che ho capito io, per te la XT non è un acquisto consigliabile nonostante tutto quanto si porti dietro? Non è un acquisto consigliabile se non si hanno delle preferenze, cioè diventa consigliabile solo se si preferisce Ati? Non per l'architettura, le prestazioni eccetera? Quindi, effettivamente, so leggere e leggo i posti degli altri no?
Pure per me possiamo finire qui, ma quando mi si accusa di non sapere leggere, se permetti, almeno, mi difendo ;)
La scheda x1800xt non è consigliabile per il semplice fatto che ancora non esiste! E' talmente palese che non credo ci sia bisogno di una laurea per capirlo.
Quando sarà disponibile, la sua convenienza dipenderà solamente dal prezzo di vendita. Se costerà il doppio della 7800GTX la consiglierai cmq? Non costerà il doppio? Chi te lo dice quanto costerà?
peace
Quando sarà disponibile, la sua convenienza dipenderà solamente dal prezzo di vendita. Se costerà il doppio della 7800GTX la consiglierai cmq? Non costerà il doppio? Chi te lo dice quanto costerà?
Me lo dice Kustom PCs:
http://www.kustompcs.co.uk/acatalog/info_5344.html
Price: £268.94 £316.00 Inc VAT at 17.5% Qty:
Oppure Tekheads:
http://www.tekheads.co.uk/s/product?product=605115
£323.13 including VAT
andreamarra
19-10-2005, 19:02
Me lo dice Kustom PCs:
http://www.kustompcs.co.uk/acatalog/info_5344.html
Price: £268.94 £316.00 Inc VAT at 17.5% Qty:
Oppure Tekheads:
http://www.tekheads.co.uk/s/product?product=605115
£323.13 including VAT
uè fekino :D
ti piace la nuova R520? Ti diverti a metterci mano? Ti esalta la creatività :D??
p.s. l'utente chiedeva i prezzi della versione XT 512 mega non la XL 256
Dettagli implementativi :D
leoneazzurro
19-10-2005, 19:16
Me lo dice Kustom PCs:
http://www.kustompcs.co.uk/acatalog/info_5344.html
Price: £268.94 £316.00 Inc VAT at 17.5% Qty:
Oppure Tekheads:
http://www.tekheads.co.uk/s/product?product=605115
£323.13 including VAT
Hmm.. la X1800XT con la traduzione in euro dovrebbe costare in italia sui 600 Euro la versione da 256 Mbyte e sui 685 (!) la versione da 512 mbyte....
Hmm.. la X1800XT con la traduzione in euro dovrebbe costare in italia sui 600 Euro la versione da 256 Mbyte e sui 685 (!) la versione da 512 mbyte....
In ogni caso non mi sembra sia gia disponibile... e oltrettutto mi pare sia molto alto come prezzo paragonato alla 7800
http://www.brini.it/+temp/1280.gif
http://www.brini.it/+temp/1600.gif
(basati sulla rece di Xbitlabs (http://www.xbitlabs.com), che comprende anche altri test)
Come volevasi dimostrare, prezzi assolutamente fuori mercato. Passi per l'esclusivita' della XT (che comunque costa quanto avevo detto io, anche se come al solito qualcuno aveva da ridire), ma la XL a quel prezzo non ha veramente senso, considerando, inoltre, che da noi costera' sicuramente un po' di piu'.
Captain_mason
19-10-2005, 21:02
Come volevasi dimostrare, prezzi assolutamente fuori mercato. Passi per l'esclusivita' della XT (che comunque costa quanto avevo detto io, anche se come al solito qualcuno aveva da ridire), ma la XL a quel prezzo non ha veramente senso, considerando, inoltre, che da noi costera' sicuramente un po' di piu'.
:doh:
ForeverBlue
19-10-2005, 22:12
se speramo di vendere qualcosa credo che quei 700 scchi siano un tantinello fuori luogo :confused:
spero che si arriverà a 550 il giorno dell'uscita per i 256MB
:doh:
Una zanzara sulla fronte?? :D
ForeverBlue
19-10-2005, 22:27
speriamo che la prossima non vada a finire più...in basso :rotfl: :rotfl: :D
che demente che sono :p
^TiGeRShArK^
20-10-2005, 14:25
Come volevasi dimostrare, prezzi assolutamente fuori mercato. Passi per l'esclusivita' della XT (che comunque costa quanto avevo detto io, anche se come al solito qualcuno aveva da ridire), ma la XL a quel prezzo non ha veramente senso, considerando, inoltre, che da noi costera' sicuramente un po' di piu'.
:confused:
perkè 478 euro IVA inclusa sarebbe fuori mercato?
non mi pare ke la 7800 gtx costi di meno...
sul sito dei prezzi di hwupgrade mi pare ke il prezzo minore x la 7800 gtx sia di 512 euro.... quindi credo ke per quanto in italia possa costare di + la x1800 xt non vedo come possa arrivare ad essere fuori mercato rispetto alla 7800 gtx ...
se poi il tuo cambio euro sterlina è sballato io non ci posso fare niente.....
halduemilauno
20-10-2005, 14:34
:confused:
perkè 478 euro IVA inclusa sarebbe fuori mercato?
non mi pare ke la 7800 gtx costi di meno...
sul sito dei prezzi di hwupgrade mi pare ke il prezzo minore x la 7800 gtx sia di 512 euro.... quindi credo ke per quanto in italia possa costare di + la x1800 xt non vedo come possa arrivare ad essere fuori mercato rispetto alla 7800 gtx ...
se poi il tuo cambio euro sterlina è sballato io non ci posso fare niente.....
veramente si parlava di 600/685€ per la x1800xt. 474/478€ è appunto il prezzo della 7800gtx.
;)
veramente si parlava di 600/685€ per la x1800xt. 474/478€ è appunto il prezzo della 7800gtx.
;)
Veramente 320 sterline sono circa 480 euro.
halduemilauno
20-10-2005, 14:49
Veramente 320 sterline sono circa 480 euro.
esatto.
http://www.tekheads.co.uk/s/product?product=605115
ma 323£ per la x1800xl. se tanto mi/ci da tanto...
poi chi è quello sprovveduto che paga 480€ per una x1800xl quando allo stesso prezzo si può comprare la 7800gtx?
;)
OverClocK79®
20-10-2005, 15:12
IMHO nn credo la X1800XT avrà un prezzo fuori mercato
in ITA costerà si e no qlkosa in + della 7800GTX
ma nn 150/200€ in +
cmq aspettiamo che sia disponibile in volumi....
BYEZZZZZZZZZZ
Free Gordon
20-10-2005, 15:13
In effetti è più conveniente una GTX come prestazioni, rispetto ad una 1800xl.
Forse però come features in generale no...
Tutto starà nel vedere come si comporterà la 1800xl con i giochi di futura generazione, tipo Unreal3.
Io sinceramente, da cliente, non avrei dubbi tra una GTX con prestazioni nettamente migliori ed una XL con nuove feature, che pero' troppo spesso sembra una scheda di passata generazione quanto a prestazioni. Penso che alla fine prenderei una 7800GT a 380€ (comunque piu' veloce) che rimane l'acquisto di gran lunga piu' intelligente ora come ora. La XL dovrebbe concorrere su quella fascia di prezzo.
La XT dovra' arrivare a prezzi molto piu' abbordabili, altrimenti rimarra' una Phantom Edition anche se prodotta in grandi volumetrie!!
andreamarra
20-10-2005, 15:35
bho, al di là del discorso prezzo (si confrontano delle schede che stanno sul mercato da svariati mesi con altre che sono appena arrivate e un'altra che sta per arrivare) io sinceramente non capisco, bench alla mano (parlo di questi di HWUpgrade) come si possa dire che la GT sia nettamente migliore della XL in termini di prestazione.
A risoluzioni basse e senza filtri c'è vantaggio (addirittura anche la X800XT va un pò meglio della X1800XL), poi mettendo risoluzioni elevate e filtri la XL spesso va meglio della controparte nvidia. Ma non mi sembra di inventarmi nulla, ci sono i bench che lo dicono.
In più pare che la XL la si possa portare molto vicino alla XT, la GT la puoi portare più avanti in frequenze ma essendo castrata di 4 pipe non potrà mai arrivare a una GTX.
Aspetto in ogni caso di vedere come si muoverà la ati sul discorso driver e controller di memoria, già nei giochi opengl stando ad alcuni bench la R520 con filtri e alte risoluzioni non solo recupera il gap , ma a volte riesce anche a stare avanti al G70.
Non dimenticando il fattore qualità visiva, migliore in R520. E con bench sul HDR che mostrano come la scheda gestisca meglio rispetto a nvidia. Oltre al discorso di HDR+AAA che non sottovaluterei.
Al di là del discorso prezzo, ovviamente. Che per ora, per motivi ovvi non possono competere con i prezzi di schede già prodotte in grande quantità e sul mercato da tanti mesi.
andreamarra
20-10-2005, 15:43
ovviamente per poter dire con esattezza quale scheda è più appetibile (una volta che i prezzi si saranno assestati, ovviamente) io aspetterei di vedere dei bench affidabili con giochi nuovi tipo fear e oblivion tanto per capirci.
Perchè di vedere 400 fps in unreal2004 mi interessa relativamente.
bho, al di là del discorso prezzo (si confrontano delle schede che stanno sul mercato da svariati mesi con altre che sono appena arrivate e un'altra che sta per arrivare) io sinceramente non capisco, bench alla mano (parlo di questi di HWUpgrade) come si possa dire che la GT sia nettamente migliore della XL in termini di prestazione.
A risoluzioni basse e senza filtri c'è vantaggio (addirittura anche la X800XT va un pò meglio della X1800XL), poi mettendo risoluzioni elevate e filtri la XL spesso va meglio della controparte nvidia. Ma non mi sembra di inventarmi nulla, ci sono i bench che lo dicono.
In più pare che la XL la si possa portare molto vicino alla XT, la GT la puoi portare più avanti in frequenze ma essendo castrata di 4 pipe non potrà mai arrivare a una GTX.
Aspetto in ogni caso di vedere come si muoverà la ati sul discorso driver e controller di memoria, già nei giochi opengl stando ad alcuni bench la R520 con filtri e alte risoluzioni non solo recupera il gap , ma a volte riesce anche a stare avanti al G70.
Non dimenticando il fattore qualità visiva, migliore in R520. E con bench sul HDR che mostrano come la scheda gestisca meglio rispetto a nvidia. Oltre al discorso di HDR+AAA che non sottovaluterei.
Al di là del discorso prezzo, ovviamente. Che per ora, per motivi ovvi non possono competere con i prezzi di schede già prodotte in grande quantità e sul mercato da tanti mesi.
Per quanto ottima questa recensione, non vede presenti vari titoli nei quali Nvidia e' avanti. Le prestazioni sono eclatanti solo nel caso della XT.
Non so quanto si possa pretendere che qualcuno comperi una scheda che costa 100€ in piu' (su 380) per avere prestazioni superiori con l'unico gioco che utilizza HDR senza AA su Nvidia. Almeno per ora e' cosi', la GT va meglio praticamente sempre e la GTX lascia poco spazio ad ogni dubbio, anche se l'anisotropico e' migliore (sulla carta, perche' ti sfido a vedere la differenza sul monitor) nelle ATI.
Non si possono chiedere 480€ dicendo "probabilmente andra' meglio nei prossimi titoli" che comunque richiederanno potenze supeiori anche a quelle della GTX e della XT.
L'UE3 potrebbe andare meglio su Nvidia.. vedremo.
andreamarra
20-10-2005, 16:41
Per quanto ottima questa recensione, non vede presenti vari titoli nei quali Nvidia e' avanti. Le prestazioni sono eclatanti solo nel caso della XT.
Non so quanto si possa pretendere che qualcuno comperi una scheda che costa 100€ in piu' (su 380) per avere prestazioni superiori con l'unico gioco che utilizza HDR senza AA su Nvidia. Almeno per ora e' cosi', la GT va meglio praticamente sempre e la GTX lascia poco spazio ad ogni dubbio, anche se l'anisotropico e' migliore (sulla carta, perche' ti sfido a vedere la differenza sul monitor) nelle ATI.
Non si possono chiedere 480€ dicendo "probabilmente andra' meglio nei prossimi titoli" che comunque richiederanno potenze supeiori anche a quelle della GTX e della XT.
L'UE3 potrebbe andare meglio su Nvidia.. vedremo.
io ho precisato "al di là del discroso economico" che ovviamente adesso, per ovvi motivi, penalizza la scheda ati.
In ogni caso tu hai detto nei post precedenti che la XL ha prestazioni da "scheda di vecchia generazione in alcuni casi", e che in generale la GT è superiore alla XL.
Io dai bench che vedo in rete, non capisco come si possa affermare ciò.
Se uno mi dice che a 1024*768 senza filtri la GT è meglio, dico di si. Ma se io mi compro una scheda del genere, guardo alle alte rizoluzioni e ai filtri.
E in queste situazioni, di render pesate, la XL spesso è avanti.
In ogni caso, è possibile dire che sono "pari", ma non sicuramente che la GT è più veloce.
E dico anche che, per avere una idea migliore su un possibile acquisto fra un pò di tempo (non parlo di acquisto immediato), è da vedere la mossa molto interessante dei driver del controller memory di R520. Dai primi bench con i 5.11 fixati ci sono guadagni prestazionali notevoli, addirittura in D3 ci sono incrementi in situazione di render pesante anche del 35%.
Se poi questi driver ottimizzando il controller memory di R520 darà vantaggi sensibili anche ad altri titoli (cosa che la G70 non può fare, non avendo una controller memory configurabile via driver), fra qualche tempo chi volesse cambiare la scheda video dovrebbe valutarla questa cosa.
Ma è ovvio che ora come ora soprattutto per il prezzo in Italia (cazzarola, ma in germania è la terra dei balocchi in confronto a noi.. :cry: ) la XL non è consigliabile, a meno che uno non voglia spendere tanto.
andreamarra
20-10-2005, 16:55
più che altro, dovessi prendere una XL o una XT di certo non la prenderi in Italia, o almeno non nel primo mese che sta messa a listino. Le prenderei dalla germania, sicuramente.
I prezzi delle vga nei primi giorni sono sempre eccessivamente alte, c'è poco da dire. RIcordo con orrore i prezzi della 9800PRO i primi giorni che stava a listino.
La stessa G70 i primi giorni era a prezzi esagerati, ma essendo già prodotta in massa (i costi calano) ed essendo reperibile e a listino in tutti i negozi italiani, ovviamente ha un prezzo adesso più basso rispetto a prima.
La R520 costa tanto anche per quelle ram assurde che ha.
Ora, se la XL costerà poco di più della GT (tipo 20-30 euro) per me si può fare. DIscorso diverso se costa 100 o più.
Anandtech ha testato FEAR:
http://www.anandtech.com/video/showdoc.aspx?i=2575
http://images.anandtech.com/reviews/video/fear/fear3.jpg
http://images.anandtech.com/reviews/video/fear/fear2.jpg
http://images.anandtech.com/reviews/video/fear/fear1.jpg
C'è da dire che va bene valutare una scheda in situazioni di render pesante, ma non bisogna mai dimenticare che poi ci dobbiamo giocare.
Anche se la x1800xl fa 20 fps a 1600x1200 contro i 10 di una GT, questo 100% di prestazioni in più non aiuta per nulla ed il gioco rimarrà cmq ingiocabile.
andreamarra
20-10-2005, 17:53
ma per render pesante io intendo dalla 1280*1024 AA4X Aniso16X.
In queste situazioni non si parla di 20 fps minimi e 10 minimi.
Si parla ad esempio di 50 e 40. In altri giochi poi ci sono differenze molto grandi, anche se ovviamente c'è da dire che si tratterebbe si potenza supplementare si, ma ovviamente anche con G70 ci giochi perfettamente.
io cmq ribadisco che per valutare al meglio ste schede occorre aspettare le release di driver per il controller memory. Questo credo che possa realmente fare la differenza. Anche perchè per ogni gioco la ati può programmare il memory controller in modo da eliminare colli di bottiglia e altro e aumentare non di poco le performance.
Già sapere che D3 con i fix driver dei 5.11 sul controller riesce ad andare in certe situazioni anche del 35% più veloce, e RIddick del 16% più veloce rispetto ai 5.10, per me è una cosa da tenere in conto.
Ovviamente se poi questi fix fatti apposta sui giochi usciranno in massa nelle varie release dei driver mensili, e se ci saranno aumenti sensibili.
Sono d'accordo con te, il memory controller programmabile è una gran bella feature.
Per quanto riguarda i benchmark di GT e XL, ti invito a dare un'occhiata alla recensione di xbitlabs, molto più completa ed esauriente a livello di test di quella di hwu. Infatti ci sono un sacco di giochi presi in considerazione, e dai loro test emerge che la GT sta quasi sempre davanti alla XL, anche in situazioni di render pesante, addirittura in hl2, titolo noto per favorire le schede ATi (e costa 100€ di meno).
ciao
leoneazzurro
20-10-2005, 19:22
Sono d'accordo con te, il memory controller programmabile è una gran bella feature.
Per quanto riguarda i benchmark di GT e XL, ti invito a dare un'occhiata alla recensione di xbitlabs, molto più completa ed esauriente a livello di test di quella di hwu. Infatti ci sono un sacco di giochi presi in considerazione, e dai loro test emerge che la GT sta quasi sempre davanti alla XL, anche in situazioni di render pesante, addirittura in hl2, titolo noto per favorire le schede ATi (e costa 100€ di meno).
ciao
la differenza di costo è più nell'ordine di 30-60 Euro.
Free Gordon
20-10-2005, 22:33
Qualcuno mi dice come giocare a FEAR a 1280x1024?? :D
Perchè dalla rece fatta da Anandtech pare che ci sia, mentre nel gioco che ho io è totalmente assente... :mbe:
Nella mia versione (retail, appena comprata) si passa dalla 1280x960 alla 1600x1200.. non è che sti bench per caso sono fatti un pò..... così così? :D
la differenza di costo è più nell'ordine di 30-60 Euro.
Anche se cosi fosse (costano veramente solo 440€ le xl?), sono curioso di verificarlo quando usciranno in italia :)
ma per render pesante io intendo dalla 1280*1024 AA4X Aniso16X.
Non sono queste le situazioni che mettono in crisi le GTX, ma l'HDR e le risoluzioni (con filtri alti) superiori a 1600. Situazioni che pero' mettono in crisi un po' tutte le schede, XT compresa.
Inoltre porrei l'attenzione anche sull'incremento del vantaggio delle soluzioni Nvidia in alcuni giochi come CoR (per altro gia' migliore di suo su tale postazione) nei casi di pesante filtraggio. Piu' si appesantisce la richiesta piu' aumenta il vantaggio. In Doom rimane percentualmente stabile.
Questo per far notare come questo vantaggio con filtri ed alte risoluzioni dell'R520, non sia esattamente una regola, direi piuttosto una tendenza evidentemente influenzata da vari fattori.
In queste situazioni non si parla di 20 fps minimi e 10 minimi.
Si parla ad esempio di 50 e 40. In altri giochi poi ci sono differenze molto grandi, anche se ovviamente c'è da dire che si tratterebbe si potenza supplementare si, ma ovviamente anche con G70 ci giochi perfettamente.
Se in giochi come Far Cry l'utilizzo di AA a 1920*1440 porta ad avere un tracollo prestazionale palese delle Nvidia, io andrei a ricercare piu' la necessita' di driver migliori, perche' 2,8FPS per una 6800Ultra o cali prestazionali sull'ordine di tali percentuali, sono un segno di malfunzionamento. Comunque non e' una regola, e' un'eccezione, almeno per il momento.
io cmq ribadisco che per valutare al meglio ste schede occorre aspettare le release di driver per il controller memory. Questo credo che possa realmente fare la differenza. Anche perchè per ogni gioco la ati può programmare il memory controller in modo da eliminare colli di bottiglia e altro e aumentare non di poco le performance.
Già sapere che D3 con i fix driver dei 5.11 sul controller riesce ad andare in certe situazioni anche del 35% più veloce, e RIddick del 16% più veloce rispetto ai 5.10, per me è una cosa da tenere in conto.
Ovviamente se poi questi fix fatti apposta sui giochi usciranno in massa nelle varie release dei driver mensili, e se ci saranno aumenti sensibili.
Qui mi sembra di affrontare un po' il discorso del Cell, nell'informatica la programmazione e' molto indietro rispetto alla tecnologia, le stesse CPU installate nei nostri computer sono sottoutilizzate ed i compilatori di certo non sono il massimo. Ora dare la possibilita' di "programmare" ulteriormente le VPU, conferisce sì un gran potenziale, ma potrebbe rimanere tale. C'e' voluto un anno per avere un supporto "decente" alla tecnologia SLI da parte dei driver, figuriamoci la personalizzazione di ogni singolo titolo quanto sia auspicable e credibile. Comuqnue speriamo bene.
la differenza di costo è più nell'ordine di 30-60 Euro.
Su che pianeta?? :Prrr: Non sbagliarti a paragonare prezzi italiani per una ed esteri per l'altra, ovunque la differenza e' circa 100€ che spero molto si assottigli presto (ovviamente noi parlavamo della differenza tra GT ed XL, visto che non sembra il caso di paragonare una XL con una GTX).
Prevedo grandi volumetrie di vendita (rimanendo nelle possibilita' del segmento d'appartenenza) per la XL qualora fosse venduta ad un prezzo decente. Di fatto, per il momento almeno, e' una scheda "media", nata tale e non vendibile a prezi elitari.
_____________________
In fine una piccola nota/analisi riguardo i bench di FEAR, uno dei giochi piu' attesi "del futuro".
La 1800XT e la XL alle due risoluzioni piu' elevate e filtri attivi hanno un vantaggio massimo di 2fps (la XL sulla GT ne ha uno solo) mentre ne perdono entrambe fino a oltre 10 senza filtri, situazione nella quale la XT si trova addirittura a duellare (e spesso perdere) addirittura con la GT (scheda che costa molto meno) e la XL addirittura finisce parimerito (ed un po' sotto) alla 6(SEI)800GT.
Sinceramente mi sembrava un po' piu' rosea la situazione dopo questo articolo. Speriamo molto nei "problemi di gioventù" da risolvere di queste ATI.
Comunque le serie inferiori alle 1800, sono assolutamente indegne ed inutili, a meno che non vengano "svendute" a prezzi politici. In questo segmento Nvidia continua ad avere le soluzioni migliori come da un anno a questa parte (e qui ci si riallaccia al perche' non siano state proposte nuove "medie" serie 7X00).
Prestazioni con Quake 4:
http://www.hardwarezone.com/articles/view.php?id=1749&cid=3&pg=1
Driver fix per Ati e se non ricordo male gli ultimi (81.85) per Nvidia.
Niente male, peccato non ci sia la XL.
leoneazzurro
21-10-2005, 10:33
Su che pianeta?? :Prrr: Non sbagliarti a paragonare prezzi italiani per una ed esteri per l'altra, ovunque la differenza e' circa 100€ che spero molto si assottigli presto (ovviamente noi parlavamo della differenza tra GT ed XL, visto che non sembra il caso di paragonare una XL con una GTX).
Prevedo grandi volumetrie di vendita (rimanendo nelle possibilita' del segmento d'appartenenza) per la XL qualora fosse venduta ad un prezzo decente. Di fatto, per il momento almeno, e' una scheda "media", nata tale e non vendibile a prezi elitari.
Sto paragonando prezzi esteri-prezzi esteri con maggiorazione del 20%
Sto paragonando prezzi esteri-prezzi esteri con maggiorazione del 20%
Di che nazione, Germania?? In ogni caso, purtroppo, non basta aggiungerci l'iva per avere quello che sara' il prezzo finale da noi.
Sto paragonando prezzi esteri-prezzi esteri con maggiorazione del 20%
Per i prezzi inglesi devi toglierci la VAT ed aggiungerci l'IVA... Per quelli tedeschi non devi toglierci/aggiungerci niente...
Poi chiarametne i rpezzi saranno nettamente superiori per altri motivi...
leoneazzurro
21-10-2005, 11:52
Di che nazione, Germania?? In ogni caso, purtroppo, non basta aggiungerci l'iva per avere quello che sara' il prezzo finale da noi.
Tieni presente che i prezzi in germania a cui faccio riferimento sono tasse (16%) inclise. Il 20% di maggiorazione di cui parlo non è l'IVA, ma il "fattore italia" (altrimenti dovrei togliere il 16% ed aggiungere il 20%).
Per i prezzi inglesi devi toglierci la VAT ed aggiungerci l'IVA... Per quelli tedeschi non devi toglierci/aggiungerci niente...
Poi chiarametne i rpezzi saranno nettamente superiori per altri motivi...
Infatti il suo 20% l'ho preso come un incremento "forfettario", anche per questo ho detto che non corrisponde alla realta' (per quegli altri motivi anche da te accennati).
__________
Un altro nuovo titolo, Quake 4, ATI e' nuovamente indietro, prevale solo su 2 risultati su 8, alle basse risuluzioni, non filtrate addirittura subisce un parimerito ed una sconfitta nei confronti della 6800GT (anche se palesemente CPU limited). Interessanti i testi relativi appunto ai casi "cpu limited" e "VPU limited", anche se questi fenomeni si intuiscono abbastanza chiaramente anche dai bench della pagina precedente.
Con questo titolo si inizia a vedere abbastanza bene quello che sostenevo pochi post fa, per giocare ad alte risoluzioni e filtri attivi i titoli di nuova generazione, non bastera' né una 7800, né una 1800.
Tieni presente che i prezzi in germania a cui faccio riferimento sono tasse (16%) inclise. Il 20% di maggiorazione di cui parlo non è l'IVA, ma il "fattore italia" (altrimenti dovrei togliere il 16% ed aggiungere il 20%).
Come vedi dal post precedente avevo capito di cosa parlassi, ma credimi, non e' realistico o meglio, lo puo' pure essere, ma giusto in qualche caso fortunato. :)
Un altro nuovo titolo, Quake 4, ATI e' nuovamente indietro, prevale solo su 2 risultati su 8, alle basse risuluzioni, non filtrate addirittura subisce un parimerito ed una sconfitta nei confronti della 6800GT (anche se palesemente CPU limited). Interessanti i testi relativi appunto ai casi "cpu limited" e "VPU limited", anche se questi fenomeni si intuiscono abbastanza chiaramente anche dai bench della pagina precedente.
Cioè tu da un gioco OGL derivato da Doom3 ti aspettavi che Ati fosse avanti? Fantascienza. Anzi, la notizia positiva (che non so perchè non hai colto) è che è indietro di pochi fps. Segno che il Fix serve a qualcosa. Ma sopratutto che Ati si sta impegnando anche sul fronte OGL.
Interessante un test cpu limited? Per giudicare una gpu?
Cioè tu da un gioco OGL derivato da Doom3 ti aspettavi che Ati fosse avanti? Fantascienza. Anzi, la notizia positiva (che non so perchè non hai colto) è che è indietro di pochi fps. Segno che il Fix serve a qualcosa. Ma sopratutto che Ati si sta impegnando anche sul fronte OGL.
Interessante un test cpu limited? Per giudicare una gpu?
Trattandosi di un nuova architettura molto efficente ed essendo uscita parecchi mesi dopo la scheda nvidia, io me lo sarei aspettato.
E' vero che ci sono dei miglioramenti, ma siamo ancora indietro.
Ricordo che quando è uscita la GTX non c'era un solo test dove la x850 andasse piu veloce. Era quindi lecito aspettarsi di più...
Trattandosi di un nuova architettura molto efficente ed essendo uscita parecchi mesi dopo la scheda nvidia, io me lo sarei aspettato.
E' vero che ci sono dei miglioramenti, ma siamo ancora indietro.
Ripeto, te lo saresti aspettato in OGL, con ancora nessun driver UFFICIALE che supporti la nuova serie? Ottimista...
Ricordo che quando è uscita la GTX non c'era un solo test dove la x850 andasse piu veloce. Era quindi lecito aspettarsi di più...
Ne ricordo qualcuno, ma vorrei anche ben vedere :D
Infatti come vedi la 6800GT è indietro :) Almeno diamo un senso alla fase di sopra, quindi confrontiamo nuova generazione dell'una con vecchia dell'altra :)
leoneazzurro
21-10-2005, 12:49
Non è che tutte le GT in Italia si trovino a meno di 400 Euro come in Germania, eh? :) Comunque ecco un'analisi abbastanza dettagliata.
Sui siti tedeschi la situazione vede la differenze tra XL e GT andare da 1 a 100 Euro, con una differenza tra i prezzi medi di 55 Euro. Maggioriamo il tutto e in Italia dovremmo stare mediamente sui 70 Euro all'inizio (sto parlando di differenze, i prezzi assoluti li vedremo tra poco, ad ogni modo). Dopo 1-2 mesi la differenza dovrebbe assottigliarsi, se arriveranno volumi significativi.
I primi prezzi tedeschi della XT, invece, vedono circa 540-550 Euro per la versione 256 Mbyte, e circa 660 per quella a 512 (ma bisognerà vedere se al lancio ci saranno adeguamenti). Per contro le GTX si vendono in quel paese a prezzi compresi tra 430 e 500 Euro. Il prezzo medio della GTX 256 mbyte (non sto considerando le dotazioni delle schede, comunque) è di circa 445 Euro.
La differenza tra XT e GTX per le versioni 256 Mbyte si attesta quindi sugli 80 Euro circa. In Italia, maggiorando opportunamente, potrebbe essere intorno ai 100 Euro (sempre parlando di differenze). Non parlo della versione con 512 Mbyte perchè bisognerebbe confrontarla con la GTX da 512 Mbyte, che non c'è ancora.
Conclusione: per gli appassionati di VGA è meglio emigrare :D
Non mi pare che la 7800 appartenga alla stessa generazione di schede video della x1800...
Non mi pare che la 7800 appartenga alla stessa generazione di schede video della x1800...
No? Quindi per te la reale concorrente della 7800 è la X850? Non è più usanza confrontare più veloce con più veloce?
Conclusione: per gli appassionati di VGA è meglio emigrare :D
Non ci metterei solo le VGA purtroppo :cry:
Cioè tu da un gioco OGL derivato da Doom3 ti aspettavi che Ati fosse avanti? Fantascienza. Anzi, la notizia positiva (che non so perchè non hai colto) è che è indietro di pochi fps. Segno che il Fix serve a qualcosa. Ma sopratutto che Ati si sta impegnando anche sul fronte OGL.
Interessante un test cpu limited? Per giudicare una gpu?
Analisi un po' superficiale la tua, e' CPU limited solo alle risoluzioni piu' basse, cosi' come lo e' la controparte Nvidia.
Quanto al mio appunto, non lo hai capito, ho detto che se una VPU fosse migliore dell'altra nelle situazioni di rendering pesante, lo sarebbe sempre, anche nei titoli meno "favoriti". Il divario prestazionale dovrebbe assottigliarsi con l'aumentare delle risoluzioni e dei filtri, invece avviene il contrario.
Analisi un po' superficiale la tua, e' CPU limited solo alle risoluzioni piu' basse, cosi' come lo e' la controparte Nvidia.
Chi ha detto che è cpu limited il test? Sei tu che lo ritenevi interessante...
Quanto al mio appunto, non lo hai capito, ho detto che se una VPU fosse migliore dell'altra nelle situazioni di rendering pesante, lo sarebbe sempre, anche nei titoli meno "favoriti". Il divario prestazionale dovrebbe assottigliarsi con l'aumentare delle risoluzioni e dei filtri, invece avviene il contrario.
Ripeto, da un gioco derivato da Doom3? Palesemente ottimizzato su architettura Nvidia? Ti ho chiesto se ti aspettavi veramente il contrario. Ed esattamente avviene il contrario di quello che tu dici, a risoluzioni più alte il divario si annulla, si riduce o diventa addirittura negativo (sorpasso).
Io vedo la cosa positivamente, evidentemente Nvidia non è mai stata avanti in Doom3 e nei giochi OGL e io ho sognato tutto :)
Se in giochi come Far Cry l'utilizzo di AA a 1920*1440 porta ad avere un tracollo prestazionale palese delle Nvidia, io andrei a ricercare piu' la necessita' di driver migliori, perche' 2,8FPS per una 6800Ultra o cali prestazionali sull'ordine di tali percentuali, sono un segno di malfunzionamento. Comunque non e' una regola, e' un'eccezione, almeno per il momento.
No. Ad altissime risoluzione tutte le applicazioni (o quasi) diventano GPU limited ed il driver non e' in nessuna situazione il collo di bottiglia, perche' e' totalmente CPU side, ed il suo contributo prestazionale e' virtualmente indipendente dalla risoluzione. Il driver fa lo stesso lavoro a qualunque risoluzione.
Non è che tutte le GT in Italia si trovino a meno di 400 Euro come in Germania, eh? :) Comunque ecco un'analisi abbastanza dettagliata.
Sui siti tedeschi la situazione vede la differenze tra XL e GT andare da 1 a 100 Euro, con una differenza tra i prezzi medi di 55 Euro. Maggioriamo il tutto e in Italia dovremmo stare mediamente sui 70 Euro all'inizio (sto parlando di differenze, i prezzi assoluti li vedremo tra poco, ad ogni modo). Dopo 1-2 mesi la differenza dovrebbe assottigliarsi, se arriveranno volumi significativi.
I primi prezzi tedeschi della XT, invece, vedono circa 540-550 Euro per la versione 256 Mbyte, e circa 660 per quella a 512 (ma bisognerà vedere se al lancio ci saranno adeguamenti). Per contro le GTX si vendono in quel paese a prezzi compresi tra 430 e 500 Euro. Il prezzo medio della GTX 256 mbyte (non sto considerando le dotazioni delle schede, comunque) è di circa 445 Euro.
La differenza tra XT e GTX per le versioni 256 Mbyte si attesta quindi sugli 80 Euro circa. In Italia, maggiorando opportunamente, potrebbe essere intorno ai 100 Euro (sempre parlando di differenze). Non parlo della versione con 512 Mbyte perchè bisognerebbe confrontarla con la GTX da 512 Mbyte, che non c'è ancora.
Conclusione: per gli appassionati di VGA è meglio emigrare :D
Diciamo che avrei qualcosina da ridire riguardo i prezzi da te chiamati in causa (una 7800GT in italia costa 382€ ivata anche scontabile), ma aspettiamo di vedere ben commercializzate queste nuove ATI, cosi' e' abbastanza poco indicativo.
Ne ricordo qualcuno, ma vorrei anche ben vedere :D
Infatti come vedi la 6800GT è indietro :) Almeno diamo un senso alla fase di sopra, quindi confrontiamo nuova generazione dell'una con vecchia dell'altra :)
La 6800GT fa parte di una generazione piu' vecchia (6 mesi sono una generazione per l'infomratica), il G70 non e' che un NV40 piu' potente perche' piu' "grosso".
Chi ha detto che è cpu limited il test? Sei tu che lo ritenevi interessante...Le cose le capisci al volo, basta ripeterle 7 o 8 volte!! :D Io ho detto che e' interessante la parte relativa ai fenomeni di limitazione da parte delle CPU e della VPU, ho anche aggiunto la considerazione che tutto sommato no servisse poi tanto, perche' a un occhio un po' pratico saltano evidenti anche gia' dai bench precedenti.
Ripeto, da un gioco derivato da Doom3? Palesemente ottimizzato su architettura Nvidia? Ti ho chiesto se ti aspettavi veramente il contrario. Ed esattamente avviene il contrario di quello che tu dici, a risoluzioni più alte il divario si annulla, si riduce o diventa addirittura negativo (sorpasso).
Io vedo la cosa positivamente, evidentemente Nvidia non è mai stata avanti in Doom3 e nei giochi OGL e io ho sognato tutto :)
E vedi male.
Doom 1600*1200 HQ standard: Nvidia 98 fps, ATI 80.7
Doom 1600*1200 HQ con filtri: Nvidia 53 fps, ATI 42
Nel primo caso la differenza e' di 17,3 fps, nel secondo e' di 11 fps in entrambi i casi si parla del 20% circa in piu' rispetto alla soluzione ATI, come ho detto precedentemente in Doom3 si mantiene costante (anziché calare come ci si aspetterebbe e come erroneamente sostieni tu)
The Chronicles Of Riddick 1600*1200 HQ standard: Nvidia 36,8fps, ATI 28,3
The Chronicles Of Riddick 1600*1200 HQ con filtri: Nvidia 18 fps, ATI 11
Nel primo caso (senza filtri) vediamo 8,5 fps di vantaggio per Nvidia che corrispondono esattamente al 30%
Nel secondo caso (con filtri) invece, vediamo 7 fps di vantaggio che corrispondono al 64%.
Non credo serva chiarire come il 64% sia piu' del doppio del 30%.
Analisi un po' superficiale la tua, e' CPU limited solo alle risoluzioni piu' basse, cosi' come lo e' la controparte Nvidia.
Quanto al mio appunto, non lo hai capito, ho detto che se una VPU fosse migliore dell'altra nelle situazioni di rendering pesante, lo sarebbe sempre, anche nei titoli meno "favoriti". Il divario prestazionale dovrebbe assottigliarsi con l'aumentare delle risoluzioni e dei filtri, invece avviene il contrario.
No. Dipende dalle tecniche usate. Doom 3 brucia moltissimo fillrate per disegnare gli shadow volume, che non fanno altro che "riempire" di informazioni lo stencil buffer. In queste condizioni le GPU NVIDIA sono in grado di raddoppiare il fillrate per passate z-only (a parita' di altre condizioni). Il divario aumenta con l'aumentare della risoluzione, perche' aumenta il numero di frammenti (pixel) da processare nello shadow volume pass, dove l'architettura NVIDIA e' favorita.
L'analisi di DJLode e' perfettamente azzeccata e sottolinea come il miglioramento dell'efficienza complessiva del chip controbilanci in parte una mancanza architetturale che favorisce in Doom3 e derivati la soluzione NVIDIA.
No. Ad altissime risoluzione tutte le applicazioni (o quasi) diventano GPU limited ed il driver non e' in nessuna situazione il collo di bottiglia, perche' e' totalmente CPU side, ed il suo contributo prestazionale e' virtualmente indipendente dalla risoluzione. Il driver fa lo stesso lavoro a qualunque risoluzione.
In teoria sarei d'accordo con te, ma come spieghi che cio' si manifesta cosi' palesemente solo in alcuni titoli??
No. Dipende dalle tecniche usate. Doom 3 brucia moltissimo fillrate per disegnare gli shadow volume, che non fanno altro che "riempire" di informazioni lo stencil buffer. In queste condizioni le GPU NVIDIA sono in grado di raddoppiare il fillrate per passate z-only (a parita' di altre condizioni). Il divario aumenta con l'aumentare della risoluzione, perche' aumenta il numero di frammenti (pixel) da processare nello shadow volume pass, dove l'architettura NVIDIA e' favorita.
L'analisi di DJLode e' perfettamente azzeccata e sottolinea come il miglioramento dell'efficienza complessiva del chip controbilanci in parte una mancanza architetturale che favorisce in Doom3 e derivati la soluzione NVIDIA.
Se non fosse che il divario non aumenta con la risoluzione come dici tu, bensì con il filtri. ;)
La 6800GT fa parte di una generazione piu' vecchia (6 mesi sono una generazione per l'infomratica), il G70 non e' che un NV40 piu' potente perche' piu' "grosso".
Quindi se non ha senso confrontare X1800 perchè mi confronti 7800 con X850? Perchè in un caso è lecito e nel secondo no? Mistero.
Le cose le capisci al volo, basta ripeterle 7 o 8 volte!! :D Io ho detto che e' interessante la parte relativa ai fenomeni di limitazione da parte delle CPU e della VPU, ho anche aggiunto la considerazione che tutto sommato no servisse poi tanto, perche' a un occhio un po' pratico saltano evidenti anche gia' dai bench precedenti.
Se non si capisce cosa vuoi dire, la colpa non è di certo chi legge. Ancora non si capisce cosa vuoi dire, ritieni interessante una cosa che ritieni non serva a tanto? Un pò di senso a questa frase, magari, daglielo.
E vedi male.
Quindi tu, nel test di Quake 4, non vedi quello che vedo io? Su, hai francamente passato il mio limite di sopportazione, si parla di una cosa, ne tiri fuori altre tanto per supportare tesi francamente insostenibili. Per me, visto che non mi va di perdere nè tempo nè pazienza, il discorso finisce qui. Evidentemente l'analisi che ho fatto non è chiara solamente a te.
Alla faccia di quello che accusa gli altri di essere lenti. :mc:
Quindi se non ha senso confrontare X1800 perchè mi confronti 7800 con X850? Perchè in un caso è lecito e nel secondo no? Mistero.
Paragonala con quel che vuoi
Se non si capisce cosa vuoi dire, la colpa non è di certo chi legge. Ancora non si capisce cosa vuoi dire, ritieni interessante una cosa che ritieni non serva a tanto? Un pò di senso a questa frase, magari, daglielo.Quello che non capiscono alcuni, magari e' alla portata di altri.
Quindi tu, nel test di Quake 4, non vedi quello che vedo io? Su, hai francamente passato il mio limite di sopportazione, si parla di una cosa, ne tiri fuori altre tanto per supportare tesi francamente insostenibili. Per me, visto che non mi va di perdere nè tempo nè pazienza, il discorso finisce qui. Evidentemente l'analisi che ho fatto non è chiara solamente a te.
Alla faccia di quello che accusa gli altri di essere lenti. :mc:
Io ho parlato di Doom e CoR, per evidenziare il comportamento della due VPU in questa situazione che EVIDENTEMENTE in QUAKE non si manifesta, altrimenti lo avrei portato come esempio. Ho anche detto che c'e' comunque una tendenza per le nuove VPU ATI a far risultati migliori con filtri attivi. Ribadisco che come ho dimostrato ampiamente e matematicamente, non e' una regola, ma appunto solo una tendenza. Se leggi solo parti di testo, rischi di far confusione. ;)
leoneazzurro
21-10-2005, 15:08
No. Dipende dalle tecniche usate. Doom 3 brucia moltissimo fillrate per disegnare gli shadow volume, che non fanno altro che "riempire" di informazioni lo stencil buffer. In queste condizioni le GPU NVIDIA sono in grado di raddoppiare il fillrate per passate z-only (a parita' di altre condizioni). Il divario aumenta con l'aumentare della risoluzione, perche' aumenta il numero di frammenti (pixel) da processare nello shadow volume pass, dove l'architettura NVIDIA e' favorita.
L'analisi di DJLode e' perfettamente azzeccata e sottolinea come il miglioramento dell'efficienza complessiva del chip controbilanci in parte una mancanza architetturale che favorisce in Doom3 e derivati la soluzione NVIDIA.
Sembra che il raddoppio del fill rate nel caso di operazioni Z/stencil sia stato implementato da ATI, ma solo in RV530.
Sembra che il raddoppio del fill rate nel caso di operazioni Z/stencil sia stato implementato da ATI, ma solo in RV530.
Notizia interessante. L'R500 supporta questa modalita' di rendering. Hai qualche link che ne parla riguardo all'RV530?
yossarian
21-10-2005, 15:13
Sembra che il raddoppio del fill rate nel caso di operazioni Z/stencil sia stato implementato da ATI, ma solo in RV530.
vero; non è detto, però, che lo si ritroverà anche su R580. Invece, sicuramente sarà presente su R500
Se non si capisce cosa vuoi dire, la colpa non è di certo chi legge. Ancora non si capisce cosa vuoi dire, ritieni interessante una cosa che ritieni non serva a tanto? Un pò di senso a questa frase, magari, daglielo.
Non ho capito neppure io che cosa vuol dire...
Evidentemente l'analisi che ho fatto non è chiara solamente a te.
Personalmente la tua analisi mi e' chiara e la condivido a grandi linee.
yossarian
21-10-2005, 15:18
Notizia interessante. L'R500 supporta questa modalita' di rendering. Hai qualche link che ne parla riguardo all'RV530?
Although only the RV530 chip features it in the new line, another feature of the R520 architecture its ability to support two quads in the ROP at once when rendering Z and Stencil samples. RV530 features double Z/Stencil fillrates in relation to its colour fill-rate
da B3D
Although only the RV530 chip features it in the new line, another feature of the R520 architecture its ability to support two quads in the ROP at once when rendering Z and Stencil samples. RV530 features double Z/Stencil fillrates in relation to its colour fill-rate
da B3D
Interessante, quindi hanno coperto questa lacuna.
yossarian
21-10-2005, 15:35
Interessante, quindi hanno coperto questa lacuna.
sarà interessante vedere se la stessa cosa avverrà per R580, la cui architettura del fragment processor dovrebbe essere un ibrido tra quella di R520 (come numero di thread e, quindi, gruppi di quad) e quella di RV530 (come numero di quad dedicati al singolo gruppo di 128 thread).
Se così fosse, oltre ad essere molto più veloce di R520 nelle operazioni matematiche, R580 potrebbe arrivare ad annullare(o quasi) il gap architetturale nei confronti dei chip NV con titoli che fanno uso di rendering tipo quello di Doom)
* Fek
Cosa condividi, che grazie alle stencil shadow, Doom non ha guadagni su ATi con il fliltri attivi ed in CoR addirittura li ha su NV??
Fino ad ora si e' notato come ATI avesse, quando piu', quando meno, vantaggi a risoluzioni elevate e filtri attivi, anche lì dove l'R520 non ragginge il G70 (o "pareggia"), spesso lo recupera e passa quando si richiede l'uso dell'AA e dell'AF. In quei due casi e' eviente che non accade, anzi accade il contrario.
Non mi sembra un concetto difficile da capire, almeno per me non lo e'.
Ora mi sai spiegare come questo sia merito delle Stencil Shadow supportate da Nvidia??
_______________________
X Yoss.. In poche parole l'X1600 dovrebbe essere piu' avanzata rispetto ad una x1800?? L'RV530 e' della 1600 ricordo bene no??
* Fek
Cosa condividi, che grazie alle stencil shadow, Doom non ha guadagni su ATi con il fliltri attivi ed in CoR addirittura li ha su NV??
No. Condivido quello che ha scritto DJLode, che e' chiarissimo.
Ora mi sai spiegare come questo sia merito delle Stencil Shadow supportate da Nvidia??
Le stencil shadow sono supportate non solo da NVIDIA fin dalla vecchia TNT e Radeon 7500.
Quindi se non ha senso confrontare X1800 perchè mi confronti 7800 con X850? Perchè in un caso è lecito e nel secondo no? Mistero.
Certo che si possono confrontare, anzi si devono confrontare in quanto sono le 2 schede piu veloci rispettivamente di nvidia e ati.
Ma il fatto che si debba confrontarle non implica che siano della stessa generazione.
Sennò quando è uscita la 7800GTX avremmo dovuto tutti scandalizzarci del fatto che la x850 non vincesse nemmeno un benchmark. Ed invece ci siamo tutti meravigliati di come una scheda più vecchia di mesi potesse in alcuni casi quasi raggiungere nvidia.
Ora la meraviglia è ancora più grande quando vediamo che la scheda più vecchia è ancora imbattibile in alcuni campi, nonostante sia uscita parecchi mesi fa.
Guru3d ha pubblicato una recensione abbastanza completa
http://www.guru3d.com/article/Videocards/262/1
nella quale vi sono anche i risutati delle x1600 (in Doom e CoR si colloca decisamente sotto alla 6600GT, ma con i filtri la recupera visto il drastico calo prestazionale della soluzione Nvidia). E' abbastanza completo l'articolo, c'e' anche il guadagno prestazionale derivante dalla patch per Doom3 mandatagli da ATI.
No. Condivido quello che ha scritto DJLode, che e' chiarissimo.
Dunque sei d'accordo con lui nel ritenere che Doom3 e Cor, non abbiano incrementi prestazionali su ATI a filtri attivi, perche' Nvidia possiede maggiori potenzialita' di fillrate. Hai detto che il divario aumenta con l'aumentare della risoluzione, ma questo non e' vero, all'atto pratico aumenta all'aumentare dell'AA.
Ci sara' una spiegazione, ma non mi pare proprio quella.
Le stencil shadow sono supportate non solo da NVIDIA fin dalla vecchia TNT e Radeon 7500.Wow, siamo in vena si scopertone quest'oggi. :cool:
Dunque sei d'accordo con lui nel ritenere che Doom3 e Cor, non abbiano incrementi prestazionali su ATI a filtri attivi, perche' Nvidia possiede maggiori potenzialita' di fillrate. Hai detto che il divario aumenta con l'aumentare della risoluzione, ma questo non e' vero, all'atto pratico aumenta all'aumentare dell'AA.
Ci sara' una spiegazione, ma non mi pare proprio quella.
DJLode non ha scritto quello e io non ho scritto quello che hai riportato. Rileggi con piu' attenzione.
DJLode non ha scritto quello e io non ho scritto quello che hai riportato. Rileggi con piu' attenzione.
Rileggi tu, lui ha criticato la mia osservazione relativa a questo fenomeno dicendo che e' dipeso dai vantaggi che possiedono le NV, in taluni giochi. Questo e' palesemente sbagliato, ma tu gli hai fatto coro. Forse non hai letto tutto dall'inizio.
Rileggi tu, lui ha criticato la mia osservazione relativa a questo fenomeno dicendo che e' dipeso dai vantaggi che possiedono le NV, in taluni giochi. Questo e' palesemente sbagliato, ma tu gli hai fatto coro. Forse non hai letto tutto dall'inizio.
Ho riletto e continuo a concordare con l'analisi di DJLode. E' corretta.
Ho riletto e continuo a concordare con l'analisi di DJLode. E' corretta.Il punto e' che lui e' convinto che io critichi le prestazioni in OGL (ed in questo caso di Doom3 e CoR) dell'R520, questo non e' vero. Io ho parlato SOLO dello svantaggio prestazionale di ATI a filtri attivi.. Qualunque altra cosa lui abbia detto o analizzato e' fuori discorso nonche' fuori luogo. Comndivido abbastanza cio' che dice relativamente al supporto driver, OGL, Shadow ecc., ma non e' cio' di cui sto parlando. Di fatto l'aumentare del filtraggio in taluni casi comporta un'incremento del vantaggio Nvidia, che tu e lui ne diciate.
Di fatto l'aumentare del filtraggio in taluni casi comporta un'incremento del vantaggio Nvidia, che tu e lui ne diciate.
Quest'affermazione e' talmente imprecisa che non ha alcun senso logico, ne' riscontro con la realta' delle cose. Ma non mi aspetto che tu lo accetti, quindi non aggiungero' altro su questo argomento che a tutti gl'altri e' perfettamente chiaro.
yossarian
21-10-2005, 21:20
Il punto e' che lui e' convinto che io critichi le prestazioni in OGL (ed in questo caso di Doom3 e CoR) dell'R520, questo non e' vero. Io ho parlato SOLO dello svantaggio prestazionale di ATI a filtri attivi.. Qualunque altra cosa lui abbia detto o analizzato e' fuori discorso nonche' fuori luogo. Comndivido abbastanza cio' che dice relativamente al supporto driver, OGL, Shadow ecc., ma non e' cio' di cui sto parlando. Di fatto l'aumentare del filtraggio in taluni casi comporta un'incremento del vantaggio Nvidia, che tu e lui ne diciate.
se non sbaglio ne abbiamo già parlato; personalmente non considero Doom3 un gioco OpenGL (di CoR non so molto, per cui non mi pronuncio), ma un gioco NVGL.
id Software's John Carmack has often commented that his engines target a particular feature set of a graphics board and he uses a certain boards for his primary development; for instance the Doom3 engine was initially targeted towards the features enabled by the GeForce 256 series of graphics processors, but overtime that was incremented to DirectX8 and 9 level boards, with NVIDIA's 5800 (NV30) being his primary development platform for a while. What has always been clear is that the PC, and the capabilities of PC graphics, was id's primary target market and development platform. From John's keynote speech, transcribed here by Beyond3D forum member aaaaa00, it would appear that this is likely to change, in the interim at least:
la parte evidenziata conferma quello che già tutti sapevamo: ossia che doom3 è stato "ritagliato" sulle specifiche di chip NV e, in particolare, su quelle di NV30. Lo stessa Carmack ebbe modo di constatare che con codice ARB2 (ARB è lo standard OpenGL), R300 era il doppio più veloce di NV30. Quindi ha pensato bene di non utilizzare codice standard e di esaltare i punti di forza di NV3x: uno di questi è quello evidenziato da fek (e di cui aveva parlato anche DjLode nel suo intervento) e, cioè, la capacità di NV3x di raddoppiare il pixel fillrate in caso di only stencil ops.
Per questo motivo, per quanto mi riguarda, Doom3 e giochi che usano lo stesso motore grafico non sono realmente indicativi delle prestazioni in OpenGL
se non sbaglio ne abbiamo già parlato; personalmente non considero Doom3 un gioco OpenGL (di CoR non so molto, per cui non mi pronuncio), ma un gioco NVGL.
..............
la parte evidenziata conferma quello che già tutti sapevamo: ossia che doom3 è stato "ritagliato" sulle specifiche di chip NV e, in particolare, su quelle di NV30. Lo stessa Carmack ebbe modo di constatare che con codice ARB2 (ARB è lo standard OpenGL), R300 era il doppio più veloce di NV30. Quindi ha pensato bene di non utilizzare codice standard e di esaltare i punti di forza di NV3x: uno di questi è quello evidenziato da fek (e di cui aveva parlato anche DjLode nel suo intervento) e, cioè, la capacità di NV3x di raddoppiare il pixel fillrate in caso di only stencil ops.
Per questo motivo, per quanto mi riguarda, Doom3 e giochi che usano lo stesso motore grafico non sono realmente indicativi delle prestazioni in OpenGL
Ma questo non lo discuto minimamente!! nè mai mi son sognato di discuterlo (a meno che qualcuno non mi faccia vedere dove l'ho fatto, ne sarei proprio curioso).
Io ho solo notato come l'aumentare dell'AA su quei due titoli comporti un aumentare del vantaggio prestazionale dell'archittettura Nvidia che in Cor arriva anche al 64%!! (Doom mantiene un distacco del 20% costante con filtri e senza) che poi siano piu' "veloci" su Nvidia o ATI, non importa affatto ai fini di cio' che sto dicendo.
Ora, dato per assodato che questi due titoli siano pro Nvidia e che la loro prestazione (specialmente per quanto riguarda Doom) sia poco significativa per le motivazioni da te citate (come da altri, compreso me in molteplici altre situazioni), possiamo notare la variazione di FPS con l'ausilio dei filtri AA ed AF che non c'entrano nulla con fillrate, stencil buffer e quant'altro sia stato tirato in mezzo al discorso in modo inopportuno (nessuno ha parlato di AA o AF se ci fai caso, mentre io parlo solo di questo).
Non mi sono mai sognato di dire "toh, il G70 va meglio dell'R520 perche' Doom gira meglio", sarebbe banale ed errato. Parlo solo dei filtri, che a quanto pare vengono notati solo quando in Far Cry causano un tracollo prestazionale e non quando "stranamente e controtendenza" causano il fenomeno opposto.
Quest'affermazione e' talmente imprecisa che non ha alcun senso logico, ne' riscontro con la realta' delle cose. Ma non mi aspetto che tu lo accetti, quindi non aggiungero' altro su questo argomento che a tutti gl'altri e' perfettamente chiaro.
Quella frase ha senso compitissimo in italiano, ma non mi sarei mai aspettato che tu la condividessi o capissi visti i precedenti. Duqnue evitiamo di infognarci.
Quella frase ha senso compitissimo in italiano, ma non mi sarei mai aspettato che tu la condividessi o capissi visti i precedenti. Duqnue evitiamo di infognarci.
Stai cercando di affermare che se qualcuno scrive qualcosa di logico che riguarda la grafica 3d, io non la capisco. Possibile :)
Fatto sta che quello che hai scritto non ha senso, te lo ha fatto notare DJLode, Yossarian, e te l'ho fatto notare io. Ma probabilmente nessuno di noi tre ha la tua preparazione in merito... Che ridere. Ti lascio l'ultima parola sapientone, altrimenti non la smetti piu' e ricominci con gli insulti.
Basta dai...diamoci una calmata :)
yossarian
22-10-2005, 14:25
Ma questo non lo discuto minimamente!! nè mai mi son sognato di discuterlo (a meno che qualcuno non mi faccia vedere dove l'ho fatto, ne sarei proprio curioso).
Io ho solo notato come l'aumentare dell'AA su quei due titoli comporti un aumentare del vantaggio prestazionale dell'archittettura Nvidia che in Cor arriva anche al 64%!! (Doom mantiene un distacco del 20% costante con filtri e senza) che poi siano piu' "veloci" su Nvidia o ATI, non importa affatto ai fini di cio' che sto dicendo.
Ora, dato per assodato che questi due titoli siano pro Nvidia e che la loro prestazione (specialmente per quanto riguarda Doom) sia poco significativa per le motivazioni da te citate (come da altri, compreso me in molteplici altre situazioni), possiamo notare la variazione di FPS con l'ausilio dei filtri AA ed AF che non c'entrano nulla con fillrate, stencil buffer e quant'altro sia stato tirato in mezzo al discorso in modo inopportuno (nessuno ha parlato di AA o AF se ci fai caso, mentre io parlo solo di questo).
Non mi sono mai sognato di dire "toh, il G70 va meglio dell'R520 perche' Doom gira meglio", sarebbe banale ed errato. Parlo solo dei filtri, che a quanto pare vengono notati solo quando in Far Cry causano un tracollo prestazionale e non quando "stranamente e controtendenza" causano il fenomeno opposto.
per quanto riguarda Doom la cosa si spiega facilmente con la scarsa, al momento, ottimizzazione dei driver ATi, relativamente all'R520 (che, in virtù della possibilità di programmare il funzionamento del dispatch processor, permette un'ottimizzazione per singolo titolo). Allo stato attuale manca l'ottimizzazione della gestione del flusso di dati che permette di ottimizzare le operazioni interne al chip; questo, soprattutto in titoli, come Doom, che adottano una particolare tipologia di rendering (prima solo calcoli relativi all'asse z, per poi procedere al normale rendering, operazione che favorisce i chip NV che hanno la capacità di raddoppiare l'output in presenza di sole z o stencil ops) non permette di limitare il calo di prestazioni con filtri attivi e questo consente a G70, che già in Doom è avvantaggiato per come l'engine grafico del gioco è stato programmato, di mantenere il vantaggio anche con i filtri (vantaggio che, addirittura, aumenta leggermente con l'applicazione dell'AA, con cui, in modalità 4x, le rop's di G70 elaborano 128 samples contro i 64 di R520).
A dimostrazione di quanto sia ancora in erba il lavoro di ottimizzazione, soprattutto a risoluzioni a lte e con filtri attivi, è di qualche giorno fa questa notizia
http://www.hexus.net/content/item.php?item=3668
Come vedi, riprogrammando il dispatch processor e il memory controller, con AA si può aumentare foino al 35% in Doom3 e del 16% in Riddick
Stai cercando di affermare che se qualcuno scrive qualcosa di logico che riguarda la grafica 3d, io non la capisco. Possibile :)
Fatto sta che quello che hai scritto non ha senso, te lo ha fatto notare DJLode, Yossarian, e te l'ho fatto notare io. Ma probabilmente nessuno di noi tre ha la tua preparazione in merito... Che ridere. Ti lascio l'ultima parola sapientone, altrimenti non la smetti piu' e ricominci con gli insulti.
Senti, io ho parlato di una cosa e voi avete risposto con un'altra, tu come al solito sei arrogante e poco ti interessa il capire dove sia o se ci sia un malinteso. Sempre la stessa storia con te. Assurdo.
Fortunatamente c'e' chi riesce a capire e spiegare.
Senti, io ho parlato di una cosa e voi avete risposto con un'altra, tu come al solito sei arrogante e poco ti interessa il capire dove sia o se ci sia un malinteso. Sempre la stessa storia con te. Assurdo.
Fortunatamente c'e' chi riesce a capire e spiegare.
Ecco cominciano gli insulti puntuali come un orologio svizzero :)
Poco importa se in tre ti abbiamo spiegato la stessa cosa e non la capisci, l'arrogante sono io... bah. Strano, quando ci sei di mezzo tu che io e altri non capiamo mai quello che scrivi :)
Non ti si puo' mai dare torto che piangi e la butti sul personale. Passo e chiudo, che piagnone.
per quanto riguarda Doom la cosa si spiega facilmente con la scarsa, al momento, ottimizzazione dei driver ATi, relativamente all'R520 (che, in virtù della possibilità di programmare il funzionamento del dispatch processor, permette un'ottimizzazione per singolo titolo). Allo stato attuale manca l'ottimizzazione della gestione del flusso di dati che permette di ottimizzare le operazioni interne al chip; questo, soprattutto in titoli, come Doom, che adottano una particolare tipologia di rendering (prima solo calcoli relativi all'asse z, per poi procedere al normale rendering, operazione che favorisce i chip NV che hanno la capacità di raddoppiare l'output in presenza di sole z o stencil ops) non permette di limitare il calo di prestazioni con filtri attivi e questo consente a G70, che già in Doom è avvantaggiato per come l'engine grafico del gioco è stato programmato, di mantenere il vantaggio anche con i filtri (vantaggio che, addirittura, aumenta leggermente con l'applicazione dell'AA, con cui, in modalità 4x, le rop's di G70 elaborano 128 samples contro i 64 di R520).
A dimostrazione di quanto sia ancora in erba il lavoro di ottimizzazione, soprattutto a risoluzioni a lte e con filtri attivi, è di qualche giorno fa questa notizia
http://www.hexus.net/content/item.php?item=3668
Come vedi, riprogrammando il dispatch processor e il memory controller, con AA si può aumentare foino al 35% in Doom3 e del 16% in Riddick
I risultati di Far Cry che mostrano quel callo decisamente fuori norma, potrebbero essere risolti anch'essi via driver?? Oppure c'e' qualcosa in questo titolo che impedisce ad NV di applicare i filtri come si deve??(tipo Doom o CoR per ATI)
In ogni caso l'incremento del 35% in Doom dovrebbe mandarlo addirittura avanti ad Nvidia, ma il 16% (o magari un po' di piu' in futuro) per CoR non compensera' mai il 64% attuale. Sarei veramente curioso di capire cosa crei un simile gap in questo titolo.
Ecco cominciano gli insulti puntuali come un orologio svizzero :)
Poco importa se in tre ti abbiamo spiegato la stessa cosa e non la capisci, l'arrogante sono io... bah. Strano, quando ci sei di mezzo tu che io e altri non capiamo mai quello che scrivi :)
Non ti si puo' mai dare torto che piangi e la butti sul personale. Passo e chiudo, che piagnone.
Ma non avevi passato e chiuso prima?? siamo a due vediamo quante altre volte passi e chiudi.
Ma non avevi passato e chiuso prima?? siamo a due vediamo quante altre volte passi e chiudi.
Basta...nessun reply l'uno all'altro... Grazie :O
yossarian
22-10-2005, 16:16
I risultati di Far Cry che mostrano quel callo decisamente fuori norma, potrebbero essere risolti anch'essi via driver?? Oppure c'e' qualcosa in questo titolo che impedisce ad NV di applicare i filtri come si deve??(tipo Doom o CoR per ATI)
In ogni caso l'incremento del 35% in Doom dovrebbe mandarlo addirittura avanti ad Nvidia, ma il 16% (o magari un po' di piu' in futuro) per CoR non compensera' mai il 64% attuale. Sarei veramente curioso di capire cosa crei un simile gap in questo titolo.
può darsi che si possa fare qualcosa via driver. Il vantaggio di R520 è che sia il memory controller che il dispatch processor sono programmabili via driver; e poichè sono loro due che gestiscono tutto il lavoro del chip, è facile immaginare che si possano adattare le operazioni di scheduling e il transito dei dati in modo tale da adattarli al meglio ad ogni singola applicazione. Questa elevata programmabilità non ha precedenti nella storia dei chip grafici. In un chip di tipo tradizionale, quello che si può fare è agire sul "traduttore", in modo tale che si cerchi di riorganizzare l'input in modo consono all'architettura del chip ma non è possibile agire a livello di organizzazione delle priorità delle operazioni interne al chip e neppure è possibile cambiare le priorità degli accessi in memoria.
Ragazzi ho dato un'occhiata alla rece di anandtech su FEAR.
Mi pare che le nuove ATI con questo gioco siano indietro rispetto alle NVIDIA anche con i filtri attivati.
Si tratta di un gioco pro-Nvidia? Driver poco ottimizzati? Rece inattendibile?
Il caso di FEAR mi pare importante essendo il gioco che forse al momento attuale stressa maggiormente una scheda video ed è il nuovo punto di riferimento per la grafica 3d.
Se devo valutare da quei bench non ci sarebbero dubbi, è ancora meglio NVIDIA...
Ragazzi ho dato un'occhiata alla rece di anandtech su FEAR.
Mi pare che le nuove ATI con questo gioco siano indietro rispetto alle NVIDIA anche con i filtri attivati.
Mi pare che invece siano praticamente allineate alle alte risoluzioni:
http://images.anandtech.com/reviews/video/fear/fear2.jpg
Stando a quell'articolo le ATi in F.E.A.R. non sono indietro coi filtri attivati, ma con le soft shadows.
andreamarra
23-10-2005, 13:06
mah, io per fear aspetterei altre rece.
Prima erano uscite rece dove l'R520 sembrava una scheda della madaonna e la G70 andava a meno della metà.
Poi questo.
Io aspetterei perchè non è chiaro il tutto.
In più, vediamo se è un gioco pro-nvidia e se con i vari fix mensili incrementeranno le prestazioni in fear come per d3, ss2 e riddick.
Free Gordon
23-10-2005, 13:13
Ragazzi ho dato un'occhiata alla rece di anandtech su FEAR.
Mi pare che le nuove ATI con questo gioco siano indietro rispetto alle NVIDIA anche con i filtri attivati.
Si tratta di un gioco pro-Nvidia? Driver poco ottimizzati? Rece inattendibile?
Il caso di FEAR mi pare importante essendo il gioco che forse al momento attuale stressa maggiormente una scheda video ed è il nuovo punto di riferimento per la grafica 3d.
Se devo valutare da quei bench non ci sarebbero dubbi, è ancora meglio NVIDIA...
E' un gioco "the way it's meant to be played" anche questo, come il 70% dei giochi in commercio.. :sofico: ma non credo che c'entri nei result di Anandtech.
Da quella rece, con filtri a palla, va più o meno uguale sulle due schede (GTX e XT).
Abbiamo gia' commentato quei risultati di FEAR, obbiettivamente dal nuovo R520 ci si potrebbe aspettare di meglio, ma giustamente aspettiamo che maturi un po'.
Tanto, come ho gia' fatto notare varie volte, per i nuovi engine, non basteranno nè il G70 nè l'R520 per giocare alle altre risoluzioni con filtri attivi. Dunque, speriamo nella prossima generazione.
Per andreamarra che poco fa diceva di come l'R520 sembrasse il doppio piu' veloce di un G70: Forse ti sei lasciato un po' ingannare dai problemi relativi all'implemantazione dei filtri alle alte risoluzioni con un titolo e dai bench di confronto con SLI che per la maggior pare sono CPU limited.
Se controlli bene un SLI-GTX confrontato con la X1800XT a 1920*1440, parte con un vantaggio minimo del 30%, fino ad arrivare quasi al 100%(95).
andreamarra
24-10-2005, 01:00
no io ho detto semplicemente che in vecchi test di fear che andavano in giro l'R520 era esageratamente avanti, forse il doppio, rispetto a G70.
Dicendo appunto che mi sembrava quantomeno strano, e infatti i test che andavano in giro con quei valori non li avrei presi in considerazione perchè troppo esagerati.
Questo di adesso mi pare ovviamente più equo.
Solo che ovviamente, trattandosi sempre di bench di un sito ne vorrei vedere altri per capire se anche in altre review si afferma la stessa cosa.
Tutto qui :)
yossarian
24-10-2005, 01:08
no io ho detto semplicemente che in vecchi test di fear che andavano in giro l'R520 era esageratamente avanti, forse il doppio, rispetto a G70.
Dicendo appunto che mi sembrava quantomeno strano, e infatti i test che andavano in giro con quei valori non li avrei presi in considerazione perchè troppo esagerati.
Questo di adesso mi pare ovviamente più equo.
Solo che ovviamente, trattandosi sempre di bench di un sito ne vorrei vedere altri per capire se anche in altre review si afferma la stessa cosa.
Tutto qui :)
forse dipende anche dal fatto che prima faceva parte del programma GITG di ATi, mentre ora è entrato a far parte di quallo TWIMTBP di nVIDIA :sofico:
andreamarra
24-10-2005, 01:19
forse dipende anche dal fatto che prima faceva parte del programma GITG di ATi, mentre ora è entrato a far parte di quallo TWIMTBP di nVIDIA :sofico:
appunto... :D
mi piacerebbero dei test su fear su diversi siti, in modo da avere una idea sulle probabili prestazioni dei due chip.
Poi può anche essere che quello dove cìè sostanziale equilibrio se non qualcosa in più su g70 sia attendibilissimo.
forse dipende anche dal fatto che prima faceva parte del programma GITG di ATi, mentre ora è entrato a far parte di quallo TWIMTBP di nVIDIA :sofico:
Secondo te ora sull'R520 va peggio di quanto non andasse prima del passaggio di "ala protettiva" o si sono solo limitati a perfezionarne il funzionamento su Nvidia??
Intendo dire.. c'è stato un boicottaggio (fatto di tagli prestazionali) prima da un lato, poi dall'altro o semplicemente prima si e' sviluppato puntando su un chip, ed ora sull'altro (in maniera "onesta")??
Quake 4:
http://www.firingsquad.com/hardware/quake_4_high-end_performance/default.asp
Vediamo se qualcuno ha qualcosa da dire ;)
Grandi prestazioni su quake4!!! Se nvidia non fa qualcosa, mi sa che la prenderò pure io quando uscirà...
In ogni caso la situazione "disponibilità e prezzo" è dolente anche a parere di firing squad.
quote
Now that’s ATI’s demonstrated that they can deliver a faster OpenGL RADEON card, the onus is now on them to deliver boards to retail. The RADEON X1800 XL still hasn’t shown up on Price Watch. Both ZipZoomFly and Newegg carry X1800 XL boards from ATI and Sapphire (with prices starting as low as $380), but this is still woefully inadequate to compete with the avalanche of GeForce 7800 GT cards that can be found on the market. As we showed you earlier this week in the news, the GeForce 7800 GT can be easily purchased online with a free copy of Call of Duty 2 for as low as $340. ATI’s got to get more boards on the market in order for prices to fall.
Meanwhile, the RADEON X1800 XT can’t be purchased at retail yet. ATI has stated availability of November 5th. That’s about 2 weeks from now. Until ATI is actually able to deliver a product on time, we’ve got to take this date with a grain of salt. Sure, it’s possible ATI may be able to deliver on their promises this time, but given their track record it’s prudent to be skeptical. If ATI can deliver though, they’ve got an excellent chance at regaining mindshare among enthusiasts.
I bravi redattori di questo sito mettono in risalto i miei stessi dubbi in merito all'uscita di questa scheda per il 5 nov. Anche secondo loro ,ATI è tutt'altro che affidabile quando si tratta di dare una data precisa di lancio sul mercato retail.
E fanno lo stesso appunto anche sul prezzo di vendita...
Sammy.73
24-10-2005, 12:04
Quake 4:
http://www.firingsquad.com/hardware/quake_4_high-end_performance/default.asp
Vediamo se qualcuno ha qualcosa da dire ;)
:eek:
Quake 4:
http://www.firingsquad.com/hardware/quake_4_high-end_performance/default.asp
Vediamo se qualcuno ha qualcosa da dire ;)
che dire ?
che le nuove Radeon fanno paura, aspettiamo l'affinamento dei driver, qua di potenza nascosta ce n'è davvero tanta :)
che dire ?
che le nuove Radeon fanno paura, aspettiamo l'affinamento dei driver, qua di potenza nascosta ce n'è davvero tanta :)
Pure le schede sono molto nascoste :D
Sammy.73
24-10-2005, 12:37
Pure le schede sono molto nascoste :D
come darti torto? :)
ma tanto non la devo comprare (almeno non è in previsione :D )
Io invece un pensierino lo sto facendo... spero di trovarne una per natale
andreamarra
24-10-2005, 13:59
Quake 4:
http://www.firingsquad.com/hardware/quake_4_high-end_performance/default.asp
Vediamo se qualcuno ha qualcosa da dire ;)
ma sono test reali quelli di quake4, o sono test basati sulla probabilità di aumento prestazioni?
In ogni caso non capisco, i fix contenuti nei driver riuscirebbero a dare aumenti vertiginosi perchè viene riprogrammato al massimo il dispatch e soprattutto il controller memory. Eliminando colli di bottiglia in operazioni in cui il controller non riesce al meglio a gestire i flussi di dati.
Poi, non capisco l'incremento anche per la serie R420, che non dispone di un controller memory configurabile 100% via driver. Corregetemi se sbaglio.
Poi c'è da chiarire se questi aumenti li ritroveremo solo in giochi con il motore di doom3 (anche se anche SS2 e Riddick hanno aumenti sensibili, 16% in più), o se questi fix per il controller memory verranno estesi anche a giochi dove l'architettura ati è messa meglio o allo stesso livello di nvidia.
Perchè se gli ingegneri cominciano a dare boost del genere anche per tutti i giochi usciti e in uscita sarebbe una gran bella cosa!
andreamarra
24-10-2005, 14:02
Pure le schede sono molto nascoste :D
:D
per fortuna la XL è in giro anche in Italia, il prezzo per essere appena arrivata sul mercato su certi shop non è neanche troppo male. Si parla ovviamente di una cinquantina di euro in più di una GTX. Speriamo il prezzo scenda.
Da verificare a questo punto alcune cose: se la XL (da quello che leggo in giro non ci sono problemi) riesce ad arrivare in OC vicino alla XT (ovviamente mi sa che occorrerà mettere altro dissi), e se questi fix verranno estesi ad altri giochi... vince per me la concorrenza con la GT/GTX.
Ma ci sono i SE di mezzo, vediamo un pò :)
ma sono test reali quelli di quake4, o sono test basati sulla probabilità di aumento prestazioni?
Reali.
Poi, non capisco l'incremento anche per la serie R420, che non dispone di un controller memory configurabile 100% via driver. Corregetemi se sbaglio.
Il memory controller della serie R420 è parzialmente programmabile e hanno visto che l'incremento poteva essere aggiunto anche lì. Anche R3x0 e derivati mi sa che abbiano il controller parzialmente programmabile, ricordo di una correzione con non so quale gioco che parlava di ottimizzazione della gestione della memoria.
Poi c'è da chiarire se questi aumenti li ritroveremo solo in giochi con il motore di doom3 (anche se anche SS2 e Riddick hanno aumenti sensibili, 16% in più), o se questi fix per il controller memory verranno estesi anche a giochi dove l'architettura ati è messa meglio o allo stesso livello di nvidia.
Essendo il MC programmabile al 100% per ogni singolo gioco, per ora è stato ottimizzato uno dei due motori Open Gl disponibili e cioè quello di Doom3.
Ci vuole un attimo di pazienza, l'affinamento dei driver è solo all'inizio, per la serie X1x00 ovviamente :)
Magari ci sono giochi che avranno aumenti simili, alcuni ridotti altri per niente.
Perchè se gli ingegneri cominciano a dare boost del genere anche per tutti i giochi usciti e in uscita sarebbe una gran bella cosa!
Questo è sicuramente impensabile :)
picard88
24-10-2005, 14:32
Quake 4:
http://www.firingsquad.com/hardware/quake_4_high-end_performance/default.asp
Vediamo se qualcuno ha qualcosa da dire ;)
:sbav: LA VOGLIOOO!!!
leoneazzurro
24-10-2005, 14:39
Ehm.. R420 non guadagna nulla da quel patch... nei test di Firingsquad la X800XL in pratica non mostra miglioramenti con il nuovo driver (anzi qualcosina peggiora - i numeri "postpatch" sono peggiori dei numeri "prepatch").
Una cosa c'è da dire su quei test, però: ATI stessa diceva che quel patch era specifico per la X1800 e portava guadagni solo nel caso di AA abilitato.
Qui la prima review della patch:
http://www.hexus.net/content/item.php?item=3668
dove si vede appunto che con AA disabilitato non ci sono guadagni prestazionali.
Ed infatti, anche se non è scritto in caratteri cubitali, i risultati di Doom 3 sono presi con AA4x abilitato. Quello che è strano è che la X1800 sembra essere più veloce anche con AA disabilitato, il che IMHO è un pò strano.
andreamarra
24-10-2005, 14:54
Questo è sicuramente impensabile :)
si, non indetevo incrementi di oltre il 30% in tutti i giochi :D
però un incremento anche del 10% in titoli dove già ati è messa bene non sarebbe malaccio :D!
andreamarra
24-10-2005, 15:01
Ehm.. R420 non guadagna nulla da quel patch... nei test di Firingsquad la X800XL in pratica non mostra miglioramenti con il nuovo driver (anzi qualcosina peggiora - i numeri "postpatch" sono peggiori dei numeri "prepatch").
Una cosa c'è da dire su quei test, però: ATI stessa diceva che quel patch era specifico per la X1800 e portava guadagni solo nel caso di AA abilitato.
Qui la prima review della patch:
http://www.hexus.net/content/item.php?item=3668
dove si vede appunto che con AA disabilitato non ci sono guadagni prestazionali.
Ed infatti, anche se non è scritto in caratteri cubitali, i risultati di Doom 3 sono presi con AA4x abilitato. Quello che è strano è che la X1800 sembra essere più veloce anche con AA disabilitato, il che IMHO è un pò strano.
cazzarola, nel vedere i test non ho fatto caso che c'era anche la X800 senza patch :D
mi sembrava ci fosse scritto, come spesso mi capita, X1800 e non X800... mi capita spesso sto errore in lettura :D
in effetti perde qualcosina.
a sto punto mi chiedo: ma i futuri catalyst verranno rilasciati in doppia copia (una versione per X1800 con i fix) e una senza nessun fix per le altre radeon?
Poi, domande del menga :D: questi fix si andranno "accumulando" nelle varie release dei driver per R520, no? So che è una domanda idiota, ma se ad esempio nei 5.11 c'è il fix per due giochi, nei 5.12 ci saranno ugualmente i due fix già usciti con i più (se li fanno) altri?
strano quel fatto dell'AA, vediamo un pochetto :D
leoneazzurro
24-10-2005, 15:08
No, il fix sicuramente verrà integrato nel path "X1800" dei prossimi catalyst. IMHO il fix è stato rilasciato subito anzichè con i catalyst 5.11 per far figurare bene le schede R5X0 anche nelle primissime review di Quake 4.
andreamarra
24-10-2005, 15:41
quindi quando usciranno i driver 5.11 se ci sarà una X1800XL/XT riconosciuta allora verranno anche inseriti i fix necessari?
Ci siamo sul fatto che i fix siano stati rilasciati subito perchè la scheda è appena uscita e occorre dare un incentivo alla vendita con bench più pompati.
Io più che altro faccio una domanda, idiota :D: nei prossimi 5.11 ci saranno quei fix fino ad ora usciti... nei 5.12 qualora venissero fatti altri fix per altri giochi, si verrebbero a sommare a quelli usciti nei 5.11 vero?
Quindi quando poi installo i 5.12 mi ritrovo con tutti i fix usciti fino a quel momento?
Qualcuno sa quanto sia grande la patch??
andreamarra
24-10-2005, 15:52
Qualcuno sa quanto sia grande la patch??
vifani ha detto che aveva quello per doom3 che gli avevano spedito.
Bisognerebbe vedere se ci legge.... :D :fiufiu:
leoneazzurro
24-10-2005, 15:56
quindi quando usciranno i driver 5.11 se ci sarà una X1800XL/XT riconosciuta allora verranno anche inseriti i fix necessari?
Ci siamo sul fatto che i fix siano stati rilasciati subito perchè la scheda è appena uscita e occorre dare un incentivo alla vendita con bench più pompati.
Io più che altro faccio una domanda, idiota :D: nei prossimi 5.11 ci saranno quei fix fino ad ora usciti... nei 5.12 qualora venissero fatti altri fix per altri giochi, si verrebbero a sommare a quelli usciti nei 5.11 vero?
Quindi quando poi installo i 5.12 mi ritrovo con tutti i fix usciti fino a quel momento?
Si, in genere è così per tutti i driver (a meno di riscritture sostanziali).
vifani ha detto che aveva quello per doom3 che gli avevano spedito.
Bisognerebbe vedere se ci legge.... :D :fiufiu:
C'e' un simboletto tipo quello di batman da proiettargli sul desktop??
Una cosa riguardo le prestazioni di Quake4.
In ultraquality la XL non supera mai la GT (anzi e' sensibilmente arretrata, tra il 10 ed il 20%), mentre la XT distanzia parecchio la GTX, ma distanzia parecchio tutte le altre soluzioni in modo anomalo. Questo probabilmente e' dettato dal quantitativo di memoria onboard. Bisognerebbe vedere le altre tre soluzioni come si comporterebbero con 512Mb.
yossarian
24-10-2005, 15:59
Secondo te ora sull'R520 va peggio di quanto non andasse prima del passaggio di "ala protettiva" o si sono solo limitati a perfezionarne il funzionamento su Nvidia??
Intendo dire.. c'è stato un boicottaggio (fatto di tagli prestazionali) prima da un lato, poi dall'altro o semplicemente prima si e' sviluppato puntando su un chip, ed ora sull'altro (in maniera "onesta")??
la cosa ti meraviglierebbe? Dopo Doom3 e HL2 ritagliati a misura per NV30 e R300 rispettivamente, non mi meraviglio più di niente.
D'altro canto, i grafici esibiti da ATi, prima del passaggio da un programma all'altro, erano reali e mostravano R520 andare più del doppio rispetto a G70. Anche quelli di adesso sono reali e, anche se la situazione non si è ribaltata, nel senso che G70 non è molto più veloce, però, innegabilmente è in vantaggio.
Per dirne una, già solo passando da fp32 a fp16, G70 guadagna fino al 20%; e questa è solo una delle ottimizzazioni che si possono fare senza stravolgere il motore grafico e in un periodo di tempo ridotto
la cosa ti meraviglierebbe? Dopo Doom3 e HL2 ritagliati a misura per NV30 e R300 rispettivamente, non mi meraviglio più di niente.
D'altro canto, i grafici esibiti da ATi, prima del passaggio da un programma all'altro, erano reali e mostravano R520 andare più del doppio rispetto a G70. Anche quelli di adesso sono reali e, anche se la situazione non si è ribaltata, nel senso che G70 non è molto più veloce, però, innegabilmente è in vantaggio.
Per dirne una, già solo passando da fp32 a fp16, G70 guadagna fino al 20%; e questa è solo una delle ottimizzazioni che si possono fare senza stravolgere il motore grafico e in un periodo di tempo ridotto
No, non mi meraviglierebbe, mi meraviglia come riescano ancora a mantenere una compatibilita' :ciapet: .
Comuqnue, siccome non ho visto i precedenti grafici di ATI, mi chiedevo se vi fosse stato un decremento prestazionale per queste schede oppure vi sia stato solo un perfezionamento ed afinamento per nVidia.
Altro punto, ovviamente non si puo' passare a FP16 per tutto, si avrebbe un degrado visivo notevole.
yossarian
24-10-2005, 16:16
Ehm.. R420 non guadagna nulla da quel patch... nei test di Firingsquad la X800XL in pratica non mostra miglioramenti con il nuovo driver (anzi qualcosina peggiora - i numeri "postpatch" sono peggiori dei numeri "prepatch").
Una cosa c'è da dire su quei test, però: ATI stessa diceva che quel patch era specifico per la X1800 e portava guadagni solo nel caso di AA abilitato.
Qui la prima review della patch:
http://www.hexus.net/content/item.php?item=3668
dove si vede appunto che con AA disabilitato non ci sono guadagni prestazionali.
Ed infatti, anche se non è scritto in caratteri cubitali, i risultati di Doom 3 sono presi con AA4x abilitato. Quello che è strano è che la X1800 sembra essere più veloce anche con AA disabilitato, il che IMHO è un pò strano.
non è molto strano; la patch migliora la gestione del flusso di dati e l'accesso in mamoria; questo significa che si possono ottenere incrementi in ogni situazione in cui la gestione di questi due elementi non sia ottimizzata. Ovviamente, più si sale di risoluzione (o, ancor di più, attivando i filtri), più il vantaggio di una corretta gestione dei dati aumenta. Infatti il guadagno massimo, rispetto alla situazione pre-patch, si ottiene con AA+AF alle risoluzioni più alte.
yossarian
24-10-2005, 16:31
quindi quando usciranno i driver 5.11 se ci sarà una X1800XL/XT riconosciuta allora verranno anche inseriti i fix necessari?
Ci siamo sul fatto che i fix siano stati rilasciati subito perchè la scheda è appena uscita e occorre dare un incentivo alla vendita con bench più pompati.
Io più che altro faccio una domanda, idiota :D: nei prossimi 5.11 ci saranno quei fix fino ad ora usciti... nei 5.12 qualora venissero fatti altri fix per altri giochi, si verrebbero a sommare a quelli usciti nei 5.11 vero?
Quindi quando poi installo i 5.12 mi ritrovo con tutti i fix usciti fino a quel momento?
R520 è molto differente da R3x0/R4x0 e da tutto ciò che l'ha preceduto. Per questo, quando è uscito, ho avvertito che il lavoro di ottimizzazione necessario per questo chip, sarebbe stato molto particolare e va fatto a parte.
leoneazzurro
24-10-2005, 16:35
non è molto strano; la patch migliora la gestione del flusso di dati e l'accesso in mamoria; questo significa che si possono ottenere incrementi in ogni situazione in cui la gestione di questi due elementi non sia ottimizzata. Ovviamente, più si sale di risoluzione (o, ancor di più, attivando i filtri), più il vantaggio di una corretta gestione dei dati aumenta. Infatti il guadagno massimo, rispetto alla situazione pre-patch, si ottiene con AA+AF alle risoluzioni più alte.
Si, mi riferivo al fatto che da un'altra analisi (quella di hexus) sembrava risultare che senza AA non cambiava nulla. Quindi, o han preso male i numeri gli uni oppure gli altri :D O non l'hanno testato proprio senza AA. Oppure semplicemente la storia del rimappaggio della RAM per l'AA (a detta della stessa ATI) è una bufala e semplicemente il "fix" non è altro che un driver estremamente ottimizzato per X1800 ed open GL.
yossarian
24-10-2005, 16:38
Si, mi riferivo al fatto che da un'altra analisi (quella di hexus) sembrava risultare che senza AA non cambiava nulla. Quindi, o han preso male i numeri gli uni oppure gli altri :D O non l'hanno testato proprio senza AA. Oppure semplicemente la storia del rimappaggio della RAM per l'AA (a detta della stessa ATI) è una bufala e semplicemente il "fix" non è altro che un driver estremamente ottimizzato per X1800 ed open GL.
invece io mi meravigliavo del contrario, ossia del fatto che il rimappaggio fosse necessario solo relativamente all'AA, considerado che uno degli aspetti peculiari che rende i chip NV superiori in OGL è, invece, la gestione delle operazioni di texturing.
R520 è molto differente da R3x0/R4x0 e da tutto ciò che l'ha preceduto. Per questo, quando è uscito, ho avvertito che il lavoro di ottimizzazione necessario per questo chip, sarebbe stato molto particolare e va fatto a parte.
Una cosa mi ronza per la testa; se quest'architettura e' in laboratorio da anni, (da prima che uscisse l'R4x0) ed ha subito cambiamenti ed affinamenti, dovrebbe esservi stato un percorso simile anche per il relativo SW, che invece sembrerebbe essere molto arretrato.
leoneazzurro
24-10-2005, 16:47
invece io mi meravigliavo del contrario, ossia del fatto che il rimappaggio fosse necessario solo relativamente all'AA, considerado che uno degli aspetti peculiari che rende i chip NV superiori in OGL è, invece, la gestione delle operazioni di texturing.
In effetti anche io l'ho pensato. ma visto che erano tanto sicuri su hexus...
A Rys sarà proprio passato di mente.
andreamarra
24-10-2005, 16:52
Una cosa mi ronza per la testa; se quest'architettura e' in laboratorio da anni, (da prima che uscisse l'R4x0) ed ha subito cambiamenti ed affinamenti, dovrebbe esservi stato un percorso simile anche per il relativo SW, che invece sembrerebbe essere molto arretrato.
in che senso il software sembrerebbe molto arretrato?
in che senso il software sembrerebbe molto arretrato?
Mi sembra che queste patch "puzzino" un po', anche per quanto si sta dicendo qui sopra.
yossarian
24-10-2005, 18:37
Una cosa mi ronza per la testa; se quest'architettura e' in laboratorio da anni, (da prima che uscisse l'R4x0) ed ha subito cambiamenti ed affinamenti, dovrebbe esservi stato un percorso simile anche per il relativo SW, che invece sembrerebbe essere molto arretrato.
un conto è un'ottimizzazione generica; ben altra cosa quella specifica per ogni singola applicazione. Se devo ottimizzare per Q4 non posso farlo se non ho il gioco a disposizione. Discorso analogo per qualunque altra applicazione.
Inoltre, anche per le applicazioni generiche, il SW si evolve, esattamente come l'HW, per cui le ottimizzazioni vanno fatte di volta in volta.
Infine, il progetto risale a circa tre anni fa (ma tempi lunghi sono comuni a tutte le nuove architetture e per nuove intendo non i refresh di quelle precedenti), ma tre anni fa il chip che si sarebbe potuto realizzare non era uguale a quello attuale, questo eprchè il processo produttivo non permetteva l'integrazione di circa 330 mln di transistor. Quindi, un conto è un progetto di architettura generico, un conto è un progetto relativo ad un'architettura ben precisa, con specifiche già definite.
un conto è un'ottimizzazione generica; ben altra cosa quella specifica per ogni singola applicazione. Se devo ottimizzare per Q4 non posso farlo se non ho il gioco a disposizione. Discorso analogo per qualunque altra applicazione.
Inoltre, anche per le applicazioni generiche, il SW si evolve, esattamente come l'HW, per cui le ottimizzazioni vanno fatte di volta in volta.
Infine, il progetto risale a circa tre anni fa (ma tempi lunghi sono comuni a tutte le nuove architetture e per nuove intendo non i refresh di quelle precedenti), ma tre anni fa il chip che si sarebbe potuto realizzare non era uguale a quello attuale, questo eprchè il processo produttivo non permetteva l'integrazione di circa 330 mln di transistor. Quindi, un conto è un progetto di architettura generico, un conto è un progetto relativo ad un'architettura ben precisa, con specifiche già definite.
Questo e' chiaro, mi riferivo un po' piu' ad una mia impressione che riguarda sia l'OGL che.. un po' tutto. Probabilmente e', appunto, solo un'impresione. :)
Altra cosa.. Prima ho chiesto quanto pesassero in trmini di Kb queste patch perche' non vorrei che dovessimo scaricare driver enormi destionati ad ingrandirsi man mano che escono nuovi adattamenti. Potrebbero integrarli nei giochi stessi.
Ora mi quoto da solo, perche' prima ti ho chiesto cosa ne pensassi riguardo il discorso di FEAR ed ho una certa curiosita' al riguardo.
No, non mi meraviglierebbe, mi meraviglia come riescano ancora a mantenere una compatibilita' .
Comuqnue, siccome non ho visto i precedenti grafici di ATI, mi chiedevo se vi fosse stato un decremento prestazionale per queste schede oppure vi sia stato solo un perfezionamento ed afinamento per nVidia (dopo il passaggio di "proprietà").
Altro punto, ovviamente non si puo' passare a FP16 per tutto, si avrebbe un degrado visivo notevole.
yossarian
24-10-2005, 20:03
Questo e' chiaro, mi riferivo un po' piu' ad una mia impressione che riguarda sia l'OGL che.. un po' tutto. Probabilmente e', appunto, solo un'impresione. :)
Altra cosa.. Prima ho chiesto quanto pesassero in trmini di Kb queste patch perche' non vorrei che dovessimo scaricare driver enormi destionati ad ingrandirsi man mano che escono nuovi adattamenti. Potrebbero integrarli nei giochi stessi.
Ora mi quoto da solo, perche' prima ti ho chiesto cosa ne pensassi riguardo il discorso di FEAR ed ho una certa curiosita' al riguardo.
ho trovato una recensione in cui c'è il risultato a 1600x1200 con AA e AF (dove, per altro, è ancora in vantaggio ATi); il risultato era 32 a 24 per la XT, mentre adesso è di 28 a 26 (sempre per la XT). Quindi sembrerebbe che un po' sia salita una e un po' sia scesa l'altra.
Per quanto riguarda fp16, tra le note fornite da nVIDIA agli sviluppatori, c'è la raccomandazione, dovunque sia possibile, di scegliere la versione di ps più bassa possibile; quindi fp16 è preferibile a fp32 e fx12 è preferibile a fp16.
andreamarra
25-10-2005, 01:06
C'e' un simboletto tipo quello di batman da proiettargli sul desktop??
Una cosa riguardo le prestazioni di Quake4.
In ultraquality la XL non supera mai la GT (anzi e' sensibilmente arretrata, tra il 10 ed il 20%), mentre la XT distanzia parecchio la GTX, ma distanzia parecchio tutte le altre soluzioni in modo anomalo. Questo probabilmente e' dettato dal quantitativo di memoria onboard. Bisognerebbe vedere le altre tre soluzioni come si comporterebbero con 512Mb.
:D
secondo me la prova più semplice da fare è questa: prendere una XL, overvoltarla come la XT e OC fino alle frequenze dela XT (pare che ce la fanno, ben dissipate ad aria).
Così si capisce se le prestazioni superiori di XT sono dovute in questa situazione Ultra al doppio quantitativo della ram.
IL fatto è che questo R520 per come è strutturato, ha incrementi notevolissimi di potenza quanto più la si clocca. La nvidia in proporzione non ha gli stessi guadagni. Perchè l'R520 è studiato per processare dei dati di piccole porzioni mentre il G70 macina stringhe più lunghe (detta alla carlona :D).
ovviamente, da vedere un pò se gli incrementi sono davvero quelli proposti da vari siti.
andreamarra
25-10-2005, 01:15
Per quanto riguarda fp16, tra le note fornite da nVIDIA agli sviluppatori, c'è la raccomandazione, dovunque sia possibile, di scegliere la versione di ps più bassa possibile; quindi fp16 è preferibile a fp32 e fx12 è preferibile a fp16.
e quindi quelli della ati potevano dire "fate in modo che sia difficilissimo usare il fp16". In modo da mettere sotto nvidia.
E noi che ci facciamo le pippe mentali sulle prestazioni in un gioco :D :sofico:!
ho trovato una recensione in cui c'è il risultato a 1600x1200 con AA e AF (dove, per altro, è ancora in vantaggio ATi); il risultato era 32 a 24 per la XT, mentre adesso è di 28 a 26 (sempre per la XT). Quindi sembrerebbe che un po' sia salita una e un po' sia scesa l'altra.
Per quanto riguarda fp16, tra le note fornite da nVIDIA agli sviluppatori, c'è la raccomandazione, dovunque sia possibile, di scegliere la versione di ps più bassa possibile; quindi fp16 è preferibile a fp32 e fx12 è preferibile a fp16.
Puo' essere che abbiano dovuto riscrivere parti di codice "troppo" ATI, onde evitare un'eccessiva penalizzazione di nVidia?? o sono troppo buonista nel pensiero?? :D Sai non mi stupirebbe troppo, visti i casi appunto di Doom3 ed HL2 (tanto per dirne due).
Comunque bisognerebbe vedere l'attendibilita' dei test precedenti fatti da ATI stessa (se non erro) ed il sistema di prova.
:D
secondo me la prova più semplice da fare è questa: prendere una XL, overvoltarla come la XT e OC fino alle frequenze dela XT (pare che ce la fanno, ben dissipate ad aria).
Così si capisce se le prestazioni superiori di XT sono dovute in questa situazione Ultra al doppio quantitativo della ram.
IL fatto è che questo R520 per come è strutturato, ha incrementi notevolissimi di potenza quanto più la si clocca. La nvidia in proporzione non ha gli stessi guadagni. Perchè l'R520 è studiato per processare dei dati di piccole porzioni mentre il G70 macina stringhe più lunghe (detta alla carlona :D).
ovviamente, da vedere un pò se gli incrementi sono davvero quelli proposti da vari siti.
Ma direi proprio di no, la prova restituitrebbe risultati comunque inferiori, al massimo si appaierebbe alla GT. La differenza nel test va da poco meno del 30% fino al 100% (quasi). Le differenze di clock non sono cosi' elevate. E' evidente che in ultra quality entri in gioco qualcos'altro, anche perche' le nVidia diventano notevolemnte piu' competitive della XL.
Ora resterebbe da vedere se, con tutte le schede dotate di 512Mb, avremmo un quadro simile ai precedenti o a favore di nVidia, penso che lo sapremo non appena arriveranno le nuove 7800 da 512Mb.
Non sappiamo nemmeno quanta differenza vi sia tra UQ ed HQ, certo che se e' impercettibile come in Doom3, poco importera', se invece sara' considerevole.. beh, il quadro si ribalta abbastanza a favore di nVidia considerando la XL come cavallo di battaglia ATI (costo/disponibilita'). Quanti con una scheda da 400-500€ si accontendetrebbero di una modalita' grafica inferiore al massimo??
P.S. Non credo che riusciresti a portare le ram della XL a livello di quelle della XT nemmeno con le piu' avanzate tecniche criogeniche. :D :p (beh, forse cosi' sì) :sofico:
yossarian
25-10-2005, 02:12
Puo' essere che abbiano dovuto riscrivere parti di codice "troppo" ATI, onde evitare un'eccessiva penalizzazione di nVidia?? o sono troppo buonista nel pensiero?? :D Sai non mi stupirebbe troppo, visti i casi appunto di Doom3 ed HL2 (tanto per dirne due).
Comunque bisognerebbe vedere l'attendibilita' dei test precedenti fatti da ATI stessa (se non erro) ed il sistema di prova.
i test precedenti li ho trovati su driverheaven, fatti nell'ambito della recensione dell'R520.
A giudicare dai risultati, con NV che ha guadagnato 2 fps (pari all'8%) e ATi che ne ha persi 4 (il 12%), direi che se prima avevano ottimizzato per ATi adesso lo hanno fatto per nVIDIA.
Rimarrebbe da confrontare i due sistemi di prova (trovati, sono praticamente uguali).
Ci sono altre recensioni con il test fatto con F.E.A.R. e in tutte la GTX è in leggero vantaggio senza filtri ma cala vistosamente con i filtri. E comunque, i risultati a 1600x1200 con AA4x e AF16x sono:
37 fps per la XT e 29 per la GTX (su firingsquad)
41 a 31 su xbit labs
32 a 24 su driverheaven
41,6 a 30,4 sul test system di Ibiza
28 a 26 nell'ultima recensione di Anandtech.
Quella di Anand si discosta nettamente dalle altre (in cui ATi è in vantaggio di 8-10 fps); altro evento curioso è che nella rece di Anandtech la XT fa registrare il suo peggior punteggio in assoluto, ma anche la GTX se l'è cavata meglio in altre occasioni.
Per quanto riguarda una tua precedente domanda su R520 e RV530 (l'ho vista solo ora), non è che RV530 sia più avanzato: è diverso, nel senso che ha più potenza di calcolo (il triplo) per singolo gruppo di thread. Cosa comporti questa scelta lo puoi vedere dal grafico relativo ai ps in questa pagine
http://www.xbitlabs.com/articles/video/display/radeon-x1000_27.html
Dove tutte le altre (ps2.0 longer), comprese R520 e G70 (che qui non compaiono), calano più o meno drasticamente, RV530 rimane in linea con la capacità di elaborazione di shader meno complessi.
Diciamo che le cose dovrebbero stare in questo modo
RV515 sta a R520 come RV530 sta a R580.
i test precedenti li ho trovati su driverheaven, fatti nell'ambito della recensione dell'R520.
A giudicare dai risultati, con NV che ha guadagnato 2 fps (pari all'8%) e ATi che ne ha persi 4 (il 12%), direi che se prima avevano ottimizzato per ATi adesso lo hanno fatto per nVIDIA.
Rimarrebbe da confrontare i due sistemi di prova
Mi chiedo fino a che punto il comportamento di queste due case sia legale, mah.. mi ricorda un po' la vicenda AMD-Intel.
yossarian
25-10-2005, 03:06
:D
secondo me la prova più semplice da fare è questa: prendere una XL, overvoltarla come la XT e OC fino alle frequenze dela XT (pare che ce la fanno, ben dissipate ad aria).
Così si capisce se le prestazioni superiori di XT sono dovute in questa situazione Ultra al doppio quantitativo della ram.
IL fatto è che questo R520 per come è strutturato, ha incrementi notevolissimi di potenza quanto più la si clocca. La nvidia in proporzione non ha gli stessi guadagni. Perchè l'R520 è studiato per processare dei dati di piccole porzioni mentre il G70 macina stringhe più lunghe (detta alla carlona :D).
ovviamente, da vedere un pò se gli incrementi sono davvero quelli proposti da vari siti.
vediamo se Catan riesce a fare questa prova. Dai primi test sembra che alzando le frequenze la velocità aumenti molto rapidamente (e anche i punteggi). Le ram pare siano da 1,4, per cui dovrebbero arrivare, senza problemi, a 1400 Mhz.
vediamo se Catan riesce a fare questa prova. Dai primi test sembra che alzando le frequenze la velocità aumenti molto rapidamente (e anche i punteggi). Le ram pare siano da 1,4, per cui dovrebbero arrivare, senza problemi, a 1400 Mhz.
Cioe' l'aumento prestazionale e' superiore a quello delle frequenze?? Trovi che non sia colpa (o merito) della Ram?? in fin dei conti la UQ dovrebbe richiedere proprio 512Mb. Passi che l'R520 sia nato per lavorare a frequenze elevate, ma le differenze sono eccessive, non trovi??
Fosse questione di clock il divario si vedrebbe anche nelle altre prove a rigor di logica.
yossarian
25-10-2005, 03:18
Cioe' l'aumento prestazionale e' superiore a quello delle frequenze?? Trovi che non sia colpa (o merito) della Ram?? in fin dei conti la UQ dovrebbe richiedere proprio 512Mb. Passi che l'R520 sia nato per lavorare a frequenze elevate, ma le differenze sono eccessive, non trovi??
Fosse questione di clock il divario si vedrebbe anche nelle altre prove a rigor di logica.
aumento superiore alle frequenze no; almeno per il momento. Lui ha una XL (quindi con 256 MB di ram); nell'unico test finora eseguito, il 3dmark2005, è partito da un punteggio di 7300 a default e, solo aumentando la frequenza di core a 575 (quindi ram a 500 Mhz e overclock modesto, senza v-mod e con sistema di raffreddamento standard per la XL) è arrivato a 7900 punti (poco più).
Per ora non ha benchato con F.E.A.R. (si stanno facendo alcuni test generici).
Free Gordon
25-10-2005, 03:26
Puo' essere che abbiano dovuto riscrivere parti di codice "troppo" ATI, onde evitare un'eccessiva penalizzazione di nVidia?? o sono troppo buonista nel pensiero?? :D Sai non mi stupirebbe troppo, visti i casi appunto di Doom3 ed HL2 (tanto per dirne due).
Comunque bisognerebbe vedere l'attendibilita' dei test precedenti fatti da ATI stessa (se non erro) ed il sistema di prova.
Mah, la stra-grande maggioranza dei giochi sono ottimizzati per Nvidia... :) i giochi TWIMTBP sono una marea... Nvidia controlla praticamente il mercato. :rolleyes:
Strano che con la demo il gioco avesse dei valori molto più alti per Ati (sia in valore assoluto che in confronto ad Nvidia) e poi a gioco uscito si siano drasticamente livellati.. :mbe:
Parlo di FEAR ovviamente.
aumento superiore alle frequenze no; almeno per il momento. Lui ha una XL (quindi con 256 MB di ram); nell'unico test finora eseguito, il 3dmark2005, è partito da un punteggio di 7300 a default e, solo aumentando la frequenza di core a 575 (quindi ram a 500 Mhz e overclock modesto, senza v-mod e con sistema di raffreddamento standard per la XL) è arrivato a 7900 punti (poco più).
Per ora non ha benchato con F.E.A.R. (si stanno facendo alcuni test generici).
Dunque il divario che c'e' tra la XT e tutte le altre schede con Quake4 in HQ e filtri attivi (specialmente se ad altissime risoluzioni), non potra' con ogni probabilita' essere compensato dalle frequenze. Sarebbe ottimo se riuscisse a fare dei brevi bench proprio con Q4 a tali risoluzioni (prima con filtri e poi senza).
Mah, la stra-grande maggioranza dei giochi sono ottimizzati per Nvidia... :) i giochi TWIMTBP sono una marea... Nvidia controlla praticamente il mercato. :rolleyes:
Strano che con la demo il gioco avesse dei valori molto più alti per Ati (sia in valore assoluto che in confronto ad Nvidia) e poi a gioco uscito si siano drasticamente livellati.. :mbe:
Parlo di FEAR ovviamente.
Sinceramente non mi pare piu' strano di tanto, e' probabile che siano state tolte tutte quelle "finezze" che avvantaggiavoano ATi svantaggiando nVidia dopo il passaggio a quest'ultima. Poi se vi sia stato un vero e proprio "depotenziamento", un "taroccamento" prima o dopo, non lo so, voglio sperare di no.
Comunque siano tutti mattinieri vedo!! :D
freerider79
25-10-2005, 10:05
Ciao a tutti.
Per poter sfruttare appieno questa nuova gpu ati da 0.09 micron occorrerà un dimensionamento hardware notevole e costoso. Minimo un amd 64 4000+ o un p4 3,73ghz e delle ram hyper x o ddr2. Indubbiamente è una gpu che verrà sfruttata con piattaforme di un certo livello quindi aspetterei a acquistarla, pena un cpu limited notevole. Per quanto riguarda la 7800gtx, più commerciabile ora come ora, credo che nuovi driver nvidia riequilibreranno sostanzialmente i test anche se rimane sempre avanti il prodotto ati.
La x1800xt dispone di ben 10gb/s in più di banda passante, 300mhz in più per le memorie ed è dotata di 512mb di memoria video quindi non è un caso che guadagni nell'attivazione filtri.
Per i giochi futuri sicuramente tutto dipenderà dalla programmazione con cui verranno eseguiti quindi è presto per definire un margine così ampio tra le due schede.
i test sono stati eseguiti con giochi che non fruttano ancora le due gpu al 100%.
stilelibero766
25-10-2005, 11:32
Ciao a tutti.
Per poter sfruttare appieno questa nuova gpu ati da 0.09 micron occorrerà un dimensionamento hardware notevole e costoso. Minimo un amd 64 4000+ o un p4 3,73ghz e delle ram hyper x o ddr2. Indubbiamente è una gpu che verrà sfruttata con piattaforme di un certo livello quindi aspetterei a acquistarla, pena un cpu limited notevole. Per quanto riguarda la 7800gtx, più commerciabile ora come ora, credo che nuovi driver nvidia riequilibreranno sostanzialmente i test anche se rimane sempre avanti il prodotto ati.
La x1800xt dispone di ben 10gb/s in più di banda passante, 300mhz in più per le memorie ed è dotata di 512mb di memoria video quindi non è un caso che guadagni nell'attivazione filtri.
Per i giochi futuri sicuramente tutto dipenderà dalla programmazione con cui verranno eseguiti quindi è presto per definire un margine così ampio tra le due schede.
i test sono stati eseguiti con giochi che non fruttano ancora le due gpu al 100%.
Ciao Free, il tuo post mi ha un pò spaventato. Visto che sono molto interessato all'acquisto di una x1800xt a 512mb volevo chiederti se il mio sistema secondo te è idoneo.
Amd Athlon 64 3500
4 banchi 512mb ddr
Mi puoi dire anche la differenza tra la ram ddr e la ddr2??
Cpu limited in pratica che vuol dire??
grazie
Cpu limited in pratica che vuol dire??
grazie
Vuol dire che la CPU fa da collo di bottiglia all'applicazione, ovvero, in parole povere, alzando o abbassando la risoluzione (ad esempio) non noti differenze nel framerate.
Essere CPU limited dipende fortemente dall'applicazione e dalla situazione all'interno dell'applicazione, quindi affermazioni come "il tuo sistema e' CPU limited" in generale non hanno senso.
Il tuo sistema in particolare e' piu' che equilibrato.
lurkingPhoenix
25-10-2005, 11:40
Secondo me nell'analisi dell'efficienza andrebbe considerato che, anche se con 16 pipes, r520 ha comunque 320 mln di transistor contro i 300 mln di G70.(fonte beyond3D).
Con due architetture cosi diverse sarebbe + corretto paragonare il rapporto prestazioni/transistor invece del rapporto prestazioni/numero di pipelines.
Sono pronto ad essere smentito eh :D
Mah, la stra-grande maggioranza dei giochi sono ottimizzati per Nvidia... :) i giochi TWIMTBP sono una marea... Nvidia controlla praticamente il mercato. :rolleyes:
Strano che con la demo il gioco avesse dei valori molto più alti per Ati (sia in valore assoluto che in confronto ad Nvidia) e poi a gioco uscito si siano drasticamente livellati.. :mbe:
Parlo di FEAR ovviamente.
Ragazzi il discorso che i giochi TWIMTBP sono ottimizzati NVIDIA è assolutamente falso. NVIDIA, così come ATI, dà un supporto agli sviluppatori dei videogames per assicurarsi che un titolo funzioni senza problemi sui propri prodotti, ma questo non significa che va meglio sulle schede NVIDIA che sulle schede ATI.
andreamarra
25-10-2005, 12:10
Ragazzi il discorso che i giochi TWIMTBP sono ottimizzati NVIDIA è assolutamente falso. NVIDIA, così come ATI, dà un supporto agli sviluppatori dei videogames per assicurarsi che un titolo funzioni senza problemi sui propri prodotti, ma questo non significa che va meglio sulle schede NVIDIA che sulle schede ATI.
però è anche vero che per le killer application si scornino i due colossi.. :D
"ciao John, anzichè usare l'radyxv1... usa l'radyxv2 che va meglio con le nostre schede e peggio con le altre..." :D
"ciao Gabe, invece di usare il cippirippi2.0... usa il cippirippi1.0 che affossa le altre e aiuta le nostre"... :D
p.s. sai quanto pesa il fix di doom3? Avevi detto che te lo avevano dato...
andreamarra
25-10-2005, 12:20
Ciao a tutti.
Per poter sfruttare appieno questa nuova gpu ati da 0.09 micron occorrerà un dimensionamento hardware notevole e costoso. Minimo un amd 64 4000+ o un p4 3,73ghz e delle ram hyper x o ddr2. Indubbiamente è una gpu che verrà sfruttata con piattaforme di un certo livello quindi aspetterei a acquistarla, pena un cpu limited notevole. Per quanto riguarda la 7800gtx, più commerciabile ora come ora, credo che nuovi driver nvidia riequilibreranno sostanzialmente i test anche se rimane sempre avanti il prodotto ati.
La x1800xt dispone di ben 10gb/s in più di banda passante, 300mhz in più per le memorie ed è dotata di 512mb di memoria video quindi non è un caso che guadagni nell'attivazione filtri.
Per i giochi futuri sicuramente tutto dipenderà dalla programmazione con cui verranno eseguiti quindi è presto per definire un margine così ampio tra le due schede.
i test sono stati eseguiti con giochi che non fruttano ancora le due gpu al 100%.
considera che per queste schede mostruose nvidia ati occorre una cpu molto veloce. IO credo che un bel venice 3200+ magari cloccato (salgono di brutto) e un giga di ram, scheda madre ULI (per risparmiare molti soldini) sia una piattaforma adatta alle schede.
discorso ram-guadagno con alte risoluzioni-filtri. Diciamo che l'R520 porta con sè quelle prestazioni eccelelnti con i filtri di R300 e R420. Difatti da diversi test sintetici e su giochi si vede come anche la XL guadagni molto dall'andare ad alte risoluzioni e molti filtri. Praticamente: il chip ha una gestione dei filtri migliore, con perdita delle prestazioni minori, rispetto al G70. E' proprio la gestione dei filtri AAA e aniso ad essere migliore su R520 (come era migliore anche su R3X0 e R4X0). Questo detto da esperti.
Sul discorso driver: la nvdia certamente può ancora migliorare, ma ovviamente il G70 altro non è che una versione potenziata di NV40. Quindi il parco driver per nvidia è già molto più stabile in questo senso.
L'R520 è invece un prodotto decisamente innovativo (a metà strada tra schede DX9 e "DX10" per l'unificazione delle pipeline, e altre cosucce) e quindi ha margini di guadagno in potenza più grandi. Da quantificare ovviamente.
Ma il "botto" lo potrebbe dare il controller memory configurabile al 100% da driver. Da molti test si vede come basta un fix studiato su un determinato gioco per aumentare in modo massiccio o quantomeno sensibile le prestazioni.
Ovviamente, sono due chip video non sfruttati al 100% e si potrà dire con maggiore esattezza la reale portata di queste belve solo nei prossimi titoli.
La ati fa ben sperare per il fatto di essere più performante, da test sintetici e nei giochi, nella renderizzazione di HDR (insieme ad AAA, cosa che non può fare per motivi di architettura il G70... tra l'altro non ha perdite consistenti il R520 per ora nel mettere HDR e AAA insieme) e nel branching dinamico. Dove fa ottenere risultati notevolissimi.
andreamarra
25-10-2005, 12:38
Dunque il divario che c'e' tra la XT e tutte le altre schede con Quake4 in HQ e filtri attivi (specialmente se ad altissime risoluzioni), non potra' con ogni probabilita' essere compensato dalle frequenze. Sarebbe ottimo se riuscisse a fare dei brevi bench proprio con Q4 a tali risoluzioni (prima con filtri e poi senza).
il divario può naturalmente essere dato dal discorso quantitativo di ram in più.
Però per fare dei test, è più facile portare la XL 256 a XT 256 che mettere altra ram on board alla stessa o al G70 :D
sarebbe interessante portare, anche solo per un bench veloce, la XL alle frequenze della XT (o quantomeno ad avvicinarsi ad essa). Così si potrebbe vedere quanto influenza la ram a parità di clock.
Poi se si ha culo ci sono XL con ram (se non ho capito male) identiche a quelle assurde della XT (essendo a 1.4 nanosecondi se non sbaglio) ma sono downvoltate di fabbrica. Teoricamente overvoltandole le ram potrebbero arrivarci. O quantomeno se non ad arrivare a quelle frequenze, magari qualcosa in meno.
Oppure, molto più semplice :D, si potrebbe downcloccare la XT 512 mega alle frequenze della XL in quel determinato test e vedere come si comporta la scheda XT nel test UQ :)
p.s. in ogni caso, essendo un motore fortemente ottimizzato per nvidia, se i risultati negli altri test fossero realmente quelli io credo ci si possa considerare decisamente soddisfatti delle prestazioni in d3 e quake4. Considerando il gap notevolissimo pre-fix (se, ripeto, saranno risultati confermati).
andreamarra
25-10-2005, 12:52
la ati dovrebbe far uscire (il prima possibile) una scheda XT a 256 mega di ram in modo da avere tre schede di fascia alta-altissima.
Si sa indicativamente se viene rilasciata quando verrà rilasciata la XT 512?
Anche perchè nella fascia media è messa discretamente bene, in quella "bassa" non proprio.
Marra: questa situazione mi ricorda il thread della Juve...ora spammi anche qui ? :D :ciapet:
Test con Far Cry, Hdr e AA:
http://www.beyond3d.com/reviews/ati/r520/index2.php?p=21
La recensione è di un paio di giorni fa, ma non mi pare di averla vista linkata. Gli altri test non li ho visti, mi parevano interessanti però questi.
Pare giocabile a 1024x768 con praticamente ogni tipo di AA e Hdr, a risoluzioni maggiori con AA mi scade un pò :)
Ragazzi il discorso che i giochi TWIMTBP sono ottimizzati NVIDIA è assolutamente falso. NVIDIA, così come ATI, dà un supporto agli sviluppatori dei videogames per assicurarsi che un titolo funzioni senza problemi sui propri prodotti, ma questo non significa che va meglio sulle schede NVIDIA che sulle schede ATI.
Esatto. I loghi e i certificati di questo tipo sono una collaborazione quasi solo a livello marketing e non tecnico.
yossarian
25-10-2005, 13:23
Dunque il divario che c'e' tra la XT e tutte le altre schede con Quake4 in HQ e filtri attivi (specialmente se ad altissime risoluzioni), non potra' con ogni probabilita' essere compensato dalle frequenze. Sarebbe ottimo se riuscisse a fare dei brevi bench proprio con Q4 a tali risoluzioni (prima con filtri e poi senza).
questa è qualcosa che si potrà vedere solo facendo i test con la XL alle frequenze della XT. Non è detto che l'aumento di prestazioni e la frequenza abbiano un rapporto lineare; anzi, in molti casi, al superamento di un collo di bottiglia si hanno dei salti prestazionali notevoli (e non è detto che il collo di bottiglia sia costituito dai 256 MB di ram)
yossarian
25-10-2005, 13:29
Ciao a tutti.
Per poter sfruttare appieno questa nuova gpu ati da 0.09 micron occorrerà un dimensionamento hardware notevole e costoso. Minimo un amd 64 4000+ o un p4 3,73ghz e delle ram hyper x o ddr2. Indubbiamente è una gpu che verrà sfruttata con piattaforme di un certo livello quindi aspetterei a acquistarla, pena un cpu limited notevole. Per quanto riguarda la 7800gtx, più commerciabile ora come ora, credo che nuovi driver nvidia riequilibreranno sostanzialmente i test anche se rimane sempre avanti il prodotto ati.
La x1800xt dispone di ben 10gb/s in più di banda passante, 300mhz in più per le memorie ed è dotata di 512mb di memoria video quindi non è un caso che guadagni nell'attivazione filtri.
Per i giochi futuri sicuramente tutto dipenderà dalla programmazione con cui verranno eseguiti quindi è presto per definire un margine così ampio tra le due schede.
i test sono stati eseguiti con giochi che non fruttano ancora le due gpu al 100%.
il principale vantaggio nell'utilizzo dei filtri con R520 deriva dal fatto che la gestione dei thread e, quindi, delle operazioni è differente e che il chip ATi ha molti buffer interni di dimensioni ragguardevoli e buona parte delle operazioni sono eseguite on chip (non ancora al livello di quanto accade su R500, ma il trend è quello).
Inoltre, i driver giocheranno un ruolo fondamentale, perchè grazie alla programmabilità del dispatch processor e del memory controller, il chip ATi può essere ottimizzato applicazione per applicazione in maniera molto più pesante di quanto non si possa fare con un semplice riordino di istruzioni a livello di compilatore interno
yossarian
25-10-2005, 13:33
Secondo me nell'analisi dell'efficienza andrebbe considerato che, anche se con 16 pipes, r520 ha comunque 320 mln di transistor contro i 300 mln di G70.(fonte beyond3D).
Con due architetture cosi diverse sarebbe + corretto paragonare il rapporto prestazioni/transistor invece del rapporto prestazioni/numero di pipelines.
Sono pronto ad essere smentito eh :D
non hai tutti i torti, nel senso che R520 trae molto vantaggio dal gran numero di transistor, gran parte dei quali sono utilizzati per i buffer interni, tuti di dimensioni piuttosto generose (vertex buffer, pixel buffer, texture buffer e color buffer all'interno delle rop's, soprattutto), grazie ai quali riesce a compiere molte operazioni on chip e a mantenere alte le prestazioni con i filtri attivi (oltre a potre utilizzare MSAA e HDR in contemporanea).
Ma la E-Dram sostituirà i registri interni oppure sarà una sorta di ram dove "appoggiare" dati più velocemente di quanto si farebbe appoggiandoli in ram?
yossarian
25-10-2005, 13:49
Ma la E-Dram sostituirà i registri interni oppure sarà una sorta di ram dove "appoggiare" dati più velocemente di quanto si farebbe appoggiandoli in ram?
la eDRAM è una via di mezzo tra le due cose. Innanzitutto, nell'R500 sarà presente solo a livello di ROP?s (la parte relativa a tmu e shading unit farà uso di registri di tipo classico). Tipicamente, per i registri interni, si fa uso di SRAM, che permette accessi molto veloci ma occupa molto spazio (fino a 6 transistor per un solo bit); la eDRAM, a detta di NEC, dovrebbe avere tempi di accesso di poco superiori a quelli della SRAM, ma occupare molto meno spazio (avvicinandosi alla situazione di 1 transistor per bit della DRAM). E' una combinazione di DRAM e SRAM (in piccola quantità, come una sorta di cache al'interno del buffer), che dovrebbe permettere di unire i vantaggi dei due diversi tipi di ram
leoneazzurro
25-10-2005, 13:49
Ma la E-Dram sostituirà i registri interni oppure sarà una sorta di ram dove "appoggiare" dati più velocemente di quanto si farebbe appoggiandoli in ram?
Per R500 la seconda che hai detto :D
Edit: pardon, Yoss ha risposto per primo :)
leoneazzurro
25-10-2005, 13:52
la eDRAM è una via di mezzo tra le due cose. Innanzitutto, nell'R500 sarà presente solo a livello di ROP?s (la parte relativa a tmu e shading unit farà uso di registri di tipo classico). Tipicamente, per i registri interni, si fa uso di SRAM, che permette accessi molto veloci ma occupa molto spazio (fino a 6 transistor per un solo bit); la eDRAM, a detta di NEC, dovrebbe avere tempi di accesso di poco superiori a quelli della SRAM, ma occupare molto meno spazio (avvicinandosi alla situazione di 1 transistor per bit della DRAM). E' una combinazione di DRAM e SRAM (in piccola quantità, come una sorta di cache al'interno del buffer), che dovrebbe permettere di unire i vantaggi dei due diversi tipi di ram
IMHO però difficilmente si rinuncerà all SRAM per i registri interni...
Un rapporto di 6:1 tra pixel shading-rop's non è sbilanciato ? (R500)
Oppure, molto più semplice :D, si potrebbe downcloccare la XT 512 mega alle frequenze della XL in quel determinato test e vedere come si comporta la scheda XT nel test UQ :)
Obbiettivamente, anche questo sarebbe un test da effettuare.. Se qualcuno (a caso :ciapet: ) dovesse trovarsi fortuitamente una X1800XT per le mani, potrebbe fare questi due semplicissimi test ;).
p.s. in ogni caso, essendo un motore fortemente ottimizzato per nvidia, se i risultati negli altri test fossero realmente quelli io credo ci si possa considerare decisamente soddisfatti delle prestazioni in d3 e quake4. Considerando il gap notevolissimo pre-fix (se, ripeto, saranno risultati confermati).
Questo e' tutto da vedersi, sia il livello d'ottimizzazione che l'incremento ulteriore post fix.
Ora attendiamo che qualche buon samaritano prenda la proptia test-XT e la porti alle frequenze della XL, poi andiamo avanti con le considerazioni!!
leoneazzurro
25-10-2005, 15:16
Un rapporto di 6:1 tra pixel shading-rop's non è sbilanciato ? (R500)
Il rapporto in Xenos è di 6 unità unificate per ROP. Ma le unità non fungono sempre da Pixel shader, bensì anche da vertex shader.
Sicuramente il rapporto potrebbe sembrare limitante (e iMHO sarebbe così se fosse un chip per PC) ma date le risoluzioni non eclatanti per cui è costruite la Xbox360, e la possibilità di utilizzare il MSAA 4x senza grossi impatti prestazionali , credo sia adeguato.
considera che per queste schede mostruose nvidia ati occorre una cpu molto veloce. IO credo che un bel venice 3200+ magari cloccato (salgono di brutto) e un giga di ram, scheda madre ULI (per risparmiare molti soldini) sia una piattaforma adatta alle schede.
Io direi che sia molto meglio andare su schede madre dotate di NF4U, se di marche come Gigabyte o Winfast (Leadtek), sono ottime e costano veramente poco, non piu' di una asrock ULI e non c'e' paragone.
discorso ram-guadagno con alte risoluzioni-filtri. Diciamo che l'R520 porta con sè quelle prestazioni eccelelnti con i filtri di R300 e R420. Difatti da diversi test sintetici e su giochi si vede come anche la XL guadagni molto dall'andare ad alte risoluzioni e molti filtri. Praticamente: il chip ha una gestione dei filtri migliore, con perdita delle prestazioni minori, rispetto al G70. E' proprio la gestione dei filtri AAA e aniso ad essere migliore su R520 (come era migliore anche su R3X0 e R4X0). Questo detto da esperti.
Ne abbiamo discusso fino a poco fa, ad esempio su engine come quello di CoR, porta a cali prestazionali fortissimi su piattaforme ATI (R520 compreso), come ho un briciolo di tempo, controllero' quali e quanti altri titoli manifestino un vantaggio o una "non perdita" su piattaforma nVidia con filtri attivi.
La ati fa ben sperare per il fatto di essere più performante, da test sintetici e nei giochi, nella renderizzazione di HDR (insieme ad AAA, cosa che non può fare per motivi di architettura il G70... tra l'altro non ha perdite consistenti il R520 per ora nel mettere HDR e AAA insieme) e nel branching dinamico. Dove fa ottenere risultati notevolissimi.
Forse volevi dire che, nell'implementare l'HDR cosi' come si e' fatto in Far Cry, non e' possibile l'utilizzo di filtri AA, mentre lo e' nei titoli che lo utilizzeranno come HL2.
Altra domandina :)
L'antialiasing fa perdere frame solo a causa della limitata banda ?
Nel caso di r500, esso risentirebbe con il supersampling o con l'adaptiveAA ?
signori io reitero qui sul forum la mia richiesta fatta allo staff di hw upgrade mandata gia tramite mail a cui non è seguita risposta alcuna
creod di essere uno dei primi ad avere una x1800xl e vorri testarne le capacità in overclok purtroppo a fornte di nessuna utiliti valida ed a forne di una overdrive che mi prermeete di settare massimo 575mhz per il core e 550mhz per le ram vorrei avere la versione di winclk che supporti la mia scheda se possibile vorrei averla
grazie in anticipo
la eDRAM è una via di mezzo tra le due cose. Innanzitutto, nell'R500 sarà presente solo a livello di ROP?s (la parte relativa a tmu e shading unit farà uso di registri di tipo classico). Tipicamente, per i registri interni, si fa uso di SRAM, che permette accessi molto veloci ma occupa molto spazio (fino a 6 transistor per un solo bit); la eDRAM, a detta di NEC, dovrebbe avere tempi di accesso di poco superiori a quelli della SRAM, ma occupare molto meno spazio (avvicinandosi alla situazione di 1 transistor per bit della DRAM). E' una combinazione di DRAM e SRAM (in piccola quantità, come una sorta di cache al'interno del buffer), che dovrebbe permettere di unire i vantaggi dei due diversi tipi di ram
La mia domanda sottointesa (troppo effettivamente :D) era, R520 con il numero di registri elevato a cui fa riferimento, ha cercato di sopperire alla mancanza di embedded ram o sono due cose svincolate? Cioè, l'aumento di registri interni con l'architettura di R520 può sopperire a questa mancanza? Ancora, la Embedded ram è necessaria quando si ha a che fare con shader generici?
Perchè mi frulla per la testa una cosa (fantasia ovviamente) e volevo sapere se sono ubriaco :D
leoneazzurro
25-10-2005, 16:38
Altra domandina :)
L'antialiasing fa perdere frame solo a causa della limitata banda ?
Nel caso di r500, esso risentirebbe con il supersampling o con l'adaptiveAA ?
Se si tratta di MSAA, la banda è probabilmente il fattore più importante, considerando anche che in R500 per rendere più snelle le ROPs i dati vengono trasferiti senza compressione. Il supersampling è attuabile, ma abbatte le prestazioni in maniera considerevole, per cui il suo utilizzo deve essere limitato per avere buone prestazioni.
Per il punto 2), bisogna vedere come si comporta R500 con tecniche di adaptive (transparency) AA, IMHO l'utilizzo è possibile anche se porterà un certo degrado di prestazioni.
leoneazzurro
25-10-2005, 16:52
La mia domanda sottointesa (troppo effettivamente :D) era, R520 con il numero di registri elevato a cui fa riferimento, ha cercato di sopperire alla mancanza di embedded ram o sono due cose svincolate? Cioè, l'aumento di registri interni con l'architettura di R520 può sopperire a questa mancanza? Ancora, la Embedded ram è necessaria quando si ha a che fare con shader generici?
Perchè mi frulla per la testa una cosa (fantasia ovviamente) e volevo sapere se sono ubriaco :D
IMHO (ma aspettiamo il parere di Yoss) sono due cose svincolate: la embedded RAM in R500 viene utilizzata per avere un'enorme banda passante per le ROPs, e questa banda passante è "al servizio" alle ROPs stesse e serve per ottenere il MSAA "free" (la eDRAM e le ROPS sono su un die separato rispetto allo shader array). Lo shader array stesso, inoltre, a quanto mi sembra, è collegato al die delle ROPS mediante un bus con banda passante di 32 GB/s, e questa banda IMHO non è sufficiente per la gestione efficace dei dati di shading.
Il numero di registri elevato in R520 è infatti una necessità più che un'opzione, poichè senza quell'array di registri costituisce R520 non avrebbe la capacità di memorizzare la necessaria quantità di dati temporanei/permanenti di shading compatibile con una ottima velocità di accesso (pochi registri=più accessi alla RAM video con latenze maggiori). Si potrebbe pensare di realizzare i registri con eDRAM (ma credo che le latenze siano superiori), o inserire un buffer eDRAM tra memoria video e core, ma bisogna vedere che tipo di incrementi di velocità si hanno e se il gioco vale la candela. Sicuramente è possibile costruire architetture unificate senza necessità di eDRAM.
yossarian
25-10-2005, 20:18
La mia domanda sottointesa (troppo effettivamente :D) era, R520 con il numero di registri elevato a cui fa riferimento, ha cercato di sopperire alla mancanza di embedded ram o sono due cose svincolate? Cioè, l'aumento di registri interni con l'architettura di R520 può sopperire a questa mancanza? Ancora, la Embedded ram è necessaria quando si ha a che fare con shader generici?
Perchè mi frulla per la testa una cosa (fantasia ovviamente) e volevo sapere se sono ubriaco :D
le eDRAM in R500 sono presenti solo nel die secondario e non in quello master.
Servono ad una serie di operazioni che sono svolte all'interno delle ROP's: dall'applicazione dell'AA, caricando interi frame on chip e potendo contare su una bandwidth di circa 256 GB, all'utilizzo del TBR, anche in questo caso, caricando interi frame o grando porzioni di essi, all'interno del chip.
In R520 non si arriva atanto, però si hanno registri interni e buffar disseminati un po' dovunque, che permettono di eseguire molte operazioni on chip, facendo risparmiare banda e velocizzando le operazioni stesse (l'accesso a registri interni e circa di tre ordini di grandezza più rapido rispetto a quello alla ram video e circa 5 ordini più veloce rispetto a quello alla ram di sistema). Il principio, in linea di massima, è simile, con la differenza che non si ha un'architettura particolare delle rop's, come quella di R500, in cui, di fatto, le unità di calcolo e la ram formano un tutt'uno (si parla di "ram intelligenti" :D ), essendo le une allocate all'interno delle altre.
Free Gordon
25-10-2005, 20:59
Esatto. I loghi e i certificati di questo tipo sono una collaborazione quasi solo a livello marketing e non tecnico.
Come te li spieghi allora i bench della demo di FEAR, e i bench del gioco definitivo? C'è un divario assai grande..
Non so se l'avete gia' vista:
http://www.xbitlabs.com/articles/video/display/asus-en7800gtx.html
basta un po' di overclock del 7800 e X1800 XT e' dietro
andreamarra
26-10-2005, 22:40
Non so se l'avete gia' vista:
http://www.xbitlabs.com/articles/video/display/asus-en7800gtx.html
basta un po' di overclock del 7800 e X1800 XT e' dietro
vuoi vedere che succede a sparare con dissi stock la X1800XT a 750 di core :D?
quello che intendo dire è questo: anche la X1800XL se la porti (come qualcuno ha fatto tranquillamente nonostante programmi di OC ancora acerbi) a 640-1350 il tutto con dissipatore stock dilania sicuramente la GT (sfiora i risultati della XT nel 3dmerd2005), che a sua volta se la clocchi recupera in parte il gap.
l'R520 ha dalla sua il fatto di essere un chip fatto a posta per girare ad altissime frequenze, ad avere fortissimi overclock, e ad avere un incremento di prestazioni in rapporto alle frequenze aggiuntive maggiore che il G70. Questo per il semplice fatto che ha una gestione dei dati che viene favorito da avere frequenze elevate.
Come te li spieghi allora i bench della demo di FEAR, e i bench del gioco definitivo? C'è un divario assai grande..
Lo spiego col fatto che il motore 3d gira meglio su una piattaforma piuttosto che l'altra :)
vuoi vedere che succede a sparare con dissi stock la X1800XT a 750 di core :D?
quello che intendo dire è questo: anche la X1800XL se la porti (come qualcuno ha fatto tranquillamente nonostante programmi di OC ancora acerbi) a 640-1350 il tutto con dissipatore stock dilania sicuramente la GT (sfiora i risultati della XT nel 3dmerd2005), che a sua volta se la clocchi recupera in parte il gap.
l'R520 ha dalla sua il fatto di essere un chip fatto a posta per girare ad altissime frequenze, ad avere fortissimi overclock, e ad avere un incremento di prestazioni in rapporto alle frequenze aggiuntive maggiore che il G70. Questo per il semplice fatto che ha una gestione dei dati che viene favorito da avere frequenze elevate.
sono io sono io per la precisione sono 650mhz ci core oh! ;)
yossarian
26-10-2005, 23:42
Non so se l'avete gia' vista:
http://www.xbitlabs.com/articles/video/display/asus-en7800gtx.html
basta un po' di overclock del 7800 e X1800 XT e' dietro
Già è strano testare una vga o/c con una a default; anora di più è il fatto che quelli di xbit non abbiano testato Doom3 e altri giochi OpenGL con questa patch (di cui, più o meno, tutti conoscono ormai l'esistenza)
http://www.firingsquad.com/hardware/quake_4_high-end_performance/page2.asp
http://www.beyond3d.com/reviews/ati/r520/index.php?p=26
ho il sospetto che sarebbero cambiate molte valutazioni.
yossarian
26-10-2005, 23:51
per chi era interessato a fare comparazioni di efficienza tra l'architettura "old style" di R4x0 e quella di R520, ci sono i test di questa pagina
http://www.beyond3d.com/reviews/ati/r520/index.php?p=15
ci sono una serie di confronti interessanti tra la X800XT e la X1800XL
Free Gordon
27-10-2005, 00:02
Lo spiego col fatto che il motore 3d gira meglio su una piattaforma piuttosto che l'altra :)
Non capisco cosa vuoi dire.. :p
Ti ho chiesto come mai c'è così tanta differenza fra la demo (di 15 giorni fà) e il gioco finale. In prestazioni.
Nella demo la 1800XT a res alte con filtri faceva 15-20 fps in più della GTX, con l'uscita del gioco (avvenuta dopo pochissimo, del resto) le schede vanno uguale! :confused:
Allora?? nessuno e' riuscito a fare due miseri test con una XT portata ad LX??!! e dai su!! un piccolo sforzo!! Ci serve solo Quake4 alle altissime risoluzioni con filtri attivi e non!!
Sammy.73
27-10-2005, 09:23
Non capisco cosa vuoi dire.. :p
Ti ho chiesto come mai c'è così tanta differenza fra la demo (di 15 giorni fà) e il gioco finale. In prestazioni.
Nella demo la 1800XT a res alte con filtri faceva 15-20 fps in più della GTX, con l'uscita del gioco (avvenuta dopo pochissimo, del resto) le schede vanno uguale! :confused:
magie del "marketing" nvidia :D
Già è strano testare una vga o/c con una a default; anora di più è il fatto che quelli di xbit non abbiano testato Doom3 e altri giochi OpenGL con questa patch (di cui, più o meno, tutti conoscono ormai l'esistenza)
http://www.firingsquad.com/hardware/quake_4_high-end_performance/page2.asp
http://www.beyond3d.com/reviews/ati/r520/index.php?p=26
ho il sospetto che sarebbero cambiate molte valutazioni.
Infatti anche secondo me è una mancanza abbastanza strana. Tra l'altro hanno pure usato i forceware 78 invece che la nuova serie 8x.xx , boh...
yossarian
27-10-2005, 11:29
Infatti anche secondo me è una mancanza abbastanza strana. Tra l'altro hanno pure usato i forceware 78 invece che la nuova serie 8x.xx , boh...
vero; ho il sospetto che xbit stia un po' perdendo colpi
andreamarra
27-10-2005, 15:18
con molta probabilità la nvidia farà uscire il 7 di novembre (il 5 dovrebbe uscire la X1800XT 512) una sua 7800GTX 512. Per ovvi motivi.
Pare che la scheda uscirà, stando a dei rumors, con frequenze più spinte rispetto alla versione con "soli" 256 mega di ram.
Quindi, i sostenitori di nvidia nel vedere i bench diranno "che bello, trita tutto!". Peccato che fino a ieri dicevano che la XT era "dopata" di MHz e di ram... :asd: :sofico:
cmq, con una scheda da 512 anche per nvidia speriamo che si sia un abbassamento dei prezzi di tali soluzioni ;)!
con molta probabilità la nvidia farà uscire il 7 di novembre (il 5 dovrebbe uscire la X1800XT 512) una sua 7800GTX 512. Per ovvi motivi.
Pare che la scheda uscirà, stando a dei rumors, con frequenze più spinte rispetto alla versione con "soli" 256 mega di ram.
Quindi, i sostenitori di nvidia nel vedere i bench diranno "che bello, trita tutto!". Peccato che fino a ieri dicevano che la XT era "dopata" di MHz e di ram... :asd: :sofico:
cmq, con una scheda da 512 anche per nvidia speriamo che si sia un abbassamento dei prezzi di tali soluzioni ;)!
Mah in teoria, stando a tutto quello di cui si è discusso nelle n pagine di questo 3d, la 7800GTX con frequenze maggiorate e con ram piu veloci oltre che raddoppiate, non dovrebbe aumentare più di tanto le proprie prestazioni.
Avremo finalmente modo di verificare sul campo tutte le lezioni di tecnica informatica che ci siamo sorbiti in queste 3 settimane di commenti :D
cmq, vivala figa :oink:
leoneazzurro
27-10-2005, 16:33
Mah in teoria, stando a tutto quello di cui si è discusso nelle n pagine di questo 3d, la 7800GTX con frequenze maggiorate e con ram piu veloci oltre che raddoppiate, non dovrebbe aumentare più di tanto le proprie prestazioni.
Avremo finalmente modo di verificare sul campo tutte le lezioni di tecnica informatica che ci siamo sorbiti in queste 3 settimane di commenti :D
cmq, vivala figa :oink:
Ehm.. no, chiaro che se aumenti le frequenze del core della GTXe delle RAM, le prestazioni salgono,è inevitabile. Senza contare che situazioni limite dove 256 Mbyte di VRAM sono un collo di bottiglia ci sono e 512 Mbyte sono utili. Ma le discussioni tecniche erano tese a chiarire il fatto che adesso ATI ha un'architettura più efficiente (oltre a supportare più features) di Nvidia ed in più i 90 nm, per cui recuperare il gap prestazionale con la scheda della casa canadese è per nvidia più complicato con la sua architettura attuale. Ad esempio Nvidia può far uscire una scheda ultrapompata, ma la X1800XT si è visto che pare salire bene anch'essa (quindi si potrebbe pensare ad una X1800 XT PE), e comunque anche con una GTX a 550 MHz il fill rate effettivo sarebbe più alto sulla scheda ATI, e c'è sempre R580 alle porte.
Quindi se con una 7800 GTX con 512 Mbyte di RAM e frequenze maggiorate Nvidia potrà IMHO competere con la X1800 XT attuale, il vantaggio tecnologico in termini di efficienza e features di ATI non si potrà che allargare con i prossimi refresh, a meno di sostanziali cambiamenti nell'architettura da parte di nvidia
yossarian
27-10-2005, 16:36
Mah in teoria, stando a tutto quello di cui si è discusso nelle n pagine di questo 3d, la 7800GTX con frequenze maggiorate e con ram piu veloci oltre che raddoppiate, non dovrebbe aumentare più di tanto le proprie prestazioni.
Avremo finalmente modo di verificare sul campo tutte le lezioni di tecnica informatica che ci siamo sorbiti in queste 3 settimane di commenti :D
cmq, vivala figa :oink:
non è esatto; le frequenze maggiorate possono portare benefici (soprattutto se si aumentano le frequenze delle rop's); il limite principale di G70, attualmente, è il fillrate, infatti.
L'efficienza trae pochi benefici dall'aumento delle frequenze (a meno che le stesse non servano a rimuovere colli di bottiglia), la velocità d'escuzione, però, ne guadagna.
Quello che proprio non servirebbe a niente è un incremento della quantità e della frequenza delle ram, lasciando invariata quella del chip.
Ops, sono stato preceduto :D
andreamarra
27-10-2005, 16:40
non è esatto; le frequenze maggiorate possono portare benefici (soprattutto se si aumentano le frequenze delle rop's); il limite principale di G70, attualmente, è il fillrate, infatti.
L'efficienza trae pochi benefici dall'aumento delle frequenze (a meno che le stesse non servano a rimuovere colli di bottiglia), la velocità d'escuzione, però, ne guadagna.
Quello che proprio non servirebbe a niente è un incremento della quantità e della frequenza delle ram, lasciando invariata quella del chip.
Ops, sono stato preceduto :D
:ciapet: :fuck:
Ehm.. no, chiaro che se aumenti le frequenze del core della GTXe delle RAM, le prestazioni salgono,è inevitabile. Senza contare che situazioni limite dove 256 Mbyte di VRAM sono un collo di bottiglia ci sono e 512 Mbyte sono utili. Ma le discussioni tecniche erano tese a chiarire il fatto che adesso ATI ha un'architettura più efficiente (oltre a supportare più features) di Nvidia ed in più i 90 nm, per cui recuperare il gap prestazionale con la scheda della casa canadese è per nvidia più complicato con la sua architettura attuale. Ad esempio Nvidia può far uscire una scheda ultrapompata, ma la X1800XT si è visto che pare salire bene anch'essa (quindi si potrebbe pensare ad una X1800 XT PE), e comunque anche con una GTX a 550 MHz il fill rate effettivo sarebbe più alto sulla scheda ATI, e c'è sempre R580 alle porte.
Quindi se con una 7800 GTX con 512 Mbyte di RAM e frequenze maggiorate Nvidia potrà IMHO competere con la X1800 XT attuale, il vantaggio tecnologico in termini di efficienza e features di ATI non si potrà che allargare con i prossimi refresh, a meno di sostanziali cambiamenti nell'architettura da parte di nvidia
Le discussioni erano tese a dimostrare che ATI avesse un'architettura diversa, più efficente in rapporto alle pipe, e soprattutto erano tese a spiegare che il chip avesse un architettura tale da necessitare frequenze di funzionamento più spinte. In pratica non è una scheda già ultra pompata, ma c'è ancora un bel margine di oc come abbiamo potuto vedere.
Ricordo che ai dubbi e alle critiche sul fatto che ATI stesse davanti alla GTX in molte situazioni di render pesante a causa dei suoi 512mb di ram, si rispondeva con "non è merito dei 256mb in più e nemmeno delle frequenze operative più spinte. E' l'architettura che va meglio".
Ora sono curioso di vedere se è effettivamente così. In teoria una GTX con le ram della x1800xt e con 512mb, dovrebbe cmq star sotto la x1800xt per manifesta inferiorità architetturale :D
Infine io credo che una disquisizione sulla longevità di un progetto come r520, in rapporto alla facilità di migliorare nel tempo, sia interessante per farsi una cultura sull'argomento, ma alquanto inutile se il nostro target è giudicare il comportamento della vga in questione.
In effetti che me frega se gli step successivi di questo progetto mi faranno registrare boost prestazionali incredibili, se la vga che ho io arranca :D (... nessun riferimento a r520).
andreamarra
27-10-2005, 17:21
se davvero la nvidia farà uscire una 7800GTX 512 mega con frequenze più alte di fabbrica significherà molto probabilmente:
-che per la nvidia la X1800XT 512 è un osso davvero molto più duro di quello che i sostenitori di nvidia credono
-che il raddoppio delle ram e aumenti di frequenza solo per le ram potrebbero non portare a incrementi prestazionali per via di limiti costruttivi del G70 stesso
ripeto, se dovesse uscire la scheda con frequenze più alte.
andreamarra
27-10-2005, 17:25
in caso di frequenze più alte bisognerà vedere se verrà fatto un dissipatore simil XT (che anche se è dual slot a me piace lo stesso per vari motivi).
Di contro poi la ati potrebbe far uscire una X1850XTPE con frequenze maggiorate, tanto pare che si overcloccano bene e il dissi stock cooling è molto efficiente essendo un dual slot con heat pipe e scarico sul retro del case.
Da vedere poi se la ati non avrà problemi costruttivi come li ha avuti per la X850XTPE che per diverso tempo era una scheda fantasma.
e da questo quadro ipotetico a guadagnarci saremo noi consumer con prezzi più vantaggiosi :oink: ;)
yossarian
27-10-2005, 17:36
Le discussioni erano tese a dimostrare che ATI avesse un'architettura diversa, più efficente in rapporto alle pipe, e soprattutto erano tese a spiegare che il chip avesse un architettura tale da necessitare frequenze di funzionamento più spinte. In pratica non è una scheda già ultra pompata, ma c'è ancora un bel margine di oc come abbiamo potuto vedere.
Ricordo che ai dubbi e alle critiche sul fatto che ATI stesse davanti alla GTX in molte situazioni di render pesante a causa dei suoi 512mb di ram, si rispondeva con "non è merito dei 256mb in più e nemmeno delle frequenze operative più spinte. E' l'architettura che va meglio".
Ora sono curioso di vedere se è effettivamente così. In teoria una GTX con le ram della x1800xt e con 512mb, dovrebbe cmq star sotto la x1800xt per manifesta inferiorità architetturale :D
Infine io credo che una disquisizione sulla longevità di un progetto come r520, in rapporto alla facilità di migliorare nel tempo, sia interessante per farsi una cultura sull'argomento, ma alquanto inutile se il nostro target è giudicare il comportamento della vga in questione.
In effetti che me frega se gli step successivi di questo progetto mi faranno registrare boost prestazionali incredibili, se la vga che ho io arranca :D (... nessun riferimento a r520).
e infatti, sono sicuro che variando frequenza e quantoitativo della ram, la GTX continui a stare sotto. Intanto guardati queste comparative, a parità di quantitativo (256 MB) e con frequenze superiori per NV, tra la GTX e la XL
qui puoi valutare l'hit prestazionale tra XL e GTX, a parità di quantitativo di ram (e con le ram della vga NV a frequenze superiori), con l'utilizzo di AA e HDR.
http://www.hwupgrade.it/articoli/skvideo/1361/18.html
qui puoi valutare l'efficacia del dynamic branching (fai sempre il confronto tra XL e GTX)
http://www.xbitlabs.com/articles/video/display/radeon-x1000_21.html
nelle due tabelle in fondo alle due pagine puoi valutare il comportamento nelle operazioni di multitexturing con bench sintetici, di GTX e XT
http://www.beyond3d.com/previews/nvidia/g70/index.php?p=07#fill
http://www.beyond3d.com/reviews/ati/r520/index.php?p=15
leoneazzurro
27-10-2005, 17:38
Le discussioni erano tese a dimostrare che ATI avesse un'architettura diversa, più efficente in rapporto alle pipe, e soprattutto erano tese a spiegare che il chip avesse un architettura tale da necessitare frequenze di funzionamento più spinte. In pratica non è una scheda già ultra pompata, ma c'è ancora un bel margine di oc come abbiamo potuto vedere.
Non è un problema di necessità, quanto di scelta progettuale. R520 lavora a 625 MHz (XT) perchè è stato progettato così. G70 (con 24 PP) lavora a 430 MHz perchè è stato progettato così, così come le 16 ROPs sono una scelta progettuale con relativi vantaggi e svantaggi.
Ricordo che ai dubbi e alle critiche sul fatto che ATI stesse davanti alla GTX in molte situazioni di render pesante a causa dei suoi 512mb di ram, si rispondeva con "non è merito dei 256mb in più e nemmeno delle frequenze operative più spinte. E' l'architettura che va meglio".
Ora sono curioso di vedere se è effettivamente così. In teoria una GTX con le ram della x1800xt e con 512mb, dovrebbe cmq star sotto la x1800xt per manifesta inferiorità architetturale :D
No, non è solo questione di architettura: se nvidia proponesse un G70 a 625 MHz prestazionalmente ci sarebbe ben poco da fare. Può? L'architettura di R520 permette quelle frequenze, permette di modularizzare meglio il chip in modo tale che sia più facile aggiungere unità di esecuzione e migliorare quelle già presenti. Per la RAM: avere più memoria e memoria più veloce aiuta. Sempre? No. Avere 512 Mbyte oggi aiuta solo in situazioni limite.
Infine io credo che una disquisizione sulla longevità di un progetto come r520, in rapporto alla facilità di migliorare nel tempo, sia interessante per farsi una cultura sull'argomento, ma alquanto inutile se il nostro target è giudicare il comportamento della vga in questione.
In effetti che me frega se gli step successivi di questo progetto mi faranno registrare boost prestazionali incredibili, se la vga che ho io arranca :D (... nessun riferimento a r520).
No, chiaro, il discorso però è che R520 non arranca e ha anche delle features in più. Non male per essere la prima espressione della nuova architettura, mentre G70 è un chip abbastanza maturo da questo punto di vista. E il discorso sul futuro è interessante, perchè mentre espandere R520 è relativamente semplice, per G70 non è così, e nvidia dovrà cercare soluzioni nuove per il top. Invece, se ATI pensa di vincere nella fascia media con la X1600XT così com'è, ho qualche perplessità, ad esempio.
Ops, sono stato preceduto :D
Ti ringrazio per le letture che mi consigli yoss, ma ne ho già lette alcune ed effettivamente il vostro ragionamento non fa una piega.
Però sono lo stesso curioso di vedere come si comporterà sul campo questa versione potenziata di g70 :D
Tanto ormai il 7 novembre (farò gli anni :D ) è molto vicino...
Non è un problema di necessità, quanto di scelta progettuale. R520 lavora a 625 MHz (XT) perchè è stato progettato così. G70 (con 24 PP) lavora a 430 MHz perchè è stato progettato così, così come le 16 ROPs sono una scelta progettuale con relativi vantaggi e svantaggi.
No, non è solo questione di architettura: se nvidia proponesse un G70 a 625 MHz prestazionalmente ci sarebbe ben poco da fare. Può? L'architettura di R520 permette quelle frequenze, permette di modularizzare meglio il chip in modo tale che sia più facile aggiungere unità di esecuzione e migliorare quelle già presenti. Per la RAM: avere più memoria e memoria più veloce aiuta. Sempre? No. Avere 512 Mbyte oggi aiuta solo in situazioni limite.
No, chiaro, il discorso però è che R520 non arranca e ha anche delle features in più. Non male per essere la prima espressione della nuova architettura, mentre G70 è un chip abbastanza maturo da questo punto di vista. E il discorso sul futuro è interessante, perchè mentre espandere R520 è relativamente semplice, per G70 non è così, e nvidia dovrà cercare soluzioni nuove per il top. Invece, se ATI pensa di vincere nella fascia media con la X1600XT così com'è, ho qualche perplessità, ad esempio.
Ops, sono stato preceduto :D
Che bello ragazzi siete più veloci a rispondere di un help desk :D
Io mi farei pagare da corsini & co :D
yossarian
27-10-2005, 17:58
Ti ringrazio per le letture che mi consigli yoss, ma ne ho già lette alcune ed effettivamente il vostro ragionamento non fa una piega.
Però sono lo stesso curioso di vedere come si comporterà sul campo questa versione potenziata di g70 :D
Tanto ormai il 7 novembre (farò gli anni :D ) è molto vicino...
se la versione potenziata di G70, oltre ad avere 512 MB di ram (puro marketing, ma per vendere serve soprattutto quello) a 1500 Mhz, avrà anche frequenze superiori sulla gpu, sicuramente si avrà un miglioramento delle prestazioni (ma non per la quantità o le frequenze delle ram: è inutile avere una strada per 1000 auto quando non posso farcene passare più di 500 per volta). A quel punto, avrà anche cooling dual slot.
Diciamo che la strategia potrebbe essere questa: prima è uscito G70 che ha permesso a Nv di riconquistare la leadership nelle prestazioni; poi uscirà una versione di G70 pompata (sempre a 0,11), con 512 MB di ram, per essere competitiva o ridurre il gap con R520; questo in attesa del G70 a 0,09, che dovrebbe permettere frequenze ancora più alte e dovrebbe competere con R580.
Quello che dice leoneazzurro, sulle possibilità di modulare e espandere il chip, è vero. Per aggiungere una pixel pipeline su G70 servono circa 9 mln di transistor, per aggiungere un quad su R520 alcune centinaia di migliaia.
Inoltre, è inutile aggiungere pixel pipeline se si continua a rimanere con 16 rop's che, di fatto, limitano l'output e fanno da collo di bottiglia. Solo che ogni ulteirore rop's equivale a circa 3 mln di transistor in più.
Al contrario, R520, per come è strutturato, può "sopportare" l'aggiunta di nuovi quad senza modificare il resto dell'architettura. Questo significa nuove unità di shading e possibilità di salire ancora molto con le frequenze.
Un'architettura di tipo tradizionale, come quella di G70 o di R4x0, raggiunge un'efficienza non superiore al 60-65% nel migliore dei casi, sprecando molti cicli con più unità di calcolo in idle. Un'architettura come quella di R520, apparentemente complessa, ma, in realtà, molto semplificata nella parte relativa all'esecuzione materiale dei calcoli, se ottimizzata al meglio (in questo caso il lavoro dei controller è fondamentale), può arrivare anche al 90% di resa (che diventa il 95% nel caso di shader unificati)
yossarian
27-10-2005, 17:59
Ops, sono stato preceduto :D
:fuck:
se la versione potenziata di G70, oltre ad avere 512 MB di ram (puro marketing, ma per vendere serve soprattutto quello) a 1500 Mhz ...
Ti posso assicurare che in giochi come quake4 e doom3, i 512mb di ram servirebbero per far girare il gioco alla massima qualità, senza texture compresse, io non la vedo proprio un'operazione di marketing.
Lo sarebbe su schede da 200€ ma non sul top della gamma. Considera che si presume che la grandezza delle texture da caricare in ram aumenterà con il tempo...
Per tornare al discorso di prima... ci sta un sito che testa la x1800xt a 256mb in confronto alla versione da 512mb?
:D
yossarian
27-10-2005, 19:52
Ti posso assicurare che in giochi come quake4 e doom3, i 512mb di ram servirebbero per far girare il gioco alla massima qualità, senza texture compresse, io non la vedo proprio un'operazione di marketing.
Lo sarebbe su schede da 200€ ma non sul top della gamma. Considera che si presume che la grandezza delle texture da caricare in ram aumenterà con il tempo...
Per tornare al discorso di prima... ci sta un sito che testa la x1800xt a 256mb in confronto alla versione da 512mb?
:D
vedremo quanto guadagnerà la 7800 con 512 MB, senza o/c del chip :D
leoneazzurro
27-10-2005, 20:36
:fuck:
:p :D :ciapet:
vedremo quanto guadagnerà la 7800 con 512 MB, senza o/c del chip :D
1 chip
non è esatto; le frequenze maggiorate possono portare benefici (soprattutto se si aumentano le frequenze delle rop's); il limite principale di G70, attualmente, è il fillrate, infatti.
L'efficienza trae pochi benefici dall'aumento delle frequenze (a meno che le stesse non servano a rimuovere colli di bottiglia), la velocità d'escuzione, però, ne guadagna.
Sarebbe possibile incrementare soltanto la frequenza delle rop's?? Se non erro lavorano gia' in asincrono, o ricordo male?? Allacciandomi a discorsi fatti dopo questo post, sempre parlandpo di rop's, non credi che sia possibile aggingerne?? in fin dei conti con processo produttivo portato a 90nm, si potranno aggiungere un bel po' di transistor, almeno a raggiungere il quantitativo dell'R520.
Quello che proprio non servirebbe a niente è un incremento della quantità e della frequenza delle ram, lasciando invariata quella del chip.
Ops, sono stato preceduto :D
Come spiegi la notevole perdita prestaziuonale dell'R520 (XL) dotato di 256Mb in Quake HQ rispetto a tutte le altre modalita'?? ed il netto vantaggio dell'unica scheda dotata di 512Mb??
No, non è solo questione di architettura: se nvidia proponesse un G70 a 625 MHz prestazionalmente ci sarebbe ben poco da fare. Può? L'architettura di R520 permette quelle frequenze, permette di modularizzare meglio il chip in modo tale che sia più facile aggiungere unità di esecuzione e migliorare quelle già presenti. Per la RAM: avere più memoria e memoria più veloce aiuta. Sempre? No. Avere 512 Mbyte oggi aiuta solo in situazioni limite.
Beh.. un G70 a 625Mhz sarebbe un bel muletto.. peccato sia alquanto improbabile. Per quanto riguarda il discorso dei 512Mb utili in situazioni limite.. se non erro, queste schede sono fatte e comprate per le situazioni limite.. Dunque.. :)
______________________________
se davvero la nvidia farà uscire una 7800GTX 512 mega con frequenze più alte di fabbrica significherà molto probabilmente:
-che per la nvidia la X1800XT 512 è un osso davvero molto più duro di quello che i sostenitori di nvidia credono
-che il raddoppio delle ram e aumenti di frequenza solo per le ram potrebbero non portare a incrementi prestazionali per via di limiti costruttivi del G70 stesso
ripeto, se dovesse uscire la scheda con frequenze più alte.
La tua visione e' un po' di parte, non te la prendere se te lo dico!!
Mi sembra ovvio che ora la 1800XT abbia "psicologicamente"(ancora non fisicamente) preso il posto della 7800GTX, dunque e' sì tanto ovvio che nVidia corra ai ripari, ma era prevedibile ed e' normale. Accadra' piu' o meno all'infinito!! :)
Tra le opzioni ne hai saltata una..
- nVidia potenzia un po' il suo "vecchio" chip, per colmare i deficit prestaziuonali nei confronti della concorrenza ed incrementare i vantaggi.
Insomma, ATI e' rimasta dietro per molti mesi (sei sono una generazione nell'informatica) ora con un chippone nuovo di zecca anche nel concetto ha ripreso buona parte del comando, non mi scandalizza affatto che nVidia possa non "stradominare" come ha fatto fino a poco fa. Non mi stupisce nemmeno che necessiti di qualche mese per immettere sul mercato soluzioni capaci di rivaleggiare con o battere il futuro R580.
Dal punto di vista funzionale l'R520 e' avanti, non c'e' dubbio, ma non e' certo un vantaggio cosi' vasto da dover correre ai ripari immediatamente. Insomma, se l'anisotropico ATI e' ora piu' preciso (sfido a vederne comunque la differenza) e se puo' applicare l'AA assieme all'HDR su UN SOLO titolo in commercio, poco importa. Del resto ATi si e' tenuta gli SM2.0/2.0b o l'impossibilita' di implementare l'HDR nel succitato titolo per un anno e passa.
Sammy.73
28-10-2005, 09:54
Come spiegi la notevole perdita prestaziuonale dell'R520 (XL) dotato di 256Mb in Quake HQ rispetto a tutte le altre modalita'?? ed il netto vantaggio dell'unica scheda dotata di 512Mb??
la sparo lì... la frequenza del core? :D
http://www.firingsquad.com/hardware/quake_4_high-end_performance/images/quake1280.gif
http://www.firingsquad.com/hardware/quake_4_high-end_performance/images/q4ultra1280aa.gif
non mi pare che la xl perda percentualmente di + della xt aumentando qualità e filtri...
nei 2 grafici si vede come passando da uno all'altro le due schede abbiano perso "entrambe" lo stesso numero di frame...
questo sta a significare che prob il quantitativo di mem conta meno del previsto (almeno in quake4)
;)
leoneazzurro
28-10-2005, 10:05
La XL in quei test perde il 45% circa attivando AA 4x, la XT il 25%.
Qualcosina i 512 mbyte passante in quei test fanno, anche se ritengo che la maggior banda passante della XT sia più importante:
se fai il rapporto FPS/frequenza
per la XT hai (4xAA): 82.8/625=0.13248
per la XL hai: 56.5/500=0.113
Quindi la performance per megahertz è più alta sulla XT che sulla XL.
Questo può essere dovuto sia alla frequenza della memoria (1500/625 > 1000/500, il rapporto banda/fillrate è più sfavorevole alla XL) che al magior quantitativo di RAM, anche se personalmente ritengo che il fattore primario sia il miglior rapporto banda/fillrate.
Non è per fare polemica, ma non si capisce come mai si dice che 512mb di ram non sono cosi importanti in giochi come q4 o doom3, quando non appena si setta la modalità ultra quality, compare l'avviso a video che il gioco avrebbe bisogno di almeno 500mb di ram video per caricare le texture.
Se lo dice carmack che l'ha programmato, non si capisce perchè dovremmo dubitarne :D
leoneazzurro
28-10-2005, 10:24
Non è per fare polemica, ma non si capisce come mai si dice che 512mb di ram non sono cosi importanti in giochi come q4 o doom3, quando non appena si setta la modalità ultra quality, compare l'avviso a video che il gioco avrebbe bisogno di almeno 500mb di ram video per caricare le texture.
Se lo dice carmack che l'ha programmato, non si capisce perchè dovremmo dubitarne :D
Perchè lo diceva anche a proposito di Doom3, e io l'ho fatto girare in Ultra Quality con AA4x con la mia scheda (in sign) a 1024/768 con soli 128 mega di RAM ;) O il sistema passa ad High quality senza che ce ne accorgiamo, o quel claim è valido solo, appunto, per situazioni limite.
Perchè lo diceva anche a proposito di Doom3, e io l'ho fatto girare in Ultra Quality con AA4x con la mia scheda (in sign) a 1024/768 con soli 128 mega di RAM ;) O il sistema passa ad High quality senza che ce ne accorgiamo, o quel claim è valido solo, appunto, per situazioni limite.
Non ci credo!!!
:ciapet:
leoneazzurro
28-10-2005, 10:54
Non ci credo!!!
:ciapet:
Invece è vero :p (ma senza 1 Gbyte di RAm di sitema è abbastanza scattoso)
Free Gordon
28-10-2005, 13:35
Insomma, ATI e' rimasta dietro per molti mesi (sei sono una generazione nell'informatica) ora con un chippone nuovo di zecca anche nel concetto ha ripreso buona parte del comando
Sono 4.
Il chip è della stessa gen della 7800, solo che è uscito 4 mesi dopo per problemi produttivi....
In sostanza Ati è in ritardo, non è in anticipo per la prossima gen! Questo mi sembrava chiaro fin da subito. :D (Le 16 pipe sono lì a dimostralo).
la sparo lì... la frequenza del core? :D
http://www.firingsquad.com/hardware/quake_4_high-end_performance/images/quake1280.gif
http://www.firingsquad.com/hardware/quake_4_high-end_performance/images/q4ultra1280aa.gif
non mi pare che la xl perda percentualmente di + della xt aumentando qualità e filtri...
nei 2 grafici si vede come passando da uno all'altro le due schede abbiano perso "entrambe" lo stesso numero di frame...
questo sta a significare che prob il quantitativo di mem conta meno del previsto (almeno in quake4)
;)
Ne perde nel passaggio da HQ ad UQ.
Perchè lo diceva anche a proposito di Doom3, e io l'ho fatto girare in Ultra Quality con AA4x con la mia scheda (in sign) a 1024/768 con soli 128 mega di RAM ;) O il sistema passa ad High quality senza che ce ne accorgiamo, o quel claim è valido solo, appunto, per situazioni limite.
Quando si usa Doom3 con una VGA da 128Mb si hanno degli scatti notevoli ad intervalli non regolari, cio' che e' normale in tali situazioni, scatti superiori a quelli provocati dall'utilizzo della modalita' UQ con soli 256Mb.
In Quake la questione e' differente, il crollo prstazionale della XL coincide all'attivazione della modalita' UQ. L'unica che rimane avanti sempre e' la XT (specialmente con filtri attivi e risoluzioni elevate).
http://www.firingsquad.com/hardware/quake_4_high-end_performance/page8.asp
Qui (nell'ultimo grafico) si vede con chiarezza come la XT riesca a raddoppiare le prestazioni di una XL. Negli altri casi (sempre UQ), probabilmente le VPU sono CPU-limited (almeno le top gamma), ma la GT sta sempre davanti alla XL.
leoneazzurro
28-10-2005, 13:57
Quando si usa Doom3 con una VGA da 128Mb si hanno degli scatti notevoli ad intervalli non regolari, cio' che e' normale in tali situazioni, scatti superiori a quelli provocati dall'utilizzo della modalita' UQ con soli 256Mb.
In Quake la questione e' differente, il crollo prstazionale della XL coincide all'attivazione della modalita' UQ. L'unica che rimane avanti sempre e' la XT (specialmente con filtri attivi e risoluzioni elevate).
http://www.firingsquad.com/hardware/quake_4_high-end_performance/page8.asp
Qui (nell'ultimo grafico) si vede con chiarezza come la XT riesca a raddoppiare le prestazioni di una XL. Negli altri casi (sempre UQ), probabilmente le VPU sono CPU-limited (almeno le top gamma), ma la GT sta sempre davanti alla XL.
Stavo dicendo che pur con 128 mbyte, almeno per quei 2 livelli di Doom3 che ho visto, non avevo scatti. O meglio, li avevo con 512 mega sul sistema, ma non li ho più avuti con 1 giga.
yossarian
28-10-2005, 14:11
Sarebbe possibile incrementare soltanto la frequenza delle rop's?? Se non erro lavorano gia' in asincrono, o ricordo male?? Allacciandomi a discorsi fatti dopo questo post, sempre parlandpo di rop's, non credi che sia possibile aggingerne?? in fin dei conti con processo produttivo portato a 90nm, si potranno aggiungere un bel po' di transistor, almeno a raggiungere il quantitativo dell'R520.
nVIDIA ha sostenuto che le rop's e le vsu di G70 lavorino in asincrono rispetto alle psu; se ciò fosse vero, la stessa cosa dovrebbe avvenire in NV40, in quanto le differenze nella velocità d'elaborazione dei vs sono proporzionali al solo aumento del numero delle unità di calcolo e il pixel fillrate fatto registrare nei bench sintetici da 6800 Ultra e 7800 GTX è pressochè identico.
Alle successive domande, la risposta è si a entrambe; è possibile farle lavorare in asincrono ed è possibile aggiungerne (ogni rop's contiene circa 3 mln di transistor).
Come spiegi la notevole perdita prestaziuonale dell'R520 (XL) dotato di 256Mb in Quake HQ rispetto a tutte le altre modalita'?? ed il netto vantaggio dell'unica scheda dotata di 512Mb??
non c'è un calo di prestazioni della XL in modalità ultra high quality; se si esclude la modalità HQ con i filtri attivi, la XL è sempre, anche se di poco, sotto alla GT. In modalità UQ e con filtri, la XT si avvantaggia soprattutto a 2048x1536, mentre alle altre risoluzioni, il distacco tra le 4 vga resta sempre, più o meno costante. Quindi, alla luce del fatto che XL, GTX e GT sono tutte dotate di 256 MB di ram, sembra proprio che la XT tragga vantaggio soprattutto dalle elevate frequenze di funzionamento e alla banda passante (rispetto alla XL), mentre la GTX e la GT, rispettivamente, dalle 24 e 20 pixel pipeline. L'unico caso in cui parte del vantaggio si potrebbe, forse attribuire al maggior quantitativo di ram, sembra quello a 2048x1536
per completezza riporto i numeri del calo nel passaggio da HQ a UQ a 1280x1024 (prendo spunto dai grafici postati :D )
XT -27%
GTX -34%
GT -37%
XL -41%
per comparazione, riporto anche il calo, in modalità HQ, nel passaggio da 1280 a 1600, con filtri
XT -17%
GTX -24%
XL -23%
GT -25%
e nel passaggio, sempre in HQ, da 1024 a 1280
XT -14%
GTX -20%
XL -21%
GT -27%
è evidente che la differenza di calo tra XT e GTX sia sempre contenuta entro un range del 6/7% (quindi, in questo, il passaggio da HQ a UQ non fa eccezione). Ed è altrettanto evidente il comportamento "anomalo" della GT nel passaggio in HQ da 1024 a 1280 (perde il 7% dalla GTX a parità di quantitativo di ram) e della XL nel passaggio da HQ a UQ a 1280 (perde il 14% dalla XT e, soprattutto, il 7% dalla GTX a pari quantitativo di ram)
Sono 4.
Il chip è della stessa gen della 7800, solo che è uscito 4 mesi dopo per problemi produttivi....
I problemi non erano produttivi :)
E' stato spiegato quali erano.
In sostanza Ati è in ritardo, non è in anticipo per la prossima gen! Questo mi sembrava chiaro fin da subito. :D (Le 16 pipe sono lì a dimostralo).
Ah no? Quindi avere una gpu con shader unificati già pronta per te è motivo di ritardo?
La storia delle 16 pipelines è trita e ritrita, non avendo R520 sostanzialmente nessuna pipelines canonica.
Free Gordon
28-10-2005, 15:09
I problemi non erano produttivi :)
E' stato spiegato quali erano.
Ah no? Quindi avere una gpu con shader unificati già pronta per te è motivo di ritardo?
La storia delle 16 pipelines è trita e ritrita, non avendo R520 sostanzialmente nessuna pipelines canonica.
La R520 doveva uscire a maggio 2005, per cui Ati ha ritardato, su questo credo non ci sia nulla da dire.
E' della stessa generazione della 7800 in buona sostanza, anche se è, "architetturalmente" parlando, più avanzata. :D
Per problemi produttivi intendevo dire che non sono riusciti a far uscire il chip alla frequenza che volevano loro, nei tempi che volevano loro. :)
nVIDIA ha sostenuto che le rop's e le vsu di G70 lavorino in asincrono rispetto alle psu; se ciò fosse vero, la stessa cosa dovrebbe avvenire in NV40, in quanto le differenze nella velocità d'elaborazione dei vs sono proporzionali al solo aumento del numero delle unità di calcolo e il pixel fillrate fatto registrare nei bench sintetici da 6800 Ultra e 7800 GTX è pressochè identico.
Alle successive domande, la risposta è si a entrambe; è possibile farle lavorare in asincrono ed è possibile aggiungerne (ogni rop's contiene circa 3 mln di transistor).
non c'è un calo di prestazioni della XL in modalità ultra high quality; se si esclude la modalità HQ con i filtri attivi, la XL è sempre, anche se di poco, sotto alla GT. In modalità UQ e con filtri, la XT si avvantaggia soprattutto a 2048x1536, mentre alle altre risoluzioni, il distacco tra le 4 vga resta sempre, più o meno costante. Quindi, alla luce del fatto che XL, GTX e GT sono tutte dotate di 256 MB di ram, sembra proprio che la XT tragga vantaggio soprattutto dalle elevate frequenze di funzionamento e alla banda passante (rispetto alla XL), mentre la GTX e la GT, rispettivamente, dalle 24 e 20 pixel pipeline. L'unico caso in cui parte del vantaggio si potrebbe, forse attribuire al maggior quantitativo di ram, sembra quello a 2048x1536
per completezza riporto i numeri del calo nel passaggio da HQ a UQ a 1280x1024 (prendo spunto dai grafici postati :D )
XT -27%
GTX -34%
GT -37%
XL -41%
per comparazione, riporto anche il calo, in modalità HQ, nel passaggio da 1280 a 1600, con filtri
XT -17%
GTX -24%
XL -23%
GT -25%
e nel passaggio, sempre in HQ, da 1024 a 1280
XT -14%
GTX -20%
XL -21%
GT -27%
è evidente che la differenza di calo tra XT e GTX sia sempre contenuta entro un range del 6/7% (quindi, in questo, il passaggio da HQ a UQ non fa eccezione). Ed è altrettanto evidente il comportamento "anomalo" della GT nel passaggio in HQ da 1024 a 1280 (perde il 7% dalla GTX a parità di quantitativo di ram) e della XL nel passaggio da HQ a UQ a 1280 (perde il 14% dalla XT e, soprattutto, il 7% dalla GTX a pari quantitativo di ram)
Piu' semplicemente noterei come la XL stia sempre avanti alla GT con filtri attivi in tutte le modalita' tranne che in UQ ove sta sempre dietro. Con i filtri disattivati invece, il lieve vantaggio della GT diviene un vantaggio piu' che notevole. Mi e' sfuggito qualcosa??
Per quanto riguarda il vantaggio dovuto al quantitativo di ram solo alla risoluzione piu' alta, mi sembra alquanto strano, forse c'e' anche nelle altre risoluzioni, che pero', ove pero' i FPS sono limitati dalla CPU (forse).
Ma ci vuol tanto a "downclockare" una XT?? :(
yossarian
28-10-2005, 15:18
Piu' semplicemente noterei come la XL stia sempre avanti alla GT con filtri attivi in tutte le modalita' tranne che in UQ ove sta sempre dietro. Con i filtri disattivati invece, il lieve vantaggio della GT diviene un vantaggio piu' che notevole. Mi e' sfuggito qualcosa??
Per quanto riguarda il vantaggio dovuto al quantitativo di ram solo alla risoluzione piu' alta, mi sembra alquanto strano, forse c'e' anche nelle altre risoluzioni, che pero', ove pero' i FPS sono limitati dalla CPU (forse).
Ma ci vuol tanto a "downclockare" una XT?? :(
http://www.firingsquad.com/hardware/quake_4_high-end_performance/page9.asp
guarda i test con SLI (quindi con 2 GTX e 512 MB di ram complessivi)
a 2048x1536, in UQ con filtri, stanno poco sopra una XT (però si parla di 512 MB con dual GPU e bandwidth raddoppiata, non con una singola GTX) e il vantaggio su una singola GTX è del 49%.
Quanto ti aspetti che possa guadagnare una singola vga con 512 MB di ram?
leoneazzurro
28-10-2005, 15:24
http://www.firingsquad.com/hardware/quake_4_high-end_performance/page9.asp
guarda i test con SLI (quindi con 2 GTX e 512 MB di ram complessivi)
a 2048x1536, in UQ con filtri, stanno poco sopra una XT (però si parla di 512 MB con dual GPU e bandwidth raddoppiata, non con una singola GTX) e il vantaggio su una singola GTX è del 49%.
Quanto ti aspetti che possa guadagnare una singola vga con 512 MB di ram?
Attenzione che in SLI si ha 256x2, non 512 ;)
Molti dati sono replicati sulle due VGA, quindi se il collo di bottiglia fosse il quantitativo di RAM, IMHO SLI sarebbe comunque penalizzato in quell'ambito dai 256 mbyte su singola scheda.
yossarian
28-10-2005, 15:34
Attenzione che in SLI si ha 256x2, non 512 ;)
Molti dati sono replicati sulle due VGA, quindi se il collo di bottiglia fosse il quantitativo di RAM, SLI sarebbe comunque penalizzato in quell'ambito dai 256 mbyte su singola scheda.
parte dei dati sono replicati, ma solo una parte, in quanto la scelta dell'input in forma di quad serve ad aumentare la coerenza dei dati per migliorare il rapporto di compressione. Quindi, se non è corretto dire che 2 vga in sli hanno l'equivalente di 512 MB di ram da utilizzare, non è nemmeno corretto dire che il quantitativo di ram è l'equivalente di 256 MB. Senza tener conto del fatto che si hanno due chip al posto di uno, quindi la velocità di elaborazione aumenta di un buon 50-60% e si ha a disposizione una bandwidth doppia (anche se non sfruttata al meglio) rispetto a quella di una singola vga
leoneazzurro
28-10-2005, 15:39
parte dei dati sono replicati, ma solo una parte, in quanto la scelta dell'input in forma di quad serve ad aumentare la coerenza dei dati per migliorare il rapporto di compressione. Quindi, se non è corretto dire che 2 vga in sli hanno l'equivalente di 512 MB di ram da utilizzare, non è nemmeno corretto dire che il quantitativo di ram è l'equivalente di 256 MB. Senza tener conto del fatto che si hanno due chip al posto di uno, quindi la velocità di elaborazione aumenta di un buon 50-60% e si ha a disposizione una bandwidth doppia (anche se non sfruttata al meglio) rispetto a quella di una singola vga
Quello si, ma mettiamo che si necessitino per le texture di una data scena più di 256 mbyte di memoria: le texture sono tra i dati replicati -> debbo accedere alla memoria di sistema, rallentando comuque le prestazioni (rispetto al caso dove 256 mbyte non costituiscono il limite). Chiaro poi che in ogni caso due VGA in SLI sono avvantaggiate prestazionalmente rispetto alla singola VGA: hanno il doppio della banda VRAM-core, il doppio delle unità di esecuzione, ecc.
http://www.firingsquad.com/hardware/quake_4_high-end_performance/page9.asp
guarda i test con SLI (quindi con 2 GTX e 512 MB di ram complessivi)
a 2048x1536, in UQ con filtri, stanno poco sopra una XT (però si parla di 512 MB con dual GPU e bandwidth raddoppiata, non con una singola GTX) e il vantaggio su una singola GTX è del 49%.
Quanto ti aspetti che possa guadagnare una singola vga con 512 MB di ram?
Tutti sanno che due VGA possono andare meglio, peggio o in ugual modo di una singola scheda, anche identica nel modello, si e' visto chiaramente in quest'ultimo anno, questo sai bene come dipenda da una moltitudine di fattori, sia SW che HW.
Raramente ci si trova di fronte ad un raddoppio.
Poi bisogna vedere quanto sia CPU limited quel test e come giustamente si e' detto, sono due schede da 256Mb non una da 512, non si hanno 512 Mb da sfruttare per ciascuna VPU.
Seguito a dire che sia piu' facile portare una XT a XL per vedere e si fa prima. :) Almeno potremmo ragionare du dati concreti.
yossarian
28-10-2005, 16:00
Quello si, ma mettiamo che si necessitino per le texture di una data scena più di 256 mbyte di memoria: le texture sono tra i dati replicati -> debbo accedere alla memoria di sistema, rallentando comuque le prestazioni (rispetto al caso dove 256 mbyte non costituiscono il limite). Chiaro poi che in ogni caso due VGA in SLI sono avvantaggiate prestazionalmente rispetto alla singola VGA: hanno il doppio della banda VRAM-core, il doppio delle unità di esecuzione, ecc.
dipende; sia in AFR che in SFR, non sempre e non tutte le texture sono replicate; ad esempio, in SFR, nell'ipotesi che il bilanciamento ottimale del lavoro preveda la divisione a metà del frame, solo le texture che si trovano sulla linea di confine sono caricate su entrambe le vga (e non tutte); questo riduce di gran lunga il problema dell'over-fetching texture, presente, invece nello sli di 3Dfx (e significa anche che lo spazio occupato dalle texture eventualmente replicate è minimo).
yossarian
28-10-2005, 16:08
Tutti sanno che due VGA possono andare meglio, peggio o in ugual modo di una singola scheda, anche identica nel modello, si e' visto chiaramente in quest'ultimo anno, questo sai bene come dipenda da una moltitudine di fattori, sia SW che HW.
Raramente ci si trova di fronte ad un raddoppio.
Poi bisogna vedere quanto sia CPU limited quel test e come giustamente si e' detto, sono due schede da 256Mb non una da 512, non si hanno 512 Mb da sfruttare per ciascuna VPU.
Seguito a dire che sia piu' facile portare una XT a XL per vedere e si fa prima. :) Almeno potremmo ragionare du dati concreti.
il raddoppio con lo sli te lo puoi pure scordare (ci si avvicina solo nei casi in cui si è fortemente limitati dalla banda passante come, ad esempio, in CoR); per quanto riguarda il discorso 2x256 o 1x512, ho già risposto (e, in ogni caso, sarebbe preferibile avere 2x256). Infatti non ci sono 512 MB per ciascuna vpu ma una via di mezzo tra 256 e 512 MB da dividere tra 2 vpu (il che significa il doppio delle unità di calcolo rispetto al caso di singola vga e il doppio della banda passante vpu-vram: e non mi pare poco). Test cpu limited a 2048x1536 UQ con filtri attivi? Non credo proprio :D
Se vogliamo parlare su dati concreti, ripeto, come si spiega il calo della XL in UQ (a parità di ram rispetto alla GTX), quando si era visto che, passando da una risoluzione all'altra, GTX e XL facevano registare cali della stessa portata? Escludendo il quantitativo di ram, restano solo 2 elementi: la bandwidth e la velocità di elaborazione del chip. Inoltre, come spieghi che in UQ la XL sia dietro alla GT (a parità di quantitativo e frequenza delle ram)? In questo caso è da escludere anche la bandwidth; quindi resta solo la velocità di elaborazione del chip
leoneazzurro
28-10-2005, 16:54
dipende; sia in AFR che in SFR, non sempre e non tutte le texture sono replicate; ad esempio, in SFR, nell'ipotesi che il bilanciamento ottimale del lavoro preveda la divisione a metà del frame, solo le texture che si trovano sulla linea di confine sono caricate su entrambe le vga (e non tutte); questo riduce di gran lunga il problema dell'over-fetching texture, presente, invece nello sli di 3Dfx (e significa anche che lo spazio occupato dalle texture eventualmente replicate è minimo).
In SFR siamo d'accordo, in AFR le texture replicate sono molte, IMHO. Il problema è che a quel punto molto dipende sul come viene renderizzata la scena in SLI (se in SFR o AFR) il che a sua volta, a quanto pare, dipende da come il motore 3d è realizzato e dalla sua compatibilità con i due modi di ripartizione del carico. Comunque anche secondo me non avremo sostanziali miglioramenti con una GTX a 512 Mbyte se le frequenze rimangono le medesime.
yossarian
28-10-2005, 17:27
In SFR siamo d'accordo, in AFR le texture replicate sono molte, IMHO. Il problema è che a quel punto molto dipende sul come viene renderizzata la scena in SLI (se in SFR o AFR) il che a sua volta, a quanto pare, dipende da come il motore 3d è realizzato e dalla sua compatibilità con i due modi di ripartizione del carico. Comunque anche secondo me non avremo sostanziali miglioramenti con una GTX a 512 Mbyte se le frequenze rimangono le medesime.
si, però in AFR renderizzi due frames contemporaneamente e i vantaggi di una tale modalità potrebbero addirittura superare gli svantaggi di dover caricare due volte le texture anzichè poterlo fare in un solo passaggio.
Focalizzare l'attenzione sulle differenze tra XL e XT e imputarle solo al maggior quntitativo di ram (che poi equivale a dire che la GTX con 512 MB sarebbe alla pari con la XT), è un'operazione completamente sbagliata.
Ripeto, facciamo una ocmparazione a parità di quantitativo ram e di bandwidth; la XL, in HQ sta davanti alla Gt e in UQ sta dietro. In questo caso la ram non c'entra niente, nè come quantitativo né come frequenza. Però staimo facendo un paragone analogo a quello tra due auto, di cui una con coppia massima a 4000 giri e una con coppia massima a 2500 giri, portando la prima a funzionare allo stesso regime di giri della seconda.
Un chip progettato per lavorare ad alte frequenze, al diminuire o all'aumentare della frequenza non ha un comportamento lineare. L'errore che si commette è continuare a fare paragoni tra queste due architetture, alla stregua di quelli che si sono fatti con architetture molto simili tra loro come caratteristiche (tipo NV4x e R4x0 o NV3x e R3x0 o R200 e NV2x e via dicendo, o anche Athlon vs Pentium).
Già si era visto con il Kyro2, che pure vedeva, fondamentalmente l'innesto di alcune feature particolari su un'architettura di tipo tradizionale, si era visto che molti parametri erano diversi rispetto a quelli delle vga contemporanee.
Se poi c'è chi vuole illudersi che siano sufficienti 512 MB di ram a 1500 Mhz per pareggiare il conto, senza o/c la gpu, è libero di farlo; in fondo sperare non costa nulla.
il raddoppio con lo sli te lo puoi pure scordare (ci si avvicina solo nei casi in cui si è fortemente limitati dalla banda passante come, ad esempio, in CoR); per quanto riguarda il discorso 2x256 o 1x512, ho già risposto (e, in ogni caso, sarebbe preferibile avere 2x256). Infatti non ci sono 512 MB per ciascuna vpu ma una via di mezzo tra 256 e 512 MB da dividere tra 2 vpu (il che significa il doppio delle unità di calcolo rispetto al caso di singola vga e il doppio della banda passante vpu-vram: e non mi pare poco). Test cpu limited a 2048x1536 UQ con filtri attivi? Non credo proprio :D
Se vogliamo parlare su dati concreti, ripeto, come si spiega il calo della XL in UQ (a parità di ram rispetto alla GTX), quando si era visto che, passando da una risoluzione all'altra, GTX e XL facevano registare cali della stessa portata? Escludendo il quantitativo di ram, restano solo 2 elementi: la bandwidth e la velocità di elaborazione del chip. Inoltre, come spieghi che in UQ la XL sia dietro alla GT (a parità di quantitativo e frequenza delle ram)? In questo caso è da escludere anche la bandwidth; quindi resta solo la velocità di elaborazione del chip
Pero' se fosse solo questione di velocita' di elaborazione del chip, sarebbe piu' veloce anche nelle altre modalita' qualitative (la GT), no??
E poi non lo escluderei il bandwidth, l'R520 ha sicuramente richiesete maggiori del g70.
Ho letto dopo il secondo post.. dunque anche tu giustamente sostieni che 1ghz per le RAM possa essere assai piu' limitativo per l'R520 che per il G70, anche se non capisco ancora perche' si manifesti maggiormente solo in UQ.
Comunque non credo che qualcuno volesse illudersi di nulla, almeno per quanto mi riguarda stavo solo cercando una spiegazione.
yossarian
28-10-2005, 17:48
Ho letto dopo il secondo post.. dunque anche tu giustamente sostieni che 1ghz per le RAM possa essere assai piu' limitativo per l'R520 che per il G70, anche se non capisco ancora perche' si manifesti maggiormente solo in UQ.
Comunque non credo che qualcuno volesse illudersi di nulla, almeno per quanto mi riguarda stavo solo cercando una spiegazione.
il rapporto banda/fillrate, nonostante i 1500 Mhz, è inferiore per la XT rispetto alla GTX, così come è inferiore per la XL rispetto alla GT; quindi se c'è un chip che dovrebbe risentire prima delle limitazioni in banda, questo è proprio R520.
Per quanto riguarda il comportamento dell'R520 al salire delle frequenze, cè da aspettarsi dei salti improvvisi, man mano che si superino determinati colli di bottiglia che, data l'architettura particolare, non coincidono, in molti casi, con quelli di R4x0 o G70.
I colli di bottiglia principali per G70, attualmente, sono il fillrate assoluto e la velocità di elaborazione soprattutto nelle operazioni di texturing (se guardi i test fatti su B3D puoi renderti conto che, all'aumentare del numero di texel per pixel, G70, che con una sola texture (situazione in cui la bandwidth è più importante) è in vantaggio, venga progressivamente raggiunto, superato e distanziato quando si arriva a 8 texture. Per diminuire l'impatto di questi colli di bottiglia è necessario aumentare la frequenza delle rop's e, in misura minore (per non riproporre una configurazione squilibrata), quella del pixel processor. A questo punto di può pensare di aumentare la bandwidth utilizzando ram più veloci. In caso contrario è del tutto inutile.
andreamarra
28-10-2005, 19:21
La tua visione e' un po' di parte, non te la prendere se te lo dico!!
Mi sembra ovvio che ora la 1800XT abbia "psicologicamente"(ancora non fisicamente) preso il posto della 7800GTX, dunque e' sì tanto ovvio che nVidia corra ai ripari, ma era prevedibile ed e' normale. Accadra' piu' o meno all'infinito!! :)
Tra le opzioni ne hai saltata una..
- nVidia potenzia un po' il suo "vecchio" chip, per colmare i deficit prestaziuonali nei confronti della concorrenza ed incrementare i vantaggi.
Insomma, ATI e' rimasta dietro per molti mesi (sei sono una generazione nell'informatica) ora con un chippone nuovo di zecca anche nel concetto ha ripreso buona parte del comando, non mi scandalizza affatto che nVidia possa non "stradominare" come ha fatto fino a poco fa. Non mi stupisce nemmeno che necessiti di qualche mese per immettere sul mercato soluzioni capaci di rivaleggiare con o battere il futuro R580.
Dal punto di vista funzionale l'R520 e' avanti, non c'e' dubbio, ma non e' certo un vantaggio cosi' vasto da dover correre ai ripari immediatamente. Insomma, se l'anisotropico ATI e' ora piu' preciso (sfido a vederne comunque la differenza) e se puo' applicare l'AA assieme all'HDR su UN SOLO titolo in commercio, poco importa. Del resto ATi si e' tenuta gli SM2.0/2.0b o l'impossibilita' di implementare l'HDR nel succitato titolo per un anno e passa.
hai ragione anche tu, è ovvio che la nvidia essendo uscita prima possa semplicemente, una volta uscito l'R520, vedere come va e "porre rimedio" nella GTX 512.
Per "porre rimedio" intendo aumentare un pò la frequenza e recuperare possibili gap. In fondo se quanto detto da yossarian (che io seguo da anni, non sbaglia quasi mai una previsione :D) è corretto, una GTX con 512 mega di ram starebbe praticamente allo stesso livello di una GTX 256. O pochissimo di più. Quindi è normale che aumenti le frequenze per diminuire il gap con la XT dove c'è, e per consolidare la sua posizione dove è messa meglio.
Sul discorso "essere di parte": vedo che sei iscritto qui da pochi mesi e quindi non credo proprio tu mi conosca... io in vita mia ho provato tantissime schede video di marche diverse, e ogni acquisto l'ho ponderato in base a quella che, nel momento in cui avevo necessità di acquisto, la consideravo la migliore in senso assoluto. Non sono un fanboy ati, ho sempre detto di essere un grande estimatore della Matrox. Matrox Millennium 8Mb, il primo amore non si scorda mai :D
Poi quando andavano in giro le 3DFX ero felicissimo.
Poi ho puntato sulle nvidia, con cui mi sono sempre trovato benissimo. Ora sto con una ati.
Ma nel frattempo, tu non hai avuto modo di leggere, nei vari 3D della NV40 dopo un iniziale "pregiudizio" verso la nvidia (dovuto allo scempio della serie FX) sono rimasto inizialmente tiepido nei confronti del NV40. Mi facevo tante domande, soprattutto sulla resa in PS2.0/ps3.0 e sul banding. Ma solo perchè la serie prcedente aveva fatto molto schifo, quindi ero parecchio titubante.
Dopo un pò vedendo come in realtà andavano ste schede NV40 ne sono rimasto entusiasta, come ora soo entusiasta di questo R520.
Difatti nel forum e nella vita privata a chi mi chiedeva consigli (anche in PVT) su quale scheda video comprare, io indicavo sempre e comunque il NV40. Anche se a prestazioni brute la ati era leggermente sopra. Perchè l'NV40 era tecnologicamente molto più avanzata di R420.
Avrò fatto comprare da solo almeno 6 schede nvidia (soprattutto la 6800GT da portare a Ultra).
E se rileggessi i miei post sul NV40 vedresti che, esattamente come qui, non facevo altro che elogiarne le doti davvero spettacolari. Perchè i miei scrupoli iniziali sono andati dissipandosi del tutto. Per poco non la compravo (ma in quel momento i soldi li ho dovuti usare per una relazione a distanza con una ragazza... e l'albergo costa :oink: :cry: ). Altrimenti, una 6800 ce l'avevo da un bel pò nel case.
Non sono uno che segue il "cuore", la tritengo una cosa stupida. Una marca di schede video non è come la squadra del cuore, che se va male non si cambia.
ciao :)
hai ragione anche tu, è ovvio che la nvidia essendo uscita prima possa semplicemente, una volta uscito l'R520, vedere come va e "porre rimedio" nella GTX 512.
Per "porre rimedio" intendo aumentare un pò la frequenza e recuperare possibili gap. In fondo se quanto detto da yossarian (che io seguo da anni, non sbaglia quasi mai una previsione :D) è corretto, una GTX con 512 mega di ram starebbe praticamente allo stesso livello di una GTX 256. O pochissimo di più. Quindi è normale che aumenti le frequenze per diminuire il gap con la XT dove c'è, e per consolidare la sua posizione dove è messa meglio.
Sul discorso "essere di parte": vedo che sei iscritto qui da pochi mesi e quindi non credo proprio tu mi conosca... io in vita mia ho provato tantissime schede video di marche diverse, e ogni acquisto l'ho ponderato in base a quella che, nel momento in cui avevo necessità di acquisto, la consideravo la migliore in senso assoluto. Non sono un fanboy ati, ho sempre detto di essere un grande estimatore della Matrox. Matrox Millennium 8Mb, il primo amore non si scorda mai :D
Poi quando andavano in giro le 3DFX ero felicissimo.
Poi ho puntato sulle nvidia, con cui mi sono sempre trovato benissimo. Ora sto con una ati.
Ma nel frattempo, tu non hai avuto modo di leggere, nei vari 3D della NV40 dopo un iniziale "pregiudizio" verso la nvidia (dovuto allo scempio della serie FX) sono rimasto inizialmente tiepido nei confronti del NV40. Mi facevo tante domande, soprattutto sulla resa in PS2.0/ps3.0 e sul banding. Ma solo perchè la serie prcedente aveva fatto molto schifo, quindi ero parecchio titubante.
Dopo un pò vedendo come in realtà andavano ste schede NV40 ne sono rimasto entusiasta, come ora soo entusiasta di questo R520.
Difatti nel forum e nella vita privata a chi mi chiedeva consigli (anche in PVT) su quale scheda video comprare, io indicavo sempre e comunque il NV40. Anche se a prestazioni brute la ati era leggermente sopra. Perchè l'NV40 era tecnologicamente molto più avanzata di R420.
Avrò fatto comprare da solo almeno 6 schede nvidia (soprattutto la 6800GT da portare a Ultra).
E se rileggessi i miei post sul NV40 vedresti che, esattamente come qui, non facevo altro che elogiarne le doti davvero spettacolari. Perchè i miei scrupoli iniziali sono andati dissipandosi del tutto. Per poco non la compravo (ma in quel momento i soldi li ho dovuti usare per una relazione a distanza con una ragazza... e l'albergo costa :oink: :cry: ). Altrimenti, una 6800 ce l'avevo da un bel pò nel case.
Non sono uno che segue il "cuore", la tritengo una cosa stupida. Una marca di schede video non è come la squadra del cuore, che se va male non si cambia.
ciao :)
Non mi permetterei mai di darti del FanBoy, ci mancherebbe.. i FB sono ben altri!! e' solo che dal quadretto che avevi dipinto (nelle opzioni di cio' che significava la nuova uscita di un G70 potenziato) ho intravisto un po' di partigianeria ATIana. Capisco le prelibatezze tecnologiche di questo chip, che piacciono ed attirano molto anche me, ma forse ti eri lasciato prendere un po' la mano. Insomma, e' migliore, ci mancherebbe e nessuno lo nega, ma (almeno per ora) non domina come ha fatto il G70 nelle prestazioni (e l'NV40 e derivati nelle vendite). Comuqnue evviva la concorrenza, ora che nVidia non e' sola (ora che ATI ha terminato con il progetto R500;)) ci sara' sicuramente piu' da "divertirsi".
il rapporto banda/fillrate, nonostante i 1500 Mhz, è inferiore per la XT rispetto alla GTX, così come è inferiore per la XL rispetto alla GT; quindi se c'è un chip che dovrebbe risentire prima delle limitazioni in banda, questo è proprio R520.
Per quanto riguarda il comportamento dell'R520 al salire delle frequenze, cè da aspettarsi dei salti improvvisi, man mano che si superino determinati colli di bottiglia che, data l'architettura particolare, non coincidono, in molti casi, con quelli di R4x0 o G70.
I colli di bottiglia principali per G70, attualmente, sono il fillrate assoluto e la velocità di elaborazione soprattutto nelle operazioni di texturing (se guardi i test fatti su B3D puoi renderti conto che, all'aumentare del numero di texel per pixel, G70, che con una sola texture (situazione in cui la bandwidth è più importante) è in vantaggio, venga progressivamente raggiunto, superato e distanziato quando si arriva a 8 texture. Per diminuire l'impatto di questi colli di bottiglia è necessario aumentare la frequenza delle rop's e, in misura minore (per non riproporre una configurazione squilibrata), quella del pixel processor. A questo punto di può pensare di aumentare la bandwidth utilizzando ram più veloci. In caso contrario è del tutto inutile.
Forse sono stato meno chiaro di te, ma ho detto la stessa cosa, R520 ha indubbiamente piu' necessita' di banda. :)
leoneazzurro
30-10-2005, 20:15
si, però in AFR renderizzi due frames contemporaneamente e i vantaggi di una tale modalità potrebbero addirittura superare gli svantaggi di dover caricare due volte le texture anzichè poterlo fare in un solo passaggio.
Focalizzare l'attenzione sulle differenze tra XL e XT e imputarle solo al maggior quntitativo di ram (che poi equivale a dire che la GTX con 512 MB sarebbe alla pari con la XT), è un'operazione completamente sbagliata.
Ripeto, facciamo una ocmparazione a parità di quantitativo ram e di bandwidth; la XL, in HQ sta davanti alla Gt e in UQ sta dietro. In questo caso la ram non c'entra niente, nè come quantitativo né come frequenza. Però staimo facendo un paragone analogo a quello tra due auto, di cui una con coppia massima a 4000 giri e una con coppia massima a 2500 giri, portando la prima a funzionare allo stesso regime di giri della seconda.
Un chip progettato per lavorare ad alte frequenze, al diminuire o all'aumentare della frequenza non ha un comportamento lineare. L'errore che si commette è continuare a fare paragoni tra queste due architetture, alla stregua di quelli che si sono fatti con architetture molto simili tra loro come caratteristiche (tipo NV4x e R4x0 o NV3x e R3x0 o R200 e NV2x e via dicendo, o anche Athlon vs Pentium).
Già si era visto con il Kyro2, che pure vedeva, fondamentalmente l'innesto di alcune feature particolari su un'architettura di tipo tradizionale, si era visto che molti parametri erano diversi rispetto a quelli delle vga contemporanee.
Se poi c'è chi vuole illudersi che siano sufficienti 512 MB di ram a 1500 Mhz per pareggiare il conto, senza o/c la gpu, è libero di farlo; in fondo sperare non costa nulla.
Ma questo è chiaro e concordo, il mio appunto si riferiva solo al fatto che in determinate modalità di rendering, ove è penalizzata la singola scheda a causa dei "soli" 256 mega, potrebbe essere penalizzato anche lo SLI per il medesimo motivo, per cui ove potrebbero esserci miglioramenti con 512 mbyte con una singola scheda potrebbero esserci anche con lo SLI con 2 schede da 512.
Faccio un esempio: siamo in regime di AFR e con texture pack es. da 400 Mbyte. La GTX a 256 Mbyte fa 30 FPS. La X1800 XT ne fa 45. 2 GTX in SLI ne fanno 45 anche loro. Concludo che lo SLI non è un granchè rispetto alla 1800 nonostante si abbiano il doppio delle pipeline e della banda ripetto alla soluzione a singola scheda.
Se una GTX però riuscisse ad arrivare con 512 Mbyte a 35-40 fps, pur rimanendo inferiore alla 1800XT, con lo SLI potrei arrivare a 50-60 FPS. Quindi, tolto il collo di bottiglia (in questo caso particolare dove il collo di bottiglia sono i 256 Mbyte di VRAM) vedo ristabiliti i valori che vedevano le 2 schede in SLI decisamente superiori in termini di pura potenza bruta.
Ovvio che si tratta di un caso particolare, ma si potrebbe verificare. Tutto qui. Chiaramente con lo SLI vi è solo un aumento dell'inefficienza generale.
yossarian
30-10-2005, 20:21
Ma questo è chiaro e concordo, il mio appunto si riferiva solo al fatto che in determinate modalità di rendering, ove è penalizzata la singola scheda a causa dei "soli" 256 mega, potrebbe essere penalizzato anche lo SLI per il medesimo motivo, per cui ove potrebbero esserci miglioramenti con 512 mbyte con una singola scheda potrebbero esserci anche con lo SLI con 2 schede da 512.
Faccio un esempio: siamo in regime di AFR e con texture pack es. da 400 Mbyte. La GTX a 256 Mbyte fa 30 FPS. La X1800 XT ne fa 45. 2 GTX in SLI ne fanno 45 anche loro. Concludo che lo SLI non è un granchè rispetto alla 1800 nonostante si abbiano il doppio delle pipeline e della banda ripetto alla soluzione a singola scheda.
Se una GTX però riuscisse ad arrivare con 512 Mbyte a 35-40 fps, pur rimanendo inferiore alla 1800XT, con lo SLI potrei arrivare a 50-60 FPS. Quindi, tolto il collo di bottiglia (in questo caso particolare dove il collo di bottiglia sono i 256 Mbyte di VRAM) vedo ristabiliti i valori che vedevano le 2 schede in SLI decisamente superiori in termini di pura potenza bruta.
Ovvio che si tratta di un caso particolare, ma si potrebbe verificare. Tutto qui. Chiaramente con lo SLI vi è solo un aumento dell'inefficienza generale.
infatti, nel caso dell'AFR continua a rimanere il vincolo imposto dal quantitativo di ram on board su ogni singola scheda. In quel caso, ogni scheda renderizza una scena intera per proprio conto e, tranne i dati relativi all'elaborazione geometrica e poco altro, che la vga che ha elaborato il primo frame passa all'altra, il resto, texture comprese (che sono la parte più ingombrante) devono essere caricate interamente sulla vram di una singola vga.
Rileggendo un post ho trovato questo..
nVIDIA ha sostenuto che le rop's e le vsu di G70 lavorino in asincrono rispetto alle psu; se ciò fosse vero, la stessa cosa dovrebbe avvenire in NV40, in quanto le differenze nella velocità d'elaborazione dei vs sono proporzionali al solo aumento del numero delle unità di calcolo e il pixel fillrate fatto registrare nei bench sintetici da 6800 Ultra e 7800 GTX è pressochè identico.
Sì, ovviamente lavorano in asincrono anche nell'NV40, infatti i primi errori di lettura delle frequenze di rivatuner si manifestarono proprio con questo chip, che se non erro, riportava 470Mhz per la Ultra. Ora pero' non ricordo esattamente dove prendesse il dato, sta di fatto che secondo nVidia il chip non lavora tutto alla medesima frequenza.
freerider79
01-11-2005, 18:27
Ragazzi quante parole per pochi frame rate in più nei giochi.
NESSUNA DELLE DUE SCHEDE ATI O NVIDIA HA FATTO IL SALTO DI QUALITà CHE FORSE CI SI ATTENDEVA
INOLTRE...
Le schede con 512mb per ora sono inutili poichè le stesse industrie di game parlano di lavorare più sulla programmazione che sui MB delle texture.
Come sono inutili ora 1500mhz per le frequenze video-ram (cpu limited)
Se portassimo una x1800xt a 256mb, 1200mhz per le memorie i risultati sarebbero favorevoli alla 7800gtx senza dubbio.
I test inoltre sono stati eseguiti con driver ORMAI vecchi; con 3dmark05 e gli ultimissimi driver nvidia faccio ben 650 punti in più dei bench che leggo nei siti, come mai? :-) chi me la spiega?
ho un amd64 4000+ 1gb ram e 7800gtx asus
picard88
01-11-2005, 19:11
Come sono inutili ora 1500mhz per le frequenze video-ram
come fai a dire che sono inutili?..se ci mettevano memorie più lente la scheda avrebbe dato risultati inferiori xkè è bandwith limited..allora ha senso dire che sono inutili????Se portassimo una x1800xt a 256mb, 1200mhz per le memorie i risultati sarebbero favorevoli alla 7800gtx senza dubbio. se mio nonno avesse 48 pipe a 20000 GHZ e si mettesse a pedalare nel pc allora le darebbe di santa ragione a queste 2 schede :rolleyes: dato che una XT con 256 MB di ram a 1200 MHz nn esiste la GTX è dietro :D I test inoltre sono stati eseguiti con driver ORMAI vecchi; con 3dmark05 e gli ultimissimi driver nvidia faccio ben 650 punti in più dei bench che leggo nei siti, come mai? :-) chi me la spiega? http://www.hwupgrade.it/articoli/skvideo/1359/10.html direi che quei punti in più nn ti bastano cmq per battere la XTho un amd64 4000+ 1gb ram e 7800gtx asus guarda nn avevo dubbi :rolleyes:
picard88
01-11-2005, 19:17
ah..un'altra cosaNESSUNA DELLE DUE SCHEDE ATI O NVIDIA HA FATTO IL SALTO DI QUALITà CHE FORSE CI SI ATTENDEVA
nVidia no di certo xké G70 è un'evoluzione di nv40..ma ATI con R520...bè leggiti la rece e poi dimmi se non ha fatto un (anche se non grandissimo) salto di qualità.. ;)
yossarian
01-11-2005, 20:33
Ragazzi quante parole per pochi frame rate in più nei giochi.
NESSUNA DELLE DUE SCHEDE ATI O NVIDIA HA FATTO IL SALTO DI QUALITà CHE FORSE CI SI ATTENDEVA
infatti, e tu hai speso 200 € inutilmente, visto che con 300 € circa, compravi una 6800 GT che, stando a quello che dici, è più o meno la stessa cosa :D
INOLTRE...
Le schede con 512mb per ora sono inutili poichè le stesse industrie di game parlano di lavorare più sulla programmazione che sui MB delle texture.
ok............................
Come sono inutili ora 1500mhz per le frequenze video-ram (cpu limited)
ok.............................
Se portassimo una x1800xt a 256mb, 1200mhz per le memorie i risultati sarebbero favorevoli alla 7800gtx senza dubbio.
qui i conti non ti tornano: 512 Mb sono inutili, 1500 Mhz sono inutili, se portiamo la XT a 256 MB e 1200 Mhz va meglio la GTX? Una cosa inutile non può fare la differenza. Poche idee ma ben confuse? :D
I test inoltre sono stati eseguiti con driver ORMAI vecchi; con 3dmark05 e gli ultimissimi driver nvidia faccio ben 650 punti in più dei bench che leggo nei siti, come mai? :-) chi me la spiega?
già, perchè, dopo un anno è mezzo di NV40 e 5 mesi di G70, i drivers sono ancora acerbi :sofico:
ho un amd64 4000+ 1gb ram e 7800gtx asus
questo nessuno lo metteva in dubbio :D
ah..un'altra cosa nVidia no di certo xké G70 è un'evoluzione di nv40..ma ATI con R520...bè leggiti la rece e poi dimmi se non ha fatto un (anche se non grandissimo) salto di qualità.. ;)
Non parlerei di salto qualitativo o evoluzione, e' migliorata quanto basta per passare da poco sotto a poco sopra ad nVidia sia come qualita' che come prestazioni, ma da questi due punti di vista non e' una rivoluzione, cosa che invece e' nell'architettura.
http://www.hwupgrade.it/articoli/skvideo/1359/10.html direi che quei punti in più nn ti bastano cmq per battere la XT guarda nn avevo dubbi :rolleyes:
Beh, pero' 526Mhz per la CPU e 1434 per la Ram, bastano.. ;)
http://img141.imageshack.us/img141/8554/780093704fi.jpg (http://imageshack.us)
Che cpu e' stata utilizzata per quel test??
Tra pochi giorni mi arriva il dual opteron, spero di sfiorare i 10K.
picard88
02-11-2005, 18:02
Beh, pero' 526Mhz per la CPU e 1434 per la Ram, bastano.. ;)
vabbè allora se clocco la XT a 750 voglio vedè se non ti ripiglio :p :D
vabbè allora se clocco la XT a 750 voglio vedè se non ti ripiglio :p :D
Lo sapevo che qualcuno lo avrebbe detto!! :) Era solo per far notare come bastasse un modesto incremento delle frequenze per recuperare l'attuale gap, strada che potrebbe seguire nVidia per il momento.
E' ovvio che overclockando la 1800 si possano raggiungere risultati notevoli, anzi, non vedo l'ora di vederne due in CF. :D
Ma XT parlavi della 1800 sì?? :D
freerider79
02-11-2005, 18:33
Che acerbi che siete :) stavo solo esprimendo un parere.. ;)
Non ho mai messo in dubbio la superiorità della x1800xt però guarda caso la x1800xl perde già molto rispetto alla sorella maggiore e si affianca alla 7800gt, eppure ci sono delle caratteristiche tecniche in più per ati, questo per voi è solo un mio parere???
Inoltre continuate a paragonare due schede dalle caratteristiche ben differenti; 10gb/s di banda passante in più,300mhz per le memorie, 200mhz per il core in più e un processo produttivo inferiore vi sembra poco??????? :o
Comunque appena mi arriverà in negozio la proverò per bene e scusate la mio scetticismo.
saluti a tutti
yossarian
02-11-2005, 18:39
Lo sapevo che qualcuno lo avrebbe detto!! :) Era solo per far notare come bastasse un modesto incremento delle frequenze per recuperare l'attuale gap, strada che potrebbe seguire nVidia per il momento.
E' ovvio che overclockando la 1800 si possano raggiungere risultati notevoli, anzi, non vedo l'ora di vederne due in CF. :D
beh, insomma....modesto non direi: 100 Mhz in più sul core, significano il 23% in più rispetto ai 430 di partenza :D
Ma cosa clocchi, dove la vedi sta scheda :ciapet: ?
Free Gordon
02-11-2005, 19:20
vabbè allora se clocco la XT a 750 voglio vedè se non ti ripiglio :p :D
Mah, a dire la verità 9k e rotti dovresti farli a default con la XT. :D
Con 100mhz (725), credo che siano mille e passa in più i punti.
freerider79
02-11-2005, 19:23
Ragazzi comunque sia vi posso garantire che sta 7800gtx per le caratteristiche che ha va veramente bene.
Inoltre è molto silenziosa e consuma poco.
ho provato ad aprire far cry e doom3 insieme con dettagli al massimo e filtri attivati e non scendo sotto i 60-80 frame al secondo per entrambe i giochi. vi sembra poco?
Sta benedetta x1800 la proverò appena mi arriva in magazzino.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.