View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT
c'è da aggiungere l'iva poi. azz un botto
Un botto davvero...
Si che si può o non si può ?
Ho fatto la conversione $cad / euro 649$ > 458! Ottimo prezzo!
Però tra spese postali e tasse doganali quanto pensi che mi verrebbe? :)
IMHO sui 500€ il tutto...
Non perdiamo pagine a discutere di conversioni o negozi migliori di altri. Ci sono i pvt per queste cose.
Non ero stato chiaro forse?
Qui si vedono chiaramente le memorie che monta... :sbavvv:
http://www.iamxtreme.net/video/hd2900xt/hd2900xt_03.jpg
Per chiudere definitavemente l'OT sui prezzi\spedizioni, informatevi bene perchè io sapevo che se ve la fate spedire come "gift" (regalo) specificandolo bene sulla confezione e sulla bolla di spedizione, non c'è alcun problema alla dogana e le spese sono minori.
;)
ps. comunque Diamond ha uno dei migliori store online dedicati. Chiedete a loro.
Qui si vedono chiaramente le memorie che monta... :sbavvv:
Tecnicamente valide ma ci sarebbe da discutere sulla reale necessita di questo upgrade tanto infatti che non e' appunto ufficiale. Credo che ci siano diversi aspetti commerciali per sfruttare i clienti da parte degli assemblatori se diventera' una moda.
In attesa di vedere comunque prove sul campo veriterie e variegate.
vai sull'eseguibile del 3dmark, fai proprietà e in destinazione vedrai
C:\Programmi\Futuremark\3DMark05\3DMark06.exe
lascia uno spazio e inserisci: -nosysteminfo
alla fine sarà così
C:\Programmi\Futuremark\3DMark05\3DMark05.exe -nosysteminfo
Ciao e grazie a funzionato ma nn c'e qualche sbaglio nel mio sistema?? , nn vedevo lora di rivedere il tuo avatar direi che quella meraviglia e una scultura di michelangelo :oink: Ciao
Voglio una rece qui su hwupgradeeeeeee!:cry:
A 750 Watt or better power supply with two 2x3-pin PCIeú power connectors. For optimal performance, we recommend requires one 2x3-pin and one 2x4-pin PCIe power connector. For a list of certified power supplies, please see
poi per l'oc consigliano il famigerato 2x4. famigerato perchè difficile da trovare.
;)
mah io cosi famigerato nn credo...
ho preso ormai un anno fa un Lc titan 560...ha la presenza del connettore 8pin e 2 6pin e 4pin per le mobo.
ad esempio la mia dfi una icrx3200(mobo intel chip ati rd600) monta gia il connettore a 8pin per l'alimentazione.
difatti adesso ho messo l'8pin al posto del 4pin per l'alimentazione(ovviamente il 4 pin va benissimo e c'è scritto come inserirlo)e 1 6pin adesso va alla 8800gts.
ovviamente se decido di prendere la 2900 sicuramente il 4pin che adesso sta a spasso torna sulla mobo e il 6pin+8pin finiscono sulla vga.
ergo nsomma sto 4 pin per me c'è da almeno 1 anno anche su alimentatori di 50-60 e non solo su quelli da 150.
halduemilauno
14-06-2007, 11:23
mah io cosi famigerato nn credo...
ho preso ormai un anno fa un Lc titan 560...ha la presenza del connettore 8pin e 2 6pin e 4pin per le mobo.
ad esempio la mia dfi una icrx3200(mobo intel chip ati rd600) monta gia il connettore a 8pin per l'alimentazione.
difatti adesso ho messo l'8pin al posto del 4pin per l'alimentazione(ovviamente il 4 pin va benissimo e c'è scritto come inserirlo)e 1 6pin adesso va alla 8800gts.
ovviamente se decido di prendere la 2900 sicuramente il 4pin che adesso sta a spasso torna sulla mobo e il 6pin+8pin finiscono sulla vga.
ergo nsomma sto 4 pin per me c'è da almeno 1 anno anche su alimentatori di 50-60 e non solo su quelli da 150.
famigerato era una battuta perchè ricordo che in un certo momento molti lo cercavano e non lo trovavano.
tutto qui.
Tecnicamente valide ma ci sarebbe da discutere sulla reale necessita di questo upgrade tanto infatti che non e' appunto ufficiale. Credo che ci siano diversi aspetti commerciali per sfruttare i clienti da parte degli assemblatori se diventera' una moda.
In attesa di vedere comunque prove sul campo veriterie e variegate.
Certo che ha dell'incredibile un upgrade non ufficiale... :asd:
Comunque anch'io aspetto delle prove... ;)
Free Gordon
14-06-2007, 13:14
Tutti cerchiamo sostegno per scelte che abbiamo già fatto ;)
E' vero. ^_^
JoeLatino
14-06-2007, 13:20
ciao
vi volevo segnalare questo articolo abbastanza interessante:D
http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=655
ciao
vi volevo segnalare questo articolo abbastanza interessante:D
http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=655
Ati sta lavorando molto nell'ambito nell'opengl. A parte le differenze di archittettura che privilegiano un tipo di test ad un altro, sembra che che nonostante si usino sempre quei driver che conosciamo, sia discretamente buona sotto vista. Mi sa che il team, anche guardando i risultati dei giochi, sti privilegiando le prestazioni dx sotto xp e opengl sotto vista....
Cvviamente si vede comunque che Opengl sotto vista ha ancora parecchi problemini... sia per i driver immaturi, sia per l'implementazione stessa di ogl sotto vista...
JoeLatino
14-06-2007, 13:33
Ati sta lavorando molto nell'ambito nell'opengl. A parte le differenze di archittettura che privilegiano un tipo di test ad un altro, sembra che che nonostante si usino sempre quei driver che conosciamo, sia discretamente buona sotto vista. Mi sa che il team, anche guardando i risultati dei giochi, sti privilegiando le prestazioni dx sotto xp e opengl sotto vista....
Cvviamente si vede comunque che Opengl sotto vista ha ancora parecchi problemini... sia per i driver immaturi, sia per l'implementazione stessa di ogl sotto vista...
gia'....
l'articolo non e' male,peccato che nei tests non hanno messo anche una 8800gts 640mb (al pari con una 2900xt) ed una 8800gtx; cosi' si potevano vedere meglio le differenze;)
inoltre con vista sarebbe stato utile provare la versione a 64bit,non credete?
JoeLatino
14-06-2007, 13:35
ho letto in giro che in Europa la versione ad 1gb si dovrebbe trovare tra una decina di giorni...
qualcuno ha per caso gia' trovato delle recensioni?
gianni1879
14-06-2007, 13:42
ciao
vi volevo segnalare questo articolo abbastanza interessante:D
http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=655
interessante davvero ;)
con Vista sembra guadagnare parecchio in alcune situazioni....
gia'....
l'articolo non e' male,peccato che nei tests non hanno messo anche una 8800gts 640mb (al pari con una 2900xt) ed una 8800gtx; cosi' si potevano vedere meglio le differenze;)
inoltre con vista sarebbe stato utile provare la versione a 64bit,non credete?
per la 640 cosa volevi che cambiasse? la ram con quei test non da molto vantaggiom, e anzi la 320 è adirittura una versione overcloccata...quindi.... :mbe:
la gtx non ha senso poichè si parla di 2 schede con 150 euro di differenza...
per quanto riguarda il connettore 2x4 pin... io ho un alimentatore Corsair HX620W che esce con questo connettore sempre 2x4:
http://www.overclockers.com/articles1351/hx620-3.jpg
per ora ho sempre usato i cavi 2x3 pci express
dite che se uso quel connettore 2x4 può andare, oppure se lo monto scoppia tutto?^^
grazie
mah io cosi famigerato nn credo...
ho preso ormai un anno fa un Lc titan 560...ha la presenza del connettore 8pin e 2 6pin e 4pin per le mobo.
ad esempio la mia dfi una icrx3200(mobo intel chip ati rd600) monta gia il connettore a 8pin per l'alimentazione.
difatti adesso ho messo l'8pin al posto del 4pin per l'alimentazione(ovviamente il 4 pin va benissimo e c'è scritto come inserirlo)e 1 6pin adesso va alla 8800gts.
ovviamente se decido di prendere la 2900 sicuramente il 4pin che adesso sta a spasso torna sulla mobo e il 6pin+8pin finiscono sulla vga.
ergo nsomma sto 4 pin per me c'è da almeno 1 anno anche su alimentatori di 50-60 e non solo su quelli da 150.
anche il mio Enermax ha il cavo a 8pin per la mobo ma non credo si tratti dello stesso delle Gpu o sbaglio?
JoeLatino
14-06-2007, 14:15
per la 640 cosa volevi che cambiasse? la ram con quei test non da molto vantaggiom, e anzi la 320 è adirittura una versione overcloccata...quindi.... :mbe:
la gtx non ha senso poichè si parla di 2 schede con 150 euro di differenza...
ehm capisco eliminare la gtx ma non credo che non ci siano differenze tra 320mb e 640mb visto che sono tests grafici abbastanza impegnativi:rolleyes:
per quanto riguarda la 320mb si' e' vero e' oc di serie ed e' per questo che sto' tenendo d'occhio la 2900...
purtroppo mi preoccupa molto l'alimentazione ed il consumo:( altrimenti forse l'avrei gia' presa...
ehm capisco eliminare la gtx ma non credo che non ci siano differenze tra 320mb e 640mb visto che sono tests grafici abbastanza impegnativi:rolleyes:
per quanto riguarda la 320mb si' e' vero e' oc di serie ed e' per questo che sto' tenendo d'occhio la 2900...
purtroppo mi preoccupa molto l'alimentazione ed il consumo:( altrimenti forse l'avrei gia' presa...
il tuo alimentatore è sufficiente per qualsiasi scheda video in commercio cavo a 8pin o no;)
JoeLatino
14-06-2007, 14:22
il tuo alimentatore è sufficiente per qualsiasi scheda video in commercio cavo a 8pin o no;)
grazie,su quello ne ero abbastanza certo:D
e' che avendo gia' un wb liquido per Nvidia serie 8800 prendendo una AMD dovrei cambiare il tutto e sarebbero altre spese:cry:
grazie,su quello ne ero abbastanza certo:D
e' che avendo gia' un wb liquido per Nvidia serie 8800 prendendo una AMD dovrei cambiare il tutto e sarebbero altre spese:cry:
bhe allora la scelta mi pare obbligata:)
Iantikas
14-06-2007, 15:25
mah io cosi famigerato nn credo...
ho preso ormai un anno fa un Lc titan 560...ha la presenza del connettore 8pin e 2 6pin e 4pin per le mobo.
ad esempio la mia dfi una icrx3200(mobo intel chip ati rd600) monta gia il connettore a 8pin per l'alimentazione.
difatti adesso ho messo l'8pin al posto del 4pin per l'alimentazione(ovviamente il 4 pin va benissimo e c'è scritto come inserirlo)e 1 6pin adesso va alla 8800gts.
ovviamente se decido di prendere la 2900 sicuramente il 4pin che adesso sta a spasso torna sulla mobo e il 6pin+8pin finiscono sulla vga.
ergo nsomma sto 4 pin per me c'è da almeno 1 anno anche su alimentatori di 50-60 e non solo su quelli da 150.
guarda ke l'8pin di cui parli è l'EPS ke nn centra niente con l'8pin PCI-E (nn riusciresti neanke a ficcarlo dentro il connettore dato ke la forma dei piedini è diversa)...
...cmq dell'8pin nn te ne fai niente, almeno al momento...i 75W imposti come limite sul 6pin e i 150W sul 8pin PCI-E sono limiti sulla carta (specifike x stare sicuri, ma parekkio) ma il connettore può far passare MOLTA ma MOLTA + corrente senza danneggiarsi (ti basta pensare ke in alcune rece di ali dove usano un Load Tester a volte ci fanno passare pure + di 15A dal cavetto 6pin pci-e)...
...l'unica cosa ke perdi nn usando l'8pin pci-e sulla HD2900XT è l'overdrive da CCC ma nn ti limita in niente e x niente...ciao
appleroof
14-06-2007, 16:25
Quindi si può ordinare dal Canada? Proprio poco fa parlando con un amico mi diceva che ne dagli USA ne dal Canada posso inviare componenti elettronici, e comunque, nel caso gli spediscano, si pagherebbe un sacco di spese doganali, è vero?
Posto solo perchè la mia esperienza forse può essere utile a tutti evitando il ripetersi di domande tutte uguali: ho comprato 2 volte dagli USA, la prima una vga e la seconda un procio, la prima volta la venditrice ha messo "gift" nella causale del pacco (regalo) e non ho pagato nessuna Iva, la seconda il venditore si è rifiutato di fare questo escamotage perchè affermava di essere già stato sottoposto a controllo dal fisco locale (e non ho motivo di credergli, visto che l'Iva che ho pagato è quella italiana pagata al fisco italiano, non a lui) per cui assieme al procio mi è arrivato il bollettino doganale che mi faceva pagare la relativa Iva alla consegna.
Dunque, se riuscite a farvelo spedire come regalo mettendovi d'accordo con il venditore non pagate l'Iva (ma rischiate un controllo, peraltro molto difficile su pezzi del genere di basso importo rispetto alla mole dei beni che passano in dogana) altrimenti pagate l'Iva italiana, calcolata sul controvalore in euro del prezzo in dollari (o quello che è) pagato al venditore amerciano (o quello che è) ;)
Spero di essere stato esauriente in modo, ripeto, di evitare magari il reiterarsi di domande tutte uguali :D
gianni1879
14-06-2007, 16:41
Posto solo perchè la mia esperienza forse può essere utile a tutti evitando il ripetersi di domande tutte uguali: ho comprato 2 volte dagli USA, la prima una vga e la seconda un procio, la prima volta la venditrice ha messo "gift" nella causale del pacco (regalo) e non ho pagato nessuna Iva, la seconda il venditore si è rifiutato di fare questo escamotage perchè affermava di essere già stato sottoposto a controllo dal fisco locale (e non ho motivo di credergli, visto che l'Iva che ho pagato è quella italiana pagata al fisco italiano, non a lui) per cui assieme al procio mi è arrivato il bollettino doganale che mi faceva pagare la relativa Iva alla consegna.
Dunque, se riuscite a farvelo spedire come regalo mettendovi d'accordo con il venditore non pagate l'Iva (ma rischiate un controllo, peraltro molto difficile su pezzi del genere di basso importo rispetto alla mole dei beni che passano in dogana) altrimenti pagate l'Iva italiana, calcolata sul controvalore in euro del prezzo in dollari (o quello che è) pagato al venditore amerciano (o quello che è) ;)
Spero di essere stato esauriente in modo, ripeto, di evitare magari il reiterarsi di domande tutte uguali :D
esatto io ho avuto tre esperienze:
1)vga arrivata in italia ma la dicitura GIFT era poco leggibile ed ho pagato mia pare attorno ai 60/70euro, ma poi il venditore mi ha rimborsato per intero
2)rma direttamente alla ATI si sono fatti carico interamente loro delle spese di ritorno (vga arrivata in una settimana e nemmeno, più il tempo delle pratiche online che il resto)
3)ram nn ho pagato nessuna dogana, sempre +- alla stessa maniera GIFT
Foglia Morta
14-06-2007, 17:17
Non ho capito una cosa , ma la versione 1 GB sarà anche in versione retail o solo oem ?
esatto io ho avuto tre esperienze:
1)vga arrivata in italia ma la dicitura GIFT era poco leggibile ed ho pagato mia pare attorno ai 60/70euro, ma poi il venditore mi ha rimborsato per intero
2)rma direttamente alla ATI si sono fatti carico interamente loro delle spese di ritorno (vga arrivata in una settimana e nemmeno, più il tempo delle pratiche online che il resto)
3)ram nn ho pagato nessuna dogana, sempre +- alla stessa maniera GIFT
Per l' RMA è normale non pagare le tasse. Per gli altri casi GIFT non serve a nulla , la stragrande maggioranza dei pacchi che arrivano sono descritti come gift ma in dogana non esiste il valore zero. Se non si pagano le tasse è perchè o sul pacco c'è scritto un valore basso , o non c' è proprio scritto , poi a loro discrezione possono fare controlli... ma anche con quelli non sono troppo audaci ;)
Posto solo perchè la mia esperienza forse può essere utile a tutti evitando il ripetersi di domande tutte uguali: ho comprato 2 volte dagli USA, la prima una vga e la seconda un procio, la prima volta la venditrice ha messo "gift" nella causale del pacco (regalo) e non ho pagato nessuna Iva, la seconda il venditore si è rifiutato di fare questo escamotage perchè affermava di essere già stato sottoposto a controllo dal fisco locale (e non ho motivo di credergli, visto che l'Iva che ho pagato è quella italiana pagata al fisco italiano, non a lui) per cui assieme al procio mi è arrivato il bollettino doganale che mi faceva pagare la relativa Iva alla consegna.
Dunque, se riuscite a farvelo spedire come regalo mettendovi d'accordo con il venditore non pagate l'Iva (ma rischiate un controllo, peraltro molto difficile su pezzi del genere di basso importo rispetto alla mole dei beni che passano in dogana) altrimenti pagate l'Iva italiana, calcolata sul controvalore in euro del prezzo in dollari (o quello che è) pagato al venditore amerciano (o quello che è) ;)
Spero di essere stato esauriente in modo, ripeto, di evitare magari il reiterarsi di domande tutte uguali :D
Se si ordina dall'UK però non c'è nessuna tassa da pagare, quindi al max si può fare ordini da li. :)
Non ho capito una cosa , ma la versione 1 GB sarà anche in versione retail o solo oem ?
Solo OEM "ufficialmente", in canada si trovano anche come retail...
ale0bello0pr
14-06-2007, 17:23
Se si ordina dall'UK però non c'è nessuna tassa da pagare, quindi al max si può fare ordini da li. :)
purtroppo in UK non ce l'hanno RETAIL ma solo in Canada.... (la Diamond è canadese)...:mad:
purtroppo in UK non ce l'hanno RETAIL ma solo in Canada.... (la Diamond è canadese)...:mad:
Ma a parte il giga di ram, ha qualche features in più rispetto alla 512 o sono identiche?
appleroof
14-06-2007, 17:32
Se si ordina dall'UK però non c'è nessuna tassa da pagare, quindi al max si può fare ordini da li. :)
Invece si, informatevi meglio, gli acquisti intracomunitari pagano l'iva nel paese di destinzaione, e se il destinatario è un privato, l'iva (all'italia) la paga lui :(
cmq eravamo stati avvertiti di non contiunare su questo argomento Ot, per cui direi magari di chiuderla qui, pensavo di essere stato esauriente invece (per colpa mia) no :)
;)
+Lonewolf+
14-06-2007, 18:04
Maremma scapata... una giornata intera per smontare e rimontare tutto l'impianto a liquido e quando vado ad accendere... la 2900 non parte!!! :muro:
Lo schermo mi va' in protezione e non arrivo neppure al POST... purtroppo non ho un buzzer a portata di mano per i post-code, ma sono sicuro che e' la VGA perche' rimettendo la 1900 parte regolare (la sto' usando adesso).
Ho collegato il cavo PCI-EX che usavo per la 1900 (l'altro connettore mi pare di aver capito che ancora non si trovi in giro), l'alimentatore e' un Seasonic 700W... l'unica cosa che noto sono un led rosso acceso fisso sul retro della scheda e due sempre rossi ma lampeggianti sul davanti proprio sotto i connettori dell'alimentazione.
Che fare oltre a :cry: ?
Ciao!
Baio
vedi se hai collegato bene i connettori dell'alimentazione, una volta successe anche a me
Ma a parte il giga di ram, ha qualche features in più rispetto alla 512 o sono identiche?
frequenze maggiorate, e basta ;)
+Lonewolf+
14-06-2007, 18:33
Sono collegati bene, ho controllato piu' volte... pero' mi dici per favore i led che ho scritto nell'altro messaggio come stanno sulla tua? :confused: Il secondo cavetto dell'alimentazione mica lo hai collegato vero?
Ciao!
Baio
ho collegato 2x3 e 2x4...a me quando nn partiva il led rosso lampeggiava...
+Lonewolf+
14-06-2007, 18:53
Scusa la mia ignoranza amplificata dall'ottenebramento dell'incacchiatura... :nera:
per 2x3 intendi il connettore 'vecchio stile' (quello di destra) e per 2x4 quello piu' largo (sinistra)? Se si, in quest'ultimo cosa c'hai messo e come?
Il led lampeggiante a cui ti riferisci e' quello sul retro della scheda o uno dei due sul davanti sotto i connettori dell'alimentazione?
Ciao!
Baio
i connettori sono quello 6 pin e 8 pin, e cmq in quello sx4 ci ho messo il connettore 8 pin che mi è uscito con l'alimentatore:) ma tanto nn è necessario x farla partire, il led è sul retro
frequenze maggiorate, e basta ;)
Tutto qui?? Allora tanto vale prendere la 512mb.
Certo che qualche "features" in più potevano anche abilitarla, come ha fatto nvidia con GTS e GTX.:rolleyes:
(Spero che questo mio commento non venga considerato come flame, sto solamente esprimendo un mio parere ok?:) )
Friz1983
14-06-2007, 19:00
Sono collegati bene, ho controllato piu' volte... pero' mi dici per favore i led che ho scritto nell'altro messaggio come stanno sulla tua? :confused: Il secondo cavetto dell'alimentazione mica lo hai collegato vero?
Ciao!
Baio
Non so se ho capito bene il tuo problema ma penso che tu attacchi un solo cavo 6 pin, in realta tu devi collegare o due 6 pin o un 8 pin e un 6 pin
OHHHH!!! Ecco finalmente il consiglio che volevo sentire!!!:ave:
Ho pensato a qualcosa del genere, ma lo scrausissimo manuale non dice niente... solo un chiarimento, il connettore da 6 come lo metto nella presa da 8? Allineato a sinistra o a destra?
Ciao!
Baio
è uguale, anche ho visto che lo si mette di solito allineato a sinistra (lasciando scoperti i pin a destra)
+Lonewolf+
14-06-2007, 19:07
OHHHH!!! Ecco finalmente il consiglio che volevo sentire!!!:ave:
Ho pensato a qualcosa del genere, ma lo scrausissimo manuale non dice niente... solo un chiarimento, il connettore da 6 come lo metto nella presa da 8? Allineato a sinistra o a destra?
Ciao!
Baio
beh...penso che nn ci sia alcuna differenza, vedi se entra in tutti e due i modi, ma senza forzare altrimenti danneggi il cavo...mi raccomando collegali tt e 2 altrimenti nn va!! fammi sapere:)
Invece si, informatevi meglio, gli acquisti intracomunitari pagano l'iva nel paese di destinzaione, e se il destinatario è un privato, l'iva (all'italia) la paga lui :(
cmq eravamo stati avvertiti di non contiunare su questo argomento Ot, per cui direi magari di chiuderla qui, pensavo di essere stato esauriente invece (per colpa mia) no :)
;)
Ma cosa stai dicendo? Un mio amico si è fatto un pc da 2600€ acquistando tutto dall'UK (tranne il monitor) e ti assicuro che ci ha risparmiato TANTISSIMO!
Comunque hai ragione, è meglio tornare IT :)
Ragazzi ma oggi non dovevano uscire le prime recensioni ? :confused:
+Lonewolf+
14-06-2007, 22:55
Ragazzi ma oggi non dovevano uscire le prime recensioni ? :confused:
infati...dv sono?
3DMark79
14-06-2007, 23:03
Ragazzi ma oggi non dovevano uscire le prime recensioni ? :confused:
Com'è possibile che quando sono uscite le prime schede Directx 10 hanno fatto uscire una miriade di schede directx 9 tutte inutili!Ed ora che uno vorrebbe acquistare una scheda in d.10 decente e sicura non sa dove sbattere la testa di quanto ristretto sia il campo!:muro:
Com'è possibile che quando sono uscite le prime schede Directx 10 hanno fatto uscire una miriade di schede directx 9 tutte inutili!Ed ora che uno vorrebbe acquistare una scheda in d.10 decente e sicura non sa dove sbattere la testa di quanto ristretto sia il campo!:muro:
Le Grandi Leggi del Mercato, vai a capirlo!:O :muro:
Com'è possibile che quando sono uscite le prime schede Directx 10 hanno fatto uscire una miriade di schede directx 9 tutte inutili!Ed ora che uno vorrebbe acquistare una scheda in d.10 decente e sicura non sa dove sbattere la testa di quanto ristretto sia il campo!:muro:
penso, e spero, che alla prossima tornata di schede (g92 e r650) ci sara una scelta molto piu ampia..
infondo queste di ora, volenti o nolenti, sono schede che per le dx10 sono solo di transizione...e non si sono sprecati piu di tanto imo...
Ragazzi ma oggi non dovevano uscire le prime recensioni ? :confused:
infati...dv sono?
...no, oggi non doveva uscire alcuna recensione. Oggi (ieri) Diamond ha iniziato a vendere le XT 1Gb. Non erano previste recensioni, ce ne potranno essere i prossimi giorni.
;)
penso, e spero, che alla prossima tornata di schede (g92 e r650) ci sara una scelta molto piu ampia..
infondo queste di ora, volenti o nolenti, sono schede che per le dx10 sono solo di transizione...e non si sono sprecati piu di tanto imo...
Microsoft ha comunque detto che le dx11 non usciranno prima di 3 anni, quindi credo che anche con le top di gamma attuali non avremo problemi nei giochi per tutto questo periodo... certo che... ora sono curioso di assistere al debuto di G92/R700...
...no, oggi non doveva uscire alcuna recensione. Oggi (ieri) Diamond ha iniziato a vendere le XT 1Gb. Non erano previste recensioni, ce ne potranno essere i prossimi giorni.
;)
E speriamo perchè sembra di aspettare i files segreti della CIA...:rolleyes:
Infatti....eccola qua, belal fresca dal sito della Diamond:
- http://www.diamondmm.com/2900XT1GPE.php
;)
Infatti....eccola qua, belal fresca dal sito della Diamond:
- http://www.diamondmm.com/2900XT1GPE.php
;)
Si ma non è mica una recensione quella. :(
3DMark79
14-06-2007, 23:28
Microsoft ha comunque detto che le dx11 non usciranno prima di 3 anni, quindi credo che anche con le top di gamma attuali non avremo problemi nei giochi per tutto questo periodo... certo che... ora sono curioso di assistere al debuto di G92/R700...
Speriamo che sia come dici :rolleyes: , l'unico grasso problema sarà imho gli aggiornamenti...10.1 10.2 ecc..
Microsoft ha comunque detto che le dx11 non usciranno prima di 3 anni, quindi credo che anche con le top di gamma attuali non avremo problemi nei giochi per tutto questo periodo... certo che... ora sono curioso di assistere al debuto di G92/R700...
beh..ma non si tratta proprio dx..
anche perche non puoi paragonare le dx9 di ora e quelle appena uscite...e le schede per le stesse dx si sono evolute in modo pazzesco...
per esempio...non mi puoi dire che ora non hai problemi con una ati 8500...:asd:
io dico che le 8800gtx in dx10 tra un annetto gia non saranno piu buone..(purtroppo)
Non so se è old
http://www.techamok.com/?pid=2776
Non so se è old
http://www.techamok.com/?pid=2776
Oldissimo! :D
Comunque dai quei bech (se reali) è in linea con le 8800gtx! :)
ummm...HD 2900XT da 1 giga di memoria...cosa cambia dalla 512?
-frequenze core uguali ( e mi pare ovvio visto il consumo attuale della 512)
-memorie ddr4 a 2100mhz
( ha già una banda enorme la 512 altra banta non so se giova)
-1 giga di memoria... abbondante quanto inutile!
chissà quanto costerà se esce nel mercato retail...
per poi cosa? cercare di allinearsi alla GTX? per me altro passo falso...
l'unica soluzione per fare una gran scheda era abbassare il processo produttivo per limitare i consumi alzare il clock e mettere fin da subito le DDR4
(che cavolo sulla 1950xtx c'erano perchè cavolo hanno fatto un passo indietro? costo elevato? bu..)
che ne pensate?
ummm...HD 2900XT da 1 giga di memoria...cosa cambia dalla 512?
-frequenze core uguali ( e mi pare ovvio visto il consumo attuale della 512)
-memorie ddr4 a 2100mhz
( ha già una banda enorme la 512 altra banta non so se giova)
-1 giga di memoria... abbondante quanto inutile!
chissà quanto costerà se esce nel mercato retail...
per poi cosa? cercare di allinearsi alla GTX? per me altro passo falso...
l'unica soluzione per fare una gran scheda era abbassare il processo produttivo per limitare i consumi alzare il clock e mettere fin da subito le DDR4
(che cavolo sulla 1950xtx c'erano perchè cavolo hanno fatto un passo indietro? costo elevato? bu..)
che ne pensate?
Sinceramente se buttavano fuori subito la XT 512MB GDDR4 @ 2100Mhz era tutta un'altra storia...
Forse non l'hanno fatto per la disponibilità di memorie in grandi volumi... Boh...
Credo che di differenza ce ne sia passando da 1650Mhz a 2200Mhz (0.9ns)...
halduemilauno
15-06-2007, 16:50
Sinceramente se buttavano fuori subito la XT 512MB GDDR4 @ 2100Mhz era tutta un'altra storia...
Forse non l'hanno fatto per la disponibilità di memorie in grandi volumi... Boh...
Credo che di differenza ce ne sia passando da 1650Mhz a 2200Mhz (0.9ns)...
ma sarebbe costata molto di + e cosi facendo cadeva l'unica arma che avevano a disposizione.
qui la news.
http://www.hwupgrade.it/news/skvideo/21583.html
;)
james_het
15-06-2007, 16:58
Citazione dal sito: Diamond Viper Ati Radeon HD 2900XT PCIE 1000MB GDDR4 Video Card The World Fastest Graphics Card...
ma è vero? :confused:
Citazione dal sito: Diamond Viper Ati Radeon HD 2900XT PCIE 1000MB GDDR4 Video Card The World Fastest Graphics Card...
ma è vero? :confused:
Sicuramente:rotfl:
finche non esce si posso inventare quello che gli pare come hanno fatto con la 2900 da 512mb ma poi la verita esce sempre fuori.
halduemilauno
15-06-2007, 17:05
Citazione dal sito: Diamond Viper Ati Radeon HD 2900XT PCIE 1000MB GDDR4 Video Card The World Fastest Graphics Card...
ma è vero? :confused:
se il + veloce è inteso come valori di frequenza 743/2200 forse si. la 8800ultra ufficiali si fermano a 612/2160. ma ce ne sono anche a 685/2300. tutto questo per parlare del + veloce.
;)
leoneazzurro
15-06-2007, 17:05
Citazione dal sito: Diamond Viper Ati Radeon HD 2900XT PCIE 1000MB GDDR4 Video Card The World Fastest Graphics Card...
ma è vero? :confused:
La "loro" scheda più veloce del mondo, ovviamente.... :D
Comunque vorrei linkare questa interessante intervista a Eric Demers, uno degli ideatori dell'architettura di R600:
http://www.beyond3d.com/content/interviews/39
Il contenuto non è male, anche se bisogna anche ripulirlo dal marketing.
+Lonewolf+
15-06-2007, 17:10
Sicuramente:rotfl:
finche non esce si posso inventare quello che gli pare come hanno fatto con la 2900 da 512mb ma poi la verita esce sempre fuori.
BASTA CRITICARE!!!! ti dovrebbero sospendere...stai sempre a parlare della 2900!!! hai forse i complessi di inferiorità?? se devi scatenare un flame solo xkè nn t piace la 2900 fallo in un altro 3d
x piacere moderatori cercate di capirmi...nn ne posso + cn questi che ogni 2 e 3 dicono che la 2900 fa schifo...se lo tenessero x loro
tralaltro nos89 nn fa altro che parlare male della 2900 in tuti i 3d...dicendo che la sua è meglio...dico...non si è scocciato un po? avevamo detto primo spam sospensione...
james_het
15-06-2007, 17:13
se il + veloce è inteso come valori di frequenza 743/2200 forse si. la 8800ultra ufficiali si fermano a 612/2160. ma ce ne sono anche a 685/2300. tutto questo per parlare del + veloce.
;)
ahhh ecco ok, mi sembrava di aver capito bene :Prrr:
cmq quando escono le dx10 per un confronto?? almeno si vede finalmente qualkosa delle nuove librerie e giochi nuovi per vedere se queste nuove 8800 e 2900 sono valide anche per il futuro......
ale0bello0pr
15-06-2007, 17:19
BASTA CRITICARE!!!! ti dovrebbero sospendere...stai sempre a parlare della 2900!!! hai forse i complessi di inferiorità?? se devi scatenare un flame solo xkè nn t piace la 2900 fallo in un altro 3d
quoto adesso il bimbo inizia a diventare pesante....ci devi 1.000.000 di euro per la scommessa...bah
sfido chiunque qui dentro a confermare quello che ha detto AleoBello cioe senza v-mod arrivi a 1000mhz:rotfl:
una scheda troppo avanzata?
allora? :fagiano:
BASTA CRITICARE!!!! ti dovrebbero sospendere...stai sempre a parlare della 2900!!! hai forse i complessi di inferiorità?? se devi scatenare un flame solo xkè nn t piace la 2900 fallo in un altro 3d
x piacere moderatori cercate di capirmi...nn ne posso + cn questi che ogni 2 e 3 dicono che la 2900 fa schifo...se lo tenessero x loro
tralaltro nos89 nn fa altro che parlare male della 2900 in tuti i 3d...dicendo che la sua è meglio...dico...non si è scocciato un po? avevamo detto primo spam sospensione...
gurda che qua quello alterato sei te;) io ho solo fatto un commento su una dichiarazione a dir poco fantascientifica.........io non ho mai detto che la 2900 è inferiore ho detto che tale scheda è stata tanto reclamata da tutti voi e poi alla fine altro che superare 8800GTX.
Io fra l'altro non ho mai detto che la mia è superiore.....perchè si parlava della 640mb quindi prima di parlare rifletti.
Se la verita brucia non è colpa mia
Comunque vorrei linkare questa interessante intervista a Eric Demers, uno degli ideatori dell'architettura di R600:
http://www.beyond3d.com/content/interviews/39
Il contenuto non è male, anche se bisogna anche ripulirlo dal marketing.
interessante :), anche se il mio inglese informatico non è molto fine :D
si ma Nos89 tu sei sempre in mezzo ai flame e sei anche recidivo
sospeso 5gg (cmq devo controllare ancora la tua recidività ma il forum oggi non è al suo meglio .. quindi la sospensione potrebbe essere suscettibile di aumenti)
per gli altri: se un post o un comportamento è chiaramente flammoso, evitate proprio di risponde, segnalate e basta
>bYeZ<
Iantikas
15-06-2007, 18:08
io xò una cosa nn capisco...x rispondere ai flame i possessori di HD2900XT c son sempre x rispondere a ki vuole info a pareri e discutere seriamente su sta skeda nn ci sono mai...
...rinnovo x l'ennesima volta lemie rikeiste nella speranza ke qualke anima pia possa aiutarmi...
...k ha questa skeda puo fare dei test con fraps con la demo di colin mcrae dirt (o col gioco completo ki ce l'ha, mi è arrivato oggi pomeriggio e come avevo anticipato la x1900xtx inizia a soffrire decisamente) in modo da sapere questa skeda ke gameplay offre in questo gioco???
...ringrazio di cuore ki vorrà/potrà aiutarmi...ciao
p.s.: sarebbero utili anke dei test con Stalker e Rainbow Six Vegas ma di secondaria importanza rispetto a DIRT...
davide155
15-06-2007, 18:22
io xò una cosa nn capisco...x rispondere ai flame i possessori di HD2900XT c son sempre x rispondere a ki vuole info a pareri e discutere seriamente su sta skeda nn ci sono mai...
...rinnovo x l'ennesima volta lemie rikeiste nella speranza ke qualke anima pia possa aiutarmi...
...k ha questa skeda puo fare dei test con fraps con la demo di colin mcrae dirt (o col gioco completo ki ce l'ha, mi è arrivato oggi pomeriggio e come avevo anticipato la x1900xtx inizia a soffrire decisamente) in modo da sapere questa skeda ke gameplay offre in questo gioco???
...ringrazio di cuore ki vorrà/potrà aiutarmi...ciao
p.s.: sarebbero utili anke dei test con Stalker e Rainbow Six Vegas ma di secondaria importanza rispetto a DIRT...
Qui trovi le risposte alle tue domande :
http://www.hwupgrade.it/forum/showthread.php?t=1391207
;)
La "loro" scheda più veloce del mondo, ovviamente.... :D
Comunque vorrei linkare questa interessante intervista a Eric Demers, uno degli ideatori dell'architettura di R600:
http://www.beyond3d.com/content/interviews/39
Il contenuto non è male, anche se bisogna anche ripulirlo dal marketing.
Infatti. Molto interessanti alcune parti:
We also developed the UVD solutions for HD 2400 and HD 2600, so that they could run in very low power mode and display a full resolution HD movie on a notebook, in one battery. The higher end has a shader based solution, which leads to higher quality(but has more power consumption).
However, from a SW porting standpoint, we can truly make a difference. The HD2000 family’s architecture leverages so much from Xenos, that porting Xenos games to the R600 should be relatively easy. The games should have similar performance characteristics. There’s a very good synergy there.
This almost feels like promoting an urban legend to ask this question, but it seems to keep coming up in the community. So, here we go anyway: Has the Fast14 technology that AMD (in its ATI days) licensed from Intrinsity actually made an appearance in any of AMD's parts (particularly PC GPUs) yet? Is it in R600? If not, might it still show up at some point in AMD's future PC GPUs?
It has not appeared in any public product that I’m aware of, right now. Who knows about the future ;-)
io xò una cosa nn capisco...x rispondere ai flame i possessori di HD2900XT c son sempre x rispondere a ki vuole info a pareri e discutere seriamente su sta skeda nn ci sono mai...
...rinnovo x l'ennesima volta lemie rikeiste nella speranza ke qualke anima pia possa aiutarmi...
...k ha questa skeda puo fare dei test con fraps con la demo di colin mcrae dirt (o col gioco completo ki ce l'ha, mi è arrivato oggi pomeriggio e come avevo anticipato la x1900xtx inizia a soffrire decisamente) in modo da sapere questa skeda ke gameplay offre in questo gioco???
...ringrazio di cuore ki vorrà/potrà aiutarmi...ciao
p.s.: sarebbero utili anke dei test con Stalker e Rainbow Six Vegas ma di secondaria importanza rispetto a DIRT...
http://www.hwupgrade.it/forum/showthread.php?t=1484107
Iantikas
15-06-2007, 18:42
Qui trovi le risposte alle tue domande :
http://www.hwupgrade.it/forum/showthread.php?t=1391207
;)
quando avrò tempo x leggere le decine di pagine piene di post nn inerenti ciò ke cerco nella speranza di trovare quei 2/3 post utili ti ringrazierò :p :D (inoltre ci avevo già pensato ma x adesso tra le prime e le ultime nada)
...intanto se qualcuno con HD2900XT e la demo volesse sprecare a esagerare 10min mi aiuterebbe parekkio...
...ciao
davide155
15-06-2007, 18:48
quando avrò tempo x leggere le decine di pagine piene di post nn inerenti ciò ke cerco nella speranza di trovare quei 2/3 post utili ti ringrazierò :p :D (inoltre ci avevo già pensato ma x adesso tra le prime e le ultime nada)
...intanto se qualcuno con HD2900XT e la demo volesse sprecare a esagerare 10min mi aiuterebbe parekkio...
...ciao
Usa il tasto cerca nel thread :)
Cmq puoi sempre domandare nel thread.....:rolleyes:
Iantikas
15-06-2007, 18:50
http://www.hwupgrade.it/forum/showthread.php?t=1484107
grazie mille (a questo nn ci avevo pensato :oink: :D )...il guadagno rispetto alla mia attuale situazione sarebbe significativo...
...ora xò mi vengono un altro paio di domande (tipo tutto al max probabilmente prevede anke 4xAA...senza AA ma @1680x1050 sarebbe fluido lo stesso?) ke xò vado a fare in quel 3d dove forse mi possono aiutare di +...ciao e grazie ancora
La "loro" scheda più veloce del mondo, ovviamente.... :D
Comunque vorrei linkare questa interessante intervista a Eric Demers, uno degli ideatori dell'architettura di R600:
http://www.beyond3d.com/content/interviews/39
Il contenuto non è male, anche se bisogna anche ripulirlo dal marketing.
leo interessante articolo anche se effettivamente ho l'inglese un pò arrugginito non è che ti andrebbe di prendere le parti salienti ripulite dal marketing e di tradurle al volo?
tnx bello!
leo interessante articolo anche se effettivamente ho l'inglese un pò arrugginito non è che ti andrebbe di prendere le parti salienti ripulite dal marketing e di tradurle al volo?
tnx bello!
mi accodo alla richiesta :fagiano:
grazie mille (a questo nn ci avevo pensato :oink: :D )...il guadagno rispetto alla mia attuale situazione sarebbe significativo...
...ora xò mi vengono un altro paio di domande (tipo tutto al max probabilmente prevede anke 4xAA...senza AA ma @1680x1050 sarebbe fluido lo stesso?) ke xò vado a fare in quel 3d dove forse mi possono aiutare di +...ciao e grazie ancora
prego non cè di chè,...penso che nella maggior parte dei giochi specialmente sotto xp avresti ottimi incrementi prestazionali..
vedi se qualcuno nell'altro 3d ti può fare i test a quella risoluzione con dirt...
ciao
mi accodo alla richiesta :fagiano:
anche se effettivamente ammette che cmq i progetti di ,r600 e r500(xenos xbox360gpu) e in parte l'anello di raccordo tra la vecchia generazione e la nuova r520-r580, sono tutti figli del progetto r400 che era in cantiera gia all'epoca delle 9800pro ergo nsomma per progettare un archidetuttura totalmente nuova ce ne vuole di tempo.
anche se effettivamente ammette che cmq i progetti di ,r600 e r500(xenos xbox360gpu) e in parte l'anello di raccordo tra la vecchia generazione e la nuova r520-r580, sono tutti figli del progetto r400 che era in cantiera gia all'epoca delle 9800pro ergo nsomma per progettare un archidetuttura totalmente nuova ce ne vuole di tempo.
Ah perchè tu sei convinto che progettano e costruiscono i microchip subito dopo l'uscita dell'ultimo modello? Sei convinto che alla progettazione dell'R700 ci hanno lavorato solo di recente? Quella gente li ha GIA bella pronta tecnologia ben superiore all'R700, ma che chiaramente li mmettono sul mercato molto lentamente.
Stessa cosa vale per i processori.... se vi dicono che il modello che esce fra 6 mesi è il top lo è per il mercato, ma non certo per loro che ne hanno gia pronti di ENORMEMENTE superiori.
leoneazzurro
15-06-2007, 19:22
leo interessante articolo anche se effettivamente ho l'inglese un pò arrugginito non è che ti andrebbe di prendere le parti salienti ripulite dal marketing e di tradurle al volo?
tnx bello!
Sfaticato! :D
Allora, riassumo i punti salienti in ordine cronologico:
R600 è stato creato per soddisfare sia i requisiti DX 10 che per fare GPGPU. Durante il progetto hanno tenuto presente entrambi i carichidi lavoro.
Il processo produttivo sapevano sarebbe stato origine di consumi alti, ma hanno dovuto sceglierlo perchè pensavano che i 65 nm non sarebbero stati pronti in tempo. Hanno scelto i 742 MHz per questioni di TDP, anche se avevano sperato di raggiungere gli 800 MHz. Il controller di memoria di R600 è estremamente complesso e potrebbe consentire grandi vantaggi prestazionali, purtroppo richiede molto lavoro per essere ottimizzato, in quanto è molto più evoluto rispetto a quello di R580.La scelta di avere un rapporto 4:1 tra ALU e unità TEX è stata fatta sin dall'inizio, così come la struttura delle ROPs. la struttura di R600 è molto scalabile, a detta di Demers. AMD non vuole competere direttamente con le 8800 Ultra, per gli ultra entusiasti ci sono le soluzioni dual VGA, dice.
Le prestazioni previste per R600 dovrebbero essere tra 1,5 e 3 volte quelle di R580, in DX9 ma il focus principale è sulle features DX10.
R600 deve molto a Xenos, anche se ci sono pesanti differenze tra i due chip, ma il porting di applicazioni Xbox360 dovrebbe essere molto semplice.
Lo stato dei drivers appare pessimo, c'è stato un grosso sforzo per rendere i drivers stabili ma le performances non sono attualmente esemplificative delle potenzialità del chip, specialmente in DX10.
I 512 bit di bus sono stati un grande risultato e saranno usati nei prossimi prodotti. Il thread dispatch processor di R600 deve molto a quelli di Xenos e R580 ma è di un ordne di grandezza più complesso.
Per migliorare le prestazioni del CFAA c'è dell'hardware dedicato negli shaders. C'è la possibilità che gli sviluppatori programmino direttamente filtri per l'AA.
L'unità di tessellazione HW porta via poco spazio su die, quindi è stata inserita avendo in mente il porting di giochi Xbox. Ci sono stati miglioramenti nella gestione dei fltri su R580 e attualmente le performances dei GS su R600 sono molto superiori a quelle di G80, anche se Demers ammette che potrebe anche trattarsi si un bug dei drivers. Il chip non usa fast 14 e comunque la possibilità di utilizzare domini di clock separati è stata vagliata. La scelta dei rapporti ALU:TEX per le varie fasce è dipeso da un profiling per avere "il miglior rapporto prezzo-prestazioni". C'è un commento sulle architetture concorrenti che secondo Demers spendono troppi transistors per il filtering (subpar solution) per i giochi futuri. R600 ha un vantaggio sulle vecchie architetture (R580) per quanto riguarda FP16 filtering e blending (anche se, aggiungo io, un grosso deficit rispetto a g80) e nelle stencil shadows.
Poi ritorna sullo stato dei drivers, dove dice che sta spingendo il reparto software per risolvere il prima possibile i problemi di prestazioni e di features (c'è un riferimento all'edge detect AA, che secondo Demers è "la migliore cosa là fuori")
Ecco, più o meno è tutto.
leoneazzurro
15-06-2007, 19:28
Addendum:
http://forum.beyond3d.com/showpost.php?p=1020155&postcount=29
"I'm sorry if that's exactly the impression I give. It's not exactly what I meant. The driver development has been tremendous and I applaud all the efforts that the driver team has been doing. But, having a BRAND new architecture, with needs for new DX driver (our DX10 is from scratch), updated DX9, new OGL, and all this with a new OS and required support for that and the old one is just too much right now. It's going to take time to get the best performance out of this chip -- Both in terms of coding all the elements, and also because it's a new arch and the teams need to learn its ins&outs. Having said that, the board is priced right. It's certainly very competitive (and in my view better) than the competition at this price point. But it's power isn't as low as one would hope and the performance of this arch on current games is less than it will be on future games.
All I meant is that I don't understand completely the decisions done by the competition. Nor do I really care quite that much, though it's intriguing. It's also clear that our ratio is more inline with future applications than past ones. A lower ratio does work well with a lot of older apps and even quite a few current apps. But what we've been seeing is that applications are moving more and more towards larger ratios. In that sense we are more forward looking. But it's a tough edge; it's costly to be too forward looking."
3DMark79
15-06-2007, 19:30
Sfaticato! :D
Allora, riassumo i punti salienti in ordine cronologico:
R600 è stato creato per soddisfare sia i requisiti DX 10 che per fare GPGPU. Durante il progetto hanno tenuto presente entrambi i carichidi lavoro.
Il processo produttivo sapevano sarebbe stato origine di consumi alti, ma hanno dovuto sceglierlo perchè pensavano che i 65 nm non sarebbero stati pronti in tempo. Hanno scelto i 742 MHz per questioni di TDP, anche se avevano sperato di raggiungere gli 800 MHz. Il controller di memoria di R600 è estremamente complesso e potrebbe consentire grandi vantaggi prestazionali, purtroppo richiede molto lavoro per essere ottimizzato, in quanto è molto più evoluto rispetto a quello di R580.La scelta di avere un rapporto 4:1 tra ALU e unità TEX è stata fatta sin dall'inizio, così come la struttura delle ROPs. la struttura di R600 è molto scalabile, a detta di Demers. AMD non vuole competere direttamente con le 8800 Ultra, per gli ultra entusiasti ci sono le soluzioni dual VGA, dice.
Le prestazioni previste per R600 dovrebbero essere tra 1,5 e 3 volte quelle di R580, in DX9 ma il focus principale è sulle features DX10.
R600 deve molto a Xenos, anche se ci sono pesanti differenze tra i due chip, ma il porting di applicazioni Xbox360 dovrebbe essere molto semplice.
Lo stato dei drivers appare pessimo, c'è stato un grosso sforzo per rendere i drivers stabili ma le performances non sono attualmente esemplificative delle potenzialità del chip, specialmente in DX10.
I 512 bit di bus sono stati un grande risultato e saranno usati nei prossimi prodotti. Il thread dispatch processor di R600 deve molto a quelli di Xenos e R580 ma è di un ordne di grandezza più complesso.
Per migliorare le prestazioni del CFAA c'è dell'hardware dedicato negli shaders. C'è la possibilità che gli sviluppatori programmino direttamente filtri per l'AA.
L'unità di tessellazione HW porta via poco spazio su die, quindi è stata inserita avendo in mente il porting di giochi Xbox. Ci sono stati miglioramenti nella gestione dei fltri su R580 e attualmente le performances dei GS su R600 sono molto superiori a quelle di G80, anche se Demers ammette che potrebe anche trattarsi si un bug dei drivers. Il chip non usa fast 14 e comunque la possibilità di utilizzare domini di clock separati è stata vagliata. La scelta dei rapporti ALU:TEX per le varie fasce è dipeso da un profiling per avere "il miglior rapporto prezzo-prestazioni". C'è un commento sulle architetture concorrenti che secondo Demers spendono troppi transistors per il filtering (subpar solution) per i giochi futuri. R600 ha un vantaggio sulle vecchie architetture (R580) per quanto riguarda FP16 filtering e blending (anche se, aggiungo io, un grosso deficit rispetto a g80) e nelle stencil shadows.
Poi ritorna sullo stato dei drivers, dove dice che sta spingendo il reparto software per risolvere il prima possibile i problemi di prestazioni e di features (c'è un riferimento all'edge detect AA, che secondo Demers è "la migliore cosa là fuori")
Ecco, più o meno è tutto.
tnx anche da parte mia!:D
Sfaticato! :D
Poi ritorna sullo stato dei drivers, dove dice che sta spingendo il reparto software per risolvere il prima possibile i problemi di prestazioni e di features (c'è un riferimento all'edge detect AA, che secondo Demers è "la migliore cosa là fuori")
Ecco, più o meno è tutto.
E' bello avere conferme anno dopo anno che la mamma di tutto è sempre la nostra amata e carissima Matrox! :O
(prima nel trilienar, prima nell'anisotropic, prima nel bump mapping, prima nei bus con molti bit, prima nei 10bit per colore, prima nell'edge AA, ecc ecc ecc ecc :D)
-Feanor-
15-06-2007, 20:20
Sinceramente se buttavano fuori subito la XT 512MB GDDR4 @ 2100Mhz era tutta un'altra storia...
Forse non l'hanno fatto per la disponibilità di memorie in grandi volumi... Boh...
Credo che di differenza ce ne sia passando da 1650Mhz a 2200Mhz (0.9ns)...
quoto....è la stessa cosa che ho scritto anche io sull altro 3d.....chissa perche questo passo indietro...le ddr4 erano gia montate su x1950xtx....questione di disponibilita..?? di costi....??? boh.....:confused:
WOW....200 post in meno di un mese....!!
Sfaticato! :D
Allora, riassumo i punti salienti in ordine cronologico:
R600 è stato creato per soddisfare sia i requisiti DX 10 che per fare GPGPU. Durante il progetto hanno tenuto presente entrambi i carichidi lavoro.
Il processo produttivo sapevano sarebbe stato origine di consumi alti, ma hanno dovuto sceglierlo perchè pensavano che i 65 nm non sarebbero stati pronti in tempo. Hanno scelto i 742 MHz per questioni di TDP, anche se avevano sperato di raggiungere gli 800 MHz. Il controller di memoria di R600 è estremamente complesso e potrebbe consentire grandi vantaggi prestazionali, purtroppo richiede molto lavoro per essere ottimizzato, in quanto è molto più evoluto rispetto a quello di R580.La scelta di avere un rapporto 4:1 tra ALU e unità TEX è stata fatta sin dall'inizio, così come la struttura delle ROPs. la struttura di R600 è molto scalabile, a detta di Demers. AMD non vuole competere direttamente con le 8800 Ultra, per gli ultra entusiasti ci sono le soluzioni dual VGA, dice.
Le prestazioni previste per R600 dovrebbero essere tra 1,5 e 3 volte quelle di R580, in DX9 ma il focus principale è sulle features DX10.
R600 deve molto a Xenos, anche se ci sono pesanti differenze tra i due chip, ma il porting di applicazioni Xbox360 dovrebbe essere molto semplice.
Lo stato dei drivers appare pessimo, c'è stato un grosso sforzo per rendere i drivers stabili ma le performances non sono attualmente esemplificative delle potenzialità del chip, specialmente in DX10.
I 512 bit di bus sono stati un grande risultato e saranno usati nei prossimi prodotti. Il thread dispatch processor di R600 deve molto a quelli di Xenos e R580 ma è di un ordne di grandezza più complesso.
Per migliorare le prestazioni del CFAA c'è dell'hardware dedicato negli shaders. C'è la possibilità che gli sviluppatori programmino direttamente filtri per l'AA.
L'unità di tessellazione HW porta via poco spazio su die, quindi è stata inserita avendo in mente il porting di giochi Xbox. Ci sono stati miglioramenti nella gestione dei fltri su R580 e attualmente le performances dei GS su R600 sono molto superiori a quelle di G80, anche se Demers ammette che potrebe anche trattarsi si un bug dei drivers. Il chip non usa fast 14 e comunque la possibilità di utilizzare domini di clock separati è stata vagliata. La scelta dei rapporti ALU:TEX per le varie fasce è dipeso da un profiling per avere "il miglior rapporto prezzo-prestazioni". C'è un commento sulle architetture concorrenti che secondo Demers spendono troppi transistors per il filtering (subpar solution) per i giochi futuri. R600 ha un vantaggio sulle vecchie architetture (R580) per quanto riguarda FP16 filtering e blending (anche se, aggiungo io, un grosso deficit rispetto a g80) e nelle stencil shadows.
Poi ritorna sullo stato dei drivers, dove dice che sta spingendo il reparto software per risolvere il prima possibile i problemi di prestazioni e di features (c'è un riferimento all'edge detect AA, che secondo Demers è "la migliore cosa là fuori")
Ecco, più o meno è tutto.
Addendum:
http://forum.beyond3d.com/showpost.php?p=1020155&postcount=29
"I'm sorry if that's exactly the impression I give. It's not exactly what I meant. The driver development has been tremendous and I applaud all the efforts that the driver team has been doing. But, having a BRAND new architecture, with needs for new DX driver (our DX10 is from scratch), updated DX9, new OGL, and all this with a new OS and required support for that and the old one is just too much right now. It's going to take time to get the best performance out of this chip -- Both in terms of coding all the elements, and also because it's a new arch and the teams need to learn its ins&outs. Having said that, the board is priced right. It's certainly very competitive (and in my view better) than the competition at this price point. But it's power isn't as low as one would hope and the performance of this arch on current games is less than it will be on future games.
All I meant is that I don't understand completely the decisions done by the competition. Nor do I really care quite that much, though it's intriguing. It's also clear that our ratio is more inline with future applications than past ones. A lower ratio does work well with a lot of older apps and even quite a few current apps. But what we've been seeing is that applications are moving more and more towards larger ratios. In that sense we are more forward looking. But it's a tough edge; it's costly to be too forward looking."
:ave:
-Feanor-
15-06-2007, 20:46
The Call of Juarez Benchmark released last Friday is one of the first few DirectX 10 benchmarks for public to try out. According to NVIDIA however, the benchmark includes new code that substantially reduces performance of NVIDIA hardware. Basically, it is claimed to be very skewed towards ATi hardware. The key issues brought up are:
NVIDIA's DX10 hardware-based multi-sampled Anti-Aliasing resolve is disabled in the benchmark, with all NVIDIA GPUs now being forced to use software-based AA resolve similar to the ATI DX10 GPU (which lacks hardware AA resolve). This artificially deflates performance on NVDIA graphics cards and users are not getting the benefit of a key NVIDIA hardware feature.
A hidden "ExtraQuality" parameter only accessible via a configuration file is automatically enabled when the benchmark is run on NVIDIA hardware, no matter what the setting in the configuration file. This setting has no apparent visual quality enhancement, but reduces NVIDIA GPU performance.
Changes to shaders that deflate NVIDIA performance by approximately 10-14%, without improving visual quality on either NVIDIA or ATI GPUs.
It is interesting to see that battle on the GPU frontier seems to have spilt over to the games.
Fonte: http://www.vr-zone.com/
Ahi ragazzi....!!! se questa è vera..(e spero vivamente di no...imho credo sia una balla...:stordita: ) ...preparatevi a un ondata di flames a piu non posso dagli nvidiosi.....:doh: :rolleyes:
Athlon 64 3000+
15-06-2007, 21:00
Addendum:
http://forum.beyond3d.com/showpost.php?p=1020155&postcount=29
"I'm sorry if that's exactly the impression I give. It's not exactly what I meant. The driver development has been tremendous and I applaud all the efforts that the driver team has been doing. But, having a BRAND new architecture, with needs for new DX driver (our DX10 is from scratch), updated DX9, new OGL, and all this with a new OS and required support for that and the old one is just too much right now. It's going to take time to get the best performance out of this chip -- Both in terms of coding all the elements, and also because it's a new arch and the teams need to learn its ins&outs. Having said that, the board is priced right. It's certainly very competitive (and in my view better) than the competition at this price point. But it's power isn't as low as one would hope and the performance of this arch on current games is less than it will be on future games.
All I meant is that I don't understand completely the decisions done by the competition. Nor do I really care quite that much, though it's intriguing. It's also clear that our ratio is more inline with future applications than past ones. A lower ratio does work well with a lot of older apps and even quite a few current apps. But what we've been seeing is that applications are moving more and more towards larger ratios. In that sense we are more forward looking. But it's a tough edge; it's costly to be too forward looking."
Ho provato con il traduttore a leggere questa parte ma purtroppo non la ho capita molto.
Comprendo il difficile momento che sta passando Ati.
Sono da ammirare queste parole :)
NvidiaMen
15-06-2007, 21:03
Ahi ragazzi....!!! se questa è vera..(e spero vivamente di no...imho credo sia una balla...:stordita: ) ...preparatevi a un ondata di flames a piu non posso dagli nvidiosi.....:doh: :rolleyes:
Mi spiace davvero dirlo, ma a me sembra uno degli ultimi respiri qualche settimana prima dell'annegamento da parte del marketing nVidia :rolleyes: . E' assurdo appigliarsi a queste scuse (demo non ottimizzate, mi chiedo quando mai lo siano state....:confused: ) proprio dopo uno sviluppo drivers che vede diversi mesi di vantaggio da parte di nVidia, soprattutto di fronte ad una situazione che vede gli avversari "annaspare" con drivers di R600 al momento assolutamente indecenti....
Tutto ovviamente IMHO.
Scrambler77
15-06-2007, 21:33
Mi spiace davvero dirlo, ma a me sembra uno degli ultimi respiri qualche settimana prima dell'annegamento da parte del marketing nVidia :rolleyes: . E' assurdo appigliarsi a queste scuse (demo non ottimizzate, mi chiedo quando mai lo siano state....:confused: ) proprio dopo uno sviluppo drivers che vede diversi mesi di vantaggio da parte di nVidia, soprattutto di fronte ad una situazione che vede gli avversari "annaspare" con drivers di R600 al momento assolutamente indecenti....
Tutto ovviamente IMHO.
L'interpretazione che dai al testo è errata. In molti abbiamo verificato (sul 3d ufficiale di COJ) temperature di 6-10° sotto la norma, rispetto a tutti gli altri bench, con COJ. A me la temperatura non supera i 56°, rispetto i 68 "normali".
Tra l'altro, i risultati dei bench sono identici sia @default che con forti overclock di GPU e CPU. Ne consegue che, in un modo o nell'altro, l'hardware di G80 non è caricato dalla demo, ma resta scarico, con conseguente perdita di performance.
Il marketing in quell'articolo non centra nulla.
Un utente (dj88... non ricordo cosa, sorry :D ) è invece riuscito non (sappiamo ancora come) a superare la limitazione di cui parla l'articolo, totalizzando punteggi molto più elevati dei relativi 2900XT.
Scrambler77
15-06-2007, 21:35
"Avendo una architettura completamente nuova, con la necessità di nuovi driver DirectX (i nostri DX10 li abbiamo fatti da zero), ...[CUT] ."
Perchè, ad nvidia glieli hanno passati già belli e fatti?? :D
ale0bello0pr
15-06-2007, 21:36
L'interpretazione che dai al testo è errata. In molti abbiamo verificato (sul 3d ufficiale di COJ) temperature di 6-10° sotto la norma, rispetto a tutti gli altri bench, con COJ. A me la temperatura non supera i 56°, rispetto i 68 "normali".
Tra l'altro, i risultati dei bench sono identici sia @default che con forti overclock di GPU e CPU. Ne consegue che, in un modo o nell'altro, l'hardware di G80 non è caricato dalla demo, ma resta scarico, con conseguente perdita di performance.
Il marketing in quell'articolo non centra nulla.
però dj ha fatto quel bel risultato...e ha spiegato perchè....qualcuno ha provato di voi?
Scrambler77
15-06-2007, 21:41
però dj ha fatto quel bel risultato...e ha spiegato perchè....qualcuno ha provato di voi?
Non solo lui ha avuto quel risultato...
http://www.hwupgrade.it/forum/showpost.php?p=17497025&postcount=493
Scrambler77
15-06-2007, 21:48
Ah non so proprio cosa intendesse, mi son limitato a tradurre a chi non aveva capito :>
Ipoteticamente potrei interpretare la frase come "non siamo ripartiti dai DX10 della serie R5xx ma li abbiam rifatti da 0", ma non ne ho idea.
Siamo in due... :asd: ;)
NvidiaMen
15-06-2007, 21:55
L'interpretazione che dai al testo è errata. In molti abbiamo verificato (sul 3d ufficiale di COJ) temperature di 6-10° sotto la norma, rispetto a tutti gli altri bench, con COJ. A me la temperatura non supera i 56°, rispetto i 68 "normali".
A causa della sua particolare architettura mi sà che in futuro diverrà un'abitudine vedere G80 più fredda con titoli DX10.
Tra l'altro, i risultati dei bench sono identici sia @default che con forti overclock di GPU e CPU. Ne consegue che, in un modo o nell'altro, l'hardware di G80 non è caricato dalla demo, ma resta scarico, con conseguente perdita di performance.
Mentre i drivers catalyst 7.5 sfruttano appieno le potenzialità dell'architettura di R600 con il demo di CoJ... E' questo che vuoi sottolineare?
Il marketing in quell'articolo non centra nulla.
Ma allora l'articolo di vrzone chi l'avrà scritto? Credo rimarrà un mistero...
Un utente (dj88... non ricordo cosa, sorry :D ) è invece riuscito non (sappiamo ancora come) a superare la limitazione di cui parla l'articolo, totalizzando punteggi molto più elevati dei relativi 2900XT.
Meno male che si trovano utenti in grado di sfruttare l'hardware meglio di quanto siano capaci di farlo gli sviluppatori della casa produttrice. Non sono ironico, te l'assicuro, ma felice che casi come questi siano possibili al giorno d'oggi. Può darsi che ci sia riuscito riducendo al minimo i parametri qualitativi aggiuntivi "accusati" modificando il file di impostazione dei drivers video.
Ciao, NM.
Scrambler77
15-06-2007, 22:05
A causa della sua particolare architettura mi sà che in futuro diverrà un'abitudine vedere G80 più fredda con titoli DX10.
OMG! :eek:
La tua considerazione è davvero fuori dalle righe... I bench di altri demo dx10 non evidenziano lo stesso problema (ed in effetti i numeri parlano chiaro, vedi Lost Planet). Esiste inoltre un altro bench DX10 (Variance Shadow Map) del SDK DX10 che in esecuzione porta le temperature di G80 nei canonici 70-75°...
Per quanto riguarda il test COJ, più di un utente ha avuto la stessa esperienza e, se fosse come dici tu, anche noi, overcloccando, avremmo avuto prestazioni altalenanti o per lo meno variabili. Al contrario, portando le frequenze G80 fuori specifica (per me 680MHz), durante quel bench la scheda non si inchioda, cosa che invece fa puntualmente anche solo con 3dMark06... ottenendo sempre lo stesso risultato.
Dire che hanno barato... poi... significa :mc: .
NvidiaMen
15-06-2007, 22:16
OMG! :eek:
La tua considerazione è davvero fuori dalle righe... I bench di altri demo dx10 non evidenziano lo stesso problema (ed in effetti i numeri parlano chiaro, vedi Lost Planet). Esiste inoltre un altro bench DX10 (Variance Shadow Map) del SDK DX10 che in esecuzione porta le temperature di G80 nei canonici 70-75°...
Per quanto riguarda il test COJ, più di un utente ha avuto la stessa esperienza e, se fosse come dici tu, anche noi, overcloccando, avremmo avuto prestazioni altalenanti o per lo meno variabili. Al contrario, portando le frequenze G80 fuori specifica (per me 680MHz), durante quel bench la scheda non si inchioda, cosa che invece fa puntualmente anche solo con 3dMark06... ottenendo sempre lo stesso risultato.
Dire che hanno barato... poi... significa :mc: .
Penso tu sia daccordo con me che l'avere in CoJ temperature più basse del normale in ambito DX10 "cozza" con le dichiarazioni rilasciate a vrzone secondo le quali:
A hidden "ExtraQuality" parameter only accessible via a configuration file is automatically enabled when the benchmark is run on NVIDIA hardware, no matter what the setting in the configuration file. This setting has no apparent visual quality enhancement, but reduces NVIDIA GPU performance.
un eventuale paramentro di extraqualità (che tra l'altro non modifica in alcun modo l'aspetto grafico) accessibile attraverso un file di configurazione si abilita in presenza di hardware nVidia riducendo le performance. Ma se questo fosse vero non porterebbe il G80 ad eseguire elaborazioni in più che lo porterebbero a temperature maggiori?
Ecco spiegato il motivo del mio iniziale intervento.
In ogni caso direi che è inutile commentare botta e risposta da parte dei marketing sia di ATi che di nVidia anche perchè è prematuro arrivare ad una conclusione a causa della totale latitanza di software sviluppato sfruttando al meglio le caratteristiche delle nuove API DX10.
leoneazzurro
15-06-2007, 22:21
Ah non so proprio cosa intendesse, mi son limitato a tradurre a chi non aveva capito :>
Ipoteticamente potrei interpretare la frase come "non siamo ripartiti dai DX10 della serie R5xx ma li abbiam rifatti da 0", ma non ne ho idea.
Voleva dire che li hanno proprio dovuti scrivere da zero, perchè non c'era niente prima: R580 non ha un driver DX10, e il driver Xenos lo ha scritto Microsoft.
nico88desmo
15-06-2007, 22:23
Tralasciando la sfida Ati e nVidia, per ora, con questo gioco, è impossibile giocarci sia con una scheda sia con l'altra (non sono +4fps che fanno la differenza).
Quindi io spero che in qualche modo si risolva questa situazione.
ps: ma secondo voi con quali configurazioni hanno sviluppato il bench? Solo Sli o crossfire? :rolleyes:
Scrambler77
15-06-2007, 22:26
Penso tu sia daccordo con me che l'avere in CoJ temperature più basse del normale in ambito DX10 "cozza" con le dichiarazioni rilasciate a vrzone secondo le quali:
A hidden "ExtraQuality" parameter only accessible via a configuration file is automatically enabled when the benchmark is run on NVIDIA hardware, no matter what the setting in the configuration file. This setting has no apparent visual quality enhancement, but reduces NVIDIA GPU performance.
un eventuale paramentro di extraqualità (che tra l'altro non modifica in alcun modo l'aspetto grafico) accessibile attraverso un file di configurazione si abilita in presenza di hardware nVidia riducendo le performance. Ma se questo fosse vero non porterebbe il G80 ad eseguire elaborazioni in più che lo porterebbero a temperature maggiori?
Ecco spiegato il motivo del mio iniziale intervento.
In ogni caso direi che è inutile commentare botta e risposta da parte dei marketing sia di ATi che di nVidia anche perchè è prematuro arrivare ad una conclusione a causa della totale latitanza di software sviluppato sfruttando al meglio le caratteristiche delle nuove API DX10.
I benchmarks di ATi su LostPlanet DX10 riportavano gravi problemi di visualizzazione. Lì era un problema dell'accoppiata Demo/ATi, e non so neppure se l'hanno risolto. Nessuno disse che R600 non supportava DX10 perchè era infondato.
Allo stesso modo, la stessa cosa si verifica con COJ/nVidia: gli alberi vengono renderizzati con uno strano effetto di dithering. Lo sluttering video è evidente e la qualità dell'immagine che ne deriva è scadente. Tutt'altro che "Extra Quality" insomma. Vai a leggere il 3d ufficiale ed avrai le idee più chiare.
Ti ripeto inoltre che con altri test DX10, le temperature tornano normali. E' solo con COJ che si verifica questo problema.
L'uso dell'hardware (con conseguenti diminuzioni delle temperature) in funzione delle "feature" di una API è del tutto indipendente.
Se, come dici tu, G80 non avesse supportato a pieno le feature DX10 di cui parli, avrebbe avuto una scarsissima qualità dell'immagine ma framerate elevatissimi perchè nell'impossibilità di applicare tutti i filtri del caso.
Secondo me, invece, il test non sarebbe partito affatto.
Al contrario ci troviamo nella situazione diametralmente opposta. G80 si gratta la panza (per usare una grottesca espressione delle mie parti) durante il bench, e dorme per buona parte del tempo. Questo spiega il minor carico e il maggior OC ottenibile con quel bench.
leoneazzurro
15-06-2007, 22:29
Vi ricordo che questo thread parla solo di R600, se ricominciate coi flame poi non vi lamentate perchè partono le sospensioni ;)
Vi ricordo che questo thread parla solo di R600, se ricominciate coi flame poi non vi lamentate perchè partono le sospensioni ;)
Vabè dai ma è normale che si fanno altri riferimenti, è cmq sono sempre IT, mica hanno parlato di politica. ;)
NvidiaMen
15-06-2007, 22:44
I benchmarks di ATi su LostPlanet DX10 riportavano gravi problemi di visualizzazione. Lì era un problema dell'accoppiata Demo/ATi, e non so neppure se l'hanno risolto. Nessuno disse che R600 non supportava DX10 perchè era infondato.
Ci mancava pure che si arrivasse a dire che R600 non supportasse DX10.... :doh:
Allo stesso modo, la stessa cosa si verifica con COJ/nVidia: gli alberi vengono renderizzati con uno strano effetto di dithering. Lo sluttering video è evidente e la qualità dell'immagine che ne deriva è scadente. Tutt'altro che "Extra Quality" insomma.
Allora se il discorso dell'extraquality non convince neanche te perchè mi hai quotato? Il mio intervento sottolineava proprio questo... :mbe:
Vai a leggere il 3d ufficiale ed avrai le idee più chiare.Se non le avessi avute conoscendo bene i problemi di artefatti generati da G80 con CoJ credo avessi dovuto dire il contrario: cioè che il demo in questione sfrutta qualitativamente meglio le architetture nVidia... Non credi? Ed invece è proprio quello che correggo nell'intervento segnalato su vrzone...
Ti ripeto inoltre che con altri test DX10, le temperature tornano normali. E' solo con COJ che si verifica questo problema.
L'uso dell'hardware (con conseguenti diminuzioni delle temperature) in funzione delle "feature" di una API è del tutto indipendente.
Assolutamente falso. I filtri e le features programmabili attraverso gli shaders aumentano il numero di unità contemporaneamente impegnate e questo si traduce in un carico maggiore per la GPU con conseguente aumento delle temperature operative a parità di frequenza di lavoro del chip.
Se, come dici tu, G80 non avesse supportato a pieno le feature DX10 di cui parli, avrebbe avuto una scarsissima qualità dell'immagine ma framerate elevatissimi perchè nell'impossibilità di applicare tutti i filtri del caso.
Secondo me, invece, il test non sarebbe partito affatto.
Elaborare un vettore con quattro scalari è certamente più potente che gestire un semplice scalare.
Al contrario ci troviamo nella situazione diametralmente opposta. G80 si gratta la panza (per usare una grottesca espressione delle mie parti) durante il bench, e dorme per buona parte del tempo. Questo spiega il minor carico e il maggior OC ottenibile con quel bench.
No comment
leoneazzurro
15-06-2007, 22:50
Vabè dai ma è normale che si fanno altri riferimenti, è cmq sono sempre IT, mica hanno parlato di politica. ;)
C'è stato un precedente ammonimento di Simon82. Non è che si è OT solo se si parla di politica, eh? ;)
Scrambler77
15-06-2007, 22:51
Ci mancava pure che si arrivasse a dire che R600 non supportasse DX10.... :doh:
[CUT]
No comment
Infatti non l'ho detto.
Cmq, una volta tanto seguo il consiglio di leoneazzurro (che tra l'altro mi pare strano che non sia intervenuto tecnicamente, visto che sembra essere particolarmnete "addentrato, per correggere quanto scritto) e lascio perdere... perchè è opinione comune che nel bench DX10 di COJ ci siano problemi di natura software. Non voglio cambiare una tua idea, ma se il "driver issue" vale per ATi non capisco perchè non dovrebbe valere per nVidia.
Ecco un'altra testimonianza che forse ti è sfuggita...: http://www.hwupgrade.it/forum/showpost.php?p=17509798&postcount=511
@leoneazzurro: finchè la discussione resta in toni pacati ed educati, oltre che attinente al topic (come sembra) non vedo perchè si debba ritenere un flame. Infine non ho scritto io che G80 non è pienamente DX10-compliant.
NvidiaMen
15-06-2007, 22:57
C'è stato un precedente ammonimento di Simon82. Non è che si è OT solo se si parla di politica, eh? ;)
Approvo le indicazioni del mod circa il contenimento dei toni nella discussione. Tuttavia noto con dispiacere che alcuni interventi del tutto neutri vengono interpretati, da alcuni, in ottica avversa, quasi "pseudofanboyana". Sono proprio questi utenti che fanno di tutto nel portare la discussione al vile scontro. Non mi riferisco assolutamente al mio attuale dibattito con il correttissimo Scrambler77, ma ad altri post ricchi di flames nei quali leoneazzurro ha fatto appieno il suo dovere.
NM.
NvidiaMen
15-06-2007, 23:06
Come ho precisato sin dall'inizio è ancora prematuro arrivare a conclusioni affrettate affidandosi a questa o quella dichiarazione dei rispettivi marketing ATi/nVidia come ad esempio questa di un mese fà (http://it.theinquirer.net/2007/05/amd_se_la_prende_con_lost_plan.html)...
ale0bello0pr
15-06-2007, 23:10
Come ho precisato sin dall'inizio è ancora prematuro arrivare a conclusioni affrettate affidandosi a questa o quella dichiarazione dei rispettivi marketing ATi/nVidia come ad esempio questa di un mese fà (http://it.theinquirer.net/2007/05/amd_se_la_prende_con_lost_plan.html)...
ah beh the inquirer....the faker....:asd:
cmq nn ho piu' capito se questo thread è diventato quello di COJ e Lost Planet...:confused:
Comunque vorrei linkare questa interessante intervista a Eric Demers, uno degli ideatori dell'architettura di R600:
http://www.beyond3d.com/content/interviews/39
Il contenuto non è male, anche se bisogna anche ripulirlo dal marketing.
...molto interessante, anche se io avrei fatto domandine più bastarde. :D
...chissà tra 6/8 mesi, in pieno marasma Dx10, di cosa sarà capace R600. Mi linko questo articolo e me lo rileggerò al momento giusto.
:)
leoneazzurro
15-06-2007, 23:22
@leoneazzurro: finchè la discussione resta in toni pacati ed educati, oltre che attinente al topic (come sembra) non vedo perchè si debba ritenere un flame. Infine non ho scritto io che G80 non è pienamente DX10-compliant.
C'è stato anche il richiamo a non andare OT;) E visto che c'è già un thread di CoJ...
(Per la precisione: non sono intervenuto tecnicamente perchè al momento non c'è un test indipendente che confermi o smentisca la tesi di Nvidia. Basarsi sulla temperatura può essere fuorviante, comunque.Tra l'altro nel thread di CoJ attivando il MSAA su G80 c'erano sì artefatti, come visto nei test di Appleroof, ma le performance non erano affatto basse. )
Ah perchè tu sei convinto che progettano e costruiscono i microchip subito dopo l'uscita dell'ultimo modello? Sei convinto che alla progettazione dell'R700 ci hanno lavorato solo di recente? Quella gente li ha GIA bella pronta tecnologia ben superiore all'R700, ma che chiaramente li mmettono sul mercato molto lentamente.
Stessa cosa vale per i processori.... se vi dicono che il modello che esce fra 6 mesi è il top lo è per il mercato, ma non certo per loro che ne hanno gia pronti di ENORMEMENTE superiori.
no era solo per sottolineare come per una archidettura nuova ci voglio almeno 3 o 4 anni di svilippo e cmq anche se viene svilippata lo sviluppo finale non è mai lo stesos di quello iniziale.
da r400 sono nati r520-r580 r500 e r600 ora andare a cercare nell'uno o nell'altro dove c'è + di r400 non saprei dove andare a dirlo anche xè le specifiche definitive di r400 non sono mai state sere pubbliche.
poi effettivamente si pensa anche che cmq fino a r480 quindi le x850xt il progetto partiva da r300 nsomma anche qui da una archidettura iniziale per sfruttarla appieno ci hanno messo 3 anni.
quoto....è la stessa cosa che ho scritto anche io sull altro 3d.....chissa perche questo passo indietro...le ddr4 erano gia montate su x1950xtx....questione di disponibilita..?? di costi....??? boh.....:confused:
WOW....200 post in meno di un mese....!!
continuo a spiegarlo.
con un bus da 512bit memorie ad altissima velocità non servono gia con 1650mhz si arrivano a bande di 105gb dove il bus a 384bit di nvidia per arrivare ad una frequenza comparabile le vga nvidia devono avere clock di gddr3 da 2200mhz.
la x1950xtx era un esercizio di stile per provare le gddr4 effettivamente a parità di consumo puoi usare gddr4 da 2000-2200 mhz ottenendo una banda da 140-150gb.
solo che una banda del genere la sfrutti solo con risoluzioni proibitive.
allora le cose erano 2 o usavano gddr3 da 1650mhz per mantenere bassi i costi, o susavano gddr4 da 2000mhz aumentando i costi di almeno un 30e a vga e questo avrebbe frenato le vendite della scheda.
usando gddr4 clokkate a 1800mhz magari avrebbero risparmiato 10W sul consumo globale che però non avrebbero portato abbassamenti significativi sul consumo globale,ne avrebbero portato significativi incremente di performaces.
contando che le gddr4 vengono commercializzati partendo da 2000mhz il costo sarebbe stato cmq elevatoanche xè si strattava di comprare le gddr4 e mandarle downclokkate.
a sto punto hanno trovato il miglior prezzo prestazioni in gddr3 veloci che se sono le gddr3 che montano le 8800gts e gtx sicuramente fino a 2000mhz ci arrivano in tranquillità.
Interessante l'articolo di beyond3d, come su 1900 la programmazione del memory controller dovrebbe portare incrementi a ogni release di driver, di fatto ora si sono concentrati su opengl.
Ad esempio la 1900 GT con company of heroes è passata da 49 fps iniziali a 64 con gli ultimi drivers (parlo del gioco senza patch, che abilita il v-sync e fa diventare il bench poco significativo).
La tua considerazione è davvero fuori dalle righe... I bench di altri demo dx10 non evidenziano lo stesso problema (ed in effetti i numeri parlano chiaro, vedi Lost Planet). Esiste inoltre un altro bench DX10 (Variance Shadow Map) del SDK DX10 che in esecuzione porta le temperature di G80 nei canonici 70-75°...
Giusto per puntualizzare, i 2 bench da te citati sono entrambi fortemente pro nVidia, quindi conclusioni di ogni tipo in DX10 non se ne potranno ancora trarre almeno fino ad agosto, temo (quando dovrebbe uscire il primo gioco DX10 non pro una delle 2 case, Bioshock).
Passando più strettamente IT, Eric Demers ha fatto anche un'altra puntualizzazione interessante sulle prestazioni di R600 (penso principalmente sulle prestazioni in DX9) sul forum di B3D.
Originally Posted by sireric
I did not mean to imply that. It's a good and reasonable design. The drivers are very stable and deliver the expected performance in many cases. There are certainly quite a few left to address. If someone is expecting a 2x boost in all apps, well, I'm sorry, but it won't happen. There's a couple of places where that kind of delta is possible, and a lot where 10 ~30% is possible too. But we are shipping a good product at an awesome price. People should buy based on current expectation (or near current), with the possibility of future improvements. From a functional aspect, there's more to do too (such as more custom filters, fixing some of the video stuff, etc... -- We have many features coming down the pipe). But we did ship a good product.
NvidiaMen
16-06-2007, 08:30
...solo che una banda del genere la sfrutti solo con risoluzioni proibitive.
Aggiungo, anche per rispondere a precedenti post che ritengono inutili i soli incrementi sulla banda di memoria nella versione DDR4 da 1GB di 2900XT, che un'ampiezza maggiore serve non solo nella gestione delle alte risoluzioni, ma soprattutto per l'applicazione dell'High Dinamic Range (HDR) senza incorrere in evidenti perdite prestazionali.
NM.
Aggiungo, anche per rispondere a precedenti post che ritengono inutili i soli incrementi sulla banda di memoria nella versione DDR4 da 1GB di 2900XT, che un'ampiezza maggiore serve non solo nella gestione delle alte risoluzioni, ma soprattutto per l'applicazione dell'High Dinamic Range (HDR) senza incorrere in evidenti perdite prestazionali.
NM.
esatto :)
-Feanor-
16-06-2007, 09:34
continuo a spiegarlo.
con un bus da 512bit memorie ad altissima velocità non servono gia con 1650mhz si arrivano a bande di 105gb dove il bus a 384bit di nvidia per arrivare ad una frequenza comparabile le vga nvidia devono avere clock di gddr3 da 2200mhz.
la x1950xtx era un esercizio di stile per provare le gddr4 effettivamente a parità di consumo puoi usare gddr4 da 2000-2200 mhz ottenendo una banda da 140-150gb.
solo che una banda del genere la sfrutti solo con risoluzioni proibitive.
allora le cose erano 2 o usavano gddr3 da 1650mhz per mantenere bassi i costi, o susavano gddr4 da 2000mhz aumentando i costi di almeno un 30e a vga e questo avrebbe frenato le vendite della scheda.
usando gddr4 clokkate a 1800mhz magari avrebbero risparmiato 10W sul consumo globale che però non avrebbero portato abbassamenti significativi sul consumo globale,ne avrebbero portato significativi incremente di performaces.
contando che le gddr4 vengono commercializzati partendo da 2000mhz il costo sarebbe stato cmq elevatoanche xè si strattava di comprare le gddr4 e mandarle downclokkate.
a sto punto hanno trovato il miglior prezzo prestazioni in gddr3 veloci che se sono le gddr3 che montano le 8800gts e gtx sicuramente fino a 2000mhz ci arrivano in tranquillità.
grazie..!!! sei stato chiarissimo...anche tu NM...pero stando a quanto dice qst ultimo..non sarebbe stato poi cosi stupido montarle su 2900xt...se poi la differenza sarebbe stata davvero di 30 euro...qualche partner dovrebbe provare una versione 512mb ddr4...:stordita: ...senza poi contare gli utonti che a vedere che usa ddr4 si sciolgono, senza sapere neanche cosa comporti e i vantaggi....cavoli pero sono ddr4....!!!!!! :doh:
http://www.hwupgrade.it/news/skvideo/sapphire-schede-dual-hd-2600-e-best-low-noise-design-award_21531-10.html
Questa notizia è stata riportata?
Sapphire ha vinto all'ultimo Computex il Best Low Noise Design con 2 HD2900XT Toxic (=liquid cooled) in CF.
In effetti una soluzione del genere, a parte il consumo, dovrebbe essere molto più performante, silenzioso e freddo di uno con una Ultra liquid cooled costando più o meno la stessa somma (credo che una Ultra LC possa arrivare a costare 800-900€) ... :eek:
+Lonewolf+
16-06-2007, 11:13
http://www.hwupgrade.it/news/skvideo/sapphire-schede-dual-hd-2600-e-best-low-noise-design-award_21531-10.html
Questa notizia è stata riportata?
Sapphire ha vinto all'ultimo Computex il Best Low Noise Design con 2 HD2900XT Toxic (=liquid cooled) in CF.
In effetti una soluzione del genere, a parte il consumo, dovrebbe essere molto più performante, silenzioso e freddo di uno con una Ultra liquid cooled costando più o meno la stessa somma (credo che una Ultra LC possa arrivare a costare 800-900€) ... :eek:
molto interessante:)
Athlon 64 3000+
16-06-2007, 12:36
Giusto per puntualizzare, i 2 bench da te citati sono entrambi fortemente pro nVidia, quindi conclusioni di ogni tipo in DX10 non se ne potranno ancora trarre almeno fino ad agosto, temo (quando dovrebbe uscire il primo gioco DX10 non pro una delle 2 case, Bioshock).
Passando più strettamente IT, Eric Demers ha fatto anche un'altra puntualizzazione interessante sulle prestazioni di R600 (penso principalmente sulle prestazioni in DX9) sul forum di B3D.
Ho tradotto e letto la parte e se ho capito bene dice che riguardo le prestazioni in dx 9 se non mi sbaglio con i nuovi driver si potrebbe avere un miglioramento prestazionale fino al 30%.
Ho tradotto e letto la parte e se ho capito bene dice che riguardo le prestazioni in dx 9 se non mi sbaglio con i nuovi driver si potrebbe avere un miglioramento prestazionale fino al 30%.
dal 10 al 30%
bene :)
Athlon 64 3000+
16-06-2007, 13:00
dal 10 al 30%
bene :)
Prima degli incrementi prestazionali spero che con i 7.6 risolvino i bachi dell'anisotropico,dello switch 2d/3d che non avviene in alcuni giochi,quella della gestione della ventola e anche dell'AA.
Poi dai 7.7 in poi possono cominciare gli incrementi prestazionali.
Giusto per puntualizzare, i 2 bench da te citati sono entrambi fortemente pro nVidia, quindi conclusioni di ogni tipo in DX10 non se ne potranno ancora trarre almeno fino ad agosto, temo (quando dovrebbe uscire il primo gioco DX10 non pro una delle 2 case, Bioshock).
Passando più strettamente IT, Eric Demers ha fatto anche un'altra puntualizzazione interessante sulle prestazioni di R600 (penso principalmente sulle prestazioni in DX9) sul forum di B3D.
ragazzi io però boh sta storia dei giochi nvidia e dei marchi "mean to be played di nvidia" inizierei ad eleminarli.
vi faccio un grosso anzi grossissimo esempio la serie ut2003,ut2004 è un gioco mean to be played di nvidia eppure appena uscito gia dai test delle 5900vs le 9800pro le 9800pro gli davano una pista.
le prestazioni le fanno in primis l'archidettura della vga e poi i driver che la sfruttano.
le case che producono videogames non si lasciano facilmente convicere a sviluppare giochi per una sola archidettura.
poi è diverso un contro è ut2004 con motore propietario e anche lost planet il motore è propietario poi alcune case vedi capcom o anche epic a volte per merchandasing chiamano qualcuno nvidia e si fanno mettere il bel loghetto nvidia..
oppure ad esempio valve quando programmava hl2 lo programmata all'inizio appositamente su delle vga ati che altro non erano che delle 9800pro(si parla all'inizio dei lavori quindi in piena commercializzazione delle 9700pro)questo è un caso palese di programmazione pro vga.
cioè si sviluppa un motore partendo da una vga precisa mentre invece motori che spesso hanno il logo "nvidia" sono motori proprietari e hanno quel logo solo alla fine dei lavori.
poi ad adattare un motore ci vuole poco prendiamo sempre hl2 nato e programmato su delle 9800pro e poi con episode1 ci hanno messo molto molto poco ad adattarlo ad hoc anche per l'archidettura nvidia.
stessa cosa per doom3 e derivati la minor capacità delle schede ati è data principalemnte dal fatto che doom3 è un motore nato per lavore su vga geforce3 ergo si portava avanti ottimizzazioni solo per questa vga quindi shadows programmate per hw nvidia perchè all'epoca ati non era considerata una casa top performaces per il gaming sul pc.
quindi boh io + che dire "ma sono giochi fortemente su nvidia" direi che sono giochi in cui i dvr ati non sono ancora competitivi.
anche xè se ricordate i dvr ogl di ati che all'epoca facevano pena dopo l'uscita di doom3 come si sono sbrigati in ati e riprogrammare da 0 il kernel ogl dei dvr e a raggiungere prestazioni uguali alla controparte nvidia.
qualcuno sa qualcosa di nuovi driver?
Prima degli incrementi prestazionali spero che con i 7.6 risolvino i bachi dell'anisotropico,dello switch 2d/3d che non avviene in alcuni giochi,quella della gestione della ventola e anche dell'AA.
Poi dai 7.7 in poi possono cominciare gli incrementi prestazionali.
Hai segnalato ad AMD-ATi questi problemi? Se si, cercheranno di provvedere, comunque i drivers che daranno significativi miglioramenti speriamo che inizino ad essere i 7.6...
Hai segnalato ad AMD-ATi questi problemi? Se si, cercheranno di provvedere, comunque i drivers che daranno significativi miglioramenti speriamo che inizino ad essere i 7.6...
credo che circa 3 milioni di persone lo sperino
A proposito di milioni: c'è da qualche parte un sito che riporta il numeor di schede vendute?
ragazzi io però boh sta storia dei giochi nvidia e dei marchi "mean to be played di nvidia" inizierei ad eleminarli.
vi faccio un grosso anzi grossissimo esempio la serie ut2003,ut2004 è un gioco mean to be played di nvidia eppure appena uscito gia dai test delle 5900vs le 9800pro le 9800pro gli davano una pista.
le prestazioni le fanno in primis l'archidettura della vga e poi i driver che la sfruttano.
le case che producono videogames non si lasciano facilmente convicere a sviluppare giochi per una sola archidettura.
poi è diverso un contro è ut2004 con motore propietario e anche lost planet il motore è propietario poi alcune case vedi capcom o anche epic a volte per merchandasing chiamano qualcuno nvidia e si fanno mettere il bel loghetto nvidia..
oppure ad esempio valve quando programmava hl2 lo programmata all'inizio appositamente su delle vga ati che altro non erano che delle 9800pro(si parla all'inizio dei lavori quindi in piena commercializzazione delle 9700pro)questo è un caso palese di programmazione pro vga.
cioè si sviluppa un motore partendo da una vga precisa mentre invece motori che spesso hanno il logo "nvidia" sono motori proprietari e hanno quel logo solo alla fine dei lavori.
poi ad adattare un motore ci vuole poco prendiamo sempre hl2 nato e programmato su delle 9800pro e poi con episode1 ci hanno messo molto molto poco ad adattarlo ad hoc anche per l'archidettura nvidia.
stessa cosa per doom3 e derivati la minor capacità delle schede ati è data principalemnte dal fatto che doom3 è un motore nato per lavore su vga geforce3 ergo si portava avanti ottimizzazioni solo per questa vga quindi shadows programmate per hw nvidia perchè all'epoca ati non era considerata una casa top performaces per il gaming sul pc.
quindi boh io + che dire "ma sono giochi fortemente su nvidia" direi che sono giochi in cui i dvr ati non sono ancora competitivi.
anche xè se ricordate i dvr ogl di ati che all'epoca facevano pena dopo l'uscita di doom3 come si sono sbrigati in ati e riprogrammare da 0 il kernel ogl dei dvr e a raggiungere prestazioni uguali alla controparte nvidia.
Quoto, lo sponsor non deve per forza inficiare da un punto di vista prestazionale, è solo puro merchandising: mettimi il loghetto e ti do l' terris :stordita:
Comuqnue Carmack per Doom3 quando era in sviluppo dava come scheda ideale per giocarci una GeForce 3 Ti500 se non sbaglio, poi man mano che andava avanti lo sviluppo e veniva rilasciato hardware più avanzato lo stesso John aumentava i requisiti...
Lui segnalava sempre nVidia tra le "best choices" forse perchè usava quelle per il testing, non lo metto in dubbio ma credo che la ragione più forte sia quella del miglior supporto delle Open Glide che le GeForce offrivano e non credo questa fosse e forse sia una gran novità!
Quoto, lo sponsor non deve per forza inficiare da un punto di vista prestazionale, è solo puro merchandising: mettimi il loghetto e ti do l' terris :stordita:
Comuqnue Carmack per Doom3 quando era in sviluppo dava come scheda ideale per giocarci una GeForce 3 Ti500 se non sbaglio, poi man mano che andava avanti lo sviluppo e veniva rilasciato hardware più avanzato lo stesso John aumentava i requisiti...
Lui segnalava sempre nVidia tra le "best choices" forse perchè usava quelle per il testing, non lo metto in dubbio ma credo che la ragione più forte sia quella del miglior supporto delle Open Glide che le GeForce offrivano e non credo questa fosse e forse sia una gran novità!
Geforce Fx è nata in buona parte sulle indicazioni di Carmack, così come le future schede hanno mantenuto la medesima filosofia sulla parte texturing, Hl2 invece usava unicamente i 24 bit supportati da r300, che nv30 era costretta a elaborare a 32, almeno fintanto che Nvidia non fece la magia di un driver che ricompilava tutto in fixed o partial precision al volo.
R600 come si legge è una scheda dx10 che supporta le directx9, questa penso sia la conferma più importante dell'intervista.
sò che è passato del tempo ma girando nel web ho visto questa interessante recensione provate a vedere se vi piace, spero sia una novità se no ciò provato a dare dl mio: http://www.pctuner.net/articoli/SchedeVideo/593/Jetway_Radeon_HD_2900_XT/
se qualcuno trova prezzi e indiscrezioni sulla 2600xt può farmelo sapere velocemente visto che devo cambiare scheda e sono indeciso tra questa e una x1950xt 512?:help:
ma è normale che con doom 3 a 1440x900 e dettagli ultra faccio solo 40fps in media? non dovrei fare almeno il doppio?
Ho vista, un e4400 @ 2250, 2 giga di ram e, ovviamente, la 2900xt
Scrambler77
17-06-2007, 10:41
ma è normale che con doom 3 a 1440x900 e dettagli ultra faccio solo 40fps in media? non dovrei fare almeno il doppio?
Ho vista, un e4400 @ 2250, 2 giga di ram e, ovviamente, la 2900xt
:eek:
+Lonewolf+
17-06-2007, 12:50
Ragazzi potreste farmi un bel riassuntino del dove sono arrivate prestazionalmente le 2900xt?
Sono più prestanti "globalmente" di una 8800gts?
E dove superano la 8800gtx?
Sarei molto interessato ad un acquisto.
Indicatemi anche qualche rece recente... se potete.
Grazie 1000!! :)
per avere boost prestazionali si aspettano i nuovi drivers, globalmente è un po' + performante di una gts(attualmente) e raramente supera la top di nvidia in 1 o 2 test che non ricordo...io personalmente sono molto soddisfatto del mio acquisto e la consiglierei a tutti...inoltre se ti può interessare leggiti anche l'articolo postato qlk pagina fa dove parla della sua architettura..in sostanza se ti interessa giocare in directx 10 r600 è un'architettura fatta a posta x qst e si aspettano i nuovi drivers x la piena compatibilità delle nuove API...insomma è una scheda dx10 che supporta le dx9.Con i futuri drivers si avrà un incremento dal 10% al 30% in dx9 e larghi miglioramenti in dx10;) se ti interessa la situazione attuale è qst
per le recensioni guarda qlk pagina fa
Franx1508
17-06-2007, 13:13
se avessi i soldi mela farei senza indugi...
le mie bimbe però hanno ancora molto da dire.
nico88desmo
17-06-2007, 13:23
Ragazzi potreste farmi un bel riassuntino del dove sono arrivate prestazionalmente le 2900xt?
Sono più prestanti "globalmente" di una 8800gts?
E dove superano la 8800gtx?
Sarei molto interessato ad un acquisto.
Indicatemi anche qualche rece recente... se potete.
Grazie 1000!! :)
Ora come ora in DX9 è meglio preferire la 8800gts 640mb.
per le DX10, difficile da dire causa nuove librerie, driver immaturi sia nvidia sia ati, vista, ecc; da quello che si dice però, forse la HD2900XT andrà un pò meglio in confronto alla 8800GTS ma mai ai livelli della 8800GTX.
Franx1508
17-06-2007, 13:25
Ora come ora in DX9 è meglio preferire la 8800gts 640mb.
per le DX10, difficile da dire causa nuove librerie, driver immaturi sia nvidia sia ati, vista, ecc; da quello che si dice però, forse la HD2900XT andrà un pò meglio in confronto alla 8800GTS ma mai ai livelli della 8800GTX.
comprala montala su un buon pc e limitati ad aggiornare sistematicamente i drivers con gli ufficiali.non avrai problemi.
+Lonewolf+
17-06-2007, 13:26
Ora come ora in DX9 è meglio preferire la 8800gts 640mb.
per le DX10, difficile da dire causa nuove librerie, driver immaturi sia nvidia sia ati, vista, ecc; da quello che si dice però, forse la HD2900XT andrà un pò meglio in confronto alla 8800GTS ma mai ai livelli della 8800GTX.
dove hai letto un po'meglio e mai al livello di?
r600 è una scheda directx10...delle 9 ha solo il supporto, quindi evitiamo di predirre il futuro in maniera certa, facciamo solo supposizioni...
ma è normale che con doom 3 a 1440x900 e dettagli ultra faccio solo 40fps in media? non dovrei fare almeno il doppio?
Ho vista, un e4400 @ 2250, 2 giga di ram e, ovviamente, la 2900xt
Si ma non con vista, a meno che da gennaio i driver ogl abbiano subito notevoli miglioramenti
http://www.tomshardware.com/2007/01/17/gameplay-only-gets-worse-with-vista/page8.html
nico88desmo
17-06-2007, 13:46
dove hai letto un po'meglio e mai al livello di?
r600 è una scheda directx10...delle 9 ha solo il supporto, quindi evitiamo di predirre il futuro in maniera certa, facciamo solo supposizioni...
Tra R600 e 8800GTX attualmente c'è una differenza piuttosto netta..visto che fanno parte anche di fasce di prezzo diverse.
Dubito che l'ati andrà più veloce in dx10 confronto alla gtx..ovviamente è un mio parere.
Tra l'altro anche l'8800 è dx10, meno o più orientata alle nuove librerie questo saranno solo i giochi futuri a dirlo, dipende da come sfrutteranno l'architettura delle schede.
+Lonewolf+
17-06-2007, 14:19
Mmhh ma scusa con la 8800gts non si può fare lo stesso discorso?! :confused:
A parte le varie implementazioni hardware che 8800 non ha (tipo tassellation unit) e che nn mi sembra che oggi facciano la differenza.
no...basta leggerre l'articolo di qlk pagina fa
r600 è molto + dx10 oriented rispetto a g80( con ciò nn voglio dire che andrà meglio o peggio eh:))
A parte le varie implementazioni hardware che 8800 non ha (tipo tassellation unit) e che nn mi sembra che oggi facciano la differenza.
oggi no, ma chissà più avanti...
Tra R600 e 8800GTX attualmente c'è una differenza piuttosto netta..visto che fanno parte anche di fasce di prezzo diverse.
Dubito che l'ati andrà più veloce in dx10 confronto alla gtx..ovviamente è un mio parere.
Tra l'altro anche l'8800 è dx10, meno o più orientata alle nuove librerie questo saranno solo i giochi futuri a dirlo, dipende da come sfrutteranno l'architettura delle schede.
quoto
NvidiaMen
17-06-2007, 14:58
Azzardo una scommessa (vi anticipo che in questo tipo di previsioni in genere son abbastanza fortunato :ciapet: ...): tra i catalyst 7.7 ed i 7.8 il mercatino di hwu si riempirà di 8800GTX in vendita per correre ai ripari su una importante revisione del listino da parte di nVidia....
Azzardo una scommessa (vi anticipo che in queste previsioni in genere son abbastanza fortunato :ciapet: ...): tra i catalyst 7.7 ed i 7.8 il mercatino di hwu si riempirà di 8800GTX in vendita per correre ai ripari su una importante revisione del listino da parte di nVidia....
dovesse essere così ci sarà da divertirsi, in quanto credo che ci stupiremo di cosa abbiamo in mano (o per meglio dire nella pci-e)
+Lonewolf+
17-06-2007, 15:07
Azzardo una scommessa (vi anticipo che in questo tipo di previsioni in genere son abbastanza fortunato :ciapet: ...): tra i catalyst 7.7 ed i 7.8 il mercatino di hwu si riempirà di 8800GTX in vendita per correre ai ripari su una importante revisione del listino da parte di nVidia....
intendi dire che quando la 2900 sarà matura nvidia abbasserà i prezzi e molti prima che ciò accada rivenderanno le loro vga di fascia alta...aspetta 1 sec, stai forse dicendo che la gtx diventerò una fascia medio alta a breve?quindi a livello della 2900?
esempio drivers immaturi
8800gts
--------------------
hd2900
---------------------
8800gtx
----------------------------
8800ultra
-------------------------------
esempio drivers maturi
8800gts
--------------------
hd2900
---------------------------
8800gtx
----------------------------
8800ultra
--------------------------------
vuoi dire quindi(secondo la mia previsione:p) che ci sarà una situazione del genere e la fascia alta sarà rappresentata dalla 8800ultra mentre la 8800gtx cambierà fascia, spostandosi sul segmento medio alto insieme alla 2900?
prego i RAPPRESENTANTI nvidia di non scatenarsi in quanto le mie sono supposizioni
Apparte che primo e secondo schema sono uguali...
diciamo che un margine di miglioramento lo hanno anche le 8800 (lo hanno avuto anche le X1950Pro con i cata 7.5 :eek: ), anche se per ora quella che può migliorare più di tutte è la HD2900
imho con i cata di luglio si inizierà a vedere molto più chiaramente quello che la scheda può fare ;)
+Lonewolf+
17-06-2007, 15:18
Apparte che primo e secondo schema sono uguali...
ah si?:mbe:
nn credo avverrà mai una cose del genere, visto che cmq la ultra è solo un 10% (forse meno) più veloce della GTX.
io ho solo avanzato un'ipotesi e cmq in alcuni casi arriva anche a 20% il gap
Ergo, se la prima diventasse "media" non credo che la seconda possa rimanere fascia "high" con 10% di performance in più.
Cmq, IMHO, uno scenario irrealistico.
e t pareva:rolleyes:
ora xò nn iniziamo a fare polemica altrimenti volano sospensioni
ah si?:mbe:
intendeva per nvidia, come ho già detto, anche queste hanno ancora margine di miglioramento ;)
+Lonewolf+
17-06-2007, 15:21
intendeva per nvidia, come ho già detto, anche queste hanno ancora margine di miglioramento ;)
dubito che il loro margine di miglioramento sia comparabile con quello delle 2900 dato che di miglioramenti ne hanno già avuti in 7 mesi:rolleyes:
dubito che il loro margine di miglioramento sia comparabile con quello delle 2900 dato che di miglioramenti ne hanno già avuti in 7 mesi:rolleyes:
leggi meglio il mio post :read:
diciamo che un margine di miglioramento lo hanno anche le 8800 (lo hanno avuto anche le X1950Pro con i cata 7.5 :eek: ), anche se per ora quella che può migliorare più di tutte è la HD2900
imho con i cata di luglio si inizierà a vedere molto più chiaramente quello che la scheda può fare ;)
Azzardo una scommessa (vi anticipo che in questo tipo di previsioni in genere son abbastanza fortunato :ciapet: ...): tra i catalyst 7.7 ed i 7.8 il mercatino di hwu si riempirà di 8800GTX in vendita per correre ai ripari su una importante revisione del listino da parte di nVidia....
i 7.8 potrebbero uscire in concomitanza con crysis :D
Più che i driver, potrebbe essere proprio questo gioco a far vedere per la prima volta le reali potenzialità di R600 (con il conseguente abbassamento dei prezzi di tutto il listino nvidia).
Mi aspetterei anche l'introduzione di una bella 8800GS e due mesi di visite ininterrote su fudzilla e INQ in cerca di rumors sulla nuova fascia alta nvidia :D
Non si finisce mai di "aspettare un nuovo modello"...
è dura la vita dell'appassionato di VGA :D:D:D:D:D
Free Gordon
17-06-2007, 16:12
Ragazzi potreste farmi un bel riassuntino del dove sono arrivate prestazionalmente le 2900xt?
Sono più prestanti "globalmente" di una 8800gts?
E dove superano la 8800gtx?
Sarei molto interessato ad un acquisto.
Indicatemi anche qualche rece recente... se potete.
Grazie 1000!! :)
Se arrivi a spendere 350 euro, vai sulla 2900XT 512. Va bene adesso e promette molto bene per il futuro.
Se invece vuoi spendere di meno, 8800GTS 320. E' la migliore scelta attualmente.
Lascerei invece totalmente perdere la GTS640.
Free Gordon
17-06-2007, 16:16
ma è normale che con doom 3 a 1440x900 e dettagli ultra faccio solo 40fps in media? non dovrei fare almeno il doppio?
Ho vista, un e4400 @ 2250, 2 giga di ram e, ovviamente, la 2900xt
Non è molto normale. :sofico:
-Feanor-
17-06-2007, 16:57
Non è molto normale. :sofico:
purtroppo invece considerando che il gioco è opengl sotto vista....il fatto è abbastanza normale..:cry:
+Lonewolf+
17-06-2007, 16:59
Ehm ecco la 320 già ce l'ho! :D
Mi interessava qlcs di più potente a livello di memoria, visto che con alcuni giochi già a 1280*1024 si saturano i MB disponibili. ;)
rivendi la gts320 e punta a r600...se sei di roma lo paghi 330€;)
purtroppo invece considerando che il gioco è opengl sotto vista....il fatto è abbastanza normale..:cry:
vista con l'opengl e' ancora parecchio lento.
-Feanor-
17-06-2007, 17:04
vista con l'opengl e' ancora parecchio lento.
infatti è quello che dico io...;) ...a quanto ho capito l opengl sotto vista sara solo una questione di driver ati o nvidia...ovvero starà alle 2 case integrarlo e migliorarlo nelle prossime release di driver....giusto...?? :D
+Lonewolf+
17-06-2007, 17:06
infatti è quello che dico io...;) ...a quanto ho capito l opengl sotto vista sara solo una questione di driver ati o nvidia...ovvero starà alle 2 case integrarlo e migliorarlo nelle prossime release di driver....giusto...?? :D
giusto
james_het
17-06-2007, 18:12
rivendi la gts320 e punta a r600...se sei di roma lo paghi 330€;)
davvero un gran consiglio........in qualunque altro luogo al di fuori di questo 3d ti direbbero il contrario...
PS spero di nn esser bananto per aver postato un commento ed un aiuto ad un utente che ne ha chiesto 1........
+Lonewolf+
17-06-2007, 18:27
davvero un gran consiglio........in qualunque altro luogo al di fuori di questo 3d ti direbbero il contrario...
PS spero di nn esser bananto per aver postato un commento ed un aiuto ad un utente che ne ha chiesto 1........
è semplicemente la mia opinione...un utente che vuole giocare a crysis come minimo dovrebbe prendere una 2900 e non una gts come te;)
guarda caso le polemiche le fanno sempre quelli che hanno nvidia...coincidenza?
spero anche io di non essere sospeso x aver detto la mia in toni assolutamente pacati
james_het
17-06-2007, 18:38
è semplicemente la mia opinione...un utente che vuole giocare a crysis come minimo dovrebbe prendere una 2900 e non una gts come te;)
guarda caso le polemiche le fanno sempre quelli che hanno nvidia...coincidenza?
spero anche io di non essere sospeso x aver detto la mia in toni assolutamente pacati
io nn faccio polemiche anzi, sto consigliando un utente al meglio ( e nn per la mia personale opinione ma con tutti i bench possibili alla mano ) e nn capisco come tu abbia potuto dare un consiglio del genere.......amen :fagiano:
-Feanor-
17-06-2007, 18:43
dai ragazzi..:( ..non scannatevi sempre..:sofico: ..altrimenti qui ci fanno chiudere baracca...some il 3d aspettando crysis....cmq a prescindere dal fatto che non siamo nella sez consigli per gli acquisti...:fagiano: ... se vuoi un consiglio spassionato johnp, che credo in fondo sia l'opinione di tutti....tieniti la 8800gts 320mb...e in autunno vedi come si evolve la situazione...tanto non necessiti di sicuro di un cambio urgente..che poi r600 sia meglio (o no) è un altro discorso..ma non necessiti di altra potenza...con la tua scheda giocherai alla grande fino ad allora a 1280x1024...e non dire che non è vero...tanto non ci credo...:Prrr: ....detto cio se decidessi di prenderla cmq, sarebbe interessante x noi....un utente che le ha avute tutte due magari sarebbe una fonte quasi attendibile...:D
Infatti a me interessano poco le "supposizioni"...
apposta avevo chiesto di postarmi rece aggiornate e recenti... che permettano di toccare con mano il distacco tangibile che hanno queste vga con la 8800gts\gtx (la prima lo ricordo... già la possiedo). :)
Io dico, hai già la 8800 320 che è una VGA che ha un ottimo rapporto prezzo prestazioni, quindi non hai la necessità impellente di cambiarla.
Io aspetterei l'uscita dei prossimi giochi dx10, controllerei le prestazioni, e solo poi sceglierei se comprare o no una scheda migliore.
Altro discorso sarebbe se tu avessi una scheda vecchia. In quel caso, in prospettiva futura, ti consiglierei la 2900XT :D
-Feanor-
17-06-2007, 19:06
Io dico, hai già la 8800 320 che è una VGA che ha un ottimo rapporto prezzo prestazioni, quindi non hai la necessità impellente di cambiarla.
Io aspetterei l'uscita dei prossimi giochi dx10, controllerei le prestazioni, e solo poi sceglierei se comprare o no una scheda migliore.
Altro discorso sarebbe se tu avessi una scheda vecchia. In quel caso, in prospettiva futura, ti consiglierei la 2900XT :D
:rolleyes: ma è la stessissima cosa che ho scritto io....:(
:rolleyes: ma è la stessissima cosa che ho scritto io....:(
hai ragione ma non me ne sono accorto... ci ho messo 15 minuti per finire il reply, sto guardando il gran premio :D
james_het
17-06-2007, 19:15
Io dico, hai già la 8800 320 che è una VGA che ha un ottimo rapporto prezzo prestazioni, quindi non hai la necessità impellente di cambiarla.
Io aspetterei l'uscita dei prossimi giochi dx10, controllerei le prestazioni, e solo poi sceglierei se comprare o no una scheda migliore.
Altro discorso sarebbe se tu avessi una scheda vecchia. In quel caso, in prospettiva futura, ti consiglierei la 2900XT :D
mi sembra un consiglio MOLTO migliore di quello dato da lorewolf....è vero che spammare e flammare è da stuupidi, ma dare consigli al di fuori di ogni senso nn è troppo meglio....
cmq che ATI sforni una scheda concorrenziale conviene a tutti ( ed anche a me ) così da avere sempre prezzi + concorrenziali, magari verso il basso piuttosto che verso l'alto :sofico:
webbuffa
17-06-2007, 19:47
:D per chi fosse interessato... trovata a 346... non dal romano :asd: ma da tot@l modd...
Non puoi inserire il link diretto!! :read:
E' vietato dal regolamento...
tu non quotarlo però ;)
edita webfuffa ;)
webbuffa
17-06-2007, 19:51
Non puoi inserire il link diretto!! :read:
E' vietato dal regolamento...
:) Grazie... ho editato :)
è semplicemente la mia opinione...un utente che vuole giocare a crysis come minimo dovrebbe prendere una 2900 e non una gts come te;)
Dubito che, se Crysis avesse problemi con la 8800GTS, non ne avrebbe con la Hd2900, ma anche questa è una mia supposizione ;)
NvidiaMen
17-06-2007, 20:44
A chi chiede consiglio circa l'acquisto di una 2900XT ed è attualmente in possesso di una nVidia 8800GTS o superiore credo che un cambio sia da sconsigliare anche perchè, ad oggi, si ritrovano all'interno del proprio PC quello che di meglio offre il mercato nel rapporto hardware/driver/prestazioni.
Circa invece chi continua a denigrare la 2900XT vorrei solo chiedere una cosa dato che è appena finito un gran premio. Se una vettura potentissima è in mano ad un vero e proprio inetto che risultati si otterrebbero? L'analogia con R600 è evidente a causa di un driver (traduzione esatta di "pilota" in inglese) che non gratifica quanto di buono c'è nel potenziale dell'architettura.
Il mio nick è ispirato a nVidia proprio perchè all'epoca consideravo questa marca (dopo l'acquisizione di 3DFX che la avvantaggiò nello sviluppo di drivers OGL e nelle tecnologie multiGPU) il produttore trainante nello sviluppo hardware dei processori grafici (all'epoca ATi produceva solo alcune soluzioni video integrate in notebook di fascia medio-bassa), ma da quando i canadesi hanno deciso di puntare al mercato di fascia alta sono stati sempre loro ad introdurre le più significative ed importanti novità architetturali che però lo sviluppo drivers solo nei mesi successivi ha dato loro ragione. Oggi si ripete la stessa storia, per cui chi conosce bene il mercato delle GPU dovrebbe pensarci prima due volte prima di dettare editti a sfavore o a favore di questa o quella marca. Ad oggi considero invece nVidia il produttore più prolifico e pratico nel lato dello sviluppo di software ottimizzato e di ambienti di programmazione avanzata attorno alle proprie GPU.
Detto questo io credo molto nelle grosse potenzialità di R600, in particolare nella versione da 1GB per i benchmark a risoluzioni elevate con HDR attivo naturalmente con le future release di drivers Catalyst.
NM.
Scrambler77
17-06-2007, 20:45
davvero un gran consiglio........in qualunque altro luogo al di fuori di questo 3d ti direbbero il contrario...
:asd: mi hai tolto le parole di bocca... era chiaro che lorewolf cercava ancora di scatenare un flame. Evidentemente si diverte a "vedere volare sospensioni" (sue testuali parole), altrimenti non avrebbe introdotto quell'argomento. ;)
vuoi dire quindi(secondo la mia previsione:p) che ci sarà una situazione del genere e la fascia alta sarà rappresentata dalla 8800ultra mentre la 8800gtx cambierà fascia, spostandosi sul segmento medio alto insieme alla 2900?
prego i RAPPRESENTANTI nvidia di non scatenarsi in quanto le mie sono supposizioni
Che fai prima accendi il flame e poi resti a guardare? Ma dai, almeno sii più elegante...
Tra l'altro, sbaglio o questo è il 3d di R600?? Che c'azzecca G80 quì dentro?
io nn faccio polemiche anzi, sto consigliando un utente al meglio ( e nn per la mia personale opinione ma con tutti i bench possibili alla mano ) e nn capisco come tu abbia potuto dare un consiglio del genere.......amen :fagiano:
Il problema è che quell'utente avrebbe bisogno innanzitutto di un consiglio sul 3d più adatto in cui chiedere consigli... :asd:
Per quanto riguarda le prospettive future della 2900... io sono -ovviamente- di parere contrario. Gli stessi miracoli di un driver dx10 per R600 li può fare lo stesso driver di G80 (basti guardare ad esempio l'incremento del 10-15% di prestazioni nel bench di COJ, che tra l'altro ha pure molti problemi a girare su nvidia).
Per me, in fatto di fascia media, la 2900 è una scheda tutt'altro che da consigliare per consumi, rumorosità e calore sviluppato in proporzione alla potenza che offre. Apparte che tra breve esce G92 e G80 sarà riposizionato sui listini...
Poliphilo
17-06-2007, 21:28
ECCOMI FINALMENTE.
Dopo giorni di lavoro ho terminato (quasi) di montare l'impianto a liquido.
Questi i componenti del PC:
- DFI INFINITY P 965-S
- INTEL CONROE CORE DUO E 6700 (2.66 Ghz)
- CELLSHOCK DDR 2 800 PC 6400 (4-4-4-12) - 2 X 1 Gb
- SAPPHIRE HD2900XT 512 Mb
Impianto a liquido:
- WATERBLOCK CPU: DTEK FUZION
- WATERBLOCK GPU: YBRIS K7
- POMPA: LANG 12V 350@500 + PLEXY TOP OCLABS
- RADIATORE TRIVENTOLA
- VASCHETTA: AIR FLOW TRAP
Sistema operativo: WINDOWS XP
Drivers: CATALYST 7.5
Dico tutto ciò per analizzare il dato seguente.
Tenete conto che è TUTTO A DEFAULT: che vuol dire che il bios non l'ho ancora toccato, quindi NIENTE ottimizzazione delle ram, NIENTE overclock della cpu e NIENTE overclock della vga (che per un impianto a liquido è una situazione strana)
Sistema operativo pulito e 3DMark2006 a 1280 x 1024.
Risultato del primo test:
http://img217.imageshack.us/img217/8597/3dmark2006eq3.jpg
Mi sembra buono, no?
:asd: mi hai tolto le parole di bocca... era chiaro che lorewolf cercava ancora di scatenare un flame. Evidentemente si diverte a "vedere volare sospensioni" (sue testuali parole), altrimenti non avrebbe introdotto quell'argomento. ;)
Che fai prima accendi il flame e poi resti a guardare? Ma dai, almeno sii più elegante...
Tra l'altro, sbaglio o questo è il 3d di R600?? Che c'azzecca G80 quì dentro?
... questo tuo post non è da meno, nel cercare il flame... il post di Lonewolf può anche non essere "corretto" o comunque non essere condivisibile (io ad esempio non sono d'accordo sul cambio gts320-->hd2900xt), ma a me non pare proprio che cerchi il flame.... a differenza di questa tua replica.... quindi occhio...
Garagolo
17-06-2007, 21:36
ECCOMI FINALMENTE.
Dopo giorni di lavoro ho terminato (quasi) di montare l'impianto a liquido.
Questi i componenti del PC:
- DFI INFINITY P 965-S
- INTEL CONROE CORE DUO E 6700 (2.66 Ghz)
- CELLSHOCK DDR 2 800 PC 6400 (4-4-4-12) - 2 X 1 Gb
- SAPPHIRE HD2900XT 512 Mb
Impianto a liquido:
- WATERBLOCK CPU: DTEK FUZION
- WATERBLOCK GPU: YBRIS K7
- POMPA: LANG 12V 350@500 + PLEXY TOP OCLABS
- RADIATORE TRIVENTOLA
- VASCHETTA: AIR FLOW TRAP
Sistema operativo: WINDOWS XP
Drivers: CATALYST 7.5
Dico tutto ciò per analizzare il dato seguente.
Tenete conto che è TUTTO A DEFAULT: che vuol dire che il bios non l'ho ancora toccato, quindi NIENTE ottimizzazione delle ram, NIENTE overclock della cpu e NIENTE overclock della vga (che per un impianto a liquido è una situazione strana)
Sistema operativo pulito e 3DMark2006 a 1280 x 1024.
Risultato del primo test:
http://img217.imageshack.us/img217/8597/3dmark2006eq3.jpg
Mi sembra buono, no?
si ...buono per essere a default
Poliphilo
17-06-2007, 21:41
Infatti voglio proprio vedere dove arriverò dopo aver spinto cpu, ram e vga :D
-Feanor-
17-06-2007, 21:47
Infatti voglio proprio vedere dove arriverò dopo aver spinto cpu, ram e vga :D
e quando conteresti di tirare un po il collo al tuo sistemino....??? :D
Poliphilo
17-06-2007, 21:58
e quando conteresti di tirare un po il collo al tuo sistemino....??? :D
Sei curioso, eh? :ciapet:
Appena finisco di sistemare le cose. Sto giusto pensando di apportare qualche modifica al radiatore.
;)
Scrambler77
17-06-2007, 22:52
ma a me non pare proprio che cerchi il flame.... a differenza di questa tua replica.... quindi occhio...
non avevamo dubbi... :)
Non so se è già stato postato, ma INQ ha riportato la notizia che anche un negozio in UK sta vendendo R600 con 1gb di gddr4.
parlano di disponibilità in 10 giorni.
http://uk.theinquirer.net/?article=40378
non avevo dubbi... :)
Sospeso 2 giorni per battutina polemica "condita" da faccina ipocrita...
NvidiaMen
17-06-2007, 23:23
Non so se è già stato postato, ma INQ ha riportato la notizia che anche un negozio in UK sta vendendo R600 con 1gb di gddr4.
parlano di disponibilità in 10 giorni.
http://uk.theinquirer.net/?article=40378
Facendo la debita proporzione in Italia dovrebbe essere venduta sotto i 499€.
+Lonewolf+
17-06-2007, 23:44
nn volevo scatenare nessun flame, in ogni caso io nn ho consigliato quello scambio ma l'utente lo voleva fare autonomamente...basta leggere...chiudo qui:) semplicemente 1 chiarimento
loperloper
18-06-2007, 00:11
A chi chiede consiglio circa l'acquisto di una 2900XT ed è attualmente in possesso di una nVidia 8800GTS o superiore credo che un cambio sia da sconsigliare anche perchè, ad oggi, si ritrovano all'interno del proprio PC quello che di meglio offre il mercato nel rapporto hardware/driver/prestazioni.
Circa invece chi continua a denigrare la 2900XT vorrei solo chiedere una cosa dato che è appena finito un gran premio. Se una vettura potentissima è in mano ad un vero e proprio inetto che risultati si otterrebbero? L'analogia con R600 è evidente a causa di un driver (traduzione esatta di "pilota" in inglese) che non gratifica quanto di buono c'è nel potenziale dell'architettura.
Il mio nick è ispirato a nVidia proprio perchè all'epoca consideravo questa marca (dopo l'acquisizione di 3DFX che la avvantaggiò nello sviluppo di drivers OGL e nelle tecnologie multiGPU) il produttore trainante nello sviluppo hardware dei processori grafici (all'epoca ATi produceva solo alcune soluzioni video integrate in notebook di fascia medio-bassa), ma da quando i canadesi hanno deciso di puntare al mercato di fascia alta sono stati sempre loro ad introdurre le più significative ed importanti novità architetturali che però lo sviluppo drivers solo nei mesi successivi ha dato loro ragione. Oggi si ripete la stessa storia, per cui chi conosce bene il mercato delle GPU dovrebbe pensarci prima due volte prima di dettare editti a sfavore o a favore di questa o quella marca. Ad oggi considero invece nVidia il produttore più prolifico e pratico nel lato dello sviluppo di software ottimizzato e di ambienti di programmazione avanzata attorno alle proprie GPU.
Detto questo io credo molto nelle grosse potenzialità di R600, in particolare nella versione da 1GB per i benchmark a risoluzioni elevate con HDR attivo naturalmente con le future release di drivers Catalyst.
NM.
tralasciando i driver che, come detto una miriade di volte, sono un incognita(può migliorare come rimanere uguale in prestazioni), il problema maggiore di questa vga è il consumo!a default consuma come una 8800gtx(se non di più) per non parlare in oc poi....512mb o 1gb non fanno la differenza: il consumo non si può cambiare
+Lonewolf+
18-06-2007, 00:13
tralasciando i driver che, come detto una miriade di volte, sono un incognita(può migliorare come rimanere uguale in prestazioni), il problema maggiore di questa vga è il consumo!a default consuma come una 8800gtx(se non di più) per non parlare in oc poi....512mb o 1gb non fanno la differenza: il consumo non si può cambiare
questo è vero ma prestazioni soddisfacenti ne giustificherebbero i consumi
loperloper
18-06-2007, 00:16
questo è vero ma prestazioni soddisfacenti ne giustificherebbero i consumi
è vero ma calcola che se una persona è costretta poi a spendere altri soldi per comprare un nuovo ali, si butta su qualcos altro(vedi me per esempio...)..certo se hai già un buon ali le cose cambiano, ma fin che il mio lc power spinge lo tengo :D
+Lonewolf+
18-06-2007, 00:18
è vero ma calcola che se una persona è costretta poi a spendere altri soldi per comprare un nuovo ali, si butta su qualcos altro(vedi me per esempio...)..certo se hai già un buon ali le cose cambiano, ma fin che il mio lc power spinge lo tengo :D
tiene tiene;)
tralasciando i driver che, come detto una miriade di volte, sono un incognita(può migliorare come rimanere uguale in prestazioni), il problema maggiore di questa vga è il consumo!a default consuma come una 8800gtx(se non di più) per non parlare in oc poi....512mb o 1gb non fanno la differenza: il consumo non si può cambiare
Sinceramente non trovo nessuna incognita i driver attuali sono ultra buggati ti elenco solo i giochi provati da me che hanno bug prima su tutti half life2 continuo con splinter cell per finire con Titan Quest e COJ...questi sono solo i giochi provati da me che hanno bug enormi quanto un grattacielo.E poi credimi la situazione dei driver è destinata a migliorare sia nei bug che a livello prestazionale.
Aggiungo puo avere consumi anche accessivi credo che chi sceglie il top questo lo sa ....esempio lampante la 1900xt aveva consumi maggiori rispetto alle 7900 ma nessuno se ne fregato più di tanto basandosi sulle prestazioni di quest'ultima.... attualmente la 2900 come la serie 8 di nvidia sono un punto interrogativo in DX10...non resta che aspettare inutile tirare conclusioni affrettate....poi per quanto rigurada i driver fidati che ci sarà un incremento prestazionale:)
half life 2 soffre di un effetto nebbioso troppo accentuato... invece sembra che in half life 2: deathmatch abbiano risolto... non so come abbiano fatto alla valve però :p
loperloper
18-06-2007, 00:41
Sinceramente non trovo nessuna incognita i driver attuali sono ultra buggati ti elenco solo i giochi provati da me che hanno bug prima su tutti half life2 continuo con splinter cell per finire con Titan Quest e COJ...questi sono solo i giochi provati da me che hanno bug enormi quanto un grattacielo.E poi credimi la situazione dei driver è destinata a migliorare sia nei bug che a livello prestazionale.
Aggiungo puo avere consumi anche accessivi credo che chi sceglie il top questo lo sa ....esempio lampante la 1900xt aveva consumi maggiori rispetto alle 7900 ma nessuno se ne fregato più di tanto basandosi sulle prestazioni di quest'ultima.... attualmente la 2900 come la serie 8 di nvidia sono un punto interrogativo in DX10...non resta che aspettare inutile tirare conclusioni affrettate....poi per quanto rigurada i driver fidati che ci sarà un incremento prestazionale:)
no aspe stai mischiando il top di gamma con le seconde uscite: la 2900 xt va a posizionarsi con la 8800gts e in questo caso la 2900 xt consuma più della top di gamma della controparte, tra la x1900xt e la 7900gtx era uno scontro ai vertici :D...
l'incognita è il famigerato miracolo prestazionale attraverso i drivers che tutti aspettano che purtroppo nessuno sa se ci sarà....
+Lonewolf+
18-06-2007, 01:07
no aspe stai mischiando il top di gamma con le seconde uscite: la 2900 xt va a posizionarsi con la 8800gts e in questo caso la 2900 xt consuma più della top di gamma della controparte, tra la x1900xt e la 7900gtx era uno scontro ai vertici :D...
l'incognita è il famigerato miracolo prestazionale attraverso i drivers che tutti aspettano che purtroppo nessuno sa se ci sarà....
lo ha detto quello che l'ha progettato che ci saranno incrementi, non miracoli, nessuno si aspetta i miracoli...in ogni caso in quella fascia di prezzo è imbattibile...e non state sempre a flammare voi che avete nvidia, vi prego, siete noiosi...se volete discutere di r600 pacificamente siamo tt qui x ascoltarvi, ma se volete flammare apritevi un 3d apposito...e non ce la fò +...dite sempre le stesse cose...oramai tt l'hanno capito che fa schifo r600
no aspe stai mischiando il top di gamma con le seconde uscite: la 2900 xt va a posizionarsi con la 8800gts e in questo caso la 2900 xt consuma più della top di gamma della controparte, tra la x1900xt e la 7900gtx era uno scontro ai vertici :D...
l'incognita è il famigerato miracolo prestazionale attraverso i drivers che tutti aspettano che purtroppo nessuno sa se ci sarà....
Ti ricordo che per il momento e in dx 9 con questi driver va a posizionarsi dove dici tu....vediamo in dx10 sta scheda tanto controversa e disprezzata da molti dove si posiziona...per quanto riguarda i driver l'aumento puo essere pure di un 10% a me mi andrebbe bene per quella che l'ho pagata ricordo che attualmente la 2900 va molto meglio delle gts 640 sotto xp e questo mi basta per il momento...io come ho ribatito tante volte avrei dovuto scegliere fra le due e ho scelto la 2900...inoltre l'intervista fatta al creatore di r600 da ampi margini di miglioramento con i driver a venire(tra il 10% 30%) vista l'architettura complessa di r600 :O
+Lonewolf+
18-06-2007, 01:12
Ti ricordo che per il momento e in dx 9 con questi driver va a posizionarsi dove dici tu....vediamo in dx10 sta scheda tanto controversa e disprezzata da molti dove si posiziona...per quanto riguarda i driver l'aumento puo essere pure di un 10% a me mi andrebbe bene per quella che l'ho pagata ricordo che attualmente la 2900 va molto meglio delle gts 640 sotto xp e questo mi basta per il momento...io come ho ribatito tante volte avrei dovuto scegliere fra le due e ho scelto la 2900...inoltre l'intervista fatta al creatore di r600 da ampi margini di miglioramento con i driver a venire(tra il 10% 30%) vista l'architettura complessa di r600 :O
:mano: speriamo lo abbiano capito :mano:
è semplicemente la mia opinione...un utente che vuole giocare a crysis come minimo dovrebbe prendere una 2900 e non una gts come te;)
guarda caso le polemiche le fanno sempre quelli che hanno nvidia...coincidenza?
spero anche io di non essere sospeso x aver detto la mia in toni assolutamente pacati
certo perchè sappiamo benissimo tutti che crysis girerà meglio con le 2900 ceeertoooo...questo è sparare cavolate...dire cose su vga attuale con un gioco che deve ancora uscire e dire che per giocarci è meglio una 2900 e non una 8800GTS...motivo???lavori alla cytek? che sai come andrà da consigliare un aquisto adesso?...bha...
cmq a titolo informativo crysis è stato sviluppato in stretto contatto con nvidia e quando nvidia aveva le 8800 che la crytek utilizzava per i suoi test, alla ATI si grattavano la testa...
con questo NON voglio dire che la GTS andrà meglio della 2900 pechè incapperei nel tuo stesso errore ma semplicemnte che NON possiamo fare sto tipo di previsioni fanboystiche perchè non si possono fare con quello che abiamo alla mano di crysis cioè solo video e notizie...quando uscirà i dubbi di chi ha comrpato la vga migliore per crysis svaniranno e io sono il primo che ammetterò che la 2900 è più potente di una GTS quando lo sarà veramente magari me la compro pure, non me ne faccio problemi di marca...
Mister Tarpone
18-06-2007, 02:00
certo perchè sappiamo benissimo tutti che crysis girerà meglio con le 2900 ceeertoooo...questo è sparare cavolate...dire cose su vga attuale con un gioco che deve ancora uscire e dire che per giocarci è meglio una 2900 e non una 8800GTS...motivo???lavori alla cytek? che sai come andrà da consigliare un aquisto adesso?...bha...
cmq a titolo informativo crysis è stato sviluppato in stretto contatto con nvidia e quando nvidia aveva le 8800 che la crytek utilizzava per i suoi test, alla ATI si grattavano la testa...
con questo NON voglio dire che la GTS andrà meglio della 2900 pechè incapperei nel tuo stesso errore ma semplicemnte che NON possiamo fare sto tipo di previsioni fanboystiche perchè non si possono fare con quello che abiamo alla mano di crysis cioè solo video e notizie...quando uscirà i dubbi di chi ha comrpato la vga migliore per crysis svaniranno e io sono il primo che ammetterò che la 2900 è più potente di una GTS quando lo sarà veramente magari me la compro pure, non me ne faccio problemi di marca...
quoto...
+Lonewolf+
18-06-2007, 02:00
certo perchè sappiamo benissimo tutti che crysis girerà meglio con le 2900 ceeertoooo...questo è sparare cavolate...dire cose su vga attuale con un gioco che deve ancora uscire e dire che per giocarci è meglio una 2900 e non una 8800GTS...motivo???lavori alla cytek? che sai come andrà da consigliare un aquisto adesso?...bha...
cmq a titolo informativo crysis è stato sviluppato in stretto contatto con nvidia e quando nvidia aveva le 8800 che la crytek utilizzava per i suoi test, alla ATI si grattavano la testa...
con questo NON voglio dire che la GTS andrà meglio della 2900 pechè incapperei nel tuo stesso errore ma semplicemnte che NON possiamo fare sto tipo di previsioni fanboystiche perchè non si possono fare con quello che abiamo alla mano di crysis cioè solo video e notizie...quando uscirà i dubbi di chi ha comrpato la vga migliore per crysis svaniranno e io sono il primo che ammetterò che la 2900 è più potente di una GTS quando lo sarà veramente magari me la compro pure, non me ne faccio problemi di marca...
caro...io mi riferivo alla gts da 320mb..se leggi meglio:rolleyes:
nessun fanboysmo...dico solo che IMHO la 2900 almeno della gts da 320 penso tu sia d'accordo che in dx10 andrà + forte...e si continua a flammare...
Iantikas
18-06-2007, 03:06
caro...io mi riferivo alla gts da 320mb..se leggi meglio:rolleyes:
nessun fanboysmo...dico solo che IMHO la 2900 almeno della gts da 320 penso tu sia d'accordo che in dx10 andrà + forte...e si continua a flammare...
ma cmq ke ne sai ke deve prendere MINIMO un hd2900xt?...
...qua mi sembra ke il + pronto a flammare sei sempre tu...
loperloper
18-06-2007, 07:04
lo ha detto quello che l'ha progettato che ci saranno incrementi, non miracoli, nessuno si aspetta i miracoli...in ogni caso in quella fascia di prezzo è imbattibile...e non state sempre a flammare voi che avete nvidia, vi prego, siete noiosi...se volete discutere di r600 pacificamente siamo tt qui x ascoltarvi, ma se volete flammare apritevi un 3d apposito...e non ce la fò +...dite sempre le stesse cose...oramai tt l'hanno capito che fa schifo r600
pensa che mi stai dando del flammer quando ho parlato il più generico possibile e il più pacatamente possibile.....ho solo detto il mio punto di vista non penso di aver creato un flame dicendo che ora come ora la 2900xt consuma troppo....
ps: cmq ho la versione da 640mb anche se ti riferivi(a me) a quella da 320mb.
ps2: cmq l'ottimizzazione in crysis è stata fatta con le 8800 e non con le 2900xt(a meno che tutto quello che è stato detto non sia una bufala stratosferica....)
no aspe stai mischiando il top di gamma con le seconde uscite: la 2900 xt va a posizionarsi con la 8800gts e in questo caso la 2900 xt consuma più della top di gamma della controparte, tra la x1900xt e la 7900gtx era uno scontro ai vertici :D...
l'incognita è il famigerato miracolo prestazionale attraverso i drivers che tutti aspettano che purtroppo nessuno sa se ci sarà....
Cerchiamo tutti di convivere ragazzi, questi thread avranno vita breve lo ripeto se continuiamo cosi'. Mi sa che finiremo come con l'argomento 3dfx ai brutti tempi.
Perche' lo devo ripetere cosi' tante volte?
NvidiaMen
18-06-2007, 08:00
ps2: cmq l'ottimizzazione in crysis è stata fatta con le 8800 e non con le 2900xt(a meno che tutto quello che è stato detto non sia una bufala stratosferica....)
Secondo quanto affermato da Cevat Yerli, CEO di Crytek, per far girare Crysis con settaggi Ultra High (e futuri giochi basati sul CryEngine 2) occorrerà disporre di una CPU Core Duo 2 E6600@default (o equivalente come un AMD FX62 o un X2 6000) e di una scheda potente almeno quanto una della serie 8800. Tuttavia non è stato ancora reso pubblico a che risoluzione tali settaggi Ultra High saranno impostabili senza perdita prestazionale. Ovviamente schede come la 2900XT da 1GB e la GTX da 768MB grazie alla loro ampia banda passante e alla loro grossa quantità di ram dovrebbero essere avvantaggiate per l'appunto al salire della risoluzione (come la 1920x1200) con HDR attivato.
Secondo quanto affermato da Cevat Yerli, CEO di Crytek, per far girare Crysis con settaggi Ultra High (e futuri giochi basati sul CryEngine 2) occorrerà disporre di una CPU Core Duo 2 E6600@default (o equivalente come un AMD FX62 o un X2 6000) e di una scheda potente almeno quanto una della serie 8800. Tuttavia non è stato ancora reso pubblico a che risoluzione tali settaggi Ultra High saranno impostabili senza perdita prestazionale. Ovviamente schede come la 2900XT da 1GB e la GTX da 768MB grazie alla loro ampia banda passante e alla loro grossa quantità di ram dovrebbero essere avvantaggiate per l'appunto al salire della risoluzione (come la 1920x1200) con HDR attivato.
Parliamo di cose terra terra che al giorno d'oggi sappiamo, se no finiamo nel piu' ipotetico dei casi in cui 99% si va ot.
NvidiaMen
18-06-2007, 08:14
Parliamo di cose terra terra che al giorno d'oggi sappiamo, se no finiamo nel piu' ipotetico dei casi in cui 99% si va ot.
Ok...;)
Era solo per cercare di mettere un pò di pace tra i "contendenti" delle due marche sottolineando che con i futuri games DX10 sia una GTX che una 2900XT 1GB non avranno problemi con settaggi ad elevata qualità e risoluzione. D'altronde una scheda grafica di fascia alta la si acquista proprio per questo motivo...
PS: spero che al più presto escano i Catalyst 7.6 o che sia disponibile la versione della 2900XT da 1GB così da focalizzare l'attenzione maggiormente sull'oggetto di questo thread evitando di finire troppo OT.
Poliphilo
18-06-2007, 08:44
Dunque. Riguardo le prestazioni di questa scheda, porto la mia piccola opinione/testimonianza.
Il mio sistema e il mio primo test a default l'avete visto qui
http://www.hwupgrade.it/forum/showpost.php?p=17562862&postcount=5049
Ora.
Un mio amico circa due mesi e mezzo-tre fa ha preso la 8800 GTX 768 Mb.
Il suo PC è/era composto da:
- ASUS COMMANDO
- CONROE CORE DUO 6600
- 2 Gb RAM (all'epoca le mie Cellshock, visto che ora le ha vendute a me)
Impianto a liquido, probabilmente più potente del mio (CPU a 15°).
Con tutto il sistema overcloccato, tranne la vga, che è ad aria (tenete conto che io non ho ancora alzato di una virgola niente di niente), fece il primo test con 3DMark 2006. Il risultato che mi disse al telefono era circa: 10.500 - 11.000 punti (non ricordo la cifra esatta).
Se confronto tale risultato con il mio a default con questa scheda (visto che i driver seri si aspettano ancora) posso dire di essere abbastanza soddisfatto della scelta fatta.
halduemilauno
18-06-2007, 08:55
Dunque. Riguardo le prestazioni di questa scheda, porto la mia piccola opinione/testimonianza.
Il mio sistema e il mio primo test a default l'avete visto qui
http://www.hwupgrade.it/forum/showpost.php?p=17562862&postcount=5049
Ora.
Un mio amico circa due mesi e mezzo-tre fa ha preso la 8800 GTX 768 Mb.
Il suo PC è/era composto da:
- ASUS COMMANDO
- CONROE CORE DUO 6600
- 2 Gb RAM (all'epoca le mie Cellshock, visto che ora le ha vendute a me)
Impianto a liquido, probabilmente più potente del mio (CPU a 15°).
Con tutto il sistema overcloccato, tranne la vga, che è ad aria (tenete conto che io non ho ancora alzato di una virgola niente di niente), fece il primo test con 3DMark 2006. Il risultato che mi disse al telefono era circa: 10.500 - 11.000 punti (non ricordo la cifra esatta).
Se confronto tale risultato con il mio a default con questa scheda (visto che i driver seri si aspettano ancora) posso dire di essere abbastanza soddisfatto della scelta fatta.
si commette sempre il solito errore(per carità magari in buonafede)la 2900xt nei 3d mark2005/2006 eccelle. questo si è visto sin da subito. è nei giochi che c'è la differenza. nei giochi. in questo specifico si stava parlando della 8800gtx.
poi un'altra cosa. ma che senso ha dire(non è il tuo caso sto parlando in generale) ho ottenuto un notevole boost rispetto a quella prima etc etc e/o frasi simili? non è mai stato messo in discussione la superiorità della 2900xt nei confronti di schede della passata generazione. mai.
tutto qui.
;)
Dunque. Riguardo le prestazioni di questa scheda, porto la mia piccola opinione/testimonianza.
Il mio sistema e il mio primo test a default l'avete visto qui
http://www.hwupgrade.it/forum/showpost.php?p=17562862&postcount=5049
Ora.
Un mio amico circa due mesi e mezzo-tre fa ha preso la 8800 GTX 768 Mb.
Il suo PC è/era composto da:
- ASUS COMMANDO
- CONROE CORE DUO 6600
- 2 Gb RAM (all'epoca le mie Cellshock, visto che ora le ha vendute a me)
Impianto a liquido, probabilmente più potente del mio (CPU a 15°).
Con tutto il sistema overcloccato, tranne la vga, che è ad aria (tenete conto che io non ho ancora alzato di una virgola niente di niente), fece il primo test con 3DMark 2006. Il risultato che mi disse al telefono era circa: 10.500 - 11.000 punti (non ricordo la cifra esatta).
Se confronto tale risultato con il mio a default con questa scheda (visto che i driver seri si aspettano ancora) posso dire di essere abbastanza soddisfatto della scelta fatta.
Il tuo amico ha qualche problema di sicuro.. Io col sistema overcloccato, sotto XP al 3d06 faccio 13000 punti.. Sempre con "impianto a liquido" e con la tanto stra-criticata in questo 3d 8800GTS 320MB... (e 20010 punti al 3d05..). Sotto vista i punteggi scendono di circa 1500 punti.. NON puoi paragonare la 2900xt alla GTX...ripeto NON puoi almeno attualmente..ma può darsi che data questa architettura complessa di R600, il discorso cambia in Dx10..ma per il momento benchmark canta! :)
si commette sempre il solito errore(per carità magari in buonafede)la 2900xt nei 3d mark2005/2006 eccelle. questo si è visto sin da subito. è nei giochi che c'è la differenza. nei giochi. in questo specifico si stava parlando della 8800gtx.
poi un'altra cosa. ma che senso ha dire(non è il tuo caso sto parlando in generale) ho ottenuto un notevole boost rispetto a quella prima etc etc e/o frasi simili? non è mai stato messo in discussione la superiorità della 2900xt nei confronti di schede della passata generazione. mai.
tutto qui.
;)
Più che altro, il 3dmark andrebbe usato per comparare le prestazioni di una scheda default con la stessa scheda @ OC. Comparare due architetture differenti non è molto utile, se non per controllare le differenze su alcuni settori spefici come sm2 o 3 ...
Ok...;)
Era solo per cercare di mettere un pò di pace tra i "contendenti" delle due marche sottolineando che con i futuri games DX10 sia una GTX che una 2900XT 1GB non avranno problemi con settaggi ad elevata qualità e risoluzione. D'altronde una scheda grafica di fascia alta la si acquista proprio per questo motivo...
PS: spero che al più presto escano i Catalyst 7.6 o che sia disponibile la versione della 2900XT da 1GB così da focalizzare l'attenzione maggiormente sull'oggetto di questo thread evitando di finire troppo OT.
Era una bella idea ma non volermene, con quel nick la vedo dura, soprattutto in questo thread. :p
Byez.
Poliphilo
18-06-2007, 09:45
Il tuo amico ha qualche problema di sicuro.. Io col sistema overcloccato, sotto XP al 3d06 faccio 13000 punti.. Sempre con "impianto a liquido" e con la tanto stra-criticata in questo 3d 8800GTS 320MB... (e 20010 punti al 3d05..). Sotto vista i punteggi scendono di circa 1500 punti.. NON puoi paragonare la 2900xt alla GTX...ripeto NON puoi almeno attualmente..ma può darsi che data questa architettura complessa di R600, il discorso cambia in Dx10..ma per il momento benchmark canta! :)
No, mi spiace. Il PC del mio amico va che è una favola.
Ti riporto esattamente quello che mi ha detto lui. Infatti mi ricordo che io avevo una X1950XTX e facevo poco più di 6000 punti e pensavo che volevo anch'io salire sopra i 10.000.
Chi ha detto che non posso paragonare la 2900 alla GTX? Ho solo riportato una testimonianza diretta, non voglio mica fare la gara con un'altra scheda.
Poliphilo
18-06-2007, 09:46
si commette sempre il solito errore(per carità magari in buonafede)la 2900xt nei 3d mark2005/2006 eccelle. questo si è visto sin da subito. è nei giochi che c'è la differenza. nei giochi. in questo specifico si stava parlando della 8800gtx.
poi un'altra cosa. ma che senso ha dire(non è il tuo caso sto parlando in generale) ho ottenuto un notevole boost rispetto a quella prima etc etc e/o frasi simili? non è mai stato messo in discussione la superiorità della 2900xt nei confronti di schede della passata generazione. mai.
tutto qui.
;)
Sì, hai ragione. MA di solito il primo test che si fa è proprio il 3DMark 2006.
Adesso la provo anche con altro.
halduemilauno
18-06-2007, 09:50
No, mi spiace. Il PC del mio amico va che è una favola.
Ti riporto esattamente quello che mi ha detto lui. Infatti mi ricordo che io avevo una X1950XTX e facevo poco più di 6000 punti e pensavo che volevo anch'io salire sopra i 10.000.
Chi ha detto che non posso paragonare la 2900 alla GTX? Ho solo riportato una testimonianza diretta, non voglio mica fare la gara con un'altra scheda.
certo che puoi. ho solo detto che è inutile farlo con i 3d mark. e poi le rece cosa ci stanno a fare? i confronti vanno fatti non su piattaforme simili/uguali ma proprio con la stessa. si fa il set di test, si leva la scheda, si formatta e si mette l'altra.
ps visto ora che l'avevi con l'altro utente.
JoeLatino
18-06-2007, 09:58
ciao
se vi puo' interessare un paragone diretto con tanto di oc a liquido ho trovato questo link;)
www.imageevent.com/marginjohn/viperjohn
Poliphilo
18-06-2007, 10:01
certo che puoi. ho solo detto che è inutile farlo con i 3d mark. e poi le rece cosa ci stanno a fare? i confronti vanno fatti non su piattaforme simili/uguali ma proprio con la stessa. si fa il set di test, si leva la scheda, si formatta e si mette l'altra.
ps visto ora che l'avevi con l'altro utente.
Ho capito, ma devi anche averle due piattaforme e due schede.
Comunque, anche se non proprio precisi, i due sistemi sono molto simili.
halduemilauno
18-06-2007, 10:04
Ho capito, ma devi anche averle due piattaforme e due schede.
Comunque, anche se non proprio precisi, i due sistemi sono molto simili.
il mio amico, mio cugino, il condomino...per questo ho detto che per fortuna ci sono le rece che fanno tutto il lavoro.
;)
A mio modestissimo e ripeto modestissimo parere i 3dmark non servono veramente a niente. Sono solo programmi messi sul mercato a scopo commerciale per far vendere più o meno una scheda video. Sicuramente messi d'accordo in precedenza prima dell'immissione sul mercato.
ale0bello0pr
18-06-2007, 10:18
A mio modestissimo e ripeto modestissimo parere i 3dmark non servono veramente a niente. Sono solo programmi messi sul mercato a scopo commerciale per far vendere più o meno una scheda video. Sicuramente messi d'accordo in precedenza prima dell'immissione sul mercato.
crushing 3dmark world record?:O
PRICELESS :asd:
Poliphilo
18-06-2007, 10:26
Che programma devo usare per monitorare la temperatura e per overcloccare? Ati tool mi sembra che non funzioni.
crushing 3dmark world record?:O
PRICELESS :asd:
capito no ? :D
Alexkidd85
18-06-2007, 10:39
Dunque. Riguardo le prestazioni di questa scheda, porto la mia piccola opinione/testimonianza.
Il mio sistema e il mio primo test a default l'avete visto qui
http://www.hwupgrade.it/forum/showpost.php?p=17562862&postcount=5049
Ora.
Un mio amico circa due mesi e mezzo-tre fa ha preso la 8800 GTX 768 Mb.
Il suo PC è/era composto da:
- ASUS COMMANDO
- CONROE CORE DUO 6600
- 2 Gb RAM (all'epoca le mie Cellshock, visto che ora le ha vendute a me)
Impianto a liquido, probabilmente più potente del mio (CPU a 15°).
Con tutto il sistema overcloccato, tranne la vga, che è ad aria (tenete conto che io non ho ancora alzato di una virgola niente di niente), fece il primo test con 3DMark 2006. Il risultato che mi disse al telefono era circa: 10.500 - 11.000 punti (non ricordo la cifra esatta).
Se confronto tale risultato con il mio a default con questa scheda (visto che i driver seri si aspettano ancora) posso dire di essere abbastanza soddisfatto della scelta fatta.
"Fratello" sempre per paragone io con un modestissimo Opteron faccio 10500,quello con il conroe come fa a fare il mio stesso punteggio!? :D
Non avrà saputo ottimizzare tutto ;)
Era una bella idea ma non volermene, con quel nick la vedo dura, soprattutto in questo thread. :p
Byez.
per fare un'appunto...
solo gli ignoranti giudicano in base a un nick o a un avatar ;)
...tra l'altro nvidiamen è stato tra i più obiettivi e corretti che ho visto in questo thread :)
per fare un'appunto...
solo gli ignoranti giudicano in base a un nick o a un avatar ;)
...tra l'altro nvidiamen è stato tra i più obiettivi e corretti che ho visto in questo thread :)
Mai istigare un mod... Ti picchiano... :read:
PS. Bello il tuo avatar però... :D
Si sa qualcosa della data di rilascio dei nuovi catalyst?
I 7.5 vanno benone, però sono curioso di vedere se con i 7.6 ci saranno degli incrementi prestazionali...
Mai istigare un mod... Ti picchiano... :read:
PS. Bello il tuo avatar però... :D
no, non era assolutamente riferito a simon, anzi...che ce ne fossero di utenti come lui, il mio era rivolto in generale ;)
p.s. grazie :flower:
per i 7.6 ancora è buio pesto...spero che entro settimana prossima vengano rilasciati almeno installo quelli con la X1950Pro :D
davide155
18-06-2007, 11:50
"Fratello" sempre per paragone io con un modestissimo Opteron faccio 10500,quello con il conroe come fa a fare il mio stesso punteggio!? :D
Non avrà saputo ottimizzare tutto ;)
Si ma il tuo opty è a 2900mhz.
Sai cosa vuol dire avere un x2 a tale frequenza? :)
leoneazzurro
18-06-2007, 11:51
Immagiono vogliano affinare anche i drivers per le 2400/2600...
Alexkidd85
18-06-2007, 12:40
Si ma il tuo opty è a 2900mhz.
Sai cosa vuol dire avere un x2 a tale frequenza? :)
Certo :) é un signor opteron ma non è un conroe6600 neanche a default :D
-Feanor-
18-06-2007, 12:50
toglimi una curiosita defragg...ma l'avatar-chiappe-al-vento l'hai tolto su minaccia dei moderatori..?? o è stato un tuo ritorno di pudore...??? :asd: :asd: :asd: .......ad ogni modo anche fudzilla conferma la disponibilita di 2900xt 1gb entro 10 giorni.. http://www.fudzilla.com/index.php?option=com_content&task=view&id=1508&Itemid=1 e parla anche di un calo di prezzo della versione 512b....sotto i 340 euro... :eek: :eek: :eek: .... http://www.fudzilla.com/index.php?option=com_content&task=view&id=1517&Itemid=1 ....mamma mia...forse si sta avvicinando il momento in cui mi decidero a comprarla...;)
toglimi una curiosita defragg...ma l'avatar-chiappe-al-vento l'hai tolto su minaccia dei moderatori..?? o è stato un tuo ritorno di pudore...??? :asd: :asd: :asd: .......ad ogni modo anche fudzilla conferma la disponibilita di 2900xt 1gb entro 10 giorni.. http://www.fudzilla.com/index.php?option=com_content&task=view&id=1508&Itemid=1 e parla anche di un calo di prezzo della versione 512b....sotto i 340 euro... :eek: :eek: :eek: .... http://www.fudzilla.com/index.php?option=com_content&task=view&id=1517&Itemid=1 ....mamma mia...forse sta arrivando il momento in cui mi decido a comprarla...;)
:asd:
no, mi ero stancato, non riuscivo a seguire i thread con quell'avatar :O
io non mi fiderei di fud, cmq se cerchi con il trovaprezzi troverai la sapphire a 346€ ;)
Tidus.hw
18-06-2007, 12:52
Certo :) é un signor opteron ma non è un conroe6600 neanche a default :D
beh al spi no, ma nel resto direi che siamo la :P
Alexkidd85
18-06-2007, 12:56
beh al spi no, ma nel resto direi che siamo la :P
Non sono d'accordo,con un conroe sei meno cpu limited di un opty a 2900,test alla mano :D
Comunque siamo leggermente OT,IMHO potrebbe ottimizzare meglio l'amico con la 8800gtx e l'e6600...magari l'avessi io :sofico: ...toccherà passare direttamente al fratellino con la "q" davanti la "e" :D
-Feanor-
18-06-2007, 13:07
:asd:
no, mi ero stancato, non riuscivo a seguire i thread con quell'avatar :O
io non mi fiderei di fud, cmq se cerchi con il trovaprezzi troverai la sapphire a 346€ ;)
da gb e stati uniti (ma a volte anche da germania e francia..) la trovi spesso sotto i 300 ...quasi sempre sui 330....euro...;)
Konrad76
18-06-2007, 15:00
Mi iscrivo pure io....giusto per vedere a che punto è Ati.....dalle prime pagine sembra un serio Flop, ma magari ad oggi le cose sono più chiare no??
Mi iscrivo pure io....giusto per vedere a che punto è Ati.....dalle prime pagine sembra un serio Flop, ma magari ad oggi le cose sono più chiare no??
sono cambiate, su vista la situazione è ancora tragica, ma su xp le schede vanno alla grande ;)
Konrad76
18-06-2007, 15:19
sono cambiate, su vista la situazione è ancora tragica, ma su xp le schede vanno alla grande ;)
Hoooooo bene.....sono più contento così.......per i miei trascorsi sempre in ati ero un po basito dalla situazione......;)
james_het
18-06-2007, 18:07
..per quanto riguarda i driver l'aumento puo essere pure di un 10% a me mi andrebbe bene per quella che l'ho pagata ricordo che attualmente la 2900 va molto meglio delle gts 640 sotto xp e questo mi basta per il momento...io come ho ribatito tante volte avrei dovuto scegliere fra le due e ho scelto la 2900...
ma mi spieghi dove sarebbe che la 2900 batte lòa GTS sotto XP? sarei davvero curioso.....
perchè sono bananti tutti che coloro che provano a dire che la gts è superiore alla 2900 ( costa provata da tutte le recensioni online ) e chi sostiene il contrario viene osannato?
il miracolo dei driver sarebbe davvero auspicabile così sarebbero da rivedere tutti i prezzi delle top gamma nvidia verso il basso, ma secondo te davvero avverrà tale miracolo? se così fosse perchè allora avrebbero scelto di posizionare la 2900 in questa fascia di prezzo e nn + su ?
se così fosse perchè allora avrebbero scelto di posizionare la 2900 in questa fascia di prezzo e nn + su ?
Semplici.. la vera è propria R6XX esce a settembre (65nm + DDR4 0.6ns).., tutto qui ;)
james_het
18-06-2007, 18:25
Semplici.. la vera è propria R6XX esce a settembre (65nm + DDR4 0.6ns).., tutto qui ;)
eheh allora sarebbe una bella presa per i fondelli per tutti coloro che hanno acquistato la 2900 adesso sperando nel miracolo dei driver....spero che una ditta seria come ATI nn pensi di gabbare i propri fans così.......
ma mi spieghi dove sarebbe che la 2900 batte lòa GTS sotto XP? sarei davvero curioso.....
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/bf2142_4x.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/coj_hdr.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/pier_4x.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/research_4x.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/pier_hdr.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/research_hdr.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/research_hdr.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/ep_4x.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/graw_hdr.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/hl2eo_4x.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/prey_4x.gif
http://www.xbitlabs.com/images/video/radeon-hd-2900-games/stalker_hdr.gif
tranne nello scenario Pier di FarCry con HDR e in HL2: episode one e in stalker per gravi problemi di driver la HD2900 è sempre davanti alla 8800GTS, di poco o di molto ;)
eheh allora sarebbe una bella presa per i fondelli per tutti coloro che hanno acquistato la 2900 adesso sperando nel miracolo dei driver....spero che una ditta seria come ATI nn pensi di gabbare i propri fans così.......
dubito, i miglioramenti nei driver ci saranno, anche se arriverà R680 o come cavolo si chiama
;)
eheh allora sarebbe una bella presa per i fondelli per tutti coloro che hanno acquistato la 2900 adesso sperando nel miracolo dei driver....spero che una ditta seria come ATI nn pensi di gabbare i propri fans così.......
Ati non prede nessuno x i fondelli.., tutti erano consapevoli di propri acquisti..
Cmq i driver ottimizzati non ci sono ancora.., forse hai dimenticato i primi driver della G80 :O i miracoli dopo sono arrivati ;)
ma mi spieghi dove sarebbe che la 2900 batte lòa GTS sotto XP? sarei davvero curioso.....
perchè sono bananti tutti che coloro che provano a dire che la gts è superiore alla 2900 ( costa provata da tutte le recensioni online ) e chi sostiene il contrario viene osannato?
il miracolo dei driver sarebbe davvero auspicabile così sarebbero da rivedere tutti i prezzi delle top gamma nvidia verso il basso, ma secondo te davvero avverrà tale miracolo? se così fosse perchè allora avrebbero scelto di posizionare la 2900 in questa fascia di prezzo e nn + su ?
cm
EDIT: ops, SCUSATE. nn volevo!
Come vedi .., i primi miracoli ci sono già :sofico:
ma mi spieghi dove sarebbe che la 2900 batte lòa GTS sotto XP? sarei davvero curioso.....
perchè sono bananti tutti che coloro che provano a dire che la gts è superiore alla 2900 ( costa provata da tutte le recensioni online ) e chi sostiene il contrario viene osannato?
il miracolo dei driver sarebbe davvero auspicabile così sarebbero da rivedere tutti i prezzi delle top gamma nvidia verso il basso, ma secondo te davvero avverrà tale miracolo? se così fosse perchè allora avrebbero scelto di posizionare la 2900 in questa fascia di prezzo e nn + su ?
eccoli i test di cui parlavo :O
tranne nello scenario Pier di FarCry con HDR e in HL2: episode one e in stalker per gravi problemi di driver la HD2900 è sempre davanti alla 8800GTS, di poco o di molto ;)
dubito, i miglioramenti nei driver ci saranno, anche se arriverà R680 o come cavolo si chiama
;)[/QUOTE]
Grazie per aver postato i test defragg io mi fido nel miglioramento dei driver sinceramente vedendo molti giochi buggati e molti giochi in cui una 1900 va molto meglio :D
ma mi spieghi dove sarebbe che la 2900 batte lòa GTS sotto XP? sarei davvero curioso.....
perchè sono bananti tutti che coloro che provano a dire che la gts è superiore alla 2900 ( costa provata da tutte le recensioni online ) e chi sostiene il contrario viene osannato?
il miracolo dei driver sarebbe davvero auspicabile così sarebbero da rivedere tutti i prezzi delle top gamma nvidia verso il basso, ma secondo te davvero avverrà tale miracolo? se così fosse perchè allora avrebbero scelto di posizionare la 2900 in questa fascia di prezzo e nn + su ?
cmq nn per dire ma l'unica cosa che fa funzionare un hardware sono i driver, se questi nn ci fossere una periferica nn potrebbe ne interfacciarsi con l'os ne tanto meno funzionare. quindi se sono fatti male danno (non è che potrebbero) questo risultato. siccome sulla carta questa scheda sembra un pochino più potente della gtx, io credo proprio che con i nuovi driver molte cose cambieranno (anche perchè poi si vede che in alcuni giochi fa dei punteggi mostruosi, e bette anche la ultra)
eccoli i test di cui parlavo :O
Grazie per aver postato i test defragg io mi fido nel miglioramento dei driver sinceramente vedendo molti giochi buggati e molti giochi in cui una 1900 va molto meglio :D
si ma leva le immagini dal quote o distruggi la pagina :O :asd:
si ma leva le immagini dal quote o distruggi la pagina :O :asd:
Eccoti accontentato tanto il thread gia è distrutto :asd:
..CUT..
Aggiungerei pure i test di R6:Vegas, SC: Double Agent e Test Drive Unlimited, in cui va come (e più) le GTX. ;)
grande defragg, finalmente (si spera) hai azzittito i nvidiosi fanboyisti di 8800gts (almeno quelli) :asd:
davide155
18-06-2007, 19:24
grande defragg, finalmente (si spera) hai azzittito i nvidiosi fanboyisti di 8800gts (almeno quelli) :asd:
A te piace la scritta "utente sospeso" sotto il tuo nome :asd:
-Feanor-
18-06-2007, 19:51
A te piace la scritta "utente sospeso" sotto il tuo nome :asd:
:asd: :asd: :asd: volevo dirlo io...!!! non ce ne volere eh ×§ñåkê× ...ma sei fresco fresco di ban oltretutto....
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.