View Full Version : ATI Radeon HD 2900: svelata la GPU R600
quella del papa me la sono studiata...
MiKeLezZ
27-04-2007, 23:23
ma io mi chiedo una 8800 cosa ha in piu rispetto ad un x1950xt ? se uno come me ha un 17 ° ,dunque la risoluzione ottimale è 1280x1024 che differenza c'è tra le due sk ? ,quando supero i 70 fps con la mia ati cosa mi da in piu una 8800 ?Un filtro Anisotropico perfetto, un filtro AntiAliasing di buona fattura con un basso impatto prestazionale (anche salendo di X), ottime prestazioni anche all'attivazione di opzioni notoriamente pesanti (come HDR o Soft Shadows), il PureVideo HD, una maggior rivendibilità futura, una maggior durata di investimento (date le DX10, farlocche o meno).
Nulla di trascendentale, sia chiaro, ma seguendo il tuo ragionamento dovremmo tutti avere ancora un Barton nel case, invece del fiammante Core 2 Duo... e per la maggior parte di chi posta qui dentro, in quanto appassionati, non è così
MiKeLezZ
27-04-2007, 23:44
Sarà solo una mia idea che sembrerà atta solo a trovare "scuse" per le mediocri prestazioni che i mezzi-fake-benchmark dimostrano..ma sinceramente non me ne frega nulla.
Però so solo cosa monterò sul mio prossimo HTPC...e non sarà una nVidia....
:rolleyes:Il tuo HTPC sembra che al momento possa già montare una scheda ben più che valida:
http://www.anandtech.com/video/showdoc.aspx?i=2977&p=1
bonzuccio
28-04-2007, 00:00
Per un htpc se è vero che le ati hanno decoding dei flussi audio-video in hardware vanno meglio le 2800 anche andassero la metà nei giochi delle schifosissime e deludentissime 8600.. non mi sembra che tra le priorità in questo momento ci sia quella di dare buoni consigli
MiKeLezZ
28-04-2007, 00:10
Per un htpc se è vero che le ati hanno decoding dei flussi audio-video in hardware vanno meglio le 2800 anche andassero la metà nei giochi delle schifosissime e deludentissime 8600.. non mi sembra che tra le priorità in questo momento ci sia quella di dare buoni consigliCapisco l'ora tarda, ma forse prima di rispondere avresti dovuto leggere la recensione al link dato
...ma io mi chiedo una 8800 cosa ha in piu rispetto ad un x1950xt ?
MiKeLezZ ti ha risposto in modo esauriente...ma io nn capisco invece cosa c'entra parlare di questa differenza nel thread sulla nuova hd 2900...chiedi magari di 8800 vs 2900 oppure posta in un altro thread...o no? :D tra l'altro la x1950xt è una dx9 e c'è già ki sta cercando di rendere compatibili le dx10 con xp(ma si tratta sempre di convertire in dx9 perkè le gpu della serie x19x0 eseguono solo quelle, retrocompatibili fino alla 7,non altro). Anke se 2 skede dx9 vs dx10 fossero alla pari in dx9 è normale ke se si vuole giocare ad un titolo dx10 nn c si pone affatto queste domande su quale scegliere o cosa ha in +...
bonzuccio
28-04-2007, 00:22
L'ora è tarda ma di audio su hdmi qui proprio non si parla oltre al fatto che si ha solo accellerazione video per il formato h.264 mentre le ati oltre ad esso avrano mpeg2 e vc-1 che praticamente è lo standard dell'alta definizione.. poi certo uno può sempre accontentarsi e decidere da subito le priorità future e se la piglia tanto la 8500 costerà sui 100 euro
Il tuo HTPC sembra che al momento possa già montare una scheda ben più che valida:
http://www.anandtech.com/video/showdoc.aspx?i=2977&p=1
Sinceramente non vedo niente di confrontabile con queste 8600 con la SOLITA "accelerazione" (decodifica) software-gpu-accelerated.
Sulla serie HD2000 di ATi, c'è lo Xilleon, che è un chip DEDICATO e ha 2 CANALI per il processing "totalmente hardware" di 2 flussi video mpeg2, vc1, h264, divisi...ad esempio con modalità PiP... Non vedo cosa potrei farmene di questa nvidia per un HTPC SERIO.
Scrambler77
28-04-2007, 01:16
...e te pareva!! :rotfl:
Asterion
28-04-2007, 08:54
Spero solo che una 8800 o una R600 non serva solo per giocare a oblivion ( un insulto )
insulto perchè non è giusto che per un gioco uscito a marzo 2006 , dove il top di quei tempi voglio ricordare AMD Athlon 64 FX-57 2800 MHz Ati X1900XTX o nvidia 7900 per giocare bene la max risoluzione era 1024, e oggi solo con una 8800 si può salire di risoluzione.
Ai tempi di Doom la iD non faceva un solo gioco che potesse girare alla grande con l'hardware del momento. Ricordo che per entrare nell'ultima stanza di Doom2, l'icon of sin, ho dovuto comprare un banco da 4MB di ram da aggiungere ai 4 precedenti :D
halduemilauno
28-04-2007, 09:01
http://r800.blogspot.com/
;)
bonzuccio
28-04-2007, 09:27
http://r800.blogspot.com/
;)
Adesso si inizia a ragionare
Da qui le gts in sli non camminano e sembra che le nvidia in dx10 proprio non camminano.. 1 fps.. mi sbaglio?
Potevano mettercela la gtx però e le risoluzioni :rolleyes:
mi sa tanto di bufola pure questa
Adesso si inizia a ragionare
Da qui le gts in sli non camminano e sembra che le nvidia in dx10 proprio non camminano.. 1 fps.. mi sbaglio?
Potevano mettercela la gtx però e le risoluzioni :rolleyes:
mi sa tanto di bufola pure questa
dai non è possibile 1 fps contro 50 :D
Scrambler77
28-04-2007, 09:35
dai non è possibile 1 fps contro 50 :D
No ma che dici!! Questo sicuramente NON è un "driver issue"!! :rotfl:
Scrambler77
28-04-2007, 09:37
dai non è possibile 1 fps contro 50 :D
Ma dov'è sta patch dx10 di call of juarez?? Sul sito ufficiale manco l'ombra...
...non vorrei che ci fosse una riga di codice tipo
if [ "$VENDOR" = "nVidia" ]; then sleep 0.5 ; fi
:asd:
bonzuccio
28-04-2007, 09:39
haudelmaiano lancia ste bombette puzzolenti nei luoghi chiusi e poi scappa :hic:
non sò, ma la conclusione è che anche ste slide non servono ad una mazza :asd:
MiKeLezZ
28-04-2007, 09:41
dai non è possibile 1 fps contro 50 :D
4fps nvidia contro 253fps ati :stordita:
sicuri non abbian testato la 4400 mx invece della 8800?
Scrambler77
28-04-2007, 09:44
4fps nvidia contro 253fps ati :stordita:
sicuri non abbian testato la 4400 mx invece della 8800?
In teoria (e stando sempre alle solite indiscrezioni) i giochi dx10 dovrebbero correre di più rispetto ad un titolo dx9... no?
E poi, perchè non fare una comparativa (anche se solo sulla Ati) del titolo in dx9 e dx10 con le stesse impostazioni?? Giusto per avere un parametro di confronto...
Mi auto-quoto: ma sta patch per COJ in dx10 dove sta??
capitan_crasy
28-04-2007, 10:24
http://r800.blogspot.com/
;)
Assolutamente mostruosi i test in crossfire senza HDR...
Assolutamente assordi le prove in DX10...
Non vengono specificati le caratteristiche del PC...
Mio personale giudizio:
:mbe:
Assolutamente mostruosi i test in crossfire senza HDR...
Assolutamente assordi le prove in DX10...
Non vengono specificati le caratteristiche del PC...
Mio personale giudizio:
:mbe:
ti quoto in pieno, ma il mio giudizio è: :hic:
E poi, perchè non fare una comparativa (anche se solo sulla Ati) del titolo in dx9 e dx10 con le stesse impostazioni?? Giusto per avere un parametro di confronto...
Sarebbe una gran bella cosa.... Eh, ma come si pottrebbe fare? Se abiliti gli effetti DX10 la "grafica" cambia...e non so che valore potrebbero avere i risultati che si otterebbero. Perchè il path DX10 lo useranno per aggiungere effetti, non per ottimizzare il tutto... E' ancora troppo presto, e poi son anni che non capita che qualcuno usi gli strumeti che ha a disposizione per l'ottimizzazione....
In rete si continua ad affermare che le TMU di R600 sono la metà di quelle di G80.
Mi sembra di essere tornato indietro di un bel po di tempo, quando si cominciava a parlare di shaders.
Sinceramente la presenza in grosso numero di TMU è quel dato architteturale che va privilegiare l'uso e il throughput di texture. Osservando qua e la mi viene logico pensare che come Ati ha fatto molte altre volte, abbia voluto "guardare" avanti e direzionarsi verso quella presupposizione che in futuro il rapporto texture/shaders arrivi a 1/3.
Quindi, essendo le DX9 pesantemente basate ancora sull'uso di texture...non mi stupisco della scarsa prestazionalità di una GPU come metà di questi "motori" per le texture: andranno pure il 30% più veloci di quelli di G80, ma restano sempre la metà.
Qua l'unica speranza è che siano veramente efficenti, e che Ati abbia ragione a privilegiare il reparto di elaborazione degli sheders...
Se questi test in DX10 sono realistici, si vede fin da ora l'ottimo uso degli shaders (per le geometria sopratutto) da parte di R600... quindi secondo me, Ati ha sbagliato a pensare di combattere ora Nivida.
Quasi penso proprio che ATi abbia aspettato di proposito per avere a disposizione un nuovo "terreno" su cui confrontarsi, per mettere in buona luce i risultati DX10, e porre in secondo piano questi in DX9...
Che ne dite?
In rete si continua ad affermare che le TMU di R600 sono la metà di quelle di G80.
Mi sembra di essere tornato indietro di un bel po di tempo, quando si cominciava a parlare di shaders.
Sinceramente la presenza in grosso numero di TMU è quel dato architteturale che va privilegiare l'uso e il throughput di texture. Osservando qua e la mi viene logico pensare che come Ati ha fatto molte altre volte, abbia voluto "guardare" avanti e direzionarsi verso quella presupposizione che in futuro il rapporto texture/shaders arrivi a 1/3.
Quindi, essendo le DX9 pesantemente basate ancora sull'uso di texture...non mi stupisco della scarsa prestazionalità di una GPU come metà di questi "motori" per le texture: andranno pure il 30% più veloci di quelli di G80, ma restano sempre la metà.
Qua l'unica speranza è che siano veramente efficenti, e che Ati abbia ragione a privilegiare il reparto di elaborazione degli sheders...
Se questi test in DX10 sono realistici, si vede fin da ora l'ottimo uso degli shaders (per le geometria sopratutto) da parte di R600... quindi secondo me, Ati ha sbagliato a pensare di combattere ora Nivida.
Quasi penso proprio che ATi abbia aspettato di proposito per avere a disposizione un nuovo "terreno" su cui confrontarsi, per mettere in buona luce i risultati DX10, e porre in secondo piano questi in DX9...
Che ne dite?
spiegherebbe l'attesa dei primi titoli DX10 per il lancio delle schede...però titoli full DX10 non se ne vedranno per molto tempo e i titoli ibridi o con patch DX10 non so quanto possano mettere in luce la bonta di questa scelta...IMHO la scelta di puntare subito sulle prestazioni in DX10 a scapito delle DX9 mi sembra affrettata
spiegherebbe l'attesa dei primi titoli DX10 per il lancio delle schede...però titoli full DX10 non se ne vedranno per molto tempo e i titoli ibridi o con patch DX10 non so quanto possano mettere in luce la bonta di questa scelta...IMHO la scelta di puntare subito sulle prestazioni in DX10 a scapito delle DX9 mi sembra affrettata
si ma loro dovevano fare una signora dx10...la x1950xtx l'hanno già fatta ...ma ke discorsi facciamo? bisogna guardare avanti o si continua a pensare alle dx9? boh :D
si ma loro dovevano fare una signora dx10...la x1950xtx l'hanno già fatta ...ma ke discorsi facciamo? bisogna guardare avanti o si continua a pensare alle dx9? boh :D
ma che discorsi fai :doh: ovvio che bisogna guardare avanti...ma quanti giochi DX10 ci sono o ci saranno entro fine anno (data di arrivo della seconda generazione di schede DX10)? quante persone sono passate a Vista?
spiegherebbe l'attesa dei primi titoli DX10 per il lancio delle schede...però titoli full DX10 non se ne vedranno per molto tempo e i titoli ibridi o con patch DX10 non so quanto possano mettere in luce la bonta di questa scelta...IMHO la scelta di puntare subito sulle prestazioni in DX10 a scapito delle DX9 mi sembra affrettata
Anche quando uscì con il core R5x0 che sta sotto le x1800/x1900 sembrò affrettata: i test coi giochi DX9 "normali" davano risultati normali.
Poi appena si andava a vedere i test con i giochi ricchi di shaders appena usciti o pronti per uscire (e qualche release di driver dopo) ecco che si vedevano i fuochi d'artificio...
Resta sempre da dire che cmq, se quei test sono veritieri, quelli sopra postati, una cosa sicura c'è ed è che in quel caso i driver nvidia non si rendono conto delle DX10: Vista&Driver Nvidia non è una novità. E ho paura che si ripeterà con i giochi nuovi che usciranno...sinceramente mettere le etichettine DX10 sulle schede video se poi non si ha mai uno straccio di driver pronto per supportare queste librerie grafiche...non è il massimo.
Ah se qualcuno vuole provare, e ha Vista più una scheda DX10, qua c'è un piccolo demo che mostra l'uso di alcune tecniche di shadowing. Necessita le DX10, quindi se magari provate usando un contatore di FPS e postate qualche risultato...avremmo del materiale di confronto da parte per i test su R600 quando uscirà....
Il thread di spiegazione della DEMO è questo http://forum.beyond3d.com/showthread.php?t=40805
il file del demo è questo
http://www.punkuser.net/savsm/variance_shadow_map_d3d10_2007-04-26.zip
Se provate e postate qualche impostazione più FPS...
bonzuccio
28-04-2007, 11:03
Non mi sembra che in dx9 a vedere dai primi risultati in dx9 le tmu siano collo di bottiglia come sempre per questa fascia di prezzi,
la partita si gioca sull'equilibrio di architettura della fascia media
Non mi sembra che in dx9 a vedere dai primi risultati in dx9 le tmu siano collo di bottiglia come sempre per questa fascia di prezzi,
la partita si gioca sull'equilibrio di architettura della fascia media
A me si che sembrano un collo di bottiglia :D
Prova a immaginare se su R600 avessero messo il doppio di queste TMU che già lavorano il 30% in più di quelle di G80.
Il throghput sulle texture sarebbe più che doppio....avremmo una scheda più complessa che lavora OTTIMAMENTE in DX9, ma che consumerebbe un casino (più di quello che consuma già adesso) e in DX10 non ne avrebbe grossi giovamenti.
Scrambler77
28-04-2007, 11:19
Chi mi passa un frames-counter decente per vista?
Scrambler77
28-04-2007, 11:20
Chi mi passa un frames-counter decente per vista?
Non serve... quel test postato da bs82 ha già un framecounter integrato...
faccio qlk test e posto. :)
ma che discorsi fai :doh: ovvio che bisogna guardare avanti...ma quanti giochi DX10 ci sono o ci saranno entro fine anno (data di arrivo della seconda generazione di schede DX10)? quante persone sono passate a Vista?
ahhh jp ma nessuno t sta dicendo ke quel ke è stato è stato e scurdamuce o passato :rotfl: ooooo le gpu dx9 c sono giààààà.per me le hd 2900 potrebbero tranquillamente essere inferiori alle 8800 in dx9,non me ne può fregare di meno,d certo non penso alla hd 2900 o alla 8800 per le dx9...cosa c'entra quanti sono passati a vista...? è già tantissimo ke queste nuove gpu siano retrocompatibili...
Non serve... quel test postato da bs82 ha già un framecounter integrato...
faccio qlk test e posto. :)
metti anche configurazione, risoluzione e impostazioni però!
(PS: bello il modding che hai fatto per il tuo case LianLI, metticelo un filtro "serio" nella ventola sotto però, sennò diventa un aspirapolvere)
Scrambler77
28-04-2007, 11:39
metti anche configurazione, risoluzione e impostazioni però!
(PS: bello il modding che hai fatto per il tuo case LianLI, metticelo un filtro "serio" nella ventola sotto però, sennò diventa un aspirapolvere)
Hai ragione... il filtro ce lo devo mettere (penso un lavabile in alluminio) ma riduce molto la portata d'aria... Appena cambio dissi alla GTX "chiudo" l'aspirapolvere... :D
Torniamo ai test: questi sono 4 screen del mio desktop (chiedo scusa per la dimensione delle immagini ma ho voluto fare screen dell'intero desktop per metterci anche il taskmanager).
La config è quella in sign. La GTX è cloccata a 620/2000 da bios.
Ho lasciato tutto a default (mi sono limitato a lanciare il test - 32bit su vista con i "vecchi" forceware 101.15 con impostazioni a default).
http://www.fabiodegiosa.it/uploads/forum_reviews/dx10_gtx01.jpg
http://www.fabiodegiosa.it/uploads/forum_reviews/dx10_gtx02.jpg
http://www.fabiodegiosa.it/uploads/forum_reviews/dx10_gtx03.jpg
http://www.fabiodegiosa.it/uploads/forum_reviews/dx10_gtx04.jpg
Trovo impressionanti 2 cose: il test è leggerissimo e la CPU è utilizzata relativamente poco (1 solo core al 30-50%)... Le soft shadow sono impressionanti rispetto a quelle dx9...
Se volete altri bench fatemi sapere...
bonzuccio
12-05-2007, 11:47
Lunedì è vicino, è pure ora di cambiare logo :D
capitan_crasy
12-05-2007, 11:57
Altri test della 2900XT
Clicca qui... (http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1)
Altri test della 2900XT
Clicca qui... (http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1)
ma lol, viene bastonata sia dalla gts sia dalla gtx :sofico:
ma lol, viene bastonata sia dalla gts sia dalla gtx :sofico:
per me è un altro fake,l'esempio lampante è stalker dove è impossibile ke faccia 27fps a 1280x1024,tra l'altro viene riportato un 4xaa/16af...in stalker l'aa si può abilitare solo con illuminazione fissa...e allora a maggior ragione con illuminazione fissa è impossibile ke la hd 2900xt faccia 27 a quella risoluzione...raga perfavore :rotfl: lasciamo perdere e aspettiamo dopo lunedi i test seri.
halduemilauno
12-05-2007, 12:48
Altri test della 2900XT
Clicca qui... (http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1)
quella è la prima parte. qui la seconda.
http://it-review.net/index.php?option=com_content&task=view&id=1325&Itemid=91
;)
Scrambler77
12-05-2007, 13:09
:rotfl:
Vorrei vedere la faccia di qualcuno adesso... :asd:
halduemilauno
12-05-2007, 13:18
:rotfl:
Vorrei vedere la faccia di qualcuno adesso... :asd:
quelle due rece son state eseguite con i driver 8.374. pare che ci siano dei driver più performanti gli 8.383. nella seconda rece sono anche citati.
;)
pierluigi86
12-05-2007, 13:23
Che diavolo è HD2900 CF ?
CF= cross fire
halduemilauno
12-05-2007, 13:23
Che diavolo è HD2900 CF ?
crossfire. due hd2900xt.
;)
Scrambler77
12-05-2007, 13:25
quelle due rece son state eseguite con i driver 8.374. pare che ci siano dei driver più performanti gli 8.383. nella seconda rece sono anche citati.
;)
Per quanto possa trattarsi di un "driver-issue", non credo che il software possa penalizzare TUTTI i test in più del 5%... Tra l'altro, anche nVidia non ha ancora drivers del tutto maturi (secondo me arriveranno tra diversi mesi)...
Infine, in certi test pare che 2 2900 in CF le prendano da una sola GTX: questo secondo me è gravissimo!
Sono sempre più ridicoli, braccia rubate all'agricoltura :asd:
:rotfl: :huh: :ops:
halduemilauno
12-05-2007, 14:43
Allora avevo capito, ma non mi tornava con la ASUS M2N32-SLI Premium elencata nella configurazione di test, visto che è SLI e non ci monti due schede ATI in CF; cosa che mi fa anche chiedere cosa c'entri quella mobo, visto che non vengono menzionate cpu AMD e che quella mobo monta quelle.
Sono sempre più ridicoli, braccia rubate all'agricoltura :asd:
DFI ICFX3200T2R/G
è citata nella prima parte.
http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1
;)
Sawato Onizuka
12-05-2007, 14:52
questo spiega il rinvio di R600, driver acerbi ... pur di evitare una magra figura :mc:
se poi il divario non sarà colmato vorrà dire che faccio tanto di cappello ad nvidia .
capitan_crasy
12-05-2007, 17:47
questo spiega il rinvio di R600, driver acerbi ... pur di evitare una magra figura :mc:
se poi il divario non sarà colmato vorrà dire che faccio tanto di cappello ad nvidia .
6 mesi di ritardo per colpa dei driver?
Impossibile!
I motivi sono ben altri...
questo spiega il rinvio di R600, driver acerbi ... pur di evitare una magra figura :mc:
se poi il divario non sarà colmato vorrà dire che faccio tanto di cappello ad nvidia .
Il divario forse non sarà colmato completamente con la GTX in DX9. Ma le nvidia potrebbero avere parecchio da colmare in DX10, invece. ;)
Scrambler77
12-05-2007, 18:11
Il divario forse non sarà colmato completamente con la GTX in DX9. Ma le nvidia potrebbero avere parecchio da colmare in DX10, invece. ;)
...beh beh... questa è una teoria tutta da dimostrare... anche perchè non si conoscono neanche le reali prestazioni di G80 in dx10. :)
...beh beh... questa è una teoria tutta da dimostrare... anche perchè non si conoscono neanche le reali prestazioni di G80 in dx10. :)
E nemmeno quelle di HD2900XT in dx9 e dx10
bonzuccio
12-05-2007, 18:20
E nemmeno quelle di HD2900XT in dx9 e dx10
Quoto.. si sa solo che la qualità dell'immagine sulle 2900xt è migliore delle 8800.. :sofico: :D
Quoto.. si sa solo che la qualità dell'immagine sulle 2900xt è migliore delle 8800.. :sofico: :D
tutto da dimostrare :) non c'è nemmeno una recensione ufficiale :rolleyes:
Scrambler77
12-05-2007, 18:27
E nemmeno quelle di HD2900XT in dx9 e dx10
il mio "neanche" è uguale al tuo "nemmeno"... no? ;)
...e la mia osservazione vale per dx10.
Per dx9 il discorso è diverso. Qualcosina sta trapelando, ormai da tempo...
Saranno rumors, scherzi o tutto ciò che ti pare, ma io non ho mai visto tante recensioni "fake" così allineate e concordanti, tantomeno ricordo sia successo prima un fenomeno di "faking" di queste proporzioni.
Tra l'altro, non credo che i recensori da cui trapelano queste notizie siano in cattiva fede. Se è per un discorso di "visibilità", avrebbe fatto più scalpore una R600 mirabolante sparando benchmarks del 50% superiori alla GTX-Ultra (come tra l'altro avrebbe dovuto essere), con nVidia che annaspa e prossima al fallimento, no?
R600, infondo, è un progetto che risale agli stessi tempi di G80, solo che esce con un ritardo mostruoso... ma da un lato nVidia ha fatto un ottimo lavoro, dall'altro ATi è stata acquisita da un'azienda in cattive condizioni economiche che ha peggiorato la situazione...
Siccome viviamo in un paese in cui vige grazie a Dio la libertà di pensiero, io penso che quei bench siano indicativi e realistici... perchè non c'è motivo per cui debbano essere il contrario. Trovatemene una motivazione e ci penserò su...
tutto da dimostrare :) non c'è nemmeno una recensione ufficiale :rolleyes:
Giá, se non si sanno le prestazioni...che dire della qualitá d' immagine :D
Si hanno solo delle slide AMD che dicono che l' AA sia migliore nelle loro schede.
Ma se fanno come nVidia che nelle slide dicono che la Ultra consuma meno della GTX :rotfl:
Dai, manca poco :)
il mio "neanche" è uguale al tuo "nemmeno"... no? ;)
...e la mia osservazione vale per dx10.
Per dx9 il discorso è diverso. Qualcosina sta trapelando, ormai da tempo...
Saranno rumors, scherzi o tutto ciò che ti pare, ma io non ho mai visto tante recensioni "fake" così allineate e concordanti, tantomeno ricordo sia successo prima un fenomeno di "faking" di queste proporzioni.
Tra l'altro, non credo che i recensori da cui trapelano queste notizie siano in cattiva fede. Se è per un discorso di "visibilità", avrebbe fatto più scalpore una R600 mirabolante sparando benchmarks del 50% superiori alla GTX-Ultra (come tra l'altro avrebbe dovuto essere), con nVidia che annaspa e prossima al fallimento, no?
R600, infondo, è un progetto che risale agli stessi tempi di G80, solo che esce con un ritardo mostruoso... ma da un lato nVidia ha fatto un ottimo lavoro, dall'altro ATi è stata acquisita da un'azienda in cattive condizioni economiche che ha peggiorato la situazione...
Siccome viviamo in un paese in cui vige grazie a Dio la libertà di pensiero, io penso che quei bench siano indicativi e realistici... perchè non c'è motivo per cui debbano essere il contrario.
Sono trapelati sia test dx9 (in queste pseudo-rece) che test dx10 della microsoft.
E in quelli dx10 la differenza era abissale a vantaggio di ATi.
Io comunque non credo a nessuno dei 2.
Chi é sotto nda non ha parlato. E solo loro hanno ricevuto i drivers aggiornati (che a quanto pare promettono bene).
Scrambler77
12-05-2007, 18:33
Sono trapelati sia test dx9 (in queste pseudo-rece) che test dx10 della microsoft.
E in quelli dx10 la differenza era abissale a vantaggio di ATi.
Io comunque non credo a nessuno dei 2.
Chi é sotto nda non ha parlato. E solo loro hanno ricevuto i drivers aggiornati (che a quanto pare promettono bene).
Link?
bonzuccio
12-05-2007, 18:35
Sono trapelati sia test dx9 (in queste pseudo-rece) che test dx10 della microsoft.
E in quelli dx10 la differenza era abissale a vantaggio di ATi.
Io comunque non credo a nessuno dei 2.
Chi é sotto nda non ha parlato. E solo loro hanno ricevuto i drivers aggiornati (che a quanto pare promettono bene).
Se la qialità dell'AA è migliore per le ati dovrebbero abbassare la qualità da pannello driver.. prevedo che come al solito ci scanneremo :huh: :boxe:
...beh beh... questa è una teoria tutta da dimostrare... anche perchè non si conoscono neanche le reali prestazioni di G80 in dx10. :)
Beh, alcune cose stanno trapelando... R600 sembra avere Geometry Shaders nettamente più potenti di G80.
Presunto test con DX10. I valori DX9 sembrano troppo bassi per tutte le schede, ma quelli DX10 sembrerebbero confermati da varie fonti...
Driver: 8.37-4, CPU: E6700, from europes biggest PC-Magazine ct
Oblivion, HDR on
1280 X 1024 noAA/noAF
2900 XT 49 fps
88 GTS 48 fps
88 GTX 48 fps
1280 X 1024 AA 4X / noAF
2900 XT 39 fps
88 GTS 46 fps
88 GTX 48 fps
1280 x1024 AA 8X / noAF
HD 2900 XT 17 fps
88 GTS 28 fps
88 GTX 39 fps
PREY
1600 x 1200 AA 8X / AF 16X
HD 2900 XT 43 fps
88 GTS 37 fps
88 GTX 50 fps
Windows Vista Direct X10 SDK
PIPEGS
2900XT 159 fps
88GTS 34 fps
88GTX 63 fps
CubemapGS, Car, Instancing
2900XT 23 fps
88GTS 9 fps
88GTX 11 fps
Cubemap, Car, Instancing
2900XT 18 fps
88GTS 10 fps
88GTX 11 fps
Given the state of the NV drivers for the G80 and that ATI hasn’t released their hw yet; it’s hard to see how this is really a bad plan. We really want to see final ATI hw and production quality NV and ATI drivers before we ship our DX10 support. Early tests on ATI hw show their geometry shader unit is much more performant than the GS unit on the NV hw. That could influence our feature plan.
http://blogs.msdn.com/ptaylor/archive/2007/03/03/optimized-for-vista-does-not-mean-dx10.aspx
Hello Everyone,
This is a fairly generic question, and I promise it may sound like a hardward question at first, but it's not really. Does anyone else notice how slow some of the DX10 samples in the Feb SDK are? Specifically those that employ the geometry shader such as the displacement mapped lizard and the example of how to do cube mapping in one pass (when you check "Render Car")? They are dramatically slower than other DX10 and DX9 samples. I was shocked when I ran them.
Do you think this is because the DX10 SDK/API is in it's infancy? Or the hardware/drivers are still too young? I'd ask this in a hardware forum but most of those guys don't know anything specific to the SDK or programming, just the buzz words and marketing numbers that come from Nvidia.
Both of these samples run at about 5-10 FPS on my machine. Not to turn this into a hardware question by any means, but my system is a brand new dual core w/8800 GTX and 100.64 drivers. I expected the GS pipe to be much faster.
http://forums.microsoft.com/MSDN/ShowPost.aspx?PostID=1259714&SiteID=1
Originally Posted by AndyTX
Aha - this seems to be confirming my theory that if R600 is faster anywhere, it will be in geometry shading. Granted G80 still has a lot of space to improve in that area: a recent test that I did indicated that even having *any* geometry shader present (I used an "identity" geometry shader that just passed through the triangles) cut the performance of the shader in *half*.
http://forum.beyond3d.com/showpost.php?p=985459&postcount=5272
Originally Posted by Rys
Currently it seems to be that if any GS shader is scheduled, the hardware will decrease the number of threads running for the other types indiscriminately. That's the driver doing that, though (as far as I can tell), rather than something at the hardware level.
http://forum.beyond3d.com/showpost.php?p=985474&postcount=5280
Ovviamente è ancora tutto da confermare/capire, ma sembrerebbe che le performance dei GS per ora su G80 siano troppo basse. Non si sa ancora bene il perchè, se questo è un problema hardware o software, però.
Inoltre è da capire quale e quanto intenso sarà l'uso dei GS nei giochi DX10 di prima generazione. ;)
bonzuccio
12-05-2007, 18:39
Se le nvidia vanno cosi male nei geometry shader non vedremo implementata questa tecnica per un bel pezzo nei pc
halduemilauno
12-05-2007, 18:43
intanto il 15 alle 18 qualcosa si dovrebbe vedere.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=951&Itemid=1
;)
Ecco, e vedremo quanto incideranno le ottimizzazioni per nVidia.
Scrambler77
12-05-2007, 19:01
Ma guarda che strano... i test in cui la 2900 va il 30% meglio di G80 invece sono tutti veri e confermati... :asd:
Tra l'altro tu stesso citi: "Currently it seems to be that if any GS shader is scheduled, the hardware will decrease the number of threads running for the other types indiscriminately. That's the driver doing that, though (as far as I can tell), rather than something at the hardware level."
In questo caso, è puramente questione di drivers... Tra l'altro neppure nvidia ha drivers maturi per dx10
ghiltanas
12-05-2007, 19:35
ma è lunedi il lancio dell'ati 2900xt o me lo sono immaginato leggendo qua e la?
Scrambler77
12-05-2007, 19:49
ma è lunedi il lancio dell'ati 2900xt o me lo sono immaginato leggendo qua e la?
no no... è così. ;)
ghiltanas
12-05-2007, 20:04
e vai nn vedo l'ora di vedere una super recensione e a quanto venderanno sta scheda.
un'altra cosa: ma le fasce medie verranno lanciate in contemporanea oppure + in la quando amd si deciderà a darsi una mossa e si degnerà di mostrarci le vga 2600?
ghiltanas
12-05-2007, 20:06
per quanto riguarda il prezzo ho trovato un sito che le vende già(anche se nn sono ancora disponibili ovviamente) a 439 euro. bisogna vedere com'è il rapporto prezzo prestazioni
Ma guarda che strano... i test in cui la 2900 va il 30% meglio di G80 invece sono tutti veri e confermati... :asd:
Tra l'altro tu stesso citi: "Currently it seems to be that if any GS shader is scheduled, the hardware will decrease the number of threads running for the other types indiscriminately. That's the driver doing that, though (as far as I can tell), rather than something at the hardware level."
In questo caso, è puramente questione di drivers... Tra l'altro neppure nvidia ha drivers maturi per dx10
In realtà va il doppio/triplo... :D
Comunque anch'io avevo specificato nel mio post che non si sa se sia una questione di drivers o meno. Quella che hai quotato è un'ipotesi che fa Rys ("as far as I can tell"). Nessuno sa ancora nulla.
Se anche, come è probabile, quei test siano falsi o sbagliati almeno in parte, rimangono le testimonianze che ho citato. Una di queste citava problemi in uno dei test in cui la ATi sembra stravincere (riporta framerates di 5-10fps).
EDIT: un altro motivo per cui i test DX9 sono inaffidabili, mentre quelli DX10 potrebbero essere veri, è che qualunque possessore di 8800GTX (come te del resto) può confermare che la sua scheda fa molti più fps di quelli che vengono riportati in quei test.
Ecco invece cosa dice un possessore di 8800GTX su Rage3D:
Originally Posted by marty101
DX10 results are interesting! I doubled checked the GTX's results with my own one, and they are correct.
http://rage3d.com/board/showpost.php?p=1334937299&postcount=1627
I valori DX9 sembrano troppo bassi per tutte le schede, ma quelli DX10 sembrerebbero confermati da varie fonti...
e a me quelli interessano,ho aspettato per le dx10 apposta :D vedremo
e a me quelli interessano,ho aspettato per le dx10 apposta :D vedremo
PCGamesHardware ha già provato G80 con la prima demo DX10 (Lost Planet). Sembra che i framerates si dimezzino (anche con la Ultra) rispetto alla versione DX9. La 8800GTS in DX10 fa nella maggior parte degli scenari di test 30fps di media a 1280x800 (non x1024), in un paio supera i 40fps (44fps). Non ho capito se sia attivato un qualche filtro.
Come pensavo comunque G80 in questo gioco (un porting da 360 sviluppato in collaborazione tra Capcom e nvidia) non si comporta male, anche se come pensavo il contraccolpo sulle prestazioni si fa sentire, eccome.
Sarei infatti curioso di sapere come vanno le 8600 ( :asd: ).
Attendiamo lunedì per capire come andranno le ATi. ;)
pierluigi86
12-05-2007, 20:51
PCGamesHardware ha già provato G80 con la prima demo DX10 (Lost Planet). Sembra che i framerates si dimezzino (anche con la Ultra). La 8800GTS in DX10 fa nella maggior parte degli scenari di test 30fps di media a 1280x800 (non x1024), in un paio supera i 40fps (44fps). Non ho capito se sia attivato un qualche filtro.
Come pensavo comunque G80 in questo gioco (un porting da 360 sviluppato in collaborazione tra Capcom e nvidia) non si comporta male, anche se come pensavo il contraccolpo sulle prestazioni si fa sentire, eccome.
Sarei infatti curioso di sapere come vanno le 8600 ( :asd: ).
Attendiamo lunedì per capire come andranno le ATi. ;)
probabilmente per avere delle buone schede dx10 dovremo aspettare la seconda generazione...
probabilmente per avere delle buone schede dx10 dovremo aspettare la seconda generazione...
Non saprei...
I giochi dx10 usciranno prima della seconda generazione (r700 e g100).
Anche perché le 8900 e le x2950, che probabilmente saranno refresh, non dovrebbero (almeno sembra) portare grandissimi benefici prestazionali. La grande novitá dovrebbero essere i consumi ridotti e le frequenze un po' maggiorate.
Poi quando uscirono le dx9 una 9700pro faceva girare i primi titoli dx9 molto bene (come pure il suo refresh, che non portava grandi benefici)
Foglia Morta
12-05-2007, 21:40
http://img46.imageshack.us/img46/4594/30kni1.jpg
risoluzione 1024x768 :) con un oc esagerato per cpu/gpu,ke azoto era a -39° ??? :rotfl: i clocks effettivi dovrebbero essere 742/825(1650)
mi sa di fake:O
Fino a lunedì pomeriggio, tutto è fake.
Curioso però come il concetto di fake cambi a seconda che il test lo commenti un fanboy ati, uno nvidia o qualcuno che è solo interessato all'affare migliore... l'obiettività, questa sconosciuta :rolleyes:
Fino a lunedì pomeriggio, tutto è fake.
Curioso però come il concetto di fake cambi a seconda che il test lo commenti un fanboy ati, uno nvidia o qualcuno che è solo interessato all'affare migliore... l'obiettività, questa sconosciuta :rolleyes:
io d sicuro sono interessato all'affare migliore :D
Non saprei...
I giochi dx10 usciranno prima della seconda generazione (r700 e g100).
Anche perché le 8900 e le x2950, che probabilmente saranno refresh, non dovrebbero (almeno sembra) portare grandissimi benefici prestazionali. La grande novitá dovrebbero essere i consumi ridotti e le frequenze un po' maggiorate.
Poi quando uscirono le dx9 una 9700pro faceva girare i primi titoli dx9 molto bene (come pure il suo refresh, che non portava grandi benefici)
beh speriamo sia così anke per la prima generazione dx10 perkè per quello ke si è visto finora...fake o non fake,le prestazioni non sono proprio soddisfacenti,speriamo davvero :D,l'ho scritto anke nel thread della 8800...(ok,dicono ke sia un fake,sono arrivate voci dalla stessa Crytek...)hanno riportato dei presunti benchs di Crysis in cui già alla risoluzione di 1280x1024 con un quad core ed 8800gtx SLI si è registrato un fps minimo 17,ke brutto numero :rotfl: guardate,davvero,se non si raggiungono almeno i 25-30 fps minimi a quella risoluzione(ed è veramente poco) io passo :) non gioco per un bel pò d tempo,non si possono spendere soldi inutilmente
beh speriamo sia così anke per la prima generazione dx10 perkè per quello ke si è visto finora...fake o non fake,le prestazioni non sono proprio soddisfacenti,speriamo davvero :D,l'ho scritto anke nel thread della 8800...(ok,dicono ke sia un fake,sono arrivate voci dalla stessa Crytek...)hanno riportato dei presunti benchs di Crysis in cui già alla risoluzione di 1280x1024 con un quad core ed 8800gtx SLI si è registrato un fps minimo 17,ke brutto numero :rotfl: guardate,davvero,se non si raggiungono almeno i 25-30 fps minimi a quella risoluzione(ed è veramente poco) io passo :) non gioco per un bel pò d tempo,non si possono spendere soldi inutilmente
quel test era un fake molto old e smentito.si calcolava con i nuovi test che in DX9 una 7800GT garantiva i 1024 tutto al max e con una 8800GTs si dovrebbe avere la fluidita necessaria per giocare a 1280 in Dx10 anche se pare ci vorranno 4Gb di ram:doh: :help:
Free Gordon
13-05-2007, 03:05
PCGamesHardware ha già provato G80 con la prima demo DX10 (Lost Planet). Sembra che i framerates si dimezzino (anche con la Ultra) rispetto alla versione DX9. La 8800GTS in DX10 fa nella maggior parte degli scenari di test 30fps di media a 1280x800 (non x1024), in un paio supera i 40fps (44fps). Non ho capito se sia attivato un qualche filtro.
Come pensavo comunque G80 in questo gioco (un porting da 360 sviluppato in collaborazione tra Capcom e nvidia) non si comporta male, anche se come pensavo il contraccolpo sulle prestazioni si fa sentire, eccome.
Sarei infatti curioso di sapere come vanno le 8600 ( :asd: ).
Attendiamo lunedì per capire come andranno le ATi. ;)
Prestazioni scandalose per G80... :mbe:
Non ci credo che stiamo così bassi...
Il gioco girerebbe come su 360, in pratica (1280x720, 30fps più o meno costanti, AA4x, AF4x e HDR).
Sarebbe una mazzata per il mondo pc.
Prestazioni scandalose per G80... :mbe:
Non ci credo che stiamo così bassi...
Il gioco girerebbe come su 360, in pratica (1280x720, 30fps più o meno costanti, AA4x, AF4x e HDR).
Sarebbe una mazzata per il mondo pc.
E il tutto per mettere quei 2-3 effettini in piú (che quasi non si notano) :asd:
Free Gordon
13-05-2007, 04:25
E il tutto per mettere quei 2-3 effettini in piú (che quasi non si notano) :asd:
Direi che più che "quasi", NON si notano proprio!!! :mad:
Penso che la simulazione fisica di LP, in DX10, venga fatta tramite features quali i GS che necessitano di una buona implementazione via driver e soprattutto di ALU studiate apposta....
Alla fine lo si giocherà in dx9 senza problemi e ad un frame rate superiore rispetto alla vers console (almeno lo spero per i possessori di G80).
ale0bello0pr
13-05-2007, 04:50
mi sa di fake:O
dire che "mi sa di fake" a un qualcosa postato da una persona come KINC(guru mondiale dell'overlock)...è come dire "la terra è piatta"
http://img46.imageshack.us/img46/4594/30kni1.jpg
NEW WR 3DMARK 05 SINGLE CARD : HD 2900 XT
dire che "mi sa di fake" a un qualcosa postato da una persona come KINC(guru mondiale dell'overlock)...è come dire "la terra è piatta"
su questo sono d'accordo,semplicemente non è rilevante ai fini del giudizio della hd 2900xt perkè proprio come guru ha fatto un oc esagerato :D con strumenti ke non possono essere usati quotidianamente ma semplicemente per record,se poi uno vuole stare sempre a monitorare l'azoto o i tolotti con la co2 con le dovute protezioni... :D oppure spendere sui 6-700€ per un vapochill...quindi il nostro computer da sogno è pronto,un vapochill,un conroe extreme,una hd 2900 watercooled e tutto il resto...ce la facciamo con 3000€?? :)
http://web.tiscali.it/7stars/public_html/kinc.jpg
risoluzione 1024x768 :) con un oc esagerato per cpu/gpu,ke azoto era a -39° ??? :rotfl: i clocks effettivi dovrebbero essere 742/825(1650)
mi sa di fake:O
su questo sono d'accordo,semplicemente non è rilevante ai fini del giudizio della hd 2900xt perkè proprio come guru ha fatto un oc esagerato :D con strumenti ke non possono essere usati quotidianamente ma semplicemente per record,se poi uno vuole stare sempre a monitorare l'azoto o i tolotti con la co2 con le dovute protezioni... :D oppure spendere sui 6-700€ per un vapochill...quindi il nostro computer da sogno è pronto,un vapochill,un conroe extreme,una hd 2900 watercooled e tutto il resto...ce la facciamo con 3000€?? :)
http://web.tiscali.it/7stars/public_html/kinc.jpg
Il fatto è che per ora nessuno, nemmeno K|ngp|n con la 8800Ultra e il raffreddamento ad azoto liquido ci era riuscito. Ovvio che poi siano record fini a se stessi (abbattuta la barriera dei 30000 punti al 3DMark05 per la prima volta), però qualcosina possono farla intuire... ;)
Prestazioni scandalose per G80... :mbe:
Non ci credo che stiamo così bassi...
Il gioco girerebbe come su 360, in pratica (1280x720, 30fps più o meno costanti, AA4x, AF4x e HDR).
Sarebbe una mazzata per il mondo pc.
Il sito è affidabile, è la versione online di un magazine venduto in Germania.
http://www.pcgameshardware.de/?article_id=601203
E' in effetti strano che aggiungere solo qualche effetto DX10 (orme nella neve "profonde", ad esempio) dimezzi il framerate...
Comunque sullo stesso sito ci dovrebbero essere degli screenshots con il confronto tra versione 360 e versione PC. ;)
C'è anche da dire che queste nuove librerie sono state create per far sì che i giochi venissero programmati + velocemente e girassero meglio e invece ci troviamo con un calo pauroso degli fps... non è che ci sono di mezzo i driver che nessuno finora ha potuto provare in dx10?
C'è anche da dire che queste nuove librerie sono state create per far sì che i giochi venissero programmati + velocemente e girassero meglio e invece ci troviamo con un calo pauroso degli fps... non è che ci sono di mezzo i driver che nessuno finora ha potuto provare in dx10?
I giochi in DX10 girano velocemente a parità di effetti con le DX9. Il problema è che con le DX10 si aggiungono effetti molto pesanti dal punto di vista computazionale (anche se magari non si notano moltissimo), o magari più dettagli, o semplicemente più oggetti/personaggi a schermo. Molta parte di questi effetti sarebbero teoricamente possibili anche con le DX9, ma i giochi girerebbero a 1fps pure sulle schede più performanti oggi in commercio.
Le nVidia sono uscite 6 mesi fa, e Lost Planet è un porting 360 fatto in collaborazione con Capcom, quindi penso che comunque il gioco sia già abbastanza ottimizzato per nVidia. ;)
I giochi in DX10 girano velocemente a parità di effetti con le DX9. Il problema è che con le DX10 si aggiungono effetti molto pesanti dal punto di vista computazionale (anche se magari non si notano moltissimo), o magari più dettagli, o semplicemente più oggetti/personaggi a schermo. Molta parte di questi effetti sarebbero teoricamente possibili anche con le DX9, ma i giochi girerebbero a 1fps pure sulle schede più performanti oggi in commercio.
Le nVidia sono uscite 6 mesi fa, e Lost Planet è un porting 360 fatto in collaborazione con Capcom, quindi penso che comunque il gioco sia già abbastanza ottimizzato per nVidia. ;)
Non so se questa discussione è ot, ma se domani dai test risulta che in dx10 la situazione non è molto diversa dalla 8800, che cavolo ce la compriamo a fare l'r600? :D Ci prendiamo tutti (mi riferisco a coloro che hanno ancora una x1800) una x1950 per tirare avanti in dx9 e buona notte al secchio. Poi quando finalmente potrò fare 100 fps fissi a 1280x1024 in DX10 faccio il passaggio...
Il fatto è che per ora nessuno, nemmeno K|ngp|n con la 8800Ultra e il raffreddamento ad azoto liquido ci era riuscito. Ovvio che poi siano record fini a se stessi (abbattuta la barriera dei 30000 punti al 3DMark05 per la prima volta), però qualcosina possono farla intuire... ;)
non so perkè ma mi viene in mente questo: perkè quelli di intel(esempio) fanno delle super cpu e poi ti danno un dissi del cavolo non abbastanza performante,perkè non investono di + su questa cosa? perkè nn si può avere già in partenza,ad aria,un buon risultato? ho capito ke fanno le cpu ma allora ke vendano solo la cpu a questo punto invece di ritrovarci un rincaro,anke se è poco,per il dissi del cavolo :D o no?? scusate le cpu "lisce" non le danno solo agli oem o sbaglio??
Non so se questa discussione è ot, ma se domani dai test risulta che in dx10 la situazione non è molto diversa dalla 8800, che cavolo ce la compriamo a fare l'r600? :D Ci prendiamo tutti (mi riferisco a coloro che hanno ancora una x1800) una x1950 per tirare avanti in dx9 e buona notte al secchio. Poi quando finalmente potrò fare 100 fps fissi a 1280x1024 in DX10 faccio il passaggio...
mah per uno ke nn ha fretta il discorso regge,anke a 6-12 mesi da ora.cmq i 100fps fissi davvero non ti servono :),un altro esagerato
se poi questo significa ke in proporzione ne può fare 30-40 fissi a 2560x1600 ben venga
Non so se questa discussione è ot, ma se domani dai test risulta che in dx10 la situazione non è molto diversa dalla 8800, che cavolo ce la compriamo a fare l'r600? :D Ci prendiamo tutti (mi riferisco a coloro che hanno ancora una x1800) una x1950 per tirare avanti in dx9 e buona notte al secchio. Poi quando finalmente potrò fare 100 fps fissi a 1280x1024 in DX10 faccio il passaggio...
PCGamesHardware ha testato Lost Planet con una GTS. La situazione con le GTX dovrebbe essere migliore, penso che comunque una decina di fps in più li faccia. I test in DX10 saranno interessanti per capire se questa generazione di schede è davvero DX10 o no. Perchè comunque sarà uno smacco per chi ha speso più di 200€ per una scheda appena uscita (8600GTS) e scoprire che in DX10 dovrà già oggi ridurre la risoluzione a 800x600 o max a 1024x768 (e non credo proprio che portare il bus a 256bit cambierà di molto la situazione).
Vedremo cosa farà la HD2900, ma anche la HD2600, in DX10.
PCGamesHardware ha testato Lost Planet con una GTS. La situazione con le GTX dovrebbe essere migliore, penso che comunque una decina di fps in più li faccia. I test in DX10 saranno interessanti per capire se questa generazione di schede è davvero DX10 o no. Perchè comunque sarà uno smacco per chi ha speso più di 200€ per una scheda appena uscita (8600GTS) e scoprire che in DX10 dovrà già oggi ridurre la risoluzione a 800x600 o max a 1024x768 (e non credo proprio che portare il bus a 256bit cambierà di molto la situazione).
Vedremo cosa farà la HD2900, ma anche la HD2600, in DX10.
X me un fps è giocabile se faccio 100 fps fissi... se gioco a un mmorpg mi accontento anche di 70 volendo...
Danielao
13-05-2007, 08:57
prevedibile..così la panzana che con le DX10 ci sarebbe stato un incremento considerevole delle performance ed un corrispondente aumento della qualità visiva sarà finalmente smentita.
Miglior grafica si..ma per goderla ci vorranno sempre schede costose e "mature"
pierluigi86
13-05-2007, 09:50
non so perkè ma mi viene in mente questo: perkè quelli di intel(esempio) fanno delle super cpu e poi ti danno un dissi del cavolo non abbastanza performante,perkè non investono di + su questa cosa? perkè nn si può avere già in partenza,ad aria,un buon risultato? ho capito ke fanno le cpu ma allora ke vendano solo la cpu a questo punto invece di ritrovarci un rincaro,anke se è poco,per il dissi del cavolo :D o no?? scusate le cpu "lisce" non le danno solo agli oem o sbaglio??
perchè al 99,999% delle persone non interessa l' overclock e non sanno nemmeno cosa sia
PCGamesHardware ha testato Lost Planet con una GTS. La situazione con le GTX dovrebbe essere migliore, penso che comunque una decina di fps in più li faccia. I test in DX10 saranno interessanti per capire se questa generazione di schede è davvero DX10 o no. Perchè comunque sarà uno smacco per chi ha speso più di 200€ per una scheda appena uscita (8600GTS) e scoprire che in DX10 dovrà già oggi ridurre la risoluzione a 800x600 o max a 1024x768 (e non credo proprio che portare il bus a 256bit cambierà di molto la situazione).
Vedremo cosa farà la HD2900, ma anche la HD2600, in DX10.
cmq c'è anche da dire che hanno testato il gioco con un amd 4200x2...:) che sta oramai iniziando, purtroppo, ad essere vecchiotto..:rolleyes:
ps. tra l'altro dagli screen del gioco la grafica non mi pare nemmeno un granche!!
ciondolo
13-05-2007, 10:30
X me un fps è giocabile se faccio 100 fps fissi... se gioco a un mmorpg mi accontento anche di 70 volendo...
esagerato!!!! anche io sono un maniaco della fluidita', ma quando un gioco mi sta da fra i 40 e i 60 direi che come risultato e' ottimo,averne 100fissi o 60 fissi non c'e' assolutamnente differenza
esagerato!!!! anche io sono un maniaco della fluidita', ma quando un gioco mi sta da fra i 40 e i 60 direi che come risultato e' ottimo,averne 100fissi o 60 fissi non c'e' assolutamnente differenza
Io so solo che a CS se non facevo 100 fps fissi tiravo giù tutto il pantheon cristiano.
Cmq, cambiando discorso, mi sono fatto un giretto su www.nordichardware.com ed ho visto i post di Kinc da cui sembrerebbe che si tira su che è un piacere.
Cmq la 2900xt successiva sarà solo un refresh a 65nm, il quantitativo di ram sarà uguale... non penso che cambierà moltissimo tanto da certe frequenze in poi il dissi ad aria non basta + e se devo spendere 100 € x un dissi a liquido tanto vale che prendo la scheda di fascia superiore se c'è o no?...
bonzuccio
13-05-2007, 11:27
Ma siamo sicuri che su Vista le dx10 siano funzionanti?
No perchè gli effetti dx10 si possono creare anche emulando su dx10 le dx9..
Free Gordon
13-05-2007, 11:36
Comunque sullo stesso sito ci dovrebbero essere degli screenshots con il confronto tra versione 360 e versione PC. ;)
Vidi le prime immagini pc, qualche mese fà e sinceramente, confrontandole a quelle 360, non notai chissà quale differenza a favore del pc..
L'unica evidente era la risoluzione... :D
Cmq io non credo che LP sia proprio un porting: è stato sviluppato usando l'MT framework di Capcom che ha una forte base pc. ;)
Penso che le due versioni siano venute su quasi contemporaneamente, solo che da un certo punto in poi, solo la versione console è stata portata avanti.
qualcuno sa se l'nda scade semplicemente "il 14 maggio" oppure se scade "alle ore 09.00am GMT del giorno 14 maggio"?
nel primo caso ci sarebbe la (remota) possibilità di vedere qualcosa già questa sera da qualche sito asiatico/australiano
Free Gordon
13-05-2007, 11:40
tra l'altro dagli screen del gioco la grafica non mi pare nemmeno un granche!!
La grafica è la migliore attualmente in circolazione... ;)
Dovrai vederlo in movimento per rendertene conto.
Io l'ho finito su 360 e devo dire che, seppur superato da Gears of War in alcuni aspetti, nel complesso, tecnicamente offre il miglior spettacolo.. ;)
Free Gordon
13-05-2007, 11:42
No perchè gli effetti dx10 si possono creare anche emulando su dx10 le dx9..
Come fai a saperlo? :asd:
halduemilauno
13-05-2007, 11:45
qualcuno sa se l'nda scade semplicemente "il 14 maggio" oppure se scade "alle ore 09.00am GMT del giorno 14 maggio"?
nel primo caso ci sarebbe la (remota) possibilità di vedere qualcosa già questa sera da qualche sito asiatico/australiano
ore 15 centro europa.
;)
ore 15 centro europa.
;)
grazie, immaginavo
ore 15 centro europa.
;)
sicuro? ;)
halduemilauno
13-05-2007, 12:17
sicuro? ;)
si cosi ho letto.
;)
a me risulta 06.00 del14 maggio ora italiana....
p.s. prevedo forti diatribe tra fanboy all'uscita dei test :D :D
halduemilauno
13-05-2007, 12:31
a me risulta 06.00 del14 maggio ora italiana....
p.s. prevedo forti diatribe tra fanboy all'uscita dei test :D :D
ore 6 del 14 in california.
;)
io so che dalle 6.00 del mattino i rivenditori sono autorizzati alla vendita in italia, ma le recensioni ufficiali usciranno solo dopo le 15 italiane
Cmq supponendo che R600 abbia un bus sulle memorie effettivamente di 512bit come si vociferava tempo fa, mi sembrerebbe alquanto strano che la HD2900 andasse meno di una 8800GTX, soprattutto con i filtri attivati (che come si sa richiedono molta banda passante in termini di memoria).
Staremo a vedere... cmq servono schede video di fascia media all'altezza.
capitan_crasy
13-05-2007, 12:36
Clicca qui... (http://rapidshare.com/files/31038555/Radeon_HD2900_Users_Guide.pdf.html) ( files in PDF )
halduemilauno
13-05-2007, 13:12
Clicca qui... (http://rapidshare.com/files/31038555/Radeon_HD2900_Users_Guide.pdf.html) ( files in PDF )
http://www.xtremesystems.org/forums/attachment.php?attachmentid=58965&stc=1&d=1179052867
:eek:
http://www.xtremesystems.org/forums/attachment.php?attachmentid=58965&stc=1&d=1179052867
:eek:
Che c'è di strano? :mbe:
Anzi trovo corretto il fatto che l'abbiano scritto...
Free Gordon
13-05-2007, 13:46
E' sempre fakezilla che ha riportato quella pagina che ha linkata da Hal.
Sarei curioso di sapere che cosa diranno all'uscita delle 8900 (o 8950) e di R650. :D
Vorrei capire se sono schierati oppure se sono semplicemente dei cialtroni. :D (buona la seconda, credo)
capitan_crasy
13-05-2007, 13:58
E' sempre fakezilla che ha riportato quella pagina che ha linkata da Hal.
Sarei curioso di sapere che cosa diranno all'uscita delle 8900 (o 8950) e di R650. :D
Vorrei capire se sono schierati oppure se sono semplicemente dei cialtroni. :D (buona la seconda, credo)
il file PDF linkato da FUDZILLA è ufficiale AMD...
e poi perchè fare un fake di un documento che in pratica dice poco o niente?
Non ci voleva l'avvertimento, anche la mia 6800GS non la posso toccare quando spengo il PC, così come non si possono toccare gli stock heatsinks delle varie CPU...
Considerato le denunce che fanno in America per qualunque stupidata, loro si tutelano in questo modo. Se qualcuno si scotta non può dire che sul manuale non ci fosse scritto.
il file PDF linkato da FUDZILLA è ufficiale AMD...
e poi perchè fare un fake di un documento che in pratica dice poco o niente?
Anche perchè tutte le schede video high-end della fascia precedente e le 8800 sono "scottanti" se le vai a toccare sotto sforzo... le x1950 raggiungono i 100 gradi sul voltage regulator col dissy stock, se non sbaglio.
Non c'è nulla di cui stupirsi, nè nulla di scandaloso.
Ma poi, chi è quel pirla che va ad aprirsi il case per toccare la scheda video dopo due ore di gioco? E magari metterci la lingua sopra :D
...ma che c'è da meravigliarsi su quel documento pdf??? alle volte sembra che si voglia cercare lo scandalo in ogni cosa...
...provate a toccare il dissy della vostra cpu e della vostra vga e poi mi dite se sono fredde o calde. 8800Ultra raggiunge 96°C, 8800GTX 89°C, X1950XTX 87°C. Sono tutte very hot. :D
ps. vi avevo perso...!
ps. vi avevo perso...!
...in effetti c'è stato un "trasferimento" da un topic all'altro, la curiosità pare più forte degli imperativi dall'alto :asd: non è troppo corretto, ma d'altronde siam tutti nerd, è più forte di noi :D
A me preoccupa la situazione per il dopo-recensioni, con i soliti propagandisti e fanboy in piena opera di demolizione/critica ed esaltazione/celebrazione, contrapposti gli uni agli altri solo per convenienza o celodurismo, visto che le premesse sono già molto calde... mi sa che leggerò le recensioni, troverò (spero) le conferme che mi servono sulle 2600xt, me la ordinerò e posterò pochissimo, onde evitare bagni di sangue dovuti a provocazioni gratuite - che già abbondano ora, figuriamoci dopo...
bonzuccio
13-05-2007, 14:45
Come fai a saperlo? :asd:
Hardware Emulation Level (layer di emulazione hardware presente in dx10 per emulare su schede non dx10 le dx10 appunto)... :boxe: :boxe:
Free Gordon
13-05-2007, 15:00
il file PDF linkato da FUDZILLA è ufficiale AMD...
e poi perchè fare un fake di un documento che in pratica dice poco o niente?
Lo so che è ufficiale, ma non vedo il perchè il riportarlo, dato che è una cosa che accade con ogni GPU da qualche anno a questa parte... :)
E' il solito scoop da basso giornalismo IT che solo da quel sito ci si può aspettare (e quelli dello stesso genere). :D
Free Gordon
13-05-2007, 15:04
Hardware Emulation Level (layer di emulazione hardware presente in dx10 per emulare su schede non dx10 le dx10 appunto)... :boxe: :boxe:
Stai parlando delle dx9L?
Perchè se stai parlando di quello, non vedo cosa c'entri con il fatto che su Vista potrebbero non esserci le dx10.
Stai parlando delle dx9L?
Perchè se stai parlando di quello, non vedo cosa c'entri con il fatto che su Vista potrebbero non esserci le dx10.
Dopo questa siamo riusciti a dire veramente di tutto :rotfl:. Ovviamente sto scherzando...
Cmq, a parte gli scherzi, io stavo già vedendo quali erano i negozi che vendevano questa x2900 ed in Italia non ne ho trovati (fonte www.kelkoo.it).
Dove posso cercare?
Quale ditta consigliate per overclock in base alle foto viste finora?
Questo è ciò che mi hanno risposto su nordichardware alle domande:
com'è la situazione con i driver;
come vanno le schede nei giochi;
http://www.nordichardware.com/forum/3-vt8428.html?postdays=0&postorder=asc&start=50
Ah sempre su quel thread scrivono che dei risultati apparsi su xtreemesystems dovevano rimanere "segreti" fino a Lunedì e che qualcuno s'è divertito a floodare il server con dei nomi a casaccio finché non ha trovato ciò che stava cercando. ;)
A questo punto io sono sempre + convinto che questa r600 valga la pena di essere comprata anche perché sempre meglio della mia x1800xl è :D
Non sono riuscito a trovare i benchmarks a cui si riferiscono ma qua si può vedere la differenza di resa rispetto all'8800gtx dell'AA
http://www.xtremesystems.org/forums/showpost.php?p=2186824&postcount=978
Free Gordon
13-05-2007, 15:42
A questo punto io sono sempre + convinto che questa r600 valga la pena di essere comprata anche perché sempre meglio della mia x1800xl è :D
Tutti quelli sotto NDA non sono attendibili.
Gli altri (che non sanno come stanno le cose) men che meno...
http://vr-zone.com/?i=4946&s=1
addesso e´uscito il test della HD 2900 XT
il sito internet della Vr-zone e down, troppi che vogliono vedere il test dell R600
Trovo invece piu` preoccupante il fatto che richiede un alimentatore da 750W :cry:
Il mio e` solo (?) da 380W!!!
Io comunque sarei piu` interessato al modello entry level (2600?) visto che mi
interessa piu` la parte audio-video (HTPC)... forse sara` meno esosa in termini di consumi...
Questo modello non ha HDMI e non mi e` per nulla chiaro come faccia ad uscire
l'audio dalla DVI e non spiega nemmeno nulla riguardo alla pseudo-scheda audio
integrata... mi viene il dubbio non ci sia affatto :mad:
fano
bonzuccio
13-05-2007, 15:53
Stai parlando delle dx9L?
Perchè se stai parlando di quello, non vedo cosa c'entri con il fatto che su Vista potrebbero non esserci le dx10.
E' un layer software presente anche in dx10,
non vorrei che visti i deludenti risultati (ma stiamo parlando di ipotesi anche per le nvidia) i giochi in realtà non si trovano in hardware le istruzioni
(ed i geometry shaders che dimezzano le prestazioni invece di raddoppiarle mi danno da pensare)
e utilizzino questo layer che ovviamente per gli effetti dx10 risulta molto pesante cercando di tradurli con istruzioni dx9
oppure magari in Vista è attivo solo questo layer..
insomma sono talmente tante le variabili che secondo me o si prende una fascia media di queste schede (e tendo a fidarmi maggiormante di ati visto che hanno avuto leggermente più tempo, un errore in hardware non lo ripigli.. quindi se proprio fascia alta deve essere meglio ati a parità di prestazioni in dx9) oppure può essere un ottimo affare veder calare le vecchie top di gamma e prenderle
halduemilauno
13-05-2007, 15:55
Che c'è di strano? :mbe:
Anzi trovo corretto il fatto che l'abbiano scritto...
la mia voleva essere solo una battuta su una curiosità. tutto qui.
;)
halduemilauno
13-05-2007, 16:15
http://vr-zone.com/?i=4946&s=1
addesso e´uscito il test della HD 2900 XT
il sito internet della Vr-zone e down, troppi che vogliono vedere il test dell R600
le conclusioni.
Posted By:
Shamino
Date:
May 14, 2007, 3:55 am
Source:ATi
Actions:
Email Del.icio.us Digg
As said before, I had results from both the Catalyst 8.36 and
Catalyst 8.37 Drivers. How did performance improve between this small driver
jump of 0.01 version?
Taking a setting at 1600x1200 with 16xAF, I saw a major
increase in performance, particularly Company Of Heroes and Quake 4.
Performance went up by 11% on COH and 42% on Quake 4! This shows that the
drivers is still very raw on this card, with just a minor driver revision
boosting up performance that much, it gives us quite a lot of hope for a fair
bit of improvement to come. Let's hope for that!
In many non Anti-Aliasing, High Definition game settings, you
have seen the X2900XT push ahead of the performance of it's closest competitor,
the GeForce 8800GTS 640MB, sometimes by quite a large margin, sometimes falling
behind or ahead by a small percentage. In a select few games, the GTS is
slightly faster, and vice versa. When Anti-Aliasing is turned on, the X2900XT
showed that it carries it off with great efficiency in games that the drivers
are optimized for, performing significantly better than the GTS; while the AA
efficiency is piss-poor in some games due to the raw driver which has not fully
blossomed to take advantage of ATi's new GPU technology. Just take a look at how
performance has boosted from Drivers 8.36 to 8.37, that shows the potential in
performance growth... a whole lot of it to reap.
It is slightly off
tradition that the GPU company's flagship product sails off not to meet
the flagship of it's competitor, but one target lower. Then again, the
lower we go down the price pyramid, the bigger the audience, more
people with the budget to spend. I'd say that there is no clear winner
between the 8800 GTS and X2900XT, the GTS displayed more consistent
performance behavior while the X2900XT fluctuates around due to the
in-matured driver. I would say that despite the heat thrown out by the
GPU, the X2900XT overclocks better than the 8800GTS by 8-10%, but
that's putting out a lot more heat and drawing more power than it
already consumes. So this is something potential XT buyers should take
note of, the heat produced by the card is no small amount, nor is the
power consumed by it - more than 60w over the GTS. What you would be
investing in is a higher potential of upcoming performance boosts
(including the latest pre-Alpha 8.37.4.2_47323 Catalyst just released 3
days before this review) and
full HDCP support with integrated audio controller. And of
course the new programmable Tessellation technology which we will probably not
see support in games until much later.
Not the fastest video card in the market for sure, but
definitely holds it's own at it's current price-point. We only hope that supply
will be adequate and not lead to an indirect increase in prices due to short
supply. We hope to see some interesting implementations from various card
partners as well, be it overclocked specifications, or improved coolers.
;)
http://vr-zone.com/?i=4946&s=1
addesso e´uscito il test della HD 2900 XT
il sito internet della Vr-zone e down, troppi che vogliono vedere il test dell R600
Cmq i risultati non saranno attendibili, sono + attendibili quelli di kinc a questo punto. Questa preview si riferisce alla versione "sample" che come mi hanno detto su nordichardware scalda di + e si overclocka meno ed in + all'epoca i driver non erano maturi.
halduemilauno
13-05-2007, 16:19
dalla stessa rece
http://resources.vr-zone.com.sg/Shamino/r600launch/128.jpg
http://img366.imageshack.us/img366/7827/108pk6.jpg
http://img398.imageshack.us/img398/3540/109zx6.jpg
;)
Affinché tutti possiate vedere i benchmark non appena riesco a scaricarli dal sito faccio l'upload delle pagine web su un mio spazio web
http://davixtreme.altervista.org/x2900_3dmark2006.html
http://davixtreme.altervista.org/x2900_nwn_oblivion.html
Son daccordo, la mia osservazione riguardava il fatto che non ci vedo alcuno scandalo visto che toccando qualunque dissipatore di GPU/CPU anche non proprio recenti ti bruci la mano...
Non era un post critico, ma solo una puntualizzazione :)
halduemilauno
13-05-2007, 16:29
http://perso.orange.fr/marllt2/temp/102.jpg
http://perso.orange.fr/marllt2/temp/102.jpg
In oblivion 53 fps alla pari con la 8800 gtx a 1280x1024
A 2560x1600 (risoluzione che non userò mai) la 2900xt fa 36 fps la 8800 gtx fa 47
bonzuccio
13-05-2007, 16:35
Dai su esce roba coi driver vecchi, mi aspetto che la 2900xt eguagli la gtx in dx9.. con un bus verso la memoria di 512 bit non ci sono cavoli che tengono,
questa è la mia spettativa
Dopo questa siamo riusciti a dire veramente di tutto :rotfl:. Ovviamente sto scherzando...
Cmq, a parte gli scherzi, io stavo già vedendo quali erano i negozi che vendevano questa x2900 ed in Italia non ne ho trovati (fonte www.kelkoo.it).
Dove posso cercare?
Quale ditta consigliate per overclock in base alle foto viste finora?
Questo è ciò che mi hanno risposto su nordichardware alle domande:
com'è la situazione con i driver;
come vanno le schede nei giochi;
http://www.nordichardware.com/forum/3-vt8428.html?postdays=0&postorder=asc&start=50
Ah sempre su quel thread scrivono che dei risultati apparsi su xtreemesystems dovevano rimanere "segreti" fino a Lunedì e che qualcuno s'è divertito a floodare il server con dei nomi a casaccio finché non ha trovato ciò che stava cercando. ;)
A questo punto io sono sempre + convinto che questa r600 valga la pena di essere comprata anche perché sempre meglio della mia x1800xl è :D
Non sono riuscito a trovare i benchmarks a cui si riferiscono ma qua si può vedere la differenza di resa rispetto all'8800gtx dell'AA
http://www.xtremesystems.org/forums/showpost.php?p=2186824&postcount=978
Spero sinceramente che quelle foto siano un fake perchè altrimenti si spiegherebbero i punteggioni stratosferici di R600 nel 3dmerd (superiori alla GTX :eek: o quasi) e i frame nei giochi in genere molto più bassi.
La qualità d'immagine è schifosamente inferiore, il filtraggio delle texture è al limite dell'osceno :mad: (speriamo sia tutto una balla, anche se tempo fa nVidia taroccava il 3dmerd per fare punteggioni, non vorrei che ati abbia fatto la stessa cosa :( )
Qualche ora e conosceremo al verità :tie: :tie: :tie:
http://resources.vr-zone.com.sg/Shamino/r600launch/132.jpg
http://resources.vr-zone.com.sg/Shamino/r600launch/132.jpg
Wit puoi postare la foto su un tuo host come faccio io? Perchè non la scarica.
Overclockata in maniera umana (con cooler di default) supera una 8800gtx nel 3dmark di qualche punto.
bonzuccio
13-05-2007, 16:50
La qualità d'immagine è schifosamente inferiore, il filtraggio delle texture è al limite dell'osceno :mad: (speriamo sia tutto una balla, anche se tempo fa nVidia taroccava il 3dmerd per fare punteggioni, non vorrei che ati abbia fatto la stessa cosa :( )
Qualche ora e conosceremo al verità :tie: :tie: :tie:
Mi fido di te ma a quanto pare il monitor del mio portatile non pi permette di carpire ALCUNA differenza.. specie il drago è IDENTICO!!
Mi fido di te ma a quanto pare il monitor del mio portatile non pi permette di carpire ALCUNA differenza.. specie il drago è IDENTICO!!
Item qui sul mio portatile... Non noto differenze a me paiono identiche :(
Cmq per quanto riguarda quelle foto c'è scritto che non sono molto attendibili xché sono state compresse e pure in maniera diversa.
Quelle ati sono + compresse mi pare.
ohmaigod
13-05-2007, 16:54
http://resources.vr-zone.com.sg/Shamino/r600launch/15.jpg
bonzuccio
13-05-2007, 16:55
Cmq per quanto riguarda quelle foto c'è scritto che non sono molto attendibili xché sono state compresse e pure in maniera diversa.
Quelle ati sono + compresse mi pare.
Se sono state compresse allora non è che non sono molto attendibili.. sono FUORVIANTI!!
http://resources.vr-zone.com.sg/Shamino/r600launch/15.jpg
Mannaggia a voi, v'ho detto di upparle su un altro host... che so imageshack.
Dice forbidden quando si cerca di aprirla...
Va bon, menomale che ho salvato tutto quello che sono riuscito ad aprire. :)
Se sono state compresse allora non è che non sono molto attendibili.. sono FUORVIANTI!!
E' quello che stavo cercando di dirti. :P
halduemilauno
13-05-2007, 16:59
http://davixtreme.altervista.org/x2900_nwn_oblivion_files/116.jpg
http://davixtreme.altervista.org/x2900_nwn_oblivion_files/117.jpg
http://davixtreme.altervista.org/x2900_nwn_oblivion_files/118.jpg
http://davixtreme.altervista.org/x2900_nwn_oblivion_files/121.jpg
http://davixtreme.altervista.org/x2900_nwn_oblivion_files/120.jpg
http://davixtreme.altervista.org/x2900_nwn_oblivion_files/119.jpg
http://davixtreme.altervista.org/x2900_nwn_oblivion_files/122.jpg
http://davixtreme.altervista.org/x2900_nwn_oblivion_files/123.jpg
Cancellate le foto che sono in merito alla pagina concernente neverwinternight e oblivion e quelle su 3dmark perché le ho salvate us altervista.
E' inutile imbordellare il thread.
bonzuccio
13-05-2007, 17:01
non si vede nulla
halduemilauno
13-05-2007, 17:02
Cancellate le foto che sono in merito alla pagina concernente neverwinternight e oblivion e quelle su 3dmark perché le ho salvate us altervista.
E' inutile imbordellare il thread.
le ho postate nel mio intervento precedente. ma ora non si vedono più.
le ho postate nel mio intervento precedente. ma ora non si vedono più.
Basta che aprite i 2 link mannaggia a voi:
http://davixtreme.altervista.org/x2900_3dmark2006.html
http://davixtreme.altervista.org/x2900_nwn_oblivion.html
Una è la pagina col 3dmark l'altra quella di oblivion e nwn.
Ho scaricato le pagine intere... le altre non sono riuscito a scaricarle, adesso il sito è inacessibbile.
Meglio di niente, in merito all'overclock dice solo che guadagna un 18% cmq... alla fine overclockandola si ottengono prestazioni analoghe alla gtx solo che la gtx sappiamo tutti quanto costa anche se ovviamente overclockando una gtx si ottiene ancora di + ^^
ohmaigod
13-05-2007, 17:07
non si vedono + le immagini...
Power Consumption of Total System Idle Load
0
PowerColor HD X2900XT 245 watts 365 watts
Inno3D 8800GTX 575/900MHz 250 watts 348 watts
ASUS EN8800GTS 640MB 513/792MHz 240 watts 300 watts
EVGA 8800GTS 320MB Superclocked 576/850MHz 235 watts 276 watts
ASUS EN1950XTX 195 watts 325 watts
ale0bello0pr
13-05-2007, 17:07
:mbe: non si vede nulla
e questo cosa sarebbe?
:mbe:
e questo cosa sarebbe?
Ao? ma mi ascoltate? Aprite i link che vi ho dato.
Le immagini non si vedono + xché probabilmente la recenzione doveva essere aperta domani e qualcuno, provando nomi di pagine in continuazione, ha trovato il nome della pagina della recenzione.
Conseguentemente adesso il sito è down per evitare guai con AMD.
Cmq, se quella era la recenzione, ripeto sti cazzi.
E' fatta con driver olderrimi e non si capisce se i test sono stati fatti con un sample (versione dimostrativa data alle testate) oppure è una versione retail.
La retail a detta di Kinc sale di + della sample e scalda meno. :)
Di conseguenza sta rece non vale 1 cazzo... :D
ohmaigod
13-05-2007, 17:10
It is slightly off tradition that the GPU company's flagship product sails off not to meet the flagship of it's competitor, but one target lower. Then again, the lower we go down the price pyramid, the bigger the audience, more people with the budget to spend. I'd say that there is no clear winner between the 8800 GTS and X2900XT, the GTS displayed more consistent performance behavior while the X2900XT fluctuates around due to the in-matured driver. I would say that despite the heat thrown out by the GPU, the X2900XT overclocks better than the 8800GTS by 8-10%, but that's putting out a lot more heat and drawing more power than it already consumes. So this is something potential XT buyers should take note of, the heat produced by the card is no small amount, nor is the power consumed by it - more than 60w over the GTS. What you would be investing in is a higher potential of upcoming performance boosts (including the latest pre-Alpha 8.37.4.2_47323 Catalyst just released 3 days before this review) and full HDCP support with integrated audio controller. And of course the new programmable Tessellation technology which we will probably not see support in games until much later.
halduemilauno
13-05-2007, 17:10
Basta che aprite i 2 link mannaggia a voi:
http://davixtreme.altervista.org/x2900_3dmark2006.html
http://davixtreme.altervista.org/x2900_nwn_oblivion.html
Una è la pagina col 3dmark l'altra quella di oblivion e nwn.
Ho scaricato le pagine intere... le altre non sono riuscito a scaricarle, adesso il sito è inacessibbile.
Meglio di niente, in merito all'overclock dice solo che guadagna un 18% cmq... alla fine overclockandola si ottengono prestazioni analoghe alla gtx solo che la gtx sappiamo tutti quanto costa anche se ovviamente overclockando una gtx si ottiene ancora di + ^^
lo so ho fatto appena in tempo a vederla tutta o quasi. cmq grazie a nome di tutti.
;)
halduemilauno
13-05-2007, 17:11
It is slightly off tradition that the GPU company's flagship product sails off not to meet the flagship of it's competitor, but one target lower. Then again, the lower we go down the price pyramid, the bigger the audience, more people with the budget to spend. I'd say that there is no clear winner between the 8800 GTS and X2900XT, the GTS displayed more consistent performance behavior while the X2900XT fluctuates around due to the in-matured driver. I would say that despite the heat thrown out by the GPU, the X2900XT overclocks better than the 8800GTS by 8-10%, but that's putting out a lot more heat and drawing more power than it already consumes. So this is something potential XT buyers should take note of, the heat produced by the card is no small amount, nor is the power consumed by it - more than 60w over the GTS. What you would be investing in is a higher potential of upcoming performance boosts (including the latest pre-Alpha 8.37.4.2_47323 Catalyst just released 3 days before this review) and full HDCP support with integrated audio controller. And of course the new programmable Tessellation technology which we will probably not see support in games until much later.
gia postato.
;)
Danielao
13-05-2007, 17:11
Meglio di niente, in merito all'overclock dice solo che guadagna un 18% cmq... alla fine overclockandola si ottengono prestazioni analoghe alla gtx solo che la gtx sappiamo tutti quanto costa anche se ovviamente overclockando una gtx si ottiene ancora di + ^^
secondo me è il solito fake..come fa Ati a fare una scheda così? Visto che sembra che si overclokki con estrema facilità non sarebbe stato logico venderla già con un clock più elevato?
Ovviamente IHMO
con quali driver l'hanno testata?
secondo me è il solito fake..come fa Ati a fare una scheda così? Visto che sembra che si overclokki con estrema facilità non sarebbe stato logico buttarla fuori già con un clock più elevato?
Ovviamente IHMO
con quali driver l'hanno testata?
Andando a senso credo che il problema sia il processo produttivo.
La scheda scalda molto, probabilmente avrebbero potuto mettere un raffreddamento a liquido per risolvere momentaneamente il problema ma a questo punto le cose sono 2:
- avrebbero potuto esserci maggiori ritardi per approvigionarsi di questi kit a liquido;
- chi si sarebbe comprato la versione a 65nm?
X quanto concerne i driver c'è scritto 8.36 e 8.37 mi pare.
ale0bello0pr
13-05-2007, 17:18
VR ZONE mi ha altamente deluso...:fagiano:
ohmaigod
13-05-2007, 17:22
I first took a look to see if the Anisotropic Filtering on the X2900XT is any better than the AF on the X1950XTX and the 8800 series' AF, on a RTS game such as Company Of Heroes. Game ran at maximum quality with 16x AF (High Quality) and 1600 x1200:
http://img441.imageshack.us/img441/6513/70td6.jpg
Results seem almost indistinguishable, even at a blown up look such as this. If one tries to knit pick, it seems that the filtering is only slightly rougher on the ATi where by the transition in color is very slightly less smoother than the NVIDIA, from one pixel to the next.
Of course, I was quite interested to compare the Image Quality between the X2900XT and the 8800 series. The 8800GTS 640MB was employed, it represents the image quality of the 8800 as good as any. First, Oblivion at 1600 x 1200, 16x AF, Best Anti-Aliasing Settings used on both cards - Wide Tent 16x Sampling on ATi and 16x Quality on NVIDIA.
http://img231.imageshack.us/img231/6149/73fa9.jpg
As seen on Company Of Heroes, the quality is so close it's rather tough to distinguish. Similarly, the filtering seems to be slightly rougher on the ATi, I'm leaning a bit towards the preference of NVIDIA's filtering which comes across slightly smoother. But more scenes and checks must be conducted.
http://img489.imageshack.us/img489/7061/74xw9.jpg
http://img489.imageshack.us/img489/8664/75xs3.jpg
http://img489.imageshack.us/img489/1566/76lg9.jpg
Mister Tarpone
13-05-2007, 17:22
secondo me è il solito fake..come fa Ati a fare una scheda così? Visto che sembra che si overclokki con estrema facilità non sarebbe stato logico venderla già con un clock più elevato?
Ovviamente IHMO
con quali driver l'hanno testata?
con un clock più elevato sarebbero aumentati anche i consumi però...che se non sbaglio sono già molto alti di default :stordita:
:fagiano: :fagiano:
pierluigi86
13-05-2007, 17:24
VR ZONE mi ha altamente deluso...:fagiano:
ma ki? vr zone o ati???
ohmaigod
13-05-2007, 17:24
Page Title: Image Quality: Anisotropic Filtering Continued
Category: GPUs & Graphic Cards
Type: Reviews
Posted By: Shamino
Date: May 14, 2007, 3:55 am
Source: ATi
Actions: Print Article Email Del.icio.us Digg
To be crazier, I put the 2 "horsies side by side". Remember, this is a banner hanging on the wall like 20 in-game meters away from me and 3 stories high up. To be zooming in like this is kind of ridiculous, but what the heck!
http://img259.imageshack.us/img259/6424/78vo2.jpg
No clear conclusion, but if you look more towards the left of the horse, you may find that the lines on the head, mouth leg, seem to be a little sharper on the NVIDIA.
Do you like vegetation? Oh, I love vegetation! 3D rendered ones especially!
http://img102.imageshack.us/img102/1733/79sz6.jpg
Vegetation seems to be a fair bit more different. Here, you can acutely see that the 8800GTS renders the closer bunch of leaves sharper, yet rougher. There's a clearer distinction in colors of bunches of leaves on the GTS. This may also mean slightly more aliasing with the resultant effect being some "texture swimming" during movements of your character or as the wind blows.
How about in another more popular game, such as Battlefield 2142? Also ran at 1600 x 1200, 16x AF, Best Anti-Aliasing Settings - Wide Tent 16x Sampling on ATi X2900XT and 16x Quality on NVIDIA.
http://img102.imageshack.us/img102/2198/85nj2.jpg
At normal view screen size you can already tell the difference. Look at the gun, that's closest to your character, you can see it starkly sharper on the 8800 compared to the 2900. Notice especially the words and buttons on the gun. Words are sharper and so are the finer details on the buttons on the card below. Even the dirt track further away from the character looks sharper rendered on the 8800.
ohmaigod
13-05-2007, 17:25
con un clock più elevato sarebbero aumentati anche i consumi però...che se non sbaglio sono già molto alti di default :stordita:
:fagiano: :fagiano:
http://www.hwupgrade.it/forum/showpost.php?p=17105490&postcount=687
bonzuccio
13-05-2007, 17:26
:mbe:
e questo cosa sarebbe?
Questo cosa?
Il tuo pc non funziona bene :asd:
ohmaigod
13-05-2007, 17:27
Page Title: Image Quality: Wide-Tent Anti-Aliasing
Category: GPUs & Graphic Cards
Time to look at Anti-Aliasing Image Quality. To recap, we're running Oblivion at 1600 x 1200, 16x AF, Best Anti-Aliasing Settings used on the 3 cards - Wide Tent 16x Sampling on ATi X2900XT and 6x maximum AA on X1950XTX and 16x Quality on NVIDIA.
But what I really want to see more of is 2900 vs 8800:
http://img520.imageshack.us/img520/8746/83nl7.jpg
In terms of Jaggie-elimination Anti-Aliasing, the maximum capability of the X2900XT is very close to the capability of the 8800GTS. Remember, this is 16x Sampling Wide-Tent AA at 8x Level versus 16x Quality AA.
http://img520.imageshack.us/img520/6411/84dg3.jpg
Ah yes, we can see quite a difference now. The Anti-Aliasing is better on the 2900 card as compared to the 8800 card when both is set to run the maximum AA capability.
Well, it does seem that there is an Image Quality Improvement on the X2900XT cards as compared to previous generation X1950 cards. The X2900 outshines the GeForce 8800 in Anti-Aliasing Quality slightly, while the Anisotropic Filtering on the 8800 still seems to be a little more accurate compared to the X2900XT.
ho tolto la x1950xtx
Danielao
13-05-2007, 17:28
capito..aspettiamo il 15 e vediamo come si comporta con una demo DX10
Mister Tarpone
13-05-2007, 17:29
http://www.hwupgrade.it/forum/showpost.php?p=17105490&postcount=687
:sob:
ohmaigod
13-05-2007, 17:29
Let's overclock this card and make it hotter than it already is! On the default cooling, I got her up to 850MHz Core, 1000MHz Memory:
http://img504.imageshack.us/img504/4453/60lj8.jpg
ma vi funziona il sito? :confused:
Anche Tweaktown ha pubblicato la sua rece, fatta però con gli 8.36 (ancora peggio).
http://www.tweaktown.com/articles/1100/ati_radeon_hd_2900_xt_amd_s_long_awaited_r600_dx10_gpu_arrives/index.html
Uhm, ma Shamino aveva firmato l'NDA? Come mai ha postato la review in anticipo? :mbe:
Purtroppo fin quando non si vedranno reviews fatte con drivers 8.38 o superiori non si potranno dare giudizi definitivi. Inoltre sono molto curioso di vedere i test DX10.
capito..aspettiamo il 15 e vediamo come si comporta con una demo DX10
alla fine non si capisce chi sia il vincitore per come è stata realizzata la recensione.
halduemilauno
13-05-2007, 17:29
per quanto riguarda l'oc a 850/2000 ottiene 11896. parziali 5081, 5738. a 880/2060 ottiene 11953. parziali 5246, 5926.
;)
ale0bello0pr
13-05-2007, 17:31
Questo cosa?
Il tuo pc non funziona bene :asd:
ma se c'erano scritti una caterva di simboogie strane..poi ha editato
:muro:
Mister Tarpone
13-05-2007, 17:31
http://img102.imageshack.us/img102/2198/85nj2.jpg
qui pare meglio l'immagine della gts, sinceramente... sembra che l'aa della ati sfochi un pò tutto.... :fagiano:
VR ZONE mi ha altamente deluso...:fagiano:
Shamino mi aveva già deluso quando aveva dato ad intendere che la 8600GTS andava meglio di una 7900GT (ma quando mai :asd: ).
Danielao
13-05-2007, 17:32
ma questi l'NDA non l'avevano firmato?
per quanto riguarda l'oc a 850/2000 ottiene 11896. parziali 5081, 5738. a 880/2060 ottiene 11953. parziali 5246, 5926.
;)
Spero solo che la recensione di HW l'abbiano rifatta alla luce dei driver nuovi e spero che l'abbiano fatta con una retail piuttosto che con 1 sample
bonzuccio
13-05-2007, 17:32
Page Title: Image Quality: Anisotropic Filtering Continued
Category: GPUs & Graphic Cards
Type: Reviews
Posted By: Shamino
Date: May 14, 2007, 3:55 am
Source: ATi
Actions: Print Article Email Del.icio.us Digg
To be crazier, I put the 2 "horsies side by side". Remember, this is a banner hanging on the wall like 20 in-game meters away from me and 3 stories high up. To be zooming in like this is kind of ridiculous, but what the heck!
http://img259.imageshack.us/img259/6424/78vo2.jpg
No clear conclusion, but if you look more towards the left of the horse, you may find that the lines on the head, mouth leg, seem to be a little sharper on the NVIDIA.
Do you like vegetation? Oh, I love vegetation! 3D rendered ones especially!
http://img102.imageshack.us/img102/1733/79sz6.jpg
Vegetation seems to be a fair bit more different. Here, you can acutely see that the 8800GTS renders the closer bunch of leaves sharper, yet rougher. There's a clearer distinction in colors of bunches of leaves on the GTS. This may also mean slightly more aliasing with the resultant effect being some "texture swimming" during movements of your character or as the wind blows.
How about in another more popular game, such as Battlefield 2142? Also ran at 1600 x 1200, 16x AF, Best Anti-Aliasing Settings - Wide Tent 16x Sampling on ATi X2900XT and 16x Quality on NVIDIA.
http://img102.imageshack.us/img102/2198/85nj2.jpg
At normal view screen size you can already tell the difference. Look at the gun, that's closest to your character, you can see it starkly sharper on the 8800 compared to the 2900. Notice especially the words and buttons on the gun. Words are sharper and so are the finer details on the buttons on the card below. Even the dirt track further away from the character looks sharper rendered on the 8800.
Non sono gli stessi frame, dei cavalli si vede chiaramente come il rametto a sinistra non sono gli stessi, stessa cosa delle pistole che sono orientate diversamente, non so cosa abbiano voluto dire degli alberi (sulla 8800 manca un pezzo sopra) ma preferisco quella ati più definita
ma questi l'NDA non l'avevano firmato?
Sì, ma ci sono i simpaticoni che provano i link, con dei programmi probabilmente, e li mettono su dei forum credo.
Le recensioni questi le preparano e le mettono on-line in anticipo poi quando arriva il giorno fatidico mettono sul sito il link.
ale0bello0pr
13-05-2007, 17:34
Shamino mi aveva già deluso quando aveva dato ad intendere che la 8600GTS andava meglio di una 7900GT (ma quando mai :asd: ).
adesso glielo dico su ICQ che diavolo ha combinato:muro:
Tidus.hw
13-05-2007, 17:34
ciao, stavo pensando di prendere la hd2900 entro un mesetto, un dubbio mi è sorto per l'alimentatore xD
io ora ho un tagan 480w, che ovviamente non basterà di sicuro, specialmente con la cpu overclockata, che ali mi consigliate???
io avevo pensato a un lc power da 420w solo per la radeon, ma poi gli adattatori dove li trovo? o è meglio se vendo il mio e me ne prendo uno di più potente?
altra cosa.. che ali ci sono in commercio che hanno i connettori che servono alla hd2900?
...da questa pre-review e dalle parole di shamino su altro forum mi giunge la conferma che i driver ricoprono un ruolo importantissimo con R600. Inutile negarlo. In alcune situazioni l'aumento di fps dai 8.36 agli 8.37 è tangibile se non notevole (CoH)!
E' impossibile dare giudizi sulla qualità visiva perchè gli screen di R600 pesano 100Kb mentre quelli di G80 600/700Kb...la differenza qualitativa dei due jpg annulla ogni valutazione.
Gli ultimi driver sono gli 8.38 che avevo messo nel thread ormai chiuso.
Vi invito ad osservare con più attenzione i test Vertex Shader Complex e Perlin Noise (basato sullo shader model 3.0 e su un massiccio uso di calcoli): imho R600 deve ancora fare vedere di cosa è capace.
...ciao!
bonzuccio
13-05-2007, 17:36
ma se c'erano scritti una caterva di simboogie strane..poi ha editato
:muro:
ihihihihi t'ho fregato ihihh :ciapet:
ciao, stavo pensando di prendere la hd2900 entro un mesetto, un dubbio mi è sorto per l'alimentatore xD
io ora ho un tagan 480w, che ovviamente non basterà di sicuro, specialmente con la cpu overclockata, che ali mi consigliate???
io avevo pensato a un lc power da 420w solo per la radeon, ma poi gli adattatori dove li trovo? o è meglio se vendo il mio e me ne prendo uno di più potente?
altra cosa.. che ali ci sono in commercio che hanno i connettori che servono alla hd2900?
Io ho preso da tiburcc, e mi è arrivato in un giorno, il galaxy 1000W della enermax.
Mister Tarpone
13-05-2007, 17:37
Non sono gli stessi frame, dei cavalli si vede chiaramente come il rametto a sinistra non sono gli stessi, stessa cosa delle pistole che sono orientate diversamente, non so cosa abbiano voluto dire degli alberi (sulla 8800 manca un pezzo sopra) ma preferisco quella ati più definita
nella prima immagine la qualità è identica ;) nelle altre due però, è molto più definita con la gts........... :fagiano:
Danielao
13-05-2007, 17:37
erano gli 8.38 i driver delle meraviglie? e non li usa nessuno?
:mc:
Tidus.hw
13-05-2007, 17:39
Io ho preso da tiburcc, e mi è arrivato in un giorno, il galaxy 1000W della enermax.
troppo al di fuori della mia portata, sui 120-130 euro c'è niente?
ale0bello0pr
13-05-2007, 17:40
...da questa pre-review e dalle parole di shamino su altro forum mi giunge la conferma che i driver ricoprono un ruolo importantissimo con R600. Inutile negarlo. In alcune situazioni l'aumento di fps dai 8.36 agli 8.37 è tangibile se non notevole (CoH)!
E' impossibile dare giudizi sulla qualità visiva perchè gli screen di R600 pesano 100Kb mentre quelli di G80 600/700Kb...la differenza qualitativa dei due jpg annulla ogni valutazione.
Gli ultimi driver sono gli 8.38 che avevo messo nel thread ormai chiuso.
Vi invito ad osservare con più attenzione i test Vertex Shader Complex e Perlin Noise (basato sullo shader model 3.0 e su un massiccio uso di calcoli): imho R600 deve ancora fare vedere di cosa è capace.
...ciao!
quelli di tweaktown con 8.36 bah
Tidus.hw
13-05-2007, 17:40
erano gli 8.38 i driver delle meraviglie? e non li usa nessuno?
:mc:
sono usciti da pochissimo quando tutti o quasi avevano terminato le recensioni...
quelli di tweaktown con 8.36 bah
...che, se non sbaglio, sono i driver presenti sul CD. Imho chi era a Tunisi ha ricevuto altri driver...
:)
bonzuccio
13-05-2007, 17:42
nella prima immagine la qualità è identica ;) nelle altre due però, è molto più definita con la gts........... :fagiano:
A parte che l'immagine è croppata perchè hai pezzi differenti degli alberi
sui colori si può dire qualcosa e se guardi bene hai molte più sfumature di verde nella ati :read:
ohmaigod
13-05-2007, 17:42
When I first started testing the card, I was using the 8.36 Catalyst Drivers.
http://img266.imageshack.us/img266/8131/51ku4.jpg
Then after I have finished running the test runs for the X2900XT, the 8.37 came and I had to rerun everything.
http://img266.imageshack.us/img266/8396/52wz7.jpg
Thus, I took the chance to also compare the difference between these two slight Driver update. On the 8.37, there is no option of the 'High Quality' under AF options with the X2900XT while there is on the 8.36. There is the option when I put in the X1950XTX as well.
http://img476.imageshack.us/img476/3414/86sm2.jpg
http://img476.imageshack.us/img476/4441/87ur3.jpg
Seeing that the High Quality option for Anisotropic filtering was missing on the X2900XT on the 8.37 Drivers when it was present on the 8.36 drivers, I guessed that AF was automatically set at best quality when enabled for the X2900XT on this new set of drivers. So I ran a check between the 2 drivers with Oblivion to check out the Anisotropic Filtering. 1600x1200, 16x AF (High Quality when option was there), Temporal Anti-Aliasing at 8x Level and Wide-Tent Filter set at 16x Sampling.
http://img338.imageshack.us/img338/6118/71ca0.jpg
The Filtering on the 8.37 is definitely at least on par or even better than the High Quality setting on the 8.36. You get the faint impression that textures seem to be slightly more detailed on the 8.37. So I didn't really care that the High Quality Option was missing on the 8.37 drivers with the X2900XT.
Platform Test Setup
CPU
Intel Core 2 Duo Extreme Edition X6800 Overclocked @ 9 x 366MHz = 3.3GHz
Motherboard
ASUS P5K Deluxe (Intel P35 Chipset)
Memory
2 x 1GB GSkill F2-8000PHU2-2GBHZ DDR II set to run @ CL5-5-5-15, DDR2 915MHz, 5:4 Divider
Graphics Card
ATi HD X2900XT 743/828MHz
ASUS EN8800GTS 640MB 513/792MHz Inno3D 8800GTX 575/900MHz EVGA 8800GTS 320MB Superclocked 576/860MHz ASUS 1950XTX 648/1000MHz
USD$399 USD$399 USD$529 USD$299 USD$433
Hard Disk Drive
Seagate 80GB, 250GB Barracuda SATA Hard Disk Drives
PSU
SilverStone Zeus ST85ZF
Operating System
Windows XP Pro
One look and you can tell which segment this video card is gunning for: the USD$399 price point where the GeForce 8800 GTS resides, it's direct competitor.
Drivers Used on X2900XT and X1950XTX is Catalyst 8-37-4-070419a. Drivers used for 8800GTS 320/640MB and 8800GTX is Forceware 158.22.
MipMap Detail setting on all drivers set to maximum level of High Quality. 16x Anisotropic Filtering was turned on.
As of time of testing, we did not have the latest build just issued out 3 days before NDA was lifted. We were running 8-37-4-070419a.
The latest 8.37.4.2_47323 drivers is supposed to implement a new intelligent algorithm that increases FPS while applying similar image quality when running Adaptive Anti-Aliasing. In Oblivion, performance several times faster than previous drivers using the new adaptive AA algorithm was claimed to have been acheived. New optimizations for HDR applications in general resulted in a 5-30% increase in performance.
The 8.37.4.2_47323 is actually a pre-alpha driver, but it includes a preview of new 12xAA and 24xAA modes. These modes use an advanced edge detection filter that delivers edge quality while eliminating blurring.
I consumi della X2600XT sono da :sbav: immagino come va in oc :eek:
nella prima immagine la qualità è identica ;) nelle altre due però, è molto più definita con la gts........... :fagiano:
...l'immagine non è assolutamente identica. Non bisogna farsi trarre in inganno dalla sfocatura perchè l'immagine è zoomata. L'AA sembra migliore con R600 (ed infatti lo riporta anche l'autore, la scalettatura di R600 è meno accentuata), mentre l'AF sembra migliore in G80. Comunque i due screenshot non sono nello stesso punto, soprattutto quello dell'arma...andrebbero fatti nello stesso identico modo.
:)
capitan_crasy
13-05-2007, 17:50
Recensione della ASUS EAH2900XT 512MB su OCW!!!
Clicca qui (http://www.ocworkbench.com/2007/asus/EAH2900XT/g1.htm)
ale0bello0pr
13-05-2007, 17:51
troppo al di fuori della mia portata, sui 120-130 euro c'è niente?
http://i11.photobucket.com/albums/a154/eastcoasthandle/AVATAR/www_druzi_ru_669_0_20060423_3800.gif
hai sbagliato thread cmq va bene anche un Toughpower 750 W
Date: May 14, 2007, 3:55 am
come avevo supposto io, a questo punto. :boh:
ale0bello0pr
13-05-2007, 17:55
Recensione della ASUS EAH2900XT 512MB su OCW!!!
Clicca qui (http://www.ocworkbench.com/2007/asus/EAH2900XT/g1.htm)
8.37 beta
:muro:
Recensione della ASUS EAH2900XT 512MB su OCW!!!
Clicca qui (http://www.ocworkbench.com/2007/asus/EAH2900XT/g1.htm)
Conclusion
ASUS has delivered the first graphics card based on the reference design of the ATi HD RADEON 2900XT. Although they look alike, the package has more in house applications bundled and the game Stalker is given as part of the package.
In terms of performance, this card is run on a standard 965P board and found to be performing well in areas of synthetic benchmarks. When it comes to real games, running them with AA/AF at high resolutions, the card gave some better results when compared to the NV's 8800GTX. This is probably due to a 512 bits memory controller instead of 384bits on 8800GTX.
On the other hand, this card requires a better PSU to power it. ATI will be putting up a recommended list of PSU on its site. As it is based on a 80nm manufacturing process, the GPU is quite hot. Although we are unable to detect the actualy GPU temperature, measurements made around the card in the previous page shows that it is estimated to be around 50-60 deg on load.
For the HDTV buffs, this card simplifies the cabling or requirement of an addtional graphics card for sound output. The bundled DVI-HDMI connector is able to deliver the audio through the DVI-HDMI interface to your LCD TV.
During our test, DOOM3 failed to run with driver 8.37, we have to go back to ver 8.361 provided to get it working. Drivers are most likely to be in the works to rectify some bugs with 3Dmark05, 3Dmark06 and some games. We would expect the final driver to get all these fixed.
Overall, the EAH2900XT should most likely be priced around the price range of USD 399 (for OEM cards). That is cheaper than the 8800GTX. If you are one that goes for the best image quality, the ASUS EAH2900XT based on Radeon HD 2900XT would be a good choice not only for your 3D games at high resolutions, but also for HDTV guys who wants the ease to playback HD DVD and Blu Ray in the near future.
ps. grafici illeggibili...ho male agli occhi! :D
ohmaigod
13-05-2007, 18:03
As said before, I had results from both the Catalyst 8.36 and Catalyst 8.37 Drivers. How did performance improve between this small driver jump of 0.01 version?
http://img160.imageshack.us/img160/1034/58it0.jpg
Taking a setting at 1600x1200 with 16xAF, I saw a major increase in performance, particularly Company Of Heroes and Quake 4. Performance went up by 11% on COH and 42% on Quake 4! This shows that the drivers is still very raw on this card, with just a minor driver revision boosting up performance that much, it gives us quite a lot of hope for a fair bit of improvement to come. Let's hope for that!
Conclusion
*
Anche qui, la morale della favola è che i driver fanno cagare per cui dobbiamo vedere una recensione con gli 8.38 almeno.
Ma dico io, cazzo le mettono a fare ste recensioni che sono inutili?
Bah, oggi mi sto scimmiando con ste recensioni.
Cmq mettete dei link agli store che ce l'hanno in Italia che mi compro questa asus?
Manco su ebay la trovo
avete trovato x caso una rece su x2600xt :stordita:
Mister Tarpone
13-05-2007, 18:08
avete trovato x caso una rece su x2600xt :stordita:
già... :stordita: ho paura che toccherà aspettare ancora un pò... :stordita:
Anche qui, la morale della favola è che i driver fanno cagare per cui dobbiamo vedere una recensione con gli 8.38 almeno.
...si, utilizzare gli 8.38 sarebbe l'ideale, ma già con gli 8.37, secondo questa recensione, la situazione performance non è male:
In terms of performance, this card is run on a standard 965P board and found to be performing well in areas of synthetic benchmarks. When it comes to real games, running them with AA/AF at high resolutions, the card gave some better results when compared to the NV's 8800GTX. This is probably due to a 512 bits memory controller instead of 384bits on 8800GTX.
...aspettiamo recensioni da altri siti "preferiti". :)
halduemilauno
13-05-2007, 18:11
8.37 beta
:muro:
prenditela con ati o con amd se preferisci. tanto con/dopo 6 mesi e 6 giorni di ritardo potevano mettercene altri 6 giorni a questo punto. non ci si può ridurre ad aspettare il penultimo giorno. hanno fissato loro la data del 14.
a sto punto aspettiamo le altre rece.
;)
già... :stordita: ho paura che toccherà aspettare ancora un pò... :stordita:
@zzo sarò fuori x 1settimana a fare il corso di merchandising ect alla Coca-Cola in :ciapet: del mondo..
Spero solo ke abbiano internet in albergo :mc:
Inoltre sono molto curioso di vedere i test DX10.
...recensione della più importante rivista tedesca, guarda in basso a destra:
http://img258.imageshack.us/img258/700/site2pt2.jpg (http://imageshack.us)
...ciao! :)
ps. prezzo in Germania 380€
Mister Tarpone
13-05-2007, 18:23
...recensione della più importante rivista tedesca, guarda in basso a destra:
...ciao! :)
ps. prezzo in Germania 380€
ho capito. in dx10 sta scheda sarà molto superiore alle gts e gtx :) :) :)
Li mortacci se in DX10 sembra andare bene...
ho capito. in dx10 sta scheda sarà molto superiore alle gts e gtx :) :) :)
hai visto ;) Ora da vedere come va X2600XT, altrimenti aspetto X2900pro/gt
Li mortacci se in DX10 sembra andare bene...
va il doppio della GTX/Ultra
ho capito. in dx10 sta scheda sarà molto superiore alle gts e gtx :) :) :)
...e se con i driver dagli 8.38 in poi raggiunge o supera la 8800gtx in dx9, ci possiamo aspettare che le 2600xt (che già sono, per numero di shader in proporzione al top di gamma, messe meglio delle 8600) saranno non solo decisamente meglio delle 8600, ma anche più "longeve" in virtù di un'architettura più orientata al futuro.
Però butta male, se l'andazzo è quello del paio di recensioni viste finora, sulle 2600xt nemmeno una parola... o i driver proprio non le supportano oppure se ne sono fregati tutti :cry:
Mister Tarpone
13-05-2007, 18:35
hai visto ;) Ora da vedere come va X2600XT, altrimenti aspetto X2900pro/gt
meglio delle 8600 ;) sia in dx9 che in dx10 :oink:
spero di non sbagliarmi....... :fagiano:
ho la bruttissima sensazione che neanche con le recensioni di domani saranno fugati i dubbi. driver immaturi (non posso che quotare hal, amd si è presa indietro anche con quelli :rolleyes: ), dx10, ancora troppe incognite.
Danielao
13-05-2007, 18:36
va il doppio della GTX/Ultra
Due giorni e proviamo Lost Planet
Soulbringer
13-05-2007, 18:36
Cavolo in dx10 sembra promettere molto bene..e cmq in dx9 le prestazioni sono molto convincenti. Considerando i driver acerbi cmq alle alte risoluzioni va + di una gtx..e costa meno di 400€!Incredibile..
Mister Tarpone
13-05-2007, 18:39
...e se con i driver dagli 8.38 in poi raggiunge o supera la 8800gtx in dx9, ci possiamo aspettare che le 2600xt (che già sono, per numero di shader in proporzione al top di gamma, messe meglio delle 8600) saranno non solo decisamente meglio delle 8600, ma anche più "longeve" in virtù di un'architettura più orientata al futuro.
completamente d'accordo :oink: :mano:
Però butta male, se l'andazzo è quello del paio di recensioni viste finora, sulle 2600xt nemmeno una parola... o i driver proprio non le supportano oppure se ne sono fregati tutti :cry:
già....mi sta prendendo male anche a me sta situazione... :mad: voglio una rece al più presto!!!! :oink:
...non credo sia corretto dare un giudizio definitivo oggi sul comportamento di G80 e R600 con le DX10. Perchè abbiamo solo quel test fatto con le DX10 SDK e Windows Vista. Comunque in quel test la R600 va molto molto bene. ;)
In ottica futura, come dicevo, molto interessante anche i test Vertex Shader Complex e Perlin Noise (basato sullo shader model 3.0 e su un massiccio uso di calcoli).
:)
gia immagino come sarà affollato il mercatino con certe schede :D .., anzi do una occhiata ora :sofico: :ciapet:
Due giorni e proviamo Lost Planet
Non vedo l’ora :eek:
Due giorni e proviamo Lost Planet
Dubito fortemente che un gioco, il cui sviluppo sul pc è stato seguito esclusivamente dagli ingegneri nVidia, sia un metro di paragone valido per giudicare le performance di una scheda Ati :D
Danielao
13-05-2007, 18:43
Dubito fortemente che un gioco, il cui sviluppo sul pc è stato seguito esclusivamente dagli ingegneri nVidia, sia un metro di paragone valido per giudicare le performance di una scheda Ati :D
be non hai torto ma sempre meglio di niente.
meglio delle 8600 ;) sia in dx9 che in dx10 :oink:
spero di non sbagliarmi....... :fagiano:
Secondo me va come una x1950xt e in + DX10 full per giocare 1280x1024 dovrebbe bastare :sperem:
Dando un occhiata in giro ho trovato uno zip contenente una pagina di vr dedicata al filtro anisotropico e all'antialiasing dell'x2900. :)
Qui purtroppo nvidia sta avanti.
http://davixtreme.altervista.org/x2900_antialiasing.htm
Sto finendo di uppare le foto
Posso anche non upparle + perché tanto adesso il sito funziona.
be non hai torto ma sempre meglio di niente.
Vero, meglio che niente, ma non ci si possono certo tirare conclusioni: qui l'ottimizzazione è molto più spudorata di quella che c'era in HL2 (pro Ati) e Doom3 (pro nVidia). Mi fido di più dei test con le sdk, o aspetto il prossimo demo dx10, perchè con Lost Planet è come andare dalla suocera a chiedere quanto è brava la nuora...
Vero, meglio che niente, ma non ci si possono certo tirare conclusioni: qui l'ottimizzazione è molto più spudorata di quella che c'era in HL2 (pro Ati) e Doom3 (pro nVidia). Mi fido di più dei test con le sdk, o aspetto il prossimo demo dx10, perchè con Lost Planet è come andare dalla suocera a chiedere quanto è brava la nuora...
Comunque domani ci saranno delle grosse sorprese in positivo:
http://www.nordichardware.com/forum/3-vt8428.html?start=50
Questo è quanto mi hanno appena detto.
...recensione della più importante rivista tedesca, guarda in basso a destra:
..cut..
...ciao! :)
ps. prezzo in Germania 380€
Grazie per aver trovato la pagina... I risultati li avevo già postati io nell'altro thread. Ovviamente, chissà perchè, secondo molti erano fake. :rolleyes:
Divertente notare come sul thread della 8800GTX si inizino a leggere commenti tipo "chissene frega delle DX10"... :asd:
bonzuccio
13-05-2007, 19:04
..Se quelle prestazioni in DX10 verranno confermate ci saranno acquirenti di G80 piuttosto incazzati, vista la spesa non irrilevante fatta anche e giustamente in prospettiva.
Sono spariti tutti.. :eek:
Mister Tarpone
13-05-2007, 19:05
Sono spariti tutti.. :eek:
azz... :eek:
Se il buongiorno si vede dal mattino prenderò la HD2600XT, ammesso che costi relativamente poco (200€, non di più, altrimenti aspetterò i refresh delle due top e deciderò, di certo non ho fretta, visto che non ne ho avuta fin'ora).
Se quelle prestazioni in DX10 verranno confermate ci saranno acquirenti di G80 piuttosto incazzati, vista la spesa non irrilevante fatta anche e giustamente in prospettiva.
Non voglio sparare la caxxata.., ma visto come va 2900xt in DX10 posso immaginare la 2600xt :eek: potrebbe andare come 8800 in dx10!!! E allora si ke saranno incaxxati :muro: :doh:
Non voglio sparare la caxxata.., ma visto come va 2900xt in DX10 posso immaginare la 2600xt :eek: potrebbe andare come 8800 in dx10!!! E allora si ke saranno incaxxati :muro: :doh:
io ho sempre detto che la spesa per una 8800 è stata utile solo per le dx9 se non altro perkè in dx9 le prestazioni erano sicure ma non è possibile pagare molto d+ un prodotto ke ha come peculiarità il supporto alle dx10 mesi e mesi e mesi prima ke si possa vedere un solo gioco dx10 o un solo test valido.solo ke mi aggrediscono ogni volta dicendo ke è un commento da fanboy.io non sono il fanboy d nessuno,nn me ne può fregare d meno.in dx10 comprerò il meglio . e basta :D
:( O sono impazzito io, oppure siete impazziti tutti :D
Dove diavolo stà questo "fantomatico" test DX10 ? [non lo vedo proprio :hic:]
Il primo vero test DX10 sarà il 3Dmerd07 (perchè di giochi fino al 2008/2009 non se ne vedranno :( ) non ditemi che è uscito :eek:
bonzuccio
13-05-2007, 19:15
Ma che incaxxati e incaxxati.. :asd:
questa è gente furba vogliono il top del top sempre
stanno già vendendo :sofico:
La prima cosa che faccio domani è guardare il link configurazioni per vedere la versione dei driver se non sono gli 8.38.. consiglio di rifare stanotte i test in caso contrario..
insomma al sito mejo di tutta l'italia unita intera avranno dato gli 8,38!!
:( O sono impazzito io, oppure siete impazziti tutti :D
Dove diavolo stà questo "fantomatico" test DX10 ? [non lo vedo proprio :hic:]
Il primo vero test DX10 sarà il 3Dmerd07 (perchè di giochi fino al 2008/2009 non se ne vedranno :( ) non ditemi che è uscito :eek:
il problema e che parlano senza sapere cosa sono le sdk e tutto quello che ci passa per arrivare ad un gioco :asd:
Grazie per aver trovato la pagina... I risultati li avevo già postati io nell'altro thread. Ovviamente, chissà perchè, secondo molti erano fake. :rolleyes:
Divertente notare come sul thread della 8800GTX si inizino a leggere commenti tipo "chissene frega delle DX10"... :asd:
:ahahah: contenti loro :asd:
bonzuccio
13-05-2007, 19:23
il problema e che parlano senza sapere cosa sono le sdk e tutto quello che ci passa per arrivare ad un gioco :asd:
Si ma le 8800 non camminano un cacchio con l'sdk cioè fps che si contano su una mano..
Mister Tarpone
13-05-2007, 19:24
il problema e che parlano senza sapere cosa sono le sdk e tutto quello che ci passa per arrivare ad un gioco :asd:
si ma già si intravedono le potenzialità nettamente superiori della ati....... :) poi chiaro, vedremo meglio con i giochi che banda sarà :) :) :)
si ma già si intravedono le potenzialità nettamente superiori della ati....... :) poi chiaro, vedremo meglio con i giochi che banda sarà :) :) :)
già... resta il fatto che in dx9 l'ati è indietro... ma potenzialmente in dx10 è un mostro! :eek:
portebbe essere uno dei motivi dei mesi di ritardo. ati ha aspettato che ci fossero dei benchmark in dx10. il 15 sarà rilasciato quello di lost planet ;)
molte cose si spiegano.
Mister Tarpone
13-05-2007, 19:32
già... resta il fatto che in dx9 l'ati è indietro... ma potenzialmente in dx10 è un mostro! :eek:
che poi alla fine va bene anche in dx9..... ;) cacchio mica fa solo 2fps eh!! :asd: mi sembra che sia all'altezza cmq ..anche se sta dietro le 8800.
Poi in dx10...... :oink: :oink: :oink:
bonzuccio
13-05-2007, 19:33
già... resta il fatto che in dx9 l'ati è indietro... ma potenzialmente in dx10 è un mostro! :eek:
Secondo me in questo th abbiamo capito tutto quello che c'è da capire,
i super bench del Corsini potranno più o meno metterci qualche dubbio
ma qui le cose sono chiare:
a 390 euro (le gtx 600?) una scheda che
a ogni release 0.001 dei driver guadagnano il 20-30%,
che già schizzano con gli sdk microsoft dx10
mentre le nvidia fanno lavorare le cpu e non camminano,
geometry shader che non funziano nelle nvidia..
insomma 1+1 non fa sempre 2 in informatica ma la cosa inizia a delinearsi nettamente:
la cara nvidia come al solito per arrivare prma ha messo sul mercato una scheda da leccarsi i baffi ma che dopo pochissimo si rivela una SOLA di proporzioni mondiali, non capisco come mai su questo sito non sia mai emerso il fatto che con le prime patch dx10 dei giochi e con l'sdk dx10 proprio bus e memorie abbinati a gpu dai numeri incredibili per numero di unità di pipeline..
si piantano come i chiodi..
c'è qualcosa che non quadra.. :mbe:
Si ma le 8800 non camminano un cacchio con l'sdk cioè fps che si contano su una mano..
si ma già si intravedono le potenzialità nettamente superiori della ati....... :) poi chiaro, vedremo meglio con i giochi che banda sarà :) :) :)
le potenzialità della HD2900 sulla carta ci sono (vedi architettura) ma per avere un'indicazione affidabile sulle prestazioni in DX10 AMD\Nvidia un test interno alle SDK imho non vale nulla
le potenzialità della HD2900 sulla carta ci sono (vedi architettura) ma per avere un'indicazione affidabile sulle prestazioni in DX10 AMD\Nvidia un test interno alle SDK imho non vale nulla
http://www.tech-faq.com/lang/it/directx-sdk.shtml
ecco cos'è. secondo me è un ottimo indicatore :)
Athlon 64 3000+
13-05-2007, 19:38
Non voglio essere polemico ma sono perchè hanno fatto dei test sull'sdk dx 10 e per il fatto che sembra andare male la 8800GTX è gia da mettere in croce quando non ci sono reali applicazioni dx 10.
Non mi dite che sono di parte di Nvidia perchè quasi sicuramente la prossima settimana prendo una Radeon HD 2900XT.
TecnoWorld8
13-05-2007, 19:39
vedremo con i driver 8.38 come va. secondo me una recensione "seria" di domani, dovrebbe usare questi e non i vari 8.37 o inveriori...
spererei almeno in un pareggio con GTX in DX9, con i driver più nuovi...
l'unica cosa davvero negativa rimane il consumo: secondo Voi il mio alimentatore in sign va bene per questa scheda?
vedremo con i driver 8.38 come va. secondo me una recensione "seria" di domani, dovrebbe usare questi e non i vari 8.37 o inveriori...
spererei almeno in un pareggio con GTX in DX9, con i driver più nuovi...
l'unica cosa davvero negativa rimane il consumo: secondo Voi il mio alimentatore in sign va bene per questa scheda?
capisco che siete tutti fan boy ma se la vostra amata ati non e' seria cosa pretendete da una persona che si e' sbattuta una settimana a fare una recensione...ati ha rilasciato ieri i 8.38..rifare tutto in un giorno e' una follia
halduemilauno
13-05-2007, 19:48
terza parte.
http://it-review.net/index.php?option=com_content&task=view&id=1335&Itemid=1
;)
Mister Tarpone
13-05-2007, 19:50
capisco che siete tutti fan boy ma se la vostra amata ati non e' seria cosa pretendete da una persona che si e' sbattuta una settimana a fare una recensione...ati ha rilasciato ieri i 8.38..rifare tutto in un giorno e' una follia
io no!!!.............:stordita: :cry: :sob:
ciondolo
13-05-2007, 19:50
terza parte.
http://it-review.net/index.php?option=com_content&task=view&id=1335&Itemid=1
;)
sbaglio o qui perde il confronto?
le potenzialità della HD2900 sulla carta ci sono (vedi architettura) ma per avere un'indicazione affidabile sulle prestazioni in DX10 AMD\Nvidia un test interno alle SDK imho non vale nulla
Peccato che sul forum microsoft degli sviluppatori in molti erano preoccupati già mesi fa delle pessime prestazioni pessime di G80 coi geometry shaders, testandole proprio col test delle SDK.
Anche quelli non sanno "cosa sono le sdk e tutto quello che ci passa per arrivare ad un gioco"? ;)
Non voglio essere polemico ma sono perchè hanno fatto dei test sull'sdk dx 10 e per il fatto che sembra andare male la 8800GTX è gia da mettere in croce quando non ci sono reali applicazioni dx 10.
Non mi dite che sono di parte di Nvidia perchè quasi sicuramente la prossima settimana prendo una Radeon HD 2900XT.
I test DX10 stanno per uscire, e in realtà qualcuno ha già testato le 8800 in DX10. Lost Planet è un gioco sviluppato con nVidia, sulle nVidia, e non mi sembra vada benissimissimo: il framerate è dimezzato attivando il rendering DX10, parole di PCGamesHardware. In pratica sulla GTS 640 è giocabile appieno fino a 1280x800 (se ci si accontenta anche di 25fps di media a 1280x1024 ci si arriva). Ovviamente coi drivers qualcosina si guadagnerà, non si sa se erano attivati i filtri, ecc...
Certo di colpo non sembrano più dei fulmini di guerra. ;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.