View Full Version : ATI Radeon HD 2900: svelata la GPU R600
TecnoWorld8
13-05-2007, 19:57
capisco che siete tutti fan boy ma se la vostra amata ati non e' seria cosa pretendete da una persona che si e' sbattuta una settimana a fare una recensione...ati ha rilasciato ieri i 8.38..rifare tutto in un giorno e' una follia
a parte che alla mia età (33 anni) essere definito "boy" è un complimento, ma proprio essere definito fan di una casa produttrice mi fa proprio sorridere :) non sono nè azionista nè tantomeno dirigente di uno dei due players, quindi non mi può interessare di meno il "tenere" per l'uno o per l'altro polo.
Nella mia vita avrò avuto almeno 100 schede video di ongi possibile produttore sul mercato. Poi, da quando esistono le schede 3D, dal 1996 ad oggi, sono passato da Matrox a 3dfx ad nVidia ad ATi andando "avanti e indietro" di volta in volta, a seconda del prodotto migliore come rapporto prestazioni prezzo, rimanendo praticamente sempre nella fascia alta o medio/alta.
Il presentare una recensione con i driver più recenti possibile è DOVERE di chi fa questo lavoro, se lo vuol fare seriamente. E' chiaro che se fossero rilasciati domani, non sarebbe possibile, ma credimi è invece più che mai possibile farlo, avendo i driver in mano da un paio di giorni, soprattutto considerando che c'è il WE di mezzo.
Detto questo, sono pienamente consapevole già sin d'ora dei pro e contro di questa scheda. Il contro più evidente è il consumo in watt e la dissipazione di calore. Se fosse stata a 65nm sarebbe stata la scheda dell'anno, purtroppo essendo ad 80nm ha questa pecca.
Tuttavia, il potenziale di overclock, le caratteristiche hardware ed il prezzo ne fanno - a mio personalissimo avviso - l'acquisto migliore possibile in questo momento, per avere una scheda al top senza svenarsi.
appleroof
13-05-2007, 19:57
terza parte.
http://it-review.net/index.php?option=com_content&task=view&id=1335&Itemid=1
;)
With respect to price-performance ratio, we're actually very puzzled. If these 400$/EUR estimated price turns out to be true, it's gonna be a very good competition to GTX and a bit better then the 8800GTS in price-performance ratio.
Praticamente le conclusioni alle quali siamo arrivati (veramente non tutti :D ) in questi giorni (sempre in attesa domani di rece ufficiali e definitive)....tralasciano solo di citare un piccolo particolare: l'abbassamento dei prezzi della gtx, già in atto ;)
ohmaigod
13-05-2007, 19:58
HD 2400
HD 2600
http://www.ocworkbench.com/2007/ati/ATI-HD-Radeon-HD-2900XT-and-HD-2000-Series/p7.htm
appleroof
13-05-2007, 19:59
I test DX10 stanno per uscire, e in realtà qualcuno ha già testato le 8800 in DX10. Lost Planet è un gioco sviluppato con nVidia, sulle nVidia, e non mi sembra vada benissimissimo: il framerate è dimezzato attivando il rendering DX10, parole di PCGamesHardware. In pratica sulla GTS 640 è giocabile appieno fino a 1280x800 (se ci si accontenta anche di 25fps di media a 1280x1024 ci si arriva). Ovviamente coi drivers qualcosina si guadagnerà, non si sa se erano attivati i filtri, ecc...
Certo di colpo non sembrano più dei fulmini di guerra. ;)
Quasi quasi (toglierei anche il quasi quasi) ci godi....qualche link alla notizia in rete? ;)
ma mi sbaglio o si è sempre detto che i driver per vista facevano schifo e in dx10 erano mal fatti ?
Ora vi stupite se in dx10 la nvidia ha bassi frame rate ? mah.
Se fosse colpa della scheda allora sarebbe grave, ma io non lo penso.
Nvidia è furba :mbe:
Le Ati hanno sempre sbandierato, se non erro, che questa 2900xt sarebbe stata la più veloce scheda dx9 esistente, e giustamente da quel che vedo è così. Nvidia di scassarsi la testa con iperdriver efficienti in dx10 non se n'è curata, ma ha fatto bene, visto che non esiste nulla in dx10 :)
Io avrei agito allo stesso modo.
Ati si è impegnata sulle dx10 e dai test si vede.... va bene, ok...ma cosa c'è in dx10 ? nulla..
Ripeto Nvidia è furba, molto furba...
strategie commerciarli e basta e noi a gridare: ATI sfascia in dx10 le 8800gtx, incredibile !!!! :D :D :D
devo dire però che sono contento che esistano queste bestioline..;)
ohmaigod
13-05-2007, 20:00
Video of ATi DX10 Ruby TECH DEMO -White Out
http://www.ocworkbench.com/2007/ati/ATI-HD-Radeon-HD-2900XT-and-HD-2000-Series/p13.htm
appleroof
13-05-2007, 20:01
Il presentare una recensione con i driver più recenti possibile è DOVERE di chi fa questo lavoro, se lo vuol fare seriamente. E' chiaro che se fossero rilasciati domani, non sarebbe possibile, ma credimi è invece più che mai possibile farlo, avendo i driver in mano da un paio di giorni, soprattutto considerando che c'è il WE di mezzo.
Sinceramente la cosa più strana della vicenda è proprio rilasciare dei driver nuovi a 2 giorni dalla presentazione ufficiale, fissata da mesi (dopo tutti i ritardi che sappiamo)....
appleroof
13-05-2007, 20:03
ma mi sbaglio o si è sempre detto che i driver per vista facevano schifo e in dx10 erano mal fatti ?
Ora vi stupite se in dx10 la nvidia ha bassi frame rate ? mah.
Se fosse colpa della scheda allora sarebbe grave, ma io non lo penso.
Nvidia è furba :mbe:
Le Ati hanno sempre sbandierato, se non erro, che questa 2900xt sarebbe stata la più veloce scheda dx9 esistente, e giustamente da quel che vedo è così. Nvidia di scassarsi la testa con iperdriver efficienti in dx10 non se n'è curata, ma ha fatto bene, visto che non esiste nulla in dx10 :)
Io avrei agito allo stesso modo.
Ati si è impegnata sulle dx10 e dai test si vede.... va bene, ok...ma cosa c'è in dx10 ? nulla..
Ripeto Nvidia è furba, molto furba...
strategie commerciarli e basta e noi a gridare: ATI sfascia in dx10 le 8800gtx, incredibile !!!! :D :D :D
devo dire però che sono contento che esistano queste bestioline..;)
No quello era il leit-motiv fino a poche settimane fa (addirittura apocalittici comunicati che per colpa dei driver i possessori di lcd si stavano pentendo amaramente della scheda)...adesso sono 6 mesi di vantaggio e i driver più perfetti che si possano avere (tra l'altro senza mai aver testato una scheda nvidia prima d'ora...) ;)
Quasi quasi (toglierei anche il quasi quasi) ci godi....qualche link alla notizia in rete? ;)
più che godere, probabilmente è la dura realtà.
era da tempo che si parlava di un diverso comportamento delle schede 2x00 in dx10 rispetto alle 8x00. insomma niente di nuovo
No quello era il leit-motiv fino a poche settimane fa (addirittura apocalittici comunicati che per colpa dei driver i possessori di lcd si stavano pentendo amaramente della scheda)...adesso sono 6 mesi di vantaggio e i driver più perfetti che si possano avere (tra l'altro senza mai aver testato una scheda nvidia prima d'ora...) ;)
ma non eri tu a dire che oramai in vista giocavi a tutto alla grande senza problemi?
Y2J Lionheart
13-05-2007, 20:09
Allora ragazzi, finalmente è uscita una review attendibile..
dite che con il mio alimentatore c'è la faccio?
l' ali è un TAGAN TG480 U22 2forceseries
appleroof
13-05-2007, 20:13
più che godere, probabilmente è la dura realtà.
era da tempo che si parlava di un diverso comportamento delle schede 2x00 in dx10 rispetto alle 8x00. insomma niente di nuovo
piccolo Ot
Ciao T3d, come si stava al mare? ;)
fine Ot
Per il resto, mi spieghi cosa vuol dire "dura realtà"? :asd:
james_het
13-05-2007, 20:13
scusate ma adall'articolo linkato qualke post + sopra, la scheda ATI è sempre inferiore alla GTX......ma è davvero così??
nn doveva esser molto + performante? :confused:
piccolo Ot
Ciao T3d, come si stava al mare? ;)
fine Ot
Per il resto, mi spieghi cosa vuol dire "dura realtà"? :asd:
ot
benissimo :asd: sai quante belle ragazze! ;)
fine ot
dura realtà nel senso che se fosse vero, insomma, se veramente in dx10 il g80 fa fatica, non sarebbe una bella cosa per i odierni felicissimi possessori delle schede 8x00
sempre se si confermassero quelle prestazioni, ripeto ;)
appleroof
13-05-2007, 20:15
scusate ma adall'articolo linkato qualke post + sopra, la scheda ATI è sempre inferiore alla GTX......ma è davvero così??
nn doveva esser molto + performante? :confused:
Guardati i test con gli sdk :asd:
Domani. Solo domani finalmente si avrà la verità sulla scheda e sul confronto con la concorrenza ;)
scusate ma adall'articolo linkato qualke post + sopra, la scheda ATI è sempre inferiore alla GTX......ma è davvero così??
nn doveva esser molto + performante? :confused:
tranquillo, in dx10 però la smonta la 8800gtx, quindi si può stare tranquilli, nel 2008/2009 quando ci saranno giochi dx10 mostrerà la sua vera potenza :eek: :mbe: .... mmmm aspetta....ma.....tra un anno e mezzo le attuali schede saranno un ricordo :mbe:
Non ci pensare.....è meglio...;)
appleroof
13-05-2007, 20:22
tranquillo, in dx10 però la smonta la 8800gtx, quindi si può stare tranquilli, nel 2008/2009 quando ci saranno giochi dx10 mostrerà la sua vera potenza :eek: :mbe: .... mmmm aspetta....ma.....tra un anno e mezzo le attuali schede saranno un ricordo :mbe:
Non ci pensare.....è meglio...;)
Hai perfettamente sintetizzato la delirante situazione in cui siamo arrivati...:asd:
;)
Alexbuntu
13-05-2007, 20:23
ciao, stavo pensando di prendere la hd2900 entro un mesetto, un dubbio mi è sorto per l'alimentatore xD
io ora ho un tagan 480w, che ovviamente non basterà di sicuro, specialmente con la cpu overclockata, che ali mi consigliate???
io avevo pensato a un lc power da 420w solo per la radeon, ma poi gli adattatori dove li trovo? o è meglio se vendo il mio e me ne prendo uno di più potente?
altra cosa.. che ali ci sono in commercio che hanno i connettori che servono alla hd2900?
420W solo per la scheda video???? come buttare soldi..
un pc con 2 gtx in sli non arriva a 500w di consumo misurati alla presa..
Mister Tarpone
13-05-2007, 20:25
tranquillo, in dx10 però la smonta la 8800gtx, quindi si può stare tranquilli, nel 2008/2009 quando ci saranno giochi dx10 mostrerà la sua vera potenza :eek: :mbe: .... mmmm aspetta....ma.....tra un anno e mezzo le attuali schede saranno un ricordo :mbe:
Non ci pensare.....è meglio...;)
effettivamente.... :fagiano:
vr-zone e TweakTown hanno pubblicato le recensioni.
http://www.vr-zone.com/?i=4946
http://www.tweaktown.com/articles/1100/1/page_1_introduction/index.html
Ma chi ha rispettato l'NDA e ha ricevuto gli 8.38 dice:
Old drivers. We've achieved much better scores.
TweakTown has posted their review way ahead of NDA, but you shouldn't pay any real attention to it. They've used crappy drivers.
Kinc ha raggiunto queste frequenze con stock colling
http://www.nordichardware.com/news-pics/47.jpg
E queste sotto azoto:
http://www.kinc.se/2900/1147.jpg
Ma afferma che è poca roba... potrà tranquillamente superare i 1200 Mhz di core.
tranquillo, in dx10 però la smonta la 8800gtx, quindi si può stare tranquilli, nel 2008/2009 quando ci saranno giochi dx10 mostrerà la sua vera potenza :eek: :mbe: .... mmmm aspetta....ma.....tra un anno e mezzo le attuali schede saranno un ricordo :mbe:
Non ci pensare.....è meglio...;)
voglio vedere però a chi si potrebbe vendere una gtx se si confermassero quei risultati in dx10 :fagiano:
vr-zone e TweakTown hanno pubblicato le recensioni.
http://www.vr-zone.com/?i=4946
http://www.tweaktown.com/articles/1100/1/page_1_introduction/index.html
Ma chi ha rispettato l'NDA e ha ricevuto gli 8.38 dice:
Kinc ha raggiunto queste frequenze con stock colling
http://www.nordichardware.com/news-pics/47.jpg
E queste sotto azoto:
http://www.kinc.se/2900/1147.jpg
Ma afferma che è poca roba... potrà tranquillamente superare i 1200 Mhz di core.
1200 mhz tranquillamente...se e' cosi ha una scheda fatta apposta per lui...gia' 1147 e' fuori portata...
1200 mhz tranquillamente...se e' cosi ha una scheda fatta apposta per lui...gia' 1147 e' fuori portata...
Infatti a 1147 di core ha già fatto il WR al 05 in single card, 30k.
Tidus.hw
13-05-2007, 20:37
420W solo per la scheda video???? come buttare soldi..
un pc con 2 gtx in sli non arriva a 500w di consumo misurati alla presa..
metti che più avanti farò un cf xD
comunque qualcuno sa dove si possono trovare gli adattatori per i normali alimentatori??
appleroof
13-05-2007, 20:38
I test DX10 stanno per uscire, e in realtà qualcuno ha già testato le 8800 in DX10. Lost Planet è un gioco sviluppato con nVidia, sulle nVidia, e non mi sembra vada benissimissimo: il framerate è dimezzato attivando il rendering DX10, parole di PCGamesHardware. In pratica sulla GTS 640 è giocabile appieno fino a 1280x800 (se ci si accontenta anche di 25fps di media a 1280x1024 ci si arriva). Ovviamente coi drivers qualcosina si guadagnerà, non si sa se erano attivati i filtri, ecc...
Certo di colpo non sembrano più dei fulmini di guerra. ;)
Ah ecco, ho trovato da solo il link, in pratica va in media a sui 35/40fps (almeno guardando la maggior parte degli shot, non li ho guardati tutti e 48 onestamente) tranne pochissimi momenti in cui il frame rate cala viistosamente: questo come sai può succedere in qualsiasi gioco e con qualsiasi scheda/configurazione, anche uno sli di 8800gtx (cos' come una potente 1950xtx soffre tantissimo in alcuni limitati ambiti con R6vegas, gioco dx9 ottimizzato con il c..o per pc --tant'è che anche a me a 1920x1200 af16x ogni tanto scendeva a 20fps)
Ancora, la rece è stata fatta con una 4200x2 default, mi pare, correggetimi se sbaglio che a 1280x800 se non crea una situazione di cpu-limited (non esageriamo, ance perchè le dx10 in teoria dovrebbero correggere molto quella situazione) con una gts 640, poco ci manca. Avrei voluto vedere quei test identici ma con un E6600 anche default, solo per avere il gioco testato su quello che attualmente è il meglio e nello stesso tempo alla portata (economica) del giocatore medio appassionato.
Infine, anche qui correggetemi se sbaglio, mi pare non sia testata la 2900XT.
Il tutto, sopratutto i primi 2 punti, mi pare che non giustifichino la conclusione apocalittica alla quale sei giunto alla fine del tuo post.
;)
pierluigi86
13-05-2007, 20:39
spero in un drastico calo del prezzo delle schede video, ma non solo per ora ma per sempre.
Gattonzolo
13-05-2007, 20:42
Quindi ancora presentazione di Fumo ?
Ma l'arrosto lo potremo mangiare prima che la società fallisca ??
:asd:
Non vedo a breve come possa sostenere i profitti raggiunti in passato ...
Che per questo tipo di aziende é indispensabile avere per sostenere investimenti e debito ....
Le ristrutturazioni son delle gran brutte bestie ..... in questo settore poi ....
a volte sono disastrose ....
Mah .... sono dubbioso più che per la scheda .... per il futuro del colosso ....
:stordita: :stordita:
Y2J Lionheart
13-05-2007, 20:46
Direi di sì, ovviamente scordandosi ogni overclock.
grazie mi hai rassicurato :D
@mattste
13-05-2007, 20:48
sta skeda ihmo è na bestia considerando il prezzo....per il dx9 basta e nel dx10 owna di gran lunga le concorrenti
appleroof
13-05-2007, 20:48
http://www.vr-zone.com/?i=4946&s=1
Prima rece completa della 2900XT
;)
http://www.vr-zone.com/?i=4946&s=1
Prima rece completa della 2900XT
;)
Quoto dalla recensione:
The latest 8.37.4.2_47323 drivers is supposed to implement a new intelligent algorithm that increases FPS while applying similar image quality when running Adaptive Anti-Aliasing. In Oblivion, performance several times faster than previous drivers using the new adaptive AA algorithm was claimed to have been acheived. New optimizations for HDR applications in general resulted in a 5-30% increase in performance.
The 8.37.4.2_47323 is actually a pre-alpha driver, but it includes a preview of new 12xAA and 24xAA modes. These modes use an advanced edge detection filter that delivers edge quality while eliminating blurring.
Loro hanno usato gli 8.37.0.2, i driver precedenti. Con i nuovi driver le prestazioni sono molto migliorate, quindi quella recensione è purtroppo poco utile.
:(
appleroof
13-05-2007, 20:54
Ricordate le infinite discussioni su come andava classificata in termini di fascia/posizionamento la 2900XT? ecco una illuminante slide della stessa Amd
http://img231.imageshack.us/img231/4484/slidelk4.jpg (http://imageshack.us)
;)
bonzuccio
13-05-2007, 20:55
http://www.vr-zone.com/?i=4946&s=1
Prima rece completa della 2900XT
;)
E' la 15a volta che clicco sugli stessi test,
stanno con gli alfa 8.37!!
"As of time of testing, we did not have the latest build just issued out 3 days before NDA was lifted. We were running 8-37-4-070419a."
The latest 8.37.4.2_47323 drivers is supposed to implement a new intelligent algorithm that increases FPS while applying similar image quality when running Adaptive Anti-Aliasing.
Cioè questi manco lo sanno che gli ultimi sono gli 8.38
Inoltre la comparazione di immagini non proprio professionale mi fa pensare di essere di fronte a un sito poco serio.. oltre al fatto che ha violato gli nda e solo per questo non meriterebbe più di un click
leoneazzurro
13-05-2007, 20:59
Signori, questo thread (in news, dove si dovrebbe cercare di commentare in maniera "leggera" e non troppo approfondita) si sta ahimè ritrasformando in una brutta copia di quelli che sono stati chiusi nella sezione apposita.
Poichè non è bene per nessuno che si continui in questa vuota rincorsa all' e-penis measurement, come diceva W1zzard, vi comunico che
1) O si incomincia a postare in questo thread in modo tecnico e/o costruttivo, oppure
2) dato che i thread in news non si possono chiudere, si comincerà a somministrare sospensioni in quantità esagerata.
Fate voi.
E' la 15a volta che clicco sugli stessi test,
stanno con gli alfa 8.37!!
"As of time of testing, we did not have the latest build just issued out 3 days before NDA was lifted. We were running 8-37-4-070419a."
The latest 8.37.4.2_47323 drivers is supposed to implement a new intelligent algorithm that increases FPS while applying similar image quality when running Adaptive Anti-Aliasing.
Cioè questi manco lo sanno che gli ultimi sono gli 8.38
Inoltre la comparazione di immagini non proprio professionale mi fa pensare di essere di fronte a un sito poco serio.. oltre al fatto che ha violato gli nda e solo per questo non meriterebbe più di un click
prima di parlare dovreste contare fino a 100...
1 chi vi dice che vrzone abbia violato l'nda , se la scheda l'ha avuta da un produttore e non da ati lui non ha firmato nessun nda ergo non e' tenuto a niente.
2 continuate a dire che occorre usare i driver 3.38...scusate ma se ati avvisa solo chi vuole dei driver nuovi ?? venerdi sono uscite due versioni dei driver 8.37...sabato e' uscita la 8.38..a fare tutti i test dei game e bench vari ci vogliono almeno due giorni..e un piccolo particolare gran parte delle recensioni dei siti sono fatte da gente che non lo fa' per lavoro ma solo per passione!
riflettete ....
appleroof
13-05-2007, 21:09
E' la 15a volta che clicco sugli stessi test,
stanno con gli alfa 8.37!!
Hai ragione scusa, non mi ero accorto per foga che era stata già postata...cmq il sito è serio e lo dimostra (se ce ne fosse bisogno) la precisazione proprio sui driver fatta alla fine (non è colpa loro se avevano quelli disponibili, l'avevano già fatta 2 volte con gli 8.36 e poi con i 8.37....) ;)
Kharonte85
13-05-2007, 21:17
http://www.vr-zone.com/?i=4946&s=1
Prima rece completa della 2900XT
;)
Intasato completamente...ci mette secoli a caricare le pagine...:D
http://www.ocworkbench.com/2007/asus/EAH2900XT/b1.htm
Credo che questi siano i bench con i driver usciti venerdì (8.37 beta). E' pari alla GTX in qualche bench...
pierluigi86
13-05-2007, 21:25
se avete notato a basse risoluzioni la 2900xt è pari o superiore alla gtx ma mano mano che aumenta la risoluzione aumenta il divario tra prestazionale tra r600 e g80.
@mattste
13-05-2007, 21:34
se avete notato a basse risoluzioni la 2900xt è pari o superiore alla gtx ma mano mano che aumenta la risoluzione aumenta il divario tra prestazionale tra r600 e g80.
considerando ke si gioka di solito a 1280 questa skeda da questi test è spesso allineata alla 8800 GTX...nn male
Y2J Lionheart
13-05-2007, 21:40
ma i 45w della hd2600 son in idle o in full?
Danielao
13-05-2007, 21:40
è un po' difficile farsi un'idea con quella rece, pochi giochi, quasi tutti in Open GL; io che non sono tecnico ho capito solo che quando si mettono i filtri a manetta la Ati va un po' meglio
Scusate non ho ancora capito come funziona l'alimentazione, vedo 2 connettori, servono tutti due? poi che ALI ci vorrebbe?
Scusate non ho ancora capito come funziona l'alimentazione, vedo 2 connettori, servono tutti due? poi che ALI ci vorrebbe?
Da quel poco che ho letto in giro bastano 2 da 6 solo che potrebbero esserci problemi di stabilità e non si può usare l'overdrive...
invece usando il connettore da 8 apposito non ci sono di questi problemi.
Cmq sì, servono 2 connettori
:muro: do per scontato che con il mio ali ci faccio qualcosa...
LC 550 gp....
R600 consuma più di G80 e va di meno :( e la qualità d'immagine è nettamente inferiore alla scheda nVidia, credo che sia inutile fare troppi discorsi.
Se le X800 prima e X1800/1900 poi, demolivano in tutti i campi le serie 5/6/7 ora si è ribaltato il tutto.
Chi spera in strepitose prestazioni in DX10 è meglio che si renda conto che i giochi DX10 non usciranno prima del 2009 (natale 2008 con un po' di sano ottimismo), quindi saranno sfruttate da R600 come sono stati sfruttati i PS3.0 dalle nVidia serie 5 :sofico:
Spero che tutti quelli che hanno dato dei ciarlatani a quelli di DT, TPU e IT-review si cospargano il capo di cenere :read: e chiedano "virtualmente" scusa. (dato che i loro test erano veri)
PS. se i driver nuovi (8.38) porteranno significativi incrementi di performance sarà solo perchè ATI avrà deciso di abbassare ancora la qualità d'immagine (gli 8.37 questo hanno fatto :mad: e la si nota moltissimo)
Bisogna dire però che questo "giochino" è stato inventato tempo fa da nVidia quando prendeva la paga ai tempi delle 9700 ;) e da allora solo schede ATI sono entrate nel mio case.
Attendiamo nuove rece ufficiali ma al momento una scheda ATI nel mio Antec non ci entra. (speriamo nel miracolo :D )
Kharonte85
13-05-2007, 22:05
Spero che tutti quelli che hanno dato dei ciarlatani a quelli di DT, TPU e IT-review si cospargano il capo di cenere :read: e chiedano "virtualmente" scusa. (dato che i loro test erano veri)
In effetti...:D
Zlatan91
13-05-2007, 22:16
stasera non si dorme.....un continuo refresh della home fino alla pubblicazione.......per arrivare primo nei commenti....sarebbe un sogno:D :D
si lo so sono stupidoo:D :D :D
Danielao
13-05-2007, 22:16
R600 consuma più di G80 e va di meno :( e la qualità d'immagine è nettamente inferiore alla scheda nVidia, credo che sia inutile fare troppi discorsi.
per favore puoi circostanziare? Non è che da quelli screen si capisce granchè e i test sono spesso contraddittori.
Se le X800 prima e X1800/1900 poi, demolivano in tutti i campi le serie 5/6/7 ora si è ribaltato il tutto.
fino ad oggi concordo
Chi spera in strepitose prestazioni in DX10 è meglio che si renda conto che i giochi DX10 non usciranno prima del 2009 (natale 2008 con un po' di sano ottimismo), quindi saranno sfruttate da R600 come sono stati sfruttati i PS3.0 dalle nVidia serie 5 :sofico:
Age of Conan esce il 30 ottobre e spero qualcosa a breve
Spero che tutti quelli che hanno dato dei ciarlatani a quelli di DT, TPU e IT-review si cospargano il capo di cenere :read: e chiedano "virtualmente" scusa. (dato che i loro test erano veri)
be per dire che sono veri al 100% dovremmo magari confrontarli con qualche recensione ufficiale.
Nessuna polemica :)
Zlatan91
13-05-2007, 22:18
dimenticavo...si sa a che ora scade l nda? perke penso sia collegato all orario di tunisi...o perfino a quello in america...
Ah ecco, ho trovato da solo il link, in pratica va in media a sui 35/40fps (almeno guardando la maggior parte degli shot, non li ho guardati tutti e 48 onestamente) tranne pochissimi momenti in cui il frame rate cala viistosamente: questo come sai può succedere in qualsiasi gioco e con qualsiasi scheda/configurazione, anche uno sli di 8800gtx (cos' come una potente 1950xtx soffre tantissimo in alcuni limitati ambiti con R6vegas, gioco dx9 ottimizzato con il c..o per pc --tant'è che anche a me a 1920x1200 af16x ogni tanto scendeva a 20fps)
Ancora, la rece è stata fatta con una 4200x2 default, mi pare, correggetimi se sbaglio che a 1280x800 se non crea una situazione di cpu-limited (non esageriamo, ance perchè le dx10 in teoria dovrebbero correggere molto quella situazione) con una gts 640, poco ci manca. Avrei voluto vedere quei test identici ma con un E6600 anche default, solo per avere il gioco testato su quello che attualmente è il meglio e nello stesso tempo alla portata (economica) del giocatore medio appassionato.
Infine, anche qui correggetemi se sbaglio, mi pare non sia testata la 2900XT.
Il tutto, sopratutto i primi 2 punti, mi pare che non giustifichino la conclusione apocalittica alla quale sei giunto alla fine del tuo post.
;)
Quello che è strano è che un gioco DX10 ottimizzato per le nVidia e creato sulle nVidia vada così. Penso che naturalmente i tecnici nVidia sappiano quali sono i pregi/difetti dei loro prodotti, ed avranno ovviamente cercato di nascondere le eventuali pecche del loro hardware.
Nell'ultimo aggiornamento hanno messo i grafici del framerate medio, e le GTS 640 fanno 31fps di media (e non 35/40) al benchmark interno con un C2D E6700 occato a 3.4GHz. Impostazioni: 1280x960, AA4x, AF8x. A me non pare che con una configurazione del genere sia cpu limited. La Ultra ha una framerate doppio, con le stesse impostazioni e lo stesso sistema: 62fps. Sarebbe poi interessante capire come scalano le prestazioni con l'aumentare della risoluzione e dei filtri, e come si comportano le 8600 con questo gioco.
Naturalmente le ATi non sono ancora state testate, ma tra meno di 24 ore ne sapremo di più.
R600 consuma più di G80 e va di meno :( e la qualità d'immagine è nettamente inferiore alla scheda nVidia, credo che sia inutile fare troppi discorsi.
"Results seem almost indistinguishable, even at a blown up look such as this. If one tries to knit pick, it seems that the filtering is only slightly rougher on the ATi where by the transition in color is very slightly less smoother than the NVIDIA, from one pixel to the next."
"As seen on Company Of Heroes, the quality is so close it's rather tough to distinguish. Similarly, the filtering seems to be slightly rougher on the ATi, I'm leaning a bit towards the preference of NVIDIA's filtering which comes across slightly smoother. But more scenes and checks must be conducted."
"Which one do you prefer?? I really can't choose... Blow it up and see."
"Even this is really hard to pick from. If you want to knit pick, you may find that from one small part, it seems the filtering is a little sharper on the NVIDIA:"
"No clear conclusion, but if you look more towards the left of the horse, you may find that the lines on the head, mouth leg, seem to be a little sharper on the NVIDIA."
"In terms of Jaggie-elimination Anti-Aliasing, the maximum capability of the X2900XT is very close to the capability of the 8800GTS. Remember, this is 16x Sampling Wide-Tent AA at 8x Level versus 16x Quality AA."
"Ah yes, we can see quite a difference now. The Anti-Aliasing is better on the 2900 card as compared to the 8800 card when both is set to run the maximum AA capability."
Parlando di image quality. Almeno, se diamo ascolto a qualche recensione, facciamo per tutto, non solo per quello che ci pare a noi ;)
Diciamo che tu e VrZone avete una definizione di "nettamente" alquanto diversa. Poi oh, tra i due, con le compentenze che avete, magari qualcuno ascolta la tua definizione e non quella di VrZone ;)
Diciamo che le uniche due frasi che ti danno anche solo un pezzo di ragione sono queste:
"Vegetation seems to be a fair bit more different. Here, you can acutely see that the 8800GTS renders the closer bunch of leaves sharper, yet rougher. There's a clearer distinction in colors of bunches of leaves on the GTS. This may also mean slightly more aliasing with the resultant effect being some "texture swimming" during movements of your character or as the wind blows.!"
"Look at the gun, that's closest to your character, you can see it starkly sharper on the 8800 compared to the 2900. Notice especially the words and buttons on the gun. Words are sharper and so are the finer details on the buttons on the card below. Even the dirt track further away from the character looks sharper rendered on the 8800."
Non c'è che dire, inutile fare troppi discorsi ;)
Ah, non c'è bisogno che ti disturbi a cercare di sostenere quel "nettamente" ;)
james_het
13-05-2007, 22:30
http://www.vr-zone.com/?i=4946&s=1
Prima rece completa della 2900XT
;)
addirittura questa la paragona ad una GTS.......ma che è sta roba??
R600 consuma più di G80 e va di meno :( e la qualità d'immagine è nettamente inferiore alla scheda nVidia, credo che sia inutile fare troppi discorsi.
...evidentemente non sai leggere le recensioni. La qualità d'immagine è stata giudicata (da queste recensioni pre-nda) in questo modo: AA migliore di G80, AF peggiore di G80.
Spero che tutti quelli che hanno dato dei ciarlatani a quelli di DT, TPU e IT-review si cospargano il capo di cenere :read: e chiedano "virtualmente" scusa. (dato che i loro test erano veri)
...i loro test sono stati condotti con i driver che si trovano sui CD, ovvero i meno performanti. Già le review di oggi danno fps più alti di quelli misurati da loro. E chi è sotto NDA ha chiaramente fatto capire (anzi, una persona l'ha proprio scritto sul suo forum) che ha ottenuto risultati migliori di quelli visti oggi.
PS. se i driver nuovi (8.38) porteranno significativi incrementi di performance sarà solo perchè ATI avrà deciso di abbassare ancora la qualità d'immagine (gli 8.37 questo hanno fatto :mad: e la si nota moltissimo)
...questa è una tua speculazioni priva di alcun fondamento. Scusa, ma così si scatenano solo flame. Leggi bene, chi ha provato le varie release dei driver dice il tuo opposto.
;)
Per GabriSP: diverse uscite infelici (i giudizi finali aspetterei a darli, no?! ;)) a facile "effetto flame"...
Per gli altri che l'hanno quotato: non alimentate ulteriori polemiche, grazie... ;)
Chi spera in strepitose prestazioni in DX10 è meglio che si renda conto che i giochi DX10 non usciranno prima del 2009 (natale 2008 con un po' di sano ottimismo)
ah e allora perkè molta gente ha comprato la 8800 appena uscita a novembre 2006?? c'erano forse le dx10? qual'è la caratteristica numero 1 della serie g80? e ovviamente caratteristica ke rincara d tanto il prezzo in un momento in cui non serviva a nessuno ed in cui nessuno poteva fare dei test veritieri.mi sa ke c sei andato un pò largo con le date :D bastava una ati della serie x19x0 per giocare bene in dx9 senza fare dei record con i benchs ke ripeto ai + nn servono ad un bel kaiser.scusa Raven ma nn avevo visto il tuo post.
Kharonte85
13-05-2007, 22:43
...i loro test sono stati condotti con i driver che si trovano sui CD, ovvero i meno performanti. Già le review di oggi danno fps più alti di quelli misurati da loro. E chi è sotto NDA ha chiaramente fatto capire (anzi, una persona l'ha proprio scritto sul suo forum) che ha ottenuto risultati migliori di quelli visti oggi.
Speriamo che domani si riescano a leggere recensioni con questi ultimi driver (8.38)...:sperem:
Rimane il fatto pero' che AMD ha fatto male i conti...l'uscita di recensioni con driver incompleti e scarsamente performanti a livello immagine è imho pessimo :nonsifa:
Per quanto riguarda il discorso qualita' dell'immagine io trovo che stia diventando davvero difficile dare un giudizio vedendo il confronto immagini...questo dimostra che siamo lontani dalle situazioni passate di chiaro vantaggio (forse non le vedremo +), infatti Vr zone conclude dicendo AA meglio su Hd2900xt e AF Meglio su 8800...che vuol essere in sostanza una sorta di pareggio.
Free Gordon
13-05-2007, 22:44
Spero sinceramente che quelle foto siano un fake perchè altrimenti si spiegherebbero i punteggioni stratosferici di R600 nel 3dmerd (superiori alla GTX :eek: o quasi) e i frame nei giochi in genere molto più bassi.
La qualità d'immagine è schifosamente inferiore, il filtraggio delle texture è al limite dell'osceno :mad: (speriamo sia tutto una balla, anche se tempo fa nVidia taroccava il 3dmerd per fare punteggioni, non vorrei che ati abbia fatto la stessa cosa :( )
Qualche ora e conosceremo al verità :tie: :tie: :tie:
Un'immagine è compressa (ATI), l'altra no. ;)
Ecco il motivo.
Free Gordon
13-05-2007, 22:48
secondo me è il solito fake..come fa Ati a fare una scheda così? Visto che sembra che si overclokki con estrema facilità non sarebbe stato logico venderla già con un clock più elevato?
Ovviamente IHMO
con quali driver l'hanno testata?
Sono vecchi. :(
Gli 8.37
Free Gordon
13-05-2007, 22:49
VR ZONE mi ha altamente deluso...:fagiano:
Perchè dici ciò? :D
Scrambler77
13-05-2007, 22:51
VR ZONE mi ha altamente deluso...:fagiano:
:rotfl:
Scrambler77
13-05-2007, 22:54
considerando ke si gioka di solito a 1280 questa skeda da questi test è spesso allineata alla 8800 GTX...nn male
considerando gli 8 mesi di ritardo e le specifiche tecniche riportate, è un flop colossale...
ale0bello0pr
13-05-2007, 22:55
Perchè dici ciò? :D
recensione con dei driver immaturi...(invece di quelli lasciati all'NDA....) bah..:muro:
TecnoWorld8
13-05-2007, 22:56
diciamo che ha un ottimo rapporto prestazioni/prezzo, ma sicuramente in tutti questi mesi di ritardo potevano fare di meglio. speravo almeno superasse la GTX di un 5-10%, invece spesso non la raggiunge nemmeno.
ripeto, è un posizionamento strategico come prezzo, ma...a meno di sorprese domani, non è la scheda più veloce sul mercato :cry:
Rimane il fatto pero' che AMD ha fatto male i conti...l'uscita di recensioni con driver incompleti e scarsamente performanti a livello immagine è imho pessimo :nonsifa:
Sono d'accordo. Il lancio, a meno di sorprese dell'ultim'ora, sembrerebbe essere stato gestito non molto bene.
Vero è che però gli 8.38 sono usciti diversi giorni fa (3-4) e forse a chi era sotto NDA potrebbero essere stati recapitati pure prima, quindi il tempo per rifare almeno parte dei test probabilmente c'era. Bisogna vedere le rece di chi era sotto NDA a questo punto
Per GabriSP: diverse uscite infelici (i giudizi finali aspetterei a darli, no?! ;)) a facile "effetto flame"...
Per gli altri che l'hanno quotato: non alimentate ulteriori polemiche, grazie... ;)
Non ho flammato per niente, anzi. (non mi sebra abbia detto nessuna inesattezza visto che chi ha mi quotato ha messo solo faccette e fatto allusioni varie senza dire nulla di tecnico)
La rece di VR-Zone è ufficiale visto che per loro è il 14 maggio da parecchie ore. (non ricordo in quale sperduto paesino del Pacifico abbia la sede "oraria" :eek: .........sono dei marpioni :sofico: )
Che dai driver 8.36 ai 8.37 c'è stato un abbassamento della qualità d'immagine c'è scritto nelle note dei driver (note scritte da ATI/AMD mica da me) ;) hanno semplificato un algoritmo (nel caso di AF contemporaneo all'adaptive AA) , per rendere tutto più leggero a scapito, di una leggera (dicono loro) perdita di qualità d'immagine. (vedi AF forse inferiore a quello già scarso dei G70 e derivati :( )
Invece di quotare perchè non andate a guardare le foto su VR-zone ? giudicate con i vostri occhi che è sempre la cosa più intelligente da fare.
Per qualità d'immagine intendo principalmente la gestione delle texture. (AF e "parenti" vari)
L'AA non fa parte dei parametri per valutare l'IQ (anche se erroneamente molti pensano di si) visto che l'AA "rovina" l'immagine rendondola meno nitida ma più godibile ai nostri occhi. (che ringraziano)
L'AA di R600 sembra molto valido (almeno quello) anche se sono molto deluso perchè m'aspettavo (a dire il vero io ero l'unico al mondo :stordita: ) la compatibiltà con il "Deferred Shading" visto quello che c'era scritto sulle slide a Tunisi : "AA not limited to the edge.... ecc" :(
Sono deluso :cry: e non ho tirato nessuna conclusione, ho solo detto il mio parere allo stato attuale dei fatti. Se tra qualche ora cambierà qualcosa sarò il primo ad esserne contento. (anche se FPS e IQ sono una coperta corta..............e quella di G80 sembra essere un po' più lunga)
Scrambler77
13-05-2007, 23:02
Se quelle prestazioni in DX10 verranno confermate ci saranno acquirenti di G80 piuttosto incazzati, vista la spesa non irrilevante fatta anche e giustamente in prospettiva.
Viste le attuali prestazioni dx9, gli acquirenti di G80 (me compreso) hanno avuto oggi la prova tangibile che la scheda che hanno acquistato 8 mesi fa è ancora la migliore... per cui non c'è nulla di cui incazzarsi...
Tra l'altro, chi ha comprato G80, l'ha presa per avere la migliore sk dx9 disponibile... e sono 8 mesi che ci gioca alla grande coi migliori filtri visti finora.
Infine, quando ci saranno titoli dx10 davvero seri, G80 l'avremo già cambiato 2 volte.;)
Free Gordon
13-05-2007, 23:03
...non credo sia corretto dare un giudizio definitivo oggi sul comportamento di G80 e R600 con le DX10. Perchè abbiamo solo quel test fatto con le DX10 SDK e Windows Vista. Comunque in quel test la R600 va molto molto bene. ;)
Più che altro è che li avranno fatti con dei driver vecchissimi per entrambe le schede.
Lunedi!!!:D
Speriamo in bene,voglio una bella recensione da parte di hw upgrade "sta"mattina tornato da scuola :)
Kharonte85
13-05-2007, 23:04
Quello che è strano è che un gioco DX10 ottimizzato per le nVidia e creato sulle nVidia vada così. Penso che naturalmente i tecnici nVidia sappiano quali sono i pregi/difetti dei loro prodotti, ed avranno ovviamente cercato di nascondere le eventuali pecche del loro hardware.
Nell'ultimo aggiornamento hanno messo i grafici del framerate medio, e le GTS 640 fanno 31fps di media (e non 35/40) al benchmark interno con un C2D E6700 occato a 3.4GHz. Impostazioni: 1280x960, AA4x, AF8x. A me non pare che con una configurazione del genere sia cpu limited. La Ultra ha una framerate doppio, con le stesse impostazioni e lo stesso sistema: 62fps. Sarebbe poi interessante capire come scalano le prestazioni con l'aumentare della risoluzione e dei filtri, e come si comportano le 8600 con questo gioco.
Naturalmente le ATi non sono ancora state testate, ma tra meno di 24 ore ne sapremo di più.
Non so se hai notato questi:
http://www.pcgameshardware.de/screenshots/original/LPDX9.jpg
http://www.pcgameshardware.de/screenshots/original/LPDX10.jpg
Forse sono un po' OT :stordita: cmq quello che ammazza le prestazioni è l'attivazione delle softshadows non il passaggio a dx10 (che anzi sulla Ultra aumenta le prestazioni)
Free Gordon
13-05-2007, 23:07
Se quelle prestazioni in DX10 verranno confermate ci saranno acquirenti di G80 piuttosto incazzati, vista la spesa non irrilevante fatta anche e giustamente in prospettiva.
Se fossero vere quelle prestazioni, una GTX si sarebbe rivelata una spesa alquanto azzardata effettivamente... Peggio ancora una Ultra.
Un'immagine è compressa (ATI), l'altra no. ;)
Ecco il motivo.
Su VR-zone no. :read: (prima rece ufficiale)
Forse ti riferisci alle foto del 3Dmerd col drago e il dirigibile, che tra parentesi una era 1/5 dell'altra non perchè fosse più compressa ma semplicemente perchè è una caratteristica del Jpeg che "zippa" meglio le immagini con poche componenti ad alta frequenza (come delle immagine con AF scarso, che da l'effetto "sfuocato" e "spalmato")
IMHO le foto a cui ti riferisci avavevano lo stesso livello di compressione Jpeg. (comunque è possibile che chi le fatte non avesse messo lo stesso livello qualitativo dei filtri, cosa peraltro impossibile da fare con driver di case differenti ;) )
Scrambler77
13-05-2007, 23:09
Non so se hai notato questi:
Forse sono un po' OT :stordita: cmq quello che ammazza le prestazioni è l'attivazione delle softshadows non il passaggio a dx10 (che anzi sulla Ultra aumenta le prestazioni)
Ho fatto qualche test sulle soft-shadows dx10 sulla mia GTX... e posso dire che sono qualitativamente centinaia di volte meglio delle corrispettive in dx9... a frame rate elevatissimi (oltre i 300)
Kharonte85
13-05-2007, 23:10
Ho fatto qualche test sulle soft-shadows dx10 sulla mia GTX... e posso dire che sono qualitativamente centinaia di volte meglio delle corrispettive in dx10...
:wtf:
Mister Tarpone
13-05-2007, 23:10
però dai.... spendo 700€ di scheda?? per poi fare 24fps con dett. al max a 1280x e 4xaa???
---------------------------:bsod:
mi auguro che sia solo colpa di una scarsa ottimizzazione di questo gioco........ :stordita:
Scrambler77
13-05-2007, 23:11
:wtf:
Ho corretto... :asd:
Free Gordon
13-05-2007, 23:12
Cmq pare essersi capito con sicurezza che il problema del ritardo era legato ai driver.
Perlomeno dall'uscita fissata a Marzo, ad oggi.
E' probabile che da Novembre a Marzo, ATI fosse già in ritardo rispetto ad nVidia a livello di produzione hw. Ma questo ci sta. :D
Zlatan91
13-05-2007, 23:13
hwupgrade e publica sta rece, basta un click:D ..in fondo è lunedi:D
Free Gordon
13-05-2007, 23:14
Non so se hai notato questi:
http://www.pcgameshardware.de/screenshots/original/LPDX9.jpg
http://www.pcgameshardware.de/screenshots/original/LPDX10.jpg
Forse sono un po' OT :stordita: cmq quello che ammazza le prestazioni è l'attivazione delle softshadows non il passaggio a dx10 (che anzi sulla Ultra aumenta le prestazioni)
24fps con una Ultra, con l'uso di shader complessi.... (shatten hoch)
@1280x960....
Sinceramente spero proprio per nVidia che sia una barzelletta.. :asd:
però dai.... spendo 700€ di scheda?? per poi fare 24fps con dett. al max a 1280x e 4xaa???
---------------------------:bsod:
mi auguro che sia solo colpa di una scarsa ottimizzazione di questo gioco........ :stordita:
Cosa devo fare io che c'ho la 1920x1200 :cry:
:incazzed: -> :bsod: :bsod: :bsod:
Che dai driver 8.36 ai 8.37 c'è stato un abbassamento della qualità d'immagine c'è scritto nelle note dei driver (note scritte da ATI/AMD mica da me) ;) hanno semplificato un algoritmo (nel caso di AF contemporaneo all'adaptive AA) , per rendere tutto più leggero a scapito, di una leggera (dicono loro) perdita di qualità d'immagine. (vedi AF forse inferiore a quello già scarso dei G70 e derivati :( )
Invece di quotare perchè non andate a guardare le foto su VR-zone ? giudicate con i vostri occhi che è sempre la cosa più intelligente da fare.
...ma sei sicuro d'aver letto bene??? no perchè i miei occhi leggono ciò:
The Filtering on the 8.37 is definitely at least on par or even better than the High Quality setting on the 8.36. You get the faint impression that textures seem to be slightly more detailed on the 8.37. So I didn't really care that the High Quality Option was missing on the 8.37 drivers with the X2900XT.
E Vr-Zone, la cui recensione a me piace perchè è fatta in modo serio, ha utilizzato i driver: 8-37-4-070419a
Coi nuovi driver (che loro non hanno potuto provare) 8.37.4.2_47323 si suppone (c'è NDA) che a new intelligent algorithm that increases FPS while applying similar image quality when running Adaptive Anti-Aliasing. In Oblivion, performance several times faster than previous drivers using the new adaptive AA algorithm was claimed to have been acheived. New optimizations for HDR applications in general resulted in a 5-30% increase in performance.
The 8.37.4.2_47323 is actually a pre-alpha driver, but it includes a preview of new 12xAA and 24xAA modes. These modes use an advanced edge detection filter that delivers edge quality while eliminating blurring.
Quindi, se non sono completamente rintronato (può essere :D ) i driver 8.37.4.2 aumentano gli FPS, introducono 12xAA, migliorano la qualità d'immagine (edge quality e niente blur), nuova ottimizzazione dell' HDR, nuovo algoritmo per l'AAA.
E sono driver pre-alpha, imho gli 8.38 hanno preso molto da questi driver...
;)
Kharonte85
13-05-2007, 23:15
Ho corretto... :asd:
Gia' meglio, ma non ho capito quali test avresti fatto...:stordita:
24fps con una Ultra, con l'uso di shader complessi.... (shatten hoch)
@1280x960....
Sinceramente spero proprio per nVidia che sia una barzelletta.. :asd:
Credo intenda le softshadows...o almeno cosi' mi è parso di capire leggendo l'articolo tradotto (visto che fa riferimento a FEAR) cmq quel grafico è la dimostrazione lampante di come in dx9 non ci si possa giocare assolutamente con schede "umane" :mc:
Cmq il 15 esce la demo, quindi non ci resta che aspettare...
Mister Tarpone
13-05-2007, 23:17
Cosa devo fare io che c'ho la 1920x1200 :cry:
:incazzed: -> :bsod: :bsod: :bsod:
e allora io??? che spero di poter giocare in dx10 con una semplice hd2600xt???
prepariamoci a 15fps a 1024x....:sob: altro che :bsod:
Free Gordon
13-05-2007, 23:19
capisco che siete tutti fan boy ma se la vostra amata ati non e' seria cosa pretendete da una persona che si e' sbattuta una settimana a fare una recensione...ati ha rilasciato ieri i 8.38..rifare tutto in un giorno e' una follia
Il pensiero comune era che solo quelli che sono andati a Tunisi avessero gli 8.38 dall'inizio.
Realtà o fantasia? :D
Io non lo so, però so che domani sarà una giornata di fuoco per tutti! :sofico:
Zlatan91
13-05-2007, 23:19
se si va avanti cosi implementeranno gli shader 5 e le dx11 solo via driver.....XD
Zlatan91
13-05-2007, 23:20
ma quelli che ce l hanno sotto nda, l hanno provata con gli ultimi driver "segreti"?
bonzuccio
13-05-2007, 23:22
Viste le attuali prestazioni dx9, gli acquirenti di G80 (me compreso) hanno avuto oggi la prova tangibile che la scheda che hanno acquistato 8 mesi fa è ancora la migliore... per cui non c'è nulla di cui incazzarsi...
Tra l'altro, chi ha comprato G80, l'ha presa per avere la migliore sk dx9 disponibile... e sono 8 mesi che ci gioca alla grande coi migliori filtri visti finora.
Infine, quando ci saranno titoli dx10 davvero seri, G80 l'avremd già cambiato 2 volte.;)
se non ci fossero tutti gli attori di cui il mercato ha bisogno ati non avrebbe tirato fuori una vera dx10 in cosi poco tempo.. :)
Magari se tutto fila liscio avremo pure una fascia media degna di questo nome a prezzi sensati
Mister Tarpone
13-05-2007, 23:22
ma quelli che ce l hanno sotto nda, l hanno provata con gli ultimi driver "segreti"?
speriamo di si :) ....
La rece di VR-Zone è ufficiale visto che per loro è il 14 maggio da parecchie ore. (non ricordo in quale sperduto paesino del Pacifico abbia la sede "oraria" :eek: .........sono dei marpioni :sofico: )
La rece di VRZone non è ufficiale perchè l'NDA scade il 14 maggio alle 15 CET in tutto il mondo. Ossia, finchè da noi non saranno le 15, l'NDA è ancora up.
Che dai driver 8.36 ai 8.37 c'è stato un abbassamento della qualità d'immagine c'è scritto nelle note dei driver (note scritte da ATI/AMD mica da me) ;) hanno semplificato un algoritmo (nel caso di AF contemporaneo all'adaptive AA) , per rendere tutto più leggero a scapito, di una leggera (dicono loro) perdita di qualità d'immagine. (vedi AF forse inferiore a quello già scarso dei G70 e derivati :( )
Invece di quotare perchè non andate a guardare le foto su VR-zone ? giudicate con i vostri occhi che è sempre la cosa più intelligente da fare.
Giudicare cosa, un'immagine compressa zoomata? Il cavallo dello stendardo in Oblivion è davvero piccolo a schermo normale ingame. :rolleyes:
Infine, quando ci saranno titoli dx10 davvero seri, G80 l'avremo già cambiato 2 volte.;)
Quindi tu cambierai 2 volte scheda da qui alla fine dell'anno, a meno che per te Crysis, Bioshock, Age of Conan, lo stesso Lost Planet, non siano "davvero seri".
Più che altro è che li avranno fatti con dei driver vecchissimi per entrambe le schede.
Non so se hai notato questi:
..Cut..
Forse sono un po' OT :stordita: cmq quello che ammazza le prestazioni è l'attivazione delle softshadows non il passaggio a dx10 (che anzi sulla Ultra aumenta le prestazioni)
Infatti nel messaggio di prima commentavo quel grafico. In effetti è in contrasto con quanto scrivono nell'articolo, dove parlano di prestazioni dimezzate... :mbe:
Comunque non conosciamo i settings precisi usati nel gioco, quindi è presto per parlare. Comunque mi aspettavo che un gioco pensato per le nVidia andasse molto meglio: ricordiamoci che non siamo nemmeno a 1280x1024, ma un po' meno. La 8800 GTS 640 a 1600x1200 AA4x sicuramente scatta di brutto.
uhmmmm ancora parlate di ritardo...ma ritardo rispetto a cosa e a chi? a nvidia? o alla tecnologia presente sul mercato ed effettivamente utilizzabile? il ritardo è al max nel rilascio del prodotto ma non nella realizzazione del progetto e cmq c possono essere mille motivi perkè ciò sia accaduto.nn avete capito ke queste aziende quando rilasciano un prodotto nuovo stanno già pensando e realizzando il progetto del successore.ke ati abbia avuto problemi,anke economici dopo l'acquisto da parte di AMD è indiscutibile ma ancora io non capisco perkè parlate di ritardo.le schede ke giravano bene in dx9 erano già sul mercato,ati non ha + pensato alle dx9,solo i partners hanno realizzato progetti ke differivano un pò dai reference per questioni di layout,oc e raffreddamento o come la x1950pro di sapphire CF su singola scheda.ma Crysis è uscito nell'estate 2006?? peccato allora me lo sono perso,potevo comprarlo subito :D
a me nn interessa nè d ati nè d nvidia ma sotto sotto spero ke r600 sia davvero superiore in dx10 così almeno si giustifikerà questo vostro "ritardo"
...ma sei sicuro d'aver letto bene??? no perchè i miei occhi leggono ciò:
The Filtering on the 8.37 is definitely at least on par or even better than the High Quality setting on the 8.36. You get the faint impression that textures seem to be slightly more detailed on the 8.37. So I didn't really care that the High Quality Option was missing on the 8.37 drivers with the X2900XT.
E Vr-Zone, la cui recensione a me piace perchè è fatta in modo serio, ha utilizzato i driver: 8-37-4-070419a
Coi nuovi driver (che loro non hanno potuto provare) 8.37.4.2_47323 si suppone (c'è NDA) che a new intelligent algorithm that increases FPS while applying similar image quality when running Adaptive Anti-Aliasing. In Oblivion, performance several times faster than previous drivers using the new adaptive AA algorithm was claimed to have been acheived. New optimizations for HDR applications in general resulted in a 5-30% increase in performance.
The 8.37.4.2_47323 is actually a pre-alpha driver, but it includes a preview of new 12xAA and 24xAA modes. These modes use an advanced edge detection filter that delivers edge quality while eliminating blurring.
Quindi, se non sono completamente rintronato (può essere :D ) i driver 8.37.4.2 aumentano gli FPS, introducono 12xAA, migliorano la qualità d'immagine (edge quality e niente blur), nuova ottimizzazione dell' HDR, nuovo algoritmo per l'AAA.
E sono driver pre-alpha, imho gli 8.38 hanno preso molto da questi driver...
;)
Potrei essere rintronato io :) , e quel "trucchetto" è quello per i 8.37 -> 8.38 (avevo letto il txt delle release note e mi sembrava quello dei .37 :confused:.....mo lo vado a ripescare nella cronologia del browser ) però indipendentemente da chi è rintronato (probabile tutti e 2 :D ) la qualità dell'AAA o (TAA/TAAA per nVidia) e AF è decisamente scarso con gli 8.37. (scarso è un eufemismo :( )
Le foto del cavallo e del fogliame degli alberi sono emblematiche (la cosa buffa è che le vecchie X800 e X1800/19x0 hanno una IQ migliore di R600, e questa cosa non la sopporto, fare peggio di G80 ci può stare ma peggio di R430 no :mad: )
Speriamo nei .38 :sofico: (effetivamente forse hanno fatto casino con i .37, perchè una cosa del genere è veramente strana, per l'AF siamo ai livelli di PS3.........e ho detto tutto :Puke: )
Scrambler77
13-05-2007, 23:29
Gia' meglio, ma non ho capito quali test avresti fatto...:stordita:
http://www.hwupgrade.it/forum/showpost.php?p=16913464&postcount=10302
Zlatan91
13-05-2007, 23:29
noooo alle 15...io domani torno alle 18.......oh no!!!! ok fuga.....
Kharonte85
13-05-2007, 23:31
Infatti nel messaggio di prima commentavo quel grafico. In effetti è in contrasto con quanto scrivono nell'articolo, dove parlano di prestazioni dimezzate... :mbe:
Comunque non conosciamo i settings precisi usati nel gioco, quindi è presto per parlare. Comunque mi aspettavo che un gioco pensato per le nVidia andasse molto meglio: ricordiamoci che non siamo nemmeno a 1280x1024, ma un po' meno. La 8800 GTS 640 a 1600x1200 AA4x sicuramente scatta di brutto.
we had the opportunity to test a first demo to the first Direct-X-10-Spiel for the PC. Planet of Capcom draws uses the new API for a faster computation of the responding optics and makes possible in the Direct-3D-10-Pfad besides more beautiful shade (soft Shadows). The latters do not stand in the D3D9-Version for order, the maximum attitude in the menu are "means". We tested the demo version in detail and to offer to you in following bench mark and massively pictures of the Third person Shooters. A Ingame video is supplied later. The test values (see below) to show clearly large hunger after diagram map achievement. The Geforce 8800 Ultra beacons the play in the D3D9-Modus without problems. If one switches however into the D3D10-Modus including soft Shadows, the Framerate over 50 per cent breaks in. Shooter friends already know this phenomenon from F.E.A.R. (dt.) and Riddick (dt.), which with soft Shadows grandios look, but similarly break in. Pleasing it is however that the D3D10-Modus with the detail attitudes of the D3D9-Pfads about ten per cent runs faster. The fact is less good that a Radeon X1950 XTX for 1.280x960 is sufficient including 4x FSAA and 8:1 AF only hair sharp. The min Fps often breaks in in the Effektgetuemmel owing to demanding snow particle effects into the unspielbaren range; the X1950 pro reaches hardly playable Gefilde according to. The Geforce 7900 GTX strikes itself only more wacker, because she is not able to spend the FP16-HDR-Rendering with Multisampling (MSAA) combined. It computes the bench mark therefore only with 8x AF. According to Capcom the demo version will appear accessible soon also for all. Release of the full version takes place however only on 29 June. Update: As Nvidia in a Blog admits gave, will the demo too draws to planet starting from 15 May for the Download to be offered. Thus will it draws to planet to apparent create, to be which first play-cash Direct-X-10-Titel - even if the final version appears only in June.
Traduzione in Inglese dell'articolo, si capisce ;)
http://www.hwupgrade.it/forum/showpost.php?p=16913464&postcount=10302
OK...cmq qua si parla di un gioco completo. FINE OT
però dai.... spendo 700€ di scheda?? per poi fare 24fps con dett. al max a 1280x e 4xaa???
---------------------------:bsod:
mi auguro che sia solo colpa di una scarsa ottimizzazione di questo gioco........ :stordita:
E pensare che è ottimizzato per nVidia... :asd:
24fps con una Ultra, con l'uso di shader complessi.... (shatten hoch)
@1280x960....
Sinceramente spero proprio per nVidia che sia una barzelletta.. :asd:
Credo intenda le softshadows...o almeno cosi' mi è parso di capire leggendo l'articolo tradotto (visto che fa riferimento a FEAR) cmq quel grafico è la dimostrazione lampante di come in dx9 non ci si possa giocare assolutamente con schede "umane" :mc:
Cmq il 15 esce la demo, quindi non ci resta che aspettare...
Credo che abbiate ragione entrambi... Nel senso che Shatten Hoch dovrebbe significare ombre alte, ma comunque le soft-shadows delle DX10 sono di un tipo diverso rispetto a quello DX9, ancora migliore.
Se una scheda che costa in media 800€, uscita pochi giorni fa, non riesce a gestire nemmeno il primo dei giochi DX10 (ottimizzato per la sua architettura) con tutto al max e AA attivato a 1280x960, è un mezzo scandalo, comunque.
...ma sei sicuro d'aver letto bene??? no perchè i miei occhi leggono ciò:
The Filtering on the 8.37 is definitely at least on par or even better than the High Quality setting on the 8.36. You get the faint impression that textures seem to be slightly more detailed on the 8.37. So I didn't really care that the High Quality Option was missing on the 8.37 drivers with the X2900XT.
E Vr-Zone, la cui recensione a me piace perchè è fatta in modo serio, ha utilizzato i driver: 8-37-4-070419a
Coi nuovi driver (che loro non hanno potuto provare) 8.37.4.2_47323 si suppone (c'è NDA) che a new intelligent algorithm that increases FPS while applying similar image quality when running Adaptive Anti-Aliasing. In Oblivion, performance several times faster than previous drivers using the new adaptive AA algorithm was claimed to have been acheived. New optimizations for HDR applications in general resulted in a 5-30% increase in performance.
The 8.37.4.2_47323 is actually a pre-alpha driver, but it includes a preview of new 12xAA and 24xAA modes. These modes use an advanced edge detection filter that delivers edge quality while eliminating blurring.
Quindi, se non sono completamente rintronato (può essere :D ) i driver 8.37.4.2 aumentano gli FPS, introducono 12xAA, migliorano la qualità d'immagine (edge quality e niente blur), nuova ottimizzazione dell' HDR, nuovo algoritmo per l'AAA.
E sono driver pre-alpha, imho gli 8.38 hanno preso molto da questi driver...
;)
A questo proposito, una precisazione sull'articolo di VR-Zone fatta su Beyond3D.
Just a few things I noted that bug me from the VR-Zone piece.
When they tested Anistropic Filtering, for some reason they decided to also enable "best" AA modes. Problem is, that 16x CFAA uses a wide tent that blurs the image. Thus, they aren't really judging Anistropic Filtering at all, but are judging something totally different.
So at this point I still haven't a clue how R600's AF compares to G80's AF. Grrrr. Hopefully reviews on Monday will do a better job.
Likewise, it sounds like 12x CFAA (8x + Narrow Tent) and 24x CFAA (8x + Edge Detect) are enabled in 8.38. For someone like me, and I'd assume most others on this board, those have the greatest potential of bringing improved AA quality to the table.
24x CFAA sounds the most intriguing. What exactly does ATI mean by edge detect. I can't imagine they mean something as simple as polygon edges, as that would just how current AA is done on both vendors cards, right?
So does this mean it actually has an algorythm that analyzes a texture or entire image and find instances where there are lines/edges and only applies a tent filter to those case. And otherwise doesn't apply narrow or wide tent to the rest of the image/textures?
So in effect it would be trying to anti-alias anything that appears to be a line or an edge on the screen even if it isn't an actual edge of an object. While leaving everything else as it is. If so, this sounds very intriguing. However, I shudder to think of the performance impact something like this would have.
Regards,
SB
http://www.hwupgrade.it/forum/showpost.php?p=16913464&postcount=10302
Quella è praticamente una techdemo nVidia, farà infatti parte di GPU Gems 3, seppur non creata direttamente da lei e seppure possa girare su ogni scheda DX10.
ALM mi hai riacceso la speranza del supporto dell'AA con il "deferred shading"........quel "edge detect" mi ispira....................:eek:
Comunque non sono il solo ad avere notato un AF così schifoso da sembrare ridicolo nel 2007 (la teoria di un casino dei driver, vedi attivazione di una modalità di AA che sfuoca un po' tutto :muro: sembra valida)
Se mi migliorano l'AAA e l'AF R600 torna in pista (comunque la modalità di AA che "spalma" tutto è un bello sfondone)............se mi supporta l'AA con il "deferred" uccide il G80 anche se fa qualche frame in meno e consumo una manciata di Watt in più.
Speriamo bene :tie: :tie: :tie:
Con questo R600 passo da momenti di depressione a momenti euforici nel giro di pochi minuti.....................peggio di un eroinomane :sofico:
Free Gordon
13-05-2007, 23:44
Stando i test di VR-zone, la 2900XT consuma 5W in meno della GTX in idle e 17W in più in load.
Se sono veritieri del prodotto finale, si pensava di peggio insomma! :D
Diciamo che come consumi delle board siamo lì, anche se c'è da considerare che la GTX ha 256MB di ram in più. ;)
Se con gli 8.38 sarà simile in prestazioni nelle dx9 (alla GTX), questa scheda, considerando il prezzo, sarà un ottimo partito.
Ps. senza considerare che ad AMD costerebbe meno della rivale GTX, in produzione. ;)
Scrambler77
13-05-2007, 23:44
OK...cmq qua si parla di un gioco completo. FINE OT
Infatti io rispondevo al discorso sulle soft-shadows in dx10, non al gioco completo. :rolleyes:
MiKeLezZ
13-05-2007, 23:48
R600 consuma più di G80 e va di meno :( e la qualità d'immagine è nettamente inferiore alla scheda nVidia, credo che sia inutile fare troppi discorsi.
Se le X800 prima e X1800/1900 poi, demolivano in tutti i campi le serie 5/6/7 ora si è ribaltato il tutto.
Chi spera in strepitose prestazioni in DX10 è meglio che si renda conto che i giochi DX10 non usciranno prima del 2009 (natale 2008 con un po' di sano ottimismo), quindi saranno sfruttate da R600 come sono stati sfruttati i PS3.0 dalle nVidia serie 5 :sofico:
Spero che tutti quelli che hanno dato dei ciarlatani a quelli di DT, TPU e IT-review si cospargano il capo di cenere :read: e chiedano "virtualmente" scusa. (dato che i loro test erano veri)
PS. se i driver nuovi (8.38) porteranno significativi incrementi di performance sarà solo perchè ATI avrà deciso di abbassare ancora la qualità d'immagine (gli 8.37 questo hanno fatto :mad: e la si nota moltissimo)
Bisogna dire però che questo "giochino" è stato inventato tempo fa da nVidia quando prendeva la paga ai tempi delle 9700 ;) e da allora solo schede ATI sono entrate nel mio case.
Attendiamo nuove rece ufficiali ma al momento una scheda ATI nel mio Antec non ci entra. (speriamo nel miracolo :D )Sono stato assente in questi giorni, ma attenzione a cadere in facili trappole del marketing... Ovvero i test sintetici farlocchi su giochi/applicativi inesistenti.
Ha poco senso dire "R600" (o G80") va più/meno in DX10, se non esistono applicativi che li utilizzano.
I benchmark, seppur usino tali librerie, NON sono attendibili, per lo stesso identico e semplice motivo per cui non lo sono il test della RAM di Sisoft Sandra (o SuperPi..), il benchmark in lettura sequenziale di HD Tach, il 3DMark, e via dicendo.
Della stessa serie, attenzione anche alle feature farlocche.. a tutti fa piacere che la propria scheda abbia HDR, AA figo a 48x, DX10 e via dicendo, ma purtroppo non sempre innovazione va a braccetto con performance (anzi), infatti le prime schede dotate di SM3.0 in realtà non potevano usufruirne (es. Serie 6), stesso per le Soft Shadows di FEAR e idem ancora per l'HDR + AA (X1).
Mi auguro queste DX10 non facciano la stessa fine, credo che nessuno voglia giocare "DX10", con poi 12 FPS.
Per la qualità dei filtri, vedremo (domani?), ma molto probabilmente l'anisotropico non sarà al pari nvidia, valido come da tradizione l'AA (in questi giorni l'han pubblicizzato parecchio), ma vedremo il suo impatto prestazionale (il nuovo CSAA di nvidia è ottimo in questo senso)
MiKeLezZ
13-05-2007, 23:55
Stando i test di VR-zone, la 2900XT consuma 5W in meno della GTX in idle e 17W in più in load.
Se sono veritieri del prodotto finale, si pensava di peggio insomma! :D
Diciamo che come consumi delle board siamo lì, anche se c'è da considerare che la GTX ha 256MB di ram in più. ;)
Se con gli 8.38 sarà simile in prestazioni nelle dx9 (alla GTX), questa scheda, considerando il prezzo, sarà un ottimo partito.
Ps. senza considerare che ad AMD costerebbe meno della rivale GTX, in produzione. ;)I 256MB in più sono i 5W in meno, fra l'altro la GTX sarebbe in realtà mezza buggata, visto che non rallenta di clock quando in idle (feature invece implementata nella serie 8600/8400), quindi aspettiamoci un refresh che farà da toccasana. 17W non sono pochi ma in effetti si aspettava di più, si aspettava anche la XTX, a dire il vero ;)
Per il costo di produzione, perchè dovrebbe costare meno? Semmai produrre un R600 costa molto di più, sopratutto se contiamo il tempo perso per la revisione del chip e per la revisione dei driver, sono 6 mesi in più di sviluppo in cui si è speso senza guadagnare (anzi, si perdeva, visto che il settore GPU di ATI ha segnato un passivo nell'ultimo periodo).
Senza contare inoltre che la fabbrica non è ancora a regime, quindi necessariamente scarterà molti chip, almeno per i primi 2 mesi, fino a che verranno aggiustate le maschere litografiche
Free Gordon
14-05-2007, 00:07
Per il costo di produzione, perchè dovrebbe costare meno? Semmai produrre un R600 costa molto di più, sopratutto se contiamo il tempo perso per la revisione del chip e per la revisione dei driver, sono 6 mesi in più di sviluppo in cui si è speso senza guadagnare (anzi, si perdeva, visto che il settore GPU di ATI ha segnato un passivo nell'ultimo periodo).
Il chip è completo ed è a 80nm, al contrario di G80 che è a 90.
G80 ha l'nvIO esterno e ne deriva anche che il pcb di G80 è più complesso (è più lunga di 3 cm).
Ha più ram on board e le ram sono ad una frequenza più alta. ;)
Morale: costa decisamente di più la GTX che la XT (a livello di produzione).
Se invece parliamo a livello di R&D allora credo che sia costata di più la XT, probabilmente. :D
Ma io parlavo di produzione.
Free Gordon
14-05-2007, 00:11
La rece di OCW, conclude così:
"When it comes to real games, running them with AA/AF at high resolutions, the card gave some better results when compared to the NV's 8800GTX. This is probably due to a 512 bits memory controller instead of 384bits on 8800GTX".
I driver sono ancora gli 8.37...
In pratica alle alte res, con filtri, sarebbe migliore la 2900XT della 8800GTX...:mbe: :mbe:
insomma dite che ho fatto bene a prendere la XFX 8800gts XXX 320 mb in questo momento ? :stordita: , ho fatto una cazzata immane ? :stordita: come qualità di immagine mi pare molto superiore la 8800, e anche come frame. voi che dite?
Free Gordon
14-05-2007, 00:21
insomma dite che ho fatto bene a prendere la XFX 8800gts XXX 320 mb in questo momento ? :stordita: , ho fatto una cazzata immane ? :stordita: come qualità di immagine mi pare molto superiore la 8800, e anche come frame. voi che dite?
La 8800GTS 320 costa 250 euro.
La 2900XT 400.
Non sono due fasce di prezzo paragonabili, per quella fascia di prezzo (250 euro), la tua scheda è ottima. ;)
Per il resto, aspettiamo la rece di hwup, domani. :D
Mister Tarpone
14-05-2007, 00:21
insomma dite che ho fatto bene a prendere la XFX 8800gts XXX 320 mb in questo momento ? :stordita: , ho fatto una cazzata immane ? :stordita: come qualità di immagine mi pare molto superiore la 8800, e anche come frame. voi che dite?
io avrei aspettato... :fagiano: cmq dai ...alla fine hai preso una buona scheda :fagiano: (:stordita: ):fagiano:
TecnoWorld8
14-05-2007, 00:22
sperando che usino i famigerati 8.38 così siamo tutti contenti e soddisfatti...
nooo lo sapevo... la xfx 8800gts XXX è la versione overcloccata, che io ho pagato 370€ :asd: insomma ho fatto la + grande cazzata di tutti i tempi :cry:
Mister Tarpone
14-05-2007, 00:26
nooo lo sapevo... la xfx 8800gts XXX è la versione overcloccata, che io ho pagato 370€ :asd: insomma ho fatto la + grande cazzata di tutti i tempi :cry:
oh mamma mia :eek: !!!
ma è troppo!!!
sorry. hai fatto un pessimo affare :nono:
bonzuccio
14-05-2007, 00:27
nooo lo sapevo... la xfx 8800gts XXX è la versione overcloccata, che io ho pagato 370€ :asd: insomma ho fatto la + grande cazzata di tutti i tempi :cry:
te la sei cercata cn tutte le forza comunque :fagiano:
può capitare ma intanto se l'hai presa da un po hai goduto il giusto
te la sei cercata cn tutte le forza comunque :fagiano:
può capitare ma intanto se l'hai presa da un po hai goduto il giusto
una settimana fa :eek: :eek: :eek: :eek: :eek: :eek:
bonzuccio
14-05-2007, 00:29
Diritto di recesso tutta la vita :D
Mister Tarpone
14-05-2007, 00:29
una settimana fa :eek: :eek: :eek: :eek: :eek: :eek:
ma stai scherzando vero??
http://www.steampowered.com/activateATI/ :D
ma stai scherzando vero??
MAGARIII!!!!!!! ma come è possibile, cioè ho capito che questa è più potente di una 8800gts normale, ma ora che mi dite che la avrei trovata a 250€ mi tramortisco contro la sponda del letto:cry: :cry: .
TecnoWorld8
14-05-2007, 00:40
già solo per questo pack bonus, questa scheda vale moltissimo :D
ma tutte le hd2900xt avranno la possibilità di avere questo pack? o solo certe marche?
TecnoWorld8
14-05-2007, 00:41
MAGARIII!!!!!!! ma come è possibile, cioè ho capito che questa è più potente di una 8800gts normale, ma ora che mi dite che la avrei trovata a 250€ mi tramortisco contro la sponda del letto:cry: :cry: .
a 250€ una GTS normale, la tua forse costa di più perchè factory overclocked. ma per quel prezzo, questa nuova hd2900xt è sicuramente meglio...
a 250€ una GTS normale, la tua forse costa di più perchè factory overclocked. ma per quel prezzo, questa nuova hd2900xt è sicuramente meglio...
infierite pure :muro: :muro: :muro: :muro: :muro:
Mister Tarpone
14-05-2007, 00:44
MAGARIII!!!!!!! ma come è possibile, cioè ho capito che questa è più potente di una 8800gts normale, ma ora che mi dite che la avrei trovata a 250€ mi tramortisco contro la sponda del letto:cry: :cry: .
:fagiano: ma ti rendi conto che se avevi la pazienza di aspettare (solo 7 giorni poi...:fagiano: ) con 30€ in più ti ci scappava una XT ???:fagiano:
:fagiano: ma ti rendi conto che se aspettavi (solo 7 giorni...:fagiano: ) con 30€ in più ti ci scappava una XT ???:fagiano:
tranquillo me ne stò rendendo conto progressivamente, probabilmente domani mattina mi sveglierò e comincerò a rotolarmi sul pavimento in fibrillazione :muro: urlando pure :asd: ... che deprimente...
MiKeLezZ
14-05-2007, 00:48
Il chip è completo ed è a 80nm, al contrario di G80 che è a 90.
G80 ha l'nvIO esterno e ne deriva anche che il pcb di G80 è più complesso (è più lunga di 3 cm).
Ha più ram on board e le ram sono ad una frequenza più alta. ;)
Morale: costa decisamente di più la GTX che la XT (a livello di produzione).
Se invece parliamo a livello di R&D allora credo che sia costata di più la XT, probabilmente. :D
Ma io parlavo di produzione.Mi sembra un'analisi semplicistica e riduttiva, inoltre un processo a 80nm non è paragonabile a uno a 90nm rodato da 6 mesi.
Mi riservo polemiche sugli altri ambiti, semplicemente per l'inutilità delle stesse... anche se volendo si potrebbe considerare costo di R600 anche la donna delle pulizie che lava il WC dell'ufficio degli ingegneri (adeguatamente scorporandone la paga da altri eventuali compiti)!La rece di OCW, conclude così:
"When it comes to real games, running them with AA/AF at high resolutions, the card gave some better results when compared to the NV's 8800GTX. This is probably due to a 512 bits memory controller instead of 384bits on 8800GTX".
I driver sono ancora gli 8.37...
In pratica alle alte res, con filtri, sarebbe migliore la 2900XT della 8800GTX...:mbe: :mbe:Parla di prestazioni.
Scrambler77
14-05-2007, 00:59
Ma LOL! Mai viste tante forzature tutte insieme!! :asd:
P.S: pare che il problema di performance diagnosticato con G80 sulle SDK DX10 sia dovuto ad un problema del compilatore (pipe geometry shader) in relazione al driver utilizzato... Uno sviluppatore è riuscito a passare da 60 a 500fps nello stesso test SDK... ;)
Dal forum MSDN:
"From my limited experiments I have determined that the compiler doesn't optimize GS code yet, at least not very well. Simply by unrolling loops one test case went from 60fps to 500fps."
Probabilmente è il famoso "driver-issue" al quale anche i fans ATi si appellano in relazione alle deludenti performance della XT in dx9...
Da VR-Zone:
"There is definitely a driver issue when running Anti-Aliasing on Lost Coast with the X2900XT. The performance is horrid, even losing out to a X1950XTX. Hopefully, this can be addressed at the new driver revision and we hope to see the kind of Anti-Aliasing efficiency we've seen in Quake 4 on this game."
Non penso che nVidia abbia grossi problemi in DX10: http://www.tomshw.it/news.php?newsid=9970
Tranquilli... ne vedremo delle belle anche su dx10... ;)
Free Gordon
14-05-2007, 01:58
Parla di prestazioni.
E' proprio quello il problema.. :mbe:
Pensavo che in quanto a prestazioni con gli 8.37, la GTX fosse in vantaggio sulla XT...
nooo lo sapevo... la xfx 8800gts XXX è la versione overcloccata, che io ho pagato 370€ :asd: insomma ho fatto la + grande cazzata di tutti i tempi :cry:
:eek: nooooooooooooo :cry: perkèèèèèèèèèèè :D potevi decisamente aspettare ma proprio senza dubbi,cmq nn credo ke t darà grossi problemi,in ogni caso la 8800 anke in versione gts,almeno in dx9 :),è una buona skeda,di sicuro bastava quella originale,magari la occavi un pò tu
Free Gordon
14-05-2007, 02:50
Altra rece:
http://www.tbreak.com/reviews/article.php?cat=grfx&id=511&pagenumber=1
Free Gordon
14-05-2007, 03:12
Un commento interessante da Frank (B3D):
"Like the previous generations, the R600 is optimized for calculating over texture fetches. Add to that, that it is much easier to schedule stuff for the G80 to keep all ALUs filled, and for the R600 lots of portential scheduling hazards for the ring bus (and memory controller).
If you go DX10, calculate as much of your geometry and lighting as possible, the R600 will most likely do very well, if they get the compiler and resource hazards sorted out. And, it seems that (for now) both of those things run quite a bit below par.
On current generation games that use filtered textures for just about anything, it won't surpass the GTX. On next generation games, that use point sampling (data arrays) for much of the workload, it could. It has rather complex texture units, that are very good in point sampling, but much less so in filtered samples, especially if those are floating point."
;)
Mister Tarpone
14-05-2007, 03:15
Altra rece:
http://www.tbreak.com/reviews/article.php?cat=grfx&id=511&pagenumber=1
mah...questa scheda avrà anche 320shader e bus a 512bit ma a quanto pare non primeggia in niente :sob:
ma che hanno combinato a questo giro?? cmq ...almeno non costa tantissimo ;)
ps:spero che anche questa rece sia stata fatta con i driver sola,veramente... :fagiano:
mah...questa scheda avrà anche 320shader e bus a 512bit ma a quanto pare non primeggia in niente :sob:
ma che hanno combinato a questo giro?? cmq ...almeno non costa tantissimo ;)
ps:spero che anche questa rece sia stata fatta con i driver sola,veramente... :fagiano:
scusa mister,intanto i giochi provati li hai visti? sono call of duty 2,fear,quake4 e serious sam 2...quindi nn ce ne può fregare d meno,ormai del tutto :old: (guarda caso sviluppati tutti 2+ anni fa e usciti nello stesso periodo) e dx9 dove si è quasi sicuri,con i drivers odierni, a meno d 8.38 ke è tutto da vedere,ke la ati è superiore in d3d alla 8800gts ma non gtx...c sono tanti d quei gioki recenti e ke stressano il reparto grafico ed invece...lasciamo perdere :) aveva quelli ;).è ormai in dx10 ke sarà veramente importante il confronto,può perdere o no anke in questo caso ma non è questo il punto,io penso ke nn si debba pensare alla 2900 per i gioki in dx9,tutto qui.ora ovviamente provano questi per mancanza di titoli nuovi.se poi volete giocare ancora per un annetto in dx9 è tutta un'altra storia e basta anke una x19x0 o per nvidia una 7900,tra l'altro da oggi in poi credo ke i prezzi si abbasseranno notevolmente per ati perkè già sta facendo il lancio della 2900 a prezzo concorrenziale,figuriamoci se non si affrettano a tagliare i prezzi delle serie precedenti.amd-ati hanno bisogno di risollevarsi economicamente e credo ke questo sia l'unico modo,soprattutto se si prospetta la sconfitta della 2900.
raga su un altro sito hanno publicato una recensione più che completa della HD 2900XT, e daccordo in diversi test è risultata sopra le 8800GTX, ma in molti no. allora spero che su qui abbiano fatto il test con l'SDK di MS, giusto da vedere le prestazioni in DX10, cmq sono rimasto un po' male. certo continuo a dire che aspetto i risultati su qua, però.... cmq su quel sito hanno usato i driver 3.37 e non gli 8.38, non avevate detto che quest'ultimi miglioravano le prestazioni del 30%? (nn qui ma sul THREAD UFFICIALE Aspettando ATi HD 2900XT)
halduemilauno
14-05-2007, 06:21
http://www.tomshw.it/graphic.php?guide=20070514
Con l'arrivo della X2900XT le forze in campo si riequilibrano, anche se Nvidia ha avuto ben sei mesi per vendere le proprie schede, e ora dispone di una completa linea di prodotti, mentre AMD si è limitata a schierare solo il "centravanti".
Dal punto di vista dell'architettura la HD 2900 è sicuramente il prodotto più interessante sul mercato, grazie agli shader unificati, alla compatibilità più completa possibile con DirectX 10, alla nuova implementazioni di Avivo e alla connettività HDMI con controller audio integrato.
Tutte caratteristiche fantastiche dal lato squisitamente tecnologico, ma che diranno poco al fanatico di giochi 3D che vuole frame rate maggiori e subito.
I responsabili marketing di AMD hanno molto enfatizzato il rapporto qualità/prezzo della HD 2900 XT.
Il prezzo è interessante: 399 euro, che comprendono un coupon per il download gratuito di Half-Life 2: Episode 2, Team Fortress 2 e un nuovo titolo chiamato Portal.
Dal punto di vista delle prestazioni, anche i fan più accaniti saranno delusi dal fatto che la nuova ammiraglia di casa AMD/ATI non conquista il trono delle prestazioni, cosa che si aspettavano veramente in tanti, soprattutto in considerazione degli oltre sei mesi di vantaggio su Nvidia.
La scheda AMD di fatto battaglia con la Nvidia 8800 GTS, uscendo molte volte vincitrice e solo in alcuni casi infastidisce il predominio della 8800GTX. Per vedere una svolta al vertice dovremo probabilmente attendere il nuovo modello XTX con 1GB di GDDR4 e, forse, processo produttivo a 65 nanometri.
Purtroppo per AMD la X2900XT in vendita da oggi, prodotta a 80 nm, non solo non segna record di velocità ma è una scheda rumorosa e che scalda molto. La ventola del nostro campione di prova parte alla massima velocità non appena si avvia un'applicazione 3D, diventando rumorosa e creando un potente getto d'aria calda. All'interno di un case non debitamente ventilato, la situazione può solo peggiorare. Se le schede 8800 di Nvidia hanno un vantaggio oggettivo e incontrovertibile è proprio quella della maggiore silenziosità.
Sul fronte dell'overclock la X2900XT si è comportata bene, e ci ha permesso di raggiungere le frequenze di 850 MHz sul core e 1000 MHz (2 GHz DDR) sulla memoria, con oltre 100 MHz di guadagno sui valori di default di 742 e 828.
Considerate però che anche le schede di Nvidia offrono un potenziale di overclock equivalente che equilibra la situazione. A discapito della scheda AMD c'è però da dire che se chi ha velleità di overclock sarà costretto a procurarsi un nuovo alimentatore dotato di connettori PCI Express a 8 pin, mentre le controparti Nvidia fanno ancora affidamento sui connettori PCI Express a 6 pin.
Naturalmente spingendo la scheda oltre le specifiche, aumenta ulteriormente il calore dissipato. Ecco perché un produttore accorto come Sapphire ha previsto da subito di presentare sul mercato un modello con raffreddamento a liquido di fabbrica, che potrebbe essere la migliore soluzione per chi vuole un HD 2900 silenziosa.
La soluzione HD 2900 XT Crossfire di Sapphire con raffreddamento a liquido di fabbrica.
Concludendo, la Radeon HD 2900 XT è, al momento, una splendida promessa in termini di tecnologia e compatibilità con le più moderne librerie grafiche e tecnologie di rendering in tempo reale. In redazione abbiamo molti esemplari di tecnologia avveniristica ma la sfera di cristallo non ce la siamo ancora procurata. Impossibile quindi predire o, meglio, quantificare i vantaggi in termini di frame rate e qualità video che queste caratteristiche porteranno nel medio periodo.
Che fare quindi, investire nella scheda del futuro o rimanere legati alla realtà del momento? Meglio l'uovo oggi o la gallina domani?
A chi preferisce l'uovo, consigliamo la GeForce 8800GTS da 640 o 320 MB, veloce e silenziosa.
A chi opta per la gallina, consigliamo comunque di attendere il modello HD 2900 (XTX?) con 1GB di GDDR4 prima di decidere il prossimo acquisto. Inoltre, in tutti questi discorsi non abbiamo considerato le contromosse di Nvidia, che non si faranno attendere.
;)
halduemilauno
14-05-2007, 06:30
dalle conclusioni della rece di Tom postata prima.
"Che fare quindi, investire nella scheda del futuro o rimanere legati alla realtà del momento? Meglio l'uovo oggi o la gallina domani?
A chi preferisce l'uovo, consigliamo la GeForce 8800GTS da 640 o 320 MB, veloce e silenziosa.
A chi opta per la gallina, consigliamo comunque di attendere il modello HD 2900 (XTX?) con 1GB di GDDR4 prima di decidere il prossimo acquisto. Inoltre, in tutti questi discorsi non abbiamo considerato le contromosse di Nvidia, che non si faranno attendere."
in tutti i casi non consigliano l'acquisto di questa hd2900xt.
;)
halduemilauno
14-05-2007, 06:35
http://www.hwupgrade.it/articoli/skvideo/1725/index.html
La scheda ATI Radeon HD 2900 XT, allo stato attuale soluzione top di gamma di ATI, ha riservato qualche sopresa ma anche diverse delusioni. Sebbene AMD indichi nelle soluzioni NVIDIA GeForce 8800 GTS le vere concorrenti della ATI Radeon HD 2900 XT, vi sono motivi di perlessità anche escludendo dall'analisi i modelli top NVIDIA GeForce 8800 GTX e Ultra.
Le più forti perplessità nascono dall'evelato consumo energetico, dalla rumorosità di esercizio e dalle temperature raggiunte dalla GPU sotto stress. La ATI Radeon HD 2900 XT consuma più di una GeForce 8800 Ultra, è più rumorosa sempre prendendo come riferimento il top di gamma NVIDIA e raggiunge le temperature della GeForce 8800 GTX,a fronte di prestazioni simili in diversi casi alla GeForce 8800 GTS equipaggiata con 640 MB.
Dal punto di vista puramente prestazionale infatti i risultati ottenuti dalla scheda ATI Radeon HD 2900 XT possano essere considerati tutto sommato simili a quelli della NVIDIA GeForce 8800 GTS con 640 MB, anche se da una soluzione presentata a distanza di mesi dalla propria concorrente di saremmo forse a spettati qualcosa di più. Una nota positiva giunge dai test condotti con il primo benchmark in grado di sfruttare le API DirectX 10, anche se il giudizio è rimandato a quando sarà possibile disporre di un numero maggiore di applicativi di analisi. E' indubbio che le soluzioni Radeon HD 2900 XT possano vantare numerosi margini di miglioramento prestazionale grazie all'ottimizzazione da lato driver: nel periodo di test da noi condotto, infatti, ATI ha rilasciati ai recensori varie note circa la correzione di problemi prestazionali incontrati nel corso dell'esecuzione di vari test. Il giudizio, quindi, quantomeno sul piano prestazionale non può essere considerato al momento attuale del tutto definitivo.
Molto elevato il vaore della bandwidth della memoria, grazie all'adozione di un bus memoria di 512 bit che permette di raggiungere il valore di ben 106 Gbytes/sec, anche se in pochissimi test è emerso un vero vantaggio riconducibile a questa caratteristica. Interessanti indicazioni invece sul fronte overclock:
Con la scheda giunta in redazione abbiamo raggiunto le frequenze di 850 MHz per la GPU e 2040 MHz per la memoria, a fronte di valori di default di 740 MHz e 1650 MHz rispettivamente.Un dato sicuramente interessante, anche se è bene ricordare come i margini di overclock possano cambiare drasticamente da un chip all'altro.
Le note positive non finiscono qui, in quanto menzioni particolari vanno riconosciute alle tecnologie UVD, Universal Video Decoder e HDMI con supporto anche ai flussi audio: AMD ha scelto indubbiamente una soluzione originale, potendo vantare un video processing engine dalle caratteristiche ben più complete di quanto non sia quello integrato da NVIDIA nelle GPU GeForce 8800. Ultimo, e non per importanza, il prezzo: AMD indica per questa soluzione la cifra di 399,00 Euro IVA Inclusa, che alcune voci non confermate danno come cautelativo e susscettibile di ribasso; in alcune nazioni europee AMD sta lavorando con i distributori per avere prezzi ufficiali inferiori, al limite vicini a 350,00€ tasse comprese, quindi crediamo possibile che nel corso dei prossimi mesi tale livello di prezzo possa venir raggiunto anche nel nostro mercato nazionale, o quantomeno livelli inferiori ai 400,00€ attuali.
Riassumento, al termine di questa lunga analisi quello che possiamo affermare è che:
la scheda ATI Radeon HD 2900 XT è sostanzialmente allineata alla soluzione GeForce 8800 GTS 640 Mbytes in termini di prestazioni velocistiche;
consumi e rumorosità di funzionamento sono peggiori alla soluzione concorrente di NVIDIA;
nettamente preferibile l'approccio ATI per la gestione dei flussi video, rispetto a quanto implementato da NVIDIA nelle GPU GeForce 8800;
il prezzo ufficiale proposto da AMD è di 399,00€ IVA compresa nel canale retail, con possibili diminuzioni da parte di alcuni partner. Si tratta di cifre mediamente inferiori a quelle delle soluzioni GeForce 8800 GTS 640 Mbytes anche se non sussistono differenze estremamente elevate al momento;
Radeon HD 2900 XT non è una soluzione che viene posizionata a diretta concorrenza con le soluzioni GeForce 8800 GTX tantomeno Ultra; del resto il livello di prezzo di queste ultime due schede è ben superiore.
Rimane comunque un po' di delusione, anche in virtù delle poche notizie riguardanti il vero modello top di gamma ATI, differenziato nella sigla da una piccola ma importante X. Nulla si sa infatti riguardo ai tempi di presentazione della scheda ATI HD 2900 XTX, che potrebbe far riguadagnare un po' della stima persa in questi mesi di dominio NVIDIA nella fascia alta da parte degli appassionati: dietro richiesta diretta di informazioni a riguardo AMD ha confermato che al momento attuale una scheda di questo tipo ufficialmente non esiste, anche se riteniamo possibile una sua presentazione nel momento in cui sarà disponibile la tecnologia produttiva a 65 nanometri anche per queste GPU, e soprattutto saranno risolti i problemi prestazionali legati all'utilizzo di memorie GDDR4 con clock di 2 GHz o superiori.
halduemilauno
14-05-2007, 06:47
http://www.hothardware.com/Articles/ATI_Radeon_HD_2900_XT__R600_Has_Arrived/
;)
dalle conclusioni della rece di Tom postata prima.
"Che fare quindi, investire nella scheda del futuro o rimanere legati alla realtà del momento? Meglio l'uovo oggi o la gallina domani?
A chi preferisce l'uovo, consigliamo la GeForce 8800GTS da 640 o 320 MB, veloce e silenziosa.
A chi opta per la gallina, consigliamo comunque di attendere il modello HD 2900 (XTX?) con 1GB di GDDR4 prima di decidere il prossimo acquisto. Inoltre, in tutti questi discorsi non abbiamo considerato le contromosse di Nvidia, che non si faranno attendere."
in tutti i casi non consigliano l'acquisto di questa hd2900xt.
;)
1)sempre Catalyst 8.37
2)hanno cominciato a testare su xp e poi sono passati invece a Vista per testare gioki dx9,condizione assolutamente non ideale per una gpu pensata per Vista e dx10,il meglio con questa skeda si otterrà da questi ultimi 2 elementi e c possiamo anke mettere una pietra sopra.
3)e qui ti volevo :D nella stessa recensione,sarà stato pure fatto in collaborazione con AMD ma non è ke AMD può stravolgere le dx10...
Call of Juarez è l'unico test DirectX 10 attualmente disponibile
http://www.tomshw.it/graphic.php?guide=20070514&page=ati_hd_2900_xt-24 a noi interessano i gioki...mi pare :D e anke la longevità di un prodotto...o no?? quindi in questo test 2900>=8800gtx e costa meno :) c'è da dire però ke è sicuramente un test molto preliminare perkè se sono quelli i risultati d entrambe le skede stiamo proprio freski con le dx10 :) ke pesantezza! incomincio a pensare ke quel presunto fake test di Crysis non era poi così fake.attendiamo ulteriori riscontri ovviamente,non basta d certo un solo test.sinceramente della rumorosità della ventola ke loro riscontrano me ne frego altamente,se anke avesse prestazioni uguali in dx10 un giorno o l'altro la raffreddo a liquido e la occo anke d +.e qual'è il problema? poi se le contromosse di nvidia prevedono il livellamento dei prezzi magari faccio testa o croce :rotfl: oppure se le dx10 attualmente comportano dei risultati così scarsi aspetto il secondo round.vorrei vedere la faccia d qualcuno dei possessori della 8800gtx,magari d quelli ke hanno speso tutti quei soldi al lancio,bella skeda in dx10,complimenti per l'acquisto,ora con altre 300+€ d differenza possono comprarsi anke la 8800 ultra.bisogna sempre aspettare quando escono nuovi prodotti,soprattutto se nn mantengono le promesse,nel campo informatico esistono i test.poi con i propri soldi ovviamente si può fare ciò ke si vuole ;)
Asterion
14-05-2007, 07:03
e qui ti volevo :D nella stessa recensione,sarà stato pure fatto in collaborazione con AMD ma non è ke AMD può stravolgere le dx10...
Call of Juarez è l'unico test DirectX 10 attualmente disponibile
http://www.tomshw.it/graphic.php?guide=20070514&page=ati_hd_2900_xt-24 a noi interessano i gioki...mi pare :D quindi in questo test 2900>=8800gtx e costa meno :)
attendiamo ulteriori riscontri ovviamente,non basta d certo un solo test.sinceramente della rumorosità della ventola ke loro riscontrano me ne frego altamente,se anke avesse prestazioni uguali in dx10 un giorno o l'altro la raffreddo a liquido e la occo anke d +.e qual'è il problema?
Dao 1280x1024 mi pare abbiano le stesse identintiche prestazioni pero... il minor prezzo è un lato positivo, va calcolato, però, anche il costo di una ventola più potente o di un sistema di raffreddamento a liquido.
halduemilauno
14-05-2007, 07:11
e qui ti volevo :D nella stessa recensione,sarà stato pure fatto in collaborazione con AMD ma non è ke AMD può stravolgere le dx10...
Call of Juarez è l'unico test DirectX 10 attualmente disponibile
http://www.tomshw.it/graphic.php?guide=20070514&page=ati_hd_2900_xt-24 a noi interessano i gioki...mi pare :D e anke la longevità di un prodotto...o no?? quindi in questo test 2900>=8800gtx e costa meno :)
attendiamo ulteriori riscontri ovviamente,non basta d certo un solo test.sinceramente della rumorosità della ventola ke loro riscontrano me ne frego altamente,se anke avesse prestazioni uguali in dx10 un giorno o l'altro la raffreddo a liquido e la occo anke d +.e qual'è il problema? poi se le contromosse di nvidia prevedono il livellamento dei prezzi magari faccio testa o croce :rotfl:
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_19.html
;)
http://www.hwupgrade.it/articoli/skvideo/1725/callofjuarez_driver42.png
Benissimo ragazzi, R600 ha debuttato... Sono state dette moltissime cose... Ora siamo davanti alla realtà... Da ciò, quindi, si deduce che.....
TUTTI A NVIDIA :D :D :D
halduemilauno
14-05-2007, 07:26
http://www.techpowerup.com/
"We tested the Radeon HD 2900 XT with ATI's 8.37 driver which is the official benchmarking driver for all R600 reviews. We tried 8.38 and 8.39 too, but they offer only +1% to - 1% performance difference which is within the margin of error of the benchmarks. The only gains you will see in extreme HD resolutions with highest AA and AF settings."
;)
vegeta88
14-05-2007, 07:27
Ragazzi sinceramente mi aspettavo qualcosa di meglio.
La delusione c'è ed è constatabile al momento per diversi fattori:
1)Ritardo a questo punto secondo mè ingiustificato.
2)Consumi e temperature.
3)Prende mazzate da tutti i lati dalla serie 8800(6mesi e + di vita sul groppone) e non venitemi a dire il contrario.
Non ci sono solo contro però:
I PRO:
1)Prezzo di lancio molto appetibile(si attende risposta Nvidia).
2)Driver che possono dare un notevole boost prestazionale(ma che hanno fatto in questi mesi alla AMD.( già dovevano studiare la stategia per
creare tanta attesa per questa vga?????????????).
Ciao:(
Saluto tutti quelli che ieri sera mi hanno insultato ma le conclusioni di Corsini sono identiche a quello che è stato considerato da tutti un post flammoso (pure da un mod :D ) e altro che non nomino. :muro:
Senza rancore ;) (era meglio avere torto :mad: )
halduemilauno
14-05-2007, 07:46
e nvidia non sta a guardare:
http://www.fudzilla.com/index.php?op...d=962&Itemid=1
Watch out R600
Nvidia dropped its prices significantly to prepare better for Radeon HD 2900XT launch. It specially adjusted the prices of the GTS series and today you can buy the 640 MB version for just about 300 to €310 including shipping and 320 MB costs even less.
You can buy a 320 MB card including shipping and handling cost for about €256 and the card works at the default frequencies and comes from Sparkle. The best part is that this card is marginaly slower then the 640 MB card and some €140 cheaper than Radeon HD 2900XT.
This will certainly put a lot of pressure on the Radeon HD 2900XT as the 320 MB of Geforce 8800 GTS performs better in many tests or at least comes close to a €140 expensive card. This will be a tough call for consumers.
You can order one here.
;)
250 per una 8800 GTS da 320 è veramente ottimo :eek:
http://www.hwupgrade.it/articoli/skvideo/1725/callofjuarez_driver42.png
qual'è allora il fake? manda una mail a quelli di tom's hardware e scrivi ke il loro è un fake. andiamo sempre peggio in dx10? entrambi ottimi acquisti allora :D
http://www.techpowerup.com/
"We tested the Radeon HD 2900 XT with ATI's 8.37 driver which is the official benchmarking driver for all R600 reviews. We tried 8.38 and 8.39 too, but they offer only +1% to - 1% performance difference which is within the margin of error of the benchmarks. The only gains you will see in extreme HD resolutions with highest AA and AF settings."
;)
ok con quali gioki e quale sistema operativo.
e nvidia non sta a guardare:
vedrai ke a breve dovranno abbassare anke quello della gtx,certo secondo quei test dx10 la gts non ce la può proprio fare :) vi dico io com'è la storia,nvidia ha avuto il vantaggio in tutto questo tempo sfornando per prima una gpu dx10 con prestazioni scadenti ke nessuno poteva testare,praticamente un inganno ancora peggiore di una 2900 ke almeno esce in un periodo utile,ora i test dx verranno a valanga uno dopo l'altro.
qual'è allora il fake? manda una mail a quelli di tom's hardware e scrivi ke il loro è un fake. andiamo sempre peggio in dx10? entrambi ottimi acquisti allora :D
ok con quali gioki e quale sistema operativo.
vedrai ke a breve dovranno abbassare anke quello della gtx
Su nordic hw continuano a dirmi che tutte queste review sono state fatte con driver vecchi. :|
Scrambler77
14-05-2007, 08:09
http://www.hothardware.com/Articles/ATI_Radeon_HD_2900_XT__R600_Has_Arrived/
;)
E quì si vede che anche i presunti 2000 punti in più al 3dmark06 della XT erano fuffa! :)
Scrambler77
14-05-2007, 08:10
e nvidia non sta a guardare:
http://www.fudzilla.com/index.php?op...d=962&Itemid=1
Watch out R600
Nvidia dropped its prices significantly to prepare better for Radeon HD 2900XT launch. It specially adjusted the prices of the GTS series and today you can buy the 640 MB version for just about 300 to €310 including shipping and 320 MB costs even less.
You can buy a 320 MB card including shipping and handling cost for about €256 and the card works at the default frequencies and comes from Sparkle. The best part is that this card is marginaly slower then the 640 MB card and some €140 cheaper than Radeon HD 2900XT.
This will certainly put a lot of pressure on the Radeon HD 2900XT as the 320 MB of Geforce 8800 GTS performs better in many tests or at least comes close to a €140 expensive card. This will be a tough call for consumers.
You can order one here.
;)
Comevolevasidimostrare! :asd:
Su nordic hw continuano a dirmi che tutte queste review sono state fatte con driver vecchi. :|
Non esistono driver magici gli 8.38 e gli 8.39 sono +-1% rispetto agli 8.37 :(
Solo un drastico abbassamento di qualità d'immagine potrebbe dare molti FPS in più, il problema è che l'IQ di R600 non è superiore a quella di G80 e quindi c'è poco da fare. (nVidia per fronteggiare ATI ha fatto questo "giochino" più di una volta, spero che AMD non si abbassi a tanto:eek: )
Scrambler77
14-05-2007, 08:12
Saluto tutti quelli che ieri sera mi hanno insultato ma le conclusioni di Corsini sono identiche a quello che è stato considerato da tutti un post flammoso (pure da un mod :D ) e altro che non nomino. :muro:
Senza rancore ;) (era meglio avere torto :mad: )
Hai tutta la mia solidarietà... :mano: :friend:
halduemilauno
14-05-2007, 08:21
http://www.hardware.fr/news/8812/ati-radeon-hd-2900-xt-debarque.html
http://www.hardware.fr/medias/photos_news/00/19/IMG0019936.gif
http://www.hardware.fr/medias/photos_news/00/19/IMG0019937.gif
;)
PS ma quandè che faranno il thread ufficiale?
OOOOK!...
Rece uscita (sezione articoli).... andate tutti "di là", ora! :O
:D
Saluto tutti quelli che ieri sera mi hanno insultato ma le conclusioni di Corsini sono identiche a quello che è stato considerato da tutti un post flammoso (pure da un mod :D ) e altro che non nomino. :muro:
Senza rancore ;) (era meglio avere torto :mad: )
Non avevo criticato il contenuto, ma il modo in cui era stato scritto... male... (esattamente come questo tuo sopra)... :D
Benissimo ragazzi, R600 ha debuttato... Sono state dette moltissime cose... Ora siamo davanti alla realtà... Da ciò, quindi, si deduce che.....
TUTTI A NVIDIA :D :D :D
ahahhahahhah che scheda videooooooooo!! va d+ un 320 in standard! è proprio piantata..a momenti va d+ la ati vecchia!
Asterion
14-05-2007, 08:26
ok con quali gioki e quale sistema operativo.
Ma soprattutto 7starts a 2048x2048? :D
Ma che abbiamo il monitor quadrato?? :D
Non esistono driver magici gli 8.38 e gli 8.39 sono +-1% rispetto agli 8.37 :(
Solo un drastico abbassamento di qualità d'immagine potrebbe dare molti FPS in più, il problema è che l'IQ di R600 non è superiore a quella di G80 e quindi c'è poco da fare. (nVidia per fronteggiare ATI ha fatto questo "giochino" più di una volta, spero che AMD non si abbassi a tanto:eek: )
purtroppo anche con i driver non risolvi nulla.
Nvidia ha delle schede veloci e affidabili..
Ha già dei nuovi chip pronti!!
ha dei driver ottimi per vista!
ati ha fatto un bel fiasco invece..gli conviene puntare sulla fascia media
Scrambler77
14-05-2007, 08:29
Ma soprattutto 7starts a 2048x2048? :D
Ma che abbiamo il monitor quadrato?? :D
:asd:
Call of Juarez dx10:
Nvidia con nuovi drivers."GeForce 8800 GTX stacca nettamente tutte le altre soluzioni prese in esame." cioè uno stacco netto si traduce in 5 fps? questa affermazione può essere giustificabile se si passa dalla non giocabilità(e nn è una demo giocabile e anke precaria) alla fluidità (20->25fps costanti) non ha alcun senso se passo da 60 a 65(solo un esempio) imho 2900 e 8800 sono uguali in dx10 al momento.anzi con la versione precedente dei drivers 8800 perdeva,imho se è solo una questione di drivers la vedo dura.
Da perfetto ignorante direi che la 2900xt è fatta x scontrarsi con la GTS...
Peccato per i consumi (quelli contano abbastanza)....a temperature come sta?
Dirver può essere...se penso a quelli acerbi di nvidia...
Cmq test non troppo chiari IMHO.
Scrambler77
14-05-2007, 08:40
Call of Juarez dx10:
Nvidia con nuovi drivers."GeForce 8800 GTX stacca nettamente tutte le altre soluzioni prese in esame." cioè uno stacco netto si traduce in 5 fps? questa affermazione può essere giustificabile se si passa dalla non giocabilità alla fluidità (20->25fps costanti) non ha alcun senso se passo da 60 a 65(solo un esempio) imho 2900 e 8800 sono uguali in dx10 al momento.anzi con la versione precedente dei drivers 8800 perdeva,imho se è solo una questione di drivers la vedo dura.
L'incremento prestazionale arriva al 30%, ribalta la situazione dei bench e rimette GTX al primo posto. Ti pare niente? ;)
Non avevo criticato il contenuto, ma il modo in cui era stato scritto... male... (esattamente come questo tuo sopra)... :D
Allora chiedo umilmente scusa a tutti, dato che evidentemente scrivo in modo (involontariamente.......lo giuro) FLAMMOSO, non me ne rendo proprio conto :stordita:
Ora mi autobanno da questo 3D :banned: ..............tanto c'è quello della rece :D
PS. ho appena ordinato dalla cruccolandia un bel HR-03 plus che terrà la GTX in modo passivo............altro che 62 dB :sofico:
thommy87
14-05-2007, 08:57
che delusione sta scheda...fa proprio cacà.....non prenderò mai una scheda che consuma di piu di un altra che va il doppio..e questo non si potrà sistemare con driver nuovi..w nvidia
MA la GTX non costa di più?
:confused:
halduemilauno
14-05-2007, 09:02
c'è il thread ufficiale.
http://www.hwupgrade.it/forum/showthread.php?t=1472039
inutile continuare qui.
;)
Scrambler77
14-05-2007, 09:10
Allora chiedo umilmente scusa a tutti, dato che evidentemente scrivo in modo (involontariamente.......lo giuro) FLAMMOSO, non me ne rendo proprio conto :stordita:
Ora mi autobanno da questo 3D :banned: ..............tanto c'è quello della rece :D
PS. ho appena ordinato dalla cruccolandia un bel HR-03 plus che terrà la GTX in modo passivo............altro che 62 dB :sofico:
Azz! potevi ordinarne 2... ti bonificavo il costo e lo prendevo anche io... :(
L'incremento prestazionale arriva al 30%, ribalta la situazione dei bench e rimette GTX al primo posto. Ti pare niente? ;)
5 fps :D si è vero guarda,è tantissimo,un netto distacco,skiacciante,poverina la 2900.vero,continuiamo sul 3d ufficiale :) ciao
ciondolo
14-05-2007, 10:07
peccato,mi aspettavo molto di piu'
in dx9 meglio le invidia in dx10 anche se non c'e' un vero e propio test mi sembra che facciano ridere entrambe. nel test dx10 call of juarez sviluppato da ati mi sembra che entrambe le schede abbiano un framerate inaccettabile, bo!!! speriamo sia colpa del test, pur essendo ottimizzato per ati la hd2900 e' inutile anche in quel test
Spitfire84
14-05-2007, 10:07
Secondo me bisogna leggere i dati in modo diverso.
Innanzitutto è vero che ci si aspettava un prodotto migliore,a livello almeno della 8800 gtx,questo nn lo metto in dubbio ma se guardiamo la fascia di prezzo la situazione cambia molto.
Se avessi un budget di 400 euro potrei prendere una 2900xt ma nn una 8800gts pur avendo prestazioni allineate e nella maggior parte dei casi leggermente superiori con inoltre un valore aggiunto di 3 videogiochi in bundle,che nn sono pochi.
I margini di miglioramento a livello driver di ati sono maggiori rispetto a nvidia..questo nn vuol dire che avremo fra 1 o 2 mesi delle 2900xt a livello delle 8800ultra ma che il rapporto prezzo/prestazioni migliorerà.
I test sono tutti,tranne call of juarez,in dx9..personalmente,se prendo una scheda dx10 voglio buone prestazioni cn tali librerie..fare 140 o 160 fps in dx9 al mio occhio nn fa differenza senza contare che ho speso male visto che nn sfrutto ciò che ho comprato.
I consumi sono alti,molto alti ma sempre in full load..visto che la maggior parte del tempo la scheda è in idle i consumi sono allineati alla 8800gts oppure se il computer lo usate solo per giocare(e quindi avete la scheda video sempre in full load)prendetevi una console.
Concludo ponendomi una domanda..sarei curioso di sapere quanti possiedono un monitor capace di sfruttare tale scheda video.Personalmente la risoluzione massima del mio monitor lcd è 1280x1024 e difficilmente sul mercato si hanno risoluzioni superiori a 1600x1200.Quindi le schede più adatte a tali risoluzioni sono le 8600gts e le hd2600 che costano pure meno e fanno fino in fondo il loro dovere..
Dispiace quindi che ati nn si sia posizionata al vertice delle prestazioni ma la sensazione è che abbia scelto una linea di mercato che offre + che buone prestazioni mantenendo un prezzo inferiore rispetto alla concorrenza.
Ovviamente queste sono le mie opinioni..;)
Ciao..
..Andrea
Secondo me bisogna leggere i dati in modo diverso.
Innanzitutto è vero che ci si aspettava un prodotto migliore,a livello almeno della 8800 gtx,questo nn lo metto in dubbio ma se guardiamo la fascia di prezzo la situazione cambia molto.
Se avessi un budget di 400 euro potrei prendere una 2900xt ma nn una 8800gts pur avendo prestazioni allineate e nella maggior parte dei casi leggermente superiori con inoltre un valore aggiunto di 3 videogiochi in bundle,che nn sono pochi.
I margini di miglioramento a livello driver di ati sono maggiori rispetto a nvidia..questo nn vuol dire che avremo fra 1 o 2 mesi delle 2900xt a livello delle 8800ultra ma che il rapporto prezzo/prestazioni migliorerà.
I test sono tutti,tranne call of juarez,in dx9..personalmente,se prendo una scheda dx10 voglio buone prestazioni cn tali librerie..fare 140 o 160 fps in dx9 al mio occhio nn fa differenza senza contare che ho speso male visto che nn sfrutto ciò che ho comprato.
I consumi sono alti,molto alti ma sempre in full load..visto che la maggior parte del tempo la scheda è in idle i consumi sono allineati alla 8800gts oppure se il computer lo usate solo per giocare(e quindi avete la scheda video sempre in full load)prendetevi una console.
Concludo ponendomi una domanda..sarei curioso di sapere quanti possiedono un monitor capace di sfruttare tale scheda video.Personalmente la risoluzione massima del mio monitor lcd è 1280x1024 e difficilmente sul mercato si hanno risoluzioni superiori a 1600x1200.Quindi le schede più adatte a tali risoluzioni sono le 8600gts e le hd2600 che costano pure meno e fanno fino in fondo il loro dovere..
Dispiace quindi che ati nn si sia posizionata al vertice delle prestazioni ma la sensazione è che abbia scelto una linea di mercato che offre + che buone prestazioni mantenendo un prezzo inferiore rispetto alla concorrenza.
Ovviamente queste sono le mie opinioni..;)
Ciao..
..Andrea
Quoto.
ciondolo
14-05-2007, 10:22
I consumi sono alti,molto alti ma sempre in full load..visto che la maggior parte del tempo la scheda è in idle i consumi sono allineati alla 8800gts oppure se il computer lo usate solo per giocare(e quindi avete la scheda video sempre in full load)prendetevi una console.
chi compra queste tipo di schede e' ovvio che ci deve anche giocare!
aggiungo che il prezzo di 400e per la hd2900 e' obbligato! nel senso che una scheda con questae prestazioni non potevano fartela pagare di piu'
Si ok... Va bene per giocare... Ma se non hai minimo un 22 pollici wide non si sfruttano questi mostri di schede :D
Spitfire84
14-05-2007, 10:27
chi compra queste tipo di schede e' ovvio che ci deve anche giocare
chi si compra queste schede sbaglia acquisto xkè per giocare,ripeto,basta e avanza una 8600gts o una hd2600.
Le schede oggetto della recensione,che siano nvidia 8800 o ati 2900 servono solo per fare gli sboroni..e che possono permettersi di fare gli sboroni ce ne sono pochi..;)
Ciao..
..Andrea
Secondo me non è il fatto di fare sboroni o meno... se hai le condizioni per poter sfruttare la scheda quindi il vista, giochi nati in dx10 ed un monitor 21"-22" wide allora ha senso comprare una scheda di tale calibro...
E' anche altrettanto vero che un utente può comprarla... Poi investire dopo un po' in un monitor che la sfrutti a dovere... Ed iniziare a tirargli il collo :D
ciondolo
14-05-2007, 10:32
Si ok... Va bene per giocare... Ma se non hai minimo un 22 pollici wide non si sfruttano questi mostri di schede :D
se dai una occhiata alla recensione di tom show noterai che pure alle basse risoluzioni non fa miracoli.
giochi dx10 ancora non ci sono quindi ora come ora e' meglio una 8800 per lo meno in dx9 va piu' forte tanto sono sempre piu' sicuro che quando usciranno i primi titoli in dx10 saranno entrambe obsolete
chi si compra queste schede sbaglia acquisto xkè per giocare,ripeto,basta e avanza una 8600gts o una hd2600.
Le schede oggetto della recensione,che siano nvidia 8800 o ati 2900 servono solo per fare gli sboroni..e che possono permettersi di fare gli sboroni ce ne sono pochi..;)
Ciao..
..Andrea
Sbaglierò, ma preferisco spendere qualcosa di più per una 8800 ed avere la certezza di fare almeno 60 fps senza dover giocare con una grafica stile pacman.
Riguardo il discorso che hai fatto prima sulle dx10, non so se l'hai notato ma non ci sono test ad eccezione di coj e già questo renderebbe il tutto inutile in assenza di un riscontro con altre applicazioni. Tra l'altro la patch dx10 di coj è stata sviluppata in collaborazione con amd, cosa che rende i test ancora meno degni di considerazione.
ciondolo
14-05-2007, 10:39
Sbaglierò, ma preferisco spendere qualcosa di più per una 8800 ed avere la certezza di fare almeno 60 fps senza dover giocare con una grafica stile pacman.
Riguardo il discorso che hai fatto prima sulle dx10, non so se l'hai notato ma non ci sono test ad eccezione di coj e già questo renderebbe il tutto inutile in assenza di un riscontro con altre applicazioni. Tra l'altro la patch dx10 di coj è stata sviluppata in collaborazione con amd, cosa che rende i test ancora meno degni di considerazione.
la penso anche io cosi'
markus_81
14-05-2007, 10:40
Ma questa recensione???:confused: http://www.nordichardware.com/Reviews/?page=3&skrivelse=510 sembra un'altra scheda....:stordita: :mc:
halduemilauno
14-05-2007, 11:16
Ma questa recensione???:confused: http://www.nordichardware.com/Reviews/?page=3&skrivelse=510 sembra un'altra scheda....:stordita: :mc:
ancora con i 3d mark. com'è che non c'è pure quello del 98?
;)
Spitfire84
14-05-2007, 12:11
...I test sono tutti,tranne call of juarez,in dx9..personalmente,se prendo una scheda dx10 voglio buone prestazioni cn tali librerie..fare 140 o 160 fps in dx9 al mio occhio nn fa differenza senza contare che ho speso male visto che nn sfrutto ciò che ho comprato.
Avevo già parlato del discorso dx10 ;)
Comunque personalmente mi prenderei una 8600gts o una hd2600..queste 8800 e hd2900,a prescindere dalle prestazioni,le lascio a chi può permettersele..
Ciao..
..Andrea
Blindman
14-05-2007, 13:53
Peccato....per ora una grossa delusione......
Resto abbastanza allibito a vedere un simile "tifo" per una marca che produce VGA.....e capisco ancora meno chi gioisce per il fatto che ATI/AMD sia in difficoltà.....
O siete azionisti della concorrenza o siete masochisti e ci godete alla prospettiva di vedere in futuro prodotti che costeranno il doppio perchè non ci saranno alternative.....
Scrambler77
14-05-2007, 14:14
Peccato....per ora una grossa delusione......
Resto abbastanza allibito a vedere un simile "tifo" per una marca che produce VGA.....e capisco ancora meno chi gioisce per il fatto che ATI/AMD sia in difficoltà.....
O siete azionisti della concorrenza o siete masochisti e ci godete alla prospettiva di vedere in futuro prodotti che costeranno il doppio perchè non ci saranno alternative.....
Io gioisco per un futuro in cui la corsa alle performance hardware rallenta e gli sviluppatori imparano a programmare meglio sui processori di oggi...
Peccato....per ora una grossa delusione......
Resto abbastanza allibito a vedere un simile "tifo" per una marca che produce VGA.....e capisco ancora meno chi gioisce per il fatto che ATI/AMD sia in difficoltà.....
O siete azionisti della concorrenza o siete masochisti e ci godete alla prospettiva di vedere in futuro prodotti che costeranno il doppio perchè non ci saranno alternative.....
Una fase di stallo starebbe interessante per quanto improbabile. Qualcuno ha fatto l'esempio delle voodoo 2, che hanno segnato un'epoca e che non sono calate di prezzo per anni. C'è da dire che però per anni si riusciva a giocare a qualsiasi cosa con la stessa scheda pagata a caro prezzo.
Adesso ci si ritrova dopo 2 anni con una scheda pressochè obsoleta per i titoli nuovi (vedi le x800 o 6800) nonostante si sia speso un patrimonio.
Sarebbe ora che i giochi vengano fatti sull'hardware e non il contrario.
Il tutto comunque è un'ipotesi surreale. All'ATI ha preso una toppa clamorosa nel segmento di fascia alta, un parte minima di mercato, poco rilevante. Se sapranno fare bene nella fascia media e bassa non risentiranno minimamente del colpo, in caso contrario comincieranno a lavorare duro se vogliono sopravvivere.
Il mercato delle vga (o anche delle cpu) è sempre stato altalenante e contraddistinto da momenti di prevalenza più o meno netta di una delle due controparti e non penso che in futuro sarà diverso (purtroppo?).
Darkgift
14-05-2007, 14:45
la piu grande delusione degli ultimi 10 anni nella storia delle schede video, assieme a nvidia 5800! cioé, ma chi era nel forum che aveva informazioni "riservate" e diceva "aspettate e vedrete..."??
Quoto !
Erano 5/6 fissati che hanno scritto la bellezza di 400 pagine di speculazioni inutili.....si vede che non avevano nient'altro da fare....si divertono cosi'......:mbe:
Cio posto dico la mia :
1) Era difficile dire quanto è lunga sta scheda in centimetri ? "E' poco piu lunga di una x1950xtx e pressappoco quanto una 8800gts/x" ..... Mica mi posso comprare una x1950xtx per vedere se una 2900 mi ci entra.
2) Questo chip fa ridere....veramente ridere.....anzi diro' di piu.....è tutta la generazione che fa pena....infatti è una generazione ancora OGGI DEL TUTTO INUTILE......:stordita: Non vedo l'ora che esce Crysis per vedere la faccia di quei ***** :Prrr: che hanno speso 800 euro per una 8800 ultra.....gente che si è venduto la gtx per prendere la ultra.... da non credersi.....:mc: :confused: :rolleyes: :stordita: :mbe: :fagiano:
3) Uscirsene con questa roba dopo 7 mesi....ma sotterratevi.........
4) la fascia media a 128 bit mi fa vomitare......di brutto pure.
5) Mi godo l'estate....aspetto che i prezzi crollano.....e se veramente mi devo prendere qualcosa...beh allora prendo la 8800 gts 320 mb...ma piu di 180 euro no glieli do a sto giro.
5) Fatela finita con questo schifo di corsa ridicola a chi ce l'ha pu lungo.
6) Smettiamola di farci prendere per il culo ogni 6 mesi
sono d'accordo sul punto 6)
MadMax of Nine
14-05-2007, 17:52
Io gioisco per un futuro in cui la corsa alle performance hardware rallenta e gli sviluppatori imparano a programmare meglio sui processori di oggi...
Perfettamente giusto come ragionamento :)
Io ho speso 480€ circa per la mia 8800gtx ma è da gennaio che volo su ogni gioco e al contrario di come si vocifera con xp pro e tutte le versioni di vista mi sono trovato benissimo.
Subito pensavo di occarla e metterla a liquido ma vedo che è praticamente inutile, potente e silenziosa anche sotto stress.
Io dopo la geffo 4200 sono passato alla radeon 9500pro e da allora sono rimasto con ati nelle schede di fascia media seguenti... non sono mai stato più soddisfatto dell'ultimo acquisto sul rapporto qualità/prestazioni/prezzo.
Per concludere e dare una logica a quanto scritto prima non mi dispiacerebbe se si invertisse la tendenza e gli sviluppatori siano costretti a migliorarsi perchè le soluzioni video non diventino obsolete ogni 6 mesi.
ohmaigod
14-05-2007, 19:31
VR ZONE mi ha altamente deluso...:fagiano:
:rotfl:
ale0bello0pr
14-05-2007, 20:49
:rotfl:
dammi qualke gg che ti zittisco.....
fine flame
P.S. non ho mai parlato di supremazia R600 in stookcooling ma sempre e solo OC con i migliori drivers....quindi meglio che nn mi mandate altri msg in pvt vergognosi o qua si passa alle sospensioni ok? (e x chi vuole alle mani)
dammi qualke gg che ti zittisco.....
fine flame
P.S. non ho mai parlato di supremazia R600 in stookcooling ma sempre e solo OC con i migliori drivers....quindi meglio che nn mi mandate altri msg in pvt vergognosi o qua si passa alle sospensioni ok? (e x chi vuole alle mani)
A direi il vero dovevamo zittire tutti oggi. E tu non hai parlato di OC e di driver a venire. Insomma magari prima di inventarsi chissà cosa era meglio pensarci un attimo ;)
ale0bello0pr
14-05-2007, 21:02
A direi il vero dovevamo zittire tutti oggi. E tu non hai parlato di OC e di driver a venire. Insomma magari prima di inventarsi chissà cosa era meglio pensarci un attimo ;)
HO DETTO FINE FLAME
Ti rispondo molto cordialmente :
guarda la mia firma
e mi sembra che tu abbia letto i post di qualke altro ale0pr...
appunto con queste schede magari chiunque può essere un ottimo overclocker?
e quindi ....kissà ke OC raggiungono come top del top...
-10 e intanto si tiene d'occhio il suo blog e thread in extremeoverclocking
-------------
Imho se questa teoria che sembra ovviamente la piu' plausibile di tutte...e dovesse concretizzarsi.... allora il 14 maggio...nn dobbiamo cmq aspettarci niente di esaltante...bisogna aspettare i nuovi giochi e quindi aspettare ancora molti mesi prima della venuta di Crysis o Alan Wake... allora..se vogliamo toglierci subito il dubbio...xkè nn chiedere alla Crytec di postare i bench sul loro capolavoro..?
Che giochi vuole utlizzare HWUPGRADE x testare la nuova R600? almeno diteci questo
-------------------
e ancora....
non è ke per caso ...la XTX non è stata lanciata,....xkè la XT col costo che ha....arriva ad una XTX in OC come frequenze??
-------------------
ad aria....non è ancora stato fatto un sistema a liquido..e quindi immaginiamoci cosa ne uscirà in Watercooling.... già me lo vedo Kingpin con l'azoto...e le nuove R600
-------------------
IMHO....queste schede in overclock e in DX10...saranno una bomba...aspettiamo
-------------------
se queste nuove schede fossero un po migliori delle GTS ma meno delle GTX con le attuali applicazioni,giochi DX9...ma assolutamente migliori per quanto riguarda le future applicazioni,giochi DX10 delle GTX? essendo forse DX10.1?
Non è ke stanno cercando di pensare al futuro che al presente?
E chi cerca di scatenare flame? Guarda i tuoi post, non è che in fondo in fondo quello sei tu? ;)
dassanko
14-05-2007, 22:16
Sono nuovo di questo forum, anche se ne ho frequentati altri simili in passato.
Lì fuori non si fa altro che urlare allo scandalo... ed in effetti con questi benchmarks non posso dargli torto. :(
Nonostante i fanboy siano dappertutto, questa scheda è stata giustamente chiamata flop da molti... e ora mi chiedo quali saranno le conseguenze economiche per amd... :muro:
Sono nuovo di questo forum, anche se ne ho frequentati altri simili in passato.
Lì fuori non si fa altro che urlare allo scandalo... ed in effetti con questi benchmarks non posso dargli torto. :(
Nonostante i fanboy siano dappertutto, questa scheda è stata giustamente chiamata flop da molti... e ora mi chiedo quali saranno le conseguenze economiche per amd... :muro:
Ciao Scrambler77! :rolleyes:
Clone bannato e sospensione raddoppiata... :muro:
niente, lasciamo perdere...
TecnoWorld8
14-05-2007, 23:39
secondo Voi, per circa 350 euro questa scheda potrebbe valere la pena?
Free Gordon
15-05-2007, 01:41
secondo Voi, per circa 350 euro questa scheda potrebbe valere la pena?
A quel prezzo sì. ;)
Cmq potrebbe essere sia un "buon acquisto" che un acquisto "spettacolare". :D
Solo i prossimi mesi ce lo diranno... :p
Io per ora resto a guardare con la mia 1800, almeno fino a Crysis. ;)
halduemilauno
15-05-2007, 07:35
secondo Voi, per circa 350 euro questa scheda potrebbe valere la pena?
dipende anche dalla risoluzione del tuo monitor che usi. perchè c'è anche la 8800gts320 che fino a 1600x1200 equivale la 8800gts640 e che costa 250€. e come la 640 consuma di meno, fa meno rumore e fa meno calore.
;)
TecnoWorld8
15-05-2007, 08:32
l'idea è quella di acquistare in questi giorni un monitor 22" da 1680x1050
halduemilauno
15-05-2007, 08:44
l'idea è quella di acquistare in questi giorni un monitor 22" da 1680x1050
puoi prendere in considerazione la 8800gts320.
;)
C'è il thread ufficiale, che ci fa questo ancora in piedi?:D
TecnoWorld8
15-05-2007, 11:42
halduemilauno: però temo davvero che quella GTS sarà molto zoppicante a quelle res già con giochi del calibro di Bioshock, per non parlare di crysis...mentre penso che questa XT dovrebbe gestirli decentemente...
C'è il thread ufficiale, che ci fa questo ancora in piedi?:D
Una "news" non si può chiudere... ;)
Asterion
15-05-2007, 12:07
Una "news" non si può chiudere... ;)
Abbiamo trovato un bug in matrix :D
Free Gordon
15-05-2007, 12:52
halduemilauno: però temo davvero che quella GTS sarà molto zoppicante a quelle res già con giochi del calibro di Bioshock, per non parlare di crysis...mentre penso che questa XT dovrebbe gestirli decentemente...
Può essere.
Cmq io ora non comprerei nulla, sto a guardare, la scheda ha molto potenziale da mostrare e con i prossimi driver e giochi, lo mostrerà.
ohmaigod
15-05-2007, 16:22
dammi qualke gg che ti zittisco.....
fine flame
P.S. non ho mai parlato di supremazia R600 in stookcooling ma sempre e solo OC con i migliori drivers....quindi meglio che nn mi mandate altri msg in pvt vergognosi o qua si passa alle sospensioni ok? (e x chi vuole alle mani)
http://www.multiplayer.it/forum/images/smilies/brr.gif
stop flame :sofico:
ezekiel22
15-05-2007, 16:48
Bella sta scheda ! :nono:
Da quando AMD ha inglobato ATI sembrerà un caso ma non ne beccano più una nessuno dei 2 :(
Forse l'accordo ha portato "sfiga" ad entrambi :doh: :rolleyes:
Bella sta scheda ! :nono:
Da quando AMD ha inglobato ATI sembrerà un caso ma non ne beccano più una nessuno dei 2 :(
Forse l'accordo ha portato "sfiga" ad entrambi :doh: :rolleyes:
bè per amd è da verdersi con i k10 potrebbe tornare sul trono delle prestazioni, anche se nn credo :asd: , cmq per me questa ati non è malaccio, dotate di tutte le nuove tecnologie, insomma, appena la faranno a 65 nm magari con alcune correzzioni, e frequenze piu alte, e con driver rodati, sono sicuro che darà filo da torcere alla 8800gtx di nvidia
Una "news" non si può chiudere... ;)
Vogliamo scommettere? Passatemi la password del forum poi vedi come si chiude.:D
Battute a parte, che senso ha continuare questa news se c'è il 3d ufficiale? E' come aprire due thread diversi ma dello stesso titolo, che poi se questo thread è all'interno della sezione news poco cambia, si parla della stessa cosa.
O sbaglio?:)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.