View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT
ATI HD2900XT
http://img390.imageshack.us/img390/9791/immagine3tm0.jpg (http://imageshack.us)
http://img390.imageshack.us/img390/530/immagine4sg2.jpg (http://imageshack.us)
Dati tecnici sull'architettura:
• Tecnologia produttiva a 80 nanometri per le GPU Radeon HD 2900 XT;
• clock speed di 742 MHz; 700 milioni di transistor per le GPU Radeon HD 2900 XT;
• superscalar design con sino a 320 stream processing units;
• architettura a shader unificati;
• supporto DirectX 10;
• nuove tecnologie di antialiasing e filtro anisotropico;
• supporto Avivo HD;
• supporto Crossfire senza connettori esterni: implementato un nuovo algoritmo AFR che migliora la scalabilità dei frames con due schede video utilizzate contemporaneamente alternando la riproduzione dei frames pari ad una GPU e quelli dispari all'altra.
Architettura e Bus
Le GPU ATI della serie Radeon HD 2000 sono tutte basate su architettura a shader unificati. E' questa la seconda implementazione di GPU a shader unificati per ATI, che ha anche sviluppato la GPU Xenos utilizzata per le console Xbox 360 di Microsoft e dotata di pixel e vertex shaders unificati. R600, e i derivati RV630 e RV610 per i segmenti di fascia media ed entry level, sono basati sulla medesima struttura, con ovviamente le opportune semplificazioni per le GPU meno costose.
http://img459.imageshack.us/img459/1976/immagine1qb1.jpg (http://imageshack.us)
In testa all’architettura troviamo il Command Processor: esso ha il compito di scaricare il driver da chiamate al processore, sino al 30%, accedendo direttamente alla memoria ed eseguendo microcode. A seguire il Setup Engine: il suo compito è quello di preparare i dati per essere inviati agli stream processors, eseguendo tre tipologie di processi: vertex assembly e tessellation; geometry assemply e scan conversion e interpolation.
http://img388.imageshack.us/img388/2394/immagine2ua9.jpg (http://imageshack.us)
Terminate le operazioni del Setup Engine si passa all'ultra threaded display processor, dal quale dipendono due cache dedicate rispettivamente per shader instruction e per shader constant; la presenza di queste cache permette di avere sia shader di lunghezza illimitata quanto a istruzioni, che un numero illimitato di costanti. Per ogni SIMD array sono presenti due unità aribitrer, seguite da due sequencer; le due unità SIMD permettono di avere due esecuzioni eseguite in parallelo per ogni ciclo di clock, in quanto sono di tipo pipelined. Ciascun SIMD Array, presenti in numero di 4 all'interno delle GPU R600 e dotato di un predefinito numero di stream processing unit: 80 per R600.
Il SIMD (Single Instruction, Multiple Data) Array utilizza un design di tipo VLIW (Very large Instruction Word); se con le architetture ATI serie Radeon 9000 e Radeon X 1000 era possibile elaborare Vector + scalar, 2 istruzioni per clock, 3+1 o 4+1 components, passando alle GPU della famiglia Radeon HD è possibile al limite elaborare 5 istruzioni per ciclo di clock (FP MAD, Multiply - Add), con 5 components. Ogni stream processor utilizza precisione 32bit floating point: le branch execution units gestiscono il flow control e le operazioni conditional, mentre i general purpose registers immagazzinano i dati di input, i valori temporanei e i dati di output
Passando alle texture unit, troviamo 4 unità nelle GPU R600. Per ogni texture unit troviamo 8 texture address processors all'interno, che eseguono shader instructions per verificare gli indirizzi per lockups delle texture. Metà di questi processori sono utilizzati dai vertex shaders per vertex fetches, e la restante metà è utilizzata per texture fetches. Ogni texture unit è inoltre dotata di 20 texture samplers, capaci ciascuna di gestire un valore FP32 per ciclo di clock: 4 sono utilizzate per vertex fetches e le restanti 16 per texture fetches. Ogni texture unit può eseguire filtro bilineare su 4 64bit HDR texture lockups per ciclo di clock; alternativamente può essere eseguito filtro trilineare o anisotropico su ogni tipologia di formato di texture, compreso quello a 128-bit floating point. La texture unit è dotata di due livelli di cache, L1 e L2, dedicate esclusivamente al caching delle texture; nella scheda HD 2900 la cache L1 è in quantitativo di 256Kbytes. A completare la struttura di elaborazione dei pixel troviamo i Render Back-Ends, in quantitativo di 4 per le GPU R600; questo implica la possibilità di processare 32 pixel per clock per le schede video HD 2900. Rispetto alle soluzioni Radeon X 1000 troviamo una migliore gestione degli Z-buffer, con compressione sino a 16:1 in modalità standard e sino a 128:1 con 8x MSAA. Il numero di Multiple Render Target è stato raddoppiato rispetto alle GPU della famiglia Radeon X1000, passando da 4 a 8 con supporto MSAA.
Le schede ATI Radeon HD 2900 XT sono le prime ad introdurre il bus memoria a 512bit di ampiezza su un'architettura desktop di fascia alta. Sino alla precedente generazione di schede video il bus memoria non ha mai superato i 256bit di ampiezza massima, ma con le schede GeForce 8800 prima e con le nuove Radeon HD 2900 XT nuove ampiezze di bus hanno permesso di ottenere livelli di bandwidth massimi teorici impensabili sino anche solo allo scorso anno.
Le versioni della scheda:
ATI ha progettato due versioni della HD2900XT: una da 512Mb DDR3 e una da 1024Mb DDR4; con rispettive frequenze di 1650Mhz e 2000Mhz.
Le uniche differenze tra le due risiedono in: quantitativo di VRam, frequenze delle ram e nel tipo di chip (uno DDR3 e l’altro DDR4).
Link delle Recensioni:
Recensioni Generali:
Quella di Hardware Upgrade (14 Maggio 2007) (http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_index.html)
Quella di X-bit labs (http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb.html)
Quella di Hardware Station (http://www.hwstation.net/recensioni/sapphire_radeon_hd_x2900xt_512mb/introduzione.html)
Quella di TomsHardware (http://www.tomshw.it/storage.php?guide=20070514)
Recensione su Catalyst 7.9 (http://www.tweaktown.com/articles/1184/ati_catalyst_7_9_analysis_xp_and_vista/index.html)
Recensione su Catalyst 7.8 (http://www.tweaktown.com/articles/1157/ati_catalyst_7_8_performance_analysis/index.html)
Recensione su Catalyst 7.7 (http://www.tweaktown.com/articles/1145/ati_catalyst_7_7_performance_analysis/index.html)
Recensioni sugli ultimi game:
Bioshock (http://www.legionhardware.com/document.php?id=681)
ET:QW (http://www.xbitlabs.com/articles/video/display/enemy-territory-performance.html)
Medal of Honor Airborne (http://www.legionhardware.com/document.php?id=683)
Driver:
7.9 for XP 32Bit (https://a248.e.akamai.net/f/674/9206/0/www2.ati.com/gamesite/7-9_xp32_dd_ccc_wdm_enu_52443.exe)
7.9 for XP 64Bit (https://a248.e.akamai.net/f/674/9206/0/www2.ati.com/gamesite/7-9_xp64_dd_ccc_enu_52443.exe)
7.9 for Vista 32Bit (https://a248.e.akamai.net/f/674/9206/0/www2.ati.com/gamesite/7-9_vista32_dd_ccc_wdm_enu_52447.exe)
7.9 for Vista 64Bit (https://a248.e.akamai.net/f/674/9206/0/www2.ati.com/gamesite/7-9_vista64_dd_ccc_wdm_enu_52447.exe)
Un po' di considerazioni:
All’uscita della HD2900XT c’erano dei driver molto immaturi; da allora le cose sono molto cambiate perché ad ogni nuova release si sono visti aumenti da un 5% a un 15% ogni volta.
Attualmente la HD2900XT ha delle prestazioni che si collocano in DX9 tra la 8800GTS e la 8800GTX. Queste si avvicinano all’una o all’altra se viene attivato o no AA. Per quanto riguarda il discorso DX10 attualmente non vi sono numerosissimi game, cmq le prestazioni sono allineate alla 8800GTX (Questo valore in futuro potrebbe variare).
Dissipatori compatibili:
Attualmente in commercio ci sono i seguenti dissipatori compatibili: HR-03 R600 (montato dall'utente Iantikas)
Le richieste minime di un alimentatore.
A differenza di tutte le precedenti generazioni la HD2900 XT ha un grande assorbimento energetico, pertanto si raccomandano alimentatori che abbiano sulla linea da +12V almeno 19°.
Inoltre ricordo che la HD2900XT per funzionare correttamente ha bisogno di essere alimentata da 8+6 pin oppure da 6+6pin, l’8pin del primo cosa è disponibile solo su alcuni alimentatori. Questo serve per eseguire attivare l’overdrive, che consente di fare OC da CCC e di controllare la temperatura. Ovviamente tutto questo può essere fatto tramite altri programmi, tipo Rivatuner o Atitool.
Alcuni test di OC:
Numerosi utenti segnalano che la scheda raggiunge le frequenza di ben 800Mhz senza alcun problema, ne nel riscaldamento, in quanto la temperatura rimane invariata, nel nella stabilità, utilizzando il dissipatore in stock. Per quanto riguarda le ram il valore è soggettivo, infatti numerosi utenti si avvicinano (con le DDR3) hai 2000Mhz, altri invece rimangono anche di 200Mhz sotto.
Dall'utente MonsterMash è stato realizzato un thread (qui (http://www.hwupgrade.it/forum/showthread.php?t=1484107)) dove vi si trovano molti Bench sintetici, e di Game.
RINGRAZIAMENTI
Ringraziamo M4r1|< per aver eseguito la stesura di questo post, e tutti gli altri utenti che gli hanno fornito informazioni aggiuntive.
loperloper
14-05-2007, 08:21
confermati i bench "non ufficiali":
scheda alla pari con la 8800gts ma che non vede la gtx e tantomeno la ultra...
sorprese positive nessuna, se non altro si sapeva la fascia in cui si sarebbe posizionata(soprattutto per il prezzo di partenza indicato).
Sulla carta continua a sembrare molto più performante(512bit e 320sp) ma a questo punto è difficile spiegare queste specifiche....
Ero indeciso se prenderla o meno ed ora lo sono ancor di più, ora voglio solo vedere le prestazioni in dx10 e poi deciderò se ati o nvidia(8800gts ovviamente)
halduemilauno
14-05-2007, 08:23
http://www.hwupgrade.it/articoli/skvideo/1725/index.html
;)
halduemilauno
14-05-2007, 08:24
http://www.techpowerup.com/reviews/ATI/HD_2900_XT/5
We tested the Radeon HD 2900 XT with ATI's 8.37 driver which is the official benchmarking driver for all R600 reviews. We tried 8.38 and 8.39 too, but they offer only +1% to - 1% performance difference which is within the margin of error of the benchmarks. The only gains you will see in extreme HD resolutions with highest AA and AF settings.
;)
prime preview:
http://www.vr-zone.com/?i=4946
http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1
http://www.ocworkbench.com/2007/asus/EAH2900XT/b1.htm
halduemilauno
14-05-2007, 08:26
http://www.tomshw.it/graphic.php?guide=20070514
http://www.hothardware.com/Articles/ATI_Radeon_HD_2900_XT__R600_Has_Arrived/
http://www.hardware.fr/news/8812/ati-radeon-hd-2900-xt-debarque.html
http://www.hardware.fr/medias/photos_news/00/19/IMG0019936.gif
http://www.hardware.fr/medias/photos_news/00/19/IMG0019937.gif
;)
Alcuni di voi, che sostenevano di aver visto una 2900 xt in azione, parlavano di una "bella sorpresa" che sarebbe arrivata oggi...
...quale?
la 2900 xt risulta essere sotto alla 8800 gtx nel 90% dei casi e ormai questa scheda si trova anche a 450 euri, allora a cosa vi riferivate? o era solo per fare gli sboroni?
halduemilauno
14-05-2007, 08:28
http://www.fudzilla.com/index.php?option=com_content&task=view&id=962&Itemid=1
Watch out R600
Nvidia dropped its prices significantly to prepare better for Radeon HD 2900XT launch. It specially adjusted the prices of the GTS series and today you can buy the 640 MB version for just about 300 to €310 including shipping and 320 MB costs even less.
You can buy a 320 MB card including shipping and handling cost for about €256 and the card works at the default frequencies and comes from Sparkle. The best part is that this card is marginaly slower then the 640 MB card and some €140 cheaper than Radeon HD 2900XT.
This will certainly put a lot of pressure on the Radeon HD 2900XT as the 320 MB of Geforce 8800 GTS performs better in many tests or at least comes close to a €140 expensive card. This will be a tough call for consumers.
;)
loperloper
14-05-2007, 08:33
http://www.fudzilla.com/index.php?option=com_content&task=view&id=962&Itemid=1
Watch out R600
Nvidia dropped its prices significantly to prepare better for Radeon HD 2900XT launch. It specially adjusted the prices of the GTS series and today you can buy the 640 MB version for just about 300 to €310 including shipping and 320 MB costs even less.
You can buy a 320 MB card including shipping and handling cost for about €256 and the card works at the default frequencies and comes from Sparkle. The best part is that this card is marginaly slower then the 640 MB card and some €140 cheaper than Radeon HD 2900XT.
This will certainly put a lot of pressure on the Radeon HD 2900XT as the 320 MB of Geforce 8800 GTS performs better in many tests or at least comes close to a €140 expensive card. This will be a tough call for consumers.
;)
addirittura!? be in tal caso nvidia sicuro sicuro....
Quelle buone oltre alla nostra...
http://www.beyond3d.com/content/reviews/16/1
http://enthusiast.hardocp.com/article.html?art=MTM0MSwxLCxoZW50aHVzaWFzdA==
loperloper
14-05-2007, 08:36
Alcuni di voi, che sostenevano di aver visto una 2900 xt in azione, parlavano di una "bella sorpresa" che sarebbe arrivata oggi...
...quale?
la 2900 xt risulta essere sotto alla 8800 gtx nel 90% dei casi e ormai questa scheda si trova anche a 450 euri, allora a cosa vi riferivate? o era solo per fare gli sboroni?
già, chi è che voleva vendere la gtx??Dovè stanno le belle sorprese?Ora potete finalmente parlare(sempre che abbiate REALMENTE qualcosa da dire)!
halduemilauno
14-05-2007, 08:42
http://www.hwupgrade.it/articoli/skvideo/1725/callofjuarez_driver18.png
http://www.hwupgrade.it/articoli/skvideo/1725/callofjuarez_driver42.png
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_19.html
"Per la prima volta inseriamo nella nostra suite di test il benchmark Call of Juarez, in grado di sfruttare le API DirectX 10 integrate in Microsoft Windows Vista e molto attese dal pubblico dei videogiocatori. Sia chiaro in ogni caso che si tratta di un singolo test, contenente artefatti che testimoniano un lavoro che non può essere ancora definito del tutto completo. Il test è stato eseguito come ultimo di tutto il lotto, motivo per il quale non è presente la scheda NVIDIA GeForce 8800 Ultra, non più a nostra disposizione al momento dell'esecuzione dei test.
I test condotti con driver NVIDIA ForceWare 158.18 per Windows Vista 32 bit, ovviamente utilizzati con schede NVIDIA, hanno messo in mostra un comportamento che non ammette repliche: la scheda ATI Radeon HD 2900 XT mette decisamente alle corde le GeForce 8800 GTS, staccando anche, seppur di poco, la GeForce 8800 GTX. Ripetendo però i test con driver forniti alla stampa specializzata pochissimi giorni fa da NVIDIA, versione ForceWare 158.42 per Windows Vista 32 bit, la situazione cambia drasticamente.
Le prestazioni di tutte le schede NVIDIA aumentano drasticamente, con picchi prossimi al 30%. Se ne ricava di conseguenza una classifica completamente stravolta rispetto a quanto osservato con la precedente release di driver. Ritroviamo quella linea di coerenza di risultati prestazionali che vedono la scheda ATI Radeon HD 2900 XT allienata con la NVIDIA GeForce 8800 GTS 640 MB, mentre il modello GeForce 8800 GTX stacca nettamente tutte le altre soluzioni prese in esame."
si aspettavano i nuovi miracolosi driver da ati(che in altra rece che ho postato son stati provati e praticamente bocciati/smontati) e invece sono usciti quelli di nvidia.
;)
Superpelo
14-05-2007, 09:01
Cioè, sticazzi, con un gioco in dx10 ( e pensando com'era coll of juarez in dx9, cioè non un gran gioco), una 8800gtx in 1280*1024 32fps, cioè appena appena appena giocabile, e ingiocabile con tutte le altre schede...
Ovvero quando vedete una scheda dx10 di questa generazione lasciatela sullo scaffale, perchè costano dai 300 agli 800 euro e il primo gioco in dx10 che esce non lo fanno girare neanche a spingerlo, veramente, che fuffa totale...
fireradeon
14-05-2007, 09:07
Una amara delusione!!!
Anche io mi ero fatto "abbindolare" da chi diceva: "aspettate e vedrete", forse perchè da fan ATI ho sperato potesse tirare fuori un buon prodotto. Invece non è così e non si sa nemmeno quando uscirà la XTX. :mad:
Beh, un ritorno a nVidia mi sembra doveroso a questo punto.
Kharonte85
14-05-2007, 09:12
Alcuni di voi, che sostenevano di aver visto una 2900 xt in azione, parlavano di una "bella sorpresa" che sarebbe arrivata oggi...
...quale?
:asd: era solo "terrorismo" ;)
Le review trapelate erano vere. (Anche Fudzilla aveva ragione quando diceva che poteva competere solo con la GTS :eekk:)
La scheda è abbastanza deludente se si considera il ritardo, i consumi e il rumore sono inaccettabili a quei livelli...:mc:
primo test veloce fatto ieri con driver 8.37....
molti problemi da capire..
http://download.pctuner.net/upload/results/20070514104546_28790.jpg
http://www.pctuner.net/forum/showthread.php?t=81928
halduemilauno
14-05-2007, 09:16
:asd: era solo "terrorismo" ;)
Le review trapelate erano vere. (Anche Fudzilla aveva ragione quando diceva che poteva competere solo con la GTS :eekk:)
La scheda è abbastanza deludente se si considera il ritardo, i consumi e il rumore sono inaccettabili a quei livelli...:mc:
quando disse che la stessa amd/ati vedeva il confronto diretto con la gts e non con la gtx.
;)
JoeLatino
14-05-2007, 09:16
a questo punto meglio Nvidia:D
Sarebbe questa la nuova ammiraglia di Ati? Che flop!
:asd: era solo "terrorismo" ;)
Le review trapelate erano vere. (Anche Fudzilla aveva ragione quando diceva che poteva competere solo con la GTS :eekk:)
La scheda è abbastanza deludente se si considera il ritardo, i consumi e il rumore sono inaccettabili a quei livelli...:mc:
d'accordo con tè la scheda è abbastanza deludente...
si parla di oltre 40W rispetto alla gtx,quindi consumi decisamente alti,ventola rumorosa..
loperloper
14-05-2007, 09:22
primo test veloce fatto ieri con driver 8.37....
molti problemi da capire..
scusa la x2900 xt fa a quella frequenza 29000 al 3dmark?? con cpu a frequenza a default quanto fai?
Soulbringer
14-05-2007, 09:23
Incredibile che delusione..mesi di attesa e ci si ritrova con una scheda che compete solo nella fascia medio-alta del mercato..mah..:doh:
Ho letto per mancanza di tempo la review abbastanza velocemente ma si denota la stessa situazione che come volevasi dimostrare era stata volutamente fatta trapelare a goccie anonime per abituare la clientela e diminuire un hype ormai smascherato.
Da un punto di vista generale direi che AMD a questo giro, senza nulla togliere a questa scheda che risulta tecnologicamente molto avanzata e in uno stato ancora acerbo, non ha tamponato la ferita dovuta al gap di tempo guadagnato dalla concorrenza bensi' sta cercando inevitabilmente di galleggiare.
Il posizionamento "sottodimensionato" quando non si e' mai vista una soluzione "non" high end all'inizio di un lancio se non quando 3dfx annuncio' il Voodoo5 5500 posticipando il 6000 o il Voodoo3 3000 posticipando il 3500 e come sappiamo tutti non sono mosse che lasciano ben sperare bensi' nascondono un'evidente difficolta' dovuta a molteplici motivi. Il prezzo poi che (per fortuna) e' stato portato a livelli di lunga inferiori a quelli normalmente visti, e questo e' il primo sintomo partendo dal presupposto che nessuno regala niente tantomeno a questi livelli tecnologici.
I drivers aiuteranno (forse), Vista anche, i titoli sicuramente ma non speriamo in chissa' quali incrementi. L'unica e' aspettare titoli Dx10 ma in quel momento vedremo si spera nuove soluzioni e non queste di pura transizione.
Cmq non capisco, le specifiche tecniche sono superiori alla 8800GTX, perchè allora è inferiore, in molti casi anche nettamente? Davvero strana sta cosa.:mbe:
Qualcuno mi sa spiegare?:)
halduemilauno
14-05-2007, 09:37
Cmq non capisco, le specifiche tecniche sono superiori alla 8800GTX, perchè allora è inferiore, in molti casi anche nettamente? Davvero strana sta cosa.:mbe:
Qualcuno mi sa spiegare?:)
shader clock. quello di ati è uguale al core quello di nvidia è ben superiore.
;)
shader clock. quello di ati è uguale al core quello di nvidia è ben superiore.
;)
Ignoranted mode on
cos'è lo shader clock? A che serve in pratica?
ignoranted mod off
:)
loperloper
14-05-2007, 09:43
Cmq non capisco, le specifiche tecniche sono superiori alla 8800GTX, perchè allora è inferiore, in molti casi anche nettamente? Davvero strana sta cosa.:mbe:
Qualcuno mi sa spiegare?:)
bè le architetture sono diverse e di conseguenza le specifiche sono puramente indicative ai fini di un confronto prestazionale reale, poi mettiamo anche in campo dei driver che sfruttano, probabilmente, male l´hardware e , forse, qualcosa si spiega(imho ovviamente)....
La vera Regina???
Beh sicuramente la xfx xxx(550-1800) 8800 gts 320 mb a 259 euro spedita....
Che affare hanno fatto due miei amici sotto consiglio!!Che affare:D :D
Deluso è dire poco....volevo cambiare monitor e mettere questa schedozza ma mi sa che aspetto tempi migliori...allo stato attuale speriamo in k10 altrimenti buonanotte a tutti....:doh: :doh:
Fine della concorrenza fino almeno al prossimo anno???:muro: :muro:
Cmq non capisco, le specifiche tecniche sono superiori alla 8800GTX, perchè allora è inferiore, in molti casi anche nettamente? Davvero strana sta cosa.:mbe:
Qualcuno mi sa spiegare?:)
Anchi'io non capisco...
Ascoltate, in questa scheda ATi-AMD ci deve per forza essere qualcosa che non va, ma non perchè simpatizzo, ma perchè non credo che siano diventati così tanto idioti (:D ) da mettere su mercato una scheda che va e a volte si fa superare dalla loro stessa ex-top di gamma...
bè le architetture sono diverse e di conseguenza le specifiche sono puramente indicative ai fini di un confronto prestazionale reale, poi mettiamo anche in campo dei driver che sfruttano, probabilmente, male l´hardware e , forse, qualcosa si spiega(imho ovviamente)....
Speriamo, sennò addio concorrenza...
Murakami
14-05-2007, 09:44
Ignoranted mode on
cos'è lo shader clock? A che serve in pratica?
ignoranted mod off
:)
Semplicemente, la frequenza della porzione di chip che contiene le unità di shading.
halduemilauno
14-05-2007, 09:44
Ignoranted mode on
cos'è lo shader clock? A che serve in pratica?
ignoranted mod off
:)
la frequeza(clock)degli shader. tutto qui.
;)
Cmq non capisco, le specifiche tecniche sono superiori alla 8800GTX, perchè allora è inferiore, in molti casi anche nettamente? Davvero strana sta cosa.:mbe:
Qualcuno mi sa spiegare?:)
Perche' non e' sempre detto che un architettura migliorata in certi aspetti possa portare effettivi guadagni. Ad esempio i 512bit di banda evidentemente con l'attuale uso intensivo delle GPU non erano un fattore rilevante per guadagnare un gran numero di frames. L'architettura per quanto complessa evidentemente "all'atto pratico" non e' cosi' efficiente al momento. Forse e' normale essendo ormai in un periodo di transizione totale e che il 99% dei titoli sono sviluppati con una logica vecchia Directx9 e non solo per quanto riguarda le mancante chiamate alle nuove funzioni bensi' intendo proprio la logica' con cui l'architettura hardware e software si ritrova differente rispetto a quella con cui queste schede sono state create.
shader clock. quello di ati è uguale al core quello di nvidia è ben superiore.
;)
Comunque potrebbe non essere il solo fattore. Sono architetture differenti che hanno punti deboli e carenti differenti e che e' difficile scremare e portare alla luce sui giochi attuali.
http://www.hwupgrade.it/articoli/skvideo/1725/callofjuarez_driver18.png
http://www.hwupgrade.it/articoli/skvideo/1725/callofjuarez_driver42.png
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_19.html
si aspettavano i nuovi miracolosi driver da ati(che in altra rece che ho postato son stati provati e praticamente bocciati/smontati) e invece sono usciti quelli di nvidia.
;)
mentre io non sto da nessuna parte...scommetto invece ke tu 6 un nvidioso perkè tralasci fattori ke sono determinanti:
1)entrambi i prodotti nascono per Vista e dx10
2)5 fps (con i drivers nuovi d nvidia,ribadisco ke prima perdeva,loro stessi hanno provato) non costituiscono assolutamente un netto distacco(sia nel primo ke nel secondo test,figuriamoci ke anke quando "vinceva" ati erano uguali) e gentilmente sono disponibile ad esser contraddetto da ki ha condotto il test,volentieri nel suo possibile
3)imho 8880gtx & 2900xt al momento sono assolutamente uguali in dx10 con questo test,cioè scadenti entrambe
5)per forza di cose devono abbassare il prezzo della gts perkè in dx10 non ce la può fare :D,a breve anke quello della gtx
6)possiamo solo sperare ke questo test sia del tutto precario
7)purtroppo con questi nuovi prodotti si pensa al futuro,se questo è il futuro prima gen dx10 i prezzi attuali delle gpu sono veramente vergognosi e ci vuole un bel ridimensionamento nel settore.
Semplicemente, la frequenza della porzione di chip che contiene le unità di shading.
la frequeza(clock)degli shader. tutto qui.
;)
Capisco.
Ma scusate, avranno pur visto il clock shading delle 8800GTX Di farlo uguale o addirittura superiore era così difficile?:confused:
Sono ingegneri, potevano prevedere che con degli shader meno evoluti avrebbero avuto prestazioni inferiori.
Continuo ad essere sempre più perplesso.:confused: :confused:
halduemilauno
14-05-2007, 09:50
Comunque potrebbe non essere il solo fattore. Sono architetture differenti che hanno punti deboli e carenti differenti e che e' difficile scremare e portare alla luce sui giochi attuali.
l'ho citata perchè mi pare la più grande differenza fra le due a favore di nvidia. certo è ovvio che le due architetture son difficili da paragonare almeno direttamente.
;)
Ho letto per mancanza di tempo la review abbastanza velocemente ma si denota la stessa situazione che come volevasi dimostrare era stata volutamente fatta trapelare a goccie anonime per abituare la clientela e diminuire un hype ormai smascherato.
Da un punto di vista generale direi che AMD a questo giro, senza nulla togliere a questa scheda che risulta tecnologicamente molto avanzata e in uno stato ancora acerbo, non ha tamponato la ferita dovuta al gap di tempo guadagnato dalla concorrenza bensi' sta cercando inevitabilmente di galleggiare.
Il posizionamento "sottodimensionato" quando non si e' mai vista una soluzione "non" high end all'inizio di un lancio se non quando 3dfx annuncio' il Voodoo5 5500 posticipando il 6000 o il Voodoo3 3000 posticipando il 3500 e come sappiamo tutti non sono mosse che lasciano ben sperare bensi' nascondono un'evidente difficolta' dovuta a molteplici motivi. Il prezzo poi che (per fortuna) e' stato portato a livelli di lunga inferiori a quelli normalmente visti, e questo e' il primo sintomo partendo dal presupposto che nessuno regala niente tantomeno a questi livelli tecnologici.
I drivers aiuteranno (forse), Vista anche, i titoli sicuramente ma non speriamo in chissa' quali incrementi. L'unica e' aspettare titoli Dx10 ma in quel momento vedremo si spera nuove soluzioni e non queste di pura transizione.
Quoto.
Quello che mi fa pensare è proprio il fatto che non siano riusciti a immettere sul mercato una scheda con clock maggiori, anche solo di "rappresentanza" (un po' come le PE o le Ultra Extreme).
Anche il fatto che a volte la 2900HD è più lenta di una X1950XT fa riflettere...
Secondo me i problemi possono essere 2:
-) driver acerbi (incluso il compilatore, punto chiave per le performance della scheda);
-) architettura totalmente rivolta alle DX10, con consequenti basse prestazioni in DX9;
-) sottodimensionamento delle TMU.
Speriamo che sia solo un problema di driver, altrimenti non la vedo troppo luminosa per R600...
Ciao. :)
loperloper
14-05-2007, 09:51
ma poi non ho capito una cosa:
alla fine la hd 2900 è supporta le dx10.1 o no?
james_het
14-05-2007, 09:53
io ero un gran ATI fan-boy, ma dopo questa magnifica scheda che ho preso: 8800GTS ( anche super overclokakbile tra l'altro ) sono super contento e nn credo di tornare ad ATI almeno per il momento, nn mi era mai capitato di avere una scheda che rimanesse al TOP per così tanto tempo, io l'ho presa a dicembre pagandola 450,00 e da oltre 6 mesi è ancora lì........e il prezo è stato inferiore anche alle vecchie ATI che avevo ( x800 e x1800xt ).......
Quoto.
Quello che mi fa pensare è proprio il fatto che non siano riusciti a immettere sul mercato una scheda con clock maggiori, anche solo di "rappresentanza" (un po' come le PE o le Ultra Extreme).
Anche il fatto che a volte la 2900HD è più lenta di una X1950XT fa riflettere...
Secondo me i problemi possono essere 2:
-) driver acerbi (incluso il compilatore, punto chiave per le performance della scheda);
-) architettura totalmente rivolta alle DX10, con consequenti basse prestazioni in DX9;
-) sottodimensionamento delle TMU.
Speriamo che sia solo un problema di driver, altrimenti non la vedo troppo luminosa per R600...
Ciao. :)
Lo ripeto, bisogna augurarsi quello che hai detto tu, sennò addio prezzi in calo...
Inoltre mi stupisce una cosa, cioè 'ste schede sono potentissime eppure fanno cagare il caz*o allo stesso tempo...
IMHO crysis le bastonerà di brutto 'ste schede...
halduemilauno
14-05-2007, 09:55
mentre io non sto da nessuna parte...scommetto invece ke tu 6 un nvidioso perkè tralasci fattori ke sono determinanti:
1)entrambi i prodotti nascono per Vista e dx10
2)5 fps (con i drivers nuovi d nvidia,ribadisco ke prima perdeva,loro stessi hanno provato) non costituiscono assolutamente un netto distacco(sia nel primo ke nel secondo test) e gentilmente sono disponibile ad esser contraddetto da ki ha condotto il test,volentieri nel suo possibile
3)imho g80 & r600 al momento sono assolutamente uguali in dx10 con questo test,cioè scadenti entrambe
4)possiamo solo sperare ke questo test sia del tutto precario
ho solo rimarcato un'aspetto della rece. se prima erano alla pari dopo, la gtx si è trovata in vantaggio di sei fps. fino a stanotte veniva detto altro. tutt'altro. tutto qui.
tu da nessuna parte non ci crede nessuno. di certo non io. e avrei da aggiungere ma non lo faccio. se insisti ti segnalo al mod.
Spider-Mans
14-05-2007, 09:59
abbastanza deludente questa ati r600
ma dalla 1900 per ocnsumi e rumore non hanno imprato nulla? di nuovo una vga piu rumorsa e piu esosa in consumi dei concorrenti..e sta volta anche scarsa in prestazioni
ho fatto bene a puntare su nvidia sta volta
Spider-Mans
14-05-2007, 10:01
IMHO crysis le bastonerà di brutto 'ste schede...
non penso che i giochi10x saranno cosi esosi (dipendera sempre dal caso specifico)..ce da dire che i driver ottimizzati fanno molto.. basta vedere il guadagno delle nvidia con driver piu "decenti" nel test 10x...
cmq occorre aspettare veri giochi 10x per poter capire
mi iscrivo deluso. Per ora tengo la mia, poi si vedrà.
bobbybello
14-05-2007, 10:09
Si appunto, ora come ora chi ha una x1950 xt non ci guadagna molto a fare il cambio, io mi aspettavo un po di più, merito di nvidia allora ad aver realizzato una buona gpu (G80) in grado di far sudare l'accoppiata Ati/amd per superarla in termini di prestazioni...la mia 8800 gts oggi ride felice.......
Skullcrusher
14-05-2007, 10:09
Letta ora la recensione di hwupgrade e anche le altre che sono uscite finora. Praticamente tutti hanno usato i drivers 8.37, quindi basse prestazioni, ma c'è da dire che anche Nvidia sta per rilasciare drivers ( 158.42 provati da hwupgrade ) che sembrano permettere un buon aumento delle prestazioni.
Ora che finalmente tutto è ufficiale, posso dire la mia: come volevasi dimostrare, il dissipatore è ancora rumoroso....non impareranno mai....:muro:
Per il resto, prestazioni buone, da XT, ma niente di trascendentale. Penso che terrò la GTX in attesa di una XTX con 1Gb di ram, vero modello di punta Ati. ;)
http://www.nordichardware.com/Reviews/?page=7&skrivelse=510
Toh, questi test condotti con gli ultimissimi driver ieri notte dicono qualcosa di diverso. :D
Ma vieni!! :P
Resta da vedere nei giochi come si comporta, ma a quel punto si tratta solo di ottimizzazioni dei driver.
mentre io non sto da nessuna parte...scommetto invece ke tu 6 un nvidioso perkè tralasci fattori ke sono determinanti:
1)entrambi i prodotti nascono per Vista e dx10
2)5 fps (con i drivers nuovi d nvidia,ribadisco ke prima perdeva,loro stessi hanno provato) non costituiscono assolutamente un netto distacco(sia nel primo ke nel secondo test,figuriamoci ke anke quando "vinceva" ati erano uguali) e gentilmente sono disponibile ad esser contraddetto da ki ha condotto il test,volentieri nel suo possibile
3)imho 8880gtx & 2900xt al momento sono assolutamente uguali in dx10 con questo test,cioè scadenti entrambe
5)per forza di cose devono abbassare il prezzo della gts perkè in dx10 non ce la può fare :D,a breve anke quello della gtx
6)possiamo solo sperare ke questo test sia del tutto precario
7)purtroppo con questi nuovi prodotti si pensa al futuro,se questo è il futuro prima gen dx10 i prezzi attuali delle gpu sono veramente vergognosi e ci vuole un bel ridimensionamento nel settore.
dare dell nvidioso a sto punto non é flame? comprati la 2900 e calmati;)
dare dell nvidioso a sto punto non é flame? comprati la 2900 e calmati;)
Prima di continuare il flame qualcuno guarda per favore i benchmark su quel link? Thx. ;)
mentre io non sto da nessuna parte...scommetto invece ke tu 6 un nvidioso perkè tralasci fattori ke sono determinanti:
1)entrambi i prodotti nascono per Vista e dx10
2)5 fps (con i drivers nuovi d nvidia,ribadisco ke prima perdeva,loro stessi hanno provato) non costituiscono assolutamente un netto distacco(sia nel primo ke nel secondo test,figuriamoci ke anke quando "vinceva" ati erano uguali) e gentilmente sono disponibile ad esser contraddetto da ki ha condotto il test,volentieri nel suo possibile
3)imho 8880gtx & 2900xt al momento sono assolutamente uguali in dx10 con questo test,cioè scadenti entrambe
5)per forza di cose devono abbassare il prezzo della gts perkè in dx10 non ce la può fare :D,a breve anke quello della gtx
6)possiamo solo sperare ke questo test sia del tutto precario
7)purtroppo con questi nuovi prodotti si pensa al futuro,se questo è il futuro prima gen dx10 i prezzi attuali delle gpu sono veramente vergognosi e ci vuole un bel ridimensionamento nel settore.
Concordo sui punti focalizzati ma evitiamo di porre titoli come "nvidioso" o amenita' simili perche' suscitano flames e in questo thread vorrei ricordare che sono assolutamente PROIBITI SPAM e FLAMES!!!!
Non finiamo come nell'altro o cominciano a fioccare sospensioni a profusione.
Prima di continuare il flame qualcuno guarda per favore i benchmark su quel link? Thx. ;)
Sicuramente interessanti quei test, però il solo 3DMark non basta a giudicare la bonta' dell'accoppiata hardware/software.
Tra l'altro, i driver usati in quella comparativa sono gli 8.37, gli stessi usati da hwupgrade...
Ciao. :)
mi scuso,è vero,potevo evitare quello pseudo aggettivo.buona giornata a tutti.
Kharonte85
14-05-2007, 10:27
http://www.nordichardware.com/Reviews/?page=7&skrivelse=510
Toh, questi test condotti con gli ultimissimi driver ieri notte dicono qualcosa di diverso. :D
Ma vieni!! :P
Resta da vedere nei giochi come si comporta, ma a quel punto si tratta solo di ottimizzazioni dei driver.
:mbe: Non vedo giochi...e sostengono di aver usato i Catalyst 8.37 :boh:
dico la mia solo sul lato driver: anche se dovesse uscire una versione portentosa, che incrementasse le prestazioni sensibilmente, imho rappresenterebbe cmq una mezza sconfitta.
il giorno della presentazione era oggi, il massimo dell'attenzione era oggi, le recensioni uscivano oggi. farsi trovare impreparati oggi non ha scusanti.
che si voglia confrontare con la GTS o la GTX, che si parli di games DX9.0 o 10.0.
http://www.nordichardware.com/Reviews/?page=7&skrivelse=510
Toh, questi test condotti con gli ultimissimi driver ieri notte dicono qualcosa di diverso. :D
Ma vieni!! :P
Resta da vedere nei giochi come si comporta, ma a quel punto si tratta solo di ottimizzazioni dei driver.
Da questa rece sembra essere un'altra scheda...
WR al 3DMark05??? Oh My God!
A vedere questi result forse ci siamo sbagliati ragazzi a definirlo un FLOP completo...
Solifuge
14-05-2007, 10:30
il giorno della presentazione era oggi, il massimo dell'attenzione era oggi, le recensioni uscivano oggi. farsi trovare impreparati oggi non ha scusanti.
Come non quotare.
non penso che i giochi10x saranno cosi esosi (dipendera sempre dal caso specifico)..ce da dire che i driver ottimizzati fanno molto.. basta vedere il guadagno delle nvidia con driver piu "decenti" nel test 10x...
cmq occorre aspettare veri giochi 10x per poter capire
Si ma schede che fanno 30fps con CoJ che è fuori da un bel pezzo... :(
Kharonte85
14-05-2007, 10:34
Da questa rece sembra essere un'altra scheda...
WR al 3DMark05??? Oh My God!
A vedere questi result forse ci siamo sbagliati ragazzi a definirlo un FLOP completo...
Non hai capito, i driver sono gli stessi, è solo il punteggio al 3dmarck che ormai non conta piu' un fico secco:
http://www.tomshw.it/guides/hardware/graphic/20070514/images/test_3dmark2005.jpg
http://www.tomshw.it/guides/hardware/graphic/20070514/images/test_3dmark2006_std.jpg
http://www.tomshw.it/guides/hardware/graphic/20070514/images/test_fear_2048.jpg
http://www.tomshw.it/guides/hardware/graphic/20070514/images/test_oblivion_2048.jpg
http://www.tomshw.it/guides/hardware/graphic/20070514/images/test_supcom_2048.jpg
il giorno della presentazione era oggi, il massimo dell'attenzione era oggi, le recensioni uscivano oggi. farsi trovare impreparati oggi non ha scusanti.
quoto, con tutto il tempo che hanno avuto era oggi il Day One
Kharonte85
14-05-2007, 10:37
Si ma schede che fanno 30fps con CoJ che è fuori da un bel pezzo... :(
Tu non ti rendi conto: :D
bench in dx10 di Call of Juarez:
http://www.hwupgrade.it/forum/showpost.php?p=17112061&postcount=144
dico la mia solo sul lato driver: anche se dovesse uscire una versione portentosa, che incrementasse le prestazioni sensibilmente, imho rappresenterebbe cmq una mezza sconfitta.
il giorno della presentazione era oggi, il massimo dell'attenzione era oggi, le recensioni uscivano oggi. farsi trovare impreparati oggi non ha scusanti.
Quoto
halduemilauno
14-05-2007, 10:38
dico la mia solo sul lato driver: anche se dovesse uscire una versione portentosa, che incrementasse le prestazioni sensibilmente, imho rappresenterebbe cmq una mezza sconfitta.
il giorno della presentazione era oggi, il massimo dell'attenzione era oggi, le recensioni uscivano oggi. farsi trovare impreparati oggi non ha scusanti.
che si voglia confrontare con la GTS o la GTX, che si parli di games DX9.0 o 10.0.
completamente d'accordo.
;)
leoneazzurro
14-05-2007, 10:40
Cmq non capisco, le specifiche tecniche sono superiori alla 8800GTX, perchè allora è inferiore, in molti casi anche nettamente? Davvero strana sta cosa.:mbe:
Qualcuno mi sa spiegare?:)
http://www.beyond3d.com/content/reviews/16/8
"While going 5-way scalar has allowed AMD more flexibility in instruction scheduling compared to their previous hardware, that flexibility arguably makes your compiler harder to write, not easier. So as a driver writer you have more packing opportunities -- and I like to think of it almost like a game of Tetris when it comes to a GPU, but only with the thin blocks and with those being variable lengths, and you can sometimes break them up! -- those opportunities need handling in code and your corner cases get harder to find.
http://www.beyond3d.com/content/reviews/16/8 (e seguenti)
The end result here is a shader core with fairly monstrous peak floating point numbers, by virtue of the unit count in R600, its core clock and the register file of doom, but one where software will have a harder time driving it close to peak. That's not to say it's impossible, and indeed we've managed to write in-house shaders, short and long and with mixtures of channels, register counts and what have you, that run close to max theoretical thoughput. However it's a more difficult proposition for the driver tech team to take care of over the lifetime of the architecture, we argue, than their previous architecture."
"The sampler unit count and their available performance means that while fetch and filter performance is increased over what's available in R580, it's one of the major areas where R600 is (sometimes heavily) deficient compared to NVIDIA G80 on a per clock basis, with the sampler units running at base clock like the rest of the chip. Like G80 and with the orthogonality in the sampler hardware, filtering power just becomes a product of available bilerps per clock, bandwidth permitting."
"Custom Filter AA, or CFAA for short, is AMD implementing non-box filters that look outside the pixel being processed in order to calculate final colour and antialias the image. The sample resolve for that is performed on the shader core, data passed in so the programmable hardware can do the math, with the filter function defined by the driver. That means AMD can implement a pluggable user filter system if they want, but even if they don't they can update, add and remove filters from the driver at will whenever they see fit.
The big advantage is the ability to perform better filtering than the standard hardware resolve. However the disadvantages include possible implementation of bad filters, and speed issues because the driver now has to issue, and the hardware run, resolve calculation threads which chew up available shader core cycles. Ah, but there's still the regular hardware resolve if you want maximum speed and the regular quality just from sampling a single pixel, right? Well no, that's not always the case.
Even for the basic box filter resolves, where the hardware weights samples based on their proximity to the pixel centroid, R600 will perform the calculations to resolve the samples on the shader core, that is unless compression for the tile is at maximum, so you know the resolve would just return the same colour anyway, so there's no math involved to filter. Currently that points to the hardware resolve either being broken, at least under some conditions (when compression is less than maximum), or it being easier to maintain in code if you're doing other filters anyway, so you only have one path for that in the driver. We lean towards the former, rather than the latter, since the performance deficit for shader core resolve seems to be significant, even for the basic box filter cases. That can be improved in the driver, however, and the hardware helps here by likely being able to decompress sample locations for a pixel into the shader core at a high rate."
"So the basic performance tenets of the shader core hold up, with instruction throughput effectively the same via each API, and the compiler struggling a little with our independent MAD shader in terms of seeing peak (some 236.8Ginst/sec at 740MHz). The dependent shader tests show that what an architecture like G80 will eat up, an architecture like R600 will struggle with, the hardware unable to schedule free instructions on the remaining ALUs. Of course these are best and worst cases for scalar throughput; take a look at a shipping game shader and you'll find channel widths varying, massively variant instruction mixes and other opportunities for hardware like R600 to schedule intelligently."
"The thing to take away from base architecture performance is that you can push max theoretical throughput through the shader core for any given instruction in isolation. We haven't tested every instruction, but we're confident that's the case. Of course the architecture means that the compiler has to get things right there, but that's been the case for all of their previous programmable architectures, so we're sure they're able to handle the most common optimisation cases for the chip, and it'll likely get better over time as they take a look at different mixes."
"Then we come to the ROP hardware, designed for high performance AA with high precision surface formats, at high resolution, with an increase in the basic MSAA ability to 8x. It's here that we see the lustre start to peel away slightly in terms of IQ and performance, with no fast hardware resolve for tiles that aren't fully compressed, and a first line of custom filters that can have a propensity to blur more than not. Edge detect is honestly sweet, but the CFAA package feels like something tacked on recently to paper over the cracks, rather than something forward-looking (we'll end up at the point of fully-programmable MSAA one day in all GPUs) to pair with speedy hardware resolve and the usual base filters. AMD didn't move the game on in terms of absolute image quality when texture filtering, either. They're no longer leaders in the field of IQ any more, overtaken by NVIDIA's GeForce 8-series hardware."
"With a harder-to-compile-for shader core (although one with monstrous floating point peak figures), less per-clock sampler ability for almost all formats and channel widths, and a potential performance bottleneck with the current ROP setup, R600 has heavy competition in HD 2900 XT form. AMD pitch the SKU not at (or higher than) the GeForce 8800 GTX as many would have hoped, but at the $399 (and that's being generous at the time of writing) GeForce 8800 GTS 640MiB. And that wasn't on purpose, we reckon. If you asked ATI a year ago what they were aiming for with R600, the answer was a simple domination over NVIDIA at the high end, as always."
Direi che i motivi sono più o meno questi: oltre al deficit in termini di filtraggio delle texture e ai (migliorabili tramite drivers e compilatore) problemi di scheduling delle istruzioni per i pixel shaders, c'è la gravissima mancanza di hardware dedicato a determinate operazioni nelle ROPs, che spiega purtroppo i cattivi risultati con l'AA attivato.
Certo, è vero che in un chip non può entrare tutto, ma "sbilanciato" è la prima parola che viene in mente vedendo l'analisi di B3D, soprattutto il bus a 512 bit in questo momento appare del tutto sovradimensionato.
Penso che forse, puntando ad un semplice bus a 256 bit con GDDR4, si sarebbe potuto risparmiare dell'area che avrebbe forse garantito migliori prestazioni globali anche con meno banda passante. :(
Sicuramente sul fronte del pixel shading si potrà migliorare e molto: quest'architettura dev'essere un incubo da ottimizzare, ma il problema dell'Antialiasing rimarrà.
ondepercui mi devo comprare una 8800 gts320? :D
dico la mia solo sul lato driver: anche se dovesse uscire una versione portentosa, che incrementasse le prestazioni sensibilmente, imho rappresenterebbe cmq una mezza sconfitta.
il giorno della presentazione era oggi, il massimo dell'attenzione era oggi, le recensioni uscivano oggi. farsi trovare impreparati oggi non ha scusanti.
che si voglia confrontare con la GTS o la GTX, che si parli di games DX9.0 o 10.0.
Concordo, ma ammettendo anche che sia "normale" avere drivers non performanti (e' sempre successo ad ogni nuovo lancio), vorrei ricordare che gli incrementi non sono mai nell'ordine in cui vorremmo vederli se non una manciata di frames qua e la' (ipotizzo).
Gli unici fattori rilevanti qui saranno il prezzo tendente a 350 euro, e i titoli Directx10 ove anche le schede nvidia, dovranno subire l'inesperienza degli sviluppatori e la difficolta' nell'avere release di drivers ottimizzate con Vista e i titoli relativi.
halduemilauno
14-05-2007, 10:43
http://www.beyond3d.com/content/reviews/16/8
"While going 5-way scalar has allowed AMD more flexibility in instruction scheduling compared to their previous hardware, that flexibility arguably makes your compiler harder to write, not easier. So as a driver writer you have more packing opportunities -- and I like to think of it almost like a game of Tetris when it comes to a GPU, but only with the thin blocks and with those being variable lengths, and you can sometimes break them up! -- those opportunities need handling in code and your corner cases get harder to find.
http://www.beyond3d.com/content/reviews/16/8 (e seguenti)
The end result here is a shader core with fairly monstrous peak floating point numbers, by virtue of the unit count in R600, its core clock and the register file of doom, but one where software will have a harder time driving it close to peak. That's not to say it's impossible, and indeed we've managed to write in-house shaders, short and long and with mixtures of channels, register counts and what have you, that run close to max theoretical thoughput. However it's a more difficult proposition for the driver tech team to take care of over the lifetime of the architecture, we argue, than their previous architecture."
"The sampler unit count and their available performance means that while fetch and filter performance is increased over what's available in R580, it's one of the major areas where R600 is (sometimes heavily) deficient compared to NVIDIA G80 on a per clock basis, with the sampler units running at base clock like the rest of the chip. Like G80 and with the orthogonality in the sampler hardware, filtering power just becomes a product of available bilerps per clock, bandwidth permitting."
"Custom Filter AA, or CFAA for short, is AMD implementing non-box filters that look outside the pixel being processed in order to calculate final colour and antialias the image. The sample resolve for that is performed on the shader core, data passed in so the programmable hardware can do the math, with the filter function defined by the driver. That means AMD can implement a pluggable user filter system if they want, but even if they don't they can update, add and remove filters from the driver at will whenever they see fit.
The big advantage is the ability to perform better filtering than the standard hardware resolve. However the disadvantages include possible implementation of bad filters, and speed issues because the driver now has to issue, and the hardware run, resolve calculation threads which chew up available shader core cycles. Ah, but there's still the regular hardware resolve if you want maximum speed and the regular quality just from sampling a single pixel, right? Well no, that's not always the case.
Even for the basic box filter resolves, where the hardware weights samples based on their proximity to the pixel centroid, R600 will perform the calculations to resolve the samples on the shader core, that is unless compression for the tile is at maximum, so you know the resolve would just return the same colour anyway, so there's no math involved to filter. Currently that points to the hardware resolve either being broken, at least under some conditions (when compression is less than maximum), or it being easier to maintain in code if you're doing other filters anyway, so you only have one path for that in the driver. We lean towards the former, rather than the latter, since the performance deficit for shader core resolve seems to be significant, even for the basic box filter cases. That can be improved in the driver, however, and the hardware helps here by likely being able to decompress sample locations for a pixel into the shader core at a high rate."
"So the basic performance tenets of the shader core hold up, with instruction throughput effectively the same via each API, and the compiler struggling a little with our independent MAD shader in terms of seeing peak (some 236.8Ginst/sec at 740MHz). The dependent shader tests show that what an architecture like G80 will eat up, an architecture like R600 will struggle with, the hardware unable to schedule free instructions on the remaining ALUs. Of course these are best and worst cases for scalar throughput; take a look at a shipping game shader and you'll find channel widths varying, massively variant instruction mixes and other opportunities for hardware like R600 to schedule intelligently."
"The thing to take away from base architecture performance is that you can push max theoretical throughput through the shader core for any given instruction in isolation. We haven't tested every instruction, but we're confident that's the case. Of course the architecture means that the compiler has to get things right there, but that's been the case for all of their previous programmable architectures, so we're sure they're able to handle the most common optimisation cases for the chip, and it'll likely get better over time as they take a look at different mixes."
"Then we come to the ROP hardware, designed for high performance AA with high precision surface formats, at high resolution, with an increase in the basic MSAA ability to 8x. It's here that we see the lustre start to peel away slightly in terms of IQ and performance, with no fast hardware resolve for tiles that aren't fully compressed, and a first line of custom filters that can have a propensity to blur more than not. Edge detect is honestly sweet, but the CFAA package feels like something tacked on recently to paper over the cracks, rather than something forward-looking (we'll end up at the point of fully-programmable MSAA one day in all GPUs) to pair with speedy hardware resolve and the usual base filters. AMD didn't move the game on in terms of absolute image quality when texture filtering, either. They're no longer leaders in the field of IQ any more, overtaken by NVIDIA's GeForce 8-series hardware."
"With a harder-to-compile-for shader core (although one with monstrous floating point peak figures), less per-clock sampler ability for almost all formats and channel widths, and a potential performance bottleneck with the current ROP setup, R600 has heavy competition in HD 2900 XT form. AMD pitch the SKU not at (or higher than) the GeForce 8800 GTX as many would have hoped, but at the $399 (and that's being generous at the time of writing) GeForce 8800 GTS 640MiB. And that wasn't on purpose, we reckon. If you asked ATI a year ago what they were aiming for with R600, the answer was a simple domination over NVIDIA at the high end, as always."
Direi che i motivi sono più o meno questi: oltre al deficit in termini di filtraggio delle texture e ai (migliorabili tramite drivers e compilatore) problemi di scheduling delle istruzioni per i pixel shaders, c'è la gravissima mancanza di hardware dedicato a determinate operazioni nelle ROPs, che spiega purtroppo i cattivi risultati con l'AA attivato.
Certo, è vero che in un chip non può entrare tutto, ma "sbilanciato" è la prima parola che viene in mente vedendo l'analisi di B3D, soprattutto il bus a 512 bit in questo momento appare del tutto sovradimensionato.
Penso che forse, puntando ad un semplice bus a 256 bit con GDDR4, si sarebbe potuto risparmiare dell'area che avrebbe forse garantito migliori prestazioni globali anche con meno banda passante. :(
e magari innalzare la frequenza della ram. praticamente gli hai smontato il loro fiore all'occhiello.
;)
halduemilauno
14-05-2007, 10:45
ondepercui mi devo comprare una 8800 gts320? :D
a 250€(o poco +)non c'è niente di meglio.
;)
Kharonte85
14-05-2007, 10:45
Direi che i motivi sono più o meno questi: oltre al deficit in termini di filtraggio delle texture e ai (migliorabili tramite drivers e compilatore) problemi di scheduling delle istruzioni per i pixel shaders, c'è la gravissima mancanza di hardware dedicato a determinate operazioni nelle ROPs, che spiega purtroppo i cattivi risultati con l'AA attivato.
Certo, è vero che in un chip non può entrare tutto, ma "sbilanciato" è la prima parola che viene in mente vedendo l'analisi di B3D, soprattutto il bus a 512 bit in questo momento appare del tutto sovradimensionato.
Penso che forse, puntando ad un semplice bus a 256 bit con GDDR4, si sarebbe potuto risparmiare dell'area che avrebbe forse garantito migliori prestazioni globali anche con meno banda passante. :(
Infatti, Nvidia dal canto suo ha imparato a non sovradimensionare il bus, mentre ATI non è nuova a queste sortite: mi ricordo un x1800gto Vs 7600gt :D
il giorno della presentazione era oggi, il massimo dell'attenzione era oggi, le recensioni uscivano oggi. farsi trovare impreparati oggi non ha scusanti.
Perfettamente d'accordo.
Non dimentichiamo però che non sarebbe la prima volta che un update tempestivo dei driver risollevi le sorti di una scheda (basta pensare al GF3, che appena uscito era più lento di una GF2 Ultra).
Però i sei mesi di ritardo pesano eccome... :rolleyes:
webbuffa
14-05-2007, 10:47
:eek: 1104 Mhz di CORE!! :| per il WR
Speriamo davvero nn sia un FLOP :S
MonsterMash
14-05-2007, 10:48
Pessimismo e fastidio...
In questi ultimi 3 giorni avevo letto nelle parole di alcuni che sostenevano di aver visto e/o provato la scheda una promessa di smentite ufficiali dei bench visti la settimana scorsa.
E invece è tutto confermato. A questo punto veramente non capisco per quale motivo alla ati abbiano deciso a marzo di rimandare l'uscita della scheda fino ad oggi. Per presentarla insieme alle soluzioni di fascia media e bassa? Ma neanche questo è vero, visto che non sono ancora pronte le 2400/2600...
Le prestazioni deludenti sono ancora più deludenti quando passa ulteriore tempo.
Un'evento simile può mettere in guai seri un'azienda come la ati, che già quando sfornava prodotti di ottima qualità era sempre all'ombra dell'nvidia, e doveva faticare per mantenere la sua fascia di mercato.
Ciao
webbuffa
14-05-2007, 10:50
Perfettamente d'accordo.
Non dimentichiamo però che non sarebbe la prima volta che un update tempestivo dei driver risollevi le sorti di una scheda (basta pensare al GF3, che appena uscito era più lento di una GF2 Ultra).
Però i sei mesi di ritardo pesano eccome... :rolleyes:
:) Vero... secondo me da cosa si è visto si capisce che sulle direct 9 non hanno investito molto, almeno per l'uscita della scheda. Infatti nel bench delle direct 10 si è comportata tutto sommato bene. Quindi aspettiamo una revisione dei driver per vedere gli sviluppi :D .
P.S.
Tutto di un'altra pasta il test di nordichardware.com!!
Soulbringer
14-05-2007, 10:51
Infatti, Nvidia dal canto suo ha imparato a non sovradimensionare il bus, mentre ATI non è nuova a queste sortite: mi ricordo un x1800gto Vs 7600gt :D
Ma cosa c'entra però?la x1800gto era un'architettura derivata dalla fascia alta e poi cmq andava di più della 7600gt..
Tornando ad r600 invece mi sa che avete ragione sul bus a 512bit..è un pò inutile a sto punto.. E anche considerando ottimizzazioni via driver non credo proprio che facciano guadagnare più di un 5-10%..insomma per chi come me si aspettava una vera concorrente della 8800gtx da comprare in questo periodo rimane solo delusione.:(
Pessimismo e fastidio...
In questi ultimi 3 giorni avevo letto nelle parole di alcuni che sostenevano di aver visto e/o provato la scheda una promessa di smentite ufficiali dei bench visti la settimana scorsa.
E invece è tutto confermato. A questo punto veramente non capisco per quale motivo alla ati abbiano deciso a marzo di rimandare l'uscita della scheda fino ad oggi. Per presentarla insieme alle soluzioni di fascia media e bassa? Ma neanche questo è vero, visto che non sono ancora pronte le 2400/2600...
Le prestazioni deludenti sono ancora più deludenti quando passa ulteriore tempo.
Un'evento simile può mettere in guai seri un'azienda come la ati, che già quando sfornava prodotti di ottima qualità era sempre all'ombra dell'nvidia, e doveva faticare per mantenere la sua fascia di mercato.
Ciao
A) Probabilmente erano alla fine in ritardo vero e proprio per cercare di capire in quale ottica proporre il progetto visto come performava G80.
B) Piu' tardi significa piu' vicino alle Directx10 e piu' lontano dalle Directx9. Forse cercano anche questo consapevoli che questa architettura non riesce a mostrarsi per nulla competitiva in ambiente Directx9. Forse sperano un imminente arrivo di bench e demo Directx10 cosi' da dimostrare che in ottica futura sono preparati.
Sakurambo
14-05-2007, 10:54
Scusate l'ignoranza ma vorrei sottolineare una cosa:
Il bentch di CoJ, unico con DX10, sebbene un po' di parte, sarebbe dovuto apparire come primo in tutte le classifiche; invece è sempre l'ultimo ed in nessun articolo è presente un confronto diretto con la scheda 8800ULTRA.
Su HW mi dicono "non c'è perchè non l'avevamo più"; ma come? Sono quello oche fai i bentch e non penso a questo problema? Proprio il bentch più significativo eludo?
Su TH non ti dicono il perchè ma i valori sono simili ad HW
Quindi o io sono incapace di trovare un riscontro diretto in internet o tutti hanno copiato dalla medesima relazione...
Insomma si potrebbe sapere qunta polvere mangai rispetto a 8800Ultra su DX10? :doh:
Brightblade
14-05-2007, 10:56
Ottimo (si fa per dire), il bench delle performance delle 2 rivali in COJ e' un primo aiuto al mio portafogli e non mi fa recedere dalla mia decisione di passare ad HW DX10 non prima del 2008, per ora la scimmia DX10 se ne sta a distanza di sicurezza :D , vediamo se resistero' anche con Crysis...:mc:
Kharonte85
14-05-2007, 10:58
Ma cosa c'entra però?la x1800gto era un'architettura derivata dalla fascia alta e poi cmq andava di più della 7600gt..
Era sovradimensionato, tanto è vero che la x1650xt successiva fu col bus a 128bit ma con prestazioni quasi superiori :)
Per R600 potrebbe essere uguale, nel senso che una scheda con la meta' del bus potrebbe fare pure meglio :D
Scusate l'ignoranza ma vorrei sottolineare una cosa:
Il bentch di CoJ, unico con DX10, sebbene un po' di parte, sarebbe dovuto apparire come primo in tutte le classifiche; invece è sempre l'ultimo ed in nessun articolo è presente un confronto diretto con la scheda 8800ULTRA.
Su HW mi dicono "non c'è perchè non l'avevamo più"; ma come? Sono quello oche fai i bentch e non penso a questo problema? Proprio il bentch più significativo eludo?
Su TH non ti dicono il perchè ma i valori sono simili ad HW
Quindi o io sono incapace di trovare un riscontro diretto in internet o tutti hanno copiato dalla medesima relazione...
Insomma si potrebbe sapere qunta polvere mangai rispetto a 8800Ultra su DX10? :doh:
Essendo la 8800 Ultra di non molto differente dalla GTX non e' difficile ipotizzare il gap.
Soulbringer
14-05-2007, 11:01
Era sovradimensionato, tanto è vero che la x1650xt successiva fu col bus a 128bit ma con prestazioni quasi superiori :)
Per R600 potrebbe essere uguale, nel senso che una scheda con la meta' del bus potrebbe fare pure meglio :D
Ah ok in questo senso sono d'accordo con te. Però un'errore di sovradimensionamento del bus lo capisco su una fascia media come la x1800gto che poi cmq non andava male..ma non lo concepisco proprio su una top di gamma studiata nei minimi particolari per risultare competitiva.
faestrike
14-05-2007, 11:03
ragazzi la vedo dura giocare su pc quest anno dopo questi test deludenti, purtroppo anche comprando l hardware migliore (costosissimo che non tutti se lo possono permettere) bisognerà scendere a compromessi,mi chiedo molte volte come fanno a mostrare video dei game prima dell uscita che girano velocemente poi quando il game è pronto e ti arriva a casa va tutto uno scatto MAH!!!!!Vedremo crisys ,dai video va forte ma poi quando la scatola sarà a casa nostra?????..........Ci stiamo avvicinando alla fine del game su pc?
Sperem di no
Soulbringer
14-05-2007, 11:05
ragazzi la vedo dura giocare su pc quest anno dopo questi test deludenti, purtroppo anche comprando l hardware migliore (costosissimo che non tutti se lo possono permettere) bisognerà scendere a compromessi,mi chiedo molte volte come fanno a mostrare video dei game prima dell uscita che girano velocemente poi quando il game è pronto e ti arriva a casa va tutto uno scatto MAH!!!!!Vedremo crisys ,dai video va forte ma poi quando la scatola sarà a casa nostra?????..........Ci stiamo avvicinando alla fine del game su pc?
Sperem di no
Ma in dx10 non ci sono test validi per me..non bisogna lasciarsi trarre in inganno dal test dx10 di CoJ perché è molto male ottimizzato..secondo me quando usciranno i primi giochi dx10 (come crysis) la situazione sarà ben diversa.
Pessimismo e fastidio...
In questi ultimi 3 giorni avevo letto nelle parole di alcuni che sostenevano di aver visto e/o provato la scheda una promessa di smentite ufficiali dei bench visti la settimana scorsa.
E invece è tutto confermato. A questo punto veramente non capisco per quale motivo alla ati abbiano deciso a marzo di rimandare l'uscita della scheda fino ad oggi. Per presentarla insieme alle soluzioni di fascia media e bassa? Ma neanche questo è vero, visto che non sono ancora pronte le 2400/2600...
Le prestazioni deludenti sono ancora più deludenti quando passa ulteriore tempo.
Un'evento simile può mettere in guai seri un'azienda come la ati, che già quando sfornava prodotti di ottima qualità era sempre all'ombra dell'nvidia, e doveva faticare per mantenere la sua fascia di mercato.
Ciao
magari pure loro non si spiegavano come mai malgrado i 320 stream processor e il bus a 512bit i risultati fossero questi, hanno rimandato fino al possibile per poi collocarla in quella fascia di prezzo. se i risultati fossero stati diversi probabilmente avremmo avuto anche un prezzo diverso..
Soulbringer
14-05-2007, 11:10
magari pure loro non si spiegavano come mai malgrado i 320 stream processor e il bus a 512bit i risultati fossero questi, hanno rimandato fino al possibile per poi collocarla in quella fascia di prezzo. se i risultati fossero stati diversi probabilmente avremmo avuto anche un prezzo diverso..
Ma non credo che non se li spiegassero..i casi sono 2: o in dx10 la scheda cambia da così :cry: a così :D oppure alla ati non sono riusciti a fare di meglio..
Sakurambo
14-05-2007, 11:12
Essendo la 8800 Ultra di non molto differente dalla GTX non e' difficile ipotizzare il gap.
Non è proprio così: l'ultra in tantissimi applicativi o giochi saliva molto rispetto la GTX, quindi non ritengo cosa saggia provare a dedurre dati su carta.
Ripeto: molto mi fa pensare il fatto che tutti i siti hanno bench completi e poi con CoJ stranamente non mettono l'ultra; l'unico con DX10; in contemporanea tutti sottolineano che ci sarà un up in prestazioni con driver DX10 più maturi...:muro:
Mi puzza di presa per il c@@o
MonsterMash
14-05-2007, 11:17
magari pure loro non si spiegavano come mai malgrado i 320 stream processor e il bus a 512bit i risultati fossero questi, hanno rimandato fino al possibile per poi collocarla in quella fascia di prezzo. se i risultati fossero stati diversi probabilmente avremmo avuto anche un prezzo diverso..
Immagino che chi ha progettato un chip come r600 abbia le cognizioni che gli permettono di stabilire il perchè ed il per come una scheda performi più di un'altra...
Inoltre, so che xenos è un'architettura completamente differente, ma possibile che quell'esperienza non gli sia valsa il minimo vantaggio in termini di ottimizzazione sugli shader unificati?
Ma in dx10 non ci sono test validi per me..non bisogna lasciarsi trarre in inganno dal test dx10 di CoJ perché è molto male ottimizzato..secondo me quando usciranno i primi giochi dx10 (come crysis) la situazione sarà ben diversa.
Speriamo perchè fino adesso parrebbe che nessuna delle schede in commercio si possa permettere le dx10; io sono convinto che la 2900 andrà in proporzione meglio che adesso con dx10, bisogna vedere se i titoli sono giocabili, se devi scalare alle dx9 allora è meglio rimanere con Nvidia...
credo che però per vendere sta scheda Ati la debba mettere a 350€ da subito.
xxfamousxx
14-05-2007, 11:23
Ma in dx10 non ci sono test validi per me..non bisogna lasciarsi trarre in inganno dal test dx10 di CoJ perché è molto male ottimizzato..secondo me quando usciranno i primi giochi dx10 (come crysis) la situazione sarà ben diversa.
non dimentichiamoci anche che quel CoJ in dx10 è stato fatto IN COLLABORAZIONE CON AMD/ATI!!!;)
Soulbringer
14-05-2007, 11:23
Immagino che chi ha progettato un chip come r600 abbia le cognizioni che gli permettono di stabilire il perchè ed il per come una scheda performi più di un'altra...
Inoltre, so che xenos è un'architettura completamente differente, ma possibile che quell'esperienza non gli sia valsa il minimo vantaggio in termini di ottimizzazione sugli shader unificati?
Anche io non riesco a capirlo...
Speriamo perchè fino adesso parrebbe che nessuna delle schede in commercio si possa permettere le dx10; io sono convinto che la 2900 andrà in proporzione meglio che adesso con dx10, bisogna vedere se i titoli sono giocabili, se devi scalare alle dx9 allora è meglio rimanere con Nvidia...
credo che però per vendere sta scheda Ati la debba mettere a 350€ da subito.
Si 350€ è il prezzo giusto per sperare di venderne un pò..
Nemesis83
14-05-2007, 11:30
So che forse è prematuro chiederlo, dato che teoricamente al momento in cui sto scrivendo mancherebbero 2 ore e mezza all'uscita delle recensioni ufficiali (se non sbaglio).
Ma ho aspettato oggi per decidere quale scheda video comprare, dato che da un mesetto sono costretto a giocare a 800x600 dato che la mia scheda non riesce a salire a risoluzioni superiori decentemente.
Ergo ho fretta, ma non di spendere tanti soldi a caso.
Fino all "altroieri" ero orientato su una GTS da 640 mega (tanto per farvi capire la spesa e le caratteristiche alle quali ero orientato)....poi ho visto che era imminente questa ATI.
Da quello che ho in parte capito, la scheda non è superiore alla GTX, ma nemmeno inferiore alla GTS, rimanendo ad essa competitiva sul prezzo.
Quindi, considerando un possibile ma non certo aumento di prestazione coi driver più o meno futuri, dite che sia ancora questa la scheda giusta per me?
halduemilauno
14-05-2007, 11:32
So che forse è prematuro chiederlo, dato che teoricamente al momento in cui sto scrivendo mancherebbero 2 ore e mezza all'uscita delle recensioni ufficiali (se non sbaglio).
Ma ho aspettato oggi per decidere quale scheda video comprare, dato che da un mesetto sono costretto a giocare a 800x600 dato che la mia scheda non riesce a salire a risoluzioni superiori decentemente.
Ergo ho fretta, ma non di spendere tanti soldi a caso.
Fino all "altroieri" ero orientato su una GTS da 640 mega (tanto per farvi capire la spesa e le caratteristiche alle quali ero orientato)....poi ho visto che era imminente questa ATI.
Da quello che ho in parte capito, la scheda non è superiore alla GTX, ma nemmeno inferiore alla GTS, rimanendo ad essa competitiva sul prezzo.
Quindi, considerando un possibile ma non certo aumento di prestazione coi driver più o meno futuri, dite che sia ancora questa la scheda giusta per me?
sbagli.
http://www.hwupgrade.it/forum/showthread.php?t=1472039
;)
Superpelo
14-05-2007, 11:34
So che forse è prematuro chiederlo, dato che teoricamente al momento in cui sto scrivendo mancherebbero 2 ore e mezza all'uscita delle recensioni ufficiali (se non sbaglio).
Ma ho aspettato oggi per decidere quale scheda video comprare, dato che da un mesetto sono costretto a giocare a 800x600 dato che la mia scheda non riesce a salire a risoluzioni superiori decentemente.
Ergo ho fretta, ma non di spendere tanti soldi a caso.
Fino all "altroieri" ero orientato su una GTS da 640 mega (tanto per farvi capire la spesa e le caratteristiche alle quali ero orientato)....poi ho visto che era imminente questa ATI.
Da quello che ho in parte capito, la scheda non è superiore alla GTX, ma nemmeno inferiore alla GTS, rimanendo ad essa competitiva sul prezzo.
Quindi, considerando un possibile ma non certo aumento di prestazione coi driver più o meno futuri, dite che sia ancora questa la scheda giusta per me?
prendi una gts 320
Scusate l'ignoranza ma vorrei sottolineare una cosa:
Il bentch di CoJ, unico con DX10, sebbene un po' di parte, sarebbe dovuto apparire come primo in tutte le classifiche; invece è sempre l'ultimo
sono tornato :D allora su questo sono d'accordo,nelle recensioni stanno dando + importanza al "vecchio" sicuramente per l'inefficienza e la scarsa ottimizzazione di quel test(oltre ai drivers)...però non stanno sottolineando dall'inizio quali sono le caratterische fondamentali di questo prodotto.così facendo sembra quasi che la lotta avvenga su un solo fronte.almeno chiarire subito che in mancanza di test validi in dx10 la recensione deve prendere una certa piega.
ed in nessun articolo è presente un confronto diretto con la scheda 8800ULTRA.
la 2900 uscita oggi non è la diretta concorrente della 8800 ultra,soprattutto in termini di prezzo,ora quello della versione Ultra lo definisco scandaloso ;) ed è un vero aggettivo questa volta,se la Ultra si offende ha il diritto di replica :D
Io invece credo che la scheda abbia enormi potenzialità..certo,non sono affatto un esperto in questo campo ma credo che ottimizzandola un pò potrebbe diventare devastante..questo lo penso xè non dovrebbe essere proprio possibile che vada di meno di una x1950xtx eppure...e quindi sarebbe veramente deludente(so che mi sto contraddicendo :mc: )ma come ho detto prima penso/spero che rinascerà dalle sue ceneri...e cmq la consiglierei fra qualche settimana, forse, non certo ora :D
Nemesis83
14-05-2007, 11:43
sbagli.
http://www.hwupgrade.it/forum/showthread.php?t=1472039
;)
:D
Evidentemente ho un concetto abbastanza diverso di "recensione" :p
Mamma mia che casino ho in testa! Tra l'altro, come ovvia aggiunta al casino, con i 158.24 la mia schedozza sembra si sia pure sistemata....
Immagino che chi ha progettato un chip come r600 abbia le cognizioni che gli permettono di stabilire il perchè ed il per come una scheda performi più di un'altra...
Inoltre, so che xenos è un'architettura completamente differente, ma possibile che quell'esperienza non gli sia valsa il minimo vantaggio in termini di ottimizzazione sugli shader unificati?
Ragazzi stiamo parlando di ingegneria ad un livello tale che le simulazioni fatte da chi (centinaia di persone) progetta un'hardware sono tali che sicuramente AMD aveva gia' chiara la situazione a meta' 2006; il problema probabilmente ipotizzo sia stato una """"semplice""""" equazione data dal TEMPO rimasto per OTTIMIZZARE un progetto ormai nato e cresciuto (tanto quanto complesso) e CONCORRENZA spietata con ottime armi. Sapere dove "si e' sbagliato" non significa sempre poter rimediare soprattutto quando si e' in ritardo ormai mostruoso. Un po' come se Nvidia avesse voluto fare una cosa simile su NV30. Il progetto e' quello, punto. Saranno i giochi futuri a mostrare se la tendenza e' quella migliorativa o altro.
740 e quanti mhz di gpu?
quando ho messo nel cassetto l'adorabile x1900xt per tornare nvidioso, le mi orecchie hanno gioito, i miei occhi anche:eek:, il portafoglio ha pianto:cry: ma l'alimentatore ha tirato un sospiro di sollievo ed è tornato in forma smagliante:D :asd: :rotfl:
Comunque imho il primo bench serio e ottimizzato che mostrera' davvero i punti (anche sintetici) relativi a queste schede sara' purtroppo il next 3DMark che potrebbe essere molto vicino ormai.
Gli sviluppatori se la prendono giustamente comoda.. non ci guadagnerebbero nulla ad avere giochi Dx10 adesso sul mercato.
Comunque imho il primo bench serio e ottimizzato che mostrera' davvero i punti (anche sintetici) relativi a queste schede sara' purtroppo il next 3DMark che potrebbe essere molto vicino ormai.
Gli sviluppatori se la prendono giustamente comoda.. non ci guadagnerebbero nulla ad avere giochi Dx10 adesso sul mercato.
sono assolutamente d'accordo,purtroppo raga parliamoci chiaro,la scheda è uscita oggi 14 maggio 2007 e il mondo non può far finta di niente solo perkè non c'è il nuovo 3dmark o altri test ottimizzati e maturi...le recensioni devono pur scriverle :rotfl:
http://ati.amd.com/products/Radeonhd/demos/radeonhd-dx9_vs_dx10.html
dico la mia solo sul lato driver: anche se dovesse uscire una versione portentosa, che incrementasse le prestazioni sensibilmente, imho rappresenterebbe cmq una mezza sconfitta.
il giorno della presentazione era oggi, il massimo dell'attenzione era oggi, le recensioni uscivano oggi. farsi trovare impreparati oggi non ha scusanti.
che si voglia confrontare con la GTS o la GTX, che si parli di games DX9.0 o 10.0.
*
Tu non ti rendi conto: :D
bench in dx10 di Call of Juarez:
http://www.hwupgrade.it/forum/showpost.php?p=17112061&postcount=144
E i prossimi giochi in DX10 credi siano inferiori?
magic carpet
14-05-2007, 12:07
Attendiamo i primi giochi dx10 per giudicare realmente questa scheda, anche se è fuor di dubbio che attualmente molti di noi giocano ancora a tantissimi giochi dx9, dove il vantaggio sulle attuali soluzioni X1950XT è minimo.
speriamo che si diano una mossa veloce per sfornare la prossima generazione, perche non vorrei proprio che nvidia si guadagni il monopolio sul mercato!:doh:
che scheda di merda :asd:
l'unica cosa che mi viene in mente :D
Skullcrusher
14-05-2007, 12:12
speriamo che si diano una mossa veloce per sfornare la prossima generazione, perche non vorrei proprio che nvidia si guadagni il monopolio sul mercato!:doh:
Già....niente scheda potente, niente concorrenza....niente concorrenza, niente innovazione e prezzi bassi....:muro:
che scheda di merda :asd:
l'unica cosa che mi viene in mente :D
Poteva rimanerti in mente, anche per evitare possibili flames, grazie.
Alexkidd85
14-05-2007, 12:17
Eccomi puntuale nel 3d Nvidia....ah no è ati...mi ero confuso dalla gente che c'è :rotfl:
Comunque deluso da quanto avevamo detto noi,in relazione al tempo,questo si...ma driver ottimizzati e prezzo alla fine possiamo dire che la gts la supera in molti campi(anche nel consumo :p )
In attesa di una xtx.
Io aspetto ancora un analisi "overclock"
A proposito il super overclock!? L'articolo!? E' nato!? :D
ma qualcuno l'ha acquistata :confused:
Athlon 64 3000+
14-05-2007, 12:21
Mi dispiace dirlo ma questa HD 2900XT è una delusione totale e per di più indifendibile e poi in alcuni benchmark è addirittura più lenta della X1950XTX.
Io avevo intenzione di acquistarla ma dopo queste cose mi è passata la voglia e probabilmente opterò o per una 8800GTS 640 o una 8800GTX(se me la riesco a permettere).
Altra cosa non credo nei driver miracolosi e poi di dico che un eventuale refresh non risolleverà le sorti di questo chip per la revisione a 65 nm farà solo scaldare di meno.
Io visto che le valuto prevalentemente in chiave dx 9 G80 è nettamente superiore.
loperloper
14-05-2007, 12:35
ok dai si può chiudere anche sto thread in attesa di tempi migliori per ati :asd:
ps: continuo ad invitare chi preannunciava belle sorprese con questa scheda di farsi avanti,visto che a noi, probabilmente, deve essere sfuggito qualcosa....
Mi dispiace dirlo ma questa HD 2900XT è una delusione totale e per di più indifendibile e poi in alcuni benchmark è addirittura più lenta della X1950XTX.
Io avevo intenzione di acquistarla ma dopo queste cose mi è passata la voglia e probabilmente opterò o per una 8800GTS 640 o una 8800GTX(se me la riesco a permettere).
Altra cosa non credo nei driver miracolosi e poi di dico che un eventuale refresh non risolleverà le sorti di questo chip per la revisione a 65 nm farà solo scaldare di meno.
Io visto che le valuto prevalentemente in chiave dx 9 G80 è nettamente superiore.
Per quel che mi riguarda comunque per i giochi che ci sono ora mi sa che la X1800XL ancora la tiro avanti per un bel po'.
Le 8800 attualmente sono ottime schede Dx9 in vista delle 10, un po' come quelli che comprano i SUV perche' un domani potresti andare in montagna ...
Saranno i titoloni a dare motivi veri e propri per cambiare scheda, io consiglio vivamente di aspettare un periodo con titoli degni di cambiare scheda video e anche le Radeon 2900 potrebbero effettivamente rivalutarsi con qualche titolo, non diamola gia' per vita in qualsiasi ambito non si sa mai.
Da questa rece sembra essere un'altra scheda...
WR al 3DMark05??? Oh My God!
A vedere questi result forse ci siamo sbagliati ragazzi a definirlo un FLOP completo...
Ragazzi ma in tutte le recensioni che ho letto fin'ora vedo solo e sempre test fatti con driver ATI Catalyst 8.37-4-07419a.Nessuna recensione è stata fatta utilizzando i "miracolosi" 8.38?:mc:
Athlon 64 3000+
14-05-2007, 12:46
Per quel che mi riguarda comunque per i giochi che ci sono ora mi sa che la X1800XL ancora la tiro avanti per un bel po'.
Le 8800 attualmente sono ottime schede Dx9 in vista delle 10, un po' come quelli che comprano i SUV perche' un domani potresti andare in montagna ...
Saranno i titoloni a dare motivi veri e propri per cambiare scheda, io consiglio vivamente di aspettare un periodo con titoli degni di cambiare scheda video e anche le Radeon 2900 potrebbero effettivamente rivalutarsi con qualche titolo, non diamola gia' per vita in qualsiasi ambito non si sa mai.
in questi ultimi mesi ho avuto parecchie incazzature(scusa per il termine) dovuto ai driver per la mia X1900XT prima perchè avevo dei problemi con BF2 e BF2142 e poi perchè il mese scorso mi si è sbudellato il driver e ho dovuto reinstallare il sistema operativo e speravo che la 2900 fosse abbastanza performante e quindi molto più veloce della 8800GTS e invece non si è rivelato tale e quindi questa sto pensando si sostuirla con una 8800GTS o GTX.
halduemilauno
14-05-2007, 12:51
Ragazzi ma in tutte le recensioni che ho letto fin'ora vedo solo e sempre test fatti con driver ATI Catalyst 8.37-4-07419a.Nessuna recensione è stata fatta utilizzando i "miracolosi" 8.38?:mc:
http://www.techpowerup.com/reviews/ATI/HD_2900_XT/5
We tested the Radeon HD 2900 XT with ATI's 8.37 driver which is the official benchmarking driver for all R600 reviews. We tried 8.38 and 8.39 too, but they offer only +1% to - 1% performance difference which is within the margin of error of the benchmarks. The only gains you will see in extreme HD resolutions with highest AA and AF settings.
;)
Eccomi puntuale nel 3d Nvidia....ah no è ati...mi ero confuso dalla gente che c'è :rotfl:
Comunque deluso da quanto avevamo detto noi,in relazione al tempo,questo si...ma driver ottimizzati e prezzo alla fine possiamo dire che la gts la supera in molti campi(anche nel consumo :p )
In attesa di una xtx.
Io aspetto ancora un analisi "overclock"
A proposito il super overclock!? L'articolo!? E' nato!? :D
fiducioso :D
Già....niente scheda potente, niente concorrenza....niente concorrenza, niente innovazione e prezzi bassi....:muro:
solo l'idea mi fa venire i brividi...facendo un giro in rete su altri forum, che non cito, c'è gente che sta esultando come se avesse segnato la squadra del cuore. L'ignoranza è proprio tanta, troppa. Non ci si rende conto che le cose stanno prendendo una brutta piega.
Scheda pessima davvero, non c'è che dire. Fosse almeno silenziosa o consumasse poco...invece è un mezzo disastro. Addirittura per le prestazioni che ha imho andava posizionata a 50€ di meno per farle avere successo.
Sarà il solito commento scontato ma sta maledetta AMD c'ha davvero messo del suo mi sa. Un'azienda (ATI) che non aveva praticamente mai sbagliato un progetto su delle nuove API che fa sta figura non è spiegabile se non tramite le porcate di AMD..
CIaO
armenico11
14-05-2007, 12:56
Dite quello che volete ,ma è la prima volta che esce una ATI che non sbaraglia di brutto la concorrente Nvidia,ma ve le ricordate le ati 9xxx che crakka che diedero alle Nvidia,le x850xt rispetto alle 6800 ultra ,la x1900xtx rispetto alla 7900gtx ecc.
Ati usciva dopo ma andava molto di più con prodotti anche qualitativamente superiori come features ,sta hd 2900 xt fa un po'tristezza
e poi i consumi,un 600 watt bulk ,quindi non di qualità gliela fa con questa scheda?
si ma arrivato a un certo punto chissenefrega del passato, io i miei soldi devo spenderli nel presente e buttarli in questa scheda proprio non esiste
http://www.techpowerup.com/reviews/ATI/HD_2900_XT/5
We tested the Radeon HD 2900 XT with ATI's 8.37 driver which is the official benchmarking driver for all R600 reviews. We tried 8.38 and 8.39 too, but they offer only +1% to - 1% performance difference which is within the margin of error of the benchmarks. The only gains you will see in extreme HD resolutions with highest AA and AF settings.
;)
Allora quel miracoloso +30% eran tutte balle da fanboy? :cry:
solo l'idea mi fa venire i brividi...facendo un giro in rete su altri forum, che non cito, c'è gente che sta esultando come se avesse segnato la squadra del cuore. L'ignoranza è proprio tanta, troppa. Non ci si rende conto che le cose stanno prendendo una brutta piega.
Eh già,purtroppo se non si da una mossa ati almeno con la xtx,nvidia avrà il monopolio del mercato.:(
http://www.theinquirer.net/default.aspx?article=39580
Vi invito a guardare questa recensione che secondo me riassume moooolto la reale situazione in poche parole.
Interessante il fatto che misurando la temperatura con un termometro apposito la GTX scalda di + della 2900xt. :D
La scheda in alcuni giochi con AA va meglio di una GTX mentre senza va paggio, in altri giochi accade il viceversa.
C'è un gioco in cui in tutte le risoluzioni con e senza AA va bene poi alla risoluzione di 2000 e rotti pixel x qualcosa perde fps di brutto.
Overclockandola in maniera umana si possono ottenere delle belle soddisfazioni. Io non sarei così drastico nei giudizi dopo aver letto mooolte recensioni (questa è almeno la decima che leggo per avere un quadro chiaro).
Considerando che la scheda potremo comprarla probabilmente solo a fine maggio aspettare un paio di giorni che escono le demo in dx10 non ci costa nulla. ;)
Imho la scheda non è così male, purtroppo i driver sono acerbi, e quella recensione di theinquirer lo mette in risalto in maniera evidente.
Alexkidd85
14-05-2007, 13:04
fiducioso :D
E si...non poso fare altro... :D
Io insisto nel dire che la gente si deve mettere in cuore in pace e non "criticare" la scheda o quantomeno....si nascondesse la firma quando critica.
Perché da cosa siamo delusi scusate!? Dal fatto che una XT e sottolineo XT non superi una GTX!?
Ma le sigle,il prezzo,non dovrebbero indurre a cercare un raffronto tra 2 VGA di pari livello!?
Il raffronto allora IMHO va fatto con GTS(come GT si raffrontava con XT).
Ripeto...sono deluso anche io...ma deluso dal fatto che non ci sia stato un miracolo e dalle troppe previsione rosee che abbiamo fatto; ma se mettiamo da parte un secondino il celebre "io ce l'ho più lungo" e analiziamo la cosa....non voglio avere pretese di dire per certo la verità....ma secondo me la mia ipotesi non si distacca molto dalla reatà.
Chi mi paragona la 7900 gt alla 1950xtx o 1900xtx!? Allora non vedo perché si debba fare qui.
Deluso si....ma ripeto: Dalle troppe rosee previsioni.
PS
Bel 3d ufficiale con tutte le persone che criticano la scheda nei primi 100 post... :sofico:
Almeno abbassase il prezzo...
Considerando che la scheda potremo comprarla probabilmente solo a fine maggio aspettare un paio di giorni che escono le demo in dx10 non ci costa nulla.
Imho la scheda non è così male, purtroppo i driver sono acerbi, e quella recensione di theinquirer lo mette in risalto in maniera evidente.
è tutto vero, d'altronde il discorso driver e dx10 lo si fa tutt'ora per le 8800 e le nuove 8600. Ma come la mettiamo con i consumi? Questa scheda consuma anche piu della top che c'è sul mercato pur non essendo una scheda per la fascia "enthusiast". Per non parlare della rumorosità, anche se li alla fine basta cambiare il dissi. Consumi del genere sono giustificati per schede che costano 600 e piu euri
Athlon 64 3000+
14-05-2007, 13:05
ho anche guardato la recensione di firingsquad è la situazione è sempre allucinante,in alcuni giochi va uguale alla X1950XTX e peggio persino della 8800GTS.
Mi chiedo come possa andare uguale alla ex top di gamma Ati? :confused:
Sta c**** di scheda mi sembra come un elefante che va a fare una corsa di cavalli
La scheda in alcuni giochi con AA va meglio di una GTX mentre senza va paggio, in altri giochi accade il viceversa.La recensione di HWUp veramente indica il contrario..
C'è un gioco in cui in tutte le risoluzioni con e senza AA va bene poi alla risoluzione di 2000 e rotti pixel x qualcosa perde fps di brutto.
Forse perché è la scheda con meno ram tra le 8800gtx e gts 640? :D
CIaO
armenico11
14-05-2007, 13:06
e poi voglio aggiungere
Nvidia sta davanti con meno frequenza sul chip e un bus a 384 bit.
Per dire Nvidia ,anche domattina se vuole,può iniziare a fare una scheda video con 512 bit di bus e come frequenze una 8800 ultra ad acqua 700Mhz te li piglia
E si...non poso fare altro... :D
Io insisto nel dire che la gente si deve mettere in cuore in pace e non "criticare" la scheda o quantomeno....si nascondesse la firma quando critica.
Perché da cosa siamo delusi scusate!? Dal fatto che una XT e sottolineo XT non superi una GTX!?
Ma le sigle,il prezzo,non dovrebbero indurre a cercare un raffronto tra 2 VGA di pari livello!?
Il raffronto allora IMHO va fatto con GTS(come GT si raffrontava con XT).
Ripeto...sono deluso anche io...ma deluso dal fatto che non ci sia stato un miracolo e dalle troppe previsione rosee che abbiamo fatto; ma se mettiamo da parte un secondino il celebre "io ce l'ho più lungo" e analiziamo la cosa....non voglio avere pretese di dire per certo la verità....ma secondo me la mia ipotesi non si distacca molto dalla reatà.
Chi mi paragona la 7900 gt alla 1950xtx o 1900xtx!? Allora non vedo perché si debba fare qui.
Deluso si....ma ripeto: Dalle troppe rosee previsioni.
PS
Bel 3d ufficiale con tutte le persone che criticano la scheda nei primi 100 post... :sofico:
Inizialmente posso ancora capirlo e' il giorno del lancio.
Comunque concordo che i commenti stanno diventando un po' troppi e troppo personali, per cui vorrei riportare le argomentazioni su benchmark e review please. ;)
Sta c**** di scheda mi sembra come un elefante che va a fare una corsa di cavalli
STOP commenti personali e non tecnici. Torniamo a parlare delle review e dei numeri.
E si...non poso fare altro... :D
Io insisto nel dire che la gente si deve mettere in cuore in pace e non "criticare" la scheda o quantomeno....si nascondesse la firma quando critica.
Perché da cosa siamo delusi scusate!? Dal fatto che una XT e sottolineo XT non superi una GTX!?
Ma le sigle,il prezzo,non dovrebbero indurre a cercare un raffronto tra 2 VGA di pari livello!?
Il raffronto allora IMHO va fatto con GTS(come GT si raffrontava con XT).
Ripeto...sono deluso anche io...ma deluso dal fatto che non ci sia stato un miracolo e dalle troppe previsione rosee che abbiamo fatto; ma se mettiamo da parte un secondino il celebre "io ce l'ho più lungo" e analiziamo la cosa....non voglio avere pretese di dire per certo la verità....ma secondo me la mia ipotesi non si distacca molto dalla reatà.
Chi mi paragona la 7900 gt alla 1950xtx o 1900xtx!? Allora non vedo perché si debba fare qui.
Veramente le x19x0xt vanno a confrontarsi (e a superare) le 7900gtx, non le 7900gt...
..per il resto ti dò pienamente ragione sul fatto che questo sembra tutto tranne che un thread ufficiale.
CIaO
dantes76
14-05-2007, 13:08
be, allora fudzilla..non era tanto falsezilla..alla fine dei conti
Cmq non riesco a comprendere,, come mai Amd/ati, sia arrivata al punto di presentare un flop, perche questo e',
questa la prima volta a memoria, che alla presentazione di una nuova Vga, non viene presentate la vga di punta, ma una vga, che astento compete, con la classe media avversaria..
[KS]Zanna
14-05-2007, 13:09
Sarà il solito commento scontato ma sta maledetta AMD c'ha davvero messo del suo mi sa. Un'azienda (ATI) che non aveva praticamente mai sbagliato un progetto su delle nuove API che fa sta figura non è spiegabile se non tramite le porcate di AMD..
Sì, direi che è proprio il solito commento scontato, anche perchè quando è subentrata AMD il progetto della 2900 era già praticamente finito...
In ogni caso le prestazioni sono veramente deludenti: in particolar modo mi ricordo che fino a non molto tempo fa si parlava che con quell'hardware a disposizione praticamente la scheda si sarebbe potuta permettere l'AntiAliasing gratis, mentre adesso salta fuori che è proprio l'AA a metterla in crisi per mancanza di hardware dedicato all'interno del chip.
Male, molto male, soprattutto per una casa che del filtraggio ha sempre fattola sua arma vincente (storicamente le nVidia si sono sempre dimostrate + veloci nei test senza AF e AA in particolare).
E anche in ottica di sguardo al futuro, visti i test sul Call of Juarez in path Dx10, direi che non siamo messi particolarmente bene.
Cmq è prematuro parlare adesso di come andrà la scheda con le applicazioni prossime venutre: limitiamoci a tirarele somme x quello che mostra adesso con gli applicativi disponibili sul mercato attualmente... anche perchè immagino che per quando uscirà la vera next gen nVidia se ne uscirà con un prodotto nuovo sicuramente rivoluzionario, visto il tempo che hanno vauto e che hanno ancora.
Ma il test con Lost Planet e le DX 10 è stato gia fatto?
Athlon 64 3000+
14-05-2007, 13:10
Inizialmente posso ancora capirlo e' il giorno del lancio.
Comunque concordo che i commenti stanno diventando un po' troppi e troppo personali, per cui vorrei riportare le argomentazioni su benchmark e review please. ;)
A parte l'incavoltura che ha portato i miei commenti precedenti andando ad analizzare le prestazioni della scheda vado a vedere che in HL2 Ep 1 è persino più veloce della 8800GTX e in molti benchmark va come la X1950XTX.
Sarù un flop ma è davvero stranissimo il fatto che praticamente vada come la mia X1900XT.
Zanna;17115146']Sì, direi che è proprio il solito commento scontato, anche perchè quando è subentrata AMD il progetto della 2900 era già praticamente finito...
..Allora spiegaci come mai ci sono stati tutti questi ritardi e continui rinvii. La mia frase era messa volutamente così ma non ci vuole un genio a trarre dirette conclusioni dai fatti. La ATI veniva da una serie di VGA all'esordio con nuove Dx di grande successo e da un'architettura particolarmente innovativa ed efficiente (R580)...detto e preso per assodato questo o hanno fatto progettare il nuovo chip ai figli degli ingegneri oppure l'acquisizione da parte di AMD ha davvero scombinato il lavoro dei progettisti ATI.
CIaO
be, allora fudzilla..non era tanto falsezilla..alla fine dei conti
a furia di sparare alla fine ci si azzecca....l'attendibilta del sito, da parte mia, rimane cmq poca o nulla :)
Ma il test con Lost Planet e le DX 10 è stato gia fatto?
mi sembra sia disponibile da domani.
Qualcuno del forum l'ha già ordinata? necessitiamo di una cavia :D
Alexkidd85
14-05-2007, 13:14
Veramente le x19x0xt vanno a confrontarsi (e a superare) le 7900gtx, non le 7900gt...
..per il resto ti dò pienamente ragione sul fatto che questo sembra tutto tranne che un thread ufficiale.
CIaO
Aspé...le sigle vanno di pari passo
7900gt - 1900xt
7900gtx - 1900xtx
7950gt - 1950xt
7950gtx - 1950xtx (che poi qua il raffronto è relativo con una "sli" vs "sc")
O sbaglio!?:confused:
Qua stiamo facendo
8800gtx vs 2900xt
e la
8800gts (GT IMHO)!? vs 2600xt
halduemilauno
14-05-2007, 13:14
E si...non poso fare altro... :D
Io insisto nel dire che la gente si deve mettere in cuore in pace e non "criticare" la scheda o quantomeno....si nascondesse la firma quando critica.
Perché da cosa siamo delusi scusate!? Dal fatto che una XT e sottolineo XT non superi una GTX!?
Ma le sigle,il prezzo,non dovrebbero indurre a cercare un raffronto tra 2 VGA di pari livello!?
Il raffronto allora IMHO va fatto con GTS(come GT si raffrontava con XT).
Ripeto...sono deluso anche io...ma deluso dal fatto che non ci sia stato un miracolo e dalle troppe previsione rosee che abbiamo fatto; ma se mettiamo da parte un secondino il celebre "io ce l'ho più lungo" e analiziamo la cosa....non voglio avere pretese di dire per certo la verità....ma secondo me la mia ipotesi non si distacca molto dalla reatà.
Chi mi paragona la 7900 gt alla 1950xtx o 1900xtx!? Allora non vedo perché si debba fare qui.
Deluso si....ma ripeto: Dalle troppe rosee previsioni.
PS
Bel 3d ufficiale con tutte le persone che criticano la scheda nei primi 100 post... :sofico:
ma è anche una questione dello stato dell'arte. ovvero quello di ati corrisponde alla numero tre di nvidia presentata oltre sei mesi fa. se ti pare poco.
;)
peppecbr
14-05-2007, 13:15
m'iscrivo :cry: ho avuto sempre ati , tranne la (7950gt) che ho da dicembre giusto per la curiosità di provare una nvidia :D
leggo che su molti forum imputano la colpa ai driver :rolleyes:
esatto, il vero collo di bottiglia sono i drivers, come ho scritto nelle conclusioni non si puo pensare di presentare i drivers nuovi 36 ore prima della scadenza dell'embargo dopo un'attesa di 6 mesi.
voi dite che è una scusa plausibile? :confused:
ma in 6 mesi di ritardo non sono neanche riusciti ad ottimizzare sti driver?
Vebbè, modifico solo perchè nel titolo è stato inserito No Spam...
Alexkidd85
14-05-2007, 13:17
A parte l'incavoltura che ha portato i miei commenti precedenti andando ad analizzare le prestazioni della scheda vado a vedere che in HL2 Ep 1 è persino più veloce della 8800GTX e in molti benchmark va come la X1950XTX.
Sarù un flop ma è davvero stranissimo il fatto che praticamente vada come la mia X1900XT.
Potrebbero (ipotizzo) delineare un'immaturità dei driver!? (Come anche scritto da Corsini)
Secondo me si...
m'iscrivo :cry: ho avuto sempre ati , tranne la (7950gt) che ho da dicembre giusto per la curiosità di provare una nvidia :D
leggo che su molti forum imputano la colpa ai driver :rolleyes:
esatto, il vero collo di bottiglia sono i drivers, come ho scritto nelle conclusioni non si puo pensare di presentare i drivers nuovi 36 ore prima della scadenza dell'embargo dopo un'attesa di 6 mesi.
voi dite che è una scusa plausibile? :confused:
ma in 6 mesi di ritardo non sono neanche riusciti ad ottimizzare sti driver?
penso che dei driver nuovi potranno dare un incremento, cosi' come e' accaduto per G80, tuttavia direi che non sono in grado di stravolgere la situazione, questa scheda si confronta al max con la GTS 640, questa è la sua collocazione.
Athlon 64 3000+
14-05-2007, 13:18
Se vi fermate un'attimo a pensare la cosa assurda è che la prestazioni in molti benchmark ma come una X1950XTX è la cosa la ritengo assurda.
[KS]Zanna
14-05-2007, 13:22
..Allora spiegaci come mai ci sono stati tutti questi ritardi e continui rinvii. La mia frase era messa volutamente così ma non ci vuole un genio a trarre dirette conclusioni dai fatti. La ATI veniva da una serie di VGA all'esordio con nuove Dx di grande successo e da un'architettura particolarmente innovativa ed efficiente (R580)...detto e preso per assodato questo o hanno fatto progettare il nuovo chip ai figli degli ingegneri oppure l'acquisizione da parte di AMD ha davvero scombinato il lavoro dei progettisti ATI.
CIaO
Il ritardo nella presentazione è probabilmente da imputare all'acquisizione (e al fatto che essendosi resi conto delle potenzialità di nVidia hanno cercato probabilemnte di ottimizzare il progetto originale) ma non sicuramente le errate scelte progettuali (ovviamente precedenti all'acquisizione) che hanno fatto della 2900 una scheda forse troppo sbilanciata come architettura, al punto da stravolgere quanto di buono fatto con la 1900.
mi sembra sia disponibile da domani.
Qualcuno del forum l'ha già ordinata? necessitiamo di una cavia :D
A questo punto mi pare di capire che l unica cosa da fare è comprarsi una 8800 GTS 640 visto che vado a 1440 x 900
halduemilauno
14-05-2007, 13:29
A questo punto mi pare di capire che l unica cosa da fare è comprarsi una 8800 GTS 640 visto che vado a 1440 x 900
ma anche 320. risparmi 100€.
;)
ma anche 320. risparmi 100€.
;)
io andrei piu' sui 640, ho visto che i miei 512 vengono bene con gli ultimi giochi anche a 1440*900, e' un acquisto piu' longevo.
;)
loperloper
14-05-2007, 13:32
ma qualcuno ha letto recensioni di questa scheda che girava in un sistema amd quad?No siccome la maggiorparte delle recensioni che ho visto si basano minumo su un x6800 per arrivare ad un qx6800, non vorrei che alla fine l´anello mancante a tutto questo sia la piattaforma di test(perchè ci deve essere per forza qualcosa)...
comunque che andasse ad affiancarsi alla gts già si sapeva quindi non mi stupirei di performance al di sotto della gtx, la pecca maggiore è probabilmente il prezzo, se questo fosse stato più basso penso che anche i commenti sulla scheda fatti fin qui sarebbero stati diversi....
continuo a non capire anche perchè c'è gente che si lamenta del fatto che ati abbia presentato la sua "scheda di punta" affiancata alla gts,quando si sa benissimo che la vera scheda di punta ati sarà la xtx(con tutto quello che potrebbe essere)....
e poi diamogli un po di tempo giusto per "ambientarsi" e vedere che farà ati per risolvere questa situazione(io continuo fermamente a pensare che si tratta di driver poi sarò libero di sbagliarmi...)...sono schede nate per le dx10 e in ogni caso è difficile testarle a fondo allo stato attuale(sono curioso di sapere come gira crysis su questa...)....
io direi ke in questo caso la xt va paragonata alla gtx, e la xtx alla ultra.
halduemilauno
14-05-2007, 13:35
io andrei piu' sui 640, ho visto che i miei 512 vengono bene con gli ultimi giochi anche a 1440*900, e' un acquisto piu' longevo.
;)
certamente sotto l'aspetto longevità non si discute. a maggior ragione per chi come te ne ha gia 512. però da tener presente che in tutti i casi grazie ai 320 bit la banda è gia alta quindi tra 320 a 320 e 512 a 256...sono 42 vs 64 giga.
;)
ma qualcuno ha letto recensioni di questa scheda che girava in un sistema amd quad?No siccome la maggiorparte delle recensioni che ho visto si basano minumo su un x6800 per arrivare ad un qx6800, non vorrei che alla fine l´anello mancante a tutto questo sia la piattaforma di test(perchè ci deve essere per forza qualcosa)...
comunque che andasse ad affiancarsi alla gts già si sapeva quindi non mi stupirei di performance al di sotto della gtx, la pecca maggiore è probabilmente il prezzo, se questo fosse stato più basso penso che anche i commenti sulla scheda fatti fin qui sarebbero stati diversi....
continuo a non capire anche perchè c'è gente che si lamenta del fatto che ati abbia presentato la sua "scheda di punta" affiancata alla gts,quando si sa benissimo che la vera scheda di punta ati sarà la xtx(con tutto quello che potrebbe essere)....
e poi diamogli un po di tempo giusto per "ambientarsi" e vedere che farà ati per risolvere questa situazione(io continuo fermamente a pensare che si tratta di driver poi sarò libero di sbagliarmi...)...sono schede nate per le dx10 e in ogni caso è difficile testarle a fondo allo stato attuale(sono curioso di sapere come gira crysis su questa...)....
a mio avviso gli utenti, me compreso, si aspettavano una scheda che fosse a livello o adirittura sopra la GTX, per una questione di immagine e di lotta al vertice. Le tue osservazioni hanno un senso, pero' credo che verranno metabolizzate tra un po', oggi e' il giorno del confronto tra le top e nvidia e' nettamente in vantaggio, poi nei prossimi giorni, assorbito il colpo, si potranno dare valutazioni piu' articolate.
STOP commenti personali e non tecnici. Torniamo a parlare delle review e dei numeri.
Guarda che il mio è un commento tecnico, infatti l dimensione del bus, numero di transistor, consumi sono spropositati rispetto alla concorrenza.
Il bus a 512 bit in particolare e quindi l'elevata banda passante sono risultati inutili e anzi la scheda cede attivando l'AA.
Ma poi sto aa 8X, 16X, 24X, 1000X a che caspita serve (a certe risoluzioni poi).
Alexkidd85
14-05-2007, 13:39
io direi ke in questo caso la xt va paragonata alla gtx, e la xtx alla ultra.
Corsini lo fa notare sull'articolo che la ULTRA è paragonabile alla MITICA PE(Platinum Edition) della ATI.
Non stiamo a parlare di ultra perché rientra a mio modo di vedere in una rivisitazione delle frequenze e bus per (ripeto,come dice anche corsini) consolidare la leadership.
Su su...è palese...la xtx andrà a sfidare la GTX.
Che poi sulla tempistica la ATI non stia dando il meglio di se...son d'accordo ma vediamo se driver alla mano e prezzo consolidato(ancora i maggiori rivenditori non hanno detto la loro sul prezzo) possa dare punticini alla ati :)
A questo punto mi pare di capire che l unica cosa da fare è comprarsi una 8800 GTS 640 visto che vado a 1440 x 900
credo sia la cosa giusta da fare al momento pensando anche un minimo al futuro (e a un bel monitor :D ). La 320 in certi test è proprio tagliata fuori
dantes76
14-05-2007, 13:41
la xt sta nello stesso segmento della Gts, parola di Ati[vista la slide]
http://resources.vr-zone.com.sg/Shamino/r600launch/32.jpg
Alexkidd85
14-05-2007, 13:42
Sta c**** di scheda mi sembra come un elefante che va a fare una corsa di cavalli
Non è per prendere le difese di Simon che si defende nettamente bene da solo ma qua di "tecnico" c'è ben poco :p
A meno che il cavallo e l'elefante siano tecnici...io a Catania ho l'elefante a piazza d'uomo...posso considerarlo tecnico!? :sofico:
Torniamo a parlare di bench,recensioni e raffronti... ;)
scusate, io ho già detto la mia dicendo che effettivamente è un flop, o almeno cosi per ora sembra, ma dove sono finiti quegli utenti che la davano per miracolosa e che dicevano di non dare retta a quei "falsi" bench che poi si erano rivelati veri? spariti? ma ce l'avevano davvero sta scheda, o sparavano cosi?
fantastica sta scheda ... come sostenevo prima del uscita in risposta ai fanboys ati che nel thread del 8800 esaltavano queste stupende prestazioni della 2900 parlando di un 30% in più di prestazioni .... (magari era in meno) NESSUNO REGALA NIENTE SE COSTA MENO VA DI MENO
certo che per chi è fissato con ati questo non sarà vero e si attacchertanno ai driver schifosi... oppure sogneranno un ptrodotto futuro sfidante del 8800 gtx come l'xtx ... ma l'unica certezza è il presente
Possibile che (giustamente o no) ati non abbia investito nell'ottimizzazione delle dx9?
Curiosità rispetto alla mia x1950pro è molto superiore?
Alexkidd85
14-05-2007, 13:46
scusate, io ho già detto la mia dicendo che effettivamente è un flop, o almeno cosi per ora sembra, ma dove sono finiti quegli utenti che la davano per miracolosa e che dicevano di non dare retta a quei "falsi" bench che poi si erano rivelati veri? spariti? ma ce l'avevano davvero sta scheda, o sparavano cosi?
Attenzione....io di quella gente di cui tu parli,ho sentito solo una ragazzo che ora posso dire(tanto sono tanti e non si sa chi è) che mi disse "quanto la gts,in overclock supera la gtx"...
Ancora si deve vedere st'overclock(si vedrà ad ore)...quindi non condanno almeno lui.
Per gli altri,se vengono spiegheranno...inutile alimentare flames IMHO.
loperloper
14-05-2007, 13:46
a mio avviso gli utenti, me compreso, si aspettavano una scheda che fosse a livello o adirittura sopra la GTX, per una questione di immagine e di lotta al vertice. Le tue osservazioni hanno un senso, pero' credo che verranno metabolizzate tra un po', oggi e' il giorno del confronto tra le top e nvidia e' nettamente in vantaggio, poi nei prossimi giorni, assorbito il colpo, si potranno dare valutazioni piu' articolate.
anchio mi aspettavo una scheda alla pari della gtx almeno(idee rafforzate da gente che diceva di sapere e di aspettarsi sorprese....) ma del resto è stata la stessa ati ad affermare che si sarebbe posizionata alla pari della gts e quindi oggi la mia "preoccupazione" era più che altro rivolta al suo gap con la gtx che non alle sue reali prestazioni(e rimane sempre l'ostacolo del costo, un po altino a mio avviso per quella fascia li)
Athlon 64 3000+
14-05-2007, 13:47
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index16.php
Guardate a questa pagina c'è un benchmark su Test Drive Unlimited è la Radeon HD 2900XT demolisce persino la 8800GTX.
Risultati assurdi.
Il test potrebbe essere anche un fake clamoroso.
scusate, io ho già detto la mia dicendo che effettivamente è un flop, o almeno cosi per ora sembra, ma dove sono finiti quegli utenti che la davano per miracolosa e che dicevano di non dare retta a quei "falsi" bench che poi si erano rivelati veri? spariti? ma ce l'avevano davvero sta scheda, o sparavano cosi?
sparavano, tanto per illudere la gente, addirittura parlando di compatibilità dx 10.1 e altre castronerie del genere crendo tonnellate di post inutili.
Athlon 64 3000+
14-05-2007, 13:47
edit
scusate, io ho già detto la mia dicendo che effettivamente è un flop, o almeno cosi per ora sembra, ma dove sono finiti quegli utenti che la davano per miracolosa e che dicevano di non dare retta a quei "falsi" bench che poi si erano rivelati veri? spariti? ma ce l'avevano davvero sta scheda, o sparavano cosi?
sono sotto le coperte a piangere perchè le schede non le avevano e sognavano ad occhi aperti numerini......
Alexkidd85
14-05-2007, 13:49
Possibile che (giustamente o no) ati non abbia investito nell'ottimizzazione delle dx9?
Curiosità rispetto alla mia x1950pro è molto superiore?
Possibile anche no...è una scheda dx 10 all'imminente uscita di giochi dx10. Prestazioni "buone" in dx9 e ottime (che il miracolo possa essere li!?) in dx10,IMHO non è uno scenario da escludere
Ovvio che sia molto superiore,mi sento di affermarlo anche in prospettiva "driver ottimizzati" che IMHO aggiusteranno quegli obrobri di prestazioni inferiori alla serie x1xxx
Possibile che (giustamente o no) ati non abbia investito nell'ottimizzazione delle dx9?
Curiosità rispetto alla mia x1950pro è molto superiore?
non ha investito ne in dx9 ne in dx 10 visto che comunque anche in dx 10 nvidia è superiore
Possibile anche no...è una scheda dx 10 all'imminente uscita di giochi dx10. Prestazioni "buone" in dx9 e ottime (che il miracolo possa essere li!?) in dx10,IMHO non è uno scenario da escludere
Ovvio che sia molto superiore,mi sento di affermarlo anche in prospettiva "driver ottimizzati" che IMHO aggiusteranno quegli obrobri di prestazioni inferiori alla serie x1xxx
continuate a sperare nel miracolo nascosto
Vedendo quel test su test drive sarei curioso di vedere come si comporta con las vegas (se x PC non lo hanno ttimizzato x le open GL) , e poi l'imminente lost planet....:rolleyes:
Alexkidd85
14-05-2007, 13:52
sono sotto le coperte a piangere perchè le schede non le avevano e sognavano ad occhi aperti numerini......
Ripeto,certi commenti sono IMHO inutile e alimentano solo polemiche. Se si continua così sto 3d avrà 100 pagine in 2 giorni e non credo che i mod siano contenti.
"Stiamo" sembrando bimbi alle prese con giocattoli...torniamo a fare i seri o quantomeno non alimentiamo polemiche?
http://www.3dcenter.org/artikel/radeon_hd_2900_xt/index16.php
Guardate a questa pagina c'è un benchmark su Test Drive Unlimited è la Radeon HD 2900XT demolisce persino la 8800GTX.
Risultati assurdi.
Il test potrebbe essere anche un fake clamoroso.
può essere un gioco che non è ben supportato da nvidia ce ne sono ma se va di meno in tutti gli altri test .... vuol dire che è inferiore
Alexkidd85
14-05-2007, 13:54
continuate a sperare nel miracolo nascosto
Qui ho solo risposto ad un amico che aveva chiesto un parere. Ti ripeto,stai solo facendo la figura del bimbo.
loperloper
14-05-2007, 13:54
non ha investito ne in dx9 ne in dx 10 visto che comunque anche in dx 10 nvidia è superiore
superiore sulla base di cosa(non dirmi sulla demo di CoJ perchè sappiamo tutti che non è valutabile come attendbile)?la superiorità in dx10 di una o dell'altra si vedrà ,imho, solo l'anno prossimo
Possibile che (giustamente o no) ati non abbia investito nell'ottimizzazione delle dx9?
Curiosità rispetto alla mia x1950pro è molto superiore?
be, superiore si, di quanto non si sa, ma a questo punto effettivamente è meglio una 8800gts 640mb, almeno per ora!:rolleyes:
per 399€ come scheda mi và benone, peccato il consumo e il rumore :O
dieshrink a 65nm in arrivo ;)
imho era flop se costava 499€, non 399€ con possibili ribassi a 350 ;)
non ha investito ne in dx9 ne in dx 10 visto che comunque anche in dx 10 nvidia è superiore
ti basi solo su quella patch di coj (solo su quella ti puoi basare) che è stata definita acerba e incapace di dare risultati perfettamente attendibili, pur essendo cmq una base di partenza. Tra l'altro se quel test desse risultati veri, chi ha una 8800 puo gia mettersi a piangere visti gli fps ridicoli (e non si parla manco di un gioco full dx10 ma solo con qualche effetto aggiunto), quindi è un test a cui non bisogna dare assolutamente peso.
per 399€ come scheda mi và benone, peccato il consumo e il rumore :O
dieshrink a 65nm in arrivo ;)
imho era flop se costava 499€, non 399€ con possibili ribassi a 350 ;)
ho capito, ma una gts costa meno, cioé, dove è il vantaggio di questa 2900?
ti basi solo su quella patch di coj (solo su quella ti puoi basare) che è stata definita acerba e incapace di dare risultati perfettamente attendibili, pur essendo cmq una base di partenza. Tra l'altro se quel test desse risultati veri, chi ha una 8800 puo gia mettersi a piangere visti gli fps ridicoli (e non si parla manco di un gioco full dx10 ma solo con qualche effetto aggiunto), quindi è un test a cui non bisogna dare assolutamente peso.
be, però bisogna ricordare che anche le 9700-9800 soffrivano pesantemente con giochi dx9 anche se non completi, come una Geforce3 piangeva con giochi dx8, è normale che le prime schede di una nuova generazione, anche se supportano quelle features, non sempre sono in grado di gestirle al meglio!
cmq personalmente mi riguarda poco, visto che ho già deciso che aspetterò la seconda generazione dx10 (non gli aggiornamenti di r600 e g80, ma proprio le nuove schede), in modo da potermi godere appieno (spero) i giochi dx10
webbuffa
14-05-2007, 14:03
:( Peccato... a sto punto credo sia sempre meno convincente questa scheda. Non credo con driver ottimizzati ecc. possa consumare e scaldarsi meno... Quindi per ora NVIDIA Ownz :)
Evangelion01
14-05-2007, 14:04
ho capito, ma una gts costa meno, cioé, dove è il vantaggio di questa 2900?
Esattamente. La 8800gts da 640mb si trova a circa 350€, quindi a 50€ meno della Ati. E' più silenziosa, consuma meno e va come la 2900.....quindi dove sarebbe il vantaggio? imho invecie sta scheda ha un pessimo rapporto prezzo-prestazioni complessive. Peccato che hwupgrade non abbia inserito il moneybench nella rece.
be, però bisogna ricordare che anche le 9700-9800 soffrivano pesantemente con giochi dx9 anche se non completi, come una Geforce3 piangeva con giochi dx8, è normale che le prime schede di una nuova generazione, anche se supportano quelle features, non sempre sono in grado di gestirle al meglio!
cmq personalmente mi riguarda poco, visto che ho già deciso che aspetterò la seconda generazione dx10 (non gli aggiornamenti di r600 e g80, ma proprio le nuove schede), in modo da potermi godere appieno (spero) i giochi dx10
un motivo in piu per aspettare applicazioni nuove invece di sparare subito le sentenze basandosi su un simil-banch. é quello che intendevo io
Athlon 64 3000+
14-05-2007, 14:08
Non voglio difendere R600 ma guardate questo benchmark(potrebbe essere sempre sballatissimo):
http://www.driverheaven.net/reviews/r600reviewz/oblivion.php
Esattamente. La 8800gts da 640mb si trova a circa 350€, quindi a 50€ meno della Ati. E' più silenziosa, consuma meno e va come la 2900.....quindi dove sarebbe il vantaggio? imho invecie sta scheda ha un pessimo rapporto prezzo-prestazioni complessive. Peccato che hwupgrade non abbia inserito il moneybench nella rece.
dove a 350? il trovaprezzi mi pare intasato :stordita:
dalla rece di HWU
il prezzo ufficiale proposto da AMD è di 399,00€ IVA compresa nel canale retail, con possibili diminuzioni da parte di alcuni partner. Si tratta di cifre mediamente inferiori a quelle delle soluzioni GeForce 8800 GTS 640 Mbytes anche se non sussistono differenze estremamente elevate al momento;
quindi non vi seguo :stordita:
Alexkidd85
14-05-2007, 14:10
Vorrei evidenziare un aspetto giusto:
Fino ad ora non sto riscontrando,cercando in rete,overclock a bomba e il gap che si accorcia in overclock con schede superiori alla 2900xt,si ristabilisce overcloccando a loro volta le 2 VGA top di NVIDIA(gtx e ultra)e la GTS...ma una considerazione vorrei riportare:
L'overclock nella scheda ati come si fa!? Mettendo il cavo 8 pin che sarà in bundle su quante schede!?Che disponibilità avrà!?
In questo la GTS ha il suo vantaggio,lo posso dire...ora come ora.
Athlon 64 3000+
14-05-2007, 14:12
http://www.driverheaven.net/reviews/r600reviewz/r6vegas.php
dove a 350? il trovaprezzi mi pare intasato :stordita:
dalla rece di HWU
quindi non vi seguo :stordita:
effettivamente il trovaprezzi non si apre, ma anche su Ebay i prezzi son quelli (chiaramente da parte dei rivenditori intendo!):O poi ripeto, io sinceramente aspetterei altri 2-3 mesi prima di acquistare, sempre se dovessi fare ora un acquisto e non trarrei subito la conclusione che fa schifo, cioé, a vederla ora si, fa pena, aspettiamo e vediamo!:)
Alexkidd85
14-05-2007, 14:13
Non voglio difendere R600 ma guardate questo benchmark(potrebbe essere sempre sballatissimo):
http://www.driverheaven.net/reviews/r600reviewz/oblivion.php
Qua si delinea uno scenario già visto se i test sono veri:A filtri attivi la ati è megliore rispetto a nvidia.
Stai a vedere se i test sono veritieri e,a quanto so io(liberi di smentirmi),le nvidia su vista hanno problemi per la serie,fps dimezzati e 3dmark falsatissimo...ora hanno sistemato tutto!?
Io attendo un ulteriore commento del corsini
+Lonewolf+
14-05-2007, 14:20
ma sbaglio o non sono ancora in commercio?
io non le trovo da nessuna parte...a quando sugli scaffali e sul trovaprezzi?
webbuffa
14-05-2007, 14:23
ma sbaglio o non sono ancora in commercio?
io non le trovo da nessuna parte...a quando sugli scaffali e sul trovaprezzi?
Da un amico fornitore sono disponibili le ASUS a 384€ iva inclusa ,naturalmente. Ma a sto punto tentenno :S:(
il trovaprezzi è intasato...
dovrebbero essere disponibili da adesso
+Lonewolf+
14-05-2007, 14:26
io aspetto la mossa del romano:D
Su trovaprezzi.it (a me funziona benissimo), kelkoo.it non si trova na mazza.
webbuffa
14-05-2007, 14:29
io aspetto la mossa del romano:D
:) Giusto!!! Sicuramente un 360 nn glielo toglie nessuno LOL
Qua si delinea uno scenario già visto se i test sono veri:A filtri attivi la ati è megliore rispetto a nvidia.
Stai a vedere se i test sono veritieri e,a quanto so io(liberi di smentirmi),le nvidia su vista hanno problemi per la serie,fps dimezzati e 3dmark falsatissimo...ora hanno sistemato tutto!?
:oink: :ciapet: ti piacerebbe
+Lonewolf+
14-05-2007, 14:31
:) Giusto!!! Sicuramente un 360 nn glielo toglie nessuno LOL
già la gts cel'ha a 320;)
cmq se andate sul sito di AMD e provate a cercare tra i drivers noterete che hanno aggiunto quelli della HD2900xt ma non li fa scaricare...che qualcosa si stia muovendo?
Zlatan91
14-05-2007, 14:32
vedi...avevo ragione.......le 10.1 cmq sono questione di driver.....
JoeLatino
14-05-2007, 14:34
http://www.vr-zone.com/?i=4946&s=1
ecco una recensione tanto attesa....
http://www.vr-zone.com/?i=4946&s=1
ecco una recensione tanto attesa....
sono d'accordo :)
halduemilauno
14-05-2007, 14:43
http://www.vr-zone.com/?i=4946&s=1
ecco una recensione tanto attesa....
pensa è stata la prima ad uscire. ben prima della fine dell'nda. per dire che è gia stata stracommentata.
;)
+Lonewolf+
14-05-2007, 14:53
già la gts cel'ha a 320;)
cmq se andate sul sito di AMD e provate a cercare tra i drivers noterete che hanno aggiunto quelli della HD2900xt ma non li fa scaricare...che qualcosa si stia muovendo?
mi autoquoto leggete
Da quanto sto leggendo in giro, parrebbe davvero che i driver abbiano seri problemi.
Date un'occhiata a questo test, fatto da TheInquirer:
http://www.theinquirer.net/images/articles/AMD_R600_FEAR_16.jpg
La risoluzione di 2560x1600 risulta essere più veloce della 1280x1024!
Ed è interessante notare anche come, a 2560x1600, la 2900 XT sia notevolmente più veloce della 8800 GTX.
Diciamo che così "a naso" tendo a pensare che la base hardware sia davvero ottima, ma che i driver (in particolare il compilatore) siano davvero scadenti.
Tra l'altro un'architettura VLIW generalmente richiede compilatori molto efficienti per dare le performance che ci si aspetta (Itanium dice niente? ;)).
Cioè che reputo piuttosto scandaloso è, invece, il fatto che dopo tutto questo ritardo i driver siano ancora in queste condizioni... :rolleyes:
Ciao. :)
JoeLatino
14-05-2007, 14:57
altra semi-recensione interessante basata sull'overclock!!!:D
http://www.nordichardware.com/Reviews/?page=1&skrivelse=510
Athlon 64 3000+
14-05-2007, 14:58
Da quanto sto leggendo in giro, parrebbe davvero che i driver abbiano seri problemi.
Date un'occhiata a questo test, fatto da TheInquirer:
http://www.theinquirer.net/images/articles/AMD_R600_FEAR_16.jpg
La risoluzione di 2560x1600 risulta essere più veloce della 1280x1024!
Ed è interessante notare anche come, a 2560x1600, la 2900 XT sia notevolmente più veloce della 8800 GTX.
Diciamo che così "a naso" tendo a pensare che la base hardware sia davvero ottima, ma che i driver (in particolare il compilatore) siano davvero scadenti.
Tra l'altro un'architettura VLIW generalmente richiede compilatori molto efficienti per dare le performance che ci si aspetta (Itanium dice niente? ;)).
Cioè che reputo piuttosto scandaloso è, invece, il fatto che dopo tutto questo ritardo i driver siano ancora in queste condizioni... :rolleyes:
Ciao. :)
In molti test è uguale se non peggiore della X1950XTX e mi viene da pensare che i driver facciano veramente schifo.
Scrambler77
14-05-2007, 14:59
Da quanto sto leggendo in giro, parrebbe davvero che i driver abbiano seri problemi.
Date un'occhiata a questo test, fatto da TheInquirer:
http://www.theinquirer.net/images/articles/AMD_R600_FEAR_16.jpg
La risoluzione di 2560x1600 risulta essere più veloce della 1280x1024!
Ed è interessante notare anche come, a 2560x1600, la 2900 XT sia notevolmente più veloce della 8800 GTX.
Diciamo che così "a naso" tendo a pensare che la base hardware sia davvero ottima, ma che i driver (in particolare il compilatore) siano davvero scadenti.
Tra l'altro un'architettura VLIW generalmente richiede compilatori molto efficienti per dare le performance che ci si aspetta (Itanium dice niente? ;)).
Cioè che reputo piuttosto scandaloso è, invece, il fatto che dopo tutto questo ritardo i driver siano ancora in queste condizioni... :rolleyes:
Ciao. :)
Ma che bench è??
In ogni caso non consideri che il difetto potrebbe essere la mancata applicazione di alcuni filtri a quella risoluzione, il che giustificherebbe la differenza di prestazioni...
...eccomi, seppur di corsa e di nascosto (lavoro) sono riuscito a leggere la recensione di HwUpgrade ed altre due in inglese. Purtroppo quella di B3D mi ha chiarito alcune cose sulle performance non troppo buone con alti valori di AA attivato (mi aspettavo qualcosa di più) ed il fatto che il compilatore dei driver dev'essere una brutta bestia da ottimizzare. Per il resto faccio mie le conclusioni dell'articolo di HwUpgrade, ma aggiungo due considerazioni personali: il consumo in idle è di soli 2 watt superiore a GTS 640, invece alto in full-load. Le temperature sono allineate a tutte le altre ATi high-end, imho niente di scadaloso se si è abituati ad avere una vga ATi. Dal punto di vista puramente prestazionale i risultati ottenuti sono simili a quelli della GTS 640, qualche volta sotto, la maggioranza delle volte sopra.
E' indubbio che le soluzioni Radeon HD 2900 XT possano vantare numerosi margini di miglioramento prestazionale grazie all'ottimizzazione da lato driver: nel periodo di test da noi condotto, infatti, ATI ha rilasciati ai recensori varie note circa la correzione di problemi prestazionali incontrati nel corso dell'esecuzione di vari test. Il giudizio, quindi, quantomeno sul piano prestazionale non può essere considerato al momento attuale del tutto definitivo. (frase copiata direttamente dall'articolo) (si però, che cazzo, AMD muoviti a migliorare i driver...thanks...!)
Per ultimo tutte le altre caratteristiche: imho questa scheda è molto molto interessante dal punto di vista Universal Video Decoder e HDMI, mi dispiace che la Redazione non abbia affrontato in maniera più completa questi aspetti. Spero e confido in un futuro articolo.
Le prestazioni in DX10 potrebbero rivelare sorprese positive, anche se il giudizio è rimandato a quando sarà possibile disporre di un numero maggiore di applicativi di analisi.
Il prezzo di 399,00 € IVA Inclusa (ma anche meno, Sapphire a 378 €) è adatto a questa vga e alle prestazioni che offre.
Mi trovo d'accordo anche con i commenti di Wiltord e Simon82, aspetto con ansia (anche se potrò leggere solo stasera) alcune spiegazioni tecniche da Leoneazzurro, Yoss ed altri, perchè voglio ben capire questa storia delle ROPs.
...ciao! :)
ps. l'articolo di HwUpgrade contiene oltre 54.000 caratteri; il tempo medio di lettura è stimato in 30 minuti ed è stato pubblicato alle 7:29 di mattina. Dopo soli 14 minuti si leggeva il primo commento...e che commento...:rolleyes:
In molti test è uguale se non peggiore della X1950XTX e mi viene da pensare che i driver facciano veramente schifo.
infatti, e comunque dai post di yoss sul thread "aspettiamo R600" mi è parso di capire che fare driver per R600 & Co. sia un lavoraccio immane :O
Ma che bench è??
In ogni caso non consideri che il difetto potrebbe essere la mancata applicazione di alcuni filtri a quella risoluzione, il che giustificherebbe la differenza di prestazioni...
Mmm... mi pare strano che il recensore non si sia accorto di una cosa del genere.
Inoltre, non credo che una risoluzione di 1280x1024 con filtri possa essere molto più leggere di una 2560x1600 senza... ;)
Ciao. :)
loperloper
14-05-2007, 15:12
Da quanto sto leggendo in giro, parrebbe davvero che i driver abbiano seri problemi.
Date un'occhiata a questo test, fatto da TheInquirer:
http://www.theinquirer.net/images/articles/AMD_R600_FEAR_16.jpg
La risoluzione di 2560x1600 risulta essere più veloce della 1280x1024!
Ed è interessante notare anche come, a 2560x1600, la 2900 XT sia notevolmente più veloce della 8800 GTX.
Diciamo che così "a naso" tendo a pensare che la base hardware sia davvero ottima, ma che i driver (in particolare il compilatore) siano davvero scadenti.
Tra l'altro un'architettura VLIW generalmente richiede compilatori molto efficienti per dare le performance che ci si aspetta (Itanium dice niente? ;)).
Cioè che reputo piuttosto scandaloso è, invece, il fatto che dopo tutto questo ritardo i driver siano ancora in queste condizioni... :rolleyes:
Ciao. :)
in effetti è un test un po bizzarro...alla massima risoluzione è due volte più veloce rispetto a 1280x1024!!:confused:
comunque continuerò a ripeterlo: secondo me il collo di bottiglia maggiore sono i driver e ,per quanto ati sia ingiustificabile per aver lasciato andare 6 mesi, la situazione attuale è questa....sono sicuro che faranno uscire driver a raffica(un po come fa nvidia) per correggere la situazione e solo lì vedremo se la scheda c'è o non c'è...
...eccomi, seppur di corsa e di nascosto (lavoro) sono riuscito a leggere la recensione di HwUpgrade ed altre due in inglese. Purtroppo quella di B3D mi ha chiarito alcune cose sulle performance non troppo buone con alti valori di AA attivato (mi aspettavo qualcosa di più) ed il fatto che il compilatore dei driver dev'essere una brutta bestia da ottimizzare. Per il resto faccio mie le conclusioni dell'articolo di HwUpgrade, ma aggiungo due considerazioni personali: il consumo in idle è di soli 2 watt superiore a GTS 640, invece alto in full-load. Le temperature sono allineate a tutte le altre ATi high-end, imho niente di scadaloso se si è abituati ad avere una vga ATi. Dal punto di vista puramente prestazionale i risultati ottenuti sono simili a quelli della GTS 640, qualche volta sotto, la maggioranza delle volte sopra.
E' indubbio che le soluzioni Radeon HD 2900 XT possano vantare numerosi margini di miglioramento prestazionale grazie all'ottimizzazione da lato driver: nel periodo di test da noi condotto, infatti, ATI ha rilasciati ai recensori varie note circa la correzione di problemi prestazionali incontrati nel corso dell'esecuzione di vari test. Il giudizio, quindi, quantomeno sul piano prestazionale non può essere considerato al momento attuale del tutto definitivo. (frase copiata direttamente dall'articolo) (si però, che cazzo, AMD muoviti a migliorare i driver...thanks...!)
Per ultimo tutte le altre caratteristiche: imho questa scheda è molto molto interessante dal punto di vista Universal Video Decoder e HDMI, mi dispiace che la Redazione non abbia affrontato in maniera più completa questi aspetti. Spero e confido in un futuro articolo.
Le prestazioni in DX10 potrebbero rivelare sorprese positive, anche se il giudizio è rimandato a quando sarà possibile disporre di un numero maggiore di applicativi di analisi.
Il prezzo di 399,00 € IVA Inclusa (ma anche meno, Sapphire a 378 €) è adatto a questa vga e alle prestazioni che offre.
Mi trovo d'accordo anche con i commenti di Wiltord e Simon82, aspetto con ansia (anche se potrò leggere solo stasera) alcune spiegazioni tecniche da Leoneazzurro, Yoss ed altri, perchè voglio ben capire questa storia delle ROPs.
...ciao! :)
daccordissimo :)
ps. l'articolo di HwUpgrade contiene oltre 54.000 caratteri; il tempo medio di lettura è stimato in 30 minuti ed è stato pubblicato alle 7:29 di mattina. Dopo soli 14 minuti si leggeva il primo commento...e che commento...:rolleyes:
e ti stupisci belin? io ci avrei scommesso quel che vuoi :rolleyes:
halduemilauno
14-05-2007, 15:21
...eccomi, seppur di corsa e di nascosto (lavoro) sono riuscito a leggere la recensione di HwUpgrade ed altre due in inglese. Purtroppo quella di B3D mi ha chiarito alcune cose sulle performance non troppo buone con alti valori di AA attivato (mi aspettavo qualcosa di più) ed il fatto che il compilatore dei driver dev'essere una brutta bestia da ottimizzare. Per il resto faccio mie le conclusioni dell'articolo di HwUpgrade, ma aggiungo due considerazioni personali: il consumo in idle è di soli 2 watt superiore a GTS 640, invece alto in full-load. Le temperature sono allineate a tutte le altre ATi high-end, imho niente di scadaloso se si è abituati ad avere una vga ATi. Dal punto di vista puramente prestazionale i risultati ottenuti sono simili a quelli della GTS 640, qualche volta sotto, la maggioranza delle volte sopra.
E' indubbio che le soluzioni Radeon HD 2900 XT possano vantare numerosi margini di miglioramento prestazionale grazie all'ottimizzazione da lato driver: nel periodo di test da noi condotto, infatti, ATI ha rilasciati ai recensori varie note circa la correzione di problemi prestazionali incontrati nel corso dell'esecuzione di vari test. Il giudizio, quindi, quantomeno sul piano prestazionale non può essere considerato al momento attuale del tutto definitivo. (frase copiata direttamente dall'articolo) (si però, che cazzo, AMD muoviti a migliorare i driver...thanks...!)
Per ultimo tutte le altre caratteristiche: imho questa scheda è molto molto interessante dal punto di vista Universal Video Decoder e HDMI, mi dispiace che la Redazione non abbia affrontato in maniera più completa questi aspetti. Spero e confido in un futuro articolo.
Le prestazioni in DX10 potrebbero rivelare sorprese positive, anche se il giudizio è rimandato a quando sarà possibile disporre di un numero maggiore di applicativi di analisi.
Il prezzo di 399,00 € IVA Inclusa (ma anche meno, Sapphire a 378 €) è adatto a questa vga e alle prestazioni che offre.
Mi trovo d'accordo anche con i commenti di Wiltord e Simon82, aspetto con ansia (anche se potrò leggere solo stasera) alcune spiegazioni tecniche da Leoneazzurro, Yoss ed altri, perchè voglio ben capire questa storia delle ROPs.
...ciao! :)
ps. l'articolo di HwUpgrade contiene oltre 54.000 caratteri; il tempo medio di lettura è stimato in 30 minuti ed è stato pubblicato alle 7:29 di mattina. Dopo soli 14 minuti si leggeva il primo commento...e che commento...:rolleyes:
e ti stupisci belin? io ci avrei scommesso quel che vuoi :rolleyes:
è colpa tua e degli altri hai/avete creato un tale hype che non vedevo l'ora. introduzione, conclusione i bench in mezzo e voilà il gioco è fatto.e poi so svelto. dopotutto quello che conta è la veridicità del commento.
FLOP!
è colpa tua e degli altri hai/avete creato un tale hype che non vedevo l'ora. introduzione, conclusione i bench in mezzo e voilà il gioco è fatto.e poi so svelto. dopotutto quello che conta è la veridicità del commento.
FLOP!
ora che hai sfogato la tua frustrazione torniamo a parlare di HD2900XT, non mi pare di aver creato alcun hype, ho letto la recensione alle 14.30 e non sono rimasto ne sconvolto ne in bene ne in male, la scheda combatte con le GTS, i driver sono duri da compilare e è uscita oggi mentre le concorrenti da sei mesi
non mi pare che HWU abbia scritto
FLOP!
;)
halduemilauno
14-05-2007, 15:27
ora che hai sfogato la tua frustrazione torniamo a parlare di HD2900XT
è da stamattina che ne parlo avrò postato sei rece. pensa non vedendo nessuno di voi stavo per aprire io il thread ufficiale.
è da stamattina che ne parlo avrò postato sei rece.
e hai fatto bene ;)
pensa non vedendo nessuno di voi stavo per aprire io il thread ufficiale.
non sia mai! :eek: :asd:
sarà, ma come postato gia pagine fa la situazione qui e ben diversa :cool:
http://www.pctuner.net/forum/showthread.php?t=81928
se e realmente cosi direi che e un ottima vga
leoneazzurro
14-05-2007, 15:30
Comunque, come detto, la questione dei drivers è realmente spinosa. Se si può capire che in alcuni casi la XT vada più piano della GTS non si capisce come mai sia in alcuni casi inferiore alla X1950 XTX. Che i drivers siano in questa condizione dopo probabilmente mesi dai primi sample è indice che il lavoro da fare è tanto e/o le risorse sono poche.
Dato che come ho detto prima ottimizzare per questa scheda credo sia l'incubo di ogni programmatore, dato che bisogna non solo ottimizzare per le VLIW delle unità di esecuzione, ma anche il controller di memoria, la gestione dell'AA e dei filtri. Penso che le prossime release dei drivers, pure se non miracolose, potranno dare netti miglioramenti, posizionando definitivamente la XT tra GTS e GTX in quanto a prestazioni.
Nismo#23
14-05-2007, 15:31
ora che hai sfogato la tua frustrazione torniamo a parlare di HD2900XT, non mi pare di aver creato alcun hype, ho letto la recensione alle 14.30 e non sono rimasto ne sconvolto ne in bene ne in male, la scheda combatte con le GTS, i driver sono duri da compilare e è uscita oggi mentre le concorrenti da sei mesi
non mi pare che HWU abbia scritto
FLOP!
;)
Sono Alexkidd85
Quotone...siamo in sintonia sul parere. Ma anche questo 3d sarà la solita altalena di commenti pro e contro a secondo del "brand" che qualcuno ha... e ci siamo capiti ;)
Speriamo si chiariscano le linee guida...
Scrambler77
14-05-2007, 15:33
Vi prego cambiate gli avatars... :coffee: :hic:
Comunque, come detto, la questione dei drivers è realmente spinosa. Se si può capire che in alcuni casi la XT vada più piano della GTS non si capisce come mai sia in alcuni casi inferiore alla X1950 XTX. Che i drivers siano in questa condizione dopo probabilmente mesi dai primi sample è indice che il lavoro da fare è tanto e/o le risorse sono poche.
Dato che come ho detto prima ottimizzare per questa scheda credo sia l'incubo di ogni programmatore, dato che bisogna non solo ottimizzare per le VLIW delle unità di esecuzione, ma anche il controller di memoria, la gestione dell'AA e dei filtri. Penso che le prossime release dei drivers, pure se non miracolose, potranno dare netti miglioramenti, posizionando definitivamente la XT tra GTS e GTX in quanto a prestazioni.
/Battuta agrodolce
Sta a vedere che tra le 1500 persone licenziate da AMD/ATI c'era chi lavorava davvero alla grande (=sapeva scrivere driver decenti)
:D
Scrambler77
14-05-2007, 15:34
Comunque, come detto, la questione dei drivers è realmente spinosa. Se si può capire che in alcuni casi la XT vada più piano della GTS non si capisce come mai sia in alcuni casi inferiore alla X1950 XTX. Che i drivers siano in questa condizione dopo probabilmente mesi dai primi sample è indice che il lavoro da fare è tanto e/o le risorse sono poche.
Dato che come ho detto prima ottimizzare per questa scheda credo sia l'incubo di ogni programmatore, dato che bisogna non solo ottimizzare per le VLIW delle unità di esecuzione, ma anche il controller di memoria, la gestione dell'AA e dei filtri. Penso che le prossime release dei drivers, pure se non miracolose, potranno dare netti miglioramenti, posizionando definitivamente la XT tra GTS e GTX in quanto a prestazioni.
Penso che questi problemi valgano da entrambi i lati... Cmq mi auguro che sti sviluppatori del ca**o si diano da fare (da entrambe le parti) e caccino fuori software degno dei teraflops che abbiamo pagato centinaia di euro...
Scrambler77
14-05-2007, 15:35
/Battuta agrodolce
Sta a vedere che tra le 1500 persone licenziate da AMD/ATI c'era chi lavorava davvero alla grande (=sapeva scrivere driver decenti)
:D
Se potessi ti sospenderei io stavolta!! :rotfl:
halduemilauno
14-05-2007, 15:36
ora che hai sfogato la tua frustrazione torniamo a parlare di HD2900XT, non mi pare di aver creato alcun hype, ho letto la recensione alle 14.30 e non sono rimasto ne sconvolto ne in bene ne in male, la scheda combatte con le GTS, i driver sono duri da compilare e è uscita oggi mentre le concorrenti da sei mesi
non mi pare che HWU abbia scritto
FLOP!
;)
certo FLOP! l'ho detto io è il mio giudizio. tra l'altro grandemente condiviso.
HWU ha scritto altro, tipo queste frasi:
"AMD ha perso un'occasione importante"
"Grazie agli oltre 6 mesi trascorsi dal debutto delle soluzioni GeForce 8800, NVIDIA è stata capace di guadagnare il favore di molti utenti appassionati, posizionandosi come l'attuale leader tecnologico nel segmento delle GPU DirectX 10"
"La scheda ATI Radeon HD 2900 XT, allo stato attuale soluzione top di gamma di ATI, ha riservato qualche sopresa ma anche diverse delusioni. Sebbene AMD indichi nelle soluzioni NVIDIA GeForce 8800 GTS le vere concorrenti della ATI Radeon HD 2900 XT, vi sono motivi di perlessità anche escludendo dall'analisi i modelli top NVIDIA GeForce 8800 GTX e Ultra."
"Rimane comunque un po' di delusione, anche in virtù delle poche notizie riguardanti il vero modello top di gamma ATI, differenziato nella sigla da una piccola ma importante X. Nulla si sa infatti riguardo ai tempi di presentazione della scheda ATI HD 2900 XTX, che potrebbe far riguadagnare un po' della stima persa in questi mesi di dominio NVIDIA nella fascia alta da parte degli appassionati: dietro richiesta diretta di informazioni a riguardo AMD ha confermato che al momento attuale una scheda di questo tipo ufficialmente non esiste."
per carità tutte frasi tratte dalle conclusioni che doverosamente ti linko.
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_21.html
Kharonte85
14-05-2007, 15:37
/Battuta agrodolce
Sta a vedere che tra le 1500 persone licenziate da AMD/ATI c'era chi lavorava davvero alla grande (=sapeva scrivere driver decenti)
:D
:asd:
halduemilauno
14-05-2007, 15:37
e hai fatto bene ;)
non sia mai! :eek: :asd:
mi ero preoccupato.
:sofico:
Defragg e Hal... vi stoppo subito...
(Hal... ne abbiamo parlato in PVT, no?!)
sarà, ma come postato gia pagine fa la situazione qui e ben diversa :cool:
http://www.pctuner.net/forum/showthread.php?t=81928
se e realmente cosi direi che e un ottima vga
Cazzius, sembra un'altra scheda...
Se andasse realmente come (o di più) rispetto alla rece di pctuner sarebbe la vga da avere...
forse alcuni, me compreso abbiamo parlato troppo presto, tutta colpa di 'sti drivers...
webbuffa
14-05-2007, 15:38
sarà, ma come postato gia pagine fa la situazione qui e ben diversa :cool:
http://www.pctuner.net/forum/showthread.php?t=81928
se e realmente cosi direi che e un ottima vga
:eek: Che botta!! Li sono tutti entusiasti... e qui parliamo di FLOP! ma lol :D
Scrambler77
14-05-2007, 15:39
(Hal... ne abbiamo parlato in PVT, no?!)
Uff con me non parli mai in PVT... quasi quasi sono geloso! :D
halduemilauno
14-05-2007, 15:40
Defragg e Hal... vi stoppo subito...
(Hal... ne abbiamo parlato in PVT, no?!)
ok.
Defragg e Hal... vi stoppo subito...
signorsì :)
:eek: Che botta!! Li sono tutti entusiasti... e qui parliamo di FLOP! ma lol :D
quindi c'è qualcosa che non và :wtf:
la verità stà nel mezzo :O
http://www.hwsetup.it/public/files/news4807_2.jpg
halduemilauno
14-05-2007, 15:43
Cazzius, sembra un'altra scheda...
Se andasse realmente come (o di più) rispetto alla rece di pctuner sarebbe la vga da avere...
forse alcuni, me compreso abbiamo parlato troppo presto, tutta colpa di 'sti drivers...
ma perchè vince al 3d mark? anche in altre rece vince al 3d mark. è nei giochi che perde.
;)
Scrambler77
14-05-2007, 15:44
Ma sta demo di crysis dove sta??!
halduemilauno
14-05-2007, 15:44
http://www.hwsetup.it/public/files/news4807_2.jpg
son stati giudicati fake. e ricordo pure il motivo.
webbuffa
14-05-2007, 15:44
quindi c'è qualcosa che non và :wtf:
la verità stà nel mezzo :O
:eek: eh si che c'è qualcosa che non va... se si ottimizzano per bene i driver sta scheda prende il volo. LOL! :D
Imho dopo essermi letto parecchie recensioni ho capito che ci sono forti problemi nella compilazione dei drivers di questa scheda...addirittura in alcuni test è piu lenta della 1950 xtx questa cosa mi fa riflettere molto... molte persone in questo forum la ritengono un flop io no,sono ancora fiducioso secondo me il perno principale del problema di questa scheda sono proprio i drivers immaturi.Resta il fatto che questa scheda insieme alla serie 8xxx ancora non sia stata testato sotto dx10,quindi è ancora tutto da vedere
Inoltre vi invito a vedere questa rece fatta dai butei di pctuner...
QUI (http://www.pctuner.net/forum/showthread.php?t=81928)...
introduzione, conclusione i bench in mezzo e voilà il gioco è fatto.e poi so svelto. dopotutto quello che conta è la veridicità del commento.
FLOP!
...l'unica cosa in cui sei svelto è creare flame e dire "compra 300€ I.I. presso negozio romano, muoviti". Ci fosse un tuo commento non di parte o tecnico. Lascia perdere, ormai ti conosciamo. Ed il bello è che non sei più un adolescente...:rolleyes: Dopo questo ti ignorerò come sempre ho fatto, e tornerò a discutere con altri delle impressioni su R600 che queste iniziali recensioni ufficiali m'hanno lasciato.
Comunque, come detto, la questione dei drivers è realmente spinosa. Se si può capire che in alcuni casi la XT vada più piano della GTS non si capisce come mai sia in alcuni casi inferiore alla X1950 XTX. Che i drivers siano in questa condizione dopo probabilmente mesi dai primi sample è indice che il lavoro da fare è tanto e/o le risorse sono poche.
Dato che come ho detto prima ottimizzare per questa scheda credo sia l'incubo di ogni programmatore, dato che bisogna non solo ottimizzare per le VLIW delle unità di esecuzione, ma anche il controller di memoria, la gestione dell'AA e dei filtri. Penso che le prossime release dei drivers, pure se non miracolose, potranno dare netti miglioramenti, posizionando definitivamente la XT tra GTS e GTX in quanto a prestazioni.
...già, come dicevo, ho letto la recensione di B3D e ho capito che R600 è proprio un bel macello da ottimizzare. Tu hai capito la verità sulle ROPs??? perchè W1zzard scrive che il numero è 16*2??? ed il discorso che si faceva prima su B3D, cioè la grave mancanza di hardware dedicato a determinate operazioni nelle ROPs (che spiega purtroppo i cattivi risultati con alto livello di AA attivato) tu come lo giudichi??? potresti spiegarmi meglio??? grazie mille!
/Battuta agrodolce
Sta a vedere che tra le 1500 persone licenziate da AMD/ATI c'era chi lavorava davvero alla grande (=sapeva scrivere driver decenti)
:D
:D
son stati giudicati fake. e ricordo pure il motivo.
Fake? Why?
dantes76
14-05-2007, 15:49
son stati giudicati fake. e ricordo pure il motivo.
non esiste una demo di Crysis :D
...l'unica cosa in cui sei svelto è creare flame e dire "compra 300€ I.I. presso negozio romano, muoviti". Ci fosse un tuo commento non di parte o tecnico. Lascia perdere, ormai ti conosciamo. Ed il bello è che non sei più un adolescente...:rolleyes: Dopo questo ti ignorerò come sempre ho fatto, e tornerò a discutere con altri delle impressioni su R600 che queste iniziali recensioni ufficiali m'hanno lasciato.
Estendo anche a te "l'invito" rivolto ad Hal e Defragg... :O
dantes76
14-05-2007, 15:50
ATI Radeon HD 2900 XT a "Flop"
http://enthusiast.hardocp.com/article.html?art=MTM0MSwxLCxoZW50aHVzaWFzdA==
non esiste una demo di Crysis :D
mmmhhh... beh, direi che come motivazione mi sembra circostanziata e più che sufficiente!... :O
:sofico:
webbuffa
14-05-2007, 15:51
ATI Radeon HD 2900 XT a "Flop"
http://enthusiast.hardocp.com/article.html?art=MTM0MSwxLCxoZW50aHVzaWFzdA==
non va :D? LOL
davide155
14-05-2007, 15:52
La verità sta nei driver immaturi. Punto e basta.
Inutile gridare al FLOP e alla FLAP...... :rolleyes:
E' logico che i driver siano immaturi. Anche se hanno avuto 7 mesi di tempo quando mai è successo che una vga uscisse con driver super performanti? La storia insegna sempre, e anche questa volta non ha sbagliato.
E' logico che le g80 nvidia sono più performanti. Hanno 7 mesi di test su xp....vista.....giochi.....e consigli degli utenti (i quali sono importantissimi per loro).
Quindi mettiamoci l'anima in pace ed aspettiamo 4-5 mesi.
Solo ad allora potremo avere una race ad "armi pari" ;)
Fino a quel giorno chi crede in questa scheda la compri, altrimenti prenda una g80 le quali sono pur sempre delle ottime schede :O
le conclusioni su x2900xt di pctuner:
http://www.pctuner.net/articoli/SchedeVideo/593/Jetway_Radeon_HD_2900_XT/17.html
dantes76
14-05-2007, 15:53
non va :D? LOL
cosa? il sito? :stordita:
webbuffa
14-05-2007, 15:55
cosa? il sito? :stordita:
partiiiitiiii :asd: adoro questo sito lol
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.