View Full Version : [Riflessioni, opinioni] AMD all'alba di R600
Ciao a tutti,
cercando di mantenere un aspetto piu' tecnico e circa le recensioni sull'altro thread manterrei questo per discutere alla luce di quello che ormai e' trapelato circa la situazione di AMD e del nuovo prodotto R600 e l'attuale politica che ipotizzate alla base delle sue scelte piu o meno condivisibili.
Secondo voi? Un flop annunciato, una sorta di "Parhelia" che cerca di impressionare sulla carta ma delude all'atto pratico? Oppure un seme che germogliera' un domani e che ci regalera' diversi frutti?
Saluti
Vieirarock
14-05-2007, 13:30
L'unica scusante per delle prestazioni così altalenanti sono da attribuire secondo me soltanto alla difficoltà di programmare la nuova architettura progettata..
E poi il prezzo, sulla recensione si parla di € 399,00, quando ormai si trova la 8800 GTS 640 mb a € 370,00!!
L'unica possibilità che hanno di venderne in buone quantità è quella di fissare un prezzo sui 330-340..
Certo il fatto di aver lavorato con Microsoft per la xbox finora non ha dato i frutti
che molti di noi si aspettavano. ai posteri (direct x 10) l'ardua sentenza..
la scheda non la si può definire un flop però sinceramente visto la lunga attesa si sperava qualcosa in più in termini di prestazioni pure...
per quanto riguarda le novità la x2900xt offre nuove modalità di anti aliasing e uvd oltre ad una nuova architettura a shader unificata di seconda generazione ati..
note dolenti sono consumi e rumorosità..
Io credo che se avessero potuto fare di meglio l'avrebbero fatto; la scheda è stata una delusione, perché la GTS640Mbyte si trova in un negozio romano che non vende online già a 322€ ivata; hanno applicato il prezzo che sarà il prezzo che vedremo per le GTS640 negli altri negozi in un tempo che non credo sarà lungo. La scheda di ATI consuma di più e soprattutto è molto rumorosa, in full load il rumore è veramente fastidioso.
Io credo che il ritardo di 6 mesi rispetto alla concorrenza avrebbe per lo meno dovuto consentire lo sviluppo di driver maturi, in grado di sfruttare la scheda come si deve già dal momento del lancio. Oggi come oggi una GTS è una scelta secondo me da preferire; la X2900XT è una scheda che ha consentito ad nVidia di mantere alti i prezzi, ed ha portato una ristagnazione del mercato non da poco in questi 6 mesi, tanto che la versione Ultra è solo qualcosina in più di una scheda overcloccata.
Io francamente non credo che le X2900 siano delle schede valide; e non credo che daranno frutti; nel mondo dell'informatica si compra e si usa, se si compra con la prospettiva di migliorare è difficile rimanere soddisfatti. Probabilmente se è vero che in DX10 queste schede vanno meglio quando queste "previsioni" si potranno verificare ci sarà una nuova famiglia di VGA...
L'unico motivo per prendere una X2900XT potrebbe essere il prezzo; i consumi più alti ed il rumore potrebbero essere bilanciati dalle potenzialità della scheda nella gestione dei video, che sembrano molto buone.
Io la vedo molto come la 5800 della nVidia contro la 9700 ATI: una scheda rilasciata per dovere e che verrà comprata da qualche appassionato contro una scheda che ha dominato il mercato per un buon periodo e ha continuato ad essere un'ottimo prodotto anche parecchio tempo dopo l'uscita sul mercato. Questa volta a ruoli invertiti, e con AMD in una posizione economica molto debole causata dal ritardo tecnologico nei confronti del Core 2 Duo e soprattutto dalla recente acquisizione della stessa ATI. La vedo molto difficile, ma come dovrebbe fare ogni buon consumatore appassionato "tifo" per AMD/ATI perché se venisse a mancare ci ritroveremo in una situazione di pseudo-monopolio che chi ha vissuto gli anni 90 in informatica non può che ricordare con tristezza. E la dimostrazione di quando le case prodruttrici si "rilassino" quando sono al potere incontrastate nelle prestazioni è la 8800Ultra, il mancato rilascio di una scheda Gx2 in stile 7950Gx2 ed un supporto driver che solo di recente consente di godere di buone prestazioni nelle schede nVidia più recenti e soprattutto nella configurazione di "punta" ovvero lo SLi.
...eccomi anche qui...secondo me non è un flop, la recensione di B3D mi ha chiarito alcune cose sulle performance non troppo buone con alti valori di AA attivato (mi aspettavo qualcosa di più) ed il fatto che il compilatore dei driver dev'essere una brutta bestia da ottimizzare. Per il resto faccio mie le conclusioni dell'articolo di HwUpgrade, ma aggiungo due considerazioni personali: il consumo in idle è di soli 2 watt superiore a GTS 640, invece alto in full-load. Le temperature sono allineate a tutte le altre ATi high-end, imho niente di scadaloso se si è abituati ad avere una vga ATi (da sempre più hot delle rivali Nvidia). Dal punto di vista puramente prestazionale i risultati ottenuti sono simili a quelli della GTS 640, qualche volta sotto, la maggioranza delle volte sopra.
E' indubbio che le soluzioni Radeon HD 2900 XT possano vantare numerosi margini di miglioramento prestazionale grazie all'ottimizzazione da lato driver: nel periodo di test da noi condotto, infatti, ATI ha rilasciati ai recensori varie note circa la correzione di problemi prestazionali incontrati nel corso dell'esecuzione di vari test. Il giudizio, quindi, quantomeno sul piano prestazionale non può essere considerato al momento attuale del tutto definitivo.
Inoltre questa scheda è molto molto interessante dal punto di vista Universal Video Decoder e HDMI.
Le prestazioni in DX10 potrebbero rivelare sorprese positive, anche se il giudizio è rimandato a quando sarà possibile disporre di un numero maggiore di applicativi di analisi.
Il prezzo di 399,00 € IVA Inclusa è adatto a questa vga e alle prestazioni che offre.
Per questi motivi non me la sento di giudicarla un flop. Sarebbe un giudizio troppo categorico. L'architettura c'è, le basi solide pure (R600 non è nato l'anno scorso...Xenos insegna), quindi secondo me "può essere un seme che germoglierà un domani e che ci regalerà diversi frutti", il tutto però se si risolveranno quei problemi di programmazione dei driver (che, in ogni caso, dovevano essere risolti prima di oggi).
:)
...eccomi anche qui...secondo me non è un flop, la recensione di B3D mi ha chiarito alcune cose sulle performance non troppo buone con alti valori di AA attivato (mi aspettavo qualcosa di più) ed il fatto che il compilatore dei driver dev'essere una brutta bestia da ottimizzare. Per il resto faccio mie le conclusioni dell'articolo di HwUpgrade, ma aggiungo due considerazioni personali: il consumo in idle è di soli 2 watt superiore a GTS 640, invece alto in full-load. Le temperature sono allineate a tutte le altre ATi high-end, imho niente di scadaloso se si è abituati ad avere una vga ATi (da sempre più hot delle rivali Nvidia). Dal punto di vista puramente prestazionale i risultati ottenuti sono simili a quelli della GTS 640, qualche volta sotto, la maggioranza delle volte sopra.
E' indubbio che le soluzioni Radeon HD 2900 XT possano vantare numerosi margini di miglioramento prestazionale grazie all'ottimizzazione da lato driver: nel periodo di test da noi condotto, infatti, ATI ha rilasciati ai recensori varie note circa la correzione di problemi prestazionali incontrati nel corso dell'esecuzione di vari test. Il giudizio, quindi, quantomeno sul piano prestazionale non può essere considerato al momento attuale del tutto definitivo.
Inoltre questa scheda è molto molto interessante dal punto di vista Universal Video Decoder e HDMI.
Le prestazioni in DX10 potrebbero rivelare sorprese positive, anche se il giudizio è rimandato a quando sarà possibile disporre di un numero maggiore di applicativi di analisi.
Il prezzo di 399,00 € IVA Inclusa è adatto a questa vga e alle prestazioni che offre.
Per questi motivi non me la sento di giudicarla un flop. Sarebbe un giudizio troppo categorico. L'architettura c'è, le basi solide pure (R600 non è nato l'anno scorso...Xenos insegna), quindi secondo me "può essere un seme che germoglierà un domani e che ci regalerà diversi frutti", il tutto però se si risolveranno quei problemi di programmazione dei driver (che, in ogni caso, dovevano essere risolti prima di oggi).
:)
Perdonami, mi permetto di dissentire. Hanno avuto troppi mesi per sviluppare driver adeguati; e si dovevano dedicare a quello. Per le temperature potrebbero non essere un problema ma forse ti sfugge che le GTS640Mbyte fanno molto meno rumore e vengono proposte ad un prezzo di 350€ (a dire il vero un negozio di Roma come ho detto si trova a 322€). Le schede possono essere considerate pari come performance, con un pizzico di ottimismo su possibili miglioramenti dei driver (ripeto, ne hanno avuti molti di mesi per sviluppare soluzioni adeguate, quindi di ottimismo forse ce ne vuole di più di un pizzico) dato che per adesso la GTS si impone nella maggior parte dei test. Ovviamente la scheda non è un progetto assolutamente inutile, ho anche io evidenziato gli aspetti postivi delle tecnologie di riproduzione video, però mi pare sempre troppo poco per poter salvare questa scheda.
Credo sia inutile rimandare il giudizio su una scheda che si è rimandata da sola più volte, e credo che si dovrebbe procedere ad una bocciatura, considerando che è una scheda posticipata già di suo troppo. Le prestazioni in DX10 non contano praticamente nulla, perché come si è detto più e più volte applicativi DX10 vedranno la luce quando questa scheda sarà superata ancora di più di quanto non lo sia già oggi.
L'archiettura di R600 inoltre considerando i consumi della scheda ed il ritardo del lancio la vedo già molto spremuta si suo, non credo che ci siano dei grossi margini di miglioramento. Forse la tecnologia produttiva potrà fare qualcosa, ma io reputo la scheda in se un albero mal cresiuto e dal progetto R600 non mi aspetto molto di più, perché di tempo ne hanno avuto tanto (G80 è uscito a novembre, ma loro è da prima che lavorano su R600).
Inoltre non nascondo la mia tristezza dovuta ad un mercato che con queste schede ATI subirà secondo me uno stop evolutivo a tutto discapito degli acquirenti.
Colasante 5
14-05-2007, 15:55
Non so cosa pensare....aspetterò un altro mesetto per effettuare l'acquisto, però se le cose restano come adesso mi orienterò senza dubbio su una 8800 GTX...
...VitOne sono d'accordo con te, e se leggi bene abbiamo scritto più o meno le stesse cose. :)
Mi ero dimenticato dell'aspetto rumore, ma imho non è un aspetto così decisivo per far pendere la bilancia sulla parola "flop totale". Imho ci sono aspetti di questi vga molto interessanti, ma ha anche altri aspetti che deludono. Senza dubbio. Però i flop per me sono altri e determinati da fattori più importanti: FX5800 è stato un flop (zero novità nell'architettura, zero novità nelle tecniche d'immagine, prestazioni scadenti e consumi -per l'epoca- spropositati). Anche 3Dfx Voodoo5 6000 fu un flop, ma con aspetti diversi da FX5800.
Ecco, se questi due casi io li metto tra i flop, non posso obiettivamente inserirci anche R600...per mille motivi. Che mi abbia un pò deluso è senza dubbio, ma bocciarlo del tutto (oggi) mi sembra eccessivo.
:)
dantes76
14-05-2007, 16:08
fx5800[seguito da 5900/50ultra] fu un flop, perche al tempo Ati, aveva sfornato un vero e propio mostro di potenza: 9700
qui ati alla presentazione ha presentato , non un modello di punta, ma un modello, medio alto...
come avevo ampiamente argomentato nell'altro thread, (dove però era stato evidentemente considerato fuori luogo) la situazione di AMD imho è molto critica.
cercare di mettere in buona luce questo prodotto mi sembra un po' negare l'evidenza: ritardo immane, consumi altissimi, prestazioni non concorrenziali.
e poi non bisogna dimenticare che il prezzo della scheda è dato dalla concorrenza, non è di certo basato sui costi sostenuti da AMD.
ripeto: brutta situazione.
(tanto per prevenire: possiedo due computer, entrambi con processori AMD e vga Ati)
...VitOne sono d'accordo con te, e se leggi bene abbiamo scritto più o meno le stesse cose. :)
Mi ero dimenticato dell'aspetto rumore, ma imho non è un aspetto così decisivo per far pendere la bilancia sulla parola "flop totale". Imho ci sono aspetti di questi vga molto interessanti, ma ha anche altri aspetti che deludono. Senza dubbio. Però i flop per me sono altri e determinati da fattori più importanti: FX5800 è stato un flop (zero novità nell'architettura, zero novità nelle tecniche d'immagine, prestazioni scadenti e consumi -per l'epoca- spropositati). Anche 3Dfx Voodoo5 6000 fu un flop, ma con aspetti diversi da FX5800.
Ecco, se questi due casi io li metto tra i flop, non posso obiettivamente inserirci anche R600...per mille motivi. Che mi abbia un pò deluso è senza dubbio, ma bocciarlo del tutto (oggi) mi sembra eccessivo.
:)
Sottolineo il fatto che è un piacere potersi confrontare con te perché si riescono sempre a mantenere toni civili parlando in modo costruttivo, cosa sempre più difficile nel forum, soprattutto quando si parla di VGA ;).
Fermo restando il discorso sui flop della storia più clamorosi (d'accordo per FX5800 pure se in realtà a livello di architettura di novità ne aveva introddotte, semplicemente andava meno e consumava troppo oltre al rumore in eccesso) io credo che la X2900XT sia una scheda che nasce già vecchia, e che al momento dell'uscita sul mercato avrebbe dovuto essere, considerando prestazioni, rumore e consumi, quanto meno perfettamente supportata a livello driver per non essere annoverata tra i flop.
Sicuramente ci basterà aspettare qualche mese con le vendite di questa scheda alla mano per poter fare dei confronti, però si tratta, secondo me, di un flop totale, perché ci sono troppi motivi per non bocciare questa scheda. Io non vedo nessun pro se non il supporto video e la nuova modalità AS che però è allo stesso livello qualitativo della serie 8 nVidia. Se costasse 325€ o meno la salverei, a 300€ sarebbe promossa a pieni voti. A 400€ si propone ad un prezzo eccessivo ed inadeguato per quello che offre. E ripeto, la giudico in modo definitvio adesso perché già di suo è una scheda che ha ritardato troppo.
Sul progetto R600 è presto per esprimersi, ma promette male, e promette male per AMD e per i consumatori, per i motivi che ho già cercato di spiegare.
Il potenziale tecnico di R600 è evidente e credo che sarà importante vedere dei driver più maturi per capire bene quanto di questo potenziale potrà tradursi in realtà e quanto rimarrà meramente sulla carta.
Fatta questa premessa credo che le ripercussioni su AMD saranno legate al successo o all'insuccesso nel segmento mainstream e performance, appannaggio delle varie versioni di HD2400 e HD2600.
Ciò perché come tutti sanno i profitti si fanno in quei segmenti e i 65nm del processo daranno maggiori margini di profitto, anche rispetto alla concorrenza.
Certo è che dalle ipotesi preliminari sulle prestazioni di questa generazione con le DX10 sembra che per avere una classe performance decente ci sarà da aspettare un anno...
Chi vivrà vedrà...
Per quello che rigurada le ripercussioni economiche per la società hai sicuramente ragione, però il consumatore è svantaggiato dalla non presenza di concorrenza nella fascia alta: questo penalizza soprattutto chi vorrebbe predersi una scheda di fascia media o ex fascia alta; perché il mercato viene trainato in avanti dalla fascia TOP.
Per i driver più maturi dopo mesi di rivinii e sviluppo credo ci sia poco da illiudersi: il tempo per fare dei driver adeguati c'è stato tutto, se non li hanno fatti non c'è da aspettarsi molto, secondo me.
Parlare di prestazioni di una scheda dopo un anno nel mondo dell'informatica secondo me è fuori luogo, soprattutto di una scheda di fascia alta, che dopo un anno vale meno della metà e va meno della metà del modello nuovo ;).
come avevo ampiamente argomentato nell'altro thread, (dove però era stato evidentemente considerato fuori luogo) la situazione di AMD imho è molto critica.
cercare di mettere in buona luce questo prodotto mi sembra un po' negare l'evidenza: ritardo immane, consumi altissimi, prestazioni non concorrenziali.
e poi non bisogna dimenticare che il prezzo della scheda è dato dalla concorrenza, non è di certo basato sui costi sostenuti da AMD.
ripeto: brutta situazione.
(tanto per prevenire: possiedo due computer, entrambi con processori AMD e vga Ati)
Credo che in molti conoscano la tua obiettività, testimoniata dal fatto che nel 3D che curi con dedizione (di nuovo complimenti :D) hai inserito praticamente solo soluzioni Intel, in modo assolutamente coerente con il rapporto prezzo/prestazioni degli attuali processori.
Io credo come è stato giustamente detto che AMD punti molto sulla fascia media (dove ovviamente si vende di più) e sulla bassa, quindi non credo che l'azienda avrà difficoltà finaziarie, soprattutto se saprà gestire in modo adeguato il prezzo di queste sue soluzioni. Però parlando della X2900XT credo che sia una scheda da bocciare a meno che non venga proposta a 50-100€ in meno della cifra attuale, ed in generale ad un prezzo di poco inferiore alla GTS640, per via dei consumi più alti e della rumorosità.
fx5800[seguito da 5900/50ultra] fu un flop, perche al tempo Ati, aveva sfornato un vero e propio mostro di potenza: 9700
qui ati alla presentazione ha presentato , non un modello di punta, ma un modello, medio alto...
esatto, la situazione è diversa
9700Pro era davvero irraggiungibile per le FX, non esisteva partita (ah no...in DX8 le FX volavano) mentre la HD2900 anche con driver orribili si difende, e AMD ha chiarito che la scheda che compete con HD2900XT è 8800GTS e le schede competono tra di loro
esatto, la situazione è diversa
9700Pro era davvero irraggiungibile per le FX, non esisteva partita (ah no...in DX8 le FX volavano) mentre la HD2900 anche con driver orribili si difende, e AMD ha chiarito che la scheda che compete con HD2900XT è 8800GTS e le schede competono tra di loro
si d'accordo magari il confronto con le fx o con altri reali fallimenti di schede del passato non si può fare,ma sinceramente la strategia di far uscire una scheda non top dopo oltre 6 mesi di ritardo dal suo concorrente diretto secondo mè non ha molto senzo,questa cosa potrebbe essere vista come un segno di debolezza dell'azienda o almeno io la vedo così...
personalmente vedo amd in seria difficoltà anche se spero con i fatti di essere smentito...
Kharonte85
14-05-2007, 17:39
Ottima idea. Ringrazio zorco che mi ha segnalato il Thread :)
Dunque...:what:
La scheda è una delusione credo soprattutto per tutti quei Fan che giustamente si aspettavano di vedere una AMD-ATI competitiva e magari davanti alla 8800gtx di un 20% invece la scheda compete con la 8800GTS 640mb.
La qualita' dell'immagine non sembra essere ne' superiore ne' inferiore alle 8800.
Ad aggravare cio' ci si mettono anche i consumi ma soprattutto il rumore.
Le motivazioni sono sicuramente da ricercare nella scelta di un architettura forse rivolta troppo al futuro che non paga adesso e non credo paghera' in futuro (vincera' la semplicita' di programmazione)
I driver non credo cambieranno molto la situazione, piu' che altro perche' credo che AMD abbia lavorato gia' molto su questo aspetto per essere pronta oggi.
Le dx10? bella domanda...ad oggi abbiamo solo:
http://www.hwupgrade.it/articoli/skvideo/1725/callofjuarez_driver42.png
http://www.pcgameshardware.de/screenshots/medium/LP_DX10_Snow.JPG
http://www.pcgameshardware.de/screenshots/original/LP_DX10_Snow.JPG
http://www.pcgameshardware.de/screenshots/medium/LP_DX10_Cave.JPG
http://www.pcgameshardware.de/screenshots/original/LP_DX10_Cave.JPG
Completamente insufficienti per giudicare.
Il prezzo e le qualita' HD (di cui pero' a molti non frega niente compreso me :D ) sembrano le uniche note positive ma Basta un leggero taglio di prezzi delle 8800gts ed ecco che la convenienza svanisce.
Un'altra vergogna è il fatto che siamo nuovamente di fronte ad un paper lunch (nessun negozio Italiano ce l'ha :muro: )
Un'altra incognita è la fascia media...guardando le caratteristiche e vedendo l'efficienza dell'architettura, dubito riusciranno a fare meglio delle 8600gts e gt :mc:
Se riuscira' ad impressionare lo fara' quando sara' troppo tardi...Ad oggi Nvidia è preferibile.
esatto, la situazione è diversa
9700Pro era davvero irraggiungibile per le FX, non esisteva partita (ah no...in DX8 le FX volavano) mentre la HD2900 anche con driver orribili si difende, e AMD ha chiarito che la scheda che compete con HD2900XT è 8800GTS e le schede competono tra di loro
Il prezzo ragazzi, il prezzo! Conta quello, inoltre cosa vuol direi che la scheda si deve confrontare con la GTS? La scheda si confronta con tutto il mercato, e quello che conta è ancora un volta il suo prezzo. I driver orribili è tutto da dimostrare, veramente in tutto questo tempo, con tutti questi ritardi, la scheda ha dei driver così orribili? Io non credo sia possibile, sarebbe qualcosa di incredibile, non pensate? Evidentemente questa scheda è limitata e non è abbastanza potente, sicuramente con altri drivers si potrà limare qualcosa, ma questa è la scheda, e questa rimarrà. Inoltre le 8800GTS 640 hanno avuto diversi mesi in cui vendere, e hanno venduto, per cui questa scheda arriva con 6 mesi di ritrado... Io non capisco come si possa ancora non parlare di flop.
Il prezzo ragazzi, il prezzo! Conta quello, inoltre cosa vuol direi che la scheda si deve confrontare con la GTS? La scheda si confronta con tutto il mercato, e quello che conta è ancora un volta il suo prezzo. I driver orribili è tutto da dimostrare, veramente in tutto questo tempo, con tutti questi ritardi, la scheda ha dei driver così orribili? Io non credo sia possibile, sarebbe qualcosa di incredibile, non pensate? Evidentemente questa scheda è limitata e non è abbastanza potente, sicuramente con altri drivers si potrà limare qualcosa, ma questa è la scheda, e questa rimarrà. Inoltre le 8800GTS 640 hanno avuto diversi mesi in cui vendere, e hanno venduto, per cui questa scheda arriva con 6 mesi di ritrado... Io non capisco come si possa ancora non parlare di flop.
ah non lo so, parole di AMD :O
beh, se và meno di una X1950XTX, mi può sembrare solo colpa dei driver :rolleyes:
IEvidentemente questa scheda è limitata e non è abbastanza potente, sicuramente con altri drivers si potrà limare qualcosa, ma questa è la scheda, e questa rimarrà. Inoltre le 8800GTS 640 hanno avuto diversi mesi in cui vendere, e hanno venduto, per cui questa scheda arriva con 6 mesi di ritrado... Io non capisco come si possa ancora non parlare di flop.
perche cmq non puoi dire flop il giorno del lancio dai ;) g80 quando usci andava alla grande ma certi giochi manco partivano, li i driver contavano perche qua non possono? Diamo tempo ad ati di migliorarli (di sicuro lo faranno perche altrimenti poveri loro, cosa faranno) grazie anche ai feedback dei futuri acquirenti di questa scheda, che ci saranno sicuramente. d'altronde io non riesco a credere che questa scheda non abbia potenza pura, sulla carta vanta un'architettura competitiva, con delle cifre per nulla niente male. ma all'atto pratico non è risultato cosi e certi risultati nei test mi lasciano tutt'ora perplesso.
Le mie conclusioni sono cmq queste: nvidia al momento è preferibile sotto tutti gli aspetti; schede piu mature, consumi e rumorosita (per me importantissimi) inferiori rispetto all'ati, piu fps nei gioch, prezzi piu competitivi, insomma ora come ora non c'è proprio mercato. Ma io sinceramente me ne lavo le mani, non aspettavo certo questa scheda per poterla acquistare, volevo semplicemente vedere un po' di sana concorrenza, che tanto mi manca. ;)
Gabriyzf
14-05-2007, 18:00
sarebbe competitiva sui 300€, non di più
ha anche grossi problemi di consumi e rumorosità
considerando quanto grande fosse l'aspettativa, è sicuramente un flop
considerando quanto grande fosse l'aspettativa, è sicuramente un flop
è l'hype che ha giocato questo scherzo, alimentato soprattutto da altre persone che sparlavano su questa scheda con la convizione che avrebbe dato la polvere alla gtx. Chissa come mai ancora non si son visti.
Dark Schneider
14-05-2007, 18:09
Per me questa Radeon HD 2900XT è proprio una delusione. Erano mesi che non mi interessavo, però me l'aspettavo mooooolto meglio. Qualche giorno fa ho visto che nVidia aveva immesso la 8800 Ultra e la credevo più una mossa per mantenere la leadership in campo prestazionale. E' una classica mossa che in passato ha fatto anche Ati.
Invece questa mattina, vado a leggere e mi ritrovo una scheda che è allineata ad una GeForce 8800 GTS, ed in diversi test è anche dietro. :confused:
Può darsi che l'architettura sia maggiormente proiettata verso le DX10, ma non è un motivo valido a cui appigliarsi.
Primo perchè anche G80 è una GPU realizzata con grande cura e non lo vedo certamente meno performante della 2900XT in ambito DX10 per il futuro.
Secondo perchè i giochi VERI DX10 tarderanno ad arrivare. Ci saranno si quelli che si spacciano DX10, ma che poi sono motori grafici realizzati attorno alle specifiche delle DX9 ed in qualche minima parte faranno uso di ciò che le DX10 permettono. Quindi non si può andare ad ignorare il mercato DX9 che ha ancora fin troppa vita.
Terzo: probabilmente come al solito nè la prima generazione Ati e nVidia basate sulle nuove DirectX saranno realmente le schede ideali per macinare giochi pesantemente DX10. Era così anche per le precedenti librerie.
Questo passo falso comunque non è certo colpa della fusione di Ati con AMD come qualcuno ipotizza. R600 è un progetto a cui Ati lavorava da tempo.
Secondo me nVidia è stata sottovalutata. Mi ricordo ancora un anno fa: si diceva che nVidia era indietro nello sviluppo di architetture a shader unificati. Addirittura si ipotizzavano architetture ibride o con ancora con unità shader separati. Che Ati aveva già l'esperienza dell'R500, la prima gpu a shader unificati(quella della 360).
Ed invece nVidia ha smentito tutti ed ha presentato la sua GPU basata su architettura shader unificata e realizzata con grande cura. Nella prossima 8900 probabilmente aumenteranno frequenze delle memorie, core, stream processor, oltre che ad un incremento del numero degli stream processor. Il tutto a 65 nm e mi aspetto(e mi auguro) che la 8900 sia più corta della 8800 GTX-Ultra attuale.
Bisogna guardare alle prestazioni che si cercano. La 8800 pare sia un mostro in tutto al momento. L'Hardcore gamer andrà sulla 8800.
Ala fine non è una brutta scheda la HD 2900XT, il problema è che è la TOP della gamma Ati. Nata per misurarsi con la GTX/Ultra, ma si è ritrovata a dover competere con la 8800 GTS. Quest'ultima se davvero verrà abbassata a 300 euro sarà un affarone. Mi pare sarà abbassata anche quella da 320 MB a 250 euro...perfetta per chi vuole giocare a risoluzioni "umane".
Sottolineo il fatto che è un piacere potersi confrontare con te perché si riescono sempre a mantenere toni civili parlando in modo costruttivo, cosa sempre più difficile nel forum, soprattutto quando si parla di VGA ;).
...grazie, posso dire la stessa cosa di te. :)
...tornando IT vorrei chiedere un favore alla Redazione e spiegare ancora due cose. Altri motivi che mi inducono a non mettere la gpu R600 tra i flop sono questi: architettura supescalare con potenzialità imho ancora non del tutto espresse, texture HDR a 64 bit filtrate, hardware dedicato per la tecnica Tesselation (che applicata in tempo reale dalle HD 2000 permette di generare modelli tridimensionali complessi partendo da modelli primitivi; questa tecnica è già presente nelle DirectX 10), GPU Block Art (fisica abbinata al rendering 3D e all'interazione grafica), HDMI, UVD, Audio 5.1.
Ecco, se qualche moderatore potesse intercedere con la Redazione vorrei sapere quando questi aspetti saranno trattati da una recensione (anche perchè di leggere altri siti non ne ho voglia...io leggo HwU da sempre! :D )
Questi motivi, di cui si è parlato pochissimo e non ne capisco sinceramente il motivo, uniti a prestazioni buone, non mi fanno mettere R600 tra i flop.
Se considero rumore, calore e consumo, allora metto 2900XT (e non R600, in quanto dei derivati RV sappiamo poco e potrebbero essere molto buoni) in una sorta di limbo delle vga. O se volete (e siete vecchi come me!) "rimandata a settembre".
Se invece ci basiamo solo sull'e-penis benchmark allora si, 2900XT va decisamente meno di GTX, quindi è un bel flop.
C'è una cosa su cui sono molto critico con AMD: perchè non c'è una 2900XL o una 2900PRO??? questo proprio non lo capisco e lo reputo un grosso errore.
...ciao!
ps. il prezzo, come hai ben detto, sarà decisivo per 2900XT.
omar8792
14-05-2007, 18:41
ragazzi non pensate che quasi 400 watt in full siano troppi?????? e la memoria sia di tipo gddr3 invece ke gddr4 x la 2900???
Secondo me ATi e AMD hanno fatto un grosso collo di bottiglia
ah non lo so, parole di AMD :O
beh, se và meno di una X1950XTX, mi può sembrare solo colpa dei driver :rolleyes:
Mi spiace ma ho imparato che le aziende parlano solo per difendere i loro interessi, e certamente se hanno a che fare con un prodotto non all'altezza delle aspettative non possono fare altro che rilasciare dichiarazioni come quelle di AMD.
Per quello che riguarda i driver ovviamente spero che possano cambiare la situazione, e ripeto: io condanno ATI per il ritardo e per aver presentato un prodotto secondo me inadeguato, però spero vivamente che si riprenda e che possa rendersi competitiva per evitare situazioni di monopolio.
...grazie, posso dire la stessa cosa di te. :)
...tornando IT vorrei chiedere un favore alla Redazione e spiegare ancora due cose. Altri motivi che mi inducono a non mettere la gpu R600 tra i flop sono questi: architettura supescalare con potenzialità imho ancora non del tutto espresse, texture HDR a 64 bit filtrate, hardware dedicato per la tecnica Tesselation (che applicata in tempo reale dalle HD 2000 permette di generare modelli tridimensionali complessi partendo da modelli primitivi; questa tecnica è già presente nelle DirectX 10), GPU Block Art (fisica abbinata al rendering 3D e all'interazione grafica), HDMI, UVD, Audio 5.1.
Ecco, se qualche moderatore potesse intercedere con la Redazione vorrei sapere quando questi aspetti saranno trattati da una recensione (anche perchè di leggere altri siti non ne ho voglia...io leggo HwU da sempre! :D )
Questi motivi, di cui si è parlato pochissimo e non ne capisco sinceramente il motivo, uniti a prestazioni buone, non mi fanno mettere R600 tra i flop.
Se considero rumore, calore e consumo, allora metto 2900XT (e non R600, in quanto dei derivati RV sappiamo poco e potrebbero essere molto buoni) in una sorta di limbo delle vga. O se volete (e siete vecchi come me!) "rimandata a settembre".
Se invece ci basiamo solo sull'e-penis benchmark allora si, 2900XT va decisamente meno di GTX, quindi è un bel flop.
C'è una cosa su cui sono molto critico con AMD: perchè non c'è una 2900XL o una 2900PRO??? questo proprio non lo capisco e lo reputo un grosso errore.
...ciao!
ps. il prezzo, come hai ben detto, sarà decisivo per 2900XT.
:D il problema è che quando un prodotto esce con mesi di ritardo rispetto alla concorrenza ci si aspetta che le caratteristiche tecniche che può sfoggiare possano corrispondere nell'immediato ad un incremento tangibile delle prestazioni della scheda o della qualità dell'immagine. AMD/ATI (ma il progetto è tutto ATI se non ricordo male), con i suoi mesi di ritardo, non ha tempo, ovviamente io mi aspetto qualcosa che possa levigare le performance della scheda, ma credo fortemente che dal lato driver non ci possa essere nulla di strabiliante, e che quasi tutte le features della scheda che non sono sfruttate adesso rimarranno non sfruttate, perché se non c'è subito software in grado di farlo quando ci sarà ci saranno anche altre schede in grado di farlo, o la stessa scheda ad un prezzo più basso, perché è così che funziona il mondo dell'informatica. Credo che le prestazioni di un prodotto in netto ritardo rispetto alla concorrenza vadano misurate non per quello che promette, ma per quello che offre nell'immediato. Il prezzo è fondamentale, tu quanto la valuteresti questa scheda? Io ho detto, non più di 350€, perché da un lato ci sono buone prestazioni e feautures più consistenti della concorrenza, ma dall'altro c'è il consumo ed il rumore prodotto.
ragazzi non pensate che quasi 400 watt in full siano troppi?????? e la memoria sia di tipo gddr3 invece ke gddr4 x la 2900???
Secondo me ATi e AMD hanno fatto un grosso collo di bottiglia
consuma 200w in full load,reali molto probabilmente anche meno..
ciao
appleroof
14-05-2007, 18:45
La parola flop forse è prematura, se ad essa si dà un significato assoluto: occorre vedere come si comporterà la scheda dopo l'affermazione delle dx10. tuttavia immensa delusione è il minimo: tutto il ritardo per sfornare una scheda che và meno della gtx (che non è nemmneo più la top Nvidia), consuma come un ossesso (e scalda di conseguenza) ed è rumorosa nella peggiore tradizione Ati.
Tutti i fiumi di parole di questi mesi (da parte degli scettici, ovviamente) si sono puntualmente verificati, direi che questa per le casse Amd può essere davvero una bella botta, ok che c'è rimasto tempo per recuperare, ma qui si rischia davvero tanto, considerando lo scenario entro il quale si muove questo prodotto.
C'è una cosa su cui sono molto critico con AMD: perchè non c'è una 2900XL o una 2900PRO??? questo proprio non lo capisco e lo reputo un grosso errore.
già, presentare tutta la line up e poi immettere in commercio solo una scheda mi pare una cattiva scelta, cattivissima
ragazzi non pensate che quasi 400 watt in full siano troppi?????? e la memoria sia di tipo gddr3 invece ke gddr4 x la 2900???
Secondo me ATi e AMD hanno fatto un grosso collo di bottiglia
400W rappresentano l'intero sistema, non la singola vga ;)
Mi spiace ma ho imparato che le aziende parlano solo per difendere i loro interessi, e certamente se hanno a che fare con un prodotto non all'altezza delle aspettative non possono fare altro che rilasciare dichiarazioni come quelle di AMD.
Ma è anche un dato di fatto, non ti pare? :stordita:
Per quello che riguarda i driver ovviamente spero che possano cambiare la situazione, e ripeto: io condanno ATI per il ritardo e per aver presentato un prodotto secondo me inadeguato, però spero vivamente che si riprenda e che possa rendersi competitiva per evitare situazioni di monopolio.
quoto :)
appleroof
14-05-2007, 19:05
Se il livello delle 2400/2600 rispetto alle 8500/8600 riproporrà lo stesso scenario hai senz'altro ragione, perché è questa la fascia più importante per le casse. Non resta che aspettare :>
Hai ragione, questo è vero....sembra che per chi vuole Ati il destino sia...aspettare :asd: :asd: (la battuta è cattivella, però è automatica...:D )
Quella cmq potrebbe essere davvero un punto di svolta per ilò discorso che facciamo (nel bene e nel male), e forse proprio per quello ancora Amd non l'ha lanciata la fascia media...
appleroof
14-05-2007, 19:17
Probabilmente il bug di cui si vocifera non è così irreale, il che spiegherebbe il ritardo della fascia media e l'assenza di altre versioni del 2900.
A questo punto non credo fosse più possibile rimandare, e sembra abbastanza logico che abbiano optato per un lancio alla disperata di un unico modello per far vedere che ci sono e poter completare la nuova revisione del silicio per la fascia media, oltre a preparare la fascia medio/alta con il processo a 65nm che arriverà ormai a breve.
Evidentemente queste sono mie supposizioni, perché ormai non si capisce più niente. Come le 8800 hanno insegnato ci si possono aspettare incrementi di prestazioni mostruosi da nuove versioni dei driver, ma anche i driver pacco non sono sufficienti a spiegarmi una debacle di questo tipo da una architettura che sulla carta mi sembrava veramente superiore a G80.
Come si dice da mesi, non resta che aspettare, per vedere, fortunati quelli che riescono ancora ad arrancare con la propria GPU per vedere i passi successivi (di questi lumi e con le ultime news non mi fido molto a prendere una GPU DX10 con il rischio che poi non vada una mazza proprio in DX10).
Quoto tutto tranne l'ultima parte: con la 8800gts 320 a 250euro il momento di aspettare francamente (non dico per te o per altri, ma magari per tanti) è davvero finito...è per questo che dico che Amd è in una situazione davvero difficile...se vuoi immagine da investire devi fare uscire una scheda top che stupisca (ora, non quando tra sei mesi le dx10 saranno diffuse e la concorrenza avrà avuto tutto il tempo per reagire, ammesso che ce ne sia bisogno)...ma che stupisca in positivo...
definirlo un flop tout court mi sembra esagerato, mi ricordo la fatica di nvidia a far uscire un driver decente per vista, (c'è stato addirittura un gruppo di persone che volevano denunciare nvidia per i driver vista non pronti)....con driver più maturi é probabile che anche la 2900 potrà dimostrare meglio le proprie potenzialità, anche se difficilmente credo al 30% di prestazioni in + annunciate da taluni.
Il problema di questa scheda resta comunque il consumo, ingiustificato, per la posizione medio alta che occupa.
CiAoRaGa1
14-05-2007, 19:19
http://img402.imageshack.us/img402/2226/dscn1696us2.th.jpg (http://img402.imageshack.us/my.php?image=dscn1696us2.jpg)
Ormai erano prenotate....vedremo come vanno in crossfire su 975....
http://img402.imageshack.us/img402/2226/dscn1696us2.th.jpg (http://img402.imageshack.us/my.php?image=dscn1696us2.jpg)
Ormai erano prenotate....vedremo come vanno in crossfire su 975....
mi raccomando posta le tue impressioni nel 3d ufficiale che son proprio curioso, e penso anche gli altri.
appleroof
14-05-2007, 19:27
Non lo so, quello che mi spaventa sono i 320MB, non vorrei rimanerci impiccato in DX10 e quindi sto alla finestra aspettando qualche dato certo, tirando fuori il sangue dalla 6800GS @530MHz :asd:
E che fai? ti fai una 2600xt a 256mb? Se giochi a risoluzioni normali (max1280x1024) cmq 256mb sono già sufficienti, 320 sono più che buoni anche in ottica longevità, in ogni caso se tu personalmente hai deciso di aspettare ancora fai benissimo (solo tu sai il da farsi, ci mancherebbe) il mio era un discorso più generale e confermava ipotesi che andavo facendo da mesi sulla situazione (ora attuale, fermo restando che potrebbe ancora cambiare) in cui versa il mercato vga ;)
Mister Tarpone
14-05-2007, 19:29
Non lo so, quello che mi spaventa sono i 320MB, non vorrei rimanerci impiccato in DX10 e quindi sto alla finestra aspettando qualche dato certo, tirando fuori il sangue dalla 6800GS @530MHz :asd:
idem :fagiano:
io ho paura (ma potrei anche sbagliarmi...mah..)che tutta sta gen. di schede sia solo appena sufficente per i giochi dx10.
quindi non è proprio il caso che io spenda tanto adesso, per aver la schedona longeva.
Io sono al limite con la mia scheda attuale... ma se cambio adesso, mi prenderò qualcosa che costi ben sotto le 200€. tanto per migliorare le prestazioni del mio pc per continuare a giocarci bene un altro annetto... poi si vedrà per una dx10 tosta di fascia alta...
menomale che mi so accontentare.... :asd:
CiAoRaGa1
14-05-2007, 19:29
mi raccomando posta le tue impressioni nel 3d ufficiale che son proprio curioso, e penso anche gli altri.
non le potrò montarare prima di mercoledì in quanto sono in attesa dell'ali..... mercoledì sera posterò i primi risultati
Credo che comunque questa discussione sia OT, il topic sono le ripercussioni su AMD di questo lancio, per le disquisizioni tecniche su R600 c'è l'altro thread :>
vero.
Credo che in molti conoscano la tua obiettività, testimoniata dal fatto che nel 3D che curi con dedizione (di nuovo complimenti :D) hai inserito praticamente solo soluzioni Intel, in modo assolutamente coerente con il rapporto prezzo/prestazioni degli attuali processori.
ti ringrazio. :)
ora vorrei ripetere gli elementi che mi preoccupano, a proposito di AMD:
- sforzo finanziario per acquisire ati
- balzo prestazionale di intel
- conseguente costretto calo dei prezzi degli athlon64
- lancio di vga dx10 nvidia fascia enthusiast
- ritardo di 7 mesi rispetto a nvidia nel lancio delle prime vga dx10 enthusiast (r600 inferiore a g80)
- lancio di nvidia fascia mainstream
- ritardo di oltre due mesi sulla fascia mainstream
- indebitamento finanziario sempre più gravoso
questi mi sembra siano tutti dati di fatto. messi insieme a me fanno un po' paura... :stordita:
Quoto tutto tranne l'ultima parte: con la 8800gts 320 a 250euro il momento di aspettare francamente (non dico per te o per altri, ma magari per tanti) è davvero finito...è per questo che dico che Amd è in una situazione davvero difficile...se vuoi immagine da investire devi fare uscire una scheda top che stupisca (ora, non quando tra sei mesi le dx10 saranno diffuse e la concorrenza avrà avuto tutto il tempo per reagire, ammesso che ce ne sia bisogno)...ma che stupisca in positivo...
concordo...
Dico solo che su newegg hanno aumentato il prezzo di $20 perché la stanno vendendo bene quando tutti dicono che è "una ciofeca".
Come la mettiamo?
Le azioni salgono, la gente la compra... non è che sti driver veramente faranno la differenza?
...grazie, posso dire la stessa cosa di te. :)
...tornando IT vorrei chiedere un favore alla Redazione e spiegare ancora due cose. Altri motivi che mi inducono a non mettere la gpu R600 tra i flop sono questi: architettura supescalare con potenzialità imho ancora non del tutto espresse, texture HDR a 64 bit filtrate, hardware dedicato per la tecnica Tesselation (che applicata in tempo reale dalle HD 2000 permette di generare modelli tridimensionali complessi partendo da modelli primitivi; questa tecnica è già presente nelle DirectX 10), GPU Block Art (fisica abbinata al rendering 3D e all'interazione grafica), HDMI, UVD, Audio 5.1.
Ecco, se qualche moderatore potesse intercedere con la Redazione vorrei sapere quando questi aspetti saranno trattati da una recensione (anche perchè di leggere altri siti non ne ho voglia...io leggo HwU da sempre! :D )
Questi motivi, di cui si è parlato pochissimo e non ne capisco sinceramente il motivo, uniti a prestazioni buone, non mi fanno mettere R600 tra i flop.
Se considero rumore, calore e consumo, allora metto 2900XT (e non R600, in quanto dei derivati RV sappiamo poco e potrebbero essere molto buoni) in una sorta di limbo delle vga. O se volete (e siete vecchi come me!) "rimandata a settembre".
Se invece ci basiamo solo sull'e-penis benchmark allora si, 2900XT va decisamente meno di GTX, quindi è un bel flop.
C'è una cosa su cui sono molto critico con AMD: perchè non c'è una 2900XL o una 2900PRO??? questo proprio non lo capisco e lo reputo un grosso errore.
...ciao!
ps. il prezzo, come hai ben detto, sarà decisivo per 2900XT.
Segnalato alla redazione. Se so qualcosa ti faccio sapere.
;)
Io la penso cosi: probabilmente ATI anche prima dell'acquisizione di AMD aveva in progetto un mostro come R600 lascierebbe ad intendere sulla carta ma e' probabile che a volte quando certi mostri vengono progettati si rivelano talmente complessi che difficilmente si trovano situazioni reali tali da far capire dove effettivamente l'architettura sia performante.
In questo ci vengono d'aiuto i benchmark sintetici che con numeri piu o meno inutili fanno capire se in certe situazioni i muscoli vengano effettivamente mostrati o meno. A prescidenre dal fatto che certi bench ancora non esistono capaci di adattarsi alle nuove architetture, alle nuove API, ai nuovi drivers ma esistono solo titoli Directx9 legati ad architettura a shaders separati con logiche interne completamente sviluppate sulla base di quello che Microsoft con queste API ha voluto e trascinandosi dietro inevitabilmente tutto il mondo retrocompatibile alle precedenti versioni, e' chiaro che ancora non e' il momento di giudicare all'impiccagione o alla grazia una scheda video di questo calibro.
Certo, sono il primo a dire che i presupposti per una sconfitta, non dico flop perche' e' pur sempre un'ottima soluzione in proporzione a quello che SARA' il prezzo non certo ora che un minimo devono pur guadagnarci, ci sono tutti e in casi passati questa situazione si e' poi definita tale anche con drivers piu o meno miracolosi. Aggiungo pero' che una chance bisogna ancora dargliela e nei prossimi mesi, se Futuremark si degnera' di fare uscire questo benedetto benchmark, capiremo dai test sintetici quanto effettivamente bene e' stato fatto il lavoro. Perche' e' certo che se in Directx9 la scheda non performa nemmeno nei confronti di una middle high end e se in Directx10 succedera' la stessa cosa con alti e bassi clamorosi, beh, allora permetto la parola flop.
Perche' non serve un processore complicatissimo con millemila innovazioni strutturali se esse non servono ai fini ne qualitativi ne prestazionali ne altro.
Speriamo bene. L'HDMI audio lo vedo un po' come il fiorellino sul misero pasto da ristorante per far colore e tutti i discorsi sull'high definition, scusatemi ma lasciano il tempo che trovano. Chi mette una scheda simile in un HTPC a consumare cosi' tanto?
Finisco dicendo che l'acquisizione di AMD sicuramente non e' la causa prima di questa situazione ma ha certamente contribuito a rallentare o a mettere bastoni (sicuramente non voluti) tra le ruote nelle decisioni amministrative a livelli dirigenziali, finanziari e altro.
Il prezzo è fondamentale, tu quanto la valuteresti questa scheda? Io ho detto, non più di 350€, perché da un lato ci sono buone prestazioni e feautures più consistenti della concorrenza, ma dall'altro c'è il consumo ed il rumore prodotto.
...d'accordissimo, non più di 350€. E a questa cifra è un buon acquisto.
Ho appena visto che le Sapphire si trovano qui in Italia a 367,20 €. Imho nel giro di poche settimane scendono sotto i 350€.
...ciao!
...d'accordissimo, non più di 350€. E a questa cifra è un buon acquisto.
Ho appena visto che le Sapphire si trovano qui in Italia a 367,20 €. Imho nel giro di poche settimane scendono sotto i 350€.
...ciao!
;) a quel prezzo sono sicuramente una soluzione più che interessante, e ovviamente molte delle considerazioni da me fatte non risultano più valide. Speriamo :D.
http://img402.imageshack.us/img402/2226/dscn1696us2.th.jpg (http://img402.imageshack.us/my.php?image=dscn1696us2.jpg)
Ormai erano prenotate....vedremo come vanno in crossfire su 975....
:nonsifa: :nonsifa: hai le schede e non l'alimentatore :( ma come si fa :D? Se avessi saputo ti avrei prestato un OCZ850W... Potevi essere il primo in Italia (e nel mondo :D?!?) a postare quei test, e finalmente avremo visto qualcosa di potente come si deve. Facci sapere il prima possibile, mi raccomando.
halduemilauno
15-05-2007, 07:56
Perdonami, mi permetto di dissentire. Hanno avuto troppi mesi per sviluppare driver adeguati; e si dovevano dedicare a quello. Per le temperature potrebbero non essere un problema ma forse ti sfugge che le GTS640Mbyte fanno molto meno rumore e vengono proposte ad un prezzo di 350€ (a dire il vero un negozio di Roma come ho detto si trova a 322€). Le schede possono essere considerate pari come performance, con un pizzico di ottimismo su possibili miglioramenti dei driver (ripeto, ne hanno avuti molti di mesi per sviluppare soluzioni adeguate, quindi di ottimismo forse ce ne vuole di più di un pizzico) dato che per adesso la GTS si impone nella maggior parte dei test. Ovviamente la scheda non è un progetto assolutamente inutile, ho anche io evidenziato gli aspetti postivi delle tecnologie di riproduzione video, però mi pare sempre troppo poco per poter salvare questa scheda.
Credo sia inutile rimandare il giudizio su una scheda che si è rimandata da sola più volte, e credo che si dovrebbe procedere ad una bocciatura, considerando che è una scheda posticipata già di suo troppo. Le prestazioni in DX10 non contano praticamente nulla, perché come si è detto più e più volte applicativi DX10 vedranno la luce quando questa scheda sarà superata ancora di più di quanto non lo sia già oggi.
L'archiettura di R600 inoltre considerando i consumi della scheda ed il ritardo del lancio la vedo già molto spremuta si suo, non credo che ci siano dei grossi margini di miglioramento. Forse la tecnologia produttiva potrà fare qualcosa, ma io reputo la scheda in se un albero mal cresiuto e dal progetto R600 non mi aspetto molto di più, perché di tempo ne hanno avuto tanto (G80 è uscito a novembre, ma loro è da prima che lavorano su R600).
Inoltre non nascondo la mia tristezza dovuta ad un mercato che con queste schede ATI subirà secondo me uno stop evolutivo a tutto discapito degli acquirenti.
da non dimenticare/sottovalutare che fino a 1600x1200 è ottima anche la 8800gts320 che costa 250€. quindi non un 50€ ma un 150€ in meno.
;)
nella recensione effettuata da dinox pc le performance della x2900xt sembrano essere mediamente superiori alla gts è in alcuni casi riesce a rivaleggiare con la gtx...
il sistema operativo usato per i test è xp professional driver Catalyst 8.37.4.2...
guardate i grafici in Company of Heroes la x2900xt riesce a sopravanzare anche la gtx:http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=6
in doom3 riesce a stare davanti alla gts ma mai a livelli della gtx:http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=6
anche a fear non và affato male:http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=7
in hl2 assistiamo invece ad un degrado delle prestazioni quando si attivano i filtri:http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=8
insomma in genearle le prestazioni della x2900xt non sembrano così male almeno con win xp boh voi che dite:boh:
da non dimenticare/sottovalutare che fino a 1600x1200 è ottima anche la 8800gts320 che costa 250€. quindi non un 50€ ma un 150€ in meno.
;)
Però se confronti la GTS320Mbyte devi fare attenzione perché in alcuni casi la RAM video si è visto che non basta già a 1280x1024 (per esempio in questi primi "bench" DX10 sembra si sia proprio al limite).
nella recensione effettuata da dinox pc le performance della x2900xt sembrano essere mediamente superiori alla gts è in alcuni casi riesce a rivaleggiare con la gtx...
il sistema operativo usato per i test è xp professional driver Catalyst 8.37.4.2...
guardate i grafici in Company of Heroes la x2900xt riesce a sopravanzare anche la gtx:http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=6
in doom3 riesce a stare davanti alla gts ma mai a livelli della gtx:http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=6
anche a fear non và affato male:http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=7
in hl2 assistiamo invece ad un degrado delle prestazioni quando si attivano i filtri:http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=644&p=8
insomma in genearle le prestazioni della x2900xt non sembrano così male almeno con win xp boh voi che dite:boh:
Non sono male come schede, i grafici li abbiamo visti anche con questi drivers, però dipenderà tutto dal prezzo a cui la scheda verrà proposta. Considera rumore e calore sviluppato: per esempio posso dire che secondo me una configurazione crossfire produrrà veramente tantissimo calore, già con le 8800 la situazione era gestibile con difficoltà, con queste non so cosa si riuscirà a fare. Inoltre il consumo di energia ha un costo, non elevatissimo ma ha un costo, per cui bisogna considerarlo al momento dell'acquisto. Se la scheda ci costa 50€ in più in un anno (per dirne una) rispetto ad un'altra dobbiamo tenerne conto. Ricordiamoci poi che la scheda compete con un mercato fatto di schede presentate qualche mese fa, 6 mesi ormai 7 non è un periodo di tempo brevissimo. Inoltre il fatto che nonostante tutto il tempo a disposizione non ci siano dei driver validi (a dire di AMD) non lascia sperare molto bene. Il progetto R600 è di gran lunga antecedente all'acquisizione di ATI da parte di AMD; per cui secondo me il tempo per fare dei driver validi c'era tutto...
halduemilauno
15-05-2007, 09:10
Però se confronti la GTS320Mbyte devi fare attenzione perché in alcuni casi la RAM video si è visto che non basta già a 1280x1024 (per esempio in questi primi "bench" DX10 sembra si sia proprio al limite).
io credo che i giochi dx10 non saranno troppo esosi perchè parto dal pressupposto che i produttori questi giochi li vogliano/debbano vendere e quindi. con queste premesse(da verificare)ecco che gli altri 100€ in meno possano far comodo.
;)
Buongiorno a tutti ;)
Devo ancora avere un giudizio definitivo su questa vga.
La giornata di ieri è stata a suo modo "spiazzante", ci si aspettava una scheda meno potente della GTX, però superiore in scioltezza alla GTS, invece ci ritroviamo con un prodotto che ha prestazioni "anomale". Non ho le basi tecniche per dare un giudizio sull'architettura, leggendo i post di leoneazzurro ci sono degli spiragli, vediamo se sono reali o illusori.
Ad ogni modo oggi non la comprerei, ma non comprerei nemmeno una GTS essendo comunque messo bene in DX9 e non avendo Vista, viceversa per chi è "costretto" ad acquistare se possibile gli consiglierei un altro mese di attesa, se possibile, altrimenti è forse più "sicura", allo stato delle info disponibili, la scelta di andare sulla GTS
Superpelo
15-05-2007, 09:20
è oggettivamente un flop, perchè consuma e scalda piu' di tutte e non va piu' di tutte.
Ci sono punti sicuramente da considerare quali il fatto che effettivamente una scheda video che costa di piu' di un'altra, consuma di piu', ha meno memoria e generalmente va meno (8800 GTS 640) effettivamente non conviene, ALMENO NON ORA. La cosa dubbiosa e' quanto converra' in futuro con l'avvento di giochi che potrebbero essere anche limitati dalla ram esigua.
Un'altra cosa che mi lascia perplesso e': l'uso 3D di Aero in Vista, quale frequenza fara' mantenere alla scheda e quale sforzo in termini di temperatura e consumi? Non esiste praticamente piu' un 2D se ci pensiamo a meno che loro non continuano ad intenderlo ovviamente come "desktop" e "gaming".
MonsterMash
15-05-2007, 11:07
Nei giorni precedenti la presentazione ufficiale, mi ero fatto prendere (cosa insolita per me) da una sorta di euforia. Ero deciso a comprare la scheda a scatola chiusa, fidandomi del mio istinto, che mi diceva che sarebbe stata una vera rivoluzione in termini di funzionalità, qualità dell'immagine e dei filtri, e prestazioni. Oggi so di essere stato fortunato a non fare quel pre-order.
In molti oggi dicono che sia sbagliato definire questa scheda un flop, in quanto frutto di una scelta coraggiosa di ati, che ha tentato la strada dell'innovazione. Ma il punto è che una scheda grafica non è un quadro da apprezzare per la sua bellezza o la sua genialità. Si tratta di un componente elettronico dedito a certe funzioni, progettato e prodotto per soggiacere alle leggi del mercato, al fine di creare profitto per un'azienda.
E proprio per questo, se non svolge in modo soddisfacente le proprie funzioni primarie, è inevitabile che esso diventi automaticamente un "flop".
Ciò che mi preoccupa è il fatto che in tutti i progetti di tale complessità ci si trova a più riprese a dover affrontare dei problemi; ma di solito questi problemi, le cui tempistiche risolutive vengono messe in conto (come dato statistico) fin dal giorno in cui cominciano i lavori di progettazione, vengono risolti e alla fine si presenta al pubblico un prodotto che rispecchia molto da vicino quello che i progettisti avevano inizialmente in mente. Mentre io ho l'impressione che in questo caso, nonostante le ingenti risorse che si sono investite nel progetto, nonostante la enorme dilatazione dei tempi (6 mesi sono davvero tanti in termini informatici), e nonostante le molteplici revisioni della gpu eseguite in fase di pre-produzione, il prodotto finale continua a non essere quello che gli stessi progettisti speravano. E quindi la casa è costretta a vendere il prodotto ad un prezzo di molto inferiore a quanto preventivato. Se si aggiungono a tutto questo i notevoli problemi finanziari, dovuti a varie ragioni (taglio dei prezzi nel campo delle cpu amd, prosciugamento di capitale dovuto all'acquisizione di ati da parte di amd, crollo del titolo in borsa negli ultimi 6 mesi), e l'esistenza di una concorrenza che per ragioni storiche è già in tempi normali molto più potente, e che adesso ha dalla sua anche un prodotto più convincente e che gode di 6 mesi di presenza in più sul mercato, il quadretto è completo.
Inoltre anche sul fronte cpu c'è un progetto che sta fagocitando una gran quantità di risorse da circa 2 anni, ovvero il K10. Un'eventuale accoglienza tiepida del mercato anche di questo prodotto potrebbe voler significare guai seri per l'azienda. Dopotutto ricordiamoci che ati e amd sono sempre state, e sono tutt'ora, molto meno conosciute al grande pubblico, e sono condannate a dover fare prodotti migliori della concorrenza ed a prezzi più convenienti, per poi venderne di meno.
Ed inoltre godono di un substrato finanziario molto più debole di intel ed nvidia, per cui un eventuale "doppio flop" di r600 e k10 potrebbe essere veramente difficile da sostenere.
E' questa la mia preoccupazione di consumatore appassionato di informatica. E spero vivamente che sia esagerata rispetto allo stato effettivo delle cose.
Ciao
halduemilauno
15-05-2007, 11:12
Nei giorni precedenti la presentazione ufficiale, mi ero fatto prendere (cosa insolita per me) da una sorta di euforia. Ero deciso a comprare la scheda a scatola chiusa, fidandomi del mio istinto, che mi diceva che sarebbe stata una vera rivoluzione in termini di funzionalità, qualità dell'immagine e dei filtri, e prestazioni. Oggi so di essere stato fortunato a non fare quel pre-order.
In molti oggi dicono che sia sbagliato definire questa scheda un flop, in quanto frutto di una scelta coraggiosa di ati, che ha tentato la strada dell'innovazione. Ma il punto è che una scheda grafica non è un quadro da apprezzare per la sua bellezza o la sua genialità. Si tratta di un componente elettronico dedito a certe funzioni, progettato e prodotto per soggiacere alle leggi del mercato, al fine di creare profitto per un'azienda.
E proprio per questo, se non svolge in modo soddisfacente le proprie funzioni primarie, è inevitabile che esso diventi automaticamente un "flop".
Ciò che mi preoccupa è il fatto che in tutti i progetti di tale complessità ci si trova a più riprese a dover affrontare dei problemi; ma di solito questi problemi, le cui tempistiche risolutive vengono messe in conto (come dato statistico) fin dal giorno in cui cominciano i lavori di progettazione, vengono risolti e alla fine si presenta al pubblico un prodotto che rispecchia molto da vicino quello che i progettisti avevano inizialmente in mente. Mentre io ho l'impressione che in questo caso, nonostante le ingenti risorse che si sono investite nel progetto, nonostante la enorme dilatazione dei tempi (6 mesi sono davvero tanti in termini informatici), e nonostante le molteplici revisioni della gpu eseguite in fase di pre-produzione, il prodotto finale continua a non essere quello che gli stessi progettisti speravano. E quindi la casa è costretta a vendere il prodotto ad un prezzo di molto inferiore a quanto preventivato. Se si aggiungono a tutto questo i notevoli problemi finanziari, dovuti a varie ragioni (taglio dei prezzi nel campo delle cpu amd, prosciugamento di capitale dovuto all'acquisizione di ati da parte di amd, crollo del titolo in borsa negli ultimi 6 mesi), e l'esistenza di una concorrenza che per ragioni storiche è già in tempi normali molto più potente, e che adesso ha dalla sua anche un prodotto più convincente e che gode di 6 mesi di presenza in più sul mercato, il quadretto è completo.
Inoltre anche sul fronte cpu c'è un progetto che sta fagocitando una gran quantità di risorse da circa 2 anni, ovvero il K10. Un'eventuale accoglienza tiepida del mercato anche di questo prodotto potrebbe voler significare guai seri per l'azienda. Dopotutto ricordiamoci che ati e amd sono sempre state, e sono tutt'ora, molto meno conosciute al grande pubblico, e sono condannate a dover fare prodotti migliori della concorrenza ed a prezzi più convenienti, per poi venderne di meno.
Ed inoltre godono di un substrato finanziario molto più debole di intel ed nvidia, per cui un eventuale "doppio flop" di r600 e k10 potrebbe essere veramente difficile da sostenere.
E' questa la mia preoccupazione di consumatore appassionato di informatica. E spero vivamente che sia esagerata rispetto allo stato effettivo delle cose.
Ciao
ottimo intervento. condivido.
ciao.
;)
ragazzi non mi lapidate ho preso la x2900xt:D :p
prima di 2900 non c'è la x o sbaglio?
prima di 2900 non c'è la x o sbaglio?
hai ragione è hd 2900xt..
Brightblade
15-05-2007, 11:50
hai ragione è hd 2900xt..
Forza forza, contribuisci ad aggiungere technical facts nel thread ufficiale, chi piu' di te ne ha diritto :D
Comunque vada buon divertimento :D
Forza forza, contribuisci ad aggiungere technical facts nel thread ufficiale, chi piu' di te ne ha diritto :P
Comunque vada buon divertimento :D
grazie provvederò..
ragazzi non mi lapidate ho preso la x2900xt:D :p
Per carità, facci sapere come va. Pagata quanto?
Per carità, facci sapere come va. Pagata quanto?
369 euro..
Nei giorni precedenti la presentazione ufficiale, mi ero fatto prendere (cosa insolita per me) da una sorta di euforia. Ero deciso a comprare la scheda a scatola chiusa, fidandomi del mio istinto, che mi diceva che sarebbe stata una vera rivoluzione in termini di funzionalità, qualità dell'immagine e dei filtri, e prestazioni. Oggi so di essere stato fortunato a non fare quel pre-order.
In molti oggi dicono che sia sbagliato definire questa scheda un flop, in quanto frutto di una scelta coraggiosa di ati, che ha tentato la strada dell'innovazione. Ma il punto è che una scheda grafica non è un quadro da apprezzare per la sua bellezza o la sua genialità. Si tratta di un componente elettronico dedito a certe funzioni, progettato e prodotto per soggiacere alle leggi del mercato, al fine di creare profitto per un'azienda.
E proprio per questo, se non svolge in modo soddisfacente le proprie funzioni primarie, è inevitabile che esso diventi automaticamente un "flop".
Ciò che mi preoccupa è il fatto che in tutti i progetti di tale complessità ci si trova a più riprese a dover affrontare dei problemi; ma di solito questi problemi, le cui tempistiche risolutive vengono messe in conto (come dato statistico) fin dal giorno in cui cominciano i lavori di progettazione, vengono risolti e alla fine si presenta al pubblico un prodotto che rispecchia molto da vicino quello che i progettisti avevano inizialmente in mente. Mentre io ho l'impressione che in questo caso, nonostante le ingenti risorse che si sono investite nel progetto, nonostante la enorme dilatazione dei tempi (6 mesi sono davvero tanti in termini informatici), e nonostante le molteplici revisioni della gpu eseguite in fase di pre-produzione, il prodotto finale continua a non essere quello che gli stessi progettisti speravano. E quindi la casa è costretta a vendere il prodotto ad un prezzo di molto inferiore a quanto preventivato. Se si aggiungono a tutto questo i notevoli problemi finanziari, dovuti a varie ragioni (taglio dei prezzi nel campo delle cpu amd, prosciugamento di capitale dovuto all'acquisizione di ati da parte di amd, crollo del titolo in borsa negli ultimi 6 mesi), e l'esistenza di una concorrenza che per ragioni storiche è già in tempi normali molto più potente, e che adesso ha dalla sua anche un prodotto più convincente e che gode di 6 mesi di presenza in più sul mercato, il quadretto è completo.
Inoltre anche sul fronte cpu c'è un progetto che sta fagocitando una gran quantità di risorse da circa 2 anni, ovvero il K10. Un'eventuale accoglienza tiepida del mercato anche di questo prodotto potrebbe voler significare guai seri per l'azienda. Dopotutto ricordiamoci che ati e amd sono sempre state, e sono tutt'ora, molto meno conosciute al grande pubblico, e sono condannate a dover fare prodotti migliori della concorrenza ed a prezzi più convenienti, per poi venderne di meno.
Ed inoltre godono di un substrato finanziario molto più debole di intel ed nvidia, per cui un eventuale "doppio flop" di r600 e k10 potrebbe essere veramente difficile da sostenere.
E' questa la mia preoccupazione di consumatore appassionato di informatica. E spero vivamente che sia esagerata rispetto allo stato effettivo delle cose.
Ciao
Condivido. E' evidente che R600 ha qualcosa che non va e io penso che il problema sia a livello hardware perché altrimenti non si spiegherebbe il suo comportamento con quelle specifiche tecniche (e mi riferisco soprattutto alla banda passante e al crollo delle prestazioni con AA). A tal proposito non credo che ci saranno stravolgimenti con i driver, anche se tutto è possibile visto che le informazioni che abbiamo al riguardo sono molto parziali.
K10 penso che non deluderà. Fortunatamente su questa CPU gli stessi rumours sono molto più positivi di quanto non sia accaduto per R600 e i primi benchmark non ufficiali lo danno come incredibilmente performante.
Secondo me con R650 vedremo fondamentalmente quello che doveva essere R600. Il passaggio a 65 nm insieme a qualche revisione fatta al volo per risolvere i presunti problemi hardware e a driver più maturi potrebbero risollevare le sorti di questa nuova generazione di schede video ATI.
Penso che a questo punto le forze di AMD debbano concentrarsi sui prodotti di fascia medio-bassa (dove NVIDIA con la 8600 non ha brillato) e nel non far attendere troppo R650.
MonsterMash
15-05-2007, 12:42
Penso che a questo punto le forze di AMD debbano concentrarsi sui prodotti di fascia medio-bassa (dove NVIDIA con la 8600 non ha brillato) e nel non far attendere troppo R650.
E spero veramente che ci riesca.
Ma dimmi, se tu investissi tutte le tue forze ed il tuo tempo in un progetto, e poi ti rendessi conto a metà strada che l'obbiettivo è irraggiungibile, come ti comporteresti? Io ci vedrei solo due alternative: ricominciare da zero tentando un'altra via, meno rischiosa ma anche meno innovativa. Oppure continuare il progetto già iniziato cercando di mettere toppe li' dove si può, a rischio di snaturare l'idea originale. In entrambi i casi, si arriverebbe al traguardo con notevole ritardo.
Ecco, io credo che ati abbia deciso per la seconda scelta. La complessità architetturale, e conseguentemente i consumi, il calore prodotto e la rumorosità del sistema di raffreddamento sono rimasti quelli del progetto originale. Ma a causa delle modifiche che hanno dovuto fare in corsa, le prestazioni e l'efficenza sono ben lontane da quelle del progetto originale.
Quello che spero io è che le fasce medie e basse non soffrano degli stessi problemi. Ma il fatto che siano state tardate quanto e più della fascia alta, mi fa pensare male...
leoneazzurro
15-05-2007, 12:49
Condivido. E' evidente che R600 ha qualcosa che non va e io penso che il problema sia a livello hardware perché altrimenti non si spiegherebbe il suo comportamento con quelle specifiche tecniche (e mi riferisco soprattutto alla banda passante e al crollo delle prestazioni con AA). A tal proposito non credo che ci saranno stravolgimenti con i driver, anche se tutto è possibile visto che le informazioni che abbiamo al riguardo sono molto parziali.
Probabile sia l'HW dedicato al MSAA. Ma da solo questo non spiega tutto. Probabile che il fatto di dover risolvere il downsampling nello shader core complichi pesantemente il lavoro di scheduling e ottimizzazione. Inoltre il nuovo ring bus è realmente nuovo, una evoluzione di quello precedente ma alla luce dei fatti probabilmente ancora più difficile da sfruttare decentemente. Sicuramente i nuovi drivers non potranno rendere R600 più veloce della GTX (tranne forse alcuni casi sporadici), però potrebbero renderla consistentemente superiore alla GTS, migliorando la situazione competitiva in attesa di R650. A tale proposito, lo stato dei drivers mi sembra estremamente strano, se realmente sono pronti da mesi: performances in alcuni casi inferiori alla X1950XTX, valori altalenanti in quasi tutti i tests da "quasi GTX" a "sotto GTS" anche in giochi chiaramente non limitati dalla capacità di texturing (ricordando anche che pur essendo la capacità di filtraggio di R600 inferiore a G80, dovrebbe essere comunque parecchio superiore a X1950), banda passante non sfruttata in AA, comportamenti strani anche con i test sintetici (es. 3DMark Shader test dove è alla pari con la GTS nonostante abbia 1,5x-2x potenza di calcolo delle ALU) ecc. ecc.
Questo potrebbe volere dire che:
1) o il lavoro di ottimizzazione per R600 è veramente complicato in maniera preoccupante, oppure
2) E' successo qualcosa a livello di realizzazione hardware (ritardi, feature non funzionanti) che ha costretto a riscrivere tutto praticamente da capo.
Secondo me con R650 vedremo fondamentalmente quello che doveva essere R600. Il passaggio a 65 nm insieme a qualche revisione fatta al volo per risolvere i presunti problemi hardware e a driver più maturi potrebbero risollevare le sorti di questa nuova generazione di schede video ATI.
Penso che a questo punto le forze di AMD debbano concentrarsi sui prodotti di fascia medio-bassa (dove NVIDIA con la 8600 non ha brillato) e nel non far attendere troppo R650.
E' possibile che se ci fosse qualche problema hardware in R600, questo non si ripresenti in RV630 e R610, dato che fisicamente sono chip diversi (e meno complessi). In particolare l'AA credo sia difficile che sia demandato agli shader in questi chip, dato che la potenza di calcolo è decisamente inferiore (vero anche che non sono chip nati per fare molto con AA attivato). Inoltre il rapporto RV630/R600 è migliore di quello G84/G80, sia dal punto di vista delle ALU che da quello del texturing (con i valori teorici di RV630 che dovrebbero essere appaiati anche nel peggiore dei casi a G84)
Per carità, facci sapere come va. Pagata quanto?
369 euro..
Chiedo scusa per l'OT però penso che il prezzo della scheda in negozio sia un'aspetto fondamentale da cui ricavare molte informazioni utili collegate in modo più o meno diretto alla situazione economica di AMD/ATI :D.
E spero veramente che ci riesca.
Ma dimmi, se tu investissi tutte le tue forze ed il tuo tempo in un progetto, e poi ti rendessi conto a metà strada che l'obbiettivo è irraggiungibile, come ti comporteresti? Io ci vedrei solo due alternative: ricominciare da zero tentando un'altra via, meno rischiosa ma anche meno innovativa. Oppure continuare il progetto già iniziato cercando di mettere toppe li' dove si può, a rischio di snaturare l'idea originale. In entrambi i casi, si arriverebbe al traguardo con notevole ritardo.
Ecco, io credo che ati abbia deciso per la seconda scelta. La complessità architetturale, e conseguentemente i consumi, il calore prodotto e la rumorosità del sistema di raffreddamento sono rimasti quelli del progetto originale. Ma a causa delle modifiche che hanno dovuto fare in corsa, le prestazioni e l'efficenza sono ben lontane da quelle del progetto originale.
Quello che spero io è che le fasce medie e basse non soffrano degli stessi problemi. Ma il fatto che siano state tardate quanto e più della fascia alta, mi fa pensare male...
Condivido le tue ipotesi, staremo a vedere :D.
halduemilauno
15-05-2007, 13:46
E spero veramente che ci riesca.
Ma dimmi, se tu investissi tutte le tue forze ed il tuo tempo in un progetto, e poi ti rendessi conto a metà strada che l'obbiettivo è irraggiungibile, come ti comporteresti? Io ci vedrei solo due alternative: ricominciare da zero tentando un'altra via, meno rischiosa ma anche meno innovativa. Oppure continuare il progetto già iniziato cercando di mettere toppe li' dove si può, a rischio di snaturare l'idea originale. In entrambi i casi, si arriverebbe al traguardo con notevole ritardo.
Ecco, io credo che ati abbia deciso per la seconda scelta. La complessità architetturale, e conseguentemente i consumi, il calore prodotto e la rumorosità del sistema di raffreddamento sono rimasti quelli del progetto originale. Ma a causa delle modifiche che hanno dovuto fare in corsa, le prestazioni e l'efficenza sono ben lontane da quelle del progetto originale.
Quello che spero io è che le fasce medie e basse non soffrano degli stessi problemi. Ma il fatto che siano state tardate quanto e più della fascia alta, mi fa pensare male...
quoto. è ovvio che le prestazioni e l'efficenza sono ben lontane da quelle del progetto originale. in origine l'R600 doveva essere la 8800gtx Killer e calcolando/tenendo conto del ritardo, a maggior ragione, e lo stesso nei confronti della 8800ultra.
;)
E spero veramente che ci riesca.
Ma dimmi, se tu investissi tutte le tue forze ed il tuo tempo in un progetto, e poi ti rendessi conto a metà strada che l'obbiettivo è irraggiungibile, come ti comporteresti? Io ci vedrei solo due alternative: ricominciare da zero tentando un'altra via, meno rischiosa ma anche meno innovativa. Oppure continuare il progetto già iniziato cercando di mettere toppe li' dove si può, a rischio di snaturare l'idea originale. In entrambi i casi, si arriverebbe al traguardo con notevole ritardo.
Ecco, io credo che ati abbia deciso per la seconda scelta. La complessità architetturale, e conseguentemente i consumi, il calore prodotto e la rumorosità del sistema di raffreddamento sono rimasti quelli del progetto originale. Ma a causa delle modifiche che hanno dovuto fare in corsa, le prestazioni e l'efficenza sono ben lontane da quelle del progetto originale.
Quello che spero io è che le fasce medie e basse non soffrano degli stessi problemi. Ma il fatto che siano state tardate quanto e più della fascia alta, mi fa pensare male...
Come dicevo in altri post, il prodotto e' quello e R600 si dimostra come hai anche tu gia' detto un prodotto complesso, tecnologicamente interessante ma non adatto allo scopo per cui e' stato creato, almeno non ora.
Credo che se questo sara' confermato, che AMD non potra' far altro che galleggiare con questo prodotto al momento cercando di spremere laddove sia possibile ottimizzare. Non vorrei sbilanciarmi ma come Vifani penso che il problema non sia relativo a bachi o a drivers immaturi. Il problema qui potrebbe davvero essere architetturale. Forse in quanto a "ricerca di complessita" AMD ha esagerato creando un qualcosa che non si traduce in benefit rispetto alle novita' architetturali. Certo, sulla carta impressiona il fatto che certi numeri siano tali da non far credere che possa posizionarsi in questa situazione. Ma dobbiamo forse accettare che questa generazione di GPU (almeno high end, forse il middle sara' ottimo e tale da aiutarli nella ripresa verso un R650 piu' roseo) potrebbe passare un po' in sordina.
Sui drivers non ottimizzati onestamente non ci credo molto perche' effettivamente il tempo per ottimizzarli lo hanno avuto. Non si puo' considerare un hard launch con mesi di anticipo concettuali e architetturali tali da rendere "comprensibile" uno sviluppo raffazzonato del software. Qui ormai dovremmo gia' essere allo stato dell'arte.
Condivido. E' evidente che R600 ha qualcosa che non va e io penso che il problema sia a livello hardware perché altrimenti non si spiegherebbe il suo comportamento con quelle specifiche tecniche (e mi riferisco soprattutto alla banda passante e al crollo delle prestazioni con AA). A tal proposito non credo che ci saranno stravolgimenti con i driver, anche se tutto è possibile visto che le informazioni che abbiamo al riguardo sono molto parziali.
Cut
Secondo me con R650 vedremo fondamentalmente quello che doveva essere R600. Il passaggio a 65 nm insieme a qualche revisione fatta al volo per risolvere i presunti problemi hardware e a driver più maturi potrebbero risollevare le sorti di questa nuova generazione di schede video ATI.
Cut
non far attendere troppo R650.
Sono d'accordo cone te Raffaele, e sinceramente questa situazione inizia a ricordarmi pesantemente quella della generazione precedente.
Sono l'unico che si ricorda la X1800, i problemi, le prestazioni e la presentazione della X1900 dopo quattro/cinque mesi?
Se i problemi maggiori sono dovuti ai driver od al compilatore VLIW ben presto se ne saprà di più, Ati non può essere troppo lontana da una soluzione, altrimenti avrebbe piuttosto ritardato ancora la presentazione della scheda.
Se invece il problema maggiore viene dall'architettura e dall'AA allora credo proprio che nella prossima versione del chip (R650?? Uhm, io avevo sentito un altro nome..) cercheranno di risolverli introducento transistor per quello scopo.
Sono d'accordo cone te Raffaele, e sinceramente questa situazione inizia a ricordarmi pesantemente quella della generazione precedente.
Sono l'unico che si ricorda la X1800, i problemi, le prestazioni e la presentazione della X1900 dopo quattro/cinque mesi?
Se i problemi maggiori sono dovuti ai driver od al compilatore VLIW ben presto se ne saprà di più, Ati non può essere troppo lontana da una soluzione, altrimenti avrebbe piuttosto ritardato ancora la presentazione della scheda.
Se invece il problema maggiore viene dall'architettura e dall'AA allora credo proprio che nella prossima versione del chip (R650?? Uhm, io avevo sentito un altro nome..) cercheranno di risolverli introducento transistor per quello scopo.
La prossima versione potrebbe essere quello che le 5900 dimostravano contro le 5800 di Nvidia, ma palesemente una rincorsa all'ottimizzazione.
Il progetto di ottimizzazione hardware dell'R600 sara' bello che completato perche' e' probabile che proprio questo sia stato fatto in tutti questi mesi. Idem per il software.
Non Vorrei che AMD-ATI abbia fatto il passo più lungo della gamba,perchè in questo mondo concorrenziale perdi il giro è sei fuori dai giochi,cmq prima di sentenziare ad un completo flop aspetto ulteriori test....
c'è da dire che forse la colpa è più di AMD che di ATI in quanto dopo l'acquisizione ha rivoluzionato buona parte della vecchia ATIe magari questo fatto ha reso la nuova generazione di Schede video non all'altezza delle aspettative,Speriamo in bene!!
La concorrenza fa bene agli utenti finali
Non Vorrei che AMD-ATI abbia fatto il passo più lungo della gamba,perchè in questo mondo concorrenziale perdi il giro è sei fuori dai giochi,cmq prima di sentenziare ad un completo flop aspetto ulteriori test....
c'è da dire che forse la colpa è più di AMD che di ATI in quanto dopo l'acquisizione ha rivoluzionato buona parte della vecchia ATIe magari questo fatto ha reso la nuova generazione di Schede video non all'altezza delle aspettative,Speriamo in bene!!
La concorrenza fa bene agli utenti finali
AMD con R600 non c'entra assolutamente niente. L'unica cosa forse, e dico forse, che ha cambiato è stata la scelta di rilasciarla ora. Dal punto di vista dell'architettura R600 era già pronto, dall'acquisizione ad oggi non c'è il tempo per cambiare le carte in tavola.
Brightblade
15-05-2007, 17:22
...
La concorrenza fa bene agli utenti finali
Tranne quando vengono usati cheats per stare al passo o superare di uno zic la concorrenza (edit. per avercelo piu' lungo nei benchmarks). Diciamo che la concorrenza leale fa bene agli utenti finali.
appleroof
15-05-2007, 19:18
K10 penso che non deluderà. Fortunatamente su questa CPU gli stessi rumours sono molto più positivi di quanto non sia accaduto per R600 e i primi benchmark non ufficiali lo danno come incredibilmente performante.
Scusate l'Ot...sono d'accordissimo e la rincorsa al ribasso dei prezzi di Intel (di oggi la notizia che a luglio ci sarà un ulteriore ribasso, addirittura anche per i quad) potrebbe essere un ulteriore segnale di cosa K10 può fare (ma anche no, diciamo che propendo abbastanza per la prima ipotesi)...
Probabile sia l'HW dedicato al MSAA. Ma da solo questo non spiega tutto. Probabile che il fatto di dover risolvere il downsampling nello shader core complichi pesantemente il lavoro di scheduling e ottimizzazione. Inoltre il nuovo ring bus è realmente nuovo, una evoluzione di quello precedente ma alla luce dei fatti probabilmente ancora più difficile da sfruttare decentemente. Sicuramente i nuovi drivers non potranno rendere R600 più veloce della GTX (tranne forse alcuni casi sporadici), però potrebbero renderla consistentemente superiore alla GTS, migliorando la situazione competitiva in attesa di R650. A tale proposito, lo stato dei drivers mi sembra estremamente strano, se realmente sono pronti da mesi: performances in alcuni casi inferiori alla X1950XTX, valori altalenanti in quasi tutti i tests da "quasi GTX" a "sotto GTS" anche in giochi chiaramente non limitati dalla capacità di texturing (ricordando anche che pur essendo la capacità di filtraggio di R600 inferiore a G80, dovrebbe essere comunque parecchio superiore a X1950), banda passante non sfruttata in AA, comportamenti strani anche con i test sintetici (es. 3DMark Shader test dove è alla pari con la GTS nonostante abbia 1,5x-2x potenza di calcolo delle ALU) ecc. ecc.
Questo potrebbe volere dire che:
1) o il lavoro di ottimizzazione per R600 è veramente complicato in maniera preoccupante, oppure
2) E' successo qualcosa a livello di realizzazione hardware (ritardi, feature non funzionanti) che ha costretto a riscrivere tutto praticamente da capo.
E' possibile che se ci fosse qualche problema hardware in R600, questo non si ripresenti in RV630 e R610, dato che fisicamente sono chip diversi (e meno complessi). In particolare l'AA credo sia difficile che sia demandato agli shader in questi chip, dato che la potenza di calcolo è decisamente inferiore (vero anche che non sono chip nati per fare molto con AA attivato). Inoltre il rapporto RV630/R600 è migliore di quello G84/G80, sia dal punto di vista delle ALU che da quello del texturing (con i valori teorici di RV630 che dovrebbero essere appaiati anche nel peggiore dei casi a G84)
Beh se il problema fosse veramente l'hardware dedicato al MSAA, questo comunque non spiegherebbe le prestazioni non esaltanti anche senza AA. Sicuramente c'è qualche altra cosa che non va. In ogni caso è presumibile pensare che RV630 e RV610 non soffrano di questi problemi (e poi detto fra noi l'AA in quella fascia di prezzo è quasi irrilevante) e che saranno competitivi anche perché, come ho già detto, NVIDIA non ha convinto al 100% con le sue 8600, anzi è probabilmente l'unica delusione, insieme allo sviluppo driver per Vista, che ha dato nell'ultimo anno.
Sono d'accordo cone te Raffaele, e sinceramente questa situazione inizia a ricordarmi pesantemente quella della generazione precedente.
Sono l'unico che si ricorda la X1800, i problemi, le prestazioni e la presentazione della X1900 dopo quattro/cinque mesi?
Se i problemi maggiori sono dovuti ai driver od al compilatore VLIW ben presto se ne saprà di più, Ati non può essere troppo lontana da una soluzione, altrimenti avrebbe piuttosto ritardato ancora la presentazione della scheda.
Se invece il problema maggiore viene dall'architettura e dall'AA allora credo proprio che nella prossima versione del chip (R650?? Uhm, io avevo sentito un altro nome..) cercheranno di risolverli introducento transistor per quello scopo.
Beh guarda le Radeon X1800 all'uscita erano competitive rispetto alla GeForce 7800 GTX, nonostante R520 fosse un chip in ritardo. Infatti NVIDIA dopo un mese introdusse le 7800 GTX 512 con frequenze maggiorate rispetto alle versioni 256 MB, anche se fu una sorta di lancio di puro marketing perché queste schede arrivarono letteralmente in pochissimi esemplari sul mercato.
Dopo 4 mesi ATI lanciò R580 a cui NVIDIA ha cotnrobattuto con G71. Il discorso però è che R520 comunque era competitivo nei confronti del prodotto di fascia alta di NVIDIA al suo lancio.
Benché R600 possa essere seguito a breve termine dal suo successore perché in ritardo esattamente come R520, la sua situazione, almeno in termini di immagine, è peggiore perché non è competitivo rispetto alle GeForce 8800 GTX (senza arrivare alle Ultra).
Poi è chiaro che uno deve guardare al rapporto prezzo/prestazioni e in tal senso le Radeon 2900 possono anche battersi, però con le Radeon X1800 XT ATI lanciò la sua scheda di fascia alta ed ebbe successo.
E' evidente che R650 non può farsi attendere e mi aspetto che non si faccia attendere esattamente cone fu per R580, però in questo caso la sua necessità è più incalzante anche perché deve necessariamente risultare competitivo in fascia alta (che quasi certamente non saranno le attuali G80, ma le future G90).
Un'altra cosa su cui riflettevo. Il lancio in questi giorni era dovuto, secondo AMD, al fatto di voler presentare sul mercato tutte le fasce di schede Dx10. Quello che vedo io attualmente è 1 (una) scheda lanciata realmente sul mercato, le altre sulla carta. Ok, non si poteva più posticipare ma... le altre schede dove sono finite? Lasciando perdere per ora le schede superiori alla XT che copre diciamo così la fascia alta, la fascia media latita. Nvidia ha lasciato passare mesi (non ricordo quanti) tra le 8800 e le 8600, speravo che AMD dal canto suo non lasciasse passare tempo, sarebbe stata una bella mossa far uscire contemporaneamente anche la fascia media e bassa. Se le promesse di competitività saranno mantenute (io, ribadisco, sono scettico ma sarò felice di essere smentito), lanciarle ora avrebbe tamponato lo "smacco" almeno dal punto di vista delle vendite. Difficile contrastare qualcuno che copre tutto il mercato con una scheda che ha molti punti interrogativi.
leoneazzurro
16-05-2007, 11:30
Beh se il problema fosse veramente l'hardware dedicato al MSAA, questo comunque non spiegherebbe le prestazioni non esaltanti anche senza AA. Sicuramente c'è qualche altra cosa che non va. In ogni caso è presumibile pensare che RV630 e RV610 non soffrano di questi problemi (e poi detto fra noi l'AA in quella fascia di prezzo è quasi irrilevante) e che saranno competitivi anche perché, come ho già detto, NVIDIA non ha convinto al 100% con le sue 8600, anzi è probabilmente l'unica delusione, insieme allo sviluppo driver per Vista, che ha dato nell'ultimo anno.
Infatti ho detto che l'HW per MSAA è uno dei problemi (tra l'altro dover schedulare anche l'AA nello shader core complica ulteriormente il lavoro di ottimizzazione). Comunque, discutendone in altra sede, pare che il problema principale sia proprio l'ottimizzazione degli shader, operazione complessa e difficile, e sopratutto da effettuare in congiunzione all'ottimizzazione del ring bus. Insomma, pare che ottimizzare per R600 sia un incubo (verrebbe da chiedersi perchè di cotanto maschismo, forse i carichi di lavoro DX10 sono così tanto differenti da quelli DX9 e più "parallelizzabili"?).
Questo a questo punto andrebbe ad influenzare anche le prestazioni delle schede inferiori, anche se c'è da dire che in un confronto RV630-G84 in proporzione molti dei limiti di R600 rispetto a G80 cadono: c'è più potenza relativa per le texture, un rapporto ROPS:ALU migliore ed essendo il chip più semplice la schedulazione potrebbe essere meno complessa da gestire (soprattutto se ci sono stati "affinamenti" qui e lì).
Infatti ho detto che l'HW per MSAA è uno dei problemi (tra l'altro dover schedulare anche l'AA nello shader core complica ulteriormente il lavoro di ottimizzazione). Comunque, discutendone in altra sede, pare che il problema principale sia proprio l'ottimizzazione degli shader, operazione complessa e difficile, e sopratutto da effettuare in congiunzione all'ottimizzazione del ring bus. Insomma, pare che ottimizzare per R600 sia un incubo (verrebbe da chiedersi perchè di cotanto maschismo, forse i carichi di lavoro DX10 sono così tanto differenti da quelli DX9 e più "parallelizzabili"?).
Questo a questo punto andrebbe ad influenzare anche le prestazioni delle schede inferiori, anche se c'è da dire che in un confronto RV630-G84 in proporzione molti dei limiti di R600 rispetto a G80 cadono: c'è più potenza relativa per le texture, un rapporto ROPS:ALU migliore ed essendo il chip più semplice la schedulazione potrebbe essere meno complessa da gestire (soprattutto se ci sono stati "affinamenti" qui e lì).
Si si, siamo perfettamente d'accordo. A questo punto c'è da chiedersi se realmente l'ottimizzazione driver sia fattibile e conveniente perché se per ottimizzarlo a dovere devono lavorarci per mesi, forse valeva la pena rendersene conto in fase di sviluppo hardware.
MonsterMash
16-05-2007, 16:40
Si, ma riflettete su una cosa: che la ati sia già o meno in procinto di cominciare la produzione di un respin a 65nm, in ogni caso la prossima sua gpu e presumibilmente anche molte altre delle generazioni successive, saranno basate su architetture complesse simili a quella della 2900xt. Quindi pensare che non stiano lavorando alacremente per venire a capo dei problemi dei driver è irrealistico. Gli stessi problemi e le stesse ottimizzazioni, se non vengono affrontati e risolti ora, dovranno essere affrontati e risolti per la prossima generazioni di gpu.
Per cui secondo me, anche volendo dare ragione a tutti quelli che dicono che la scelta di ati sia stata azzardata e che non stia pagando, ati persevererà in quella direzione. E i driver che spremeranno meglio questa scheda usciranno senz'altro. Quantomeno come test per il lavoro che dovranno fare sui driver per r650, che avrà sostanzialmente la stessa struttura.
P.S. Ho ordinato la 2900xt. Dovrebbero spedirla il 23 :D
Male andiam male, queste prestazioni così modeste della 2900 non fanno bene a nessuno, io non avevo certo intenzione di acquistare la nuova scheda ATi ma speravo andasse decisamente meglio, sarebbe stato un bene per tutti noi consumatori.
Qualcuno parlava di drive non maturi?!.... Direi che del tempo per programmarne ne hanno avuto più di quanto normalmente se ne ha per componenti come shede video che si sa purtroppo hanno una vita molto breve; mi pare che più che immaturi siano evidentemente difficili da ottimizzare sti drive, considerando poi i vari sistemi operativi Vista e XP, 64 e 32 bit mi sa che hanno un gra da scrivere sti programmatori; la recensione di Dinoxpc, se non sbaglio , dimostra che su Xp la scheda va meglio con evidenti differenza rispetto Vista.
L'architettua evidentemente troppo extremizzata o forse meglio, un po troppo sperimentale.
Il fatto è che se questo prodottto richiede troppo lavoro di ottimizzazione non è un prodotto reditizio per ATI.
Sono ancora convinto che il gap in dx10 si limerà ma bisogna vedere con quali sforzi il team di ATi ruìiuscirà a risollevare le sorti della 2900.
Io ho paura che il progetto 2900 debba essere profondamente rivisto; alla fine ATi vende schede video mica i drive.
leoneazzurro
16-05-2007, 19:14
Si si, siamo perfettamente d'accordo. A questo punto c'è da chiedersi se realmente l'ottimizzazione driver sia fattibile e conveniente perché se per ottimizzarlo a dovere devono lavorarci per mesi, forse valeva la pena rendersene conto in fase di sviluppo hardware.
Evidentemente in ATI hanno cercato di pensare a lungo (forse troppo) termine, e quindi il costo di ottimizzazione è stato messo in conto, ma giudicato "fattibile" se l'architettura deve durare parecchio. Anche altre features infatti sono quasi "irreali" (tipo il tessellatore Hardware).
Dave Baumann su B3D dichiara che l'SDK e i white papers saranno presentati a breve. Immagino che anche questo aiuterà.
-Feanor-
16-05-2007, 19:22
Evidentemente in ATI hanno cercato di pensare a lungo (forse troppo) termine, e quindi il costo di ottimizzazione è stato messo in conto, ma giudicato "fattibile" se l'architettura deve durare parecchio. Anche altre features infatti sono quasi "irreali" (tipo il tessellatore Hardware).
in fondo è quello che speriamo tutti.......il fatto che ati abbia guardato avanti deve essere visto in modo estremamente positivo.....sempre che il tempo dia ragione alle loro scelte di architettura e non solo....... e speriamo anche qui......:D .......per quanto riguarda il tassellatore hardware quoto....ma sono anche dell'opinione che se è stato inserito c'è gia qualche "idea" in proposito....non si spiega altrimenti,......
Evidentemente in ATI hanno cercato di pensare a lungo (forse troppo) termine, e quindi il costo di ottimizzazione è stato messo in conto, ma giudicato "fattibile" se l'architettura deve durare parecchio. Anche altre features infatti sono quasi "irreali" (tipo il tessellatore Hardware).
Dave Baumann su B3D dichiara che l'SDK e i white papers saranno presentati a breve. Immagino che anche questo aiuterà.
Sempre sperando che queste features innovative siano gradite agli sviluppatori e non facciano la fine del truform e compagnia.
Comunque potrebbe essere anche plausibile che al momento AMD non abbia deciso di puntare a questa fascia e le prestazioni siano semplicemente spiegate da una politica che punta piu' alla fascia media ora e alta un domani quando i processi produttivi saranno meno sfortunati.
Evidentemente in ATI hanno cercato di pensare a lungo (forse troppo) termine, e quindi il costo di ottimizzazione è stato messo in conto, ma giudicato "fattibile" se l'architettura deve durare parecchio. Anche altre features infatti sono quasi "irreali" (tipo il tessellatore Hardware).
Dave Baumann su B3D dichiara che l'SDK e i white papers saranno presentati a breve. Immagino che anche questo aiuterà.
ATI ha sempre fatto le cose in grande quando si trattava di nuove architetture, fin dai tempi della prima Radeon che aveva già all'interno una sua programmabilità che gli consentiva di supportare qualsiasi funzionalità della fixed pipeline dell'epoca. Anche R200 è stato tecnologicamente molto evoluto con il supporto alle DirectX 8.1 e con R300 fece il colpaccio supportando l'antialiasing multisampling fino a 6 samples e mettendo su un'architettura eccezionale e che ha avuto il suo da dire fino ad R480.
R300 probabilmente rappresentò per ATI il connubbio migliore tra innovazione dell'architettura ed assenza di problemi di produzione. Da allora i problemi purtroppo non sono mancati: R520 e R600, due GPU sempre innovative ma arrivate in ritardo, con il secondo anche discutibilmente competitivo attualmente.
Vedremo come si risolleverà la situazione.
ATI ha sempre fatto le cose in grande quando si trattava di nuove architetture, fin dai tempi della prima Radeon che aveva già all'interno una sua programmabilità che gli consentiva di supportare qualsiasi funzionalità della fixed pipeline dell'epoca. Anche R200 è stato tecnologicamente molto evoluto con il supporto alle DirectX 8.1 e con R300 fece il colpaccio supportando l'antialiasing multisampling fino a 6 samples e mettendo su un'architettura eccezionale e che ha avuto il suo da dire fino ad R480.
R300 probabilmente rappresentò per ATI il connubbio migliore tra innovazione dell'architettura ed assenza di problemi di produzione. Da allora i problemi purtroppo non sono mancati: R520 e R600, due GPU sempre innovative ma arrivate in ritardo, con il secondo anche discutibilmente competitivo attualmente.
Vedremo come si risolleverà la situazione.
Concordo.
halduemilauno
17-05-2007, 10:18
dopo ben 6 mesi di ritardo sulla sua concorrente ci si aspettava una scheda che fosse competitiva con la 8800gtx e con il suo refresh + o - annunciato 8800ultra. ebbene come si è visto tutto questo non è accaduto. per stessa ammissione di amd la hd2900xt va confrontata con la 8800gts. OK. ma c'è un particolare di 8800gts ce ne sono due. la 640 e la 320. come sappiamo le due schede sono identiche tranne che per il quantitativo di ram. sappiamo anche a cosa serve un maggior quantitativo di ram. ebbene la maggioranza degli utenti usa monitor da 17,19,21 pollici le cui risoluzioni sono tra il 1280x1024 e la 1600/1200. e abbiamo visto che a carattere generale la differenza di prestazioni tra le due gts è tra il nullo e il minimo. a questo punto ecco che si inserisce il confronto con la 2900xt quando questa la si deve utilizzare a quelle ris. essa a mio avviso la si deve confrontare con la 8800gts da 320 e qui entra la notevole differenza di prezzo superiore ai 100€. poi se a questo si aggiungono gli altri aspetti che sono emersi ovvero maggior consumo, calore, rumore da parte della 2900xt quest'ultima è veramente cosi competitiva?
è ovvio che negli scenari dove sono richiesti più mega di ram la gts320 non è più competitiva ma ecco che interviene la sorella da 640. e che costa anch'essa un 40 + o - € di meno.
e qui a tal proposito chiudo con una battuta. come diceva Bluto Blutarsky quando il gioco si fa duro...ecco quando il gioco si fa duro meglio averne 640 di mega invece che 512.
;)
PS ovviamente la mia voleva essere una riflessione basata soprattutto sul confronto con la 320 che pochi, forse nessuno ha fatto ma che è anch'essa una gts e che abbiamo visto che fino a un certo punto è assolutamente competitiva.
PS2 ovviamente tutto questo basandosi a carattere generale su prestazioni + o - allineate come abbiamo visto dalle rece + accreditate.
PS ovviamente la mia voleva essere una riflessione basata soprattutto sul confronto con la 320 che pochi, forse nessuno ha fatto ma che è anch'essa una gts e che abbiamo visto che fino a un certo punto è assolutamente competitiva.
PS2 ovviamente tutto questo basandosi a carattere generale su prestazioni + o - allineate come abbiamo visto dalle rece + accreditate.
Molti siti non prendono in considerazione la 320 perché è limitata ad alte risoluzioni ed in DX10 sembra arrancare, per esempio con la nuova demo di LostPlanet (lasciando stare le prestazioni ATI che sono però più che ampiamente giustificate dato che è un'applicazione per cui non c'è nulla a livello di driver) mette in difficoltà una scheda da 320Mbyte, ed i driver sono più che maturi... In realtà 320Mbyte per giocare oggi vanno più che bene praticamente in tutto, ma se si usano risoluzioni adeguate; quello che viene solitamente detto dai tifosi ATI è che la scheda con 320Mbyte consente di giocare con un numero di FPS maggiore di una X1900 (per esempio) però in situazioni nelle quali gli FPS della seconda sono in ogni caso molto più che accettabili. Praticamente dato che la 320Mbyte non consente di giocare ad alte risoluzioni per via della poca RAM è una scheda ottima per adesso ma che potrebbe avere forti limitazioni con giochi di domani. La 320Mbyte per me è la scheda migliore con un monitor 1280x1024 o equivalente, però effettivamnete con risoluzioni più alte potrebbe non andare bene...
"Today Nvidia is expected to host new DirectX 10 content on nZone.com in the form of a "Lost Planet" benchmark. Before you begin testing, there are a few points I want to convey about "Lost Planet". "Lost Planet" is an Nvidia-sponsored title, and one that Nvidia has had a chance to look at and optimize their drivers for. The developer has not made us aware of this new benchmark, and as such the ATI Radeon driver team has not had the opportunity explore how the benchmark uses our hardware and optimize in a similar fashion. Over the next little while AMD will be looking at this, but in the meantime, please note that whatever performance you see will not be reflective of what gamers will experience in the final build of the game."
Avete letto? Come la giudicate voi questa mail ricevuta alla redazione di HwUpgrade e nominata nell'articolo di Alessandro?
"Today Nvidia is expected to host new DirectX 10 content on nZone.com in the form of a "Lost Planet" benchmark. Before you begin testing, there are a few points I want to convey about "Lost Planet". "Lost Planet" is an Nvidia-sponsored title, and one that Nvidia has had a chance to look at and optimize their drivers for. The developer has not made us aware of this new benchmark, and as such the ATI Radeon driver team has not had the opportunity explore how the benchmark uses our hardware and optimize in a similar fashion. Over the next little while AMD will be looking at this, but in the meantime, please note that whatever performance you see will not be reflective of what gamers will experience in the final build of the game."
Avete letto? Come la giudicate voi questa mail ricevuta alla redazione di HwUpgrade e nominata nell'articolo di Alessandro?
Ne stavamo discutendo, è una mail che si potrebbe definire "pubblica", è apparsa in giro poche ore dopo il rilascio della demo di LostPlanet. Io credo che allo stato attuale le performance delle 2900XT non possono essere giudicate con LostPlanet, ed è assolutamente necessario aspettare dei driver adeguati ;).
"Today Nvidia is expected to host new DirectX 10 content on nZone.com in the form of a "Lost Planet" benchmark. Before you begin testing, there are a few points I want to convey about "Lost Planet". "Lost Planet" is an Nvidia-sponsored title, and one that Nvidia has had a chance to look at and optimize their drivers for. The developer has not made us aware of this new benchmark, and as such the ATI Radeon driver team has not had the opportunity explore how the benchmark uses our hardware and optimize in a similar fashion. Over the next little while AMD will be looking at this, but in the meantime, please note that whatever performance you see will not be reflective of what gamers will experience in the final build of the game."
Avete letto? Come la giudicate voi questa mail ricevuta alla redazione di HwUpgrade e nominata nell'articolo di Alessandro?
Mi pare doveroso tener conto di questo fatto...che imho però era palese anche senza la mail di ATI. Voglio dire, che nVidia abbia avuto tutte le possibilità del mondo di lavorare su Lost Planet si sapeva, no? A questo punto basta dare una rapida occhiata agli screens del gioco per capire che i driver di R600 non sanno proprio da che parte prenderlo quel motore grafico..
CIaO
Ne stavamo discutendo, è una mail che si potrebbe definire "pubblica", è apparsa in giro poche ore dopo il rilascio della demo di LostPlanet. Io credo che allo stato attuale le performance delle 2900XT non possono essere giudicate con LostPlanet, ed è assolutamente necessario aspettare dei driver adeguati ;).
Concordo sebbene c'e' da dire che questa sia l'ennesima mazzata dopo una bella serie. Drivers o meno non e' una bella figura e sembra che la demo esca proprio "ad hoc". Sicuramente mosse di marketing concorrenti studiate a tavolino e in cui i $ che girano sono tanti.
"Today Nvidia is expected to host new DirectX 10 content on nZone.com in the form of a "Lost Planet" benchmark. Before you begin testing, there are a few points I want to convey about "Lost Planet". "Lost Planet" is an Nvidia-sponsored title, and one that Nvidia has had a chance to look at and optimize their drivers for. The developer has not made us aware of this new benchmark, and as such the ATI Radeon driver team has not had the opportunity explore how the benchmark uses our hardware and optimize in a similar fashion. Over the next little while AMD will be looking at this, but in the meantime, please note that whatever performance you see will not be reflective of what gamers will experience in the final build of the game."
Avete letto? Come la giudicate voi questa mail ricevuta alla redazione di HwUpgrade e nominata nell'articolo di Alessandro?
Doom 3 docet :O
:asd:
MonsterMash
17-05-2007, 14:05
Su una cosa non ho il minimo dubbio. Ovvero che amd abbia gestito in maniera pessima tutta questa faccenda.
Una scheda che si sia fatta attendere tanto avrebbe certamente bisogno di ottimi driver che le permettano di essere da subito competitiva, ma in assenza di questo, almeno avrebbe bisogno di una presentazione gridata, accompagnata da campane e colpi di cannone che tenti di "stupirci con effetti speciali".
Mi sarei aspettato una presentazione al mondo intero (e non solo a 4 gatti sotto nda) in cui si mostravano tutte le potenzialità del chip. Tech demo a volontà, dimostrazione degli effetti dx10 da far restare a bocca aperta, decoding hdmi, encoding in tempo reale, qualche applicazione che sfruttasse le potenzialità nel calcolo general purpose (tipo folding@home, o simili), il tutto tra giochi pirotecnici, lucine di natale e ragazze in bikini.
E' così che ci si fa pubblicità :)
E invece niente... ma proprio NIENTE! Danno le scatole (senza driver o con driver non funzionanti) ai giornalisti del settore, e poi scompaiono. Questo avrebbero potuto farlo solo se fossero stati arcisicuri della assoluta superiorità in ogni campo del proprio prodotto. Superiorità che sarebbe apparsa oggettiva a chiunque l'avesse provata, tecnico o no, preparato o no, e con qualsiasi software.
Mah
Su una cosa non ho il minimo dubbio. Ovvero che amd abbia gestito in maniera pessima tutta questa faccenda.
Una scheda che si sia fatta attendere tanto avrebbe certamente bisogno di ottimi driver che le permettano di essere da subito competitiva, ma in assenza di questo, almeno avrebbe bisogno di una presentazione gridata, accompagnata da campane e colpi di cannone che tenti di "stupirci con effetti speciali".
Mi sarei aspettato una presentazione al mondo intero (e non solo a 4 gatti sotto nda) in cui si mostravano tutte le potenzialità del chip. Tech demo a volontà, dimostrazione degli effetti dx10 da far restare a bocca aperta, decoding hdmi, encoding in tempo reale, qualche applicazione che sfruttasse le potenzialità nel calcolo general purpose (tipo folding@home, o simili), il tutto tra giochi pirotecnici, lucine di natale e ragazze in bikini.
E' così che ci si fa pubblicità :)
E invece niente... ma proprio NIENTE! Danno le scatole (senza driver o con driver non funzionanti) ai giornalisti del settore, e poi scompaiono. Questo avrebbero potuto farlo solo se fossero stati arcisicuri della assoluta superiorità in ogni campo del proprio prodotto. Superiorità che sarebbe apparsa oggettiva a chiunque l'avesse provata, tecnico o no, preparato o no, e con qualsiasi software.
Mah
Per quello io penso a differenza di molti che AMD abbia semplicemente voltato la faccia a questa generazione di chip high end fiduciosa probabilmente per il refresh se esso sara' tale o direttamente una nuova generazione nel prossimo futuro cercando di guadagnare quanto possibile sulla fascia media.
E poi la demo di Lost Planet era stata annunciata (a noi poveri mortali) gia' da un po' o sbaglio? Vogliamo dire che loro non erano a conoscenza e ignoravano che ci sarebbe stato questo "banco prova" a breve disponibile (guarda caso) pochi giorni dopo l'uscita della loro scheda? ;)
Per quello io penso a differenza di molti che AMD abbia semplicemente voltato la faccia a questa generazione di chip high end fiduciosa probabilmente per il refresh se esso sara' tale o direttamente una nuova generazione nel prossimo futuro cercando di guadagnare quanto possibile sulla fascia media.
E poi la demo di Lost Planet era stata annunciata (a noi poveri mortali) gia' da un po' o sbaglio? Vogliamo dire che loro non erano a conoscenza e ignoravano che ci sarebbe stato questo "banco prova" a breve disponibile (guarda caso) pochi giorni dopo l'uscita della loro scheda? ;)
Personalmente con un pizzico di malizia credo che nVidia abbia pagato per avere l'uscita della demo qualche giorno dopo la presentazione delle schede ATI, proprio per far vedere che le sue schede in DX10 comandano alla grande. Avere un'applicazione come questa aiuta molti utenti non troppo attenti a scegliere nVidia; io credo che ci siano da aspettare drivers adeguati da parte di ATI, ma che cmq questo bench sarà sempre a favore di nVidia ;).
Athlon 64 3000+
17-05-2007, 14:59
Per quanto riguardo l'AA in R600 esiste la circuiteria decidata all'interno delle rop's per effettuare il MSAA e con i driver di adesso per via di un bug non lo sfrutta e usa le unità di shading che fanno crollare le prestazioni quando si applica il MSAA.
Per quando riguarda invece i giochi che faranno uso dell'HDR particolare che c'è in Stalker e nei giochi ch faranno uso dell'U.E.3 purtroppo R600 ricorrerà alle unità di shading per effettuare l'AA per questione di compatibilità.
appleroof
17-05-2007, 15:03
Personalmente con un pizzico di malizia credo che nVidia abbia pagato per avere l'uscita della demo qualche giorno dopo la presentazione delle schede ATI, proprio per far vedere che le sue schede in DX10 comandano alla grande. Avere un'applicazione come questa aiuta molti utenti non troppo attenti a scegliere nVidia; io credo che ci siano da aspettare drivers adeguati da parte di ATI, ma che cmq questo bench sarà sempre a favore di nVidia ;).
Un pizzico di malizia? E' ovvio che sia così, non sarebbe certo la prima volta...
Per quanto riguardo l'AA in R600 esiste la circuiteria decidata all'interno delle rop's per effettuare il MSAA e con i driver di adesso per via di un bug non lo sfrutta e usa le unità di shading che fanno crollare le prestazioni quando si applica il MSAA.
Per quando riguarda invece i giochi che faranno uso dell'HDR particolare che c'è in Stalker e nei giochi ch faranno uso dell'U.E.3 purtroppo R600 ricorrerà alle unità di shading per effettuare l'AA per questione di compatibilità.
Sperando che non siano problemi hardware e non software.
E in ogni caso non si intende solo nei casi in cui si usa l'AA.
Foglia Morta
17-05-2007, 15:38
Sperando che non siano problemi hardware e non software.
E in ogni caso non si intende solo nei casi in cui si usa l'AA.
Mi sa che il problema sta nel fare cose troppo avanti e che ora non servono...
Huddy cita Stalker , tra l'altro uno dei giochi in cui sta andando peggio R600 se ricordo bene.
http://www.custompc.co.uk/custompc/news/112773/amd-explains-poor-radeon-hd-2900xt-aa-performance.html
http://img292.imageshack.us/img292/1415/497802152f90e93d76eozz4.jpg
AMD explains Radeon HD 2900XT's poor AA performance 1:16PM, Monday 14th May 2007
The R600 is finally here, and in keeping with its mysteriously long gestation, in at least in its first incarnation as the HD 2900XT, AMD's new GPU still poses a lot of questions. One of the things we noticed during our in-depth testing of the card is that compared to its principle rival, the Nvidia GeForce 8800 GTS 640MB, the HD 2900XT performs poorly in many games when anti-aliasing is enabled.
In F.E.A.R., at 1,600 x 1,200, with AA and AF disabled, the HD 2900XT easily outstripped the 640MB 8800 GTS, delivering a minimum that was 23fps higher than the latter's. However, with 4x AA, the HD 2900XT's minimum framerate dived from 82fps to 21fps, while the 640MB 8800 GTS produced a minimum of 30fps. Adding 4x AA results in a 74% drop for the Radeon, compared to only a 49% drop for the GeForce.
The Radeon's framerates suffer disproportionately with anisotropic filtering, too. Again testing in F.E.A.R. at 1,600 x 1,200, we saw the HD 2900XT's minimum FPS drop by 10 per cent with 16x anisotropic enabled, compared to 3 per cent for the GTS, although the HD 2900XT still had a faster average. It was a slightly different result at 2,560 x 1,600, as the HD 2900XT's massive bandwidth gave it a boost, although adding 16x AF still had more impact than it did on the 640MB GTS.
As most gamers will want AA and AF enabled in games, the HD 2900XT's poor performance with these processing options enabled is a serious problem for the card and ATi. We asked ATi to comment on this surprising result and the company revealed that the HD 2000-series architecture has been optimised for what it calls 'shader-based AA'. Some games, including S.T.A.L.K.E.R., already use shader-based AA, although in our tests the 640MB 8800 GTS proved to be faster than the HD 2900XT.
We asked Richard Huddy, Worldwide Developer Relations Manager of AMD's Graphics Products Group, to go into more detail about why the Radeon HD 2000-series architecture has been optimised for shader-based AA rather than traditional multi-sample AA. He told us that 'with the most recent generations of games we've seen an emphasis on shader complexity (mostly more maths) with less of the overall processing time spent on the final part of the rendering process which is "the AA resolve". The resolve still needs to happen, but it's becoming a smaller and smaller part of the overall load. Add to that the fact that HDR rendering requires a non-linear AA resolve and you can see that the old fashioned linear AA resolve hardware is becoming less and less significant.' Huddy also explained that traditional AA 'doesn't work correctly [in games with] HDR because pixel brightness is non-linear in HDR rendering.'
While many reviews of the HD 2900XT have made unflattering comparisons between it and Nvidia's GeForce 8800-series, Huddy was upbeat about AMD's new chip. 'Even at high resolutions, geometry aliasing is a growing problem that can only really be addressed by shader-based anti-aliasing. You'll see that there is a trend of reducing importance for the standard linear AA resolve operation, and growing importance for custom resolves and shader-based AA. For all these reasons we've focused our hardware efforts on shader horsepower rather than the older fixed-function operations. That's why we have so much more pure floating point horsepower in the HD 2900XT GPU than NVIDIA has in its 8800 cards... There's more value in a future-proof design such as ours because it focuses on problems of increasing importance, rather than on problems of diminishing importance."
Parlo da profano, perdonatemi se dirò delle castronerie, ma pensando alla tech demo di Lost Planet mi vengono in mente le seguenti considerazioni:
La prima GPU a muovere Lost Planet, che io sappia, è stato quell'R500 infilato dentro la nuova console Microsoft, GPU -sempre che io sappia- che è stata la prima ad offrire al mondo un'architettura a shader unificati.
Quello che proprio non mi torna quindi, è come sia stato possibile per ATI passare dalla serie X1800-X1900 in grado -per stessa ammissione di ATI- di riprendere alcune scelte architetturali di quella GPU con ottimi risultati, all'attuale R600, a mio modo di vedere molto più simile a R500, eppure così distante alla prova dei fatti.
Voglio dire, da profano mi vien facile credere che un codice come quello di Lost Planet, già scritto per sfruttare una GPU a shader unificati, possa andare a braccetto con l'hardware delle HD2900 XT, mentre così non sembra essere.
Evidentemente ho un concetto molto semplicistico di queste architetture ^__^
leoneazzurro
17-05-2007, 17:39
CUT...
Si, a quanto pare la scelta di fare AA negli shaders è deliberata, comunque a quanto ho visto il problema grosso è nella lentezza di accesso alle texture, non tanto dal punto di vista del fill rate puro, quanto in termini di latenza, che nel caso gli shader abbiano anche un moderato uso di accessi alle texture taglia le gambe alle prestazioni. Insomma: shader lunghi + non troppi accessi alle texture -> R600 va meglio, negli altri casi l'efficienza diminuisce. l'Antialiasing a questo punto taglia le gambe perchè anche in quel caso si hanno parecchi accessi alle texture. Non so quanto quantificare però quanto l'ottimizzazione del ring bus possa migliorare la situazione.
Kharonte85
17-05-2007, 17:50
Concordo sebbene c'e' da dire che questa sia l'ennesima mazzata dopo una bella serie. Drivers o meno non e' una bella figura e sembra che la demo esca proprio "ad hoc". Sicuramente mosse di marketing concorrenti studiate a tavolino e in cui i $ che girano sono tanti.
Quoto, incredibile come Nvidia abbia probabilmente programmato sia l'uscita dei nuovi driver per Call of juarez che l'uscita di Lost Planet :)
Si, a quanto pare la scelta di fare AA negli shaders è deliberata, comunque a quanto ho visto il problema grosso è nella lentezza di accesso alle texture, non tanto dal punto di vista del fill rate puro, quanto in termini di latenza, che nel caso gli shader abbiano anche un moderato uso di accessi alle texture taglia le gambe alle prestazioni. Insomma: shader lunghi + non troppi accessi alle texture -> R600 va meglio, negli altri casi l'efficienza diminuisce. l'Antialiasing a questo punto taglia le gambe perchè anche in quel caso si hanno parecchi accessi alle texture. Non so quanto quantificare però quanto l'ottimizzazione del ring bus possa migliorare la situazione.
Quindi le scarse prestazioni con AA sarebbero dipendenti dall'architettura (e dalla programmazione del gioco) e non dai driver...:mc:
Mi sa che il problema sta nel fare cose troppo avanti e che ora non servono...
Ciao Foglia, mi stavo preoccupando (temevo fossi morto :O [da notare la battuta sul nick :read: :D ] dopo aver visto i bench :sofico:)...dopo tanta attesa un tuo commento era d'obbligo...e in linea di principio sono d'accordo :)
leoneazzurro
17-05-2007, 17:57
Quoto, incredibile come Nvidia abbia probabilmente programmato sia l'usita dei nuovi driver per Call of juarez che l'uscita di Lost Planet :)
Quindi le scarse prestazioni con AA sarebbero dipendenti dall'architettura (e dalla programmazione del gioco) e non dai driver...:mc:
Non è detto: bisogna vedere come mai ci sia questo problema. Se è un problema SW, si potrà ovviare, almeno in larga parte. Se è un problema Hardware, no.
Il fatto è che teoricamente l'efficienza in pixel shading di R600 al momento è circa la metà di G80, e non credo proprio che questo sia voluto. Ma basta qualche ciclo di latenza in più del previsto per scompigliare uno scheduling complesso come quello di R600. Quindi potrebbe essere che il memory conroller non stia lavorando efficientemente. Il ring bus è programmabile entro certi ambiti, ma non è semplice bilanciare il traffico in un'architettura del genere.
Kharonte85
17-05-2007, 18:02
Non è detto: bisogna vedere come mai ci sia questo problema. Se è un problema SW, si potrà ovviare, almeno in larga parte. Se è un problema Hardware, no.
Il fatto è che teoricamente l'efficienza in pixel shading di R600 al momento è circa la metà di G80, e non credo proprio che questo sia voluto. Ma basta qualche ciclo di latenza in più del previsto per scompigliare uno scheduling complesso come quello di R600. Quindi potrebbe essere che il memory conroller non stia lavorando efficientemente. Il ring bus è programmabile entro certi ambiti, ma non è semplice bilanciare il traffico in un'architettura del genere.
In sostanza bisognera' aspettare ancora (la recensione di oggi coi "famosi" driver 8.37.4.2 (alias 8.38 Indicati nelle prove con *) non ha dato significativi Boost) per capire come stanno le cose.
leoneazzurro
17-05-2007, 18:04
In sostanza bisognera' aspettare ancora (la recensione di oggi coi "famosi" driver 8.37.4.2 (alias 8.38) non ha dato ignificativi Boost) per capire come stanno le cose.
L'8.38 non è quello testato oggi, comunque un driver WHQL dovrebbe uscire il 22 Maggio. Considerato tutto, però credo che per vedere sfruttate decentemente le potenzialità di R600 bisognerà aspettare altri 6 mesi almeno.
Kharonte85
17-05-2007, 18:06
L'8.38 non è quello testato oggi, comunque un driver WHQL dovrebbe uscire il 22 Maggio. Considerato tutto, però credo che per vedere sfruttate decentemente le potenzialità di R600 bisognerà aspettare altri 6 mesi almeno.
Sicuro?
Nota importante: i test della prima sessione sono stati condotti utilizzando due release di driver, in riferimento alla scheda ATI Radeon HD 2900 XT. I nuovi driver, indicati con la sigla 8.37.4.2_47322 (contro gli 8-37-4-070419a-046507E utilizzati nel resto della comparativa), sono quelli utilizzati con la scheda ATI HD 2900 XT contrassegnata dall'asterisco*. Si tratta allo stato attuale dei driver più aggiornati e impropriamente indicati online come versione "8.38"
6 mesi sono eterni :cry:
leoneazzurro
17-05-2007, 18:12
Sicuro?
Nota importante: i test della prima sessione sono stati condotti utilizzando due release di driver, in riferimento alla scheda ATI Radeon HD 2900 XT. I nuovi driver, indicati con la sigla 8.37.4.2_47322 (contro gli 8-37-4-070419a-046507E utilizzati nel resto della comparativa), sono quelli utilizzati con la scheda ATI HD 2900 XT contrassegnata dall'asterisco*. Si tratta allo stato attuale dei driver più aggiornati e impropriamente indicati online come versione "8.38"
6 mesi sono eterni :cry:
Sono appunto gli 8.37.4.2.
Gli 8.38 sono la base del driver che deve uscire il 22.
Esiste anche una versione 8.39 che non è stata ancora "leakata".
Kharonte85
17-05-2007, 18:15
Sono appunto gli 8.37.4.2.
Gli 8.38 sono la base del driver che deve uscire il 22.
Esiste anche una versione 8.39 che non è stata ancora "leakata".
Appunto, non infiliamoci in un tunnel :D
Volevo dire nel senso che questi erano gli 8.38 su cui molti avevano puntato per una prestazione maggiore...cmq aspettiamo le prossime revisioni, ma nel frattempo le Nvidia vendono...
Per quello io penso a differenza di molti che AMD abbia semplicemente voltato la faccia a questa generazione di chip high end fiduciosa probabilmente per il refresh se esso sara' tale o direttamente una nuova generazione nel prossimo futuro cercando di guadagnare quanto possibile sulla fascia media.
E poi la demo di Lost Planet era stata annunciata (a noi poveri mortali) gia' da un po' o sbaglio? Vogliamo dire che loro non erano a conoscenza e ignoravano che ci sarebbe stato questo "banco prova" a breve disponibile (guarda caso) pochi giorni dopo l'uscita della loro scheda? ;)
per la prima parte concordo
per la seconda amd, da parte sua, ha fatto lo stesso con C of J mi sembra che nei primi bench manco partiva il g80
appleroof
17-05-2007, 19:03
per la prima parte concordo
per la seconda amd, da parte sua, ha fatto lo stesso con C of J mi sembra che nei primi bench manco partiva il g80
Esatto, per quello prima dicevo :
Un pizzico di malizia? E' ovvio che sia così, non sarebbe certo la prima volta...
;)
Foglia Morta
17-05-2007, 21:26
Si, a quanto pare la scelta di fare AA negli shaders è deliberata, comunque a quanto ho visto il problema grosso è nella lentezza di accesso alle texture, non tanto dal punto di vista del fill rate puro, quanto in termini di latenza, che nel caso gli shader abbiano anche un moderato uso di accessi alle texture taglia le gambe alle prestazioni. Insomma: shader lunghi + non troppi accessi alle texture -> R600 va meglio, negli altri casi l'efficienza diminuisce. l'Antialiasing a questo punto taglia le gambe perchè anche in quel caso si hanno parecchi accessi alle texture. Non so quanto quantificare però quanto l'ottimizzazione del ring bus possa migliorare la situazione.
Secondo te con un ipotetico R600 a 65nm la gpu oltre ad avere un die più piccolo avrebbe anche meno transistors come è capitato con il passaggio tra G70 ( 302 mln ) e G71 ( 278 mln ) ?
Leggendo queste ultime righe ( http://uk.theinquirer.net/?article=39690 ):
Of course, unless a certain product codenamed R670 (65nm R600) does not require equal amount of juice. Judging by our sources, design plan is to cut the power by a milestone, so it should not be the case. µ
All the pictures were provided courtesy of dottore Corsini from HWupgrade.it. Thanks buddy.
R670 sarebbe un R600 a 65nm quindi con (a fantasia ) anche frequenze più alte.
Da una slide AMD si direbbe che RV630 abbia un die di 160mm2 con 390 mln di transistors . Se per ipotesi da R600 a R670 ci fosse lo stesso risparmio ( in percentuale ) di transistors che c'è stato fra G70 e G71 allora R670 avrebbe intorno ai 640-650mln di transistors. A occhio e croce un R650 con il 50% di unità di calcolo in più rispetto a R650 quanti ne avrebbe ? ( l'ipotesi di 480 unità madd è fondata perchè Orton aveva detto che la generazione R6XX sarebbe potuta arrivare a 96 shader )
Mi sa che il problema sta nel fare cose troppo avanti e che ora non servono...
Huddy ....
CUT
dopo la lettura del tuo post la sensazione che se ne ricava e' che abbiano commercializzato un "prototipo" (e come tale commercialmente poco utile in un mercato abituato a divorare velocemente i prodotti, temo che R600 per come e' non avrà il tempo di diventare un cigno temo rimanga un brutto anatroccolo e che venga superato dai nuovi chip sia nvidia che di ati stessa)
dopo la lettura del tuo post la sensazione che se ne ricava e' che abbiano commercializzato un "prototipo" (e come tale commercialmente poco utile in un mercato abituato a divorare velocemente i prodotti, temo che R600 per come e' non avrà il tempo di diventare un cigno temo rimanga un brutto anatroccolo e che venga superato dai nuovi chip sia nvidia che di ati stessa)
Ho paura che sara' cosi'; potrebbe essere che AMD stessa faccia (come gia' visto per X1800) un veloce refresh per sfruttare la tecnologia ma ritornare un auge nel mercato high end.
Speriamo bene.
leoneazzurro
18-05-2007, 08:37
Secondo te con un ipotetico R600 a 65nm la gpu oltre ad avere un die più piccolo avrebbe anche meno transistors come è capitato con il passaggio tra G70 ( 302 mln ) e G71 ( 278 mln ) ?
Leggendo queste ultime righe ( http://uk.theinquirer.net/?article=39690 ):
Of course, unless a certain product codenamed R670 (65nm R600) does not require equal amount of juice. Judging by our sources, design plan is to cut the power by a milestone, so it should not be the case. µ
All the pictures were provided courtesy of dottore Corsini from HWupgrade.it. Thanks buddy.
R670 sarebbe un R600 a 65nm quindi con (a fantasia ) anche frequenze più alte.
Da una slide AMD si direbbe che RV630 abbia un die di 160mm2 con 390 mln di transistors . Se per ipotesi da R600 a R670 ci fosse lo stesso risparmio ( in percentuale ) di transistors che c'è stato fra G70 e G71 allora R670 avrebbe intorno ai 640-650mln di transistors. A occhio e croce un R650 con il 50% di unità di calcolo in più rispetto a R650 quanti ne avrebbe ? ( l'ipotesi di 480 unità madd è fondata perchè Orton aveva detto che la generazione R6XX sarebbe potuta arrivare a 96 shader )
La mia ipotesi è che R650 avrebbe più transistors, e sarebbe 4xRV630, quindi 96 shader unit e 8 TU, Comunque potrebbe essere intorno agli 850 milioni.
Per quanto riguardo l'AA in R600 esiste la circuiteria decidata all'interno delle rop's per effettuare il MSAA e con i driver di adesso per via di un bug non lo sfrutta e usa le unità di shading che fanno crollare le prestazioni quando si applica il MSAA.
Per quando riguarda invece i giochi che faranno uso dell'HDR particolare che c'è in Stalker e nei giochi ch faranno uso dell'U.E.3 purtroppo R600 ricorrerà alle unità di shading per effettuare l'AA per questione di compatibilità.
Huddy cita Stalker , tra l'altro uno dei giochi in cui sta andando peggio R600 se ricordo bene.
http://www.custompc.co.uk/custompc/news/112773/amd-explains-poor-radeon-hd-2900xt-aa-performance.html
Si, a quanto pare la scelta di fare AA negli shaders è deliberata, comunque a quanto ho visto il problema grosso è nella lentezza di accesso alle texture, non tanto dal punto di vista del fill rate puro, quanto in termini di latenza, che nel caso gli shader abbiano anche un moderato uso di accessi alle texture taglia le gambe alle prestazioni. Insomma: shader lunghi + non troppi accessi alle texture -> R600 va meglio, negli altri casi l'efficienza diminuisce. l'Antialiasing a questo punto taglia le gambe perchè anche in quel caso si hanno parecchi accessi alle texture. Non so quanto quantificare però quanto l'ottimizzazione del ring bus possa migliorare la situazione.
...da "piccolo apprendista abbastanza ignorante" quale sono, mi sembra d'aver capito che la circuiteria decidata per calcolare MSAA è questa:
http://techreport.com/reviews/2007q2/radeon-hd-2900xt/block-renderbackend.gif
...quindi, ancor di più, non riesco a capacitarmi di certe scadenti prestazioni con AA. Se escludo a priori che quella parte hardware sia non perfettamente funzionante, mi viene da pensare a problemi di ottimizzazione dei driver. Leoneazzurro, ho capito cos'hai scritto, quindi a questo punto l'imputato numero uno diventa la lentezza di accesso alle texture...o c'è qualcosa che mi sfugge? Ma yoss che fine ha fatto??? chi è che lo chiama??? non abbiamo ancora letto un suo parere su questo dannato R600!
ps. scusate se ho postato qua, ma di là ormai è un supermercato.
Athlon 64 3000+
18-05-2007, 09:21
...da "piccolo apprendista abbastanza ignorante" quale sono, mi sembra d'aver capito che la circuiteria decidata per calcolare MSAA è questa:
http://techreport.com/reviews/2007q2/radeon-hd-2900xt/block-renderbackend.gif
...quindi, ancor di più, non riesco a capacitarmi di certe scadenti prestazioni con AA. Se escludo a priori che quella parte hardware sia non perfettamente funzionante, mi viene da pensare a problemi di ottimizzazione dei driver. Leoneazzurro, ho capito cos'hai scritto, quindi a questo punto l'imputato numero uno diventa la lentezza di accesso alle texture...o c'è qualcosa che mi sfugge? Ma yoss che fine ha fatto??? chi è che lo chiama??? non abbiamo ancora letto un suo parere su questo dannato R600!
ps. scusate se ho postato qua, ma di là ormai è un supermercato.
Come pensavo la circuiteria dedicata nelle rop's dedicata al MSAA c'è ma per il momento non viene usata e non credo che sia bacato a livello hardware e per il momento io credo che sia proprio sia un problema di driver.
Kharonte85
18-05-2007, 09:26
Come pensavo la circuiteria dedicata nelle rop's dedicata al MSAA c'è ma per il momento non viene usata e non credo che sia bacato a livello hardware e per il momento io credo che sia proprio un problema di hardware.
:what: Deciditi :D
Athlon 64 3000+
18-05-2007, 09:28
Come devo interpretare il tuo pensiero? :)
scusate ho scritto una cagata allucinante,ho già effettuato la correzzione.
Athlon 64 3000+
18-05-2007, 09:29
:what: Deciditi :D
Corretto.
secondo me AMD si è trovata fra le mani un progetto, quello di r600, probabilmente già in fase avanzata di progettazione da parte di ATI, il quale si è rivelato purtroppo una patata bollente per la prima. a mio avviso AMD ha deciso di lanciare quello che aveva per le mani senza pazientare oltre, visto il ritardo che r600 era oramai cronico e considerato il fatto che la stessa AMD di fatto è sotto Intel (da un punto di vista prestazionale) da oramai un anno, senza aver presentato in tutto questo tempo nulla di concreto. per cui un'AMD con l'acqua all gola per un progetto k10 giustamente ambizioso si è ritrovata in una situazione di duplice stallo. concordo con chi ha già sottolineato che l'acquisizione dell'azienda canadese da parte dell'americana abbia di fatto nuociuto ad entrambe. AMD era secondo me interessata all'acquisizione del know how degli ingegneri ati in fatto di chipset e di vga di fascia bassa (ricordate che intel è leader nella settore vga grazie al grandissimo volume di integrate vendute), volendo cimentarsi nell'offerta al pubblico di una piattaforma completa. Ati si è ritrovata immischiata nelle vicissitudini di un'azienda in cattive acque, che si è indebitata per l'acquisto, che parte da una situazione di svantaggio rispetto all concorrenza per via delle minori dimensioni (leggi:capitali) e che probabilmente ha "drenato" risorse dalla sviluppo di r600 per dirottarrle verso il core business dell'azenda, che non comprende le vga.sintomatico è il fatto in proposito di un progetto ambizioso ed innovativo, come da consuetudine ATI, lanciato senza diver accettabili e senza ottimizzazione.
che prospettive per AMD all'alba di r600? a mio avviso AMD sta lavorando sodo su barcelona, che si rivelerà una buona soluzione. alcuni bench hanno fatto intravedere ottime prestazione nel confronto con gli xeon. passte queste forche caudine prevedo una situazione moderatamente positiva per AMD, il tutto con il beneficio del dubbio dovuto alle mosse della concorrenza. Se intel e nVidia si muovono assieme è perchè "sentono l'odore del sangue"; vedono il nemico in difficoltà e cercano di correre (8800ultra e 8900 da un lato, 45nm e possibile supporti SLI dall'altro) per rifilargli il colpo di grazia. speriamo non sia così
girando la domanda che futuro per r600 all'alba di AMD? premetto che io avevo di fatto acquistato r600 salvo poi ricevere un'offerta irrinunciabile da parte del mo negozinate di fuducia per una 8800gts 640, che ho acquistato.
r600 secondo me non è affatto male, già con i diver previsti per il 22 secondo me migliorerà, piazzandosi un po' sopra la 8800gts, in modo da giustificare i consumi superiori. si tratta comunque di una scheda che può avere un buon futuro; sicuramente vedremo di meglio con il respin a 65 nm, e a questo punto mi chiedo se vedremo mai le varie hd2900pro, xl oppure le 2600 con questo processo produttivo
Kharonte85
18-05-2007, 09:41
scusate ho scritto una cagata allucinante,ho già effettuato la correzzione.
:eekk: http://www.mmorpgitalia.it/forum/images/smilies/zanichelli.gif :D
Cmq qualcuno dice che sono i driver altri dicono che è l'hardware, "io mi fido" di quello che dice leoneazzurro nella pag precedente :)
in ogni caso questa scheda rimane brutta in rapporto a quanto consuma
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif
A questo punto credo che ad AMD-ATI convenga passare al piu' presto ad un ipotetico R650
R650 is improved and redesigned R600
Recognize the week points of R600
Our sources confirmed that ATI is working hard to release its R650 chip. The 65 nanometre chip is getting closer to launch day by day and aims for some high clocks.
This won't just be a simple die shrink of an existing marchitecture as ATI plans to redesign some parts of the chip. The major architectural difference is that R650 will have more texture power as this was recognizes as one of the weakest points of R600.
ATI aims for higher clocks, closer to 1,000MHz and obviously it will improve the usage of the available bandwidth.
As the chip is going to be shrunk, you can expect significantly less energy consumption. All together this will be what R600 was suppose to be, a Geforce 8800 GTX / Ultra killer, but the problem is that Nvidia will also have something new by the time ATI finishes R650.
We are looking at a August to September launch for R650, but can we really trust ATI in its plans. We hope for MAD.ATI (DAAMIT)'s sake that they can pull this one off. And in case you haven't heard it before, R650 will be comertially known as Radeon HD 2950 XTX and HD 2950XT.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1042&Itemid=1
:D
Brightblade
18-05-2007, 10:57
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif
:eek: In questo bench rulla dibbrutto...ah no e' la power consumption :stordita: :asd:
Scherzi a parte, mi chiedo se in futuro rivedremo mai una scheda dal rapporto prezzo/consumi/prestazioni/occabilita' come la mia 7900GT...il primo dei 2 contendenti che la sforna avra' i miei soldi.
halduemilauno
18-05-2007, 11:07
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_power.gif
:eek: In questo bench rulla dibbrutto...ah no e' la power consumption :stordita: :asd:
Scherzi a parte, mi chiedo se in futuro rivedremo mai una scheda dal rapporto prezzo/consumi/prestazioni/occabilita' come la mia 7900GT...il primo dei 2 contendenti che la sforna avra' i miei soldi.
8800gts320.
;)
Brightblade
18-05-2007, 11:14
8800gts320.
;)
Si' forse dovevo specificare, con "futuro" intendevo dire in piena epoca DX10, con un po' di titoli pensati per le nuove api, benchati in modo da avere un'idea chiara di come performano le varie contendenti in quell'ambito.
Per il momento mi basta la scheda che ho, anche perche' ho un po' di arretrati a partire dal gioco in sign. Penso che per me il momento dell'acquisto arrivera' intorno alla meta' del 2008.
G-UNIT91
18-05-2007, 11:25
scusate, ma AMD nn aveva in serbo 2 skede + potenti da lanciare, la XTX e la dual gpu?
http://www.free4up.com/view.axd?fn=157012248175223.jpg (http://www.free4up.com/ShowImage.aspx?fn=157012248175223.jpg)
scusate, ma AMD nn aveva in serbo 2 skede + potenti da lanciare, la XTX e la dual gpu?
C:\Documents and Settings\j8\Documenti\Immagini\R600%20info_c.jpg
Come pretendi di farci vedere delle immagini che risiedono sul tuo computer se non le uppi da qualche parte? O_o
halduemilauno
18-05-2007, 11:33
Si' forse dovevo specificare, con "futuro" intendevo dire in piena epoca DX10, con un po' di titoli pensati per le nuove api, benchati in modo da avere un'idea chiara di come performano le varie contendenti in quell'ambito.
Per il momento mi basta la scheda che ho, anche perche' ho un po' di arretrati a partire dal gioco in sign. Penso che per me il momento dell'acquisto arrivera' intorno alla meta' del 2008.
9800gts512.
;)
Credo proprio di no. E questo è palesato abbastanza evidentemente dal fatto che la presentazione della nuova GPU è stata fatta con una sola scheda. Non hanno fatto in tempo a finire il ri-progetto a 65nm, da qui l'ultimo ritardo, hanno mostrato solo questa e ora stanno finendo tutto quel che serve a lanciare tutta la lineup a 65nm, che prevedo uscirà veramente a breve, comprensiva dei prodotti per tutti i segmenti di mercato.
già assolutamente d'accordo con te la hd2900xt potrebbe essere l'unica della su generazione. potrebbe anche essere un'ottima scheda a prescindere da questo, sempre che decidano di darle il supporto che merita
leoneazzurro
18-05-2007, 12:53
...da "piccolo apprendista abbastanza ignorante" quale sono, mi sembra d'aver capito che la circuiteria decidata per calcolare MSAA è questa:
http://techreport.com/reviews/2007q2/radeon-hd-2900xt/block-renderbackend.gif
...quindi, ancor di più, non riesco a capacitarmi di certe scadenti prestazioni con AA. Se escludo a priori che quella parte hardware sia non perfettamente funzionante, mi viene da pensare a problemi di ottimizzazione dei driver. Leoneazzurro, ho capito cos'hai scritto, quindi a questo punto l'imputato numero uno diventa la lentezza di accesso alle texture...o c'è qualcosa che mi sfugge? Ma yoss che fine ha fatto??? chi è che lo chiama??? non abbiamo ancora letto un suo parere su questo dannato R600!
ps. scusate se ho postato qua, ma di là ormai è un supermercato.
La circuiteria delle ROPs c'è, manca la parte che effettua il downsampling nel caso di tiles compressi il cui calcolo viene effettuato tramite shader e si, credo che il problema sia la lentezza nell'accesso alle texture, dato che dal punto di vista della potenza di calcolo necessaria non sotrrae troppo (anche se complica ulteriormente lo scheduling delle istruzioni) e che se si considerano unicamente i calcoli matematici R600 sembra si dimostri nettamente più veloce di G80 nonostante il "problema del co-issue".
Tra l'altro è stato dichiarato che la cosa è una precisa scelta progettuale, visto che in futuro si è stimato che l'AA verrà fatto direttamente a livello di shaders.
Athlon 64 3000+
18-05-2007, 12:58
La circuiteria delle ROPs c'è, manca la parte che effettua il downsampling nel caso di tiles compressi il cui calcolo viene effettuato tramite shader e si, credo che il problema sia la lentezza nell'accesso alle texture, dato che dal punto di vista della potenza di calcolo necessaria non sotrrae troppo (anche se complica ulteriormente lo scheduling delle istruzioni) e che se si considerano unicamente i calcoli matematici R600 sembra si dimostri nettamente più veloce di G80 nonostante il "problema del co-issue".
Tra l'altro è stato dichiarato che la cosa è una precisa scelta progettuale, visto che in futuro si è stimato che l'AA verrà fatto direttamente a livello di shaders.
Purtroppo non ho afferrato tutto quello che hai spiegato.
leoneazzurro
18-05-2007, 13:10
Purtroppo non ho afferrato tutto quello che hai spiegato.
Non manca tutta la circuiteria necessaria per l'Antialiasing, ma solo una parte che sottrae sì potenza di calcolo agli shader ma non tanta da giustificare quei cali così vistosi. Quindi la ragione dei cali prestazionali è un'altra e probabilmente si tratta della velocità di accesso alle texture.
Athlon 64 3000+
18-05-2007, 13:14
Non manca tutta la circuiteria necessaria per l'Antialiasing, ma solo una parte che sottrae sì potenza di calcolo agli shader ma non tanta da giustificare quei cali così vistosi. Quindi la ragione dei cali prestazionali è un'altra e probabilmente si tratta della velocità di accesso alle texture.
quindi pensi che non sia solo un problema di driver?
Quindi non è tanto un baco hardware ma è una scelta architettura quella di aver tolto una parte dalla circuiteria per l'AA
La circuiteria delle ROPs c'è, manca la parte che effettua il downsampling nel caso di tiles compressi il cui calcolo viene effettuato tramite shader e si, credo che il problema sia la lentezza nell'accesso alle texture, dato che dal punto di vista della potenza di calcolo necessaria non sotrrae troppo (anche se complica ulteriormente lo scheduling delle istruzioni) e che se si considerano unicamente i calcoli matematici R600 sembra si dimostri nettamente più veloce di G80 nonostante il "problema del co-issue".
Tra l'altro è stato dichiarato che la cosa è una precisa scelta progettuale, visto che in futuro si è stimato che l'AA verrà fatto direttamente a livello di shaders.
Certo che se davvero e' stata una scelta progettuale si sono presi un rischio imho un po' troppo elevato. Non si e' mai vista una gpu progettata da ATI carente su questo aspetto.
leoneazzurro
18-05-2007, 13:38
quindi pensi che non sia solo un problema di driver?
Quindi non è tanto un baco hardware ma è una scelta architettura quella di aver tolto una parte dalla circuiteria per l'AA
Lo ha dichiarato un "capoccia " di ATI, qui c'è un link alle sue parole:
http://forum.beyond3d.com/showthread.php?t=41241&page=25
"We asked Richard Huddy, Worldwide Developer Relations Manager of AMD's Graphics Products Group, to go into more detail about why the Radeon HD 2000-series architecture has been optimised for shader-based AA rather than traditional multi-sample AA. He told us that 'with the most recent generations of games we've seen an emphasis on shader complexity (mostly more maths) with less of the overall processing time spent on the final part of the rendering process which is "the AA resolve". The resolve still needs to happen, but it's becoming a smaller and smaller part of the overall load. Add to that the fact that HDR rendering requires a non-linear AA resolve and you can see that the old fashioned linear AA resolve hardware is becoming less and less significant.' Huddy also explained that traditional AA 'doesn't work correctly [in games with] HDR because pixel brightness is non-linear in HDR rendering.'
While many reviews of the HD 2900XT have made unflattering comparisons between it and Nvidia's GeForce 8800-series, Huddy was upbeat about AMD's new chip. 'Even at high resolutions, geometry aliasing is a growing problem that can only really be addressed by shader-based anti-aliasing. You'll see that there is a trend of reducing importance for the standard linear AA resolve operation, and growing importance for custom resolves and shader-based AA. For all these reasons we've focused our hardware efforts on shader horsepower rather than the older fixed-function operations. That's why we have so much more pure floating point horsepower in the HD 2900XT GPU than NVIDIA has in its 8800 cards... There's more value in a future-proof design such as ours because it focuses on problems of increasing importance, rather than on problems of diminishing importance.""
Ma a questo punto, a mAggior ragione c'è qualcosa che non sta funzionando bene (l'efficienza di R600 cala paurosamente accedendo alle texture) ergo l'accesso alle texture è lento, e non è tanto un problema di numero di unità perchè questo accade anche quando non si è texture fill rate limited. Probabile che il controller di memoria non stia funzionando come dovrebbe, però d'altra parte è programmabile.
Certo che se davvero e' stata una scelta progettuale si sono presi un rischio imho un po' troppo elevato. Non si e' mai vista una gpu progettata da ATI carente su questo aspetto.
Effettivamente l'antialiasing è sempre stato un punto di forza di tutti i chip della serie R3xx, R4xx e R5xx.
Athlon 64 3000+
18-05-2007, 13:42
Effettivamente l'antialiasing è sempre stato un punto di forza di tutti i chip della serie R3xx, R4xx e R5xx.
E' stata proprio una precisa scelta architetturale che ritengo molto strana.
Kharonte85
18-05-2007, 13:48
Lo ha dichiarato un "capoccia " di ATI, qui c'è un link alle sue parole:
http://forum.beyond3d.com/showthread.php?t=41241&page=25
Tutto molto bello...peccato che l'AA sia ancora oggi fondamentale e termine di paragone logico per schede video di quella fascia...a questo punto diventa illusorio aspettarsi dei driver che garantiscano grandi miglioramenti con l'AA...certo che fa un effetto atroce vedere ATI che crolla con AA attivo...:fagiano:
Forse sono davvero troppo proiettati al futuro...ma non possono pretendere di sperare che i programmatori vadano per forza nella direzione da loro sperata, soprattutto quando dall'altra parte il mercato è conteso anche da Nvidia (che proprio piccola non è)
leoneazzurro
18-05-2007, 13:55
Tutto molto bello...peccato che l'AA sia ancora oggi fondamentale e termine di paragone logico per schede video di quella fascia...a questo punto diventa illusorio aspettarsi dei driver che garantiscano grandi miglioramenti con l'AA...certo che fa un effetto atroce vedere ATI che crolla con AA attivo...:fagiano:
Forse sono davvero troppo proiettati al futuro...ma non possono pretendere di sperare che i programmatori vadano per forza nella direzione da loro sperata, soprattutto quando dall'altra parte il mercato è conteso anche da Nvidia (che proprio piccola non è)
Attenzione: non è che non ci sia da aspettarsi miglioramenti con i drivers: come detto, la potenza tolta agli shaders c'è ma non è pesantisima. Il problema è che nell'AA di tipo "standard" si accede frequentemente alle texture, e questo sembra essere il motivo dei cali prestazionali. Se c'è un problema HW alla base di questa lentezza, allora la cosa non è risolvibile. Tuttavia, se il problema è SW (dato che il MC è programmabile) i drivers potrebbero benissimo migliorare la situazione.
Ma un AA programmabile è uno dei requisiti richiesti dalle dx10.1 ?
appleroof
18-05-2007, 15:17
Piccola curiosità: questo tread ha i contenuti dell'altro e viceversa, l'avete notato? :asd:
G-UNIT91
18-05-2007, 15:28
ecco ke riportava vr-zone: http://www.free4up.com/view.axd?fn=157012248175223.jpg (http://www.free4up.com/ShowImage.aspx?fn=157012248175223.jpg)
speriamo ke amd faccia come x rd580
Athlon 64 3000+
18-05-2007, 15:28
Attenzione: non è che non ci sia da aspettarsi miglioramenti con i drivers: come detto, la potenza tolta agli shaders c'è ma non è pesantisima. Il problema è che nell'AA di tipo "standard" si accede frequentemente alle texture, e questo sembra essere il motivo dei cali prestazionali. Se c'è un problema HW alla base di questa lentezza, allora la cosa non è risolvibile. Tuttavia, se il problema è SW (dato che il MC è programmabile) i drivers potrebbero benissimo migliorare la situazione.
Sono sicuro che la situazione migliorerà con i nuovi driver ma non credo che ci saranno miglioramenti enormi.
MonsterMash
18-05-2007, 15:42
Attenzione: non è che non ci sia da aspettarsi miglioramenti con i drivers: come detto, la potenza tolta agli shaders c'è ma non è pesantisima. Il problema è che nell'AA di tipo "standard" si accede frequentemente alle texture, e questo sembra essere il motivo dei cali prestazionali. Se c'è un problema HW alla base di questa lentezza, allora la cosa non è risolvibile. Tuttavia, se il problema è SW (dato che il MC è programmabile) i drivers potrebbero benissimo migliorare la situazione.
Ma io ho visto parecchi bench in cui la 2900xt già ha recuperato quasi completamente il gap con l'AA attivato che aveva nelle prime prove apparse in rete:
Test Drive Unlimited (è sempre sopra la gtx, con e senza i filtri):
http://www.matbe.com/articles/lire/383/ati-r600-radeon-hd-2900-xt/page14.php
Rainbow six vegas (è sempre sopra la gtx, con e senza i filtri):
http://www.matbe.com/articles/lire/383/ati-r600-radeon-hd-2900-xt/page14.php
Oblivion (sopra la gtx senza i filtri, e al livello della gtx coi filtri):
http://www.matbe.com/articles/lire/383/ati-r600-radeon-hd-2900-xt/page21.php
Company of heroes (sopra la gtx con i filtri attivati):
http://www.dinoxpc.com/Tests/articoli/articolo/video_jetway_hd2900xt_images/video_4.gif
FEAR (sopra la gtx con i filtri attivati):
http://www.dinoxpc.com/Tests/articoli/articolo/video_jetway_hd2900xt_images/video_6.gif
Splinter cell chaos theory (praticamente al livello della gtx):
http://www.dinoxpc.com/Tests/articoli/articolo/video_jetway_hd2900xt_images/video_31.gif
Il punto cmq è che l'ottimizzazione dei driver può far recuperare tutto lo svantaggio secondo me.
Ma io ho visto parecchi bench in cui la 2900xt già ha recuperato quasi completamente il gap con l'AA attivato che aveva nelle prime prove apparse in rete:
Test Drive Unlimited (è sempre sopra la gtx, con e senza i filtri):
http://www.matbe.com/articles/lire/383/ati-r600-radeon-hd-2900-xt/page14.php
Rainbow six vegas (è sempre sopra la gtx, con e senza i filtri):
http://www.matbe.com/articles/lire/383/ati-r600-radeon-hd-2900-xt/page14.php
Oblivion (sopra la gtx senza i filtri, e al livello della gtx coi filtri):
http://www.matbe.com/articles/lire/383/ati-r600-radeon-hd-2900-xt/page21.php
Company of heroes (sopra la gtx con i filtri attivati):
http://www.dinoxpc.com/Tests/articoli/articolo/video_jetway_hd2900xt_images/video_4.gif
FEAR (sopra la gtx con i filtri attivati):
http://www.dinoxpc.com/Tests/articoli/articolo/video_jetway_hd2900xt_images/video_6.gif
Splinter cell chaos theory (praticamente al livello della gtx):
http://www.dinoxpc.com/Tests/articoli/articolo/video_jetway_hd2900xt_images/video_31.gif
Il punto cmq è che l'ottimizzazione dei driver può far recuperare tutto lo svantaggio secondo me.
se sono veri permettemi di dire
cavolo che flop!
:asd:
se sono veri permettemi di dire
cavolo che flop!
:asd:
si sono veri sotto xp fà segnare ottime prestazioni,tò un'altra recensione:http://www.legionhardware.com/document.php?id=645&p=1
si sono veri sotto xp fà segnare ottime prestazioni,tò un'altra recensione:http://www.legionhardware.com/document.php?id=645&p=1
quegli altri sono sotto vista a quanto sembra, o almeno con oblivion mi sembra che lo siano, ma non conosco il francese :sofico:
Les tests sont réalisés sous Windows Vista. Le filtrage anisotrope 16x, tout comme l’anti aliasing, est activé dans le driver.
appleroof
18-05-2007, 16:27
Non è per scoraggiare nessuno, ma di rece in giro per il mondo ce n'è per tutti i gusti, alcune con risultati altre con risultati opposti guardate questa (in particolare i bench con filtri abilitati, non so se era stata già postata)
http://www.hothardware.com/articles/ATI_Radeon_HD_2900_XT__R600_Has_Arrived/?page=15
sarei un pò stanco di rece varie dall'Angola mi piacerebbe adesso vedere quelle che secondo me sono la prova del 9: test concreti di utenti sul campo, magari non con un q6800 a 4 giga...:rolleyes:
Athlon64 potrebbe essere la persona giusta, se ne ha voglia :fiufiu:
;)
MonsterMash
18-05-2007, 16:30
E aggiungo anche:
Prey (Meglio della gtx senza filtri, quasi alla pari coi filtri):
http://common.ziffdavisinternet.com/util_get_image/15/0,1425,sz=1&i=159723,00.gif
Call of duty 2 (Meglio della gtx con e senza filtri, eccetto che a 2560x1600):
http://common.ziffdavisinternet.com/util_get_image/15/0,1425,sz=1&i=159725,00.gif
Insomma, non voglio ancora cantare vittoria, ma mi pare che la situazione sia già decisamente cambiata in soli 4 giorni. Datele ancora un po' di tempo e vedrete :)
Ciao
E aggiungo anche:
Prey (Meglio della gtx senza filtri, quasi alla pari coi filtri):
http://common.ziffdavisinternet.com/util_get_image/15/0,1425,sz=1&i=159723,00.gif
Call of duty 2 (Meglio della gtx con e senza filtri, eccetto che a 2560x1600):
http://common.ziffdavisinternet.com/util_get_image/15/0,1425,sz=1&i=159725,00.gif
Insomma, non voglio ancora cantare vittoria, ma mi pare che la situazione sia già decisamente cambiata in soli 4 giorni. Datele ancora un po' di tempo e vedrete :)
Ciao
si passa dalla "gioia" alla "frustrazione" in modo continuo. Attendo anche io le impressioni di 2 utenti del forum che l'hanno acquistata.
leoneazzurro
18-05-2007, 16:57
Non è per scoraggiare nessuno, ma di rece in giro per il mondo ce n'è per tutti i gusti, alcune con risultati altre con risultati opposti guardate questa (in particolare i bench con filtri abilitati, non so se era stata già postata)
http://www.hothardware.com/articles/ATI_Radeon_HD_2900_XT__R600_Has_Arrived/?page=15
sarei un pò stanco di rece varie dall'Angola mi piacerebbe adesso vedere quelle che secondo me sono la prova del 9: test concreti di utenti sul campo, magari non con un q6800 a 4 giga...:rolleyes:
Athlon64 potrebbe essere la persona giusta, se ne ha voglia :fiufiu:
;)
E' che ci sono tanti drivers in giro, hkepc per esempio diceva di avere già gli 8.38. Comunque, di alvoro ce n'è tantissimo da fare.
Non è per scoraggiare nessuno, ma di rece in giro per il mondo ce n'è per tutti i gusti, alcune con risultati altre con risultati opposti guardate questa (in particolare i bench con filtri abilitati, non so se era stata già postata)
http://www.hothardware.com/articles/ATI_Radeon_HD_2900_XT__R600_Has_Arrived/?page=15
sarei un pò stanco di rece varie dall'Angola mi piacerebbe adesso vedere quelle che secondo me sono la prova del 9: test concreti di utenti sul campo, magari non con un q6800 a 4 giga...:rolleyes:
Athlon64 potrebbe essere la persona giusta, se ne ha voglia :fiufiu:
;)
faccio una domanda rivolta a tutti: se questi ultimi test fossero pubblicati da HWU, cosa ne pensereste?
come giudichereste HD2900XT? un FLOP!? o un'ottima scheda che consuma un macello? :)
appleroof
18-05-2007, 17:13
faccio una domanda rivolta a tutti: se questi ultimi test fossero pubblicati da HWU, cosa ne pensereste?
come giudichereste HD2900XT? un FLOP!? o un'ottima scheda che consuma un macello? :)
Domanda un pò maliziosa...allora parlo per me: è chiaro che io mi fido di questo sito, perchè conosco le modalità di test che fanno e finora sono sempre stati neutri al 100%, ma appunto giudico la scheda su quello che ho visto finora su questo (ed altri siti) di cui mi fido del tutto ;)
dagon1978
18-05-2007, 17:20
E' che ci sono tanti drivers in giro, hkepc per esempio diceva di avere già gli 8.38. Comunque, di alvoro ce n'è tantissimo da fare.
da quella rece sembra riavvicinare molto la gtx e distanzia nettamente le gts (tranne in un paio di test)
ma possibile che abbiano già gli 8.38? non dovevano uscire il 22 (se ricordo bene)?
da quella rece sembra riavvicinare molto la gtx e distanzia nettamente le gts (tranne in un paio di test)
ma possibile che abbiano già gli 8.38? non dovevano uscire il 22 (se ricordo bene)?
...non ti fossilizzare sul numero 8.38. In questo momento ci sono tante versioni di driver alpha più o meno performanti, il 22 (o il 23 o il 21, non c'è una regola) usciranno i driver ufficiali.
...ciao!
Ma io ho visto parecchi bench in cui la 2900xt già ha recuperato quasi completamente il gap con l'AA attivato che aveva nelle prime prove apparse in rete:
Test Drive Unlimited (è sempre sopra la gtx, con e senza i filtri):
http://www.matbe.com/articles/lire/383/ati-r600-radeon-hd-2900-xt/page14.php
Rainbow six vegas (è sempre sopra la gtx, con e senza i filtri):
http://www.matbe.com/articles/lire/383/ati-r600-radeon-hd-2900-xt/page14.php
Oblivion (sopra la gtx senza i filtri, e al livello della gtx coi filtri):
http://www.matbe.com/articles/lire/383/ati-r600-radeon-hd-2900-xt/page21.php
Company of heroes (sopra la gtx con i filtri attivati):
http://www.dinoxpc.com/Tests/articoli/articolo/video_jetway_hd2900xt_images/video_4.gif
FEAR (sopra la gtx con i filtri attivati):
http://www.dinoxpc.com/Tests/articoli/articolo/video_jetway_hd2900xt_images/video_6.gif
Splinter cell chaos theory (praticamente al livello della gtx):
http://www.dinoxpc.com/Tests/articoli/articolo/video_jetway_hd2900xt_images/video_31.gif
Il punto cmq è che l'ottimizzazione dei driver può far recuperare tutto lo svantaggio secondo me.
Nei giochi che avevo previsto (R6Vegas, SC: DA e TDU) effettivamente va meglio di una GTX, anche con drivers beta penosi come quelli in giro al momento...
Non so se qualcuno ha già postato questa rece.
http://www.nextgpu.com/web/index.php?option=com_content&task=view&id=119&Itemid=31&limit=1&limitstart=7
Inutile dire che al momento questi sono tra i giochi che fanno un uso più avanzato degli shaders (in particolare, nonostante i bug, Double Agent credo abbia le texture di vestiti/pelle migliori in circolazione).
Bisognerà capire cosa accadrà con le nuove releases dei drivers.
Piuttosto mi interesserebbe un parere autorevole sull'AA via shaders di R600 e sulle parole di Huddy, in special modo queste:
Add to that the fact that HDR rendering requires a non-linear AA resolve and you can see that the old fashioned linear AA resolve hardware is becoming less and less significant.' Huddy also explained that traditional AA 'doesn't work correctly [in games with] HDR because pixel brightness is non-linear in HDR rendering.'
Ha qualcosa a che fare col deferred shading? Potrebbe significare che con R600 si potrebbe avere l'AA anche con R6V? :help:
leoneazzurro
18-05-2007, 18:08
Ha qualcosa a che fare col deferred shading? Potrebbe significare che con R600 si potrebbe avere l'AA anche con R6V? :help:
Ha sia a che fare con quello che con il fatto che per l'HDR si sta puntando su funzioni Floating point FP16 e superiori, quindi con valori in virgola mobile soggetti a funzioni non lineari, mentre il MSAA è nient'altro che una interpolazione lineare tra sample dei subpixel, quindi Huddy dice che questa interpolazione introduce un errore che porta ad un risultato non realistico.
Poi con queste affermazioni si può essere d'accordo o meno, più di me ne sapranno gli sviluppatori come Fek e nAo.
Poi con queste affermazioni si può essere d'accordo o meno, più di me ne sapranno gli sviluppatori come Fek e nAo.
peccato che non si fanno molto vedere :(
Quasi tutte le ultime rece linkate la stanno dando in netta ripresa :confused:
Quasi tutte le ultime rece linkate la stanno dando in netta ripresa :confused:
Più che altro ora il quadro è un po' più completo.
Come pensavo, a prescindere dai drivers, esistono giochi nettamente più congeniali a queste schede (come pensavo R6V, SC: DA e TDU appartengono a questa categoria). Ricorderei che ci saranno un bel po' di giochi (anche e soprattutto DX10) basati su UE3. ;)
Purtroppo i mesi di "ritardo" rispetto a nVidia non sono serviti a tirar fuori drivers buoni fin da subito, dunque bisognerà probabilmente aspettare qualche settimana (o forse mese, i problemi della scheda esistono) prima di capirne qualcosa in più.
Più che altro bisognerà capire quali saranno i margini di miglioramento in DX10, visto che per ora giocare con le 2 demo DX10 con davvero tutto al max e i filtri a 1280x1024 sembra quasi off-limits con qualunque scheda, il che mi sembra quasi ridicolo.
Più che altro ora il quadro è un po' più completo.
Come pensavo, a prescindere dai drivers, esistono giochi nettamente più congeniali a queste schede (come pensavo R6V, SC: DA e TDU appartengono a questa categoria). Ricorderei che ci saranno un bel po' di giochi (anche e soprattutto DX10) basati su UE3. ;)
Purtroppo i mesi di "ritardo" rispetto a nVidia non sono serviti a tirar fuori drivers buoni fin da subito, dunque bisognerà probabilmente aspettare qualche settimana (o forse mese, i problemi della scheda esistono) prima di capirne qualcosa in più.
Più che altro bisognerà capire quali saranno i margini di miglioramento in DX10, visto che per ora giocare con le 2 demo DX10 con davvero tutto al max e i filtri a 1280x1024 sembra quasi off-limits con qualunque scheda, il che mi sembra quasi ridicolo.
risordo che in uno dei 3D aspettando R600 eravamo giunti a formulare l'ipotesi che sarebbe stata una vga piu' votata ai giochi recenti, in particolar modo a quelli da te citati, ed a quelli a venire, di cui pero' fino ad ora non c'e nulla di "serio" e di tangibile.
Stiamo a vedere cosa accade, inoltre l'impatto delle prime recensioni e' stato devastante, una sorta di pugno in faccia, a mente piu' fredda si possono fare altri ragionamenti, anche se poi cio' che conta sono i risultati e se non arrivano non si risolleveranno mai le sorti della scheda per quanto se ne possa parlare bene sulla carta.
risordo che in uno dei 3D aspettando R600 eravamo giunti a formulare l'ipotesi che sarebbe stata una vga piu' votata ai giochi recenti, in particolar modo a quelli da te citati, ed a quelli a venire, di cui pero' fino ad ora non c'e nulla di "serio" e di tangibile.
Stiamo a vedere cosa accade, inoltre l'impatto delle prime recensioni e' stato devastante, una sorta di pugno in faccia, a mente piu' fredda si possono fare altri ragionamenti, anche se poi cio' che conta sono i risultati e se non arrivano non si risolleveranno mai le sorti della scheda per quanto se ne possa parlare bene sulla carta.
Beh in quei giochi già oggi R600 va come e/o meglio di una GTX (con e senza filtri), il che fa ben sperare.
Quel che mi pare più strano, perchè non capisco bene per quale motivo accada, è che R600 sia superiore alla GTX pure in un gioco il cui motore grafico non è recentissimo (l'Intrinsic Alchemy Engine), ma comunque appena uscito: Marvel: Ultimate Alliance.
http://www.legitreviews.com/images/reviews/503/mua_1.gif
http://www.legitreviews.com/images/reviews/503/mua_2.gif
http://www.legitreviews.com/images/reviews/503/mua_3.gif
secondo mè sarebbe cosa buona e giusta che la redazione di hwupgrade ripetesse i test fatti anche su win xp per vedere se effettivamente le prestazioni della scheda sono fortemente penalizzate dal sistema operativo, usare windos vista come unico metro di valutazione per mè è stato un'errore...
appleroof
18-05-2007, 22:43
Qui sotto, al centro pagina, un breve video che mostra il rumore della scheda....già all'inizio ero rimasto :eek: pensando alla mia come riferimento, ma poi alla fine (dove forse è partita un'applicazione 3d) :eekk: :eekk: del breve video ho pensato: stà passando un jet sopra casa?? :asd: :asd:
http://www.pcinpact.com/actu/news/36361-Radeon-HD-2900XT-R600-Gamme-Tarif.htm?vc=1&p=2
Qui sotto, al centro pagina, un breve video che mostra il rumore della scheda....già all'inizio ero rimasto :eek: pensando alla mia come riferimento, ma poi alla fine (dove forse è partita un'applicazione 3d) :eekk: :eekk: del breve video ho pensato: stà passando un jet sopra casa?? :asd: :asd:
http://www.pcinpact.com/actu/news/36361-Radeon-HD-2900XT-R600-Gamme-Tarif.htm?vc=1&p=2
:eek: :eek: impressionante come farò:(
Qui sotto, al centro pagina, un breve video che mostra il rumore della scheda....già all'inizio ero rimasto :eek: pensando alla mia come riferimento, ma poi alla fine (dove forse è partita un'applicazione 3d) :eekk: :eekk: del breve video ho pensato: stà passando un jet sopra casa?? :asd: :asd:
http://www.pcinpact.com/actu/news/36361-Radeon-HD-2900XT-R600-Gamme-Tarif.htm?vc=1&p=2
assurdo
appleroof
18-05-2007, 22:52
:eek: :eek: impressionante come farò:(
Effettivamente impressionante, se la paragono a quella mia che adesso la tengo al 90% ed è coperta dal rumeore delle altre ventoline...bò forse perchè era fuori dal case....Zorco mi ricorda mia madre quando la mattina accendeva l'aspirapolvere :mad:
potresti dotarla di un bel dissi alternativo però...:)
Qui sotto, al centro pagina, un breve video che mostra il rumore della scheda....già all'inizio ero rimasto :eek: pensando alla mia come riferimento, ma poi alla fine (dove forse è partita un'applicazione 3d) :eekk: :eekk: del breve video ho pensato: stà passando un jet sopra casa?? :asd: :asd:
http://www.pcinpact.com/actu/news/36361-Radeon-HD-2900XT-R600-Gamme-Tarif.htm?vc=1&p=2
Video abbastanza inutile. Non so voi, ma io il case di solito lo tengo chiuso e soprattutto non metto l'orecchio attaccato allo stesso: quello che conta è il rumore percepito con case chiuso e alla normale distanza di uso di un pc, non quello effettivamente prodotto. Un conto è dire che la scheda è rumorosa, un altro è esagerare.
Effettivamente impressionante, se la paragono a quella mia che adesso la tengo al 90% ed è coperta dal rumeore delle altre ventoline...bò forse perchè era fuori dal case....Zorco mi ricorda mia madre quando la mattina accendeva l'aspirapolvere :mad:
potresti dotarla di un bel dissi alternativo però...:)
credo che se ci tiene al suo udito gli e di obbligo comprarne un altro :D :ciapet:
Kharonte85
18-05-2007, 22:56
Qui sotto, al centro pagina, un breve video che mostra il rumore della scheda....già all'inizio ero rimasto :eek: pensando alla mia come riferimento, ma poi alla fine (dove forse è partita un'applicazione 3d) :eekk: :eekk: del breve video ho pensato: stà passando un jet sopra casa?? :asd: :asd:
http://www.pcinpact.com/actu/news/36361-Radeon-HD-2900XT-R600-Gamme-Tarif.htm?vc=1&p=2
Notevole...http://www.lshwupgrade.com/images/smiles/omg.gif effettivamente sembra abbastanza fastidioso...
:eek: :eek: impressionante come farò:(
Ma si' un bel paio di cuffie e risolvi il problema...
Effettivamente impressionante, se la paragono a quella mia che adesso la tengo al 90% ed è coperta dal rumeore delle altre ventoline...bò forse perchè era fuori dal case....Zorco mi ricorda mia madre quando la mattina accendeva l'aspirapolvere :mad:
potresti dotarla di un bel dissi alternativo però...:)
il rumore prodotto è spaventoso,mi conviene insonorizzare il case con il cartone delle uova:D...
Notevole...http://www.lshwupgrade.com/images/smiles/omg.gif effettivamente sembra abbastanza fastidioso...
Ma si' un bel paio di cuffie e risolvi il problema...
quelle cuffie che si usano sui cantieri asd
il rumore prodotto è spaventoso,mi conviene insonorizzare il case con il cartone delle uova:D...:sofico: :sofico::ciapet: :ciapet:
appleroof
18-05-2007, 23:05
Video abbastanza inutile. Non so voi, ma io il case di solito lo tengo chiuso e soprattutto non metto l'orecchio attaccato allo stesso: quello che conta è il rumore percepito con case chiuso e alla normale distanza di uso di un pc, non quello effettivamente prodotto. Un conto è dire che la scheda è rumorosa, un altro è esagerare.
io l'ho trovato e l'ho postato, ciascuno trae le sue conclusioni :boh:
quanto ad r6vegas eccetera, lo già detto e lo ripeto: le rece sono fondamentali, ma mai come le prove sul campo degli utenti ;)
http://www.hwupgrade.it/forum/showpost.php?p=15494377&postcount=304
http://www.hwupgrade.it/forum/showpost.php?p=15494999&postcount=307
http://www.hwupgrade.it/forum/showpost.php?p=15600257&postcount=468
chiaramente con i driver di allora
http://www.hwupgrade.it/forum/showpost.php?p=15705390&postcount=641
come impos. all'epoca avevo 1680x1050 af16x e tutto il resto al massimo possibile
appleroof
18-05-2007, 23:07
il rumore prodotto è spaventoso,mi conviene insonorizzare il case con il cartone delle uova:D...
:asd: :asd: :asd:
;)
io l'ho trovato e l'ho postato, ciascuno trae le sue conclusioni :boh:
quanto ad r6vegas eccetera, lo già detto e lo ripeto: le rece sono fondamentali, ma mai come le prove sul campo degli utenti ;)
http://www.hwupgrade.it/forum/showpost.php?p=15494377&postcount=304
http://www.hwupgrade.it/forum/showpost.php?p=15494999&postcount=307
http://www.hwupgrade.it/forum/showpost.php?p=15600257&postcount=468
chiaramente con i driver di allora
http://www.hwupgrade.it/forum/showpost.php?p=15705390&postcount=641
come impos. all'epoca avevo 1680x1050 af16x e tutto il resto al massimo possibile
Infatti, le prove sul campo sono fondamentali.
Capitolo rumore: la ventola si sente in game, a meno di non avere le cuffie, che peraltro io uso da sempre :D
In idle invece è molto silenziosa, ai livelli di una ventola da 12 cm.
Quelli che ci sono nel sito amd.
Apeena provato Stalker tutto al max del max con illuminazione dinamica a 1280x1024 (la massima risoluzione del mio monitor) sono andato a circa 50-60 di media, rispetto a prima un divario consistente (e avevo una 1900gt).
Ora provo Oblivion.
P.S.: ricordo che secondo molti siti la media a STALKER con tutto al max a 1280x1024 era sui 46fps. Se fosse vera la media di 55fps (prendo il middle point come media), siamo sui livelli di una GTX.
Qui sotto, al centro pagina, un breve video che mostra il rumore della scheda....già all'inizio ero rimasto :eek: pensando alla mia come riferimento, ma poi alla fine (dove forse è partita un'applicazione 3d) :eekk: :eekk: del breve video ho pensato: stà passando un jet sopra casa?? :asd: :asd:
http://www.pcinpact.com/actu/news/36361-Radeon-HD-2900XT-R600-Gamme-Tarif.htm?vc=1&p=2
Eh dai..tieni conto che è con la camera a 20 centimetri e, soprattutto, senza case!!
Per me la x1950xt col dissi stock fa molto più casino!
CIaO
Eh dai..tieni conto che è con la camera a 20 centimetri e, soprattutto, senza case!!
Per me la x1950xt col dissi stock fa molto più casino!
CIaO
Ci sono le impressioni che si possono ricavare da un video ma anche i dati di fatto come le misurazioni effettuate nelle race di hwupgrade:
http://www.hwupgrade.it/articoli/skvideo/1725/noise2.png
Nonostante l'utilizzo di un radiatore di generose dimensioni con heat-pipe, a ventola è costretta ad aumentare il regime di rotazione anche in situazioni di carico nemmeno troppo ingente, con immediate ripercussioni sulla rumorosità.
La rumorosità percepita è sicuramente destinata a diminuire installando la scheda all'interno di un case, ma è anche vero che lo stesso ragionamento si può fare per le schede concorrenti, che partono da una base sicuramente molto più incoraggiante.
Si tratta di una scheda veramente molto rumorosa c'è poco da fare ;) e consuma veramente molta corrente, anche quelli sono dati di fatto, misurazioni.
A livello di prestazioni c'è da dire che si stanno facendo numerosi progressi, per esempio io sono rimasto impressionato dalla rece di LostPlanet (dove notoriamente 2900XT andava malissimo) che potete trovare a qui: 3D Performance with Lost Planet Demo: DirectX 10 Benchmarks - firingsquad.com (http://www.firingsquad.com/hardware/lost_planet_demo_directx_10_performance/default.asp)
Per esempio questo grafico è molto interessante, cmq se non l'avete fatto leggetela perché è un'ulteriore conferma di come questa scheda stia effettivamente migliorando, per cui mi devo ricredere perché ero tra i primi a sperare poco nei drivers ;); cmq la collocazione è tra una GTS ed una GTX:
http://www.firingsquad.com/hardware/lost_planet_demo_directx_10_performance/images/aalost1920.gif
Ci sono le impressioni che si possono ricavare da un video ma anche i dati di fatto come le misurazioni effettuate nelle race di hwupgrade:
http://www.hwupgrade.it/articoli/skvideo/1725/noise2.png
Si tratta di una scheda veramente molto rumorosa c'è poco da fare ;) e consuma veramente molta corrente, anche quelli sono dati di fatto, misurazioni.
Certo. Ma se leggi bene sulla tabella c'è scritto dB a 10 cm... A meno che qualcuno sul forum non viva con la testa dentro al case (non lo escluderei a priori... :sofico: ), sono valori che nessuno riscontrerà, visto che molti tengono il case a terra, ossia a oltre un metro di distanza minimo dall'orecchio. A tutto ciò aggiungi l'assorbimento del rumore operato dal case, il rumore fatto dalle altre ventole del pc, e credo si possa concludere che la differenza in rumore percepito (che, ripeto, è quello che conta) tra un pc con dentro un'HD2900 ed uno con una 8800 è davvero piccola.
Per quanto riguarda Lost Planet, credo che quello sia il path DX9. Comunque dall'articolo si legge che Capcom vorrebbe giungere, nella versione finale, ad una versione DX10 del 10-20% più veloce rispetto alla DX9 (ossia sullo stesso pc con scheda DX10 dovrebbe essere meglio farlo girare in DX10), il che fa ben sperare.
Certo. Ma se leggi bene sulla tabella c'è scritto dB a 10 cm... A meno che qualcuno sul forum non viva con la testa dentro al case (non lo escluderei a priori... :sofico: ), sono valori che nessuno riscontrerà, visto che molti tengono il case a terra, ossia a oltre un metro di distanza minimo dall'orecchio. A tutto ciò aggiungi l'assorbimento del rumore operato dal case, il rumore fatto dalle altre ventole del pc, e credo si possa concludere che la differenza in rumore percepito (che, ripeto, è quello che conta) tra un pc con dentro un'HD2900 ed uno con una 8800 è davvero piccola.
Nel mio PC la ventola più rumorosa era quella della 8800GTX quando andava in FULL, ed è stato uno dei motivi per cui ho messo le schede sotto liquido. Io credo che, anche a sentire chi la scheda l'ha già montata dentro il case, e lo ha ben chiuso :D, sia una scheda troppo rumorosa anche con il case chiuso. Se si ha un PC con ventole lownoise o non troppo rumorose sarebbe il componente che si metterebbe più in risalto per questo suo aspetto negativo e, a mio modo di vedere, c'è una differenza apprezzabile tra la soluzione ATI e le nVidia.
Nel mio PC la ventola più rumorosa era quella della 8800GTX quando andava in FULL, ed è stato uno dei motivi per cui ho messo le schede sotto liquido. Io credo che, anche a sentire chi la scheda l'ha già montata dentro il case, e lo ha ben chiuso :D, sia una scheda troppo rumorosa anche con il case chiuso. Se si ha un PC con ventole lownoise o non troppo rumorose sarebbe il componente che si metterebbe più in risalto per questo suo aspetto negativo e, a mio modo di vedere, c'è una differenza apprezzabile tra la soluzione ATI e le nVidia.
Certo, ma rimane il fatto che 12 dB di differenza (l'equivalente del rumore di un bisbiglio), a distanza di un metro, credo siano davvero molto difficili da distinguere. ;)
appleroof
19-05-2007, 09:33
Infatti, le prove sul campo sono fondamentali.
P.S.: ricordo che secondo molti siti la media a STALKER con tutto al max a 1280x1024 era sui 46fps. Se fosse vera la media di 55fps (prendo il middle point come media), siamo sui livelli di una GTX.
bisognerebbe provare a 1920x1200, dove la mia sta su quella media (adesso non ho tempo di cercare gli shot come ho fatto con r6vegas, non ricordo nemmeno se li ho fatti ma mi pare di si) se non fosse andata in quel modo a 1280x1024 (dove ricordo che queste schede, sicuramente la gtx ma credo altrattenato la 2900xt sono spesso cpu-limited se non si ha un bel conroe pompato a dovere) ci sarebbe stato davvero da preoccuparsi.....quanto al rumore pat77 fa riferimento all'idle, ed in ogni caso quelle sono percezioni soggettive, dove il video mostra il rumore e tutti oggettivamente possono farsene un'idea
Eh dai..tieni conto che è con la camera a 20 centimetri e, soprattutto, senza case!!
Per me la x1950xt col dissi stock fa molto più casino!
CIaO
infatti l'ho detto :) ....cmq proprio in quella rece fanno riferimento proprio ai dissi della serie 1900 :p
ciao fede ;)
cmq il problema delle prestazioni che inizialmente avevano seriamente deluso sono sostanzialmente da imputare ai driver,guardate che boost in avanti si ha con i 8.37.4.2:
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
;)
quanto al rumore pat77 fa riferimento all'idle, ed in ogni caso quelle sono percezioni soggettive, dove il video mostra il rumore e tutti oggettivamente possono farsene un'idea
Anche quella è una misurazione relativa, così come quella che viene fatta da HWUp: il rumore che conta è quello percepito, dunque accanto alla misurazione a 10cm dalla scheda, andrebbe messa una misurazione più "realistica". Sfido chiunque ad accorgersi di 12dB di rumore di differenza a case chiuso, con altri rumori di sottofondo (prodotti dal pc e non) con l'orecchio ad oltre 1 metro dal case. ;)
Anche quella è una misurazione relativa, così come quella che viene fatta da HWUp: il rumore che conta è quello percepito, dunque accanto alla misurazione a 10cm dalla scheda, andrebbe messa una misurazione più "realistica". Sfido chiunque ad accorgersi di 12dB di rumore di differenza a case chiuso, con altri rumori di sottofondo (prodotti dal pc e non) con l'orecchio ad oltre 1 metro dal case. ;)
si comunque, con rispetto parlando, mi sembra "tirato per i capelli" il tuo post, nel senso che quando sono passato da una 7800GTX all'attuale X1950XTX la differenza l'ho sentita eccome, ed ancora oggi quando parte oltre il 70% la ventola è percepibile moltissimo, ed ho un case con molte ventole e soprattutto è lo stesso case che ospitava la 7800GTX. Ho dovuto alzare il volume delle casse per coprire il rumore, obiettivamente fastidioso.
Le ultime Ati sono più rumorose della controparte, è un dato di fatto.
;)
ninja750
19-05-2007, 10:05
Qui sotto, al centro pagina, un breve video che mostra il rumore della scheda....già all'inizio ero rimasto :eek: pensando alla mia come riferimento, ma poi alla fine (dove forse è partita un'applicazione 3d) :eekk: :eekk: del breve video ho pensato: stà passando un jet sopra casa?? :asd: :asd:
http://www.pcinpact.com/actu/news/36361-Radeon-HD-2900XT-R600-Gamme-Tarif.htm?vc=1&p=2
ma li era in fase riscaldamento motori o già in decollo? :D
credo cmq anche anche sulla 2900 si possa mettere uno zalman come nel resto delle vga no?
Le ultime Ati sono più rumorose della controparte, è un dato di fatto.
;)
Su questo sono d'accordo, ma devi considerare comunque che le X1950XTX erano nettamente più rumorose delle nVidia: per tramutarsi in differenza percepibile contano 2 cose, ossia una tonalità particolarmente fastidiosa del rumore della ventola (quindi qualcosa che comunque una misurazione strumentale dei dB non può carpire, nè tantomeno un video microscopico con conseguente distorsione dei suoni) e/o una differenza notevole di rumorosità effettiva (cioè di oltre 20 dB di differenza).
Vifani, nelle sue rece, prima della valutazione del rumore scriveva questo, che credo spieghi bene il mio discorso. ;)
Bisogna, pertanto, interpretare questi valori non come misure assolute, ma limitatamente alla comparazione tra i vari prodotti, cioè solo per la valutazione di quale è la scheda più rumorosa del lotto. E' evidente, infatti, che la maggioranza degli utenti monta il proprio personal computer in un case chiuso dal quale si trova normalmente ad una distanza superiore a 10 cm.
ma li era in fase riscaldamento motori o già in decollo? :D
credo cmq anche anche sulla 2900 si possa mettere uno zalman come nel resto delle vga no?
il problema sostanziale dei dissi zalman è il non espellere all'esterno l'aria calda prodotta dalla ventola....e con la 2900 sarebbe un bel guaio....:)
Su questo sono d'accordo, ma devi considerare comunque che le X1950XTX erano nettamente più rumorose delle nVidia: per tramutarsi in differenza percepibile contano 2 cose, ossia una tonalità particolarmente fastidiosa del rumore della ventola (quindi qualcosa che comunque una misurazione strumentale dei dB non può carpire, nè tantomeno un video microscopico con conseguente distorsione dei suoni) e/o una differenza notevole di rumorosità effettiva (cioè di oltre 20 dB di differenza).
Vifani, nelle sue rece, prima della valutazione del rumore scriveva questo, che credo spieghi bene il mio discorso. ;)
Sei sicuro di quello che dici? Guarda che la differenza che c'è in dBA è tale da poter essere percepita; guarda per esempio questo link (http://www.phys.unsw.edu.au/jw/dB.html). Se non ti interessa leggere tutto almeno guarda il grafico: un aumento di 3 dB corrisponde ad un livello di pressione sonora doppia; inoltre parlando di rumore percepito (frequenze udibili dall'orecchio umano) ovvero dBA (unità di misura usata nel grafico che di hwupgrade che ho linkato prima) è stato dimostrato che un incremento di 10 dBA corrisponde a circa il doppio di rumore percepito! Per cui anche con il case chiuso la differenza si sente, e non è assolutamente poca! Ovviamente esistono dei suoni che a parità di dBA (quindi suono già "filtrato" nell'intervallo di frequenze percepibli dall'orecchio umano) possono risultare più o meno fastidiosi per l'uomo e per questo sono state indrotte altre unità di misura come il phon e il sone; però in generale la frequenza (il tipo di rumore) prodotta da ventole di diametro uguale è circa la stessa, per cui 10dBA in più sono circa il doppio del rumore, mettendo la scheda nel case la differenza di dBA tra questa scheda ed un altra si potrebbe ridurre o meno, a seconda del tipo di case, perché alcune frequenze vengono filtrate meglio di altre, però in ogni caso rimane una differenza consistente.
Ci sono le impressioni che si possono ricavare da un video ma anche i dati di fatto come le misurazioni effettuate nelle race di hwupgrade:
Si tratta di una scheda veramente molto rumorosa c'è poco da fare ;) e consuma veramente molta corrente, anche quelli sono dati di fatto, misurazioni.
Guarda che io ho scritto XT, mica XTX! Comunque mai detto che fosse silenziosa, ho detto solo che non credo sia la più rumorosa in assoluto.
infatti l'ho detto :) ....cmq proprio in quella rece fanno riferimento proprio ai dissi della serie 1900 :p
ciao fede ;)
Eccecredo! Uno dei dissi più rumoroso della storia! :doh:
CIaO apple :D
Sei sicuro di quello che dici? Guarda che la differenza che c'è in dBA è tale da poter essere percepita; guarda per esempio questo link (http://www.phys.unsw.edu.au/jw/dB.html). Se non ti interessa leggere tutto almeno guarda il grafico: un aumento di 3 dB corrisponde ad un livello di pressione sonora doppia; inoltre parlando di rumore percepito (frequenze udibili dall'orecchio umano) ovvero dBA (unità di misura usata nel grafico che di hwupgrade che ho linkato prima) è stato dimostrato che un incremento di 10 dBA corrisponde a circa il doppio di rumore percepito! Per cui anche con il case chiuso la differenza si sente, e non è assolutamente poca! Ovviamente esistono dei suoni che a parità di dBA (quindi suono già "filtrato" nell'intervallo di frequenze percepibli dall'orecchio umano) possono risultare più o meno fastidiosi per l'uomo e per questo sono state indrotte altre unità di misura come il phon e il sone; però in generale la frequenza (il tipo di rumore) prodotta da ventole di diametro uguale è circa la stessa, per cui 10dBA in più sono circa il doppio del rumore, mettendo la scheda nel case la differenza di dBA tra questa scheda ed un altra si potrebbe ridurre o meno, a seconda del tipo di case, perché alcune frequenze vengono filtrate meglio di altre, però in ogni caso rimane una differenza consistente.
Tutto giustissimo.
Per quel poco che so comunque dBA e dB non sono esattamente la stessa cosa (visto che per arrivare ai dBA credo si apporti una correzione per tenere conto della diversa sensibilità dell'orecchio umano ai toni acuti, intermedi o gravi) e nel grafico da te postato vengono riportati i dB. Come hai scritto esistono misure più efficaci nella rilevazione del rumore percepito, e comunque tali rilevazioni andrebbero fatte in condizioni normali (ossia con la testa a minimo un metro dal case).
Quella sarebbe una misurazione più attendibile del rumore che ci si dovrebbe attendere. Quella che si vede invece spesso nelle recensioni è una comparazione sommaria. Vifani, che preferivo nelle recensioni delle schede video, lo diceva chiaramente che una comparazione del genere lascia il tempo che trova. ;)
Per dare un'idea 50dB sono il rumore di una strada tranquilla, 60dB sono il rumore di una conversazione con tono di voce normale.
Il tutto però a 10cm con uno strumento di precisione.
A una distanza 10 volte superiore, con in più l'assorbimento del case, i rumori del resto del pc, i rumori di fondo della casa, il suono proveniente dalle casse, la differenza di rumore percepito tra una 8800 (che anche tu mi pare mi confermi non essere una scheda silenziosissima) e una HD2900 potrebbe non essere così grande come qualcuno vorrebbe far intendere, anzi. O mi sbaglio?
nico88desmo
19-05-2007, 11:49
cmq il problema delle prestazioni che inizialmente avevano seriamente deluso sono sostanzialmente da imputare ai driver,guardate che boost in avanti si ha con i 8.37.4.2:
http://www.computerbase.de/news/treiber/grafikkarten/ati/2007/mai/ati_radeon_hd_2900_xt_treibervergleich/
;)
che driver hanno utilizzato per le schede video nVidia?
secondo me non sono gli ultimi...che hanno un notevole boost prestazionale..
Qui sotto, al centro pagina, un breve video che mostra il rumore della scheda....già all'inizio ero rimasto :eek: pensando alla mia come riferimento, ma poi alla fine (dove forse è partita un'applicazione 3d) :eekk: :eekk: del breve video ho pensato: stà passando un jet sopra casa?? :asd: :asd:
http://www.pcinpact.com/actu/news/36361-Radeon-HD-2900XT-R600-Gamme-Tarif.htm?vc=1&p=2
Consideriamo che dipende da molti fattori tra cui anche le impostazioni della fotocamera, dell'ambiente circostante e in video potrebbe non essere molto quantificabile.
Comunque silenziosa sicuramente NON lo e'.
Per dare un'idea 50dB sono il rumore di una strada tranquilla, 60dB sono il rumore di una conversazione con tono di voce normale.
Il tutto però a 10cm con uno strumento di precisione.
A una distanza 10 volte superiore, con in più l'assorbimento del case, i rumori del resto del pc, i rumori di fondo della casa, il suono proveniente dalle casse, la differenza di rumore percepito tra una 8800 (che anche tu mi pare mi confermi non essere una scheda silenziosissima) e una HD2900 potrebbe non essere così grande come qualcuno vorrebbe far intendere, anzi. O mi sbaglio?
La differenza tra dB e dBA è proprio che i dBA sono i dB "filtrati per l'orecchio umano, ovvero il suono che l'orecchio produce. Esprimere un rumore in dBA non è un metodo affidabile per capire la rumorosità percepità, però da un valore più che adeguato; per capire la rumorosità della scheda basta considerare il rumore prodotto da una 8800GTX in full load con la ventola al 100%: il rumore prodotto dalla 2900XT è stimabile in modo ragionevole in quasi il doppio! Se a 10cm il rumore è esattamente il doppio, e se si ha presente il rumore prodotto da una GTX nel proprio case in full load, si riesce a stimare con buona precisione il rumore prodotto della 2900XT. Usando entrambe le schede nello stesso case, con le stesse identiche ventole, una 2900XT produrrà un rumore più forte di una 8800GTX quantificabile in un aumento di rumore da alto (150%) in caso il case sia ben insonorizzato e /o lontano) a molto alto (200% rispetto ad una GTX) nel caso si abbia un case con componeti standard e senza insonorizzazioni particolari. La 2900XT è più rumorosa in modo consistente di una GTX, il "quando" esatto si deve calcolare a seconda della posizione della scheda rispetto a dove si misura il suono, ai mezzi di propagazione (quindi aria, alluminio, pannello insonorizzante se è presente etc). Essendoci una differenza del 100% di rumore tra le due sorgenti a 10cm (le due schede) è ragionevole stimare i valori che ho riportato, quindi un aumento compreso tra il 150% ed il 200% in media. Se consideriamo che la GTX con ventola al 100% è nella maggior parte dei computer il componente più rumoroso, ci rendiamo facilmente conto che il rumore prodotto da una 2900XT è percebibile e sensibilmente più alto di quello prodotto da una 8800GTX.
Guarda che io ho scritto XT, mica XTX! Comunque mai detto che fosse silenziosa, ho detto solo che non credo sia la più rumorosa in assoluto.
:rolleyes: che io sappia le differenze tra le varie schede XT ed XTX sono minime! Ci vogliamo divertire a puntualizzare questi dettagli? Questa una comparativa tra le X1900, mi vuoi fornire quella tra le X1950?
http://www.hwupgrade.it/articoli/skvideo/1466/db.png
che driver hanno utilizzato per le schede video nVidia?
secondo me non sono gli ultimi...che hanno un notevole boost prestazionale..
mi pare di capire cha hanno usato i ForceWare 158.19 e 158.42...
si infatti non sono gli ultimi che danno maggiori performance mi sono sbagliato...
:rolleyes: che io sappia le differenze tra le varie schede XT ed XTX sono minime! Ci vogliamo divertire a puntualizzare questi dettagli? Questa una comparativa tra le X1900, mi vuoi fornire quella tra le X1950?
http://www.hwupgrade.it/articoli/skvideo/1466/db.png
Serve rollare gli occhi per una cosa del genere? Comunque sì, la x1950xt a pieno regime è più rumorosa della xtx, infatti hanno 2 dissi completamente diversi nel caso non l'avessi notato...
Saluti
mi pare di capire cha hanno usato i ForceWare 158.19 e 158.42...
si infatti non sono gli ultimi che danno maggiori performance mi sono sbagliato...
Ma poi che test è quello?? Hanno settato Oblivion @1280, 4xAA e 16xAf..sono le impostazioni con cui gioco io (+HDR) e non mi fa certo 15fps (e non ho nemmeno una xtx)! :mbe:
CIaO
La differenza tra dB e dBA è proprio che i dBA sono i dB "filtrati per l'orecchio umano, ovvero il suono che l'orecchio produce. Esprimere un rumore in dBA non è un metodo affidabile per capire la rumorosità percepità, però da un valore più che adeguato; per capire la rumorosità della scheda basta considerare il rumore prodotto da una 8800GTX in full load con la ventola al 100%: il rumore prodotto dalla 2900XT è stimabile in modo ragionevole in quasi il doppio! Se a 10cm il rumore è esattamente il doppio, e se si ha presente il rumore prodotto da una GTX nel proprio case in full load, si riesce a stimare con buona precisione il rumore prodotto della 2900XT. Usando entrambe le schede nello stesso case, con le stesse identiche ventole, una 2900XT produrrà un rumore più forte di una 8800GTX quantificabile in un aumento di rumore da alto (150%) in caso il case sia ben insonorizzato e /o lontano) a molto alto (200% rispetto ad una GTX) nel caso si abbia un case con componeti standard e senza insonorizzazioni particolari. La 2900XT è più rumorosa in modo consistente di una GTX, il "quando" esatto si deve calcolare a seconda della posizione della scheda rispetto a dove si misura il suono, ai mezzi di propagazione (quindi aria, alluminio, pannello insonorizzante se è presente etc). Essendoci una differenza del 100% di rumore tra le due sorgenti a 10cm (le due schede) è ragionevole stimare i valori che ho riportato, quindi un aumento compreso tra il 150% ed il 200% in media. Se consideriamo che la GTX con ventola al 100% è nella maggior parte dei computer il componente più rumoroso, ci rendiamo facilmente conto che il rumore prodotto da una 2900XT è percebibile e sensibilmente più alto di quello prodotto da una 8800GTX.
Secondo me stai facendo calcoli un po' troppo teorici perdendo di vista la realtà dei fatti.
Non mi addentro nei calcoli, ma comunque mi pare ovvio che in realtà quando il pc è in funzione (soprattutto se di fascia alta) faccia un certo rumore. Come ho già ripetuto più volte, quello che conta è: un pc con dentro una R600, in condizioni normali di rumore circostante e di posizionamento della scheda, fa sensibilmente più rumore di una 8800? Ossia il rumore che io percepisco è notevolmente superiore? Questa è una domanda alla quale mi pare impossibile dare una risposta precisa guardando solo una tabella con dei dati rilevati con uno strumento di precisione a 10cm.
EDIT: eccoti un test un po' più simile a quanto accade in realtà (notare che il test è fatto col case aperto da un lato, a 75cm, e ovviamente la rilevazione dei dBA tiene conto anche dei rumori di sottofondo):
8800GTX: 46dBA
HD2900XT: 48dBA (idle), 53 dBA (full load).
http://www.guru3d.com/article/Videocards/431/13/
http://www.guru3d.com/article/Videocards/391/10/
A questi risultati vanno aggiunti il suono delle casse, il fatto che molto spesso c'è più di un metro tra l'orecchio e il case, che spesso il case è chiuso e che spesso l'orecchio non coglie le differenze in modo così preciso come un rilevatore elettronico. ;)
Ma poi che test è quello?? Hanno settato Oblivion @1280, 4xAA e 16xAf..sono le impostazioni con cui gioco io (+HDR) e non mi fa certo 15fps (e non ho nemmeno una xtx)! :mbe:
CIaO
boh saranno test farlocchi allora..
Serve rollare gli occhi per una cosa del genere? Comunque sì, la x1950xt a pieno regime è più rumorosa della xtx.
Saluti
:rolleyes: :ciapet: non mi metto a cercare i dati relativi alla X1950XT, la 2900XT è molto rumorosa e consuma moltissimo; il rapporto rumore-prestazioni e consumo-prestazioni e tra i peggiori per le schede attualmente in circolazione. Poi ci possiamo mettere a discurete di tutto il resto ma questi sono dati di fatto e rimangono. Per primo ho segnalato come la scheda vada molto meglio a livello di performance rispetto a quello che inizialmente prospettato; cerco di fare ogni intervento fornendo documentazioni e dati accurati, spiegando il perché di quello che dico. Nell'intervento che hai quotato hai detto che ti riferivi ad una scheda diversa, ma io avevo quotato te non perché volessi farti vedere che la X1950XT è più o meno rumorosa di una 2900XT ma per fornire a tutti dei dati su cui ragionare sulla rumorosità della 2900XT; anche in virtù del tipo di dissipatore utilizzato, che è uno dei più efficenti usati su una scheda grafica default. E deve avere la ventola spinta al massimo...
Secondo me stai facendo calcoli un po' troppo teorici perdendo di vista la realtà dei fatti.
Non mi addentro nei calcoli, ma comunque mi pare ovvio che in realtà quando il pc è in funzione (soprattutto se di fascia alta) faccia un certo rumore. Come ho già ripetuto più volte, quello che conta è: un pc con dentro una R600, in condizioni normali di rumore circostante e di posizionamento della scheda, fa sensibilmente più rumore di una 8800? Ossia il rumore che io percepisco è notevolmente superiore? Questa è una domanda alla quale mi pare impossibile dare una risposta precisa guardando solo una tabella con dei dati rilevati con uno strumento di precisione a 10cm.
Non ho fatto nessun calcolo teorico, ho cercato di dare una spiegazione terra-terra, se vuoi posso iniziare a calcolare in modo preciso. Ti ho dimostarto che la differenza tra le due schede è percepibile, cercando di essere chiaro e sintetico. Ripeto per l'ultima volta: un PC normale, in media, con una 2900XT montata dentro, fa rumore in modo sensibilmente più alto di una 8800GTX.
Non ho fatto nessun calcolo teorico, ho cercato di dare una spiegazione terra-terra, se vuoi posso iniziare a calcolare in modo preciso. Ti ho dimostarto che la differenza tra le due schede è percepibile, cercando di essere chiaro e sintetico. Ripeto per l'ultima volta: un PC normale, in media, con una 2900XT montata dentro, fa rumore in modo sensibilmente più alto di una 8800GTX.
In base a cosa tu dica questo mi è ignoto, visto che tu non hai una HD2900 XT a portata di mano. O sbaglio?
Rileggiti i dati che ho postato sopra, ciao.
Anzi, te li riporto:
8800GTX: 46dBA
HD2900XT: 48dBA (idle), 53 dBA (full load).
http://www.guru3d.com/article/Videocards/431/13/
http://www.guru3d.com/article/Videocards/391/10/
Per i distinguo da fare basta leggere il mio post precedente.
Athlon 64 3000+
19-05-2007, 12:23
la ventola della HD 2900XT all'accensione è più silenzionsa di quella della mia X1900XT e poi in idle la ventola è sempre più silenziosa.
Invece quando lancio una applicazione 3d la ventola va direttamente al massimo facendo abbastanza casino e quindi più rumorosa di quella della X1900XT e viaggia sempre al massimo della velocità durante tutto il tempo dell'esecuzione dell'applicazione 3d e quando esce dopo un paio di secondi rallenta di brutto e torna alla velocità che tiene in idle.
Il problema è che la ventola tiene 2 velocità,una in idle e una sotto carico senza velocità intermedie andando sempre al massimo in 3d e penso che sia un problema del driver che non pilotano bene la ventola.
la ventola della HD 2900XT all'accensione è più silenzionsa di quella della mia X1900XT e poi in idle la ventola è sempre più silenziosa.
Invece quando lancio una applicazione 3d la ventola va direttamente al massimo facendo abbastanza casino e quindi più rumorosa di quella della X1900XT e viaggia sempre al massimo della velocità durante tutto il tempo dell'esecuzione dell'applicazione 3d e quando esce dopo un paio di secondi rallenta di brutto e torna alla velocità che tiene in idle.
Il problema è che la ventola tiene 2 velocità,una in idle e una sotto carico senza velocità intermedie andando sempre al massimo in 3d e penso che sia un problema del driver che non pilotano bene la ventola.
Infatti. Inoltre a questo punto dovremmo anche fare un paragone a parità di calore. Dato che da vari dati mi pare che grazie alla ventola rumorosa R600 scaldi meno di G80, allora abbassando la velocità della ventola, facendo in modo che le temperature siano simili per le 8800 e le 2900, si potrebbe fare un paragone più corretto. ;)
Il problema è che la ventola tiene 2 velocità,una in idle e una sotto carico senza velocità intermedie andando sempre al massimo in 3d e penso che sia un problema del driver che non pilotano bene la ventola.
La regolazione della ventola di default dovrebbe essere settata a livello Bios, non driver. Dovresti aspettare che il buon W1zzard rilasci a breve una nuova versione di ATITool compatibile con la HD2900XT...
CIaO
Athlon 64 3000+
19-05-2007, 12:47
La regolazione della ventola di default dovrebbe essere settata a livello Bios, non driver. Dovresti aspettare che il buon W1zzard rilasci a breve una nuova versione di ATITool compatibile con la HD2900XT...
CIaO
io magari aspetto una nuova versione di Ati Tray Tools che ho usato negli ultimi mesi con la X1900XT.
G-UNIT91
19-05-2007, 14:50
sembra confermata l' uscita del r650
http://www.fudzilla.com/index.php?option=com_content&task=view&id=871&Itemid=1
sembra confermata l' uscita del r650
http://www.fudzilla.com/index.php?option=com_content&task=view&id=871&Itemid=1
vista la fonte, posso pensare solo il contrario :asd:
vista la fonte, posso pensare solo il contrario :asd:
quoto decisamente inaffidabile...
http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_noise_5cm.gif
http://www.xbitlabs.com/images/video/radeonhd2000/test_results/2900xt_noise_1m.gif
In base a cosa tu dica questo mi è ignoto, visto che tu non hai una HD2900 XT a portata di mano. O sbaglio?
Rileggiti i dati che ho postato sopra, ciao.
Non ho una scheda a portata di mano, ma proprio i dati che mi hai linkato confermano che tra le due schede c'è una differenza di rumore consistente e che rientra nel range che avevo detto. Avevo letto anche quei dati prima di scrivere, non capscio la domanda di avere una scheda a disposizione? Tu la hai? Io ti posso dire che anche in base a quei valori, e al fatto che ho una delle due schede del confronto a portata di mano; la scheda ATI fa più rumore, e lo fa in modo percepibile. Lo riconfermo anche adesso.
Non ho una scheda a portata di mano, ma proprio i dati che mi hai linkato confermano che tra le due schede c'è una differenza di rumore consistente e che rientra nel range che avevo detto. Avevo letto anche quei dati prima di scrivere, non capscio la domanda di avere una scheda a disposizione? Tu la hai? Io ti posso dire che anche in base a quei valori, e al fatto che ho una delle due schede del confronto a portata di mano; la scheda ATI fa più rumore, e lo fa in modo percepibile. Lo riconfermo anche adesso.
dopo aver sentito le vecchie FX questa è niente e nulla mi stupisce :asd:
dopo aver sentito le FX questa è niente :asd:
Va bhe stai confrontando un aspirapolvere con una VGA dai :D. A parte gli scherzi ti ringraizo per i grafici che hai postato, la differenza viene confermata essere quella che avevo detto io, meno male, adesso abbiamo dati in dBA: 43,2 contro 51,8 è esattamente quello che dicevo io :D. E sono dati ad un metro di distanza.
Va bhe stai confrontando un aspirapolvere con una VGA dai :D. A parte gli scherzi ti ringraizo per i grafici che hai postato, la differenza viene confermata essere quella che avevo detto io, meno male, adesso abbiamo dati in dBA: 43,2 contro 51,8 è esattamente quello che dicevo io :D. E sono dati ad un metro di distanza.
:asd:
comunque non ho capito se il test lo hanno effettuato a case chiuso (non credo), case aperto (probabile) o senza case (quasi certo) :stordita:
:asd:
comunque non ho capito se il test lo hanno effettuato a case chiuso (non credo), case aperto (probabile) o senza case (quasi certo) :stordita:
Spero e credo senza case, perché con il case sarebbe veramente troppo rumore per tutte le schede esaminate, poi mi posso sbagliare.
Per comparazione:
To further extend the comparison, the GeForce FX 5800 weighed in at 77 dBA on our sound meter with the fan spun all the way up
http://images.anandtech.com/reviews/video/nvidia/geforcefx/review/nvidia.zip ( no comment )
By anandtech.
;)
Cribbbio, chiudiamo sto capitolo del rumore... :doh:
http://img341.imageshack.us/img341/9599/immagineai1.th.jpg (http://img341.imageshack.us/my.php?image=immagineai1.jpg)
:sofico:
Per comparazione:
To further extend the comparison, the GeForce FX 5800 weighed in at 77 dBA on our sound meter with the fan spun all the way up
http://images.anandtech.com/reviews/video/nvidia/geforcefx/review/nvidia.zip ( no comment )
By anandtech.
;)
lo avevo anch'io quel video
la prima volta che l'ho sentita dal vero sono rimasto così:
http://img128.imageshack.us/img128/8203/20060125074957looksisi3qv4.gif
il suono era insopportabile perchè la ventola girava come un'ossessa ed era pure piccola
Qualcuno aveva già postato questa recensione russa? :D
http://www.sunrise.nnov.ru/articles/?prod_id=10224
Qualcuno aveva già postato questa recensione russa? :D
http://www.sunrise.nnov.ru/articles/?prod_id=10224
bene, bene :D lego subito!! Se avete bisogno della traduzione sono qua.. ;)
bene, bene :D lego subito!! Se avete bisogno di traduzione sono qua.. ;)
Uhm, credo di avere sbagliato thread, volevo postare nell'altro... :stordita: :ops:
Comunque credo meritino un commento i test sintetici verso la fine. Ci sono i grafici commentati degli stessi test postati da HKEPC, che però sembrano essere test made in AMD, quindi ovviamente pro-R600. Inoltre ci sono alcuni test con RightMark, e anche lì R600 si comporta bene. :)
Uhm, credo di avere sbagliato thread, volevo postare nell'altro... :stordita: :ops:
Comunque credo meritino un commento i test sintetici verso la fine. Ci sono i grafici commentati degli stessi test postati da HKEPC, che però sembrano essere test made in AMD, quindi ovviamente pro-R600. Inoltre ci sono alcuni test con RightMark, e anche lì R600 si comporta bene. :)
Recensione veramente interesante!!
Non sto a tradurre tutto., lo dico solo ke la scheda ha riservato delle sorprese in ambito DX10 e saranno migliorate notevolmente con driver più maturi.. speriamo :sperem:
appleroof
20-05-2007, 10:34
In base a cosa tu dica questo mi è ignoto, visto che tu non hai una HD2900 XT a portata di mano. O sbaglio?
E tu invece (così come una 8800gtx) o sbaglio?
dopo aver sentito le vecchie FX questa è niente e nulla mi stupisce :asd:
Infatti quando ho sentito quel video mi pareva di risentire la mia vecchia 5700ultra :asd:
;)
E tu invece (così come una 8800gtx) o sbaglio?
Io non ho nè l'una nè l'altra. Ma almeno non pretendo di dare giudizi certi non avendo sottomano entrambe le schede (su una materia tra l'altro così soggettiva come il rumore). Ho forse detto che sicuramente HD2900 non faccia casino? Che è più silenziosa della 8800? Ho solo criticato questa uscita "un PC normale, in media, con una 2900XT montata dentro, fa rumore in modo sensibilmente più alto di una 8800GTX", che a me pare impossibile da farsi con certezza se non si hanno entrambe le schede a portata di mano. Poi ognuno la può pensare come vuole.
Tra l'altro la faccenda era già chiusa e non mi pare che VitOne avesse bisogno di un avvocato. Ciao. :)
halduemilauno
20-05-2007, 10:48
Io non ho nè l'una nè l'altra. Ma almeno non pretendo di dare giudizi certi non avendo sottomano entrambe le schede (su una materia tra l'altro così soggettiva come il rumore). Ho forse detto che sicuramente HD2900 non faccia casino? Che è più silenziosa della 8800? Ho solo criticato questa uscita "un PC normale, in media, con una 2900XT montata dentro, fa rumore in modo sensibilmente più alto di una 8800GTX", che a me pare impossibile da farsi con certezza se non si hanno entrambe le schede a portata di mano. Poi ognuno la può pensare come vuole.
Tra l'altro la faccenda era già chiusa e non mi pare che VitOne avesse bisogno di un avvocato. Ciao. :)
non ti basta questo?
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_20.html
appleroof
20-05-2007, 10:49
Io non ho nè l'una nè l'altra. Ma almeno non pretendo di dare giudizi certi non avendo sottomano entrambe le schede (su una materia tra l'altro così soggettiva come il rumore). Ho forse detto che sicuramente HD2900 non faccia casino? Che è più silenziosa della 8800? Ho solo criticato questa uscita "un PC normale, in media, con una 2900XT montata dentro, fa rumore in modo sensibilmente più alto di una 8800GTX", che a me pare impossibile da farsi con certezza se non si hanno entrambe le schede a portata di mano. Poi ognuno la può pensare come vuole.
Tra l'altro la faccenda era già chiusa e non mi pare che VitOne avesse bisogno di un avvocato. Ciao. :)
:rolleyes:
non significa nulla (la felicissima uscita finale), solo che sei l'unico che ha insistito nettamente, quasi tu avessi la certezza, sulla silenziosità della scheda dopo quel video e dopo che tutte le rece indicano la scheda come molto rumorosa, per cui ho risposto a titolo personale.
Per cui se dici ad un altro che non può dire che la scheda è fastidiosa non avendo la scheda a disposizione, non puoi affermare il contrario, non avendola nemmeno tu. Ciao. :)
CiAoRaGa1
20-05-2007, 10:56
Sono appena passato da 8800GTX a 2900xt; vi assicuro che la differenza in rumorosità è veramente notevole, soprattutto in Full.
Non è sicuramente una scheda da HTPC o da amanti del silenzio! :D
CiAoRaGa1
20-05-2007, 11:07
Non credo ci sia qualcuno così folle da mettere una scheda video high-end su un HTPC :D
Considerando gli schermi full hd (1920x1200) e l'uscita hdmi con anche flusso audio non è una idea tanto folle, anzi....
Peccato che vedere un film in full hd con in sottofondo un phon non è il massimo della vita :D
Io non ho nè l'una nè l'altra. Ma almeno non pretendo di dare giudizi certi non avendo sottomano entrambe le schede (su una materia tra l'altro così soggettiva come il rumore). Ho forse detto che sicuramente HD2900 non faccia casino? Che è più silenziosa della 8800? Ho solo criticato questa uscita "un PC normale, in media, con una 2900XT montata dentro, fa rumore in modo sensibilmente più alto di una 8800GTX", che a me pare impossibile da farsi con certezza se non si hanno entrambe le schede a portata di mano. Poi ognuno la può pensare come vuole.
Tra l'altro la faccenda era già chiusa e non mi pare che VitOne avesse bisogno di un avvocato. Ciao. :)
Io ringrazio apple per essere intervenuto, e non credo che fosse un intervento in mia difesa ma un'esperssione del suo pensiero che è concorde con il mio. La mia frase, anche leggendo i vari valori postati nel 3D, rimane quella: un PC normale, in media, con una 2900XT montata dentro, fa rumore in modo sensibilmente più alto di una 8800GTX. Io so quanto rumore fa la 8800GTX senza case, so quanto rumore fa la GTX con il case chiuso e con dei piccoli accorgimenti per insonorizzarlo, e ho la differenza di rumore che fanno le due schede a 10cm e 100cm. A questo punto, avendo ben presente la mia scheda e avendo dei dati dell'altra che reputo sufficienti, posso permettermi di sostenere la mia tesi. Perché se una scheda fa il doppio del rumore della mia a 10cm allora farà un rumore tra il 150% ed il 200% in più in un case aperto e ad un m di distanza o in un case chiuso.
Ma la differenza rimane e non ci vuole nessun calcolo scientifico o cosa per dimostrarlo, sono sufficienti i dati che abbiamo. Quando si parla di tecnlogie grafiche che non conosco io sto zitto ed ascolto, e sono felice di essere ignorate perché sono qui per imparare qualcosa, e lo dico sempre. Inoltre sono disponibilissimo a ritrattare le mie tesi; ho rivalutato molto in positivo il giudizio su questa scheda. Noto (non è un intervento a titolo personale nei tuoi confronti, ma una riflessione generale) che da parte di molti non c'è nessuna predisposizione ad imparare ma solamente a sostenere le proprie tesi criticando gli altri senza un fondamento scientifico ma con la sola "cocciutaggine"; spesso per difendere un "marchio" o un prodotto, senza rendeci conto di quanto esso possa renderci schiavi. Io ho avuto AMD, ATI, Intel, nVidia e altro, passando di volta in volta al prodotto che era più conveniente per me. Ripeto nessun fine personale, ma in questo 3d noto da una parte schieramenti proAMD dall'altra pronVidia che si scontrano, senza rendersi conto che il fine di entrambe le aziende è guadagnare, e guadagnare e guadagnare.
Non credo ci sia qualcuno così folle da mettere una scheda video high-end su un HTPC :D
quoto
Si, ma per vedere i film in fullhd con l'HTPC basterà una HD2400 da 50€ :>
e riquoto :O
..CUT..
Il mio intervento era volutamente ironico per evidenziare come in realtà ad una certa frangia non interessi assolutamente nulla di discutere di qualcosa di tecnico sui thread, ma preferisca fare i soliti post flammosetti. Anche nel mio caso nulla di personale nei tuoi confronti, visto che chi segue i thread di questa scheda da qualche tempo sa bene a chi mi riferisco.
Posso solo dire che certi interventi (a volte nemmeno a farlo apposta arrivano in gruppo) stanno scocciando, e non credo che sia solo una mia impressione.
ale0bello0pr
21-05-2007, 00:27
dopo un pò di impegni di lavoro rieccomi sul mio amato thread R600 che ogni giorno che passa cambia sempre di valutazione(flop) in valutazione(resurrezione :asd:)
Intanto è uscita una foto della prox vga in uscita la HD 2600 XT GDDR4 512MB
http://aycu28.webshots.com/image/15187/2000472317704922645_rs.jpg
magari è photoshop,fake... :blah: :blah:
chi vivrà, vedrà..:rolleyes:
http://www.gecube.com/products-detail.php?prod_cat_pid=193&prod_cat_id=196&prod_id=66137
dopo un pò di impegni di lavoro rieccomi sul mio amato thread R600 che ogni giorno che passa cambia sempre di valutazione(flop) in valutazione(resurrezione :asd:)
Intanto è uscita una foto della prox vga in uscita la HD 2600 XT GDDR4 512MB
http://aycu28.webshots.com/image/15187/2000472317704922645_rs.jpg
magari è photoshop,fake... :blah: :blah:
chi vivrà, vedrà..:rolleyes:
A me sembra abbastanza verosimile, nche se sapevo che doveva essere 256 Mb.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.