Quote:
Originariamente inviato da Mparlav
Se l'architettura R600/Rv670 è più complessa da bilanciare a livello driver, e c'è scarsa collaborazione con le sw house per lo sviluppo, è un loro problema.
Un'architettura più "facile" da programmare è un pregio.
Cosa può importare all'utente delle loro difficoltà di programmazione?
Dai 7.4 beta agli attuali driver, di certo non è mancato il tempo.
|
Ahh... mamma mia. E cosa ho detto io? Che essere più difficile da programmareè un pregio? Ma dico io: almeno cercate di leggere quello che si scrive. E sinceramente non capisco l'acidità della risposta (o meglio la capisco ma non giustifico).
Quello che ho detto è che il problema driver è reale: ATI, oggi come oggi, può ottimizzare i suoi drivers mesi dopo la concorrenza. E questo (lo ripeto, perchè era scritto anche prima) è una grave mancanza da parte ATI.
Quote:
Originariamente inviato da Mparlav
Sullo sbilanciamento per il calcolo matematico della R600, ho anche qui i miei dubbi. Il kit di sviluppo della Amd è arrivato in ritardo come il resto mentre CUDA molto prima, e confronti sul Gpgpu non ce ne sono.
Ma ho trovato questo confronto:
http://www.hothardware.com/articles/...otout/?page=11
Quindi se R600 è più veloce per i calcoli matematici, deve ancora dimostrarlo.
|
A) Stavo parlando degli shader, non del GPGPU, e comunque in quella recensione hanno comparato un R600 a 668 Mhz con un G80 a 600/XXXXMHz, quindi una scheda da 427 GFLOPS con una da oltre 500 (se il rapporto tra shader core e e resto del chip è come sulla ultra, si parla di 567 Gflops, il
30% in più). Per quanto riguarda il calcolo matematico negli shader rimando qui:
http://techreport.com/articles.x/12458/3
(vedere i risultati sui Pixel e Vertex Shader)
http://www.xbitlabs.com/articles/vid..._16.html#sect0 (Marco Dolenc fillrate tester, PS 2.0 longer)
matematicamente R6X0 si comporta molto bene, nel caso reale però risente della carenza di potenza nel texturing, e questo si evince negli altri test pixel shader, dove c'è frequente accesso alle texture.
B) ho parlato di "sbilanciamento", e non di prestazioni pure superiori alla controparte, in quanto anche a livello teorico le 8800 GT e GTS 512 sono schede che hanno un picco di operazioni matematiche per secondo superiori anche ad RV670. Lo "sbilanciamento" di cui parlo nasce dal fatto che la capacità matematica è sullo stesso ordine di grandezza della controparte, ma non altrettanto si può dire delle capacità di texturing e di MSAA.
Quote:
Originariamente inviato da Mparlav
Per il confronto con la 8800GTS 640Mb: ci sono molte recensioni in rete, non solo Hwupgrade :-).
La situazione è identica a quella di giugno, non è cambiato nulla. Sono migliorati i driver Amd, ma anche quelli Nvidia.
Per quanti giochi ci siano in cui la 2900XT supera la vecchia 8800GTS, ne trovo anche di più dove avviene il contrario.
Ad esempio, basta guardare l'ultima di Xbitlabs, vs la 320Mb (penalizzata per il quantitativo di memoria in alcuni giochi tipo Fear, CoH o WiC):
http://www.xbitlabs.com/articles/vid...70-hd3850.html
su 18 giochi recensiti, vediamolo se la 2900XT è davanti :-)
|
Per una recensione che mi porti, te ne posso portare un'altra che dice l'opposto:
http://www.computerbase.de/artikel/h...formancerating
Ma io ho detto "spesso" e non "sempre", quindi cerchiamo di capirci ancora una volta. Forse ciò che non è lode per Nvidia automaticamente insulto?
Il discorso è che le modalità di test influenzano fortemente i risultati, quindi una recensione non è detto che sia esaustiva. A mio parere le due schede (2900XT e GTS 640) sono comunque molto vicine e sostanzialmente alla pari. E, ad ogni modo, oggi il confronto è di lana caprina perchè comunque il confronto andrebbe fatto da HD3870 e GT/GTS 512, dove Nvidia vince a mani basse e ATI invece punta sul prezzo.
Quote:
Originariamente inviato da Mparlav
Per il performance/price, è comodo confrontare con la 8800Ultra che è EOL come la GTX.
E cmq questa costerà sempre di meno fino ad esaurimento scorte.
Ma perchè non lo fate con la 8800GTS OC della recensione, che costa 320 euro, va quanto o più della GTX a seconda della risoluzione, ma soprattutto consuma MOLTO meno?
|
Come ho ripetuto decine di volte, nessuno sta difendendo questa soluzione: a mio parere è ingombrante, consuma troppo ed è comunque una soluzione inefficiente e che richiede molto supporto a livello drivers. Ciò non toglie che questa sia una mia opinione personale (io tralaltro ho una 8800 GTS 512 nel mio PC) Quello che invece non capisco è perchè se si parteggia per una determinata casa di hardware tutto ciò che fanno i concorrenti sia sempre e comunque sbagliato.