View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT
TecnoWorld8
06-07-2007, 15:33
Sinceramente nessuno ti è venuto contro ti stiamo facendo aprire gl'occhi su una scheda che IMHO è sottovalutata ;)
"venire contro" nel senso bonario del termine, cioè di "discussione tra amici" :) nel senso...io faccio un po' la parte dell'avvocato del diavolo nei confronti di questa scheda e - forse giustamente - voi che ne siete soddisfatti dite che esagero ;)
Mi sa che anch'io ho lo stesso problema... :rolleyes: :rolleyes: :rolleyes:
Devo solo trovare il coraggio di fare la "spesona". Ammetto che mi girerebbero le scatole se magari fra 1-2 mesi uscisse un R600 a 65nm magari più performante e con consumi ridotti...
si ma se ragioni così non prenderai nemmeno r600 a 45mn
+Lonewolf+
06-07-2007, 15:34
Sinceramente nessuno ti è venuto contro ti stiamo facendo aprire gl'occhi su una scheda che IMHO è sottovalutata ;)
;)
+Lonewolf+
06-07-2007, 15:35
ma se mi si tira in ballo, io rispondo! avevo iniziato con il postare la news dei 65nm possibili per R600, dicendo che lo spero perchè finalmente potrebbe essere competitiva veramente e...hanno iniziato a darmi contro, dunque mi sono difeso.
ripeto, io avevo SOLO postato una notizia, dato che R600 mi interessa potenzialmente, ma non a 80nm e non a questo prezzo. con questo, chiudo il mio intervento.
il prezzo è ottimo, per la tecnologia e le prestazioni che offre imho
ma se mi si tira in ballo, io rispondo! avevo iniziato con il postare la news dei 65nm possibili per R600, dicendo che lo spero perchè finalmente potrebbe essere competitiva veramente e...hanno iniziato a darmi contro, dunque mi sono difeso.
ripeto, io avevo SOLO postato una notizia, dato che R600 mi interessa potenzialmente, ma non a 80nm e non a questo prezzo. con questo, chiudo il mio intervento.
ah ok pardon...
cmq credo che la r600 a 65nm non la faranno, con ogni probabilità uscirà r700 con quel processo produttivo il prossimo anno...
Mi sa che anch'io ho lo stesso problema... :rolleyes: :rolleyes: :rolleyes:
Devo solo trovare il coraggio di fare la "spesona". Ammetto che mi girerebbero le scatole se magari fra 1-2 mesi uscisse un R600 a 65nm magari più performante e con consumi ridotti...
Ragazzi noi possiamo solo dirvi come va con gli ultimi driver, poi sta a voi prendere la scelta io sono stato obbligato quindi ho scelto la 2900xt...sta a voi decidere (di aspettare una versione a 65nm per me improbabile sarebbe stato inutile il lanco della sorella da 1gb a 80nm sempre IMHO) o prendere questa :cool:
+Lonewolf+
06-07-2007, 15:37
ah ok pardon...
cmq credo che la r600 a 65nm non la faranno, con ogni probabilità uscirà r700 con quel processo produttivo il prossimo anno...
io avevo letto 55nm invece che 65, ma se ne parla nel 2008, per ora sec me nvidia e ati non tireranno fuori roba nuova almeno fino a fine anno...queste bastano e avanzano
io avevo letto 55nm invece che 65, ma se ne parla nel 2008, per ora sec me nvidia e ati non tireranno fuori roba nuova almeno fino a fine anno...queste bastano e avanzano
La penso allo stesso modo sinceramente ribadisco sarebbe stato inutile tirare fuori la versione da 1gb con quel processo produttivo
+Lonewolf+
06-07-2007, 15:40
La penso allo stesso modo sinceramente ribadisco sarebbe stato inutile tirare fuori la versione da 1gb con quel processo produttivo
con la vers da 1gb ati ha aftto un po' come nvidia ha fatto con le gts...2 versioni, solo che una s comporta meglio a risoluzioni + elevate...
io avevo letto 55nm invece che 65, ma se ne parla nel 2008, per ora sec me nvidia e ati non tireranno fuori roba nuova almeno fino a fine anno...queste bastano e avanzano
si ultimamente si era parlato in alcune news addirittura di 55nm ed è probabile che queste nuove gpu debutteranno col nuovo slot pci-e 2...
TecnoWorld8
06-07-2007, 15:44
ovviamente è possibile che ATi non faccia uscire altro high end fino ad R700, ma secondo me ci sarebbe spazio, anche come "nomenclatura", per una XTX o una 2950. Altrimenti credo che quella da 1GB l'avrebbero chiamata XTX, appunto, come nei piani originali.
Poi dipende sempre, economicamente, da quanto converrebbe ad ATi migliorare il processo produttivo di un chip che magari poi sostituirebbe già dopo 6 mesi...però se guardate nella roadmap si parla di un miglioramento del processo ogni 6 mesi, quindi potrebbe essere verso ottobre/novembre. l'importante, dal mio punto di vista, sarebbe sapere al più presto se ci sarà...
+Lonewolf+
06-07-2007, 15:45
si ultimamente si era parlato in alcune news addirittura di 55nm ed è probabile che queste nuove gpu debutteranno col nuovo slot pci-e 2...
tanto sarà retrocompatibile...io sto lavorando ad una mod per non perdere prestazioni tra i 2 slot...ho provato a settare il mio a 150 con overvolt e sono un po' instabile xò c sto ancora lavorando
con pci-e a 150 si dovrebbe perdere poco rispetto al pci 2.0 che nn ricordo a che freq va
TecnoWorld8
06-07-2007, 15:46
tanto sarà retrocompatibile...io sto lavorando ad una mod per non perdere prestazioni tra i 2 slot...ho provato a settare il mio a 150 con overvolt e sono un po' instabile xò c sto ancora lavorando
con pci-e a 150 si dovrebbe perdere poco rispetto al pci 2.0 che nn ricordo a che freq va
il 2.0 andrà a ben 250Mhz
+Lonewolf+
06-07-2007, 15:48
il 2.0 andrà a ben 250Mhz
OMG:eek:
cosa mi invento?
c metto il ghiaccio e un kw di overvolt? :sofico:
Forse uscirà una Hd2900XT a 65nm.Che dite aspettiamo?:D
http://www.tomshw.it/news.php?newsid=10700
Questo è quanto detto:
La divisione schede grafica sembra orientata a fare un uso fugace del processo produttivo a 65 nanometri, utilizzato nelle attuali proposte HD 2600/2400. Probabilmente vedremo un nuovo modello di HD 2900 XT con tale processo, scelto per aumentare la competitività del prodotto in tutti gli ambiti (prestazioni, consumi, etc).
guarda il processo per le 2600 e 2400 è molto "rozzo" e non adatto ad un chip di complessità come le 2900 per avere rese e chip funzionanti in maniera ideale.
storia insegna come all'epoca dei X800 con i 13mn si andava sopra i 600mhz mentre con gli 11mn ma senza ottimizazioni nn si andava oltre i 450mhz.
stessa cosa per le x1950xt che con i 9nm andavano a 700mhz di core e le x1950pro fatte con 8mn ma con processo nn ottimizzato nn si superavano i 600mhz.
ergo pensare che il processo usato adesso a 65nm possa realizzare un chip complesso come r600 non credo sia fattibile.
ergo tocca aspettare un processo a 65mn raffinato circa un 6 mesi.
il che vuol dire che un 65nm forse si parla per un plausibile 2950.
e poi come ben sappiamo i 65mn non serviranno per abbassare i consumi ma per mantenere i consumi stabili su questo livello o sensibilmente + bassi ma alzare le frequenze di 60-100mhz.
Quoziente
06-07-2007, 15:57
Ragazzi noi possiamo solo dirvi come va con gli ultimi driver, poi sta a voi prendere la scelta io sono stato obbligato quindi ho scelto la 2900xt...sta a voi decidere (di aspettare una versione a 65nm per me improbabile sarebbe stato inutile il lanco della sorella da 1gb a 80nm sempre IMHO) o prendere questa :cool:
Infatti ultimamente sono sintonizzato perennemente sui thread riguardanti R600. Comunque un grazie a voi che vi "sbattete" a fare prove, test e postarne i risutati aiutando gli altri utenti come me a decidere come spendere al meglio i propri risparmi. ;)
tanto sarà retrocompatibile...io sto lavorando ad una mod per non perdere prestazioni tra i 2 slot...ho provato a settare il mio a 150 con overvolt e sono un po' instabile xò c sto ancora lavorando
con pci-e a 150 si dovrebbe perdere poco rispetto al pci 2.0 che nn ricordo a che freq va
gia il pci-e normale in teoria offre banda a sufficenza, non vedo a cosa possa servire un pci-e 2.0 :O solo xke si vuole eliminare il connettore supplementare di corrente? mha, che lo prenda direttamente dal ali, o dalla mobo, la corrente è sempre quella :asd: .
per il fatto che lavori a 250 MHz... interessante :eek:
Iantikas
06-07-2007, 16:58
ot:
uff ke OO...la hd2900xt l'ho presa da uno shop da cui nn avevo mai aquistato...ordine del 3 luglio, prodotto disponibile, il giorno dopo hanno kiamato a casa x kiedere conferma dato ke era in contrassegno (mai visto usare questa procedura), ora cmq 6 luglio dice sempre confermato dal cliente e nn rispondono al tel e cmq avrebbero dovuto già spedire...quand'è così mi vien da disdire e mandare tutti a quel paese...peccato ke co sta velocità d comunicazione c perdo almeno fino a lunedi x farlo...
...l'unico lato positivo è ke questa sarà la prima e l'ultima volta ke aquisterò li :O ...ciao
fine ot
davide155
06-07-2007, 17:01
ot:
uff ke OO...la hd2900xt l'ho presa da uno shop da cui nn avevo mai aquistato...ordine del 3 luglio, prodotto disponibile, il giorno dopo hanno kiamato a casa x kiedere conferma dato ke era in contrassegno (mai visto usare questa procedura), ora cmq 6 luglio dice sempre confermato dal cliente e nn rispondono al tel e cmq avrebbero dovuto già spedire...quand'è così mi vien da disdire e mandare tutti a quel paese...peccato ke co sta velocità d comunicazione c perdo almeno fino a lunedi x farlo...
...l'unico lato positivo è ke questa sarà la prima e l'ultima volta ke aquisterò li :O ...ciao
fine ot
Shoppe?
leoneazzurro
06-07-2007, 17:08
guarda il processo per le 2600 e 2400 è molto "rozzo" e non adatto ad un chip di complessità come le 2900 per avere rese e chip funzionanti in maniera ideale.
storia insegna come all'epoca dei X800 con i 13mn si andava sopra i 600mhz mentre con gli 11mn ma senza ottimizazioni nn si andava oltre i 450mhz.
stessa cosa per le x1950xt che con i 9nm andavano a 700mhz di core e le x1950pro fatte con 8mn ma con processo nn ottimizzato nn si superavano i 600mhz.
ergo pensare che il processo usato adesso a 65nm possa realizzare un chip complesso come r600 non credo sia fattibile.
ergo tocca aspettare un processo a 65mn raffinato circa un 6 mesi.
il che vuol dire che un 65nm forse si parla per un plausibile 2950.
e poi come ben sappiamo i 65mn non serviranno per abbassare i consumi ma per mantenere i consumi stabili su questo livello o sensibilmente + bassi ma alzare le frequenze di 60-100mhz.
Non è (solo) un problema di "processo non ottimizzato" o di "processo ottimizzato", ma di "processo ottimizzato per le frequenze" e "processo ottimizzato per i consumi". I processi produttivi, anche con la stessa "dimensione nominale" non sono tutti uguali. Per andare su in frequenza spesso e volentieri si deve sacrificare parecchio sul piano dei consumi (ad esempio il leakage tende ad aumentare) mentre ad esempio lo scopo del processo ad 80 nm di RV567-570 era 1) di ridurre l'area del die, quindi abbassare i costi e 2) diminuire i consumi, quindi si è scelto un processo si a 80 nm ma non ad alte prestazioni, che quindi consuma di meno ma "sale" anche meno in frequenza. Del resto se si fosse creato un RV560/570 a 80 nm e con frequenze di 700-800 MHz i consumi sarebbero stati probabilmente troppo alti per il segmanto performance, ed inoltre le prestazioni si sarebbero sovrapposte a quelle di R580+ .
Per fare un altro esempio, per R600 ATI ha scelto un processo a 80nm ad alte prestazioni (ma ad alto consumo) mentre per RV630/R610 il processo è un 65 nm "standard", ossia senza particolari caratteristiche di prestazioni o consumo.
3DMark79
06-07-2007, 17:09
Infatti ultimamente sono sintonizzato perennemente sui thread riguardanti R600. Comunque un grazie a voi che vi "sbattete" a fare prove, test e postarne i risutati aiutando gli altri utenti come me a decidere come spendere al meglio i propri risparmi. ;)
Quoto al 100%!
Per questo non possiamo che ringraziarvi! :mano:
Non è (solo) un problema di "processo non ottimizzato" o di "processo ottimizzato", ma di "processo ottimizzato per le frequenze" e "processo ottimizzato per i consumi". I processi produttivi, anche con la stessa "dimensione nominale" non sono tutti uguali. Per andare su in frequenza spesso e volentieri si deve sacrificare parecchio sul piano dei consumi (ad esempio il leakage tende ad aumentare) mentre ad esempio lo scopo del processo ad 80 nm di RV567-570 era 1) di ridurre l'area del die, quindi abbassare i costi e 2) diminuire i consumi, quindi si è scelto un processo si a 80 nm ma non ad alte prestazioni, che quindi consuma di meno ma "sale" anche meno in frequenza. Del resto se si fosse creato un RV560/570 a 80 nm e con frequenze di 700-800 MHz i consumi sarebbero stati probabilmente troppo alti per il segmanto performance, ed inoltre le prestazioni si sarebbero sovrapposte a quelle di R580+ .
Per fare un altro esempio, per R600 ATI ha scelto un processo a 80nm ad alte prestazioni (ma ad alto consumo) mentre per RV630/R610 il processo è un 65 nm "standard", ossia senza particolari caratteristiche di prestazioni o consumo.
più o meno lo stesso discorso applicabile per i chip nvidia g80 a 90nm e 80nm per la serie 8600-8500...
edit...:stordita:
3DMark79
06-07-2007, 17:16
Non è (solo) un problema di "processo non ottimizzato" o di "processo ottimizzato", ma di "processo ottimizzato per le frequenze" e "processo ottimizzato per i consumi". I processi produttivi, anche con la stessa "dimensione nominale" non sono tutti uguali. Per andare su in frequenza spesso e volentieri si deve sacrificare parecchio sul piano dei consumi (ad esempio il leakage tende ad aumentare) mentre ad esempio lo scopo del processo ad 80 nm di RV567-570 era 1) di ridurre l'area del die, quindi abbassare i costi e 2) diminuire i consumi, quindi si è scelto un processo si a 80 nm ma non ad alte prestazioni, che quindi consuma di meno ma "sale" anche meno in frequenza. Del resto se si fosse creato un RV560/570 a 80 nm e con frequenze di 700-800 MHz i consumi sarebbero stati probabilmente troppo alti per il segmanto performance, ed inoltre le prestazioni si sarebbero sovrapposte a quelle di R580+ .
Per fare un altro esempio, per R600 ATI ha scelto un processo a 80nm ad alte prestazioni (ma ad alto consumo) mentre per RV630/R610 il processo è un 65 nm "standard", ossia senza particolari caratteristiche di prestazioni o consumo.
Dunque non servirà a molto quello a 65nm per Hd2900xt sempre che uscirà?
Un tuo parere Leoneazzurro cosa consigli a noi acquirenti indecisi?E se vale la pena semmai prenderla con 1GB.
Mister Tarpone
06-07-2007, 17:16
più o meno lo stesso discorso applicabile per i chip nvidia g80 a 90nm e 65nm per la serie 8600-8500...
le 8600/8500 sono a 80nm http://img76.imageshack.us/img76/1294/smiledw4.gif ;)
le 8600/8500 sono a 80nm http://img76.imageshack.us/img76/1294/smiledw4.gif ;)
ah vero :doh:
Shoppe?
a proposito di shop fasulli,ma ti arrivò più l'ageia?
chiudo ot...
leoneazzurro
06-07-2007, 17:40
Dunque non servirà a molto quello a 65nm per Hd2900xt sempre che uscirà?
Un tuo parere Leoneazzurro cosa consigli a noi acquirenti indecisi?E se vale la pena semmai prenderla con 1GB.
Il processo servirà certo per ridurre i consumi se le frequenze rimanessero quelle attuali, visto che RV630 ha un consumo della sola GPU stimato in 45-50W con 390 Milioni di transistors, con R600 che ne ha 720Milioni ipoteticamente si può pensare ad un 800 MHz e 90-110W di consumo. Ma più probabilmente 1) il computo dei transistors aumenterà 2) le frequenze pure ( 3 le prestazioni anche, ma questo è un altro punto) mentre probabilmente a rimanere pressochè invariato sarà il consumo. Mentre un die shrink a 65 nm di R600, magari con versioni con unità disattivate, potrebbe calarsi nei panni di una soluzione "performance" (quella cha va dalle X1950XT alle GTS 320)
Per quanto riguarda i consigli, credo che ognuno debba decidere secondo le proprie preferenze.
Qui sul forum puoi trovare i pareri di molti utenti dell'una e dell'altra marca e le loro esperienze, nonchè link a recensioni esaurienti, io personalmente non possiedo nè una 2900XT nè una 8800 e quindi in ogni caso non potrei esserti di aiuto per il "feeling". Dico solo che con qualunque scheda di fascia alta oggi si gioca alla maggior parte dei giochi senza troppi problemi anche a risoluzioni "disumane".
picard88
06-07-2007, 17:47
boh..io avevo letto da qualche parte (forse una news di hwup.) che nella versione a 65 nm andavano a potenziare la parte che gestisce i filtri (detta molto alla carlona:p ) quindi le prestazioni con il multisampling AA dovrebbero aumentare dato che non verrebbero più utilizzati gli shader..tu ne sai qualcosa leone?
EDIT sbagliato quote
3DMark79
06-07-2007, 18:02
Il processo servirà certo per ridurre i consumi se le frequenze rimanessero quelle attuali, visto che RV630 ha un consumo della sola GPU stimato in 45-50W con 390 Milioni di transistors, con R600 che ne ha 720Milioni ipoteticamente si può pensare ad un 800 MHz e 90-110W di consumo. Ma più probabilmente 1) il computo dei transistors aumenterà 2) le frequenze pure ( 3 le prestazioni anche, ma questo è un altro punto) mentre probabilmente a rimanere pressochè invariato sarà il consumo. Mentre un die shrink a 65 nm di R600, magari con versioni con unità disattivate, potrebbe calarsi nei panni di una soluzione "performance" (quella cha va dalle X1950XT alle GTS 320)
Per quanto riguarda i consigli, credo che ognuno debba decidere secondo le proprie preferenze.
Qui sul forum puoi trovare i pareri di molti utenti dell'una e dell'altra marca e le loro esperienze, nonchè link a recensioni esaurienti, io personalmente non possiedo nè una 2900XT nè una 8800 e quindi in ogni caso non potrei esserti di aiuto per il "feeling". Dico solo che con qualunque scheda di fascia alta oggi si gioca alla maggior parte dei giochi senza troppi problemi anche a risoluzioni "disumane".
Certo se dici questo le prestazioni si presume ci saranno il problema e in che percentuale?Questa sarà una domanda che sicuramente ci proponiamo in molti.
Per il parere chiedevo a te oggettivamente cosa avresti fatto nei nostri panni visto che sei una persona competente in materia cmq non importa grazie cmq.;)
leoneazzurro
06-07-2007, 18:15
boh..io avevo letto da qualche parte (forse una news di hwup.) che nella versione a 65 nm andavano a potenziare la parte che gestisce i filtri (detta molto alla carlona:p ) quindi le prestazioni con il multisampling AA dovrebbero aumentare dato che non verrebbero più utilizzati gli shader..tu ne sai qualcosa leone?
EDIT sbagliato quote
Certo se dici questo le prestazioni si presume ci saranno il problema e in che percentuale?Questa sarà una domanda che sicuramente ci proponiamo in molti.
Per il parere chiedevo a te oggettivamente cosa avresti fatto nei nostri panni visto che sei una persona competente in materia cmq non importa grazie cmq.;)
No, informazioni certe non ce ne sono, ma l'aumento di prestazioni è la norma nei refresh delle VGA. La mia ipotesi, ma è solo un'ipotesi basata su meri ragionamenti miei e non dati oggettivi, è che un ipotetico refresh di R600 potrebbe essere quello che R580 è stato per R520, stavolta a vantaggio del texturing invece che a vantaggio della potenza di calcolo matematica. E quindi un R650 potrebbe essere un 4xRV630, con 96 (x5) unità di shading, e 8 (x4) unità di texturing, con un rapporto ALU:TEX di 3:1 anzichè 4:1 come in R600.
Per i RBE non saprei, possibile rimangano 16, potrebbero anche aumentare.
Solo che un chip del genere andrebbe vicino al miliardo di transistors, e le frequenze non credo potrebbero salire molto rispetto alla situazione attuale (cioè 800 MHz). Ma queste sono solo speculazioni.
Se poi volete sapere quale secondo me è l'architettura migliore, vi posso dire che nell'immediato G80 si è dimostrata più performante, ma che in DX10 "puro" è probabile che R600 riguadagni il terreno perso in DX9. L'unico problema è che di DX10 "puro" si vedrà ben poco in giro per un bel pò di tempo, anche i giochi sbandierati come "full DX10" in arrivo quest'anno in realtà utilizzeranno poco tutte le feature DX10. Comunque, come dicevo prima, se guardate i thread delle 8800 vedrete una lunga fila di utenti soddisfatti, se guardate i thread delle 2900... pure. Ergo, siccome le soluzioni di entrambe le aziende sono comparabili prestazionalmente e per prezzi, IMHO si sceglie in base al "feeling" e a ciò che si giocherà.
3DMark79
06-07-2007, 18:36
No, informazioni certe non ce ne sono, ma l'aumento di prestazioni è la norma nei refresh delle VGA. La mia ipotesi, ma è solo un'ipotesi basata su meri ragionamenti miei e non dati oggettivi, è che un ipotetico refresh di R600 potrebbe essere quello che R580 è stato per R520, stavolta a vantaggio del texturing invece che a vantaggio della potenza di calcolo matematica. E quindi un R650 potrebbe essere un 4xRV630, con 96 (x5) unità di shading, e 8 (x4) unità di texturing, con un rapporto ALU:TEX di 3:1 anzichè 4:1 come in R600.
Per i RBE non saprei, possibile rimangano 16, potrebbero anche aumentare.
Solo che un chip del genere andrebbe vicino al miliardo di transistors, e le frequenze non credo potrebbero salire molto rispetto alla situazione attuale (cioè 800 MHz). Ma queste sono solo speculazioni.
Se poi volete sapere quale secondo me è l'architettura migliore, vi posso dire che nell'immediato G80 si è dimostrata più performante, ma che in DX10 "puro" è probabile che R600 riguadagni il terreno perso in DX9. L'unico problema è che di DX10 "puro" si vedrà ben poco in giro per un bel pò di tempo, anche i giochi sbandierati come "full DX10" in arrivo quest'anno in realtà utilizzeranno poco tutte le feature DX10. Comunque, come dicevo prima, se guardate i thread delle 8800 vedrete una lunga fila di utenti soddisfatti, se guardate i thread delle 2900... pure. Ergo, siccome le soluzioni di entrambe le aziende sono comparabili prestazionalmente e per prezzi, IMHO si sceglie in base al "feeling" e a ciò che si giocherà.
In effetti per vedere giochi con pieno supporto DirectX9 ce ne voluto di tempo e la stessa cosa sarà per le D.10.
Crysis ne è un esempio, bello per quanto potrà essere...ma non avrà il pieno supporto.Imho bisognerà attendere la fine del 2008 per spremerle a dovere.
In effetti per vedere giochi con pieno supporto DirectX9 ce ne voluto di tempo e la stessa cosa sarà per le D.10.
Crysis ne è un esempio, bello per quanto potrà essere...ma non avrà il pieno supporto.Imho bisognerà attendere la fine del 2008 per spremerle a dovere.
però si potrebbe pensare a crysis come quando è uscito fracry, quindi a un ottimo banco di prova
nico88desmo
06-07-2007, 18:50
però si potrebbe pensare a crysis come quando è uscito fracry, quindi a un ottimo banco di prova
Infatti sarà uno dei nuovi test per verificare quanto veloce andranno queste schede
In effetti per vedere giochi con pieno supporto DirectX9 ce ne voluto di tempo e la stessa cosa sarà per le D.10.
Su questo ne dubito: m$ spinge molto per le DX10, e credo che già dall'inizio del 2008 ci saranno giochi pienamente DX10 ;)
3DMark79
06-07-2007, 19:08
però si potrebbe pensare a crysis come quando è uscito fracry, quindi a un ottimo banco di prova
Certamente sarà una ottima prova!
nico88desmo
06-07-2007, 19:13
Su questo ne dubito: m$ spinge molto per le DX10, e credo che già dall'inizio del 2008 ci saranno giochi pienamente DX10 ;)
io dubito su questo.
Crysis è stato sviluppato in DX9 e poi adattato alle DX10, facendo tutti i cambiamenti ritenuti necessari.
Quindi forse nel tardo 2008 si inizieranno a vedere giochi full dx10
Certamente sarà una ottima prova!
spero solo che non "demolisca" le sostre vga, e sepro che non lo faccia nemmeno UT3
3DMark79
06-07-2007, 19:35
spero solo che non "demolisca" le sostre vga, e sepro che non lo faccia nemmeno UT3
Lo spero soprattutto per voi che già l'avete presa! :sperem:
spero solo che non "demolisca" le sostre vga, e sepro che non lo faccia nemmeno UT3
Se parli di crysis non penso proprio che demolisca le nostre vga comprese nVidia non avrebbe senso far uscire un gioco se non è in grado di girare con le vga presenti sul mercato lo stesso vale per ue3 ;) sempre IMHO
3DMark79
06-07-2007, 19:45
Se parli di crysis non penso proprio che demolisca le nostre vga comprese nVidia non avrebbe senso far uscire un gioco se non è in grado di girare con le vga presenti sul mercato lo stesso vale per ue3 ;) sempre IMHO
Ed anche questo e vero.Come fare uscire schede video soprattutto di fascia alta che non riescano a far girare già i primi giochi in d.10 ad una qualità buona non avrebbe senso!
Lo spero soprattutto per voi che già l'avete presa! :sperem:
sisi fidati che lo spero anch'io
Se parli di crysis non penso proprio che demolisca le nostre vga comprese nVidia non avrebbe senso far uscire un gioco se non è in grado di girare con le vga presenti sul mercato lo stesso vale per ue3 ;) sempre IMHO
be per demolirla intendo a 1280 con AA e filti al max facendo tipo 30 o meno. certo che nn ha senso ma sapendo che queste vga dovranno renderizzare azzarderei a dire il doppio delle cose (se nn di più) di un DX9, è una previsione più che plausibile (anche se con tutto il cuore spero di no)
sisi fidati che lo spero anch'io
be per demolirla intendo a 1280 con AA e filti al max facendo tipo 30 o meno. certo che nn ha senso ma sapendo che queste vga dovranno renderizzare azzarderei a dire il doppio delle cose (se nn di più) di un DX9, è una previsione più che plausibile (anche se con tutto il cuore spero di no)
Spero di cuore in quella demo di crysis che si vocifera, così ci togliamo veramente tanti dubbi su queste schede in questo periodo di transizione :sperem:
Spero di cuore in quella demo di crysis che si vocifera, così ci togliamo veramente tanti dubbi su queste schede in questo periodo di transizione :sperem:
ci spero anch'io tantissimo, però ho l'impressione che: crysis forse è il titolo più atteso degli ultimi 4/5 anni, se quelli della crytek sperano di limitare la visione di crysis mettendo a disposizione solo 20000 copie, si sbagliano di grosso;) perché ci sono altri metodi per reperire almeno la versione in single player, quindi siccome non sono stupidi secondo me nn faranno nulla. cioè sarei io il primo che se so che quel giorno a quella ora iniziano a distribuire i key e le demo/beta mi metterei con 3 pc a fare F5 ogni quarto di secondo, iniziando 2 ore prima, ma per 2 cose che si chiamano saspens e marketing credo che non lo faranno.
+Lonewolf+
06-07-2007, 21:04
sisi fidati che lo spero anch'io
be per demolirla intendo a 1280 con AA e filti al max facendo tipo 30 o meno. certo che nn ha senso ma sapendo che queste vga dovranno renderizzare azzarderei a dire il doppio delle cose (se nn di più) di un DX9, è una previsione più che plausibile (anche se con tutto il cuore spero di no)
io personalmente credo che a 1280 con tutto a manetta volerà...anche 1600 con un AA2x...come può uscire un gioco che demolisce le high end...poi chi ci gioca?:mbe:
+Lonewolf+
06-07-2007, 21:05
ci spero anch'io tantissimo, però ho l'impressione che: crysis forse è il titolo più atteso degli ultimi 4/5 anni, se quelli della crytek sperano di limitare la visione di crysis mettendo a disposizione solo 20000 copie, si sbagliano di grosso;) perché ci sono altri metodi per reperire almeno la versione in single player, quindi siccome non sono stupidi secondo me nn faranno nulla. cioè sarei io il primo che se so che quel giorno a quella ora iniziano a distribuire i key e le demo/beta mi metterei con 3 pc a fare F5 ogni quarto di secondo, iniziando 2 ore prima, ma per 2 cose che si chiamano saspens e marketing credo che non lo faranno.
suspence:stordita:
io personalmente credo che a 1280 con tutto a manetta volerà...anche 1600 con un AA2x...come può uscire un gioco che demolisce le high end...poi chi ci gioca?:mbe:
:O se demolisce anche le high end, tutti a giocare a 640x480, se pensavate di esservi liberati di questa risoluzione-incubo, sbagliavate :sofico: :asd:
+Lonewolf+
06-07-2007, 21:24
:O se demolisce anche le high end, tutti a giocare a 640x480, se pensavate di esservi liberati di questa risoluzione-incubo, sbagliavate :sofico: :asd:
ma va va:p
:D
io personalmente credo che a 1280 con tutto a manetta volerà...anche 1600 con un AA2x...come può uscire un gioco che demolisce le high end...poi chi ci gioca?:mbe:
:O se demolisce anche le high end, tutti a giocare a 640x480, se pensavate di esservi liberati di questa risoluzione-incubo, sbagliavate :sofico: :asd:
be nn siamo così catastrofici, è vero che le dx10 a differenza delle 9 possono essere più ottimizzate, ma nn credo che avremo delle prestazioni da urlo. cioè forse prima ho esagerato, si è vero a 1280 sicuramente andra tutto bene, ma sicuramente ci dovremo dimenticare (almeno per un po') gli fps a qui siamo abituati oggi. quello che volevo dire era questo, ho esperesso male il concetto prima, sorry
TecnoWorld8
06-07-2007, 22:17
:O se demolisce anche le high end, tutti a giocare a 640x480, se pensavate di esservi liberati di questa risoluzione-incubo, sbagliavate :sofico: :asd:
o, in alternativa, escono delle nuove high end, dato che sarebbe ora ;) [ora mi ammazzano, hehe]
3DMark79
06-07-2007, 23:15
o, in alternativa, escono delle nuove high end, dato che sarebbe ora ;) [ora mi ammazzano, hehe]
Ti difendo io...ragazzi non ha detto nulla di male! :D :ahahah:
TecnoWorld8
06-07-2007, 23:20
Ti difendo io...ragazzi non ha detto nulla di male! :D :ahahah:
grazie, gentilissimo ;) p.s.: di bioshock è atteso un demo, prima del debutto ad agosto? la mia curiosità per quel gioco aumenta sempre più e sono davvero curioso di vedere come questa scheda lo farà girare.
3DMark79
07-07-2007, 00:11
grazie, gentilissimo ;) p.s.: di bioshock è atteso un demo, prima del debutto ad agosto? la mia curiosità per quel gioco aumenta sempre più e sono davvero curioso di vedere come questa scheda lo farà girare.
Dovrebbe uscire ad agosto il gioco completo come detto qui:
http://www.gamefun.it/?view=news.php&viewid=6276
ma il demo non so.
Se nel trailer che fanno vedere usano la hd2900xt allora va bene!:D
ragazzi io sono molto molto poco convinto che crysis sarà il banco di prova in cui le hd2900xt mostreranno la loro potenza per un semplice motivo.
come sappiamo il problema che affossa la hd2900xt è l'aa in shader mal digerito dalle dx9.
ergo la situazione sotto xp e crysis path dx9 sicuramente sarà la stessa visto che l'aa sarà sempre nella maniera dx9.
al contrario non sappiamo se crysis in dx10 sotto vista invece supporterà aa in shader...ad esempio nulla vieta ad un gioco di essere fulldx10 ma di scegliere di supportare una modalità di aa classica e nn in shader.
speravo in UT3 ma cmq è sempre un motore full dx9 sm3.0 che delle dx10 sfrutta solo la migliore gestione dell'overflow(che cmq nn è poco)
mah tutto sta a vedere come digerità crysis l'aa via shader in path dx10 xè se i programmatori della crytek hanno deciso di eliminare questa feature e supportare un aa di postprocessing come quello attuale il problema permane.
ragazzi io sono molto molto poco convinto che crysis sarà il banco di prova in cui le hd2900xt mostreranno la loro potenza per un semplice motivo.
come sappiamo il problema che affossa la hd2900xt è l'aa in shader mal digerito dalle dx9.
ergo la situazione sotto xp e crysis path dx9 sicuramente sarà la stessa visto che l'aa sarà sempre nella maniera dx9.
al contrario non sappiamo se crysis in dx10 sotto vista invece supporterà aa in shader...ad esempio nulla vieta ad un gioco di essere fulldx10 ma di scegliere di supportare una modalità di aa classica e nn in shader.
speravo in UT3 ma cmq è sempre un motore full dx9 sm3.0 che delle dx10 sfrutta solo la migliore gestione dell'overflow(che cmq nn è poco)
mah tutto sta a vedere come digerità crysis l'aa via shader in path dx10 xè se i programmatori della crytek hanno deciso di eliminare questa feature e supportare un aa di postprocessing come quello attuale il problema permane.
ti posso dare una buona notizia: sono ben 150 i programmatori che hanno lavorato su crysis, e siccome hanno ben dimostrato di saper lavorare con fracry si può sperare che tireranno fuori un lavoro estremamente ottimizzato e nn semplicemente pacciato alle dx10
brutta notizia (che nn è assolutamente confermata):
sul Thread di crysis pare che abbiano sapuda dai francesi che crysis lo faranno girare su una 8800gtx, un intel QX6x00, e verrà visualizzato su un 22". :mbe: bho :confused: :confused:
Perché sarebbe una brutta notizia? :mbe: :confused:
Perché sarebbe una brutta notizia? :mbe: :confused:
si ok nn è una brutta notizia, ma (come questa) da fonti non-ufficiali si era capito che l'avrebbero fatto girare sulle 2900, e sai sarebbe stato anche bello, visto che l'anno scorso l'avevano già fatto con nvidia
NvidiaMen
07-07-2007, 08:42
Ad oggi il problema di 2900XT è l'aver introdotto nuove tecnologie senza avere l'ausilio ed il supporto del software in grado di sfruttarle, a meno di qualche demo tecnologica e soprattutto di qualche speranza, riposta in motori grafici di prossima introduzione, nel medio periodo su base DX10.
Sul banco degli imputati oltre al numero di TMU (complessivamente di egual potenza alla serie 8800 in quanto molto più complesse anche se in numero minore, 16 contro 32, rispetto a G80 e quindi fortemente dipendenti dall'ottimizzazione dell'Ultra-Threaded Dispatch Processor) ed alle ROPs (anche'esse in numero minore, 16 contro 24, ma a frequenze più elevate rispetto alla controparte nVidia) c'è appunto il CFAA (acronimo di Custom Filter Anti-Aliasing) che combina un super-AA tradizionale con due nuovi filtri, senza subire alcun impatto negativo sulla memoria.
Infatti il CFAA (disponibile in modalità 12x e 16x), pur utilizzando un maggior numero di pixel, lo fà solo dov'è effettivamente necessario (tipologia adattiva): si determinano i bordi in un solo passaggio ed il filtraggio dei pixel presenti sul bordo utilizzerà più campioni rispetto al filtraggio di altri pixel non di bordo garantendo contorni più precisi e una riduzione dello scintillio delle texture a tutto vantaggio del dettaglio. Tra gli altri vantaggi di questa tecnica di AA, al contrario di tutti gli altri metodi postprocessing sinora visti, si annovera sia il funzionamento in abbinamento al rendering HDR, sia la possibilità di un suo aggiornamento via software.
Ritornando alle TMU il numero di queste come già detto in precedenza è sì inferiore, ma la loro complessità compensa del tutto la loro ridotta presenza.
Se a questo si aggiunge il fatto che gran parte di esse non verranno utilizzate alla maniera tradizionale (in quanto la gestione dell'Antialiasing in R600 passa dalle TMU agli shaders per un discorso qualitativo che non và assolutamente ridimensionato in ambito DX10), ma verranno sfruttate esclusivamente per effetti quali Anisotropic filtering e blending (mescolamento delle texture) si capisce che alla fine saranno più che sufficienti ad espletare il loro lavoro.
L'attuale problema di R600 è per l'appunto lo sfruttamento del CFAA da parte degli sviluppatori sui quali non solo ATi/AMD ha puntato molto, ma anche la stessa Microsoft con il supporto dedicato attraverso DX10.
Passando alle ROPs mentre i GeForce 8800 GTX ed Ultra adottano 24 unità di ROPs, il Radeon HD2900 XT, come già anticipato, ne adotta 16. Ogni ROP dell'R600 è capace di lavorare su due pixel per ciclo di clock, mentre le ROPs del GeForce 8800 possono lavorare su due colori o due valori Z per ciclo di clock. Questa diversa gestione su R600 è dovuta al fatto che le ROPs (incaricate di effettuare le ultime operazioni, come il mix dei colori e l'applicazione dell'antialiasing) si comportano come delle "Render Back End" ottimizzate per la gestione dell'antialiasing su pixel via shaders propria del CFAA che conferma ancora una volta come l'intero progetto R600 sia stato pensato su design DX10 ed un suo "adattamento" a DX9 è semplicemente frutto di una forzatura software via drivers che ad oggi non paga.
Il problema però per ATI/AMD non esiste. Il loro obiettivo a breve termine sarà quello eliminare tutti gli artefatti grafici su base DX9 derivati dall'adattamento software, via drivers, dell'architettura di R600 alle "vecchie" librerie grafiche, in quanto da un punto di vista prestazionale perdere qualche frames su DX9 rispetto a schede grafiche nVidia (GTX) dal costo notevolmente maggiore non rappresenta un problema che dia tormenti la notte.
Successivamente la serie di 2900XT dovrà gestire applicativi DX10 che dovranno tener conto di tutte le tecniche delle nuove API di casa Redmond ed in particolare del CFAA che eliminerà per i programmatori i grattacapi avuti sino ad ora (Oblivion docèt) per la gestione combinata di AA con HDR. Il fatto che questa tecnica non sia stata ad oggi prevista è dipeso dal fatto di non avere avuto disponibile un'architettura hardware in grado di sfruttarla, ma adesso che esiste, anche nVidia dovrà intraprendere questa nuova strada con le future GPU G92 per non rimanere indietro nei confronti della concorrenza.
Questo è quel che si riesce a leggere oggi sul mercato GPU, ma ovviamente ed onestà intellettuale aggiungo il solito "IMHO".
NM.
[tagliato]
be quello che hai detto è molto corretto e preciso, Complimenti.
cmq da ciò che hai scritto si evidenzia come R600 sia una Gpu fatta per la qualità dell'immagine. speriamo che con giochi full DX10 si comporti bene
ale0bello0pr
07-07-2007, 09:52
[cut]
Non riesco ancora a capacitarmi del tuo avatar.... :D :ciapet:
ihih :oink:
Non riesco ancora a capacitarmi del tuo avatar.... :D :ciapet:
ihih :oink:
io invece riesco a capire molto il tuo!!! :D :D :D
tò interessante review Crossfire HD 2900 XT vs. 8800 Ultra:
http://www.tweaktown.com/articles/1131/1/page_1_introduction/index.html
tò interessante review Crossfire HD 2900 XT vs. 8800 Ultra:
http://www.tweaktown.com/articles/1131/1/page_1_introduction/index.html
ma da questa immagine si vede che esistonogli adattatori da 6 a 8 pin, pensavo nn esistessero ancora
http://img457.imageshack.us/img457/9814/bankbreakintrogu8.th.jpg (http://img457.imageshack.us/my.php?image=bankbreakintrogu8.jpg)
edit: ops a no mi sa che è fatto in casa
Tidus.hw
07-07-2007, 10:44
ragazzi io sono molto molto poco convinto che crysis sarà il banco di prova in cui le hd2900xt mostreranno la loro potenza per un semplice motivo.
come sappiamo il problema che affossa la hd2900xt è l'aa in shader mal digerito dalle dx9.
ergo la situazione sotto xp e crysis path dx9 sicuramente sarà la stessa visto che l'aa sarà sempre nella maniera dx9.
al contrario non sappiamo se crysis in dx10 sotto vista invece supporterà aa in shader...ad esempio nulla vieta ad un gioco di essere fulldx10 ma di scegliere di supportare una modalità di aa classica e nn in shader.
speravo in UT3 ma cmq è sempre un motore full dx9 sm3.0 che delle dx10 sfrutta solo la migliore gestione dell'overflow(che cmq nn è poco)
mah tutto sta a vedere come digerità crysis l'aa via shader in path dx10 xè se i programmatori della crytek hanno deciso di eliminare questa feature e supportare un aa di postprocessing come quello attuale il problema permane.
ti stai sbagliando, per quanto riguarda ut3, in dx9 l'aa non e' neanche attivabile e in dx10 lo fa solo tramite shader.
Per quanto riguarda crysis, a parte che chi e' che va a giocarci in dx9 con la 2900? ma comunque anche se fosse per abilitare' l'aa in dx9 (se si potra') mi sa che bisognera' disabilitare piu' di qualche effetto postprocessing, in dx10 molto probabilmente sara' tramite shader IMHO.
CUT
Ne abbiamo già discusso parecchie volte suquesto thread. Il CFAA non piace a tutti. A dire la verità, sono stati molti i siti che l'hanno bocciato per la scarsa qualità dell'immagine in fase di recensione. Il suo punto debole è la perdita del dettaglio o effetto blurring che era una caratteristica del vecchio quincunx di nvidia, poi abbandonato dalla stessa nvidia proprio su consiglio di "noi" videogiocatori.
Ti faccio alcune domande. Solo il CFAA viene calcolato tramite shader oppure anche le altre versioni? Solo il CFAA permette di essere utilizzato assieme ad HDR? I giochi devono essere programmati per poter fare un CFAA oppure è un filtro pp che si può applicare sempre, forzandolo dal pannello dei driver?
CiAoRaGa1
07-07-2007, 12:31
tò interessante review Crossfire HD 2900 XT vs. 8800 Ultra:
http://www.tweaktown.com/articles/1131/1/page_1_introduction/index.html
Concordo su quanto emerso nel test: le 2900 in crossfire sono già ora abbastanza più performati di una 8800 ultra e il costo di acquisto è simile; con l'affinamento dei diriver il divario non può che crescere.
Per curiositò sarebbe interessante un confronto 2900 crossfire Vs 8800 gtx o gts in sli.
Cmq, dopo le prime settimane di dubbi, sono pienamente soddisfatto delle 2900 in CF e dell'ali che le supporta :D
TecnoWorld8
07-07-2007, 13:01
non prenderei mai due schede uguali...è già difficile riuscire a sbolognarne una, quando è da cambiare, figurarsi due :) in ogni caso mi chiedo come mai, se in CF le 2900 si comportano così bene rispetto alla ultra in SLI, perchè a scheda singola la situazione sia invece invertita.
Tidus.hw
07-07-2007, 13:02
non prenderei mai due schede uguali...è già difficile riuscire a sbolognarne una, quando è da cambiare, figurarsi due :) in ogni caso mi chiedo come mai, se in CF le 2900 si comportano così bene rispetto alla ultra in SLI, perchè a scheda singola la situazione sia invece invertita.
era una ultra singola xD
TecnoWorld8
07-07-2007, 13:04
era una ultra singola xD
oh :rolleyes: scusate :) rimangio la domanda allora...
ti stai sbagliando, per quanto riguarda ut3, in dx9 l'aa non e' neanche attivabile e in dx10 lo fa solo tramite shader.
Per quanto riguarda crysis, a parte che chi e' che va a giocarci in dx9 con la 2900? ma comunque anche se fosse per abilitare' l'aa in dx9 (se si potra') mi sa che bisognera' disabilitare piu' di qualche effetto postprocessing, in dx10 molto probabilmente sara' tramite shader IMHO.
sicuro che un gioco full dx9 non è attivabile l'aa?
mi sembra alquanto strano da un team di programmatori esperto come quello che lavora su ut3.
che gioca in path dx9?semplice tutti quelli che adesso hanno una 8800 o un 2900 e nn hanno vista e presumono di comprarlo tra 2 anni quando la versione ultimate(che poi è quella ce tt vogliono) da 480E scenda a 200.
effettivamente io credo pur avendo da mercoldi una 2900 ed adesso un 8800 che il progetto g80 sia stato migliore per questo periodo di transizione.
vi ricordate quando nvidia diceva che g80 poteva anche avere una struttura interna a shader separata ma l'importante è che l'output finale veniva dato come unificato e tutti giu a spalare m***a (me compreso) ed invece ho dovuto ricredermi sul progetto che ha spiazzato tt con lo shader unificato ma che ha saputo mantenere una piena e totale compatibilità con i game dx9.
cosa che putroppo 2900 nn ha saputo fare.
anche se effettivamente secondo me il CFAA è un idea molto buona anche se oggettivamente potevano eseguire la path normale del MSAA tipo 2x e 4x nella modalita classica e far partire il CFAA sono per la 8x in su
nico88desmo
07-07-2007, 13:24
Ti faccio alcune domande. Solo il CFAA viene calcolato tramite shader oppure anche le altre versioni? Solo il CFAA permette di essere utilizzato assieme ad HDR? I giochi devono essere programmati per poter fare un CFAA oppure è un filtro pp che si può applicare sempre, forzandolo dal pannello dei driver?
Ottime domande...sono curioso anche io...
leoneazzurro
07-07-2007, 13:38
Ad oggi il problema di 2900XT è l'aver introdotto nuove tecnologie senza avere l'ausilio ed il supporto del software in grado di sfruttarle, a meno di qualche demo tecnologica e soprattutto di qualche speranza, riposta in motori grafici di prossima introduzione, nel medio periodo su base DX10. Abbastanza vero
Sul banco degli imputati oltre al numero di TMU (complessivamente di egual potenza alla serie 8800 in quanto molto più complesse anche se in numero minore, 16 contro 32, rispetto a G80 e quindi fortemente dipendenti dall'ottimizzazione dell'Ultra-Threaded Dispatch Processor) ed alle ROPs (anche'esse in numero minore, 16 contro 24, ma a frequenze più elevate rispetto alla controparte nVidia) c'è appunto il CFAA (acronimo di Custom Filter Anti-Aliasing) che combina un super-AA tradizionale con due nuovi filtri, senza subire alcun impatto negativo sulla memoria.
Le TMU di G80 sono da 1 a 4 volte più potenti di quelle di R600, per clock, a seconda dl tipo di filtraggio utilizzato. La parità si raggiunge solo con filtri FP32 1-channel, pochissimo utilizzati. Sono comunque molto più potenti di quelle di R580, però. Le ROPs di G80 sono anch'esse complessivamente più "potenti" se utilizzate con il MSAA di tipo tradizionale. il CFAA non impatta molto sulla banda, ma comunque c'è bisogno di potenza matematica addizionale per "fondere" i vari samples.
Infatti il CFAA (disponibile in modalità 12x e 16x), pur utilizzando un maggior numero di pixel, lo fà solo dov'è effettivamente necessario (tipologia adattiva): si determinano i bordi in un solo passaggio ed il filtraggio dei pixel presenti sul bordo utilizzerà più campioni rispetto al filtraggio di altri pixel non di bordo garantendo contorni più precisi e una riduzione dello scintillio delle texture a tutto vantaggio del dettaglio. Tra gli altri vantaggi di questa tecnica di AA, al contrario di tutti gli altri metodi postprocessing sinora visti, si annovera sia il funzionamento in abbinamento al rendering HDR, sia la possibilità di un suo aggiornamento via software.
Forse ti stai confondendo con l'EDGE DETECT AA (non ancora disponibile nei drivers), il CFAA in generale dice solo che è un filtro custom perchè realizza il resolve tramite shader, quindi permette una programmabilità che il fixed function MSAA di G80 non permette. I modi AA disponibili attualmente sono degli MSAA di tipo abbastanza "tradizionale" (box , che è praticamente il MSAA standard, e "tent", che prende dei subsample anche dai pixel vicini).
TRa l'altro è vero che B3D ha definito l'Edge Detect AA "la cosa migliore vista sinora" ma oltre alla sua non disponibilità attuale bisogna verificare l'impatto prestazionale di questa tecnica che a differenza del tent filter necessita di molta potenza di calcolo (perchè bisogna prima "identificare" il lato su cui applicare l'AA, ad esempio). Poi esiste "l'HDR correct AA", che identifica la possibilità per i programmatori di definire direttamente nel loro codice come deve essere eseguiito il blend dei samples per eliminare gli artefatti dovuti ad una interpolazione lineare in presenza di HDR.
Ritornando alle TMU il numero di queste come già detto in precedenza è sì inferiore, ma la loro complessità compensa del tutto la loro ridotta presenza.
Se a questo si aggiunge il fatto che gran parte di esse non verranno utilizzate alla maniera tradizionale (in quanto la gestione dell'Antialiasing in R600 passa dalle TMU agli shaders per un discorso qualitativo che non và assolutamente ridimensionato in ambito DX10), ma verranno sfruttate esclusivamente per effetti quali Anisotropic filtering e blending (mescolamento delle texture) si capisce che alla fine saranno più che sufficienti ad espletare il loro lavoro.
Compensare fino ad un certo punto, la cosa certa è in futuro la parte matematica sarà sempre maggiore, però tutto dipenderà anche da un altro fattore, ossia il rapporto istruzioni shader:accessi alle texture, e a come gli accessi alle texture saranno richieste dal motore di rendering (se filtrate o in point sampling). Ad esempio, se in uno shader il rapporto Istruzioni:texture scende al di sotto del rapporto tra unità di shading e TFU, una parte delle unità di shading rimane inutilizzata.
L'attuale problema di R600 è per l'appunto lo sfruttamento del CFAA da parte degli sviluppatori sui quali non solo ATi/AMD ha puntato molto, ma anche la stessa Microsoft con il supporto dedicato attraverso DX10.
I problemi sono diversi, dal software attuale all'ottimizzazione del ring bus (che comunque, per citare Lonewolf, NON viene gestito dal driver delle X19X0, dato che i due bus sono molto differenti, ma manca sicuramente di ottimizzazione)
Passando alle ROPs mentre i GeForce 8800 GTX ed Ultra adottano 24 unità di ROPs, il Radeon HD2900 XT, come già anticipato, ne adotta 16. Ogni ROP dell'R600 è capace di lavorare su due pixel per ciclo di clock, mentre le ROPs del GeForce 8800 possono lavorare su due colori o due valori Z per ciclo di clock. Questa diversa gestione su R600 è dovuta al fatto che le ROPs (incaricate di effettuare le ultime operazioni, come il mix dei colori e l'applicazione dell'antialiasing) si comportano come delle "Render Back End" ottimizzate per la gestione dell'antialiasing su pixel via shaders propria del CFAA che conferma ancora una volta come l'intero progetto R600 sia stato pensato su design DX10 ed un suo "adattamento" a DX9 è semplicemente frutto di una forzatura software via drivers che ad oggi non paga.
Il problema però per ATI/AMD non esiste. Il loro obiettivo a breve termine sarà quello eliminare tutti gli artefatti grafici su base DX9 derivati dall'adattamento software, via drivers, dell'architettura di R600 alle "vecchie" librerie grafiche, in quanto da un punto di vista prestazionale perdere qualche frames su DX9 rispetto a schede grafiche nVidia (GTX) dal costo notevolmente maggiore non rappresenta un problema che dia tormenti la notte.
Successivamente la serie di 2900XT dovrà gestire applicativi DX10 che dovranno tener conto di tutte le tecniche delle nuove API di casa Redmond ed in particolare del CFAA che eliminerà per i programmatori i grattacapi avuti sino ad ora (Oblivion docèt) per la gestione combinata di AA con HDR. Il fatto che questa tecnica non sia stata ad oggi prevista è dipeso dal fatto di non avere avuto disponibile un'architettura hardware in grado di sfruttarla, ma adesso che esiste, anche nVidia dovrà intraprendere questa nuova strada con le future GPU G92 per non rimanere indietro nei confronti della concorrenza.
Questo è quel che si riesce a leggere oggi sul mercato GPU, ma ovviamente ed onestà intellettuale aggiungo il solito "IMHO".
NM.
Abbastanza d'accordo
nico88desmo
07-07-2007, 13:40
Ti faccio alcune domande. Solo il CFAA viene calcolato tramite shader oppure anche le altre versioni? Solo il CFAA permette di essere utilizzato assieme ad HDR? I giochi devono essere programmati per poter fare un CFAA oppure è un filtro pp che si può applicare sempre, forzandolo dal pannello dei driver?
Ho dato una letta alla recensione di HwUpgrade di Maggio.
Sperando di aver capito bene, in teoria fino alla modalità 8x la scheda ati applica l'AA mediante le render back ends e quindi viene utilizzata la tecnica del multisampling AA, mentre il Custom Filter AA viene applicato mediante shader nelle modalità 12x e 14x.
Spero di non essermi sbagliato.
nico88desmo
07-07-2007, 13:44
Abbastanza vero
I problemi sono diversi, dal software attuale all'ottimizzazione del ring bus (che comunque, per citare Lonewolf, NON viene gestito dal driver delle X19X0, dato che i due bus sono molto differenti, ma manca sicuramente di ottimizzazione)
Quindi ora come ora NON è vero che non vengono utilizzati i 256 bit in più del bus, in confronto alla X19xx, ma solo che il bus non è programmato ancora ad hoc...giusto?
Iantikas
07-07-2007, 13:50
Quindi ora come ora NON è vero che non vengono utilizzati i 256 bit in più del bus, in confronto alla X19xx, ma solo che il bus non è programmato ancora ad hoc...giusto?
a quanto ne so io si...viene usato il bus a 512bit verso la memoria e il ring bus a 1024bit...quella storia del 256/512 con driver x19x0 l'ho sentita dire solo a lonewolf...cmq ha bisogno d varie ottimazzazioni (così com'è è stato inizialmente anke x la serie x1xx0) e nel tempo sicuramente migliorerà...ciao
+Lonewolf+
07-07-2007, 13:51
Quindi ora come ora NON è vero che non vengono utilizzati i 256 bit in più del bus, in confronto alla X19xx, ma solo che il bus non è programmato ancora ad hoc...giusto?
il mio era un apragone per dire che il bus non è sfruttato a dovere, come se appartenesse alla vecchia serie;)
esatto, questione di programmazione, mi ero spiegato male scusate:)
Quindi ora come ora NON è vero che non vengono utilizzati i 256 bit in più del bus, in confronto alla X19xx, ma solo che il bus non è programmato ancora ad hoc...giusto?
bèh ovviamente che pensavi?
che alla presentazione di un prodotto con un bus di 512bit e che sventolava una banda di 105gb al secondo...
pei per le recensioni vediniva usato come un 256bit e quindi con una banda da 50gb?
è ovvio che sicuramente il ringbus da 1024bit interno e 512bit interno è evoluzione di quello da 512bit interni e 256bit esterni di r520-580 ovviamente quando hanno programmato i primi dvr hanno lavorato ovviamente su quello gia fatto sulle x19x0 ma è ovvio che sfruttassero tutti i 512bit ovviamente senza ottimizzazioni questo si ma sicuramente nn castrnadolo!
nico88desmo
07-07-2007, 13:57
bèh ovviamente che pensavi?
che alla presentazione di un prodotto con un bus di 512bit e che sventolava una banda di 105gb al secondo...
pei per le recensioni vediniva usato come un 256bit e quindi con una banda da 50gb?
è ovvio che sicuramente il ringbus da 1024bit interno e 512bit interno è evoluzione di quello da 512bit interni e 256bit esterni di r520-580 ovviamente quando hanno programmato i primi dvr hanno lavorato ovviamente su quello gia fatto sulle x19x0 ma è ovvio che sfruttassero tutti i 512bit ovviamente senza ottimizzazioni questo si ma sicuramente nn castrnadolo!
si ma infatti non riuscivo a capire la storia del non utilizzo dei 256 bit in più, anche perchè la banda passante riguarda la struttura dell'hardware non del software.
Si era spiegato male Lonewolf. Ora è tutto più chiaro :)
leoneazzurro
07-07-2007, 14:46
Quindi ora come ora NON è vero che non vengono utilizzati i 256 bit in più del bus, in confronto alla X19xx, ma solo che il bus non è programmato ancora ad hoc...giusto?
Esatto, solo che in una architettura del genere mancare di ottimizzazione in alcun i casi può portare a pesantissime penalità prestazionali.
La questione è che non solo il bus di R600 è ampliato a 1024 bit interni/512 esterni, ma è passato anche da un'architettura "semidistribuita" ad una "pienamente distribuita", ossia in pratica è il ring bus stesso che mette in interconnessione tutte le unità funzionali del chip, mentre in R580 questo non era del tutto vero. Per farla breve, si deve riottimizzare tutto di nuovo da zero o quasi.
+Lonewolf+
07-07-2007, 14:54
Esatto, solo che in una architettura del genere mancare di ottimizzazione in alcun i casi può portare a pesantissime penalità prestazionali.
La questione è che non solo il bus di R600 è ampliato a 1024 bit interni/512 esterni, ma è passato anche da un'architettura "semidistribuita" ad una "pienamente distribuita", ossia in pratica è il ring bus stesso che mette in interconnessione tutte le unità funzionali del chip, mentre in R580 questo non era del tutto vero. Per farla breve, si deve riottimizzare tutto di nuovo da zero o quasi.
quanto ci vorrà x un'ottimizzazione ad hoc?
Mister Tarpone
07-07-2007, 15:01
quanto ci vorrà x un'ottimizzazione ad hoc?
ho paura che ci vorrà tanto... :stordita:
NvidiaMen
07-07-2007, 15:05
Le TMU di G80 sono da 1 a 4 volte più potenti di quelle di R600, per clock, a seconda dl tipo di filtraggio utilizzato. La parità si raggiunge solo con filtri FP32 1-channel, pochissimo utilizzati. Sono comunque molto più potenti di quelle di R580, però. Le ROPs di G80 sono anch'esse complessivamente più "potenti" se utilizzate con il MSAA di tipo tradizionale. il CFAA non impatta molto sulla banda, ma comunque c'è bisogno di potenza matematica addizionale per "fondere" i vari samples.
Ovviamente avevo omesso che la parità computazionale tra le due GPU in ambito di texture mapping units si ha nel caso estremo e più oneroso del calcolo in floating point 32, oggi scarsamente utilizzato, ma in futuro, quando la potenza di calcolo sarà diffusa anche alla fascia media del mercato, la situazione potrebbe cambiare. E' vero che a precisione ridotta, con FP16, G80 risulta fino a 4 volte più veloce, ma l'importante è non rileggere, tra qualche mese, articoli che sottolineino situazioni "truffaldine" da parte dei produttori di hw grafico ad esempio come questa (http://www.news3d.eu/index.php?topic=53700.0;prev_next=next).
Forse ti stai confondendo con l'EDGE DETECT AA (non ancora disponibile nei drivers), il CFAA in generale dice solo che è un filtro custom perchè realizza il resolve tramite shader, quindi permette una programmabilità che il fixed function MSAA di G80 non permette. I modi AA disponibili attualmente sono degli MSAA di tipo abbastanza "tradizionale" (box , che è praticamente il MSAA standard, e "tent", che prende dei subsample anche dai pixel vicini).
TRa l'altro è vero che B3D ha definito l'Edge Detect AA "la cosa migliore vista sinora" ma oltre alla sua non disponibilità attuale bisogna verificare l'impatto prestazionale di questa tecnica che a differenza del tent filter necessita di molta potenza di calcolo (perchè bisogna prima "identificare" il lato su cui applicare l'AA, ad esempio). Poi esiste "l'HDR correct AA", che identifica la possibilità per i programmatori di definire direttamente nel loro codice come deve essere eseguiito il blend dei samples per eliminare gli artefatti dovuti ad una interpolazione lineare in presenza di HDR.
Più che confondermi stavo illustrando per grandi linee alcune delle caratteristiche che potranno essere supportate da R600 in ambito AA. Ovvio che entrando nel dettaglio, ma non era questa la mia intenzione, il CFAA si divide in tre tipi differenti di AntiAliasing:
- CFAA con narrow tent filter (primo filtro AA con una suddivisione dell'immagine a nidi ellissoidali a 4 intersezioni);
- CFAA con wide tent filter (secondo filtro AA con una suddivisione dell'immagine a trame ellissoidali a 12 intersezioni);
- CFAA con adaptive edge detect capability (terzo filtro come ulteriore passata in grado di distinguere i bordi grazie al contrasto tra i diversi pixels).
Circa la potenza di calcolo necessaria sono daccordo, ma occorre dire che trattandosi di un filtro programmabile e non dovendo operare con un algoritmo statico, al crescere della potenza di calcolo (R700, R800, ecc.) crescerà non solo l'aspetto prestazionale, ma anche quello qualitativo.
Compensare fino ad un certo punto, la cosa certa è in futuro la parte matematica sarà sempre maggiore, però tutto dipenderà anche da un altro fattore, ossia il rapporto istruzioni shader:accessi alle texture, e a come gli accessi alle texture saranno richieste dal motore di rendering (se filtrate o in point sampling). Ad esempio, se in uno shader il rapporto Istruzioni:texture scende al di sotto del rapporto tra unità di shading e TFU, una parte delle unità di shading rimane inutilizzata.
Osservazione corretta. Sarà solo il giusto sfruttamento dell'hardware da parte del software di prossima generazione a poter dare una risposta adeguata su questo. I produttori dalla loro hanno rimosso già un vincolo che nell'immediato avrebbe potuto rappresentare un limite per le architetture odierne: l'introduzione dell'Unified Shaders, lasciando di fatto agli sviluppatori l'onere di dirigere l'orchestra e di sfruttare al meglio quel che hanno tra le mani...
I problemi sono diversi, dal software attuale all'ottimizzazione del ring bus (che comunque, per citare Lonewolf, NON viene gestito dal driver delle X19X0, dato che i due bus sono molto differenti, ma manca sicuramente di ottimizzazione)
Abbastanza d'accordo, l'ottimizazione è quel che oggi in casa ATi manca. D'altronde stanno lavorando in questa direzione non solo per noi ma anche per loro perchè il progetto R600 è alla base (ringbus compreso), anche da un punto di vista dello sviluppo drivers, delle prossime architetture ATi di futura introduzione (R700).
leoneazzurro
07-07-2007, 15:36
quanto ci vorrà x un'ottimizzazione ad hoc?
C'è già qualche ottimizzazione, ma se intendiamo "ottimizzazione che permetta di sfruttare tutte o quasi le potenzialità" si parla di non prima di altri 6 mesi nel caso più ottimistico.
leoneazzurro
07-07-2007, 15:40
Ovviamente avevo omesso che la parità computazionale tra le due GPU in ambito di texture mapping units si ha nel caso estremo e più oneroso del calcolo in floating point 32, oggi scarsamente utilizzato, ma in futuro, quando la potenza di calcolo sarà diffusa anche alla fascia media del mercato, la situazione potrebbe cambiare. E' vero che a precisione ridotta, con FP16, G80 risulta fino a 4 volte più veloce, ma l'importante è non rileggere, tra qualche mese, articoli che sottolineino situazioni "truffaldine" da parte dei produttori di hw grafico ad esempio come questa (http://www.news3d.eu/index.php?topic=53700.0;prev_next=next).
No, con FP16 G80 è solo 2 volte più veloce a parità di clock :D
4 volte con int16 4-channel.
Comunque, per un riepilogo totale dei test sintetici:
http://www.beyond3d.com/content/reviews/16/13
TecnoWorld8
07-07-2007, 15:48
la cosa circa l'ottimizzazione che proprio non capisco è...se R600 come progetto (e credo anche come sample) era pronto già da mesi, cos'hanno fatto in questo tempo i progettisti drivers?!? dato il ritardo con cui è uscito, sarebbe stata cosa buona e giusta se almeno fosse arrivato già abbastanza ottimizzato...invece pare sia tutt'altro!
nico88desmo
07-07-2007, 15:57
la cosa circa l'ottimizzazione che proprio non capisco è...se R600 come progetto (e credo anche come sample) era pronto già da mesi, cos'hanno fatto in questo tempo i progettisti drivers?!? dato il ritardo con cui è uscito, sarebbe stata cosa buona e giusta se almeno fosse arrivato già abbastanza ottimizzato...invece pare sia tutt'altro!
Bisogna vedere se R600 era davvero pronto...
dato il ritardo che ha avuto, qualche problema ci deve esser pur stato..
TecnoWorld8
07-07-2007, 15:59
Bisogna vedere se R600 era davvero pronto...
dato il ritardo che ha avuto, qualche problema ci deve esser pur stato..
ok, ma sapevano come "sarebbe stato fatto" da molto tempo...ha avuto una gestazione lunghissima, come GPU...e quindi immagino ci fossero almeno delle simulazioni al calcolatore di come si sarebbe comportato. non so...non metto in dubbio che sia da ottimizzare, ma...mi chiedo se davvero nasconda tutto questo potenziale.
NvidiaMen
07-07-2007, 16:02
Ne abbiamo già discusso parecchie volte suquesto thread. Il CFAA non piace a tutti. A dire la verità, sono stati molti i siti che l'hanno bocciato per la scarsa qualità dell'immagine in fase di recensione. Il suo punto debole è la perdita del dettaglio o effetto blurring che era una caratteristica del vecchio quincunx di nvidia, poi abbandonato dalla stessa nvidia proprio su consiglio di "noi" videogiocatori.
E' prematuro affermare di aver provato e di bocciare od approvare la resa di un filtro AA non ancora completato lato software. Per ottenere i vantaggi qualitativi occorrono informazioni aggiuntive in fase di programmazione via shader che aiutino tali unità ad applicare i filtri correttamente. Ad oggi quindi una conclusione è più che prematura ed azzardata. Si può solo affermare che il CFAA rende al meglio in immagini ricche di dettaglio e contrasto, ma non si sà nulla sulla sua resa in corrispondenza di sfondi uniformi (ad esempio un luogo in notturna con poche luci). Ovviamente sarà la programmabilità a migliorare la gestione nei numerosi ambiti di applicazione che andranno dunque verificati caso per caso.
Ti faccio alcune domande. Solo il CFAA viene calcolato tramite shader oppure anche le altre versioni?
Al momento sì. Qui (http://ati.amd.com/developer/SIGGRAPH04/ShadingCourse2004_HLSL_Slides.pdf)per maggiori dettagli.
Solo il CFAA permette di essere utilizzato assieme ad HDR?
Anche con l'FSAA, Ati è stata la prima ad implementare l'AA in combinazione con l'HDR (http://www.theinquirer.net/default.aspx?article=30885) senza ridurre la qualità dell'immagine. E' quindi più corretto dire che implementare il CFAA in scene con HDR non produce artefatti grafici che riducono la qualità finale dell'immagine. Qui (http://www.guru3d.com/article/Videocards/431/5/) per maggiori dettagli sul CFAA.
I giochi devono essere programmati per poter fare un CFAA oppure è un filtro pp che si può applicare sempre, forzandolo dal pannello dei driver?
Attraverso il pannello dei drivers. La sua attivazione prevede che sia l'utente a scegliere nei drivers il livello di Anti-Aliasing addirittura prima prima di definire il tipo di filtro (http://hardware.multiplayer.it/articoli.php3?id=12514&page=3).
NM.
NvidiaMen
07-07-2007, 16:11
la cosa circa l'ottimizzazione che proprio non capisco è...se R600 come progetto (e credo anche come sample) era pronto già da mesi, cos'hanno fatto in questo tempo i progettisti drivers?!? dato il ritardo con cui è uscito, sarebbe stata cosa buona e giusta se almeno fosse arrivato già abbastanza ottimizzato...invece pare sia tutt'altro!
E' stato il costo da pagare per introdurre un nuovo modo di gestire le procedure grafiche in "vista" delle nuove API grafiche.
La vera ottimizzazione dei drivers si fà con softwares in grado di sfruttare l'architettura, per cui mancando questi ultimi è naturale che lo sviluppo sia rallentato.
NvidiaMen
07-07-2007, 16:20
No, con FP16 G80 è solo 2 volte più veloce a parità di clock :D
4 volte con int16 4-channel.
Comunque, per un riepilogo totale dei test sintetici:
http://www.beyond3d.com/content/reviews/16/13
Che siano il doppio, il triplo o il quadruplo poco importa perchè mentre nelle architetture tradizionali le TMU sono soprattutto impegnate nella gestione dell'AA, in R600 questo compito è demandato agli shaders, mentre alle texture units rimane il compito, come già precisato, dei restanti effetti quali Anisotropic filtering e blending.
NM.
Iantikas
07-07-2007, 16:28
Al momento sì. Qui (http://ati.amd.com/developer/SIGGRAPH04/ShadingCourse2004_HLSL_Slides.pdf)per maggiori dettagli.
il problema attuale è ke qualunque tipo d AA lo fa negli shaders (tantè ke alcuni dicono addirittura ke le RBE nn hanno proprio la funzionalità al proprio interno) nn solo il CFAA...ciao
p.s.: link molto interessante ;) ...38pag d info tutte inerenti il CFAA :ave: ....:oink:
leoneazzurro
07-07-2007, 16:31
la cosa circa l'ottimizzazione che proprio non capisco è...se R600 come progetto (e credo anche come sample) era pronto già da mesi, cos'hanno fatto in questo tempo i progettisti drivers?!? dato il ritardo con cui è uscito, sarebbe stata cosa buona e giusta se almeno fosse arrivato già abbastanza ottimizzato...invece pare sia tutt'altro!
L'architettura di R600 è estremamente complessa, molto più di G80.
Aggiungici che i primi esemplari funzionanti di preproduzione sono arrivati praticamente quando G80 è stato rilasciato. Sapere come sarà un'architettura su carta non è sapere come ottimizzare realmente con il software a disposizione.
G80 stesso, quando è stato rilasicato, aveva drivers molto più "scarsi" di quelli odierni, il fatto è che nessuno se ne è accorto perchè.. non c'era sul mercato un chip paragonabile. E G80 è praticamente privo di punti deboli per il software DX9: ha ottime capacità di calcolo, non ha colli di bottiglia visibili nelle ROPs e nelle Texture Units. Non ha un ring bus, ma ha un crossbar, che non ha grossi problemi di ottimizzazione. Ha MSAA di tipo tradizionale con resolve fatto nelle ROPS, così da non complicare lo scheduling degli shader. Ha shader puramente scalari, che quindi non hanno bisogno di avere grossissime ottimizzazioni per essere utilizzati con buona efficienza, al contrario delle unità 5D superscalari di R600 che necessitano di un ottimo compilatore per ottenere le prestazioni di picco. Quindi se ci sono voluti 6-8 mesi per avere buoni drivers per G80, immagina quanto possa servire per R600.
nico88desmo
07-07-2007, 16:51
L'architettura di R600 è estremamente complessa, molto più di G80.
Aggiungici che i primi esemplari funzionanti di preproduzione sono arrivati praticamente quando G80 è stato rilasciato. Sapere come sarà un'architettura su carta non è sapere come ottimizzare realmente con il software a disposizione.
G80 stesso, quando è stato rilasicato, aveva drivers molto più "scarsi" di quelli odierni, il fatto è che nessuno se ne è accorto perchè.. non c'era sul mercato un chip paragonabile. E G80 è praticamente privo di punti deboli per il software DX9: ha ottime capacità di calcolo, non ha colli di bottiglia visibili nelle ROPs e nelle Texture Units. Non ha un ring bus, ma ha un crossbar, che non ha grossi problemi di ottimizzazione. Ha MSAA di tipo tradizionale con resolve fatto nelle ROPS, così da non complicare lo scheduling degli shader. Ha shader puramente scalari, che quindi non hanno bisogno di avere grossissime ottimizzazioni per essere utilizzati con buona efficienza, al contrario delle unità 5D superscalari di R600 che necessitano di un ottimo compilatore per ottenere le prestazioni di picco. Quindi se ci sono voluti 6-8 mesi per avere buoni drivers per G80, immagina quanto possa servire per R600.
Secondo te è meglio avere unità scalari o appunto delle SIMD?
Penso che nelle scalari si ha una efficenza pari al 100%, mentre per unità vettoriali è difficile avere un'efficenza così elevata per ogni ciclo di clock. Cosa ne pensi?
leoneazzurro
07-07-2007, 19:12
Secondo te è meglio avere unità scalari o appunto delle SIMD?
Penso che nelle scalari si ha una efficenza pari al 100%, mentre per unità vettoriali è difficile avere un'efficenza così elevata per ogni ciclo di clock. Cosa ne pensi?
Non è detto che le unità scalari abbiano il 100% dell'efficienza. Teoricamente sono più sfruttabili rispetto a delle superscalari come quelle di R600 a causa delle dipendenze. Però se si utilizzano le funzioni speciali (seno, coseno, esponenziale, ecc), l'efficienza cala in G80, mentre R600 in teoria potrebbe anche non essere rallentato (perchè ha una unità sempre disponibile per le funzioni speciali e può mandare in co-issue altre istruzioni nelle altre unità). Poi mentre G80 deve per forza di cose eseguire operazioni su vettori "spezzando" il vettore in più operazioni scalari, R600 può eseguirle in un solo ciclo, e non a caso nel calcolo dei vertici/geometrico, che utilizzano operazioni vettoriali, i test sintetici lo danno in vantaggio rispetto a G80.
Come vedi, le cose non sono mai così semplici come le si dipinge... :D
Come vedi, le cose non sono mai così semplici come le si dipinge... :D
quanto hai ragione :O
se leone fosse donna gli avrei già fatto almeno una quindicina di proposte indecenti :O :asd:
leoneazzurro
07-07-2007, 19:27
Che siano il doppio, il triplo o il quadruplo poco importa perchè mentre nelle architetture tradizionali le TMU sono soprattutto impegnate nella gestione dell'AA, in R600 questo compito è demandato agli shaders, mentre alle texture units rimane il compito, come già precisato, dei restanti effetti quali Anisotropic filtering e blending.
NM.
E perchè, secondo te se l'AA lo effettuano gli shaders, non ci sono texture lookups? ;)
La differenza tra lo "standard MSAA" di G80 ed il box CFAA di R600 (che in pratica sono la stessa cosa) è che nel primo il calcolo del valore di colore del pixel a partire da quelli dei subpixel viene effettuato da una ALU "interna" alle ROPs, nel secondo caso invece da una shader unit. Oviamente ciò è valido anche per tutte le altre modalità di AA di R600, e il vantaggio è che questo consente di avere una programmabilità dell'Antialiasing.
Ma le richieste in termini di texturing sono le stesse.
leoneazzurro
07-07-2007, 19:27
quanto hai ragione :O
se leone fosse donna gli avrei già fatto almeno una quindicina di proposte indecenti :O :asd:
Meno male che non lo sono, allora :D
Meno male che non lo sono, allora :D
peccato che yoss sia sparito, era bello e illuminante leggere le vostre discussioni :)
SenderoLuminoso
07-07-2007, 19:40
Scusate l'OT ma le directx 10 si installano aggiornando wnindows vista? o cosa?
webbuffa
07-07-2007, 19:41
Scusate l'OT ma le directx 10 si installano aggiornando wnindows vista? o cosa?
:) Devi aggiornare la direct manualmente con questo update :)
http://download.microsoft.com/download/5/5/e/55ec0e96-a046-42c6-b6c8-2cd5742a073a/directx_jun2007_redist.exe
ciao :D
leoneazzurro
07-07-2007, 20:08
peccato che yoss sia sparito, era bello e illuminante leggere le vostre discussioni :)
Beh, sta lavorando duro, evidentemente ;)
L'architettura di R600 è estremamente complessa, molto più di G80.
Aggiungici che i primi esemplari funzionanti di preproduzione sono arrivati praticamente quando G80 è stato rilasciato. Sapere come sarà un'architettura su carta non è sapere come ottimizzare realmente con il software a disposizione.
G80 stesso, quando è stato rilasicato, aveva drivers molto più "scarsi" di quelli odierni, il fatto è che nessuno se ne è accorto perchè.. non c'era sul mercato un chip paragonabile. E G80 è praticamente privo di punti deboli per il software DX9: ha ottime capacità di calcolo, non ha colli di bottiglia visibili nelle ROPs e nelle Texture Units. Non ha un ring bus, ma ha un crossbar, che non ha grossi problemi di ottimizzazione. Ha MSAA di tipo tradizionale con resolve fatto nelle ROPS, così da non complicare lo scheduling degli shader. Ha shader puramente scalari, che quindi non hanno bisogno di avere grossissime ottimizzazioni per essere utilizzati con buona efficienza, al contrario delle unità 5D superscalari di R600 che necessitano di un ottimo compilatore per ottenere le prestazioni di picco. Quindi se ci sono voluti 6-8 mesi per avere buoni drivers per G80, immagina quanto possa servire per R600.
sono perfettamente d'accordo con il tuo intervento, ho voluto mettere in evidenza i 2 passaggi sopra perchè troppa gente si dimentica di queste cose e come conseguenza sparano a zero su questa scheda.
Grave Digger
07-07-2007, 23:51
Non è detto che le unità scalari abbiano il 100% dell'efficienza. Teoricamente sono più sfruttabili rispetto a delle superscalari come quelle di R600 a causa delle dipendenze. Però se si utilizzano le funzioni speciali (seno, coseno, esponenziale, ecc), l'efficienza cala in G80, mentre R600 in teoria potrebbe anche non essere rallentato (perchè ha una unità sempre disponibile per le funzioni speciali e può mandare in co-issue altre istruzioni nelle altre unità). Poi mentre G80 deve per forza di cose eseguire operazioni su vettori "spezzando" il vettore in più operazioni scalari, R600 può eseguirle in un solo ciclo, e non a caso nel calcolo dei vertici/geometrico, che utilizzano operazioni vettoriali, i test sintetici lo danno in vantaggio rispetto a G80.
Come vedi, le cose non sono mai così semplici come le si dipinge... :D
ho letto anche i tuoi successivi post....
però ti chiedo,visto che sei ben in formato,un tuo personalissimo parere:
secondo te,riferendo il mercato vga all'attuale contingente,la scelta più corretta non dovrebbe essere G80???te lo chiedo perchè ancora non si è fatto uso di dx10,e ancora le dx9 ce le porteremo avanti per un bel po'....inoltre i driver della ribalta per R600 tardano ad arrivare....io non so bene come giudicare la cosa,però,a mio modestissimo parere,una cosa deve essere nel pieno delle proprie possibilità da subito,appena scartata e montata(soprattutto quando la cifra spesa è non indifferente :) ).....l'attesa non so quanto sia benefica,di qui a 6 mesi ci saranno altre nuove schede,altri processi produttivi che per forza di cose soppianteranno l'attuale gamma,sia in ati che in nvidia :) .....
p.s.:mi sono astenuto dal postare prima in questo thread per non incappare in nocivi flame ;) ....
leoneazzurro
08-07-2007, 00:05
ho letto anche i tuoi successivi post....
però ti chiedo,visto che sei ben in formato,un tuo personalissimo parere:
secondo te,riferendo il mercato vga all'attuale contingente,la scelta più corretta non dovrebbe essere G80???te lo chiedo perchè ancora non si è fatto uso di dx10,e ancora le dx9 ce le porteremo avanti per un bel po'....inoltre i driver della ribalta per R600 tardano ad arrivare....io non so bene come giudicare la cosa,però,a mio modestissimo parere,una cosa deve essere nel pieno delle proprie possibilità da subito,appena scartata e montata(soprattutto quando la cifra spesa è non indifferente :) ).....l'attesa non so quanto sia benefica,di qui a 6 mesi ci saranno altre nuove schede,altri processi produttivi che per forza di cose soppianteranno l'attuale gamma,sia in ati che in nvidia :) .....
p.s.:mi sono astenuto dal postare prima in questo thread per non incappare in nocivi flame ;) ....
Come ho già detto più su in questo thread, sia G80 che R600 sono ottime scelte, al prezzo al quale sono proposte. Sicuramente R600 più in ottica futura, ma già adesso si comporta mediamente meglio di una 8800 GTS, quindi se si chiude un occhio sul fronte consumi/rumorosità non vedo perchè disdegnarla. Ovvio che nvidia ha fatto la furbata della 8800 GTS 320M, che ha attualmente un rapporto prezzo/prestazioni imbattibile, ma ritengo che nella sua fascia R600 sia estremamente competitiva.
Grave Digger
08-07-2007, 00:11
Come ho già detto più su in questo thread, sia G80 che R600 sono ottime scelte, al prezzo al quale sono proposte. Sicuramente R600 più in ottica futura, ma già adesso si comporta mediamente meglio di una 8800 GTS, quindi se si chiude un occhio sul fronte consumi/rumorosità non vedo perchè disdegnarla. Ovvio che nvidia ha fatto la furbata della 8800 GTS 320M, che ha attualmente un rapporto prezzo/prestazioni imbattibile, ma ritengo che nella sua fascia R600 sia estremamente competitiva.
bene,mi piace parlare civilmente :D ....
secondo me la svolta cmnq non sarà sul fronte driver,bensì su quello 65 nm ;) ....
lì si che si avranno vantaggi scioccanti,che ne pensi????
leoneazzurro
08-07-2007, 00:52
bene,mi piace parlare civilmente :D ....
secondo me la svolta cmnq non sarà sul fronte driver,bensì su quello 65 nm ;) ....
lì si che si avranno vantaggi scioccanti,che ne pensi????
Che rigore è quando arbitro fischia :D
(che bisogna prima vedere cosa faranno ambedue le case a 65 nm per l'high end)
Grave Digger
08-07-2007, 00:55
Che rigore è quando arbitro fischia :D
(che bisogna prima vedere cosa faranno ambedue le case a 65 nm per l'high end)
ok ok,niente pronostici :fagiano: :D
TecnoWorld8
08-07-2007, 01:41
bene,mi piace parlare civilmente :D ....
secondo me la svolta cmnq non sarà sul fronte driver,bensì su quello 65 nm ;) ....
lì si che si avranno vantaggi scioccanti,che ne pensi????
più che altro, io credo che - di qualunque delle due case sarà - la PROSSIMA scheda high end in uscita sarà molto interessante.
e credo questo perchè non è possibile che, a distanza di 8 mesi, nn stia quasi per uscire una GPU che vada significativamente più di G80. Non penso si sia mai verificato che non avvenisse almeno un refresh di un prodotto già esistente per un anno consecutivo, quindi io sono fiducioso che per fine estate si saprà qualcosa da parte di nVidia su un nuovo prodotto high end, sia esso un G80 a 65nm o un'architettura nuova.
Sono altrettanto fiducioso - anche se forse in tempi più lunghi, dato che R600 è appena uscito - che ATi stia facendo di tutto per sviluppare una versione a 65nm del chip, più veloce e competitivo.
Free Gordon
08-07-2007, 03:40
Bisogna vedere se R600 era davvero pronto...
dato il ritardo che ha avuto, qualche problema ci deve esser pur stato..
Il chip fisicamente era pronto per fine 2006 (più o meno nel periodo di G80, max 2 mesi dopo).
Il resto del tempo l'hanno passato tra marketing (come la collochiamo a livello di prezzo?? :D ), drivers e nell'attesa di qualche patch dx10...
Free Gordon
08-07-2007, 03:50
Beh, sta lavorando duro, evidentemente ;)
Purtroppo sì... :cry: :cry: :cry:
nico88desmo
08-07-2007, 07:42
Non è detto che le unità scalari abbiano il 100% dell'efficienza. Teoricamente sono più sfruttabili rispetto a delle superscalari come quelle di R600 a causa delle dipendenze. Però se si utilizzano le funzioni speciali (seno, coseno, esponenziale, ecc), l'efficienza cala in G80, mentre R600 in teoria potrebbe anche non essere rallentato (perchè ha una unità sempre disponibile per le funzioni speciali e può mandare in co-issue altre istruzioni nelle altre unità). Poi mentre G80 deve per forza di cose eseguire operazioni su vettori "spezzando" il vettore in più operazioni scalari, R600 può eseguirle in un solo ciclo, e non a caso nel calcolo dei vertici/geometrico, che utilizzano operazioni vettoriali, i test sintetici lo danno in vantaggio rispetto a G80.
Come vedi, le cose non sono mai così semplici come le si dipinge... :D
Capito...quindi teoricamente il G80 a livello funzionale è inferiore ad R600, però la scheda nVidia lavora a frequenze più elevate...ed in parte compensa questa carenza.
Non vedo l'ora di vedere la battaglia dei fps nelle DX10 :D
Sono proprio curioso di vedere quale architettura, non dico più buona, ma più sfruttata.
NightStalker
08-07-2007, 08:00
Non vedo l'ora di vedere la battaglia dei fps nelle DX10 :D
Sono proprio curioso di vedere quale architettura, non dico più buona, ma più sfruttata.
mah ho l'impressione che ci sarà da rimanere delusi da entrambi i fronti...
leoneazzurro
08-07-2007, 08:07
Capito...quindi teoricamente il G80 a livello funzionale è inferiore ad R600, p
In alcuni ambiti è decisamente superiore. Tutto dipende dal SW usato.
mah ho l'impressione che ci sarà da rimanere delusi da entrambi i fronti...
be se ci si accontenta di giocare a risoluzioni "umane" e magari abbassando qualche setteggio, nn muore nessuno;) ;) persolanlmente vorrei farmi durare questa scheda almeno un anno, un anno e mezzo, che non è per il costo (anche per quello) me per il fatto che essendo una top di gamma che ha 2 mesi per una questione di principio mi sembra assordo doverla cambiare fra 3/4 mesi perchè nn posso giocare con tutto al max, ma chi se ne frega (certo nn credite che nn mi girano)
Il chip fisicamente era pronto per fine 2006 (più o meno nel periodo di G80, max 2 mesi dopo).
Il resto del tempo l'hanno passato tra marketing (come la collochiamo a livello di prezzo?? :D ), drivers e nell'attesa di qualche patch dx10...
ma all'inizio aveva in totale di 256SP, e ricordo anche che qualcuno aveva detto che l'ultima review di R600 era avvenuta a gennaio, quindi forse le tempistiche sono queste, magari si potevano accociare i tempi di 1/2 mesi, ma nn credo di più
ma nessuno ha provato a confrontare le varie sessioni di test fatte all' esordio
di g80 con quelli fatti su r600? Sarei davvero curioso di vedere di quanto è migliorata una 8800 GTX in percentuale da novembre 2006, ad oggi.
ma nessuno ha provato a confrontare le varie sessioni di test fatte all' esordio
di g80 con quelli fatti su r600? Sarei davvero curioso di vedere di quanto è migliorata una 8800 GTX in percentuale da novembre 2006, ad oggi.
Sarebbe davvero interessante per entrambe le schede con parita' di titoli.
TecnoWorld8
08-07-2007, 12:11
ma nessuno ha provato a confrontare le varie sessioni di test fatte all' esordio
di g80 con quelli fatti su r600? Sarei davvero curioso di vedere di quanto è migliorata una 8800 GTX in percentuale da novembre 2006, ad oggi.
vero, sarebbe davvero interessante!
Friz1983
08-07-2007, 12:11
Ecco il raffronto, se ho sbagliato qualcosa avvertite.
Recenzioni di hardware upgrade
Oblivion:
recensione 2900xt:
http://img440.imageshack.us/img440/2904/oblivion1920oi3.png
Recensione 8800GTX/GTS:
http://img441.imageshack.us/img441/3013/oblivion1gtsbk8.png
F.E.A.R.
Recensione 2900XT:
http://img441.imageshack.us/img441/530/fearaa4an16averagetn4.png
Recensione 8800GTX/GTS:
http://img441.imageshack.us/img441/3783/fear1ms4.png
PREY
Recensione 2900XT:
http://img440.imageshack.us/img440/5851/preyhk2.png
Recensione 8800GTS/GTX:
http://img440.imageshack.us/img440/9346/preyaix1.png
Cerchero di continuare ad ggiornarla
Buon compleanno a me vado a ubriacarmi asdasdad
TecnoWorld8
08-07-2007, 12:14
auguri di buon compleanno. ma le configurazioni di prova erano identiche?
[cut]
in oblivion la gtx ha avuto un aumento di prestazioni davvero significativo:read:
in oblivion la gtx ha avuto un aumento di prestazioni davvero significativo:read:
Si ma in Prey ha perso :stordita: ?!
Friz1983
08-07-2007, 12:39
Le config sono:
Recensione 2900xt: scheda madre Foxconn C55A01 (chipset nVIDIA nForce 680i SLI, Socket 775 LGA)
processore Intel Core 2 Extreme X6800 2,93 GHz
memoria G.Skill F2-6400CL4D-2GBHK, 2x1 Gbyte
alimentatore Enermax Infiniti 720W
recensione gtx/gts: processore Intel Core 2 Extreme X6800
scheda madre scelta per il sistema è quella Intel D975XBX2KR, soluzione per processori Socket 775 LGA basata su chipset Intel 975X
la memoria DDR2-800, in quantitativo di 2 Gbytes, è quella Corsair XPS CM2X1024-6400C3, configurata per operare con timings pari a 3-4-3-9 alla frequenza di clock di 800 MHz. L'hard disk adottato è un modello Western Digital Caviar WD1600JS da 160 Gbytes, con interfaccia SATA e velocità di rotazione dei piatti di 7.200 giri al minuto
credo sia la dimostrazione definitiva che r600 non è un flop è l unico baco sta nei driver. Se le 2 schede fossero uscite nello stesso periodo
avrebbero avuto pari prestazioni, in oblivion r600 supera una 8800gTx, anche alle alte risoluzioni con AA ed AF .
credo sia la dimostrazione definitiva che r600 non è un flop è l unico baco sta nei driver. Se le 2 schede fossero uscite nello stesso periodo
avrebbero avuto pari prestazioni, in oblivion r600 supera una 8800gTx, anche alle alte risoluzioni con AA ed AF .
Ma infatti chi dice che R600 è stato un flop è meglio che adesso si chiuda la bocca...
Per 350€ AMD ha sfornato un prodotto che, andando a logica, verso fine anno se la giocherà con la GTX a partire da 470€...
Fate voi, dove vedete 'sto flop? ;)
ragazzi cmq diamo ad nvidia quello che è di nvidia pure loro in 6 mesi hanno tirato fuori sia dalle gtx che dalle gts almeno un 20% di prestazioni in + in ogni caso(va bèh prey è un caso isolato si non mantenuti constanti)
questo mi fa ben sperare per un raggiungimento delle prestazioni della gtx nei prox 3 o 4 mesi semplicemente xè
la hd2900 di adesso va come o poco + della 8800gts di oggi con i dvr abbastanza maturi ergo se stimiamo un aumento in linea con la serie 8800 allora è fattibilissimo.
e cmq nn scordiamoci che cmq anche nvidia nn sta in panciolle io adesso ho una 8800gts che prima di vendere mercoledi sto facendo un altro pò di test e con le beta nuova i 162.xx credo che ci si abbia guadagnato ancora un altro pò in performces.
in definitiva vedo un futuro molto molto roseo per le hd2900 ma allo stato dei fatti anche chi ha una 8800 sia gts che gtx che è gia un prodotto abbastanza maturo puo attendersi ancora qualche altra sorpresina!
davide155
08-07-2007, 13:23
Ma infatti chi dice che R600 è stato un flop è meglio che adesso si chiuda la bocca...
Per 350€ AMD ha sfornato un prodotto che, andando a logica, verso fine anno se la giocherà con la GTX a partire da 470€...
Fate voi, dove vedete 'sto flop? ;)
Bè oddio.....se mi dici a fine anno......ci saranno già le 8900, e le 8800gtx saranno allo stesso prezzo di r600.
E dato che abbiamo appurato che crysis va male pure su di una 8800gtx......non vedo dove sia la vittoria.
Cmq mai dire mai ;)
Bè oddio.....se mi dici a fine anno......ci saranno già le 8900, e le 8800gtx saranno allo stesso prezzo di r600.
E dato che abbiamo appurato che crysis va male pure su di una 8800gtx......non vedo dove sia la vittoria.
Cmq mai dire mai ;)
effettivamente anche se dai rumors che si dicono le 8900 saranno un refresh delle 8800 a 80nm.
il che saranno frequenze + alte e meno calore anche se oggettivamente sicuramente per una questione di aggressività del prezzo sicuramente nn monteranno delle ram con frequenze meno escreme delle 8800ultra.
chi ci guadagna invece è chi si prende le 8900gts che pur mantenendo un bus a 320bit invece si prenderà il chip completo con tutte le 128su invece che 96.
Bè oddio.....se mi dici a fine anno......ci saranno già le 8900, e le 8800gtx saranno allo stesso prezzo di r600.
E dato che abbiamo appurato che crysis va male pure su di una 8800gtx......non vedo dove sia la vittoria.
Cmq mai dire mai ;)
ci sono dei rumors che danno r600 come banco di prova per Crisys per tutto l E3
sarà un caso? o forse si sono resi conto che in una vetrina mondiale non possono presentarsi con un gioco che va a 12 Fps di media e così....................Ati rulezzer
TecnoWorld8
08-07-2007, 13:49
Ma infatti chi dice che R600 è stato un flop è meglio che adesso si chiuda la bocca...
Per 350€ AMD ha sfornato un prodotto che, andando a logica, verso fine anno se la giocherà con la GTX a partire da 470€...
Fate voi, dove vedete 'sto flop? ;)
sicuramente non è un flop commerciale, e nemmeno tecnico. io ho sempre solo detto che è molto in ritardo perchè - spero bene - entro fine anno dovrebbe uscire qualcosa di molto più potente di una gtx, a rigore di logica, essendo quest'ultima una scheda che, appunto a fine anno, compirà 1 anno di vita...e dunque è logico che ci sarà qualcosa che la sostituirà. dunque, per uscire 7 mesi dopo ad una gtx, ed essere al top, avrebbe dovuto essere più potente.
se poi ATi non intendeva posizionarla al top, ma offrire un'ottima scheda di alto livello a prezzo contenuto, allora l'obiettivo è raggiunto, ma di certo sono lontani i tempi in cui c'erano battaglie al top...
davide155
08-07-2007, 13:51
ci sono dei rumors che danno r600 come banco di prova per Crisys per tutto l E3
sarà un caso? o forse si sono resi conto che in una vetrina mondiale non possono presentarsi con un gioco che va a 12 Fps di media e così....................Ati rulezzer
Mi sembra un commento un pò estremista il tuo ;)
Cmq è solo un rumor probabilmente messo in giro dalla gelosia di qualche fanboy ati. Niente di ufficiale.
Ma siccome crysis è stato sviluppato interamente su g80, non vedo come possano scegliere hardware ati per mettere in mostra il loro frutto nato dalla collaborazione con nvidia.
Poi basta vedere anche fra gli affialiti del sito ufficiale di crysis EA......che ati non è presente. Sono presenti tutti fuorchè lei.
E questo non è un buon segno.
Con questo non voglio discriminare nessuno, ma solo dire che sarebbe come presentare una ferrari nata in collaborazione con la fiat, con propulsore mercedes.
Non avrebbe assolutamente senso ;)
Ecco il raffronto, se ho sbagliato qualcosa avvertite.
Recenzioni di hardware upgrade
Oblivion:
recensione 2900xt:
Recensione 8800GTX/GTS:
F.E.A.R.
Recensione 2900XT:
Recensione 8800GTX/GTS:
PREY
Recensione 2900XT:
Recensione 8800GTS/GTX:
Cerchero di continuare ad ggiornarla
Buon compleanno a me vado a ubriacarmi asdasdad
Sarà io Oblivion, gioco di cui abuso, vado da dio con i 7.6, legerissimamente meglio rispetto ai 7.5, e ho letto ancora meglio con i 7.7.
davide155
08-07-2007, 14:49
Pat cancella le immagini dal quote......altrimenti per scorrere la pagina mi ci vole 7 rotelle :rolleyes:
sicuramente non è un flop commerciale, e nemmeno tecnico. io ho sempre solo detto che è molto in ritardo perchè - spero bene - entro fine anno dovrebbe uscire qualcosa di molto più potente di una gtx, a rigore di logica, essendo quest'ultima una scheda che, appunto a fine anno, compirà 1 anno di vita...e dunque è logico che ci sarà qualcosa che la sostituirà. dunque, per uscire 7 mesi dopo ad una gtx, ed essere al top, avrebbe dovuto essere più potente.
se poi ATi non intendeva posizionarla al top, ma offrire un'ottima scheda di alto livello a prezzo contenuto, allora l'obiettivo è raggiunto, ma di certo sono lontani i tempi in cui c'erano battaglie al top...
Bè oddio.....se mi dici a fine anno......ci saranno già le 8900, e le 8800gtx saranno allo stesso prezzo di r600.
E dato che abbiamo appurato che crysis va male pure su di una 8800gtx......non vedo dove sia la vittoria.
Cmq mai dire mai ;)
L'unica cosa negativa sul ritardo di R600 è il fatto che nel frattempo G80 ha venduto un fottia, non mi dite che era necessaria a fine 2006/inizio 2007 unaVGA DX10... ;)
davide155
08-07-2007, 15:10
L'unica cosa negativa sul ritardo di R600 è il fatto che nel frattempo G80 ha venduto un fottia, non mi dite che era necessaria a fine 2006/inizio 2007 unaVGA DX10... ;)
Mai detto questo.
Ma dico che ati è stata demente.
Tutto qui :)
Mai detto questo.
Ma dico che ati è stata demente.
Tutto qui :)
Demente... :confused:
E' arrivata in ritardo, in informatica 6 mesi sono un'era, però meglio tardi che mai...
Se poi le tecnologie (e avanzate tra l'altro) ci sono, e sono solo da far maturare, non vedo dove sia il problema... ;)
TecnoWorld8
08-07-2007, 15:13
L'unica cosa negativa sul ritardo di R600 è il fatto che nel frattempo G80 ha venduto un fottia, non mi dite che era necessaria a fine 2006/inizio 2007 unaVGA DX10... ;)
non era necessaria una DX10, ma sicuramente era interessante una scheda così potente nel DX9. Prova ne è che ora come ora la G80 stessa, con i giochi attuali, inizia a ridimensionarsi (pur facendoli girare ancora tutti benone), come è giusto che sia per una scheda sul mercato da così tanti mesi.
Trovo invece meno normale che una scheda appena uscita di alta gamma, nei giochi più pesanti, faccia risultati buoni, ma non eclatanti. Secondo me una scheda top, quando esce, deve fare SEMPRE 60fps in tutti i giochi, leggeri o pesanti che siano, al massimo dettaglio e a risoluzioni di 1280 e 1600. Poi è normale che scenda sui 40-50 sui giochi usciti dopo 8 mesi.
Per questo dico (ma non io, lo dice ATi stessa con il prezzo) che R600 non è una scheda top, ORA. E' interessante come architettura, magari riserverà sorprese nel DX10, ma dico che sarebbe davvero ora che uscisse qualcosa di nuovo che facesse volare i giochi come G80 fece alla sua uscita.
non era necessaria una DX10, ma sicuramente era interessante una scheda così potente nel DX9. Prova ne è che ora come ora la G80 stessa, con i giochi attuali, inizia a ridimensionarsi (pur facendoli girare ancora tutti benone), come è giusto che sia per una scheda sul mercato da così tanti mesi.
Trovo invece meno normale che una scheda appena uscita di alta gamma, nei giochi più pesanti, faccia risultati buoni, ma non eclatanti. Secondo me una scheda top, quando esce, deve fare SEMPRE 60fps in tutti i giochi, leggeri o pesanti che siano, al massimo dettaglio e a risoluzioni di 1280 e 1600. Poi è normale che scenda sui 40-50 sui giochi usciti dopo 8 mesi.
Per questo dico (ma non io, lo dice ATi stessa con il prezzo) che R600 non è una scheda top, ORA. E' interessante come architettura, magari riserverà sorprese nel DX10, ma dico che sarebbe davvero ora che uscisse qualcosa di nuovo che facesse volare i giochi come G80 fece alla sua uscita.
E allora aspettiamo G81 e R6XX... :)
TecnoWorld8
08-07-2007, 15:23
E allora aspettiamo G81 e R6XX... :)
sì, per quello spero molto nella versione a 65nm di R600 e di G80...sarebbero le GPU "giuste" per quest'epoca, a 8 mesi dall'uscita della generazione attuale.
quello che ho sempre cercato di dire, forse non riuscendoci, è che per me R600 è della STESSA generazione di G80. Prima dell'uscita, speravo fosse di una "mezza generazione" avanti, ma purtroppo non è così (o forse lo è come architettura, ma non, per ora, come prestazioni - che è la cosa importante).
dunque, ora dovrebbe uscire quella generazione di mezzo che DI SOLITO è uscita dopo 6-9 mesi dal lancio di un'architettura...
Io su questo lato la penso MOLTO diversamente, 8 mesi fa erano gpu inutili imho, bastavano tranquillamente x1900 e 7900 gs, oggi con qualche primo accenno dx10 le gpu dx10 hanno già più senso e sono proporzionate all'offerta software.
Si ma in Prey ha perso :stordita: ?!
bho mistero :stordita: :stordita:
TecnoWorld8
08-07-2007, 16:01
Io su questo lato la penso MOLTO diversamente, 8 mesi fa erano gpu inutili imho, bastavano tranquillamente x1900 e 7900 gs, oggi con qualche primo accenno dx10 le gpu dx10 hanno già più senso e sono proporzionate all'offerta software.
ma una GPU deve coprire un periodo, non servire solo per 6 mesi! cmq è sempre il solito discorso, io credo che sia ora che esca una GPU nuova e decisamente più potente e spero avvenga a breve
se poi ATi non intendeva posizionarla al top, ma offrire un'ottima scheda di alto livello a prezzo contenuto, allora l'obiettivo è raggiunto, ma di certo sono lontani i tempi in cui c'erano battaglie al top...
ha fatto proprio questo con la hd 2900xt una scheda che punta più che altro sul rapporto prezzo prestazioni,se questa fosse stata superiore alle varie gtx e ultra avrebbe avuto prezzi similari....
ma una GPU deve coprire un periodo, non servire solo per 6 mesi! cmq è sempre il solito discorso, io credo che sia ora che esca una GPU nuova e decisamente più potente e spero avvenga a breve
Per giocare a cosa esattamente? Nemmeno sappiamo come andranno con Crysis e già si vuole qualcosa di meglio, non esiste offerta migliore, rivolta anche al futuro, di Hd2900 xt secondo me, che poi sarà al top per 6-8-10 mesi poco importa, si può anche abbassare il dettaglio, non credo sia un peccato capitale.
A me la X1900 Gt dura da più di un anno senza problemi ed è fascia medio alta, penso possa dire la sua ancora per diversi mesi.
Poi basta vedere anche fra gli affialiti del sito ufficiale di crysis EA......che ati non è presente. Sono presenti tutti fuorchè lei.
E questo non è un buon segno.
Quello vuol dire davvero poco. C'è AMD, che comprende sia AMD che ATi. ;)
Guarda questo sito (http://ati.amd.com/products/index.html): vedi forse il logo ATi? :asd: Eppure è il sito ufficiale di ATi.
ATi rimane solo come marchio per le soluzioni grafiche, ma comunque non esiste più come azienda, visto che è stata inglobata. Il partner commerciale e tecnico di CryTek è AMD, sia con le sue soluzioni grafiche che con le sue cpu. Quindi bastava un solo marchio. :)
Quello vuol dire davvero poco. C'è AMD, che comprende sia AMD che ATi. ;)
Guarda questo sito (http://ati.amd.com/products/index.html): vedi forse il logo ATi? :asd: Eppure è il sito ufficiale di ATi.
ATi rimane solo come marchio per le soluzioni grafiche, ma comunque non esiste più come azienda, visto che è stata inglobata. Il partner commerciale e tecnico di CryTek è AMD, sia con le sue soluzioni grafiche che con le sue cpu. Quindi bastava un solo marchio. :)
ATI è una divisione settore chipset grafici di AMD,infatti come dici tù non esiste più come azienda...
Per giocare a cosa esattamente? Nemmeno sappiamo come andranno con Crysis e già si vuole qualcosa di meglio, non esiste offerta migliore, rivolta anche al futuro, di Hd2900 xt secondo me, che poi sarà al top per 6-8-10 mesi poco importa, si può anche abbassare il dettaglio, non credo sia un peccato capitale.
A me la X1900 Gt dura da più di un anno senza problemi ed è fascia medio alta, penso possa dire la sua ancora per diversi mesi.
Proprio perchè non sappiamo come andranno crysis e gli altri giochi dx10, io consiglierei a tutti di aspettare le nuove generazioni di vga prima di spendere centinaia di €.
Iantikas
08-07-2007, 17:48
ankio al'inizio la vedevo nera x quanto riguarda la longevità ma informadomi meglio e pensadoci un pò su mi son dovuto ricredere...secondo me R600 ora è un ottimo aquisto sopratutto in relazione al prezzo a cui viene offerta...d sicuro affinando i driver le prestazioni miglioreranno d un buon 20% e certamente sia R600 ke G80 saranno le skede ke tra tutte meglio faranno girare i titoli in uscita nei prox mesi (crysis, bioshock, Cod 4 etc)...
...nn capisco tutto questo pessimismo nel considerarle già obsolete e incapaci d far girare i titoli prox futuri...una SH, sia essa la crytek o qualunque altra, crea un gioco x farlo girare sul hw presente al lancio del gioco...secondo me R600/G80 saranno in grado d far girare al meglio crysis sia in DX10 ke in DX9 e probabilmente anke la vekkia generazione (R580/G71) lo farà girare + ke dignitosamente in DX9 (altrimenti ki se lo compra sto gioco?)...
...inoltre nn vedo come una cosa negativa la presenza x tanto tempo d queste skede sul mercato e l'uscita rimandata d nuove generazioni xkè così sia le varie SH avranno + tempo x ottimizzare i loro prodtti su queste arkitetture sia ati/nividia avranno + tempo x affinare i driver in modo da sfruttarle al meglio...(è curioso il fato ke quando esce una nuova skeda ogni 4/5 mesi tutti stanno a lamentarsi ke il proprio aquisto s svaluta troppo in fretta...ora ke invece ce quasi la certezza ke nn ne usciranno d nuove se nn x fine anno tutti stanno a lamentarsi ke dovrebbero farne uscire una :oink: ...sembra veramente ke nn si sappia fare altro ke lamentarsi :D )...
...ciao
Athlon 64 3000+
08-07-2007, 18:17
ankio al'inizio la vedevo nera x quanto riguarda la longevità ma informadomi meglio e pensadoci un pò su mi son dovuto ricredere...secondo me R600 ora è un ottimo aquisto sopratutto in relazione al prezzo a cui viene offerta...d sicuro affinando i driver le prestazioni miglioreranno d un buon 20% e certamente sia R600 ke G80 saranno le skede ke tra tutte meglio faranno girare i titoli in uscita nei prox mesi (crysis, bioshock, Cod 4 etc)...
...nn capisco tutto questo pessimismo nel considerarle già obsolete e incapaci d far girare i titoli prox futuri...una SH, sia essa la crytek o qualunque altra, crea un gioco x farlo girare sul hw presente al lancio del gioco...secondo me R600/G80 saranno in grado d far girare al meglio crysis sia in DX10 ke in DX9 e probabilmente anke la vekkia generazione (R580/G71) lo farà girare + ke dignitosamente in DX9 (altrimenti ki se lo compra sto gioco?)...
...inoltre nn vedo come una cosa negativa la presenza x tanto tempo d queste skede sul mercato e l'uscita rimandata d nuove generazioni xkè così sia le varie SH avranno + tempo x ottimizzare i loro prodtti su queste arkitetture sia ati/nividia avranno + tempo x affinare i driver in modo da sfruttarle al meglio...(è curioso il fato ke quando esce una nuova skeda ogni 4/5 mesi tutti stanno a lamentarsi ke il proprio aquisto s svaluta troppo in fretta...ora ke invece ce quasi la certezza ke nn ne usciranno d nuove se nn x fine anno tutti stanno a lamentarsi ke dovrebbero farne uscire una :oink: ...sembra veramente ke nn si sappia fare altro ke lamentarsi :D )...
...ciao
non posso che quotarti.
Se uscissero nuove architetture a breve sarebbe solo un danno per la gia delicata situazione riguardo all'ottimmizzazione dei giochi per pc e farebbe peggiorare ulteriormente la situazione.
Io continuo a ripetere che R600 e G80 non sono obsolete ma vedo che nessuno ascolta e ripeto che un gioco come Crysis se girerà male non sarà per il fatto che le gpu non ce la faranno ma per la pessima ottimizzazione.
Vedere Neverwinter Nights 2 e Colin Mcrae Rally Dirt che sono 2 tra i giochi peggio programmati degli ultimi anni.
leoneazzurro
08-07-2007, 18:20
in oblivion la gtx ha avuto un aumento di prestazioni davvero significativo:read:
Si ma in Prey ha perso :stordita: ?!
Hanno guadagnato un bel pò in entrambi i cas, se guardate anche altre recensionii. Credo che in quelle di HWU tra i due test sia cambiato il demo di Prey, perchè hanno perso tutte le schede (anche le X1900, per esempio) ;)
Tra l'altro, ottimizzare per R600 è più complesso.
Proprio perchè non sappiamo come andranno crysis e gli altri giochi dx10, io consiglierei a tutti di aspettare le nuove generazioni di vga prima di spendere centinaia di €.
E quando sapremo che le nuove vga faranno girare meglio Crysis non sapremo comunque come faranno girare quello che arriverà dopo Crysis.
Se poi su R600 dovesse stentare, avrebbe un'appetibilità commerciale dell'1% del mercato circa, oltre al fatto che dichiarano che possa girare degnamente su configurazioni vecchie 3 anni.
Inoltre in questo caso, sarebbe il software da lasciare sugli scaffali, non la vga da cambiare.
E quando sapremo che le nuove vga faranno girare meglio Crysis non sapremo comunque come faranno girare quello che arriverà dopo Crysis.
Se poi su R600 dovesse stentare, avrebbe un'appetibilità commerciale dell'1% del mercato circa, oltre al fatto che dichiarano che possa girare degnamente su configurazioni vecchie 3 anni.
Inoltre in questo caso, sarebbe il software da lasciare sugli scaffali, non la vga da cambiare.
Quoto in tutto e per tutto se la demo non sarà in grado di girare sulla mia configurazione lo lascierò sugli scaffali questo gioco ;)
Ciau ragazzi, io ci tenevo a dire la mia, visto che vi stavo leggendo da molto tempo ma non riuscivo mai a tenere il vostro passo "veloce" nel scrivere i vari post.. e son rimasto a pagina 190 circa :D
Io personalmente ho capito che sta scheda soffre veramente il problema driver, mentre l'architettura c'è, e promette bene. Allora vediamo come va, e i suoi effettivi miglioramenti, che penso ci siano già stati anche se magari si poteva chiedere qualcosa di più.
Ora dico la mia, chissà quanti saranno daccordo con me, o magari in disaccordo.
Questo NON è assolutamente un buon periodo per acquistare una scheda video DX10, è semplicemente un periodo di transizione e tutti i possessori di una scheda video piuttosto recente dovrebbero rimanere su quella e giocare tranquillamente in DX9, attendendo i mitici SERVICE PACK di Vista, migliorie dei driver grafici di ATi, e soprattutto un bel r700.. quindi penso che il periodo corretto per l'acquisto sia proprio all'inizio 2008, quando uscira questa nuova revisione dell'r600 che supporterà e sarà pienamente supportata da tutto, e farà girare mostruosamente bene tutto.
Io personalmente ero un felice possessore di una X850XT moddata, che mi faceva girare bene tutto, o quasi, avevo qualche difficoltà con Gothic3, Oblivion e Call of Duty 2, li giocavo a 1280x1024, bastava togliere tutti i filtri che il frame rate era cmq accettabile. Ma che ho fatto? Ho deciso di toglierla, spendere 150 euri per prendermi una X1900XTX da 512MB di RAM che mi facesse girare benissimo tutti questi favolosi giochi in DX9, e mi permettesse di "aspettare" r700 con molto più serenità. E mi sento veramente di aver fatto la scelta giusta, ieri sera giocavo a Call of Duty 2 a 1600x1200 con 2x AA e Anisotropo e stavo sempre sui 50-60 fps, è stata veramente un'esperienza bellissima, quel gioco riesce ad essere veramente coinvolgente e visivamente bellissimo. E non sto esagerando.
Vorrei sapere che ne pensate tutti voi, visto che ormai vi ho preso in simpatia, e visto che sto thread lo seguo da diverso tempo, ma non avevo mai postato.
In attesa dell'r700 allora, secondo me. Non che r600 sia un flop, ma in un passaggio così grande generazionale, non potevano uscire schede video già perfette, con questa poca "knowledge" delle DX10...
Saluti a tutti carissimi, torno a giocare con COD2.. a 1600x1200 ovviamente :D
E quando sapremo che le nuove vga faranno girare meglio Crysis non sapremo comunque come faranno girare quello che arriverà dopo Crysis.
Se poi su R600 dovesse stentare, avrebbe un'appetibilità commerciale dell'1% del mercato circa, oltre al fatto che dichiarano che possa girare degnamente su configurazioni vecchie 3 anni.
Inoltre in questo caso, sarebbe il software da lasciare sugli scaffali, non la vga da cambiare.
quante volte si dovrebbe fare così ed invece subito a cambiare vga!:(
Hanno guadagnato un bel pò in entrambi i cas, se guardate anche altre recensionii. Credo che in quelle di HWU tra i due test sia cambiato il demo di Prey, perchè hanno perso tutte le schede (anche le X1900, per esempio) ;)
Tra l'altro, ottimizzare per R600 è più complesso.
nn riesco a capire una cosa: << perchè hanno perso tutte le schede (anche le X1900, per esempio)>> che significa?
si be poi che ottimizzare una applicazione per R600 sia complesso, si era capito, più che altro spero che le case produttrici di giochi rilascino patch che ottimizzino per R600
Ciau ragazzi, io ci tenevo a dire la mia, visto che vi stavo leggendo da molto tempo ma non riuscivo mai a tenere il vostro passo "veloce" nel scrivere i vari post.. e son rimasto a pagina 190 circa :D
Io personalmente ho capito che sta scheda soffre veramente il problema driver, mentre l'architettura c'è, e promette bene. Allora vediamo come va, e i suoi effettivi miglioramenti, che penso ci siano già stati anche se magari si poteva chiedere qualcosa di più.
Ora dico la mia, chissà quanti saranno daccordo con me, o magari in disaccordo.
Questo NON è assolutamente un buon periodo per acquistare una scheda video DX10, è semplicemente un periodo di transizione e tutti i possessori di una scheda video piuttosto recente dovrebbero rimanere su quella e giocare tranquillamente in DX9, attendendo i mitici SERVICE PACK di Vista, migliorie dei driver grafici di ATi, e soprattutto un bel r700.. quindi penso che il periodo corretto per l'acquisto sia proprio all'inizio 2008, quando uscira questa nuova revisione dell'r600 che supporterà e sarà pienamente supportata da tutto, e farà girare mostruosamente bene tutto.
Io personalmente ero un felice possessore di una X850XT moddata, che mi faceva girare bene tutto, o quasi, avevo qualche difficoltà con Gothic3, Oblivion e Call of Duty 2, li giocavo a 1280x1024, bastava togliere tutti i filtri che il frame rate era cmq accettabile. Ma che ho fatto? Ho deciso di toglierla, spendere 150 euri per prendermi una X1900XTX da 512MB di RAM che mi facesse girare benissimo tutti questi favolosi giochi in DX9, e mi permettesse di "aspettare" r700 con molto più serenità. E mi sento veramente di aver fatto la scelta giusta, ieri sera giocavo a Call of Duty 2 a 1600x1200 con 2x AA e Anisotropo e stavo sempre sui 50-60 fps, è stata veramente un'esperienza bellissima, quel gioco riesce ad essere veramente coinvolgente e visivamente bellissimo. E non sto esagerando.
Vorrei sapere che ne pensate tutti voi, visto che ormai vi ho preso in simpatia, e visto che sto thread lo seguo da diverso tempo, ma non avevo mai postato.
In attesa dell'r700 allora, secondo me. Non che r600 sia un flop, ma in un passaggio così grande generazionale, non potevano uscire schede video già perfette, con questa poca "knowledge" delle DX10...
Saluti a tutti carissimi, torno a giocare con COD2.. a 1600x1200 ovviamente :D
come darti torto, effettivamente bisognava aspettare un po' di più, però (è il mio caso) prima della 2900 avevo una 6800gt, facevo girare quasi tutto abbastanza bene, poi ultimamente si iniziavano a vedere degli artefatti, che dipendevano della SV, quindi ho dovuto cambiarla prima che mi lasciasse a piedi; e ho scelto R600 proprio per la sua architettura. certo se avessi avuto una 7900 o una x1900, avrei aspettato ancora.
credo anche che la decisione di molti dell'acquisto di r600 sia dipesa dal tipo di architettura, e personalmente credo che con driver abbastanza maturi questa scheda possa davvero stupirci in dx10
Iantikas
08-07-2007, 20:11
Ciau ragazzi, io ci tenevo a dire la mia, visto che vi stavo leggendo da molto tempo ma non riuscivo mai a tenere il vostro passo "veloce" nel scrivere i vari post.. e son rimasto a pagina 190 circa :D
Io personalmente ho capito che sta scheda soffre veramente il problema driver, mentre l'architettura c'è, e promette bene. Allora vediamo come va, e i suoi effettivi miglioramenti, che penso ci siano già stati anche se magari si poteva chiedere qualcosa di più.
Ora dico la mia, chissà quanti saranno daccordo con me, o magari in disaccordo.
Questo NON è assolutamente un buon periodo per acquistare una scheda video DX10, è semplicemente un periodo di transizione e tutti i possessori di una scheda video piuttosto recente dovrebbero rimanere su quella e giocare tranquillamente in DX9, attendendo i mitici SERVICE PACK di Vista, migliorie dei driver grafici di ATi, e soprattutto un bel r700.. quindi penso che il periodo corretto per l'acquisto sia proprio all'inizio 2008, quando uscira questa nuova revisione dell'r600 che supporterà e sarà pienamente supportata da tutto, e farà girare mostruosamente bene tutto.
Io personalmente ero un felice possessore di una X850XT moddata, che mi faceva girare bene tutto, o quasi, avevo qualche difficoltà con Gothic3, Oblivion e Call of Duty 2, li giocavo a 1280x1024, bastava togliere tutti i filtri che il frame rate era cmq accettabile. Ma che ho fatto? Ho deciso di toglierla, spendere 150 euri per prendermi una X1900XTX da 512MB di RAM che mi facesse girare benissimo tutti questi favolosi giochi in DX9, e mi permettesse di "aspettare" r700 con molto più serenità. E mi sento veramente di aver fatto la scelta giusta, ieri sera giocavo a Call of Duty 2 a 1600x1200 con 2x AA e Anisotropo e stavo sempre sui 50-60 fps, è stata veramente un'esperienza bellissima, quel gioco riesce ad essere veramente coinvolgente e visivamente bellissimo. E non sto esagerando.
Vorrei sapere che ne pensate tutti voi, visto che ormai vi ho preso in simpatia, e visto che sto thread lo seguo da diverso tempo, ma non avevo mai postato.
In attesa dell'r700 allora, secondo me. Non che r600 sia un flop, ma in un passaggio così grande generazionale, non potevano uscire schede video già perfette, con questa poca "knowledge" delle DX10...
Saluti a tutti carissimi, torno a giocare con COD2.. a 1600x1200 ovviamente :D
nn c'è una regola generale valida x tutti...dipende dall'esigenze ke uno ha e da tante altre cose...tu probabilmente hai fatto la cosa migliore x te, ciò nn significa xò ke un altra persona in differenti condizioni prendendo una hd2900xt ha sbagliato a prescindere e doveva x forza aspettare fine 2007 o inizio 2008...
...ciao
Garagolo
08-07-2007, 20:41
beh...figuratevi un po' ...io prima di avere questa 2900 avevo una ati 9800SE....:D
mi vergogno un po' a dirlo....pero' ormai l ho detto....:D :D
hai fatto un salto assurdo :D
beh...figuratevi un po' ...io prima di avere questa 2900 avevo una ati 9800SE....:D
mi vergogno un po' a dirlo....pero' ormai l ho detto....:D :D
ti dirò sul mulo io ho ancora una 9800pro che cmq ancora è una vga che con i giochi già di 6 mesi fà ancora garantisce granitiche prestazioni.
ut2004 va una favola, hl2 anche, q4 pure e anche oblivion a 1024x768 ancora lo fa andare. certo senza chiedergli aa ma cmq è una vga che su un muletto fa ancora la sua porchissima figura!
leoneazzurro
08-07-2007, 22:18
nn riesco a capire una cosa: << perchè hanno perso tutte le schede (anche le X1900, per esempio)>> che significa?
si be poi che ottimizzare una applicazione per R600 sia complesso, si era capito, più che altro spero che le case produttrici di giochi rilascino patch che ottimizzino per R600
Intendo dire che nel bench di Prey della 2900XT tutte le schede hanno realizzato un numero di fps inferiore a quello che facevano quando invece sono testate le 8800, per esempio le X1900 hanno perso un bel pò pure loro. Siccome dubito fortemente che entrambe le case possano avere fatto "ottimizzazioni negative" per Prey nelle release di drivers successivi, vuol dire che evidentemente i numeri di Prey non sono direttamente comparabili, perchè forse è cambiato il demo (livello, mappa, ecc) sul quale si sono fatti i test.
davide155
08-07-2007, 22:25
Demente... :confused:
E' arrivata in ritardo, in informatica 6 mesi sono un'era, però meglio tardi che mai...
Se poi le tecnologie (e avanzate tra l'altro) ci sono, e sono solo da far maturare, non vedo dove sia il problema... ;)
Scusate, non per fare polemica, ma mi sembrate un pò accecati dal logo ati, o dal suo colore, o da chissà cosa di ati.
Dove è il problema? Che ha perso il tram.......
G80 è uscita 7 mesi fa ed ha conquistato un botto di utenti.
r600 è uscita, con driver indecenti e sotto le aspettative, nonostante il suo hardware innovativo.
Adesso con un accenno di dx10 vengono messe subito in ginocchio restituendo 20fps a 1280x1024.
E questo non è un problema? :rolleyes:
Si direte voi......ma quelle applicazioni non sono assolutamente le future dx10.......si sono giochi in dx9 patchati in dx10, ma di sicuro tutto è, fuorchè una buona cosa.
Certo possono migliorare con un software più ottimizzato, ma si parte sempre da risultati scarsi....molto scarsi.
Cosa che per quanto ottima sia non potrà essere mai come esser partiti da un buon risultato.
Poi i miracoli in questo campo avvengono.....vediamo se questa generazione di vga riuscirà a farlo oppure no :)
Scusate, non per fare polemica, ma mi sembrate un pò accecati dal logo ati, o dal suo colore, o da chissà cosa di ati.
Dove è il problema? Che ha perso il tram.......
G80 è uscita 7 mesi fa ed ha conquistato un botto di utenti.
r600 è uscita, con driver indecenti e sotto le aspettative, nonostante il suo hardware innovativo.
Adesso con un accenno di dx10 vengono messe subito in ginocchio restituendo 20fps a 1280x1024.
E questo non è un problema? :rolleyes:
Si direte voi......ma quelle applicazioni non sono assolutamente le future dx10.......si sono giochi in dx9 patchati in dx10, ma di sicuro tutto è, fuorchè una buona cosa.
Certo possono migliorare con un software più ottimizzato, ma si parte sempre da risultati scarsi....molto scarsi.
Cosa che per quanto ottima sia non potrà essere mai come esser partiti da un buon risultato.
Poi i miracoli in questo campo avvengono.....vediamo se questa generazione di vga riuscirà a farlo oppure no :)
*
Scusate, non per fare polemica, ma mi sembrate un pò accecati dal logo ati, o dal suo colore, o da chissà cosa di ati.
Dove è il problema? Che ha perso il tram.......
G80 è uscita 7 mesi fa ed ha conquistato un botto di utenti.
r600 è uscita, con driver indecenti e sotto le aspettative, nonostante il suo hardware innovativo.
Adesso con un accenno di dx10 vengono messe subito in ginocchio restituendo 20fps a 1280x1024.
E questo non è un problema? :rolleyes:
Si direte voi......ma quelle applicazioni non sono assolutamente le future dx10.......si sono giochi in dx9 patchati in dx10, ma di sicuro tutto è, fuorchè una buona cosa.
Certo possono migliorare con un software più ottimizzato, ma si parte sempre da risultati scarsi....molto scarsi.
Cosa che per quanto ottima sia non potrà essere mai come esser partiti da un buon risultato.
Poi i miracoli in questo campo avvengono.....vediamo se questa generazione di vga riuscirà a farlo oppure no :)
raga io nn so voi ma nn capisco xè vi allarmate per sto passaggio a dx10 drammatico e apocalittico.
vi ricordo che si diceva la stessa cosa del paggio dx8 a dx9.
la 9700pro andava bene sia in dx8 che in dx9 anche la 5800ultra che pur con tutti i problemi progettuali andava onestamente in dx9.
è ovvio che vga di questo calibrio 2900,8800 non possano fare quei fps in versione definitiva anche xè il 90% dei giocatori per pc avrà schede mid-end vedi le 2600 o 8600 e i programmatori lo sanno benissimo.
solitamente un programmatore si impegna a far andare fluido un gioco su queste vga e poi chi ha vga superiori solitamente ci mette i filtri ma solo a sua libera scelta di appensantire un gioco.
o almeno le case serie lo fanno.
pensiamo agli sviluppatori di dell'UnrealEngine 3 che hanno detto "abbiamo fatto l'engine in dx9 xè nn avevamo tempo di rifarlo in Dx10 e sopratutto l'90% delle persone giocheranno al nostro titolo con vga dx9 sotto XP, ovviamente nn abbiamo tralasciato la percentuale di giocatori entusiast inserendo la gestione dell'overflow dx10 per chi giocherà sotto vista con una vga dx10."
io aspetterei a buttarmi dal baratro anche xè oggettivamente la fascia media dx10 di nvidia e ati ha si e no 2 e 1 mese di vita.
il refresh di g80 sarà come il refresh di g70 cioè 7800 con meno calore e con frequenze + alte ma se nn è propio buona l'archidettura in dx10 è inutile pompare 50mhz tanto se poi ho 20fps o 22 nn mi cambia.
ergo nvidia è molto convinta di poter affrontare le dx10 al top con g80 e il suo refresh per almeno i prossimi 8 mesi(visto che dalle perti nvidia solitamente si fanno 6-8mesi archidettura base altri 6-8 mesi archidettura base refresh e poi altri 2 o 3 mesi per far uscire nuova archidettura)
dal puto di vista di ati sono molto convinti di poter affrontare le dx10 con l'archidettura r600 di base per i prossimi 6 mesi per poi anche loro refreshare per altri 6-8.
ora nsomma mi sembrano entrambe sicure le case dei loro prodotti di base se no se si erano resi conto che in pieno dx10 le loro 2 archidetture erano entrambe inadeguate adesso gia ci sarebbero fior fiori di rumors in produzione per g90 e r700.
tra l'altro ragazzi io invece ho sentito qualche rumors molto succulento per l'erede della x1950pro chiamato rv650 o rv670 che indica struttura a 240sp e ringbus a 512bit interno e 256bit esterno per tagli da 256mb o 512mb che nn sarebbe per niente male.
Free Gordon
09-07-2007, 00:33
ma all'inizio aveva in totale di 256SP, e ricordo anche che qualcuno aveva detto che l'ultima review di R600 era avvenuta a gennaio, quindi forse le tempistiche sono queste, magari si potevano accociare i tempi di 1/2 mesi, ma nn credo di più
Sono notizie infondate, il chip è sempre stato quello che conosciamo oggi. ;)
Il fatto che abbiano poi ritardato la commercializzazione, è dovuto a molti altri fattori (probabilmente hanno fatto anche un respin ma per provare a farlo salire di più frequenza, non credo che avessero problemi di funzionalità).
Free Gordon
09-07-2007, 00:46
Saluti a tutti carissimi, torno a giocare con COD2.. a 1600x1200 ovviamente :D
Io penso che all'uscita di Crysis ti verrà la fregola di cambiare VGA... E andrai su una x2900XT. :D
E quando sapremo che le nuove vga faranno girare meglio Crysis non sapremo comunque come faranno girare quello che arriverà dopo Crysis.
Se poi su R600 dovesse stentare, avrebbe un'appetibilità commerciale dell'1% del mercato circa, oltre al fatto che dichiarano che possa girare degnamente su configurazioni vecchie 3 anni.
Inoltre in questo caso, sarebbe il software da lasciare sugli scaffali, non la vga da cambiare.
Nessun hw di punta ha mai fatto girare a cannone software uscito cosi tanti mesi dopo (e anche se R600 è uscito solo ora, è cmq un progetto vecchio, e nonostante l'età non sono ancora riusciti a sfruttarlo al meglio).
Non è una novità. Oblivion quando è uscito ha messo in ginocchio tutto l'hw in circolazione. Fear e farcry han fatto lo stesso
Che poi si potesse giocarci cmq, questo è ovvio. Ed è per questo che crysis uscirà lo stesso, anche se per vederlo in modalità "eye candy" a risoluzioni sopra 1280 con questa generazione, ci vorrà almeno uno sli o un cf.
Per giocare ad un gioco così, sono disposto anche a cambiare vga se la mia non dovesse soddisfarmi, come penso che succederà.
In fondo sono un appassionato di videogames, come farei a lasciare un giocone cosi sugli scaffali? Non vedo l'ora che esca per giocarci :D
Io penso che all'uscita di Crysis ti verrà la fregola di cambiare VGA... E andrai su una x2900XT. :D
Ma se un mese dopo escono i primi refresh di nvidia, chi glielo fa fare. E se proprio dovesse scegliere HD2900XT, almeno la pagherebbe molto meno.
Intendo dire che nel bench di Prey della 2900XT tutte le schede hanno realizzato un numero di fps inferiore a quello che facevano quando invece sono testate le 8800, per esempio le X1900 hanno perso un bel pò pure loro. Siccome dubito fortemente che entrambe le case possano avere fatto "ottimizzazioni negative" per Prey nelle release di drivers successivi, vuol dire che evidentemente i numeri di Prey non sono direttamente comparabili, perchè forse è cambiato il demo (livello, mappa, ecc) sul quale si sono fatti i test.
ok,capito. Grazie :D
Sono notizie infondate, il chip è sempre stato quello che conosciamo oggi. ;)
Il fatto che abbiano poi ritardato la commercializzazione, è dovuto a molti altri fattori (probabilmente hanno fatto anche un respin ma per provare a farlo salire di più frequenza, non credo che avessero problemi di funzionalità).
si anchio sapevo che erano notizie di sottobanco, però pensavo che potesse essere stata una delle causa per il ritardo;)
Ma se un mese dopo escono i primi refresh di nvidia, chi glielo fa fare. E se proprio dovesse scegliere HD2900XT, almeno la pagherebbe molto meno.
Così come è assurdo dire "quando esce Crysis tutti comprerete la HD2900", è anche assurdo dire quello che dici tu: non si sa come girerà il gioco sulle 8800 o sulle HD2900, figuriamoci su vga che ancora non esistono :rolleyes:
Evitate queste uscite, servono solo a scatenare flames ;)
Quoziente
09-07-2007, 08:17
... mi sa tanto che stasera vado a comprarmi una HD 2900 XT... :D
...si, lo so... non è male la mia scheda video attuale... ma ... sapete com'è... non resisto... :sofico:
Nessun hw di punta ha mai fatto girare a cannone software uscito cosi tanti mesi dopo (e anche se R600 è uscito solo ora, è cmq un progetto vecchio, e nonostante l'età non sono ancora riusciti a sfruttarlo al meglio).
Non è una novità. Oblivion quando è uscito ha messo in ginocchio tutto l'hw in circolazione. Fear e farcry han fatto lo stesso
Che poi si potesse giocarci cmq, questo è ovvio. Ed è per questo che crysis uscirà lo stesso, anche se per vederlo in modalità "eye candy" a risoluzioni sopra 1280 con questa generazione, ci vorrà almeno uno sli o un cf.
Per giocare ad un gioco così, sono disposto anche a cambiare vga se la mia non dovesse soddisfarmi, come penso che succederà.
In fondo sono un appassionato di videogames, come farei a lasciare un giocone cosi sugli scaffali? Non vedo l'ora che esca per giocarci :D
Benissimo, r600 è un progetto vecchio, Vga di punta che non fanno girare una cippa, evidentemente viviamo un mondo informatico parallelo, CF per giocare ma stiamo scherzando? Lo capisco in fascia media, ma in fascia alta imho ha poco senso chiedere all'utente quasi 1000 euro di spesa per un gioco, anche io sono appassionato, ma se mi prendono per il c..o, posso anche lasciarlo dov'è.
Poi ripeto, è da 1 anno che ripetono che ha un ottima resa anche su hw non propriamente nuovissimo, poi a me gli allarmismi sanno tanto di una visione plasmata sulla propria situazione hw, magari pensando di giustificare il rimandato upgrade.
Io me la godo ora hd 2900 xt e ne sono contento e mi sono stufato che si continui a sostenere che in un futuro dx10 farà pena senza nessuna prova se non 2 titoli dx9 con patch dx10.
Quoziente
09-07-2007, 08:31
Effettivamente Crytek ha sventagliato più volte il fatto che Crysis avrebbe girato con pc vecchi di 3 anni a patto di scendere a qualche compromesso grafico...
Se è vero comincio a chiedermi qual'era il top dell'hardware 3 anni fa?
Beh, innanzitutto tutte le cpu erano single core, nel campo delle schede video qual'era il top? La 9800Pro forse?
O sono riusciti a realizzare un motore grafico estremamente scalabile o Crysis non è poi così pesante da gestire (anche se dubito) o Crytek l'ha sparata grossa... :sofico:
Speriamo in una demo a brevissimo così ci togliamo un po' di interrogativi...
Non andate OT, c'è un thread su Crysis nella sezione PC games ;)
Così come è assurdo dire "quando esce Crysis tutti comprerete la HD2900", è anche assurdo dire quello che dici tu: non si sa come girerà il gioco sulle 8800 o sulle HD2900, figuriamoci su vga che ancora non esistono :rolleyes:
Evitate queste uscite, servono solo a scatenare flames ;)
Ho solo detto la mia opinione. Ho detto un sacco di volte che R600 è più proiettato alle dx10 rispetto a g80 e blah e blah. Ma ciò non toglie che mancano 2 mesi all'uscita di crysis, e sarebbe stupido anticipare un acquisto che è dichiaratamente votato "al futuro" (due mesi)... aspettare due mesi no eh?
Benissimo, r600 è un progetto vecchio, Vga di punta che non fanno girare una cippa, evidentemente viviamo un mondo informatico parallelo, CF per giocare ma stiamo scherzando? Lo capisco in fascia media, ma in fascia alta imho ha poco senso chiedere all'utente quasi 1000 euro di spesa per un gioco, anche io sono appassionato, ma se mi prendono per il c..o, posso anche lasciarlo dov'è.
Poi ripeto, è da 1 anno che ripetono che ha un ottima resa anche su hw non propriamente nuovissimo, poi a me gli allarmismi sanno tanto di una visione plasmata sulla propria situazione hw, magari pensando di giustificare il rimandato upgrade.
Io me la godo ora hd 2900 xt e ne sono contento e mi sono stufato che si continui a sostenere che in un futuro dx10 farà pena senza nessuna prova se non 2 titoli dx9 con patch dx10.
Effettivamente Crytek ha sventagliato più volte il fatto che Crysis avrebbe girato con pc vecchi di 3 anni a patto di scendere a qualche compromesso grafico...
Pat, il secondo user ti ha risposto. Nessuno dice che farà pena, io non l'ho mai detto. Ho solo detto che per giocarci bisognerà scendere a compromessi, proprio come dicono gli uomini di crytec.
Tu sei felice con 40fps io ne voglio 60. Tu terrai la tua scheda, io probabilmente no.
Poi sarò felice di sbagliarmi. Cosa credi, che sarei deluso se la mia scheda facesse girare quel giocono tutto a manetta a 60 fps fissi a 1280x1024?
halduemilauno
09-07-2007, 09:07
Pat, il secondo user ti ha risposto. Nessuno dice che farà pena, io non l'ho mai detto. Ho solo detto che per giocarci bisognerà scendere a compromessi, proprio come dicono gli uomini di crytec.
Tu sei felice con 40fps io ne voglio 60. Tu terrai la tua scheda, io probabilmente no.
Poi sarò felice di sbagliarmi. Cosa credi, che sarei deluso se la mia scheda facesse girare quel giocono tutto a manetta a 60 fps fissi a 1280x1024?
partendo dal pressupposto che loro(come tutti gli altri)il gioco lo devono vendere al più vasto parco schede possibile io credo che con la tua a quelle condizioni ci giocherai alla grandissima e via via tutte le altre.
;)
o Crytek l'ha sparata grossa... :sofico:
.
Ecco la verità:rolleyes:
scusatemi, ma io ho imparato la lezione dalla vicenda di Doom3 quando doveva girare al max su una Geforce3, e alla fine girava a malapena sulle Geforce4 e nemmeno al max...dobbiamo attenderci questo dai sviluppatori:rolleyes:
partendo dal pressupposto che loro(come tutti gli altri)il gioco lo devono vendere al più vasto parco schede possibile io credo che con la tua a quelle condizioni ci giocherai alla grandissima e via via tutte le altre.
;)
Ci sono stati 4/5 giochi che mi hanno fatto cambiare VGA, farcry, doom3, fear/quake4 e oblivion. La situazione si ripeterà secondo me.
Poi chi ha detto che il gioco non girerà? Sarà super scalabile come farcry. Ma se vuoi il massimo...
In fondo è vero che crysis deve vendere. Ma anche le nuove VGA dovranno essere vendute...
davide155
09-07-2007, 09:22
Ecco la verità:rolleyes:
scusatemi, ma io ho imparato la lezione dalla vicenda di Doom3 quando doveva girare al max su una Geforce3, e alla fine girava a malapena sulle Geforce4 e nemmeno al max...dobbiamo attenderci questo dai sviluppatori:rolleyes:
Io infatti non mi fido.
Non caccio un euro per la nuova vga, finchè non esce il gioco e vedo come va sulle varie configurazioni.
Solo dopo valuterò cosa fare.
Ma fino ad allora nada.
La cosa sicura è che non mi baserò sulla demo ;)
Evangelion01
09-07-2007, 09:42
Benissimo, r600 è un progetto vecchio, Vga di punta che non fanno girare una cippa, evidentemente viviamo un mondo informatico parallelo, CF per giocare ma stiamo scherzando? Lo capisco in fascia media, ma in fascia alta imho ha poco senso chiedere all'utente quasi 1000 euro di spesa per un gioco, anche io sono appassionato, ma se mi prendono per il c..o, posso anche lasciarlo dov'è.Poi ripeto, è da 1 anno che ripetono che ha un ottima resa anche su hw non propriamente nuovissimo, poi a me gli allarmismi sanno tanto di una visione plasmata sulla propria situazione hw, magari pensando di giustificare il rimandato upgrade.
Io me la godo ora hd 2900 xt e ne sono contento e mi sono stufato che si continui a sostenere che in un futuro dx10 farà pena senza nessuna prova se non 2 titoli dx9 con patch dx10.
Quoto, anche perchè se uno non è masochista, allo stesso prezzo ci compri360 + ps3 + wii ... E vivi felice per il resto della vita :ciapet: . Imho le config cf / sli servono solo per benchare e sboroneggiare. :Prrr:
ma allora esiste o no una recensione DETTAGLIATA sulla versione da 1GB ?:rolleyes:
ma allora esiste o no una recensione DETTAGLIATA sulla versione da 1GB ?:rolleyes:
solo questa http://hardware.gotfrag.com/portal/story/38332/?spage=1
solo questa http://hardware.gotfrag.com/portal/story/38332/?spage=1
ma perchè solo una ? sta cosa che nessuno recensisce la vers. da 1gb mi puzza un pò:mbe:
Tidus.hw
09-07-2007, 10:37
Effettivamente Crytek ha sventagliato più volte il fatto che Crysis avrebbe girato con pc vecchi di 3 anni a patto di scendere a qualche compromesso grafico...
Se è vero comincio a chiedermi qual'era il top dell'hardware 3 anni fa?
Beh, innanzitutto tutte le cpu erano single core, nel campo delle schede video qual'era il top? La 9800Pro forse?
O sono riusciti a realizzare un motore grafico estremamente scalabile o Crysis non è poi così pesante da gestire (anche se dubito) o Crytek l'ha sparata grossa... :sofico:
Speriamo in una demo a brevissimo così ci togliamo un po' di interrogativi...
il top si 3 anni fa se non sbaglio era fx53, 1gb ram e 6800U ^^
ma perchè solo una ? sta cosa che nessuno recensisce la vers. da 1gb mi puzza un pò:mbe:
non saprei :boh:
Pat, il secondo user ti ha risposto. Nessuno dice che farà pena, io non l'ho mai detto. Ho solo detto che per giocarci bisognerà scendere a compromessi, proprio come dicono gli uomini di crytec.
Tu sei felice con 40fps io ne voglio 60. Tu terrai la tua scheda, io probabilmente no.
Poi sarò felice di sbagliarmi. Cosa credi, che sarei deluso se la mia scheda facesse girare quel giocono tutto a manetta a 60 fps fissi a 1280x1024?
E dove dicono gli uomini di crytech che su una hd 2900 xt bisognerà scendere a compromessi? Io ho seguito tutto sul titolo, ma a parte l'accenno a NON PREOCCUPARSI per i requisiti non mi pare di aver letto nulla, Farcry ai tempi su 9800 pro (paragonabile a hd2900 come segmento dell'epoca) al massimo dettaglio viaggiava alla grandissima, e anche su 5900 non era affatto male.
Ti rendi conto di far previsioni allarmistiche su un prodotto che bisogna pur vendere alla MASSA, non solo ai fortunati possesori di top di gamma, poi ci lamentiamo dell'ottimizzazione, e te credo, se già 2 mesi prima dell'uscita di un gioco pensiamo non girerà sull'hw più recente in commercio come si conviene, fanno bene a non ottimizzare nulla.
Sentivo gli stessi discorsi per Hl2, poi puntualmente smentiti, e Doom3 girava al massimo su nv20 quando utilizzava appunto la sua modalità nativa, poi Carmack aggiunse una generica opengl e una specifica nv30, quest'ultima scomparsa a causa della maturazione dei driver nvidia per geforce fx, che aggiungevano supporto agli shaders che prima non erano presenti e di conseguenza presentando un diverso dettaglio finale.
Comunque è un titolo largamente rimandato che non corrispondeva più, in larga parte, al progetto iniziale (sviluppato su geforce DDR).
Guarda, io non so perchè ti scaldi tanto.
Io avevo una 5900xt quando c'era farcry e l'ho sostituita con una 9800pro perchè a 1024 dovevo tenere alcuni dettagli su medio/alto. Ma solo con la x800xt ho apprezzato il gioco a 1280x1024 con tutto a cannone. La 9800pro con AAx4 e AFx16 non mi permetteva di giocare fluidamente a 1280. Dovevo scendere a 1024.
Non capisco questa storia dell'allarmismo. Se uno dice una cosa su cui sei d'accordo allora è ok, se non sei d'accordo è allarmismo? Ti rendi conto che stiamo speculando tutti e due? Cos'è che trasforma la tua speculazione in verità e la mia in allarmismo?
E riguardo all'ottimizzazione dei vg, ma dove l'hai visto un gioco per PC veramente ottimizzato? Qua non si è mai ottimizzato nulla. Non sono costretti a farlo come sulle console.
Sono sicuro che tu ti divertirai un sacco con crysis con la tua scheda. Io penso che vorrò qualcosa di più della mia, e non sarà sicuramente una hd2900xt (anche se presumibilmente andrà un pelino meglio).
Guarda, io non so perchè ti scaldi tanto.
Io avevo una 5900xt quando c'era farcry e l'ho sostituita con una 9800pro perchè a 1024 dovevo tenere alcuni dettagli su medio/alto. Ma solo con la x800xt ho apprezzato il gioco a 1280x1024 con tutto a cannone. La 9800pro con AAx4 e AFx16 non mi permetteva di giocare fluidamente a 1280. Dovevo scendere a 1024.
Non capisco questa storia dell'allarmismo. Se uno dice una cosa su cui sei d'accordo allora è ok, se non sei d'accordo è allarmismo? Ti rendi conto che stiamo speculando tutti e due? Cos'è che trasforma la tua speculazione in verità e la mia in allarmismo?
E riguardo all'ottimizzazione dei vg, ma dove l'hai visto un gioco per PC veramente ottimizzato? Qua non si è mai ottimizzato nulla. Non sono costretti a farlo come sulle console.
Sono sicuro che tu ti divertirai un sacco con crysis con la tua scheda. Io penso che vorrò qualcosa di più della mia, e non sarà sicuramente una hd2900xt (anche se presumibilmente andrà un pelino meglio).
Tutto questo bel discorso e una domanda, ma se hai una 8800 e non pensi che Hd 2900 XT soddisfi i tuoi requisiti presenti e futuri, cosa di grazia ti interessa del forum dedicato a tale soluzione?
L'allarmismo non lo creo certo io, ne speculo, dico solo che se dovesse girare da schifo lo lascio dov'è, questo non è speculare, è buon senso.
Tutto questo bel discorso e una domanda, ma se hai una 8800 e non pensi che Hd 2900 XT soddisfi i tuoi requisiti presenti e futuri, cosa di grazia ti interessa del forum dedicato a tale soluzione?
L'allarmismo non lo creo certo io, ne speculo, dico solo che se dovesse girare da schifo lo lascio dov'è, questo non è speculare, è buon senso.
no dai ragazzi queste sono frasi che nn si dovrebbero scrivere l'utente a cui hai risposto nn mi pare un flammone e anzi sta solo creando alcune sue conclusioni/speculazioni ma nn mi pare abbia detto la 8800 è stupenda e la 2900 è merda.
alla fine uno puo interessarsi anche ad archidetture diverse.
vedi me fino a sta sera avrà una 8800gts e da giovedi-venerdi una hd2900.
ma la 8800gts la ho avuta per 6 mesi e ho frequentato questo tread dalle prime pagine.
ma perchè solo una ? sta cosa che nessuno recensisce la vers. da 1gb mi puzza un pò:mbe:
credo semplicemente xè è per il mercato eom e andare a comprare un pc falcon o alienware per 5000 dollari per recensire la vga è un pò troppo.
aspettiamo un pò cmq sapphire ha annunciato per l'europa la commercializazzione nel canale retail di una versione da 1gb gddr4 per settembre quindi credo le prime review di un prodtto reale ed acquistabile da tutti!
Free Gordon
09-07-2007, 13:02
Ma se un mese dopo escono i primi refresh di nvidia, chi glielo fa fare. E se proprio dovesse scegliere HD2900XT, almeno la pagherebbe molto meno.
Appunto, una scheda che farà girare Crysis "bene" e che si troverà a prezzi abbordabili (sotto i 300 euro.. o magari pure al prezzo che oggi ha la GTS 320 ;) )
Parlando di ottobre 2007.
Mica era un discorso: "R600 sarà meglio dei progetti nVidia, in Crysis". ;) Era una questione puramente economica.
no dai ragazzi queste sono frasi che nn si dovrebbero scrivere l'utente a cui hai risposto nn mi pare un flammone e anzi sta solo creando alcune sue conclusioni/speculazioni ma nn mi pare abbia detto la 8800 è stupenda e la 2900 è merda.
alla fine uno puo interessarsi anche ad archidetture diverse.
vedi me fino a sta sera avrà una 8800gts e da giovedi-venerdi una hd2900.
ma la 8800gts la ho avuta per 6 mesi e ho frequentato questo tread dalle prime pagine.
Permettimi, capisco che si può essere interessati, ma poi uno opta delle scelte, e se la scelta è "sicuramente non sarà Hd2900XT" allora che ci fai nel luogo dove si tratta solo di questa soluzione?
Anche io ai tempi postai sul 3d di geforce 8600, poi costatando che non mi interessava lo abbandonai, è ovvio che un 3d all'inizio sia divulgativo ma poi diventa necessariamente un luogo dove acquirenti o futuri acquirenti scambiano considerazioni.
Iantikas
09-07-2007, 13:29
...nn vedo xkè crysis dovrebbe andar da skifo dato ke col capitolo precedente fecero davvero un bel lavoro e sicuramente nn avevano i mezzi ke hanno ora x fare il secondo...
...io penso ke ris tipo 1680x1050/1600x1200 saranno sicuramente alla portata delle skede d fascia alta presenti ora sul mercato (magari dovendo giusto sacrificare l'AA alle ris superiori)...ciao
p.s.: se tutto va bene finalmente oggi pomeriggio spediscono :O
...nn vedo xkè crysis dovrebbe andar da skifo dato ke col capitolo precedente fecero davvero un bel lavoro e sicuramente nn avevano i mezzi ke hanno ora x fare il secondo...
...io penso ke ris tipo 1680x1050/1600x1200 saranno sicuramente alla portata delle skede d fascia alta presenti ora sul mercato (magari dovendo giusto sacrificare l'AA alle ris superiori)...ciao
p.s.: se tutto va bene finalmente oggi pomeriggio spediscono :O
raga ma poi una cosa xè vi siete fissati co sto crysis mentre nessuno pensa che il motore + sfruttato per i prossimi game visto che anche i cani hanno comprato la licenza è ut engine 3 e in primis unreal tournament 2007.
io mi preoccuperei di questo visto che è un motore dx9 e se nn lo aggiornano voglio vedermi le risate con la mia hd2900xt quando attivo l'aa 4x che invece di perdere il 25% di prestazioni come sulla x1950 o sulle 8800 ne perdo il 50%.
a me preoccuperebbe + questo che nn crysis
Konrad76
09-07-2007, 14:42
OT
Se posso dire la mia io penso che ai nostri livelli interessi tutto l'hw in generale, poi ognuno fà le propie scelte per il pc a seconda di tante cose, disponibilità, finanze ecc ecc, ma nulla toglie il fatto che si possano comunque seguire le discussioni di schede/componenti non presenti nel propio pc in maniera anche interessata...
Io ho lasciato ati con una 1900 passando da una 8800gts ad oggi con una Ultra ma questo non toglie che seguo sempre questa discussione...
Fine OT
Tidus.hw
09-07-2007, 14:53
raga ma poi una cosa xè vi siete fissati co sto crysis mentre nessuno pensa che il motore + sfruttato per i prossimi game visto che anche i cani hanno comprato la licenza è ut engine 3 e in primis unreal tournament 2007.
io mi preoccuperei di questo visto che è un motore dx9 e se nn lo aggiornano voglio vedermi le risate con la mia hd2900xt quando attivo l'aa 4x che invece di perdere il 25% di prestazioni come sulla x1950 o sulle 8800 ne perdo il 50%.
a me preoccuperebbe + questo che nn crysis
in dx9 con tutti gli effetti attivati l'aa non si potrà neanche mettere su ut.
Iantikas
09-07-2007, 15:05
raga ma poi una cosa xè vi siete fissati co sto crysis mentre nessuno pensa che il motore + sfruttato per i prossimi game visto che anche i cani hanno comprato la licenza è ut engine 3 e in primis unreal tournament 2007.
io mi preoccuperei di questo visto che è un motore dx9 e se nn lo aggiornano voglio vedermi le risate con la mia hd2900xt quando attivo l'aa 4x che invece di perdere il 25% di prestazioni come sulla x1950 o sulle 8800 ne perdo il 50%.
a me preoccuperebbe + questo che nn crysis
R6V è basato sul UT3 è gira benone sulla hd2900xt anke con AA (anzi mi sembra sia uno dei gioki dove va meglio)...
...mi kiedevo in questi giorni ma CoD 4 ke motore sfrutta?...ciao
...mi kiedevo in questi giorni ma CoD 4 ke motore sfrutta?...ciao
motore proprietario, come tradizione di infinity ward ;)
Io penso che all'uscita di Crysis ti verrà la fregola di cambiare VGA... E andrai su una x2900XT. :D
Mah Gordon... non so se veramente mi verrà questa fregola, o almeno, saprò aspettare e scegliere più avanti un VGA davvero matura e ottima per queste DX10 imminenti.. certo che prima di metter su Vista veramente verrà il 2008.. che lo ottimizzino pure intanto..
Intanto, ho da finire COD2 e c'ho pure PREY che mi aspetta.. e anche lì 1600x1200 e via.. non vedo l'ora!
Ciau ragazzi :)
Permettimi, capisco che si può essere interessati, ma poi uno opta delle scelte, e se la scelta è "sicuramente non sarà Hd2900XT" allora che ci fai nel luogo dove si tratta solo di questa soluzione?
Anche io ai tempi postai sul 3d di geforce 8600, poi costatando che non mi interessava lo abbandonai, è ovvio che un 3d all'inizio sia divulgativo ma poi diventa necessariamente un luogo dove acquirenti o futuri acquirenti scambiano considerazioni.
Tu sei libero di fare le scelte che ritieni più opportune, io faccio le mie.
Seguo questo thread da i primi aspettando R600, cercando di dare il mio contributo (domande, risposte, traduzioni, considerazioni) e sperando di imparare sempre qualcosa di nuovo.
Poi l'abbiamo scritto e letto mille volte su queste pagine, che ci sono stati e ci saranno ancora dei miglioramenti nelle prestazioni, a causa dell'immaturità dei drivers. Motivo in più per tenersi aggiornati sulla situazione senza alcun pregiudizio sulle possibile evoluzioni del chip, cosa che alcuni users del forum hanno, ma al contrario (in positivo intendo). In fondo il problema lo vedo uguale anche su g80, non è che me la sto prendendo con R600...
Per quanto riguarda le speculazioni su crysis volevo solo aggiungere che quello che ho visto sin ora nei vari video in game fa sembrare vecchio di 5 anni tutto il resto che gira in rete su altri giochi/motori grafici. Non credo che un eventuale problema di prestazioni sia indice di una pessima programmazione. Le mie speculazioni sono tali perchè la differenza di qualità con il "resto del mondo" è tale da farmelo presumere.
Se poi ci sarà il miracolo, sarò il primo a goderne!
non capisco perché la gente continua a confrontare le due schede a livello tecnologico, nvidia si è fatta 2 conti e ha detto: di giochi dx10 se ne vedranno tra un anno se tutto va bene, facciamo una bella scheda che sfrutti al max le dx9 e pronta per le dx10, non stiamo a utilizzare architetture specifiche e complesse per le dx10 anche perché in seguito dovremmo diventare scemi a fare i driver ottimizzati...
e ha fatto bene a ragionare così, infatti ha venduto a sfascio le 8800 senza deludere nessuno.
Tutta questione di mercato, di soldi, di vendere il più possibile senza anticipare nulla e fare passi più lunghi della gamba che non sono mai serviti a nulla.
La Ati sembra sia spinta più dalla "passione" e sforni schede che vanno oltre i tempi, ma non basta tirar fuori schede ipertecnologiche se ad oggi nulla le sfrutta, anche perché il giorno in cui verranno sfruttate non basteranno.
Nvidia intanto ha venduto a sfare le sue 8800 e ha avuto tutto il tempo di pianificare il futuro, questa si che è strategia.
Una volta è scivolata nvidia, questa volta è toccata alla ATI, ma non a livello tecnologico, ma di strategia di mercato.
io sono più che convinto del fatto che ambedue le schede siano validissime, sotto ogni punto di vista, sono 2 aziende che hanno fatto delle scelte progettuali differenti e nessuna delle due si può dire siano sbagliate, secondo me progettisti HW e SW dovrebbero sedersi ad un tavolo e mettersi daccordo, sembra che ognuno vada per la propria strada :-\
non capisco perché la gente continua a confrontare le due schede a livello tecnologico, nvidia si è fatta 2 conti e ha detto: di giochi dx10 se ne vedranno tra un anno se tutto va bene, facciamo una bella scheda che sfrutti al max le dx9 e pronta per le dx10, non stiamo a utilizzare architetture specifiche e complesse per le dx10 anche perché in seguito dovremmo diventare scemi a fare i driver ottimizzati...
e ha fatto bene a ragionare così, infatti ha venduto a sfascio le 8800 senza deludere nessuno.
Tutta questione di mercato, di soldi, di vendere il più possibile senza anticipare nulla e fare passi più lunghi della gamba che non sono mai serviti a nulla.
La Ati sembra sia spinta più dalla "passione" e sforni schede che vanno oltre i tempi, ma non basta tirar fuori schede ipertecnologiche se ad oggi nulla le sfrutta, anche perché il giorno in cui verranno sfruttate non basteranno.
Nvidia intanto ha venduto a sfare le sue 8800 e ha avuto tutto il tempo di pianificare il futuro, questa si che è strategia.
Una volta è scivolata nvidia, questa volta è toccata alla ATI, ma non a livello tecnologico, ma di strategia di mercato.
io sono più che convinto del fatto che ambedue le schede siano validissime, sotto ogni punto di vista, sono 2 aziende che hanno fatto delle scelte progettuali differenti e nessuna delle due si può dire siano sbagliate, secondo me progettisti HW e SW dovrebbero sedersi ad un tavolo e mettersi daccordo, sembra che ognuno vada per la propria strada :-\
Voglio ricordare che questa scheda oltre a essersi spinta per "passione" come dici tu mi sembra che abbia delle prestazioni di tutto rispetto con i giochi dx9 superiori alla concorrente 8800gts 640mb non perdiamo mai di vista la concorrente di questa scheda ;),Forse è vero ATI ha inserito in r600 una teconlogia che ancora oggi non è sfruttata, ma hai pensato che ora ha fatto un passo in più rispetto nVidia e nVdia a sua volta dovrà appenna immessa sul mercato "Ottimizzare" la scheda come sta facendo ati in questo momento?Sinceramente 6 mesi dopo nVidia Ati non poteva buttare fuori una scheda super potente dx9 per poi andare male con i primi giochi dx10 quindi hanno fatto una scelta orintata più sulle nuove APi ed io apprezzo molto questa scelta come si suol dire "si stanno facendo le ossa"con r600 sempre IMHO ;)....E tutto questo baccano per una scheda come la 2900xt che va egreggiamente con tutto quello che è uscito oggi secondo me è ingustificato......Si aprla di driver buggati ancora è vero molto vero pensado solo che alla seconda release dei driver hanno abbassato il consumo e il calore con aumento di prestazione in alcuni giochi.IMHO si discute di sto benedetto Crysis che girerà non girerà ci vogliono schede ultra potenti ecc ecc, ma su cosa vi basate per dire tutto cio non capisco,appena avremo il gioco nelle mani allora si che potremmo giudicare il lavoro della crytek e il lavoro delle nostre gpu fin a quel momento è "inutile" spammare con 3000 massaggi dicendo: "Ci vuole una configurazione sli o CF oppure dovremmo aspettare nuove GPU" ho capito esprimere il proprio pensiero ma fino ad un certo punto, vedere il thread che fra l'altro non è nemmeno quello ufficiale di Crysis con sentenze su come crysis girerà sulle nostre gpu è davvero inutile :rolleyes:
non capisco perché la gente continua a confrontare le due schede a livello tecnologico, nvidia si è fatta 2 conti e ha detto: di giochi dx10 se ne vedranno tra un anno se tutto va bene, facciamo una bella scheda che sfrutti al max le dx9 e pronta per le dx10, non stiamo a utilizzare architetture specifiche e complesse per le dx10 anche perché in seguito dovremmo diventare scemi a fare i driver ottimizzati...
e ha fatto bene a ragionare così, infatti ha venduto a sfascio le 8800 senza deludere nessuno.
Tutta questione di mercato, di soldi, di vendere il più possibile senza anticipare nulla e fare passi più lunghi della gamba che non sono mai serviti a nulla.
La Ati sembra sia spinta più dalla "passione" e sforni schede che vanno oltre i tempi, ma non basta tirar fuori schede ipertecnologiche se ad oggi nulla le sfrutta, anche perché il giorno in cui verranno sfruttate non basteranno.
Nvidia intanto ha venduto a sfare le sue 8800 e ha avuto tutto il tempo di pianificare il futuro, questa si che è strategia.
Una volta è scivolata nvidia, questa volta è toccata alla ATI, ma non a livello tecnologico, ma di strategia di mercato.
io sono più che convinto del fatto che ambedue le schede siano validissime, sotto ogni punto di vista, sono 2 aziende che hanno fatto delle scelte progettuali differenti e nessuna delle due si può dire siano sbagliate, secondo me progettisti HW e SW dovrebbero sedersi ad un tavolo e mettersi daccordo, sembra che ognuno vada per la propria strada :-\
be cmq chi ti dice che quando ci saranno le tecnologie per sfruttare R600, questo sarà vecchio? cioè in fin dei conti noi nn sappiamo come va in un vero DX10, l'abbiamo visto all'opera solo con dei giochi mal ottimizzati e con solo una patch alle DX10, quindi fino a oggi noi veramente nn sappiamo come vada, lo presumiamo, però si presumeva anche che R600 avrebbe stracciato G80 in DX9 ;) l'unica cose che si potrebbe dire è che si può vedere come va nelle demo di R600, e li (l'ho vista) fa impressione ;)
pierluigi86
09-07-2007, 18:25
money (http://www.overclockers.co.uk/showproduct.php?prodid=GX-062-OK)
chi vuole provarla???
Soulbringer
09-07-2007, 18:26
money (http://www.overclockers.co.uk/showproduct.php?prodid=GX-062-OK)
chi vuole provarla???
Grazie ma la mia ce l'ho già..:D
Voglio ricordare che questa scheda oltre a essersi spinta per "passione" come dici tu mi sembra che abbia delle prestazioni di tutto rispetto con i giochi dx9 superiori alla concorrente 8800gts 640mb non perdiamo mai di vista la concorrente di questa scheda ;),Forse è vero ATI ha inserito in r600 una teconlogia che ancora oggi non è sfruttata, ma hai pensato che ora ha fatto un passo in più rispetto nVidia e nVdia a sua volta dovrà appenna immessa sul mercato "Ottimizzare" la scheda come sta facendo ati in questo momento?Sinceramente 6 mesi dopo nVidia Ati non poteva buttare fuori una scheda super potente dx9 per poi andare male con i primi giochi dx10 quindi hanno fatto una scelta orintata più sulle nuove APi ed io apprezzo molto questa scelta come si suol dire "si stanno facendo le ossa"con r600 sempre IMHO ;)....E tutto questo baccano per una scheda come la 2900xt che va egreggiamente con tutto quello che è uscito oggi secondo me è ingustificato......Si aprla di driver buggati ancora è vero molto vero pensado solo che alla seconda release dei driver hanno abbassato il consumo e il calore con aumento di prestazione in alcuni giochi.IMHO si discute di sto benedetto Crysis che girerà non girerà ci vogliono schede ultra potenti ecc ecc, ma su cosa vi basate per dire tutto cio non capisco,appena avremo il gioco nelle mani allora si che potremmo giudicare il lavoro della crytek e il lavoro delle nostre gpu fin a quel momento è "inutile" spammare con 3000 massaggi dicendo: "Ci vuole una configurazione sli o CF oppure dovremmo aspettare nuove GPU" ho capito esprimere il proprio pensiero ma fino ad un certo punto, vedere il thread che fra l'altro non è nemmeno quello ufficiale di Crysis con sentenze su come crysis girerà sulle nostre gpu è davvero inutile :rolleyes:
be cmq chi ti dice che quando ci saranno le tecnologie per sfruttare R600, questo sarà vecchio? cioè in fin dei conti noi nn sappiamo come va in un vero DX10, l'abbiamo visto all'opera solo con dei giochi mal ottimizzati e con solo una patch alle DX10, quindi fino a oggi noi veramente nn sappiamo come vada, lo presumiamo, però si presumeva anche che R600 avrebbe stracciato G80 in DX9 ;) l'unica cose che si potrebbe dire è che si può vedere come va nelle demo di R600, e li (l'ho vista) fa impressione ;)
pensa abbimo scritto la stessa cosa, con parole e alcuni concetti diversi, ma il succo è quello!
Voglio ricordare che questa scheda oltre a essersi spinta per "passione" come dici tu mi sembra che abbia delle prestazioni di tutto rispetto con i giochi dx9 superiori alla concorrente 8800gts 640mb non perdiamo mai di vista la concorrente di questa scheda ;),Forse è vero ATI ha inserito in r600 una teconlogia che ancora oggi non è sfruttata, ma hai pensato che ora ha fatto un passo in più rispetto nVidia e nVdia a sua volta dovrà appenna immessa sul mercato "Ottimizzare" la scheda come sta facendo ati in questo momento?Sinceramente 6 mesi dopo nVidia Ati non poteva buttare fuori una scheda super potente dx9 per poi andare male con i primi giochi dx10 quindi hanno fatto una scelta orintata più sulle nuove APi ed io apprezzo molto questa scelta come si suol dire "si stanno facendo le ossa"con r600 sempre IMHO ;)....E tutto questo baccano per una scheda come la 2900xt che va egreggiamente con tutto quello che è uscito oggi secondo me è ingustificato......Si aprla di driver buggati ancora è vero molto vero pensado solo che alla seconda release dei driver hanno abbassato il consumo e il calore con aumento di prestazione in alcuni giochi.IMHO si discute di sto benedetto Crysis che girerà non girerà ci vogliono schede ultra potenti ecc ecc, ma su cosa vi basate per dire tutto cio non capisco,appena avremo il gioco nelle mani allora si che potremmo giudicare il lavoro della crytek e il lavoro delle nostre gpu fin a quel momento è "inutile" spammare con 3000 massaggi dicendo: "Ci vuole una configurazione sli o CF oppure dovremmo aspettare nuove GPU" ho capito esprimere il proprio pensiero ma fino ad un certo punto, vedere il thread che fra l'altro non è nemmeno quello ufficiale di Crysis con sentenze su come crysis girerà sulle nostre gpu è davvero inutile :rolleyes:
non è un discorso di passo avanti, credi che una azienda come nvidia non sia in grado di fare una scheda avanzata come ha fatto la ATI ?
Io credo che problemi non ne hanno a "creare" una scheda dx10 all'avanguardia e che rispetti totalmente le direttive DX, ripeto, sono solo strategie commerciali, gli ingegneri di ambedue le aziende sanno il fatto loro, solo che seguono una via differente e soprattutto "tempi" differenti.
io sono fanboy di entrambe, perché dal culo che si fanno loro ne guadagno io/noi :)
Voglio ricordare che questa scheda oltre a essersi spinta per "passione" come dici tu mi sembra che abbia delle prestazioni di tutto rispetto con i giochi dx9 superiori alla concorrente 8800gts 640mb non perdiamo mai di vista la concorrente di questa scheda ;),Forse è vero ATI ha inserito in r600 una teconlogia che ancora oggi non è sfruttata, ma hai pensato che ora ha fatto un passo in più rispetto nVidia e nVdia a sua volta dovrà appenna immessa sul mercato "Ottimizzare" la scheda come sta facendo ati in questo momento?Sinceramente 6 mesi dopo nVidia Ati non poteva buttare fuori una scheda super potente dx9 per poi andare male con i primi giochi dx10 quindi hanno fatto una scelta orintata più sulle nuove APi ed io apprezzo molto questa scelta come si suol dire "si stanno facendo le ossa"con r600 sempre IMHO ;)....E tutto questo baccano per una scheda come la 2900xt che va egreggiamente con tutto quello che è uscito oggi secondo me è ingustificato......Si aprla di driver buggati ancora è vero molto vero pensado solo che alla seconda release dei driver hanno abbassato il consumo e il calore con aumento di prestazione in alcuni giochi.IMHO si discute di sto benedetto Crysis che girerà non girerà ci vogliono schede ultra potenti ecc ecc, ma su cosa vi basate per dire tutto cio non capisco,appena avremo il gioco nelle mani allora si che potremmo giudicare il lavoro della crytek e il lavoro delle nostre gpu fin a quel momento è "inutile" spammare con 3000 massaggi dicendo: "Ci vuole una configurazione sli o CF oppure dovremmo aspettare nuove GPU" ho capito esprimere il proprio pensiero ma fino ad un certo punto, vedere il thread che fra l'altro non è nemmeno quello ufficiale di Crysis con sentenze su come crysis girerà sulle nostre gpu è davvero inutile :rolleyes:
cmq è vero, nn ci avevo mai pensato, oggi ATI si fa le ossa con R600, fra 5/6/7 mesi tocca ad Nvidia, e quindi la storia si ripeterà, il vantaggio che avendo iniziato prima, nel futuro sarà avvantaggiata e nn poco:D
pierluigi86
09-07-2007, 18:41
Grazie ma la mia ce l'ho già..:D
a meno che tu non sia Hector Ruiz come fai già ad avere la 2900xt 1024mb gddr4...
quello è il link della prevendita dell' ultima nata in casa Amd/Ati
Vorrei solo far notare che le stesse persone che dicono "giochi DX10 ancora non ce ne sono, come fate a dire che andranno male sulle attuali vga", dicono che la HD2900 è pensata e darà il meglio di sé sotto DX10: ma se, come dite giustamente, giochi DX10 non ce ne sono, cosa dà a voi tutta questa certezza (al di là delle specifiche tecniche, che non danno nessuna garanzia, se non i bei paroloni e tutte le belle features sbandierate)?
appleroof
09-07-2007, 18:58
Vorrei solo far notare che le stesse persone che dicono "giochi DX10 ancora non ce ne sono, come fate a dire che andranno male sulle attuali vga", dicono che la HD2900 è pensata e darà il meglio di sé sotto DX10: ma se, come dite giustamente, giochi DX10 non ce ne sono, cosa dà a voi tutta questa certezza (al di là delle specifiche tecniche, che non danno nessuna garanzia, se non i bei paroloni e tutte le belle features sbandierate)?
Al di là di considerazioni prettamente tecniche, è normale che uno ci speri, poi si vedrà, lo dico senza polemica credetemi :)
a meno che tu non sia Hector Ruiz come fai già ad avere la 2900xt 1024mb gddr4...
quello è il link della prevendita dell' ultima nata in casa Amd/Ati
Edit,ho sbagliato,scusate
Secondo me il problema oltre all'ottimizzazione dei giochi è anche l'eccessiva pretesa che si ha dalla propria vga.
Ma secondo voi fare andare un gioco a 50 fps con hdr aa4X af16x e risoluzioni assurde fino a qualche anno fa (tipo 1680x1050 e 1920x1200) è una cosa semplice?
Vorrei solo far notare che le stesse persone che dicono "giochi DX10 ancora non ce ne sono, come fate a dire che andranno male sulle attuali vga", dicono che la HD2900 è pensata e darà il meglio di sé sotto DX10: ma se, come dite giustamente, giochi DX10 non ce ne sono, cosa dà a voi tutta questa certezza (al di là delle specifiche tecniche, che non danno nessuna garanzia, se non i bei paroloni e tutte le belle features sbandierate)?
E chi ce l'ha questa certezza :D ?
Dico solo che negli anni è sempre successo questo. Grosse rivoluzioni grafiche nei videogames hanno sempre ridimensionato le fascie alte dell'epoca.
E se crysis non è una grossa rivoluzione grafica...
Notizie sui 7.7 ufficiali ve ne sono, i beta ormai sono usciti da un po' se non ricordo male.
Notizie sui 7.7 ufficiali ve ne sono, i beta ormai sono usciti da un po' se non ricordo male.
saranno rimasti alla certificazione whql ;)
saranno rimasti alla certificazione whql ;)
Sono curioso di provare Lost Planet che è da quasi 2 mesi installato solo per capire quando risolvono i problemi di compatibilità ;)
Iantikas
09-07-2007, 21:40
Sono curioso di provare Lost Planet che è da quasi 2 mesi installato solo per capire quando risolvono i problemi di compatibilità ;)
io ce l'avevo ancora incellofanato sulla scrivania...alla fine dato ke stan tardando a spedire l'ho installato proprio oggi così poi posso anke fare un raffronto su come mi va ora con la x1900xtx e come m'andrà con la hd2900xt...
...la x1900xtx se potesse piangere lo farebbe...lost planet la mette ancora + in ginokkio d DIRT...lo sto giocando a 1024x768 tutto al max senza AA 16xAF e cmq sto giusto poco sopra i 30fps...spero la hd2900xt tiri fuori i muscoli e mi faccia guadagnare almeno x giocarlo a 1280x800 con 4xAA inm maniera ottimale sopra i 40fps...ciao
io ce l'avevo ancora incellofanato sulla scrivania...alla fine dato ke stan tardando a spedire l'ho installato proprio oggi così poi posso anke fare un raffronto su come mi va ora con la x1900xtx e come m'andrà con la hd2900xt...
...la x1900xtx se potesse piangere lo farebbe...lost planet la mette ancora + in ginokkio d DIRT...lo sto giocando a 1024x768 tutto al max senza AA 16xAF e cmq sto giusto poco sopra i 30fps...spero la hd2900xt tiri fuori i muscoli e mi faccia guadagnare almeno x giocarlo a 1280x800 con 4xAA inm maniera ottimale sopra i 40fps...ciao
lost planet in dx9 negli esterni mi sta oltre i 80 fps, sempre a 1280x1024, e con vari filtri attivati, mentre in dx10 sui 45 fps
lost planet in dx9 negli esterni mi sta oltre i 80 fps, sempre a 1280x1024, e con vari filtri attivati, mentre in dx10 sui 45 fps
Tu che l'hai provato il gioco completo mi puo dire differenze visive su dx10 e dx9 grazie;)
non è un discorso di passo avanti, credi che una azienda come nvidia non sia in grado di fare una scheda avanzata come ha fatto la ATI ?
Io credo che problemi non ne hanno a "creare" una scheda dx10 all'avanguardia e che rispetti totalmente le direttive DX, ripeto, sono solo strategie commerciali, gli ingegneri di ambedue le aziende sanno il fatto loro, solo che seguono una via differente e soprattutto "tempi" differenti.
io sono fanboy di entrambe, perché dal culo che si fanno loro ne guadagno io/noi :)
Io credo che un azienda con nVdia può fare schede dx10 tranquillamente...ho sottolineato solo il fatto che ATI ora si sta faccendo le ossa con questa scheda e abbiamo visto tutti le difficoltà incontrate a livello driver...Poi per quanto riguarda la reale potenzialità di queste due schede in dx10 nessuna la sa e quale delle due architetture sia più soddisfacente per queste nuove api ;)
+Lonewolf+
09-07-2007, 22:54
lost planet in dx9 negli esterni mi sta oltre i 80 fps, sempre a 1280x1024, e con vari filtri attivati, mentre in dx10 sui 45 fps
ottimo;)
NvidiaMen
09-07-2007, 23:05
Negli shop tedeschi inizia a vedersi (poco sotto i 500€) qualche 2900XT da 1GB (http://www.hardwareschotte.de/hardware/preise/proid_9060394/preis_SAPPHIRE+Radeon+HD+2900XT+1GB+21108-02-10R)... ;)
Iantikas
09-07-2007, 23:29
lost planet in dx9 negli esterni mi sta oltre i 80 fps, sempre a 1280x1024, e con vari filtri attivati, mentre in dx10 sui 45 fps
WOW...beh allora nn vedo l'ora ke arrivi (infatti la stavo giusto aspettando x installarlo ma poi nn sapendo ke fare mi son detto mo lo provo...anke se l'esperienza con la x1900 nn'è delle migliori)...
...se fai circa 80fps d media a 1280x1024 filtri e dettagli al max vuol dire ke in questo gioco la differenza tra vekkia e nuova generazione ati è enorme (dato ke una x1900xtx a malapena da un gameplay fluido a 1024x768 tutto al max ma senza AA)...ciao
Negli shop tedeschi inizia a vedersi (poco sotto i 500€) qualche 2900XT da 1GB (http://www.hardwareschotte.de/hardware/preise/proid_9060394/preis_SAPPHIRE+Radeon+HD+2900XT+1GB+21108-02-10R)... ;)
a meno che tu non sia Hector Ruiz come fai già ad avere la 2900xt 1024mb gddr4...
quello è il link della prevendita dell' ultima nata in casa Amd/Ati
Ok che è fudzilla...
però...
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1832&Itemid=1
Iantikas
10-07-2007, 00:43
madò c'è da nn crederci a leggere questa rece appena uscita con i 7.6 dove vien testata sia da sola ke in CF...
... http://enthusiast.hardocp.com/article.html?art=MTM1OSwxLCxoZW50aHVzaWFzdA== ...
...nn c credo ke possa andare così male...certo ke potevano farla uscire qualke giorno dopo xkè ora suderò freddo finkè nn potrò fare io e test e quindi essere certo d come realmente va...ciao
Free Gordon
10-07-2007, 01:30
raga ma poi una cosa xè vi siete fissati co sto crysis mentre nessuno pensa che il motore + sfruttato per i prossimi game visto che anche i cani hanno comprato la licenza è ut engine 3 e in primis unreal tournament 2007.
io mi preoccuperei di questo visto che è un motore dx9 e se nn lo aggiornano voglio vedermi le risate con la mia hd2900xt quando attivo l'aa 4x che invece di perdere il 25% di prestazioni come sulla x1950 o sulle 8800 ne perdo il 50%.
a me preoccuperebbe + questo che nn crysis
Con il prossimo Unreal engine non potrai attivare l'AA in dx9 (usando il deferred shading ;) ) ma solo nella vers dx10.
E in quel caso, sarà fatto via shader. :)
*tutto ciò è stato detto da Tim Sweeny, in un'intervista qualche settimana fà.
Quoziente
10-07-2007, 07:16
:D :D :D :D :D E' ARRIVATA!!!:D :D :D :D :D
Ho avuto modo di testare DIRT a 1680x1050 con tutto al max tranne le ombre su medio e l'AA su 2x e gira che è una meraviglia... Giocare così è uno spettacolo per gli occhi:sbavvv:
madò c'è da nn crederci a leggere questa rece appena uscita con i 7.6 dove vien testata sia da sola ke in CF...
... http://enthusiast.hardocp.com/article.html?art=MTM1OSwxLCxoZW50aHVzaWFzdA== ...
...nn c credo ke possa andare così male...certo ke potevano farla uscire qualke giorno dopo xkè ora suderò freddo finkè nn potrò fare io e test e quindi essere certo d come realmente va...ciao
cavolo ma li hanno fatti veramente male questi test, in alcuni giochi fanno dei conftonti con attivi i filtri e no, cioè nn è che devono disattivarli dalla 2900 solo per farla apparire meglio, cmq sembrano anche a me un po' strani come valori:muro:
:D :D :D :D :D E' ARRIVATA!!!:D :D :D :D :D
Ho avuto modo di testare DIRT a 1680x1050 con tutto al max tranne le ombre su medio e l'AA su 2x e gira che è una meraviglia... Giocare così è uno spettacolo per gli occhi:sbavvv:
complimenti per l'acquisto!
ci potresti postare un po' di valori di DiRT?
edit: fallo anche sul 3d delle prove così poi vengono aggiunti alla lista
Quoziente
10-07-2007, 08:00
complimenti per l'acquisto!
ci potresti postare un po' di valori di DiRT?
edit: fallo anche sul 3d delle prove così poi vengono aggiunti alla lista
Senz'altro, stasera faccio qualche prova, vanno bene i valori rilevati da fraps?
Sono uscite le specifiche per uno dei primi titoli dx10, Bioshock:
- Minimum System Requirements -
CPU - Pentium 4 2.4GHz Single Core processor
System RAM - 1GB
Video Card - Direct X 9.0c compliant video card with 128MB RAM (NVIDIA 6600 or better/ATI X1300 or better, excluding ATI X1550).
Sound Card - 100% direct X 9.0c compatible sound card
Hard disc space - 8GB free space
- Recommended System Requirements -
CPU - Intel Core 2 Duo processor
System RAM - 2GB
Video card - DX9 - Direct X 9.0c compliant video card with 512MB RAM (NVIDIA GeForce 7900 GT or better) / DX10 - NVIDIA GeForce 8600 or better
Nulla di preoccupante se non fosse per i 512 Mb di vram tra le raccomandate, per intenderci mi pare che Stalker avesse specifiche raccomandate ben più sostanziose.
ale0bello0pr
10-07-2007, 09:09
Sono uscite le specifiche per uno dei primi titoli dx10, Bioshock:
- Minimum System Requirements -
CPU - Pentium 4 2.4GHz Single Core processor
System RAM - 1GB
Video Card - Direct X 9.0c compliant video card with 128MB RAM (NVIDIA 6600 or better/ATI X1300 or better, excluding ATI X1550).
Sound Card - 100% direct X 9.0c compatible sound card
Hard disc space - 8GB free space
- Recommended System Requirements -
CPU - Intel Core 2 Duo processor
System RAM - 2GB
Video card - DX9 - Direct X 9.0c compliant video card with 512MB RAM (NVIDIA GeForce 7900 GT or better) / DX10 - NVIDIA GeForce 8600 or better
Nulla di preoccupante se non fosse per i 512 Mb di vram tra le raccomandate, per intenderci mi pare che Stalker avesse specifiche raccomandate ben più sostanziose.
vedremo come gira con la HD2900 XT e poi un pò tutti a fare test.... visto il video del trailer ufficiale.... beh davvero bello non c'è che dire... :D
3DMark79
10-07-2007, 09:43
:D :D :D :D :D E' ARRIVATA!!!:D :D :D :D :D
Ho avuto modo di testare DIRT a 1680x1050 con tutto al max tranne le ombre su medio e l'AA su 2x e gira che è una meraviglia... Giocare così è uno spettacolo per gli occhi:sbavvv:
Scusami vedo che hai montato una HD2900XT con un Tecnoware 600W, possibile!?!:mbe: E' il pro silent?Mi potresti dire gli Amp. sulle varie linee per curiosità grazie.:rolleyes:
Scusami vedo che hai montato un Tecnoware 600W su una HD2900XT, possibile!?!:mbe: E' il pro silent?Mi potresti dire gli Amp. sulle varie linee per curiosità grazie.:rolleyes:
te lo dico io che possiedo lo stesso ali (FAL600PRO)
22A+20A su due linee da +12V
Quoziente
10-07-2007, 09:54
te lo dico io che possiedo lo stesso ali (FAL600PRO)
22A+20A su due linee da +12V
Esatto! La scheda l'ho alimentata con 2 connettori da 6pin (uno esce dall'alimentatore, per l'altro ho preso un adattatore).
Edit: Mi era anche venuta l'idea malsana di scollegare il cavo 8pin dalla scheda madre e attaccarlo alla scheda video ma non credo che la mobo gradisca...
Se ho tempo stasera provo DIRT con gli stessi settaggi e lo stesso tracciato sia sotto xp che sotto vista, voglio proprio vedere le differenze di frames... A proposito, DIRT sotto vista sfrutta le DX10 o va in DX9?
Iantikas
10-07-2007, 10:39
cavolo ma li hanno fatti veramente male questi test, in alcuni giochi fanno dei conftonti con attivi i filtri e no, cioè nn è che devono disattivarli dalla 2900 solo per farla apparire meglio, cmq sembrano anche a me un po' strani come valori:muro:
ad Hard-Ocp usano una metodologia diversa x testare le GPU (oltre a quella normale a parità d settaggi nella pag "apples to apples")...in pratica x ogni gioco cercano quali sono i max settaggi con cui la skeda riesce a garantire fluidità (x questo x es. nel caso ke dici tu la hd2900xt nn ha l'AA attivato mentre la GTS si...xkè nn permette d attivarlo mantenendo fluidità mentre la GTS si)...
...cmq nn posso credere ke la skeda vada veramente così...domani mattina ke finalmente arriva farò i test io e se vedrò differenze esagerate una mail dove gliene dico quattro c sta x forza...ciao
Iantikas
10-07-2007, 10:41
Esatto! La scheda l'ho alimentata con 2 connettori da 6pin (uno esce dall'alimentatore, per l'altro ho preso un adattatore).
Edit: Mi era anche venuta l'idea malsana di scollegare il cavo 8pin dalla scheda madre e attaccarlo alla scheda video ma non credo che la mobo gradisca...
Se ho tempo stasera provo DIRT con gli stessi settaggi e lo stesso tracciato sia sotto xp che sotto vista, voglio proprio vedere le differenze di frames... A proposito, DIRT sotto vista sfrutta le DX10 o va in DX9?
l'8pin EPS ke colleghi alla mobo è diverso dal 8pin pci-e ke colleghi alla GPU...anke volendo nn potresti collegarlo xkè la forma dei vari connettori è differente...ciao
Quoziente
10-07-2007, 10:50
DIRT è dx9.0.
Permettimi un piccolo OT: dx9.0 ma veramente spremute all'osso!!!:)
l'8pin EPS ke colleghi alla mobo è diverso dal 8pin pci-e ke colleghi alla GPU...anke volendo nn potresti collegarlo xkè la forma dei vari connettori è differente...ciao
Non ci avevo fatto caso...:rolleyes: Cmq non avrei mai azzardato una mossa simile anche se i conettori fossero stati uguali. Per ora non mi interessa l'overclock della 2900...
Grazie cmq. Ciao
Permettimi un piccolo OT: dx9.0 ma veramente spremute all'osso!!!:)
vero :)
Permettimi un piccolo OT: dx9.0 ma veramente spremute all'osso!!!:)
Ciò non toglie che anche in Vista e con una vga DX10 giri in DX9, visto che è programmato così ;)
Con il prossimo Unreal engine non potrai attivare l'AA in dx9 (usando il deferred shading ;) ) ma solo nella vers dx10.
E in quel caso, sarà fatto via shader. :)
*tutto ciò è stato detto da Tim Sweeny, in un'intervista qualche settimana fà.
speriamo nn sia cosi se no è la volta che per un games apro le porte del mio hd a vista!
confido nei programmatori ati per fare dei dvr che ovvino al problema
-Feanor-
10-07-2007, 11:25
salve ragazzi...eccomi tornato....
sono stato via qualche giorno ma nonostante le 15 e passa nuove pagine del 3d (che mi sono letto)...mi pare che non ci sia stata nessuna novita significativa...correggetemi se sbaglio.......
questa notizia su r700 pero non mi pare di averla vista... http://www.dinoxpc.com/News/news.asp?ID_News=12836&What=News
speriamo nn sia cosi se no è la volta che per un games apro le porte del mio hd a vista!
confido nei programmatori ati per fare dei dvr che ovvino al problema
Già succede in giochi come S.T.A.L.K.E.R. e i due GRAW: è il deferred shading che è incompatibile con il calssico MSAA, non c'entrano nulla i driver ;)
salve ragazzi...eccomi tornato....
sono stato via qualche giorno ma nonostante le 15 e passa nuove pagine del 3d (che mi sono letto)...mi pare che non ci sia stata nessuna novita significativa...correggetemi se sbaglio.......
questa notizia su r700 pero non mi pare di averla vista... http://www.dinoxpc.com/News/news.asp?ID_News=12836&What=News
mio dio sistema a cluser che ricorda tanto le 5500-6000 di 3dfx.
a me queste soluzioni nn sono mai piaciute anche x il fatto che in un unica gpu con integrate n shader e pipeline devi lavorare su una solo gpu
in questo caso ha oltre n gpu con n shader devi lavorare anche sulle n interconnessioni tra le n gpu.
visto che preumo che r700 avrà una complessità molto simile a r600 ergo basta vedere il lavoro di ottimizzazione che si sta facendo con r600 immaginate il lavoro che si dovrebbe fare su un chip che al suo interno ha n gpu da programmare.
Tidus.hw
10-07-2007, 11:46
speriamo nn sia cosi se no è la volta che per un games apro le porte del mio hd a vista!
confido nei programmatori ati per fare dei dvr che ovvino al problema
non è un problema, è proprio quello che gli omini della ati vogliono :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.